Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 8 kwietnia 2026 10:58
  • Data zakończenia: 8 kwietnia 2026 11:18

Egzamin zdany!

Wynik: 36/40 punktów (90,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Format pliku dźwiękowego, który zawiera listę komend dla modułu brzmieniowego, to

A. .mod
B. .wav
C. .mid
D. .flac
Plik z rozszerzeniem .mid, czyli plik MIDI (Musical Instrument Digital Interface), faktycznie nie przechowuje dźwięku w tradycyjny sposób. On zawiera instrukcje – coś w rodzaju nut zapisanych cyfrowo. Każda komenda, która jest tam zapisana, mówi modułowi brzmieniowemu (albo syntezatorowi), jaki dźwięk ma zagrać, z jaką głośnością, jak długo, na jakim instrumencie itd. Z mojego doświadczenia to bardzo praktyczne rozwiązanie, bo plik .mid jest malutki – no bo nie ma tam próbek audio, tylko zestaw poleceń. W studiu czy też w produkcji muzyki komputerowej MIDI to podstawa, szczególnie przy sterowaniu zewnętrznymi instrumentami albo w sytuacji, gdy zależy nam na edycji nut w czasie rzeczywistym. Warto wiedzieć, że MIDI to uniwersalny standard, dzięki któremu można łatwo wymieniać aranżacje między programami czy urządzeniami różnych producentów. To, co ciekawe, plik .mid można zagrać na totalnie różnych sprzętach i zawsze zabrzmi inaczej – bo wszystko zależy od tego, jaki moduł brzmieniowy go odczyta. W branży IT i audio uznaje się to za bardzo wydajny i elastyczny format – szczególnie gdy chodzi o kontrolę nad instrumentami wirtualnymi, automatami perkusyjnymi czy nawet oświetleniem scenicznym. Tak szczerze, nie znam lepszego sposobu na przenoszenie pełnej aranżacji bez przenoszenia samych dźwięków.

Pytanie 2

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. LPF
B. LSF
C. HPF
D. HSF
Filtr LPF, czyli filtr dolnoprzepustowy, to podstawa w obróbce dźwięku, zwłaszcza gdy chodzi o usuwanie niepotrzebnych wysokich częstotliwości. W praktyce oznacza to, że wszystko powyżej ustalonej częstotliwości granicznej zostaje stłumione lub wręcz wycięte, a sygnały poniżej tej wartości przechodzą praktycznie bez zmian. To rozwiązanie jest codziennością w pracy z miksowaniem muzyki, masteringu czy postprodukcji dźwięku – filtr LPF przydaje się np. przy usuwaniu szumów, syczeń czy innych zakłóceń w wysokich pasmach. Moim zdaniem, to jeden z najważniejszych filtrów, bo pozwala na kontrolowanie przejrzystości miksu. Inżynierowie dźwięku korzystają z LPF, by np. „oczyścić” stopę perkusyjną z niepotrzebnych świstów, które mogą przeszkadzać w odbiorze całości utworu. Standardem branżowym jest dobieranie częstotliwości granicznej tak, by nie wpływać negatywnie na naturalność brzmienia instrumentów. Często do tego celu wykorzystuje się filtry Butterwortha lub Bessela, bo mają łagodne zbocza i minimalne zniekształcenia fazowe. Dobrze jest pamiętać, że w systemach Hi-Fi, filtr LPF służy choćby do rozdzielania pasma między subwooferem a satelitami. Odpowiednie ustawienie LPF pozwala zatem uzyskać pełniejsze i bardziej klarowne brzmienie, zgodnie z obecnymi normami pracy w audio.

Pytanie 3

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce w sesji programu DAW, aby całkowicie wypełnić przestrzeń na ścieżce do początku taktu piątego?

A. 4 razy.
B. 3 razy.
C. 1 raz.
D. 2 razy.
To jest właśnie sedno logicznego podejścia do pracy w DAW-ach. Jeśli mamy region obejmujący pierwszy takt – czyli od początku taktu pierwszego do początku taktu drugiego – to powielając go 3 razy, uzyskujemy cztery identyczne regiony: jeden od 1. do 2. taktu, drugi od 2. do 3., trzeci od 3. do 4. i czwarty od 4. do 5. taktu. W praktyce, region z pierwszego taktu trzeba skopiować jeszcze trzy razy, żeby wypełnić przestrzeń od początku do końca czwartego taktu, czyli dokładnie do początku piątego. To bardzo typowe zadanie – wiele osób podczas aranżowania bitu, basu czy perkusji zapętla jedną sekwencję i powiela ją, żeby zbudować strukturę utworu. Prawda jest taka, że większość DAW-ów, jak Ableton, FL Studio czy Cubase, działa właśnie na zasadzie kopiowania regionów/taktów i to jest zgodne z praktyką producencką. Moim zdaniem, rozumienie tego typu operacji nie tylko przyspiesza pracę, ale też pozwala lepiej panować nad aranżem. Warto pamiętać, że kopiowanie regionów w taki sposób jest podstawową umiejętnością i świetnym punktem wyjścia do dalszej edycji – potem można dowolnie modyfikować każdy takt czy dodawać automacje. W środowiskach studyjnych to wręcz codzienność – i każda osoba pracująca profesjonalnie w DAW-ach powinna mieć to w małym palcu.

Pytanie 4

Które z nagrań zostało zakodowane w cyfrowym systemie wielokanałowym?

A. Dolby Stereo.
B. Dolby.
C. Dolby Pro Logic.
D. Dolby Theatre System.
Często pojawia się zamieszanie wokół rodziny systemów Dolby, bo nazwy brzmią dość podobnie, a ich funkcje różniły się na przestrzeni lat. Dolby, samo w sobie, to marka i ogólna nazwa technologii redukcji szumów oraz różnych systemów dźwięku – nie jest to precyzyjna odpowiedź na pytanie o cyfrowe wielokanałowe kodowanie. Z kolei Dolby Stereo to bardzo znany, ale mocno już przestarzały system stosowany od lat 70., gdzie dźwięk stereo kodowano w sposób matrycowy na dwóch ścieżkach optycznych. Owszem, pozwalał on na pewnego rodzaju symulowanie przestrzennego dźwięku, ale wszystko w ramach sygnału analogowego, bez wydzielania niezależnych kanałów cyfrowych. Dolby Pro Logic to niejako rozwinięcie tej idei – tutaj również używano kodowania matrycowego, ale system umożliwiał rozdzielenie sygnału na cztery kanały (lewy, prawy, centralny, surround) i był szeroko stosowany w domowych systemach audio, nie w kinach. Jednakże, wciąż była to technologia analogowa, zależna od jakości nośnika i podatna na zakłócenia. Błąd, jaki tu często popełniamy, to zakładanie, że każda kolejna wersja Dolby była od razu cyfrowa i wielokanałowa, ale w rzeczywistości przeskok na pełną cyfrowość i prawdziwe wielokanałowe ścieżki dokonał się dopiero w rozwiązaniach takich jak Dolby Theatre System (czyli Dolby Digital Cinema, Atmos). Praktycznie nie da się osiągnąć obecnego poziomu immersji i jakości dźwięku w kinie przy użyciu systemów matrycowych, bo one nie pozwalają na niezależne sterowanie każdą ścieżką i precyzyjne pozycjonowanie efektów. Z mojego doświadczenia wynika, że rozpoznawanie, które systemy były cyfrowe, a które analogowe przynosi sporo punktów w praktykach zawodowych – warto więc dobrze zrozumieć, na czym polegał ten przełom technologiczny.

Pytanie 5

Maksymalna częstotliwość próbkowania obsługiwana przez współczesne interfejsy audio to

A. 96 kHz
B. 384 kHz
C. 48 kHz
D. 192 kHz
384 kHz to obecnie najwyższa częstotliwość próbkowania spotykana w nowoczesnych interfejsach audio, zwłaszcza tych z wyższej półki, przeznaczonych do zastosowań profesjonalnych czy zaawansowanej produkcji muzycznej. Moim zdaniem, to już trochę wykracza poza realne potrzeby większości użytkowników, ale audiofile i inżynierowie dźwięku lubią mieć maksymalną jakość i precyzję – nawet jeśli w praktyce końcowy materiał i tak będzie zgrany do niższej częstotliwości (np. 44,1 kHz na CD). Standardy branżowe, takie jak AES czy normy dotyczące jakości nagrań, dopuszczają próbkowanie nawet do 384 kHz, chociaż najczęściej spotyka się urządzenia operujące na poziomie 44,1, 48, 96 lub 192 kHz. Wysokie częstotliwości próbkowania mają sens np. w masteringu, archiwizacji czy obróbce dźwięku, gdzie każda najdrobniejsza różnica może mieć znaczenie. Co ciekawe, niektóre nowoczesne interfejsy pozwalają na jeszcze większe wartości, choć to już raczej ciekawostka niż realny standard. W codziennych zastosowaniach, nawet profesjonalnych, rzadko wykorzystuje się maksimum możliwości sprzętu, ale dobrze wiedzieć, że takie opcje istnieją – szczególnie gdy trafisz na klienta, który oczekuje wszystkiego co najlepsze. Ogólnie rzecz biorąc, odpowiedź 384 kHz to taki „pełen wypas”, jeśli chodzi o próbkowanie dźwięku.

Pytanie 6

Przy prowadzeniu dokumentacji montażu dźwięku w jego końcowych czynnościach należy uwzględnić użycie

A. limitera.
B. korektora barwy.
C. pogłosu.
D. bramki szumów.
Limiter to urządzenie, którego rola w końcowych etapach obróbki dźwięku jest wręcz nie do przecenienia. Moim zdaniem, praktycznie nie zdarza się, żeby profesjonalny miks czy montaż audio trafiał do emisji lub na płytę bez użycia limitera. No bo wiesz, limiter zabezpiecza sygnał przed niepożądanym przesterowaniem, czyli tak zwanym clipowaniem, które potrafi zrujnować całą jakość materiału. Branżowe standardy wyraźnie mówią, żeby w końcowych czynnościach – szczególnie przy masteringu, ale też przy przygotowaniu materiałów do emisji radiowej lub telewizyjnej – na sumie miksu lub na końcowym busie stosować limiter. Najczęściej ustawia się go tak, żeby szczytowe wartości nie przekraczały dopuszczalnych poziomów, na przykład -1 dBFS dla dystrybucji cyfrowej. To ogranicza ryzyko zniekształceń podczas konwersji czy kompresji kodekami stratnymi. W wielu DAW-ach i systemach postprodukcji spotkasz limitery jako ostatni insert na torze master. Z mojego doświadczenia to nie tylko kwestia bezpieczeństwa, ale i dobrego brzmienia – limiter potrafi delikatnie wygładzić sygnał, podnieść ogólną głośność, a jednocześnie nie pozwoli, żeby pojedyncze skoki poziomu zaskoczyły odbiorcę lub zniszczyły końcowy produkt. W dokumentacji montażu zawsze warto odnotować jego użycie – to pokazuje profesjonalizm i świadomość techniczną.

Pytanie 7

Jakiego rodzaju płyty DVD należy użyć do nagrania największej ilości materiału muzycznego?

A. DVD9
B. DVD18
C. DVD10
D. DVD5
Wybrałeś DVD18, co jest zdecydowanie najbardziej sensowne, jeśli chodzi o maksymalizowanie ilości danych na jednej płycie DVD. DVD18 to tzw. płyta dwustronna, dwuwarstwowa. Oznacza to, że ma dwie warstwy zapisu po każdej stronie, a więc w sumie cztery warstwy do wykorzystania. Dzięki temu DVD18 może pomieścić aż do około 17,1 GB danych, co jest prawie czterokrotnością zwykłej płyty DVD5. W praktyce, jeśli masz bardzo dużo materiałów muzycznych, które chcesz nagrać – np. archiwum płyt, koncerty czy kolekcje plików audio w wysokiej jakości – DVD18 daje największe pole do popisu i nie trzeba się martwić o miejsce. Warto też zauważyć, że takie płyty nie są zbyt popularne w codziennym użyciu, bo wymagają specjalnych nagrywarek, ale w zastosowaniach profesjonalnych lub archiwizacji spotyka się je całkiem często. Moim zdaniem, jeśli ktoś podchodzi na poważnie do tematu archiwizacji muzyki na fizycznych nośnikach, zawsze powinien brać pod uwagę nie tylko pojemność nominalną, ale też kompatybilność sprzętową oraz sposób odczytu – DVD18 wymaga odtwarzania z obu stron, co czasem bywa kłopotliwe, ale coś za coś. Standardy takie jak DVD Forum dokładnie opisują te różnice, więc warto się z nimi zapoznać jeśli planuje się duże projekty nagraniowe.

Pytanie 8

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Tremolo.
B. Pitchshifter.
C. Wibrato.
D. Reverb.
Procesor Reverb, czyli pogłos, to podstawowe narzędzie używane w realizacji dźwięku do kształtowania przestrzenności nagrania. Dzięki niemu możemy uzyskać wrażenie, że źródło dźwięku znajduje się w określonym pomieszczeniu – czy to w małym pokoju, wielkiej hali koncertowej, kościele albo dowolnie zaprojektowanej przestrzeni. Moim zdaniem żadna inna wtyczka nie daje takiego szerokiego wachlarza możliwości w tym zakresie jak właśnie Reverb. W praktyce, dość często używa się go do „osadzenia” instrumentów w miksie, nadania im głębi albo nawet zamaskowania pewnych niedoskonałości nagrania. Z mojego doświadczenia dobry pogłos sprawia, że miks brzmi bardziej naturalnie, mniej sucho i sterylnie, ale jednocześnie daje kontrolę nad rozmiarem, odległością czy nawet wysokością źródła dźwięku w obrazie stereo. Fachowcy zwracają uwagę, żeby nie przesadzać – zbyt duża ilość pogłosu może zniszczyć selektywność miksu. Dobre praktyki przewidują stosowanie różnych typów pogłosów na różnych śladach, by uzyskać możliwie realistyczny efekt akustyczny. Reverb jest też podstawą w przestrzennym dźwięku filmowym czy grach komputerowych. Wystarczy porównać suchy wokal z wokalem z pogłosem – różnica robi wrażenie nawet na laikach!

Pytanie 9

Na której z kaset sygnał audio zostanie zapisany w postaci cyfrowej?

A. DAT
B. CC
C. BETACAM
D. VHS
Odpowiedź DAT jest prawidłowa, bo kasety DAT (Digital Audio Tape) zostały opracowane specjalnie do cyfrowego zapisu dźwięku. DAT to w zasadzie taki techniczny przełom z końca lat 80., który pozwolił na rejestrację dźwięku w postaci cyfrowej, a nie analogowej jak w przypadku większości starszych kaset. Tego typu nośnik zachowuje idealną stabilność sygnału, nie ma szumów charakterystycznych dla zapisu analogowego, nie występują dropy czy zniekształcenia, które często irytowały podczas archiwizacji na kasetach CC czy VHS. Z mojego doświadczenia, DAT-y były i są używane do archiwizacji materiałów studyjnych, miksów, produkcji radiowych, a nawet w masteringach, zanim wszystko przeniosło się na dyski twarde. Szczególnie w branży muzycznej, gdzie wymaga się najwyższej jakości – 16 lub 24 bity przy 48 kHz albo nawet wyżej – DAT po prostu dawał radę przez lata i był zgodny z profesjonalnymi standardami. W dodatku, dane na DAT-ach można było łatwo przenosić między różnymi urządzeniami, co jest zgodne z dobrymi praktykami backupu i archiwizacji w branży AV. Co ciekawe, ten format był też wykorzystywany przy rejestracji dialogów filmowych czy w reportażu, bo urządzenia były względnie małe i mobilne. Dziś już rzadko się tego używa, ale wciąż spotykam się z tymi kasetami w archiwach radiowych. Digital Audio Tape to dobry przykład, jak standard cyfrowy opanował profesjonalny rynek – i trochę szkoda, że ludzie często mylą to z podobnie wyglądającymi, ale całkiem innymi kasetami.

Pytanie 10

Które z wymienionych określeń definiuje cyfrowy plik audio na osi czasu?

A. Częstotliwość próbkowania.
B. Głębia bitowa.
C. Długość słowa cyfrowego.
D. Rozdzielczość.
Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.

Pytanie 11

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Partytura.
B. Playlista.
C. Scenariusz.
D. Spis efektów.
Partytura to podstawowy dokument wykorzystywany w świecie muzyki, szczególnie w profesjonalnych produkcjach i podczas pracy zespołów muzycznych, orkiestr czy chóru. Jest to zapis nutowy całego utworu, gdzie każda linia odpowiada innemu instrumentowi lub głosowi. Dzięki temu dyrygent, kompozytor czy realizator dźwięku może dokładnie zobaczyć, co i kiedy ma być zagrane przez dany instrument. W praktyce partytura jest niezbędna nie tylko podczas prób, ale także w trakcie nagrań studyjnych czy koncertów na żywo, bo pozwala zachować pełną kontrolę nad wykonaniem utworu. Moim zdaniem, dobrze przygotowana partytura jest dowodem profesjonalizmu – każda licząca się sesja nagraniowa czy spektakl muzyczny opiera się właśnie na niej. Co ciekawe, obecnie coraz częściej korzysta się z cyfrowych partytur, które można łatwo edytować i przesyłać, co znacznie ułatwia pracę całego zespołu produkcyjnego. W branży muzycznej standardem jest, by każda osoba biorąca udział w wykonaniu miała dostęp do swojej własnej linii partytury bądź do całości, w zależności od potrzeb. To naprawdę ułatwia życie i pozwala uniknąć wielu nieporozumień na etapie realizacji projektu.

Pytanie 12

Zastosowanie opcji Interleaved w sesji spowoduje zapis

A. kanałów lewego i prawego ścieżki stereo do pliku mono.
B. do jednego pliku kanałów na ścieżkach stereo.
C. kanału lewego i prawego miksu do niezależnych plików.
D. do niezależnych plików kanałów lewego i prawego ścieżki stereo.
Opcja Interleaved w sesji, szczególnie w kontekście programów DAW i pracy ze ścieżkami stereo, oznacza zapisanie obu kanałów (lewego i prawego) do jednego pliku audio. W praktyce to jest najczęściej wykorzystywany sposób pracy z plikami stereo, bo pozwala na wygodniejsze zarządzanie projektami i szybszy transfer plików między różnymi systemami czy aplikacjami. Moim zdaniem, jest to szczególnie przydatne wtedy, kiedy eksportujesz miks do masteringu albo wysyłasz sesję komuś do dalszej obróbki – nie musisz pilnować, żeby oba pliki mono były poprawnie sparowane, bo wszystko masz w jednym, logicznym pliku stereo. W branży muzycznej i postprodukcyjnej to właściwie standard – WAV i AIFF obsługują tryb interleaved, a większość pluginów i stacji roboczych oczekuje właśnie takiego formatu. Z mojego doświadczenia wynika, że unikasz w ten sposób chaosu związanego z rozdzielnymi plikami kanałów, bo np. przy przenoszeniu projektu na inny komputer nie trzeba już ręcznie przypisywać lewego i prawego kanału. To drobiazg, który realnie przyspiesza workflow. Co ciekawe, niektóre starsze urządzenia hardware’owe czy programy jeszcze korzystają z plików split (osobny na kanał), ale to już raczej wyjątek niż reguła. Warto też wiedzieć, że Interleaved jest domyślną opcją eksportu w większości nowoczesnych DAW, więc nawet nie trzeba się nad tym za bardzo zastanawiać, po prostu działa.

Pytanie 13

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 320 kb/s
B. 160 kb/s
C. 240 kb/s
D. 480 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 14

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. dodanie do dźwięku szumu kwantyzacji.
B. nieznaczne podbicie środkowej części pasma.
C. powstanie dodatkowych harmonicznych.
D. odtworzenie sygnału identycznego jak oryginał.
Kompresja sygnału cyfrowego do formatu bezstratnego, a potem jego dekompresja, to proces, który – jeśli jest poprawnie przeprowadzony – daje sygnał dokładnie taki sam, jak oryginał. Chodzi tu o takie algorytmy jak FLAC, ALAC czy np. ZIP dla danych ogólnych. One zachowują każdą informację bit po bicie, nic nie ginie po drodze. Właśnie na tym polega różnica między kompresją bezstratną a stratną, gdzie ta druga (jak MP3 czy AAC) już bezpowrotnie usuwa część danych, żeby zmniejszyć plik. W standardach branżowych, przy archiwizacji dźwięku, zawsze zaleca się stosowanie formatów bezstratnych, jeśli chcemy mieć pewność, że po latach dostaniemy identyczny sygnał – to jest takie archiwalne „zero kompromisów”. No i jak się czasem zdarza komuś, że nieopatrznie przekonwertuje plik do stratnego i potem chce wrócić do oryginału, to już się nie da. Przy bezstratnym nie ma takich problemów, wszystko wraca do stanu wyjściowego. Moim zdaniem to ważne nie tylko dla purystów audiofilskich, ale po prostu dla każdego, kto pracuje z dźwiękiem poważniej, czy to w studiu, czy z materiałami historycznymi. Kompresja bezstratna jest jak sejf: zamykasz, otwierasz i zawsze masz wszystko co było – ani bit mniej, ani więcej.

Pytanie 15

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. REV
B. DLY
C. COMP
D. GATE
Odpowiedź „GATE” jest jak najbardziej trafna – w kontekście procesorów efektów w DAW, właśnie ten skrót odnosi się do tzw. bramki szumów (ang. noise gate). Z mojego doświadczenia wynika, że bramka szumów to jeden z tych efektów, które są absolutnie niezbędne, gdy pracujesz z nagraniami audio, gdzie pojawia się niechciany szum, sprzężenia lub inne zakłócenia między frazami czy podczas ciszy w ścieżce. Bramki działają na zasadzie ustawiania progu głośności – jeśli sygnał jest poniżej tego progu, zostaje wyciszony, a jeśli go przekracza, jest przepuszczany dalej. Użycie GATE pozwala uzyskać czystsze nagrania, szczególnie w sytuacjach, gdzie mikrofon zbiera dźwięki otoczenia. W branży to już właściwie standard, że ścieżki wokalne, bębny czy nagrania z gitary często mają na insertach bramkę, żeby nie męczyć się z ręcznym usuwaniem szumów. Ciekawostką jest, że niektóre gate’y mają dodatkowe opcje, np. sidechain, co pozwala na naprawdę kreatywną pracę z dynamicznymi efektami. Warto jeszcze dodać, że GATE pojawia się praktycznie w każdym DAW, czy to Ableton, Cubase czy Pro Tools, a jego obsługa jest jednym z podstawowych elementów miksu. Moim zdaniem, każdy realizator dźwięku powinien znać to narzędzie na wylot, bo bez niego ciężko o profesjonalnie brzmiące nagrania.

Pytanie 16

W formularzu zgrania materiału audio do określonego standardu dźwięku wielokanałowego wypełnia się dane, dotyczące

A. użytego kodeka.
B. nazwy formatu danych audio.
C. rodzaju formatu pliku.
D. ilości ścieżek dźwiękowych.
Wiele osób przy wypełnianiu formularza zgrania audio utożsamia temat głównie z wyborem kodeka, ilością ścieżek dźwiękowych czy typem pliku i, szczerze mówiąc, łatwo wpaść w taką pułapkę. W praktyce branżowej, szczególnie w kontekście dźwięku wielokanałowego, te elementy są ważne, ale mają charakter wtórny wobec kluczowego parametru, jakim jest nazwa formatu danych audio. Kodek określa sposób kompresji lub dekompresji dźwięku – czyli odpowiada za to, jak dźwięk jest kodowany i odczytywany pod względem technicznym. Natomiast standardy dźwięku wielokanałowego, takie jak np. 5.1 czy 7.1, odnoszą się do ułożenia kanałów w pliku, a nie do samej metody kodowania. Z kolei ilość ścieżek dźwiękowych to tylko liczba kanałów – ważna przy miksie, ale dopiero w kontekście formatu danych audio nabiera ona rzeczywistego znaczenia (bo na przykład WAV obsługuje różną liczbę ścieżek, a MP3 – nie). Format pliku zaś bywa mylony z formatem danych audio: można mieć plik .wav, który nie spełnia wymagań np. Dolby Atmos, jeśli nie jest zgodny ze specyfikacją layoutu kanałów lub metadanych. Typowym błędem myślowym jest też traktowanie tych pojęć jako zamiennych – a są to różne, choć powiązane warstwy opisu danych. W branży filmowej czy radiowej kluczowe jest wpisanie dokładnej nazwy formatu audio, bo na tej podstawie później dobiera się narzędzia odsłuchowe, edycyjne czy archiwizacyjne. Zwróć uwagę, że kodek i format to nie to samo – nawet najlepszy kodek nie zastąpi poprawnie zdefiniowanego formatu. Z mojego doświadczenia wynika, że zamieszanie najczęściej bierze się stąd, że technologia dźwięku jest pełna podobnie brzmiących, ale znacząco różniących się pojęć. W praktyce, jeśli nazwa formatu danych audio nie zostanie prawidłowo określona, łatwo o poważne konsekwencje na etapie wymiany materiałów między studiem, klientem, a nadawcą.

Pytanie 17

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Audio File Type
B. Bit Resolution
C. Sample Rate
D. Channels
Częstotliwość próbkowania, czyli Sample Rate, to absolutnie kluczowy parametr każdego pliku audio, szczególnie w kontekście pracy w DAW-ach. To właśnie ona określa, ile próbek dźwięku jest pobieranych w ciągu jednej sekundy, a więc jak „precyzyjnie” odwzorowany jest sygnał analogowy w cyfrowym świecie. Standardowo w muzyce stosuje się 44,1 kHz, bo taka jest częstotliwość wykorzystywana na płytach CD, ale w studiach coraz częściej trafia się na 48 kHz, 96 kHz, czy nawet wyżej, zwłaszcza przy nagraniach na potrzeby filmu i profesjonalnych sesjach. Z mojego doświadczenia wynika, że odpowiednie dobranie Sample Rate już na etapie rejestracji ma ogromny wpływ na jakość końcową miksu i masteringu, a potem trudno już coś z tym zrobić bez utraty jakości. Sample Rate nie tylko wpływa na pasmo przenoszenia, ale też na kompatybilność między różnymi urządzeniami i programami. Dobrą praktyką jest, by cała sesja DAW miała jednolitą częstotliwość próbkowania, bo konwersje mogą powodować artefakty albo dziwne zniekształcenia. Moim zdaniem każdy realizator dźwięku powinien umieć dobrać Sample Rate do konkretnego projektu – czasem lepsza będzie wyższa częstotliwość, ale i większe pliki, a czasem trzeba świadomie wybrać kompromis. Tak czy siak, to Sample Rate odpowiada za częstotliwość próbkowania i nie ma tu żadnej wątpliwości.

Pytanie 18

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 5 kanałów.
B. 7 kanałów.
C. 1 kanału.
D. 8 kanałów.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 19

Częstotliwość próbkowania 48 kHz jest wykorzystywana na potrzeby

A. płyt CD-Audio.
B. transmisji zakresu mowy.
C. produkcji dźwięku w telewizji.
D. płyt mp3.
Częstotliwość próbkowania 48 kHz to taki trochę złoty standard właśnie w telewizji i ogólnie w branży związanej z produkcją wideo. Stosuje się ją w większości profesjonalnych środowisk audio-wideo, głównie ze względu na to, jak jest ustawiona infrastruktura broadcastowa i sprzęt studyjny. W praktyce, praktycznie wszystkie kamery, rejestratory dźwięku, miksery czy systemy montażowe pracują domyślnie na 48 kHz. To wynika z faktu, że ta wartość daje bardzo dobrą jakość dźwięku, znacznie przewyższającą ludzkie potrzeby percepcyjne (słyszymy do ok. 20 kHz), ale jednocześnie nie generuje zbyt dużych plików jak wyższe częstotliwości. Jest to kompromis między jakością a wydajnością – przetwarzanie dźwięku w tej rozdzielczości jest szybkie i nie obciąża tak mocno sprzętu. Moim zdaniem, dobrze wiedzieć, że różne branże mają różne standardy: np. płyty CD zawsze trzymają się 44,1 kHz, a telewizja twardo 48 kHz. Dodatkowo, jeśli kiedykolwiek trzeba będzie synchronizować dźwięk z obrazem w filmie czy reklamie, trzymanie się 48 kHz ułatwi współpracę z resztą ekipy. Naprawdę warto to zapamiętać – w telewizji i filmie 48 kHz to praktycznie obowiązek. Tak jako ciekawostka: nawet nagrania do podcastów czy YouTube coraz częściej robi się w tej jakości, żeby potem nie mieć problemów z eksportem do wideo.

Pytanie 20

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Solo.
C. Mute.
D. Freeze.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 21

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. VCA
B. AUX
C. BUS
D. MASTER
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 22

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Modulation
C. Distortion
D. Reverbs
Ekspander to typowy przedstawiciel procesorów z kategorii dynamiki. Jego głównym zadaniem jest kontrolowanie zakresu głośności sygnału audio, ale robi to odwrotnie niż kompresor – zamiast ograniczać różnice głośności, zwiększa je, sprawiając, że cichsze fragmenty stają się jeszcze cichsze. W praktyce, ekspandery stosuje się na przykład do redukowania szumów tła lub niepożądanych dźwięków pomiędzy frazami wokalnymi, czyli tzw. „brudów”, których kompresor nie byłby w stanie wyeliminować bez wpływania na główny sygnał. Moim zdaniem ekspander bywa nieoceniony przy nagraniach perkusji – pozwala wydobyć atak werbla czy stopy, eliminując jednocześnie przesłuchy z innych mikrofonów. Branżowe standardy nagraniowe wręcz zalecają używanie procesorów dynamiki, takich jak kompresory, bramki szumów i właśnie ekspandery, do precyzyjnej kontroli nad sygnałem. W odróżnieniu od efektów typu reverb czy distortion, ekspander nie zmienia charakteru dźwięku, tylko zarządza jego głośnością w bardzo specyficzny sposób. Wielu realizatorów dźwięku uznaje ekspandery za absolutną podstawę, jeśli zależy nam na czystym, klarownym miksie. Szczerze mówiąc, czasem ludzie zapominają o ich istnieniu, a szkoda – bo dobrze użyty ekspander może uratować nawet problematyczne nagranie.

Pytanie 23

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Resample
B. Time Stretching
C. Invert Phase
D. Pitch Shifting
Prawidłowa odpowiedź to Resample, bo właśnie ta opcja w DAW-ach umożliwia zmianę częstotliwości próbkowania sygnału audio – to taki trochę techniczny odpowiednik „przeskalowania” pliku dźwiękowego do innego standardu, jak na przykład z 44,1 kHz na 48 kHz. To bardzo przydatna funkcja np. kiedy pracujesz nad projektem, w którym ścieżki pochodzą z różnych źródeł i muszą mieć jednolitą częstotliwość próbkowania, bo inaczej mogą pojawić się szumy albo dziwne zniekształcenia. Z mojego doświadczenia najczęściej korzysta się z resamplingu przy eksporcie gotowych miksów do różnych formatów albo kiedy importujesz próbki przygotowane w innej sesji. Branżowe standardy, np. w studiach telewizyjnych, wymagają często 48 kHz, a płyty CD to 44,1 kHz, więc bez resamplingu ani rusz. Warto też wiedzieć, że dobre DAWy używają algorytmów wysokiej jakości, żeby podczas zmiany częstotliwości nie tracić na jakości dźwięku. Bardzo polecam sprawdzić, jakie opcje resamplingu oferuje Twój DAW, bo niektóre mają nawet różne tryby, zależnie czy priorytetem jest jakość czy szybkość działania. To jedna z podstawowych umiejętności przy pracy z dźwiękiem na wyższym poziomie.

Pytanie 24

W celu wykonania montażu równoległego realizator powinien w edytorze dźwięku wgrać fragmenty muzyczne na

A. tę samą ścieżkę jeden za drugim zgodnie z chronologią czasową.
B. tę samą ścieżkę w kolejności czasu ich trwania.
C. osobne ścieżki od tego samego punktu czasowego.
D. tę samą ścieżkę nie zachowując chronologii czasowej.
Wiele osób początkujących wpada w pułapkę myślenia, że montaż dźwięku polega głównie na układaniu fragmentów jeden po drugim na tej samej ścieżce – to podejście sprawdza się jedynie przy montażu sekwencyjnym, gdzie po zakończeniu jednego fragmentu rozpoczyna się kolejny. Jednak w przypadku montażu równoległego takie rozwiązanie jest niewłaściwe, bo nie pozwala na jednoczesne odtwarzanie różnych elementów. Umieszczenie wszystkich fragmentów na jednej ścieżce (niezależnie od chronologii) zawsze powoduje, że gra tylko jeden plik naraz – kolejne po prostu przykrywają siebie lub są odtwarzane jeden za drugim. To zupełnie nie odpowiada idei montażu równoległego, gdzie liczy się efekt nakładania się dźwięków i ich współgranie w tym samym czasie. Takie myślenie bywa skutkiem braku obycia z warstwową strukturą projektów DAW lub zbyt dosłownego traktowania osi czasu. Z mojego doświadczenia wynika, że często wynika to z przyzwyczajenia do pracy na prostych edytorach, gdzie nie ma możliwości tworzenia wielu ścieżek. Tymczasem praktyka branżowa i wszystkie aktualne standardy pracy dźwiękowej jasno wskazują: każda równolegle brzmiąca partia powinna mieć swoją ścieżkę. To daje elastyczność, pozwala na precyzyjną edycję, a przede wszystkim gwarantuje swobodę twórczą. Warto przełamać nawyk liniowego myślenia o dźwięku – dzięki pracy na wielu ścieżkach można miksować, automatyzować, nakładać efekty czy wyciszać dowolny element bez wpływu na resztę projektu. To absolutna podstawa w nowoczesnej postprodukcji, a brak tej umiejętności mocno ogranicza możliwości zarówno techniczne, jak i artystyczne.

Pytanie 25

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. MP3
B. FLAC
C. WAV
D. WMA
FLAC to zdecydowanie najlepszy wybór, jeśli chodzi o archiwizację materiału dźwiękowego z zachowaniem oryginalnej jakości i jednoczesnym zmniejszeniem rozmiaru pliku. Ten format bazuje na bezstratnej kompresji, czyli każdy szczegół dźwięku po dekompresji jest identyczny z oryginałem, co jest bardzo ważne np. w archiwach radiowych, fonotekach albo przy digitalizacji płyt winylowych. Moim zdaniem to jest taka złota ścieżka – bo nie trzeba wybierać między jakością a pojemnością dysku. FLAC jest bardzo popularny w środowisku audiofilskim i profesjonalnym, bo obsługuje metadane (np. okładki, tytuły utworów), a do tego jest open source, więc nie trzeba martwić się o opłaty licencyjne czy brak kompatybilności. Stosowanie FLAC-a zgodne jest z rekomendacjami archiwistów i instytucji kultury, a sam format jest wspierany przez większość współczesnych odtwarzaczy i systemów operacyjnych. W praktyce pliki FLAC są nawet kilka razy mniejsze niż WAV-y, a zachowują identyczną jakość – na ucho nie ma żadnej różnicy, a przestrzeń na dysku się nie marnuje. Warto też wspomnieć, że łatwo można potem plik FLAC przekonwertować do innych formatów, np. MP3 na potrzeby mniej wymagających zastosowań, nie tracąc przy tym oryginału.

Pytanie 26

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. HH
B. FT
C. BD
D. SN
Skrót SN pochodzi od angielskiego „snare drum”, czyli właśnie werbel. To absolutnie podstawowy element zestawu perkusyjnego – praktycznie każda partytura perkusyjna, nawet najprostsza, zawiera zapis dla snare drum oznaczony jako SN. W notacji perkusyjnej jest to taki punkt odniesienia, najczęściej stawiany na środku pięciolinii lub trochę powyżej, zależnie od używanego zapisu. Werbel, przez swój ostry i charakterystyczny dźwięk, jest odpowiedzialny za budowanie rytmu i akcentowanie fraz muzycznych. W bandach, orkiestrach i zespołach rockowych to właśnie SN daje te mocne „uderzenia” na 2 i 4. Z doświadczenia wiem, że w praktyce studyjnej, jak i na scenie, technicy, realizatorzy oraz muzycy prawie zawsze posługują się skrótami – „podnieś mi SN”, „wytnij trochę 200 Hz na SN” – to standardowe komunikaty. Skrót SN jest stosowany w oprogramowaniu DAW (np. Cubase, Logic, Ableton), w zapisie nutowym, na schematach miksera i przy opisywaniu kanałów na konsoletach dźwiękowych. Warto sobie to zakodować, bo nie znajomość tej nomenklatury często prowadzi do nieporozumień. Moim zdaniem, zrozumienie tej symboliki to absolutna podstawa, jeśli ktoś chce wejść w świat profesjonalnego nagrywania lub miksu perkusji albo nawet grać ze słuchu z nut.

Pytanie 27

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 14 MB
B. 17 MB
C. 8 MB
D. 11 MB
Prawidłowo, bo dokładne obliczenie rozmiaru pliku dźwiękowego o parametrach 48 kHz, 24 bity, stereo (czyli dwa kanały), i długości 1 minuty daje wynik bardzo zbliżony do 17 MB. Zasada jest prosta: najpierw obliczamy liczbę próbek na sekundę (48 000), potem mnożymy przez liczbę bitów na próbkę (24), a potem jeszcze przez liczbę kanałów (2, bo stereo). Całość jeszcze przez 60 sekund, żeby dostać sumę bitów dla całej minuty. Później dzielimy przez 8, żeby zamienić bity na bajty, i jeszcze przez 1 048 576 (czyli 1024x1024), żeby dostać wynik w megabajtach. Wychodzi w praktyce 16,5 MB, a biorąc pod uwagę zaokrąglenia i niewielki zapas, przyjęcie 17 MB to bardzo poprawny wybór zgodny z praktyką branżową. W profesjonalnych studiach i przy pracy z urządzeniami audio, zawsze warto zostawić trochę dodatkowej przestrzeni, bo czasem metadane lub nagłówki plików lekko zwiększają rozmiar. Moim zdaniem, znajomość tego typu wyliczeń jest kluczowa przy projektowaniu infrastruktury do archiwizacji i obróbki dźwięku, żeby potem nie było zaskoczenia, że nagle zabrakło miejsca na dysku. Dobrą praktyką jest też stosowanie formatów bezstratnych (jak WAV czy FLAC), a one często trzymają się właśnie tych szacunkowych rozmiarów. Takie podejście przydaje się nie tylko w studiu, ale i w radiu, telewizji czy wszędzie tam, gdzie ważna jest jakość i przewidywalność zapotrzebowania na przestrzeń dyskową.

Pytanie 28

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Ponad dwudziestokrotny.
B. Około pięciokrotny.
C. Około dziesięciokrotny.
D. Mniej niż dwukrotny.
Oceniając skuteczność kompresji stratnej, łatwo popełnić błąd w szacowaniu jej możliwości – szczególnie, kiedy nie ma się jeszcze dużego doświadczenia z praktycznym zastosowaniem różnych formatów audio czy znajomości standardów branżowych. Często spotykam się z przekonaniem, że pliki po kompresji stratnej, takiej jak MP3 czy AAC, są tylko nieznacznie mniejsze od oryginału WAV – to jednak nieprawda. Kompresja stratna działa zupełnie inaczej niż bezstratna i pozwala na drastyczne zmniejszenie rozmiaru pliku. Myślenie, że uzyskamy mniej niż dwukrotną czy nawet pięciokrotną redukcję, wynika zwykle z niezrozumienia zasady działania kodeków stratnych, które celowo odrzucają dane niesłyszalne lub mało istotne dla percepcji człowieka. Oczywiście, można by teoretyzować o jeszcze większych oszczędnościach, typu ponad dwudziestokrotne zmniejszenie – tutaj jednak pojawia się problem ze zbyt niską jakością dźwięku, która przestaje być akceptowalna nawet dla mniej wymagającego ucha. Najlepsze praktyki pokazują, że optymalny kompromis między oszczędnością miejsca a zachowaniem jakości to właśnie okolice dziesięciokrotnej redukcji rozmiaru. Takie proporcje są stosowane na co dzień w muzycznych serwisach streamingowych czy przy przesyłaniu podcastów w internecie. Przyjęcie założenia, że możliwości kompresji stratnej są dużo mniejsze lub dużo większe, prowadzi do błędów w doborze formatu audio do konkretnego zastosowania, zwłaszcza kiedy liczy się zarówno jakość, jak i pojemność czy szybkość transferu. Warto pamiętać, że technologia kompresji stratnej to kompromis – chodzi o to, żeby zachować jak najwięcej jakości przy jednoczesnym radykalnym zmniejszeniu rozmiaru pliku, ale bez przesady w żadną stronę. Moim zdaniem, świadomość tego mechanizmu jest kluczowa w pracy z dźwiękiem, szczególnie jeśli ktoś planuje dystrybucję nagrań w sieci czy archiwizację dużych bibliotek audio.

Pytanie 29

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 24 bity
B. 8 bitów
C. 12 bitów
D. 16 bitów
Wybranie rozdzielczości 24 bity do nagrania materiału dźwiękowego o dynamice 100 dB to bardzo trafna decyzja — to jest standard stosowany w profesjonalnych studiach nagraniowych, szczególnie przy nagrywaniu muzyki na wysokim poziomie. Każdy bit rozdzielczości przybliżeniu odpowiada ok. 6 dB zakresu dynamicznego, więc z prostego rachunku: 16 bitów daje około 96 dB, a 24 bity sięgają aż do ok. 144 dB, co zostawia naprawdę solidny zapas i eliminuje ryzyko zniekształceń związanych z kwantyzacją. Moim zdaniem warto też zwrócić uwagę, że 24 bity zapewniają nie tylko odwzorowanie szerokiej dynamiki, ale również większą odporność na szumy i lepszą jakość edycji w postprocessingu. Nawet jeśli finalnie plik audio ląduje w pliku 16-bitowym (tak jak na płytach CD), to w trakcie miksowania czy masteringu ten wyższy zapas dynamiki jest bardzo pożądany. W branży audiofilskiej czy realizatorskiej 24 bity to dziś właściwie standard, a nagrania o bardziej wymagającej dynamice, np. orkiestra symfoniczna czy muzyka filmowa, wręcz wymagają takiej rozdzielczości. Swoją drogą, coraz częściej nawet domowe interfejsy audio bez problemu oferują tryb 24-bitowy. Z mojego doświadczenia: lepiej mieć trochę za dużo „headroomu” niż za mało — wtedy nie musisz drżeć o trzaski i cyfrowe szumy.

Pytanie 30

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 8 GB
B. 2 GB
C. 1 GB
D. 4 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 31

Aby zmienić nazwę regionu na ścieżce w sesji programu DAW, należy użyć funkcji

A. Reverse.
B. Reset.
C. Rename.
D. Resize.
Funkcja „Rename” to absolutna podstawa jeśli chodzi o zarządzanie regionami w sesji DAW. W praktyce, kiedy masz dziesiątki ścieżek i fragmentów audio czy MIDI, jasne i logiczne nazewnictwo regionów bardzo ułatwia pracę – zarówno podczas aranżacji, jak i później przy miksie albo eksporcie. Z mojego doświadczenia wynika, że profesjonaliści zawsze kładą nacisk na czytelność projektu, bo potem łatwiej znaleźć konkretne partie czy zrobić edycję. „Rename” umożliwia zmianę nazwy regionu bezpośrednio na ścieżce – wystarczy kliknąć prawym przyciskiem myszy na regionie, wybrać opcję zmiany nazwy i wpisać coś bardziej opisowego, np. „Wokal refren 2” zamiast „Audio 1-22”. To zdecydowanie standardowa praktyka w takich programach jak Ableton Live, Cubase, czy Logic Pro. Warto wiedzieć, że dobre nazewnictwo przydaje się też przy pracy zespołowej, gdy projekt trafia do inżyniera miksu lub innego producenta – wtedy wszyscy szybciej się odnajdują. W wielu studiach panuje zasada, żeby absolutnie każdy region miał nazwę odzwierciedlającą zawartość. Co ciekawe, niektóre DAWy pozwalają nawet na grupową zmianę nazw przez specjalne skróty czy automatyczne narzędzia, co przyspiesza workflow. Podsumowując: „Rename” jest nie tylko poprawnym wyborem, ale wręcz nawykiem, który warto wyrobić sobie od początku pracy z DAW-ami.

Pytanie 32

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ramce.
B. ćwierćnucie.
C. milisekundzie.
D. sekundzie.
Kod SMPTE, czyli Society of Motion Picture and Television Engineers, to jeden z podstawowych standardów stosowanych w pracy z materiałami wideo i audio, zwłaszcza w montażu oraz synchronizacji. Moim zdaniem każdy, kto chce pracować z profesjonalnym montażem, powinien go mieć w małym palcu. Pozycja 00:00:00:20 oznacza: 0 godzin, 0 minut, 0 sekund oraz 20. ramka w danej sekundzie. To jest bardzo praktyczne, bo pozwala dokładnie wskazać, gdzie na osi czasu znajduje się konkretne zdarzenie – np. cięcie, efekt lub punkt synchronizacyjny. W zależności od ustawień projektu (np. 25 lub 30 klatek na sekundę), liczba ta mówi nam, która dokładnie klatka w sekundzie jest wybrana. Takie podejście gwarantuje precyzję, której nie da się osiągnąć, operując tylko na sekundach czy milisekundach, bo montażowcy i realizatorzy dźwięku często pracują 'na ramki'. W branży jest to standard wykorzystywany podczas pracy w programach takich jak Adobe Premiere Pro, DaVinci Resolve czy Pro Tools. Szczerze mówiąc, nieraz uratowało mi to skórę przy bardzo wymagających projektach, gdzie każde ujęcie musiało być zgrane co do klatki. Dobra praktyka to zawsze sprawdzać, czy liczysz zgodnie z tym kodem, bo błędy w tej materii lubią się mścić na etapie finalnego eksportu.

Pytanie 33

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .mp3
B. .omf
C. .ac3
D. .aiff
Format pliku .ac3, czyli Dolby Digital Audio Coding 3, to jeden z najważniejszych standardów w branży filmowej i szeroko rozumianej postprodukcji dźwięku. Umożliwia on zapis i dystrybucję dźwięku wielokanałowego, najczęściej w systemie 5.1, co oznacza pięć kanałów pełnopasmowych i jeden kanał niskich częstotliwości (subwoofer). Ten format jest wykorzystywany głównie na płytach DVD, Blu-ray, w telewizji cyfrowej, a nawet w kinach domowych. Z mojego doświadczenia, kiedy pracowałem przy projektach filmowych, to właśnie pliki .ac3 były standardem przy masteringu ścieżek surround – inne formaty praktycznie nie wchodziły w grę. Plik .ac3 pozwala na zachowanie wysokiej jakości dźwięku przy stosunkowo niewielkim rozmiarze, co jest kluczowe przy dystrybucji. Bardzo ciekawą rzeczą jest to, że standard Dolby Digital jest wspierany przez większość amplitunerów i odtwarzaczy, co daje uniwersalność i pewność, że zamierzony efekt trafi do odbiorcy. Moim zdaniem, jeśli ktoś chce na poważnie wejść w świat dźwięku przestrzennego, to bez znajomości .ac3 ani rusz. W branży to taki must have. Warto też zauważyć, że .ac3 zapewnia obsługę metadanych, co ułatwia późniejsze dostosowanie dźwięku do różnych warunków odsłuchowych, np. przy dynamicznym tłumieniu dialogów czy automatycznym wyrównywaniu poziomów.

Pytanie 34

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. usunięcia dudnienia i wibracji.
B. usunięcia szumów własnych miksera.
C. regulowania barwy stopy perkusji.
D. kształtowania barwy blach hi-hatu.
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.

Pytanie 35

Przygotowując notatki do montażu dźwięku, przenikanie pomiędzy regionami określa się mianem

A. Crossfade.
B. Fade In.
C. Fade In/Out.
D. Fade Out.
Crossfade to taki branżowy termin, który w montażu dźwięku oznacza płynne przejście między dwoma regionami lub ścieżkami audio. Zamiast gwałtownego przeskoku lub przerwy, dźwięki nakładają się na siebie przez pewien czas, co pozwala uniknąć kliknięć, trzasków czy innych nieprzyjemnych artefaktów. To właśnie crossfade najlepiej oddaje ideę "przenikania" – bo tutaj jeden dźwięk stopniowo się wycisza, a drugi jednocześnie narasta. Używa się tego nie tylko w montażu radiowym czy telewizyjnym, ale praktycznie we wszystkich sytuacjach, gdzie montujemy ścieżki audio – od prostych podcastów po profesjonalną produkcję muzyczną. W programach takich jak Pro Tools, Cubase czy Reaper, crossfade jest wręcz standardem przy łączeniu regionów tak, by efekt był jak najbardziej naturalny. Moim zdaniem, każdy kto chce uzyskać profesjonalny efekt, powinien opanować sprawne korzystanie z tej funkcji. Nawet jeśli na początku wydaje się to trochę zagmatwane, to potem naprawdę docenia się możliwości, jakie daje subtelne miksowanie przejść – zwłaszcza przy pracy z dialogami, muzyką czy efektami dźwiękowymi. Warto pamiętać, że źle wykonane przejście potrafi kompletnie zniszczyć odbiór całej sceny, dlatego dobry crossfade to podstawa każdej poważnej postprodukcji.

Pytanie 36

Który z wymienionych sposobów opisu osi czasu w sesji programu DAW oznacza, że oś wyskalowana jest w próbkach?

A. Frames
B. Bars
C. Samples
D. Seconds
Odpowiedź „Samples” to faktycznie właściwy wybór, bo w profesjonalnych programach DAW (czyli Digital Audio Workstation) oś czasu skalowana właśnie w próbkach daje najdokładniejszą kontrolę nad nagraniem czy edycją dźwięku. Próbka (sample) to najmniejszy fragment cyfrowego dźwięku – taka pojedyncza wartość amplitudy zapisana w bardzo krótkim odstępie czasu, zależnie od częstotliwości próbkowania. Dla przykładu, przy typowych ustawieniach 44,1 kHz (standard w muzyce), każda sekunda dźwięku to aż 44 100 próbek! W praktyce praca na osi „Samples” przydaje się zwłaszcza tam, gdzie liczy się chirurgiczna precyzja: np. przy edycji transjentów, usuwaniu klików, automatyzacji efektów typu glitch czy nawet synchronizacji różnych ścieżek z dokładnością co do pojedynczej próbki. Warto wiedzieć, że edytowanie w tej skali pozwala uniknąć artefaktów, które mogłyby powstać przy mniej precyzyjnym ustawieniu siatki. Branżowe standardy, zwłaszcza w masteringu i przy pracy z materiałem do broadcastu czy filmu, często wymagają pracy właśnie w próbce, gdy czas lub „frame” nie wystarczą do uzyskania pełnej kontroli. Z mojego doświadczenia wynika, że osoby początkujące rzadko korzystają z tego trybu, ale im bardziej zaawansowana produkcja, tym częściej się do tego wraca. Nawet drobna przesunięcie ścieżki o kilka próbek potrafi całkiem zmienić brzmienie miksu. Dobrą praktyką w studiu jest zawsze sprawdzać, czy precyzja edytora odpowiada wymaganiom projektu – bez świadomości co to są sample, trudno robić naprawdę profesjonalny dźwięk.

Pytanie 37

Procesor dźwięku dostępny w programie DAW, umożliwiający automatyczne ściszenie np. podkładu muzycznego w momencie pojawienia się głosu lektora, to

A. limiter.
B. ducker.
C. normalizer.
D. delay.
Ducker to bardzo przydatny procesor dźwięku w środowisku DAW, zwłaszcza kiedy pracuje się z projektami lektorskimi, reklamami albo podcastami. Zasadniczo jego działanie polega na tym, że automatycznie ścisza jeden kanał (najczęściej podkład muzyczny) w momencie, gdy pojawia się sygnał na innym kanale (np. głos lektora). To rozwiązanie jest standardem w profesjonalnych studiach dźwiękowych, bo pozwala uzyskać efekt tzw. „duckingu”, czyli momentalnego przyciszenia tła, gdy tylko ktoś zacznie mówić. Osobiście uważam, że ducker to absolutny must-have w każdej większej produkcji audio, szczególnie tam, gdzie liczy się czytelność mowy. W praktyce wiele wtyczek typu ducker bazuje na sidechainie, czyli „podsłuchuje” ścieżkę wyzwalającą i reaguje od razu – nie trzeba ręcznie rzeźbić automatyki. Co ciekawe, ten efekt wykorzystuje się też w radiu i telewizji, np. żeby muzyka nie zagłuszała prezentera. Z mojego doświadczenia wynika, że dobrze ustawiony ducker daje naturalne przejścia i nie powoduje wrażenia nagłego „ścięcia” tła, tylko płynnie dopasowuje poziomy. To nie tylko wygodne, ale i zgodne z dobrą praktyką produkcji dźwięku – odbiorca zawsze powinien słyszeć wyraźnie to, co najważniejsze, a ducker dokładnie to umożliwia.

Pytanie 38

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 33 Gb/s
B. 480 Mb/s
C. 15 Gb/s
D. 12 Mb/s
Maksymalna prędkość transmisji danych dla standardu USB 2.0 wynosi właśnie 480 Mb/s (megabitów na sekundę). To była swego czasu ogromna zmiana na rynku, bo wcześniejszy standard USB 1.1 oferował zaledwie 12 Mb/s – różnica jest więc naprawdę kolosalna w codziennym użytkowaniu. USB 2.0, znane też jako High-Speed USB, umożliwiło komfortowe podłączanie zewnętrznych dysków, drukarek czy kamer, które wcześniej po prostu działałyby bardzo wolno. Na przykład kopiowanie pliku o wielkości 1 GB przez USB 2.0 trwało zdecydowanie krócej niż przez starsze porty. Moim zdaniem warto pamiętać, że 480 Mb/s to wartość teoretyczna, w praktyce rzeczywiste transfery są niższe, bo zależą jeszcze od jakości kabla, sprzętu czy nawet systemu operacyjnego. Branża IT przyjęła ten standard na długie lata i do dziś wiele urządzeń, zwłaszcza tańszych, korzysta właśnie z USB 2.0. Dla porównania – nowsze wersje USB, jak 3.0 czy 3.1, podnoszą poprzeczkę nawet do kilku gigabitów na sekundę, ale to już inna bajka. Najważniejsze, żeby rozpoznawać, do jakich zastosowań wystarcza USB 2.0, a kiedy warto sięgnąć po coś szybszego – np. do przesyłania dużych plików wideo. Tak czy inaczej, 480 Mb/s to kluczowa liczba, która powinna się każdemu technikowi od razu kojarzyć właśnie z USB 2.0.

Pytanie 39

Funkcja Duplicate w procesie edycji regionów służy do tworzenia kopii

A. ścieżki.
B. śladu MIDI.
C. regionu audio.
D. procesora audio.
Funkcja Duplicate w kontekście edycji regionów najczęściej służy do tworzenia kopii wybranego regionu audio w projekcie. To rozwiązanie jest bardzo praktyczne – szczególnie gdy chcesz powielić fragment nagrania, np. refren, pojedynczy takt perkusji czy efekt dźwiękowy, bez konieczności ponownego importowania lub nagrywania. W profesjonalnych stacjach DAW, takich jak Logic Pro, Cubase czy Pro Tools, duplikowanie regionów audio umożliwia szybkie budowanie aranżacji i oszczędza mnóstwo czasu. Moim zdaniem to jedno z tych narzędzi, które pozwala zachować płynność pracy, szczególnie przy produkcji muzycznej, gdzie często pracuje się na powtarzalnych wzorcach. Duplicate zachowuje wszystkie parametry oryginalnego regionu – długość, pozycję względem siatki, a nawet ewentualne automatyki, jeśli są z nim powiązane. Użytkownicy mogą też często wybrać, czy chcą utworzyć kopię niezależną, czy tzw. kopię odwołującą się do tego samego pliku audio (co oszczędza miejsce na dysku). To zgodne z dobrymi praktykami branżowymi: powielanie regionów w ten sposób pozwala na szybkie testowanie różnych wariantów aranżacyjnych bez ryzyka utraty oryginalnego materiału. W praktyce, jeśli masz na przykład fajną frazę gitarową i chcesz ją powtórzyć w innym miejscu utworu, Duplicate robi to jednym kliknięciem. Dla mnie to podstawa ergonomicznej pracy w studiu i coś, czego warto używać na co dzień – nawet jeśli dopiero zaczynasz przygodę z DAW-ami.

Pytanie 40

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 18 dB/okt.
B. 12 dB/okt.
C. 6 dB/okt.
D. 24 dB/okt.
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.