Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 8 kwietnia 2026 10:07
  • Data zakończenia: 8 kwietnia 2026 10:30

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. modulację dźwięku.
B. odwrócenie fazy sygnału.
C. poszerzenie dynamiki sygnału.
D. ograniczenie niskich tonów.
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 2

Ile minut muzyki można maksymalnie zapisać na płycie CD-Audio?

A. 90 minut.
B. 80 minut.
C. 70 minut.
D. 100 minut.
80 minut to maksymalna długość nagrania na standardowej płycie CD-Audio. Wynika to bezpośrednio z ograniczeń technicznych formatu Compact Disc Digital Audio (CD-DA), który został wprowadzony w latach 80. przez Sony i Philipsa. Zgodnie ze specyfikacją Red Book (czyli podstawowym standardem dla CD-Audio), standardowa płyta CD mieści około 700 MB danych, co przekłada się na 80 minut dźwięku o jakości 16-bitowej/44,1 kHz w trybie stereo. W praktyce większość albumów muzycznych właśnie tyle zajmuje, chociaż często spotyka się płyty krótsze – to kwestia materiału źródłowego. Przekraczanie tych 80 minut nie jest zalecane, bo może to prowadzić do problemów z odczytem na niektórych odtwarzaczach. Czasem można spotkać tzw. płyty overburned, które pozwalają wcisnąć dodatkowe minuty, ale nie jest to zgodne z oficjalnymi normami i nie każdy sprzęt sobie z tym radzi. Moim zdaniem wiedza o tych limitach przydaje się, gdy samemu nagrywasz muzykę na CD – łatwo wtedy uniknąć nieprzyjemnych niespodzianek. Warto też wiedzieć, że dla archiwizacji czy masteringu branża muzyczna trzyma się właśnie tej granicy 80 minut. Tak to już technologia przewidziała – i ten limit dobrze zapamiętać.

Pytanie 3

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Spis efektów.
B. Playlista.
C. Scenariusz.
D. Partytura.
Partytura to właśnie ten dokument, który pozwala muzykom oraz dyrygentom dokładnie zorientować się, jak przebiega utwór muzyczny. Całość jest rozpisana w taki sposób, że każda linia przypisana jest do konkretnego instrumentu lub głosu, a zapis nutowy uwzględnia wszelkie niuanse, takie jak dynamika, artykulacja czy tempo. Moim zdaniem bez partytury trudno byłoby sobie wyobrazić współpracę większego zespołu, orkiestry czy chóru – daje ona pełną kontrolę nad przebiegiem muzyki. W profesjonalnych środowiskach przyjęło się, że partytura to absolutna podstawa przygotowania i wykonania utworu, szczególnie jeśli chodzi o utwory klasyczne, filmowe czy szeroko pojętą muzykę rozrywkową z elementami aranżacyjnymi. Często partytura powstaje jako pierwsza, a dopiero na jej podstawie tworzy się głosy poszczególnych muzyków. Tak naprawdę, nawet w studiach nagraniowych, muzycy studyjni oczekują dostępu do profesjonalnie przygotowanej partytury – dzięki temu nagranie przebiega sprawnie i bez nieporozumień. Według mnie, znajomość tego typu dokumentacji muzycznej to absolutny must-have dla każdego, kto myśli o pracy w branży muzycznej na poważnie.

Pytanie 4

Który z wymienionych parametrów określa stromość krzywej nachylenia filtracji filtra HPF?

A. Frequency
B. Slope
C. Width
D. Gain
Slope, zwany po polsku stromością, to kluczowy parametr każdego filtra, zwłaszcza filtrów HPF (High-Pass Filter). Określa on, jak gwałtownie filtr tłumi częstotliwości poniżej punktu odcięcia. Zazwyczaj wyrażany jest w decybelach na oktawę (np. 12 dB/oct), co oznacza, o ile spada poziom sygnału z każdą kolejną oktawą poniżej tej granicznej częstotliwości. W praktyce, im większa stromość, tym mocniej „odcina” się niechciane niskie częstotliwości, co na przykład świetnie sprawdza się przy oczyszczaniu sygnałów wokalnych, usuwaniu szumów niskotonowych czy ochronie kolumn przed subbasem. Często korzystam z filtrów HPF w miksie perkusji, żeby pozbyć się zbędnych dudnień – wtedy wybieram właśnie parametr slope, bo gain nie ma tu zastosowania. W branży audio przyjmuje się, że rozsądny dobór stromości to podstawa czystego miksu – zbyt łagodny slope przepuści niechciane tony, a zbyt ostry może „wyciąć” naturalność brzmienia. Fajnie wiedzieć, że slope bywa też nazywany gradientem filtra w niektórych manualach. W sumie, bez znajomości tego parametru trudno świadomie kształtować brzmienie. Moim zdaniem to jedno z absolutnie bazowych zagadnień, które każdy realizator czy elektronik powinien ogarnąć, bo potem łatwiej unikać typowych błędów, jak np. zamulone brzmienie czy nadmierne wycinanie sygnału.

Pytanie 5

Kopię sesji o parametrach: 48 kHz, 24 bity, należy sporządzić jako kopię o następujących parametrach:

A. 96 kHz, 16 bitów.
B. 48 kHz, 24 bity.
C. 96 kHz, 24 bity.
D. 48 kHz, 16 bitów.
Wybrałeś parametry 48 kHz oraz 24 bity – i bardzo dobrze! To jest właśnie kluczowa sprawa, jeśli chodzi o kopiowanie sesji audio z zachowaniem jakości i kompatybilności. W branży dźwiękowej przyjęło się, że archiwalna lub robocza kopia powinna być wykonywana dokładnie w tych samych parametrach, w jakich była sesja oryginalna. Dzięki temu unikasz niepotrzebnych konwersji, które mogłyby niepotrzebnie pogorszyć jakość nagrania lub wprowadzić dodatkowe artefakty. Przykładowo, jeśli pracujesz w studiu nagrań i sesja została przygotowana w 48 kHz/24 bity, to każda kopia na archiwizację, dalszy montaż czy wysyłkę do innego realizatora powinna mieć te same ustawienia. Tak robią profesjonaliści, bo to gwarantuje pełną zgodność oraz bezpieczeństwo danych. Przeskakiwanie między różnymi częstotliwościami próbkowania czy głębiami bitowymi zwykle nie ma sensu, chyba że jest jakiś bardzo konkretny powód, np. przygotowanie masteru do CD (44.1 kHz/16 bitów), ale to już zupełnie inna sprawa. Z mojego doświadczenia wynika, że konsekwencja w zachowywaniu parametrów to po prostu mniej problemów na każdym etapie produkcji. Warto też wspomnieć, że 48 kHz/24 bity to obecnie taki branżowy standard dla audio w filmie, reklamie czy grach. Zawsze lepiej mieć za dużo jakości niż za mało, a niepotrzebne obniżanie parametrów po prostu się nie opłaca.

Pytanie 6

Gdzie jest optymalne miejsce do montażu ścieżki dźwiękowej?

A. W miejscu maksymalnej energii dźwięku.
B. W ciszy pomiędzy dźwiękami.
C. Na wybrzmieniu dźwięku.
D. W miejscu wzrostu energii dźwięku.
Optymalne miejsce do montażu ścieżki dźwiękowej to właśnie cisza pomiędzy dźwiękami. To jest taka klasyka montażu audio – wykorzystuje się naturalną przerwę, żeby nie zaburzyć płynności i logiki całego utworu czy filmu. Gdy ścieżka dźwiękowa wchodzi w momencie ciszy, nie nachodzi na istotne fragmenty dialogów lub efektów dźwiękowych. W praktyce to pozwala na czytelniejsze przekazywanie emocji i treści. Na przykład, jak montujesz film i chcesz podkreślić zmianę sceny albo stworzyć napięcie, wprowadzenie muzyki właśnie w takiej przerwie daje widzowi czas na złapanie oddechu, a jednocześnie nie tworzy chaosu dźwiękowego. To jest sprawdzone w każdym profesjonalnym studio – zawsze zwraca się uwagę na to, żeby nie wcinać się z muzyką na ważne momenty dialogowe. Z mojego doświadczenia, jeśli wybierzesz inne miejsce, całość brzmi później nienaturalnie i widz dostaje taki "zlepek" dźwięków, których nie może ogarnąć. Oczywiście są wyjątki i czasem eksperymentuje się z montażem pod prąd, ale generalnie cisza to najlepszy moment na wejście nowego dźwięku według podstawowych standardów branżowych. Warto też pamiętać, że tak uczą w szkołach filmowych i na kursach dla realizatorów dźwięku – zawsze szukaj tych mikropauz, żeby wszystko grało jak trzeba.

Pytanie 7

Która z funkcji programu DAW typowo umożliwia płynne przejście między dwoma sąsiadującymi plikami dźwiękowymi umieszczonymi na ścieżce w sesji montażowej?

A. Split.
B. Select.
C. Crossfade.
D. Group.
Crossfade to bardzo charakterystyczna funkcja spotykana praktycznie w każdym nowoczesnym DAW-ie, która pozwala na zrobienie naprawdę płynnego przejścia między dwoma klipami audio ustawionymi obok siebie na jednej ścieżce. W praktyce polega to na tym, że końcówka wcześniejszego pliku zostaje stopniowo ściszana (fade out), a początek następnego zostaje stopniowo podgłaśniany (fade in). Oba te procesy nakładają się na siebie przez wybrany fragment czasu i dzięki temu nie słychać żadnych trzasków, szumów czy nienaturalnych przerw. Moim zdaniem to wręcz podstawa, jeśli chodzi o montaż muzyczny, podcasty, nagrania lektorskie czy postprodukcję filmową. Branżowe workflow po prostu wymaga korzystania z crossfade'ów, chociażby dlatego, że bez nich bardzo łatwo byłoby o błędy montażowe albo nieprzyjemne artefakty. Warto pamiętać, że różne DAW-y dają sporo opcji kształtowania charakterystyki crossfade'u – można manipulować krzywą wygaszania i narastania, co pozwala dopasować efekt do konkretnych potrzeb. No i jeszcze jedno – crossfade stosuje się nie tylko w edycji audio, ale i przy miksowaniu utworów w DJ-ingu. To takie narzędzie, które jak już raz się opanuje, to trudno sobie potem wyobrazić pracę bez niego.

Pytanie 8

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Scenariusz.
B. Lista edycyjna.
C. Drabinka.
D. Partytura.
Partytura to taki dokument, który można śmiało nazwać instrukcją obsługi dla zespołu muzycznego albo orkiestry. Składa się z zapisów nutowych dla różnych instrumentów lub głosów – wszystko w jednym miejscu, przejrzyście rozpisane linijka po linijce. To, moim zdaniem, jeden z najważniejszych dokumentów w pracy muzyka, dyrygenta, realizatora dźwięku czy nawet kompozytora – bez partytury trudno byłoby zsynchronizować większą grupę wykonawców. Kiedy ktoś pracuje w teatrze muzycznym, studiu nagraniowym czy przy realizacji większych koncertów, taka partytura jest absolutnie niezbędna, bo pozwala ogarnąć cały utwór naraz. Z mojego doświadczenia wynika, że im precyzyjniej napiszesz partyturę, tym mniej zamieszania podczas prób i nagrań. W branży to taki złoty standard, wszyscy profesjonaliści korzystają z partytur, szczególnie gdy utwór zawiera wiele warstw instrumentalnych lub wokalnych. Dodatkowo, partytury są potrzebne do archiwizacji, pracy edytorskiej, a także przy przenoszeniu utworów na inne obsady – np. z orkiestry na zespół kameralny. To nie tylko zapis nut, ale często też tempo, dynamika, artykulacja – te wszystkie szczegóły, które sprawiają, że utwór brzmi jak należy. Bez partytury trudno mówić o profesjonalnym podejściu do muzyki zespołowej.

Pytanie 9

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SDXC
B. SDHC
C. SD
D. SD A1
Wybór karty SDXC to strzał w dziesiątkę, jeśli chodzi o największą pojemność. Standard SDXC (Secure Digital eXtended Capacity) to obecnie jeden z najbardziej zaawansowanych formatów kart pamięci SD, jeśli patrzymy pod kątem pojemności, bo obsługuje wartości aż do 2 TB – co, nie ukrywam, robi duże wrażenie nawet na osobach, które na co dzień pracują z dużą ilością danych. Z mojego doświadczenia, karty SDXC najczęściej wykorzystywane są w sprzęcie wymagającym dużych mocy przerobowych i sporej przestrzeni, np. w aparatach do profesjonalnego filmu, nowoczesnych lustrzankach czy rejestratorach wideo 4K. Warto pamiętać, że wybierając SDXC, zyskujesz nie tylko większą pojemność, ale i wsparcie nowocześniejszych systemów plików, jak exFAT – co ułatwia przesyłanie większych plików bez ograniczenia typowego dla FAT32. Branżowe normy jasno określają, że standard SD (do 2 GB), SDHC (do 32 GB), a dopiero SDXC zaczyna się od 32 GB wzwyż. SD A1 to specjalizacja pod kątem wydajności w aplikacjach mobilnych, ale sama pojemność nie różni jej od klasycznych SDHC czy SDXC. W praktyce, jeśli zależy Ci na przechowywaniu długich nagrań wideo, dużych bibliotek zdjęć czy plików RAW, to SDXC jest pewniakiem. Moim zdaniem, obecnie ciężko znaleźć praktyczne zastosowanie, gdzie SDXC byłoby ograniczeniem pod względem pojemności.

Pytanie 10

Który dokument zawiera spis m.in. efektów synchronicznych w filmie oraz ich położenie na osi czasu?

A. Playlista.
B. Scenariusz.
C. Skrypt.
D. Lista EDL.
Lista EDL, czyli Edit Decision List, to tak naprawdę jeden z podstawowych narzędzi w profesjonalnej postprodukcji filmowej. To właśnie tutaj znajduje się bardzo dokładny spis wszystkich efektów synchronicznych i innych elementów, które mają być umieszczone w filmie razem z konkretnym położeniem na osi czasu. Moim zdaniem to taki techniczny szkielet montażowy, bez którego trudno sobie wyobrazić współczesny workflow, zwłaszcza przy dużych i skomplikowanych projektach. W EDL-u zapisuje się nie tylko przejścia czy cięcia, ale też synchronizację dźwięków, czyli na przykład gdzie dokładnie ma wystąpić wybuch, strzał albo efekt kroków. To bardzo przydatne, bo pozwala zarówno montażystom, jak i dźwiękowcom czy grafików VFX precyzyjnie dopasować wszystkie elementy do siebie. W branży przyjęło się, że EDL jest przenośnym formatem czytanym przez różne systemy montażowe, np. Avid czy DaVinci Resolve. Umożliwia to szybkie przekazanie projektu między studiem dźwiękowym a montażowym. Co ciekawe, EDL często wykorzystuje się też przy rekonstrukcji starszych filmów – bo pozwala odtworzyć kolejność i strukturę ujęć oraz efektów. Takie szczegółowe opisy na osi czasu to po prostu niezbędna podstawa pracy na każdym profesjonalnym planie i postprodukcji.

Pytanie 11

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 300 ms
B. 500 ms
C. 200 ms
D. 400 ms
Ćwierćnuta w metrum 4/4 przy tempie 120 BPM trwa dokładnie 500 milisekund, co można łatwo policzyć: tempo 120 BPM oznacza 120 uderzeń na minutę, a każdy „beat” to właśnie ćwierćnuta. Minuta ma 60 sekund, czyli 60 000 milisekund. Dzieląc 60 000 ms przez 120 otrzymujemy równe 500 ms na ćwierćnutę. Ten sposób przeliczania jest powszechnie wykorzystywany w pracy z DAW-ami, automatami perkusyjnymi czy podczas nagrań studyjnych, kiedy ustawiamy precyzyjnie długość nut i synchronizujemy instrumenty. W praktyce wiedza ta przydaje się, gdy korzystasz z funkcji „quantize” albo ustawiasz delay czy arpeggiatory, gdzie trzeba podać wartość w milisekundach. Moim zdaniem, szczególnie w muzyce elektronicznej i popie, takie przeliczenia to codzienność – stąd warto mieć ten schemat w głowie. Często zauważam też, że początkujący mylą pojęcie tempa z długością taktu, a tu wyraźnie widać, że to właśnie liczba uderzeń na minutę determinuje czas trwania pojedynczej ćwierćnuty. W notacji muzycznej na całym świecie właśnie tak to się liczy – i to jest wg standardów branżowych najprostszy i najpewniejszy sposób na ustalenie wartości rytmicznych.

Pytanie 12

Miejsce na osi czasu, oznaczone kodem SMPTE 00:01:15:00, określa zdarzenie występujące dokładnie

A. w pierwszej minucie, piętnastej ramce.
B. w pierwszej minucie, piętnastej sekundzie.
C. w pierwszej godzinie, piętnastej minucie.
D. w pierwszej godzinie, piętnastej ramce.
Kod SMPTE 00:01:15:00 faktycznie oznacza miejsce na osi czasu, które znajduje się dokładnie w pierwszej minucie i piętnastej sekundzie materiału. W skrócie, format SMPTE (czyli Society of Motion Picture and Television Engineers) zapisuje czas w układzie godzina:minuta:sekunda:klatka. Więc pierwsze dwie cyfry to godzina, kolejne dwie to minuty, następne dwie to sekundy, a ostatnie dwie to klatki. Moim zdaniem, warto ten podział dobrze zapamiętać, bo bardzo często, nawet na montażu amatorskim, bez zrozumienia SMPTE robi się straszny bałagan z synchronizacją. W praktyce, jak edytujesz wideo albo synchronizujesz dźwięk z obrazem, musisz dokładnie wiedzieć, gdzie na osi czasu wstawić jakiś efekt czy cięcie. Gdyby ktoś chciał zsynchronizować np. wybuch czy wejście lektora właśnie w 00:01:15:00, to będzie to dokładnie pierwsza minuta i piętnasta sekunda klipu, niezależnie od liczby klatek na sekundę (zakładając, że materiały są dobrze ustawione). Z mojego doświadczenia, wielu początkujących montażystów myli się tutaj przez nieuwagę, bo myślą, że ostatnia liczba to sekundy lub minuty, a to jednak są klatki – co ma kolosalne znaczenie przy szczegółowym cięciu lub klejeniu materiałów do broadcastu. Standard SMPTE jest wykorzystywany dosłownie wszędzie tam, gdzie liczy się precyzyjne oznaczenie czasu, choćby w telewizji, w kinie cyfrowym, ale i przy nagraniach wielościeżkowych dźwięku. Tak naprawdę bez niego trudno byłoby efektywnie zarządzać dużymi projektami multimedialnymi. Dobrze wiedzieć, że czas SMPTE to nie jest tylko teoria ze szkoły, tylko podstawa pracy każdego profesjonalnego montażysty czy operatora.

Pytanie 13

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 16 bitowej?

A. 48 dB
B. 96 dB
C. 144 dB
D. 192 dB
Maksymalna dynamika nagrania audio w jakości 16-bitowej to 96 dB i to nie jest wcale przypadkowa liczba. Wynika ona wprost z matematyki zapisu cyfrowego: każdy bit zwiększa zakres dynamiczny o około 6 dB, więc 16 bitów daje 16 × 6 = 96 dB. Moim zdaniem to wciąż całkiem sporo, zwłaszcza patrząc na warunki domowego odsłuchu czy nagrywania instrumentów w studiu. W praktyce taki zakres pozwala uchwycić zarówno bardzo ciche, jak i bardzo głośne fragmenty dźwięku bez wyraźnych zniekształceń czy szumów quantyzacji, które są bardziej widoczne przy niższych rozdzielczościach. Standard CD Audio wykorzystuje właśnie 16 bitów i przez lata był uznawany za wystarczający nawet dla wymagających słuchaczy. Oczywiście, przy profesjonalnych produkcjach stosuje się często 24 bity, co daje jeszcze większy zakres dynamiczny i niższy poziom szumów, ale do większości zastosowań 16 bitów jest po prostu wystarczające. Z mojego doświadczenia wynika, że większość problemów w miksie nie wynika z ograniczeń dynamiki, tylko raczej z błędów w gain stagingu czy nieumiejętnego użycia kompresji. Warto też pamiętać, że typowe warunki odsłuchowe – domowe pokoje czy samochód – i tak mają ograniczenia akustyczne dużo poniżej tych 96 dB. Ogólnie rzecz biorąc, znajomość tych cyfr pomaga lepiej zrozumieć, jak działa sprzęt audio i dlaczego standardy przyjęły się właśnie takie, a nie inne.

Pytanie 14

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. ramkę.
B. sekundę.
C. minutę.
D. godzinę.
Bardzo często pojawia się przekonanie, że druga para cyfr w kodzie czasowym SMPTE dotyczy np. ramek albo godzin, bo ostatecznie przecież w filmie każda klatka i każda godzina mają znaczenie. Jednak struktura tego kodu wynika z potrzeby czytelności i precyzji synchronizacji różnych ścieżek – i niestety, drugie miejsce od lewej to nie są ani godziny, ani sekundy, ani ramki. Ramka, czyli pojedynczy obrazek w sekwencji wideo, znajduje się zawsze na samym końcu, bo najpierw trzeba ustalić czas w minutach i sekundach, zanim zaczniemy liczyć pojedyncze klatki. Sekunda z kolei, chociaż pojawia się zaraz po minutach, nie jest drugą parą cyfr – jest trzecią, bo logiczny układ kodu SMPTE to godzina:minuta:sekunda:ramka. Godzina, choć kluczowa dla długich nagrań, pojawia się na samym początku, żeby od razu było wiadomo, w którym fragmencie materiału jesteśmy. W praktyce osoby pracujące z kodami SMPTE, które błędnie interpretują te miejsca, mają potem problemy z synchronizacją materiału czy odnajdywaniem konkretnych fragmentów w długich projektach. To trochę jakby pomylić godzinę z minutą w rozkładzie jazdy – niby drobiazg, a skutki mogą być poważne. Moim zdaniem najczęstszym powodem takich błędów jest zamieszanie przy pierwszym zetknięciu z profesjonalnym edytorem wideo czy mikserem dźwięku – patrzysz na kod, widzisz liczby i zgadujesz, a jednak w branży rządzi żelazna logika standaryzacji. Stąd zawsze warto zapamiętać: druga para cyfr to minuty, a potem kolejno sekundy i ramki – taki układ oszczędza masę nerwów przy większych produkcjach czy transmisjach live.

Pytanie 15

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -12 dBFS
B. -3 dBFS
C. -0,3 dBFS
D. -6 dBFS
Wiele osób myli pojęcia związane z rozpiętością dynamiczną, poziomami sygnału i praktyką masteringu. Często wydaje się, że im bliżej zera dBFS znajduje się poziom szczytowy nagrania, tym bardziej jest ono „wyżyłowane” i mniej dynamiczne. W rzeczywistości jest odwrotnie – nagrania, których szczyty sięgają -0,3 dBFS czy -3 dBFS, mają potencjalnie większą rozpiętość dynamiczną, bo zostawiają miejsce na ciche fragmenty, a jednocześnie pozwalają na obecność głośnych szczytów. W praktyce, jeśli sygnał dociera tylko do -0,3 dBFS, może być bardzo dynamiczny, jeśli nie był przesadnie kompresowany – wszystko zależy od tego, jak wygląda przebieg w czasie, a nie wyłącznie od samego szczytu. Z drugiej strony, gdy poziom szczytowy jest ustawiony znacznie niżej, jak np. -12 dBFS, to znak, że cały materiał został zrównany do niższego poziomu, bardzo często poprzez silną kompresję, co skutkuje zmniejszeniem rozpiętości dynamicznej. Typowym błędem jest też utożsamianie wysokiego poziomu szczytowego z małą dynamiką – to nie do końca tak działa. W branży audio kluczowe jest zrozumienie, że rozpiętość dynamiczna zależy głównie od różnicy pomiędzy cichymi i głośnymi fragmentami, a nie od samego absolutnego poziomu szczytowego. W muzyce poważnej czy jazzowej często zostawia się szczyty bliżej zera, bo zależy twórcom na szerokiej dynamice – ciche fragmenty są naprawdę ciche, a głośne potrafią mocno zaskoczyć. Z mojej perspektywy, dobre praktyki zalecają nie tylko pilnowanie poziomów szczytowych (żeby nie przesterować sygnału), ale także świadomą pracę nad zachowaniem naturalnej dynamiki, bo to ona daje muzyce życie i emocje. Przy masteringu do radia czy podcastów czasem trzeba pójść na kompromis, kompresując materiał i ustawiając szczyty niżej, ale zawsze warto wiedzieć, dlaczego się to robi.

Pytanie 16

Które z wymienionych określeń oznacza nagranie lektora?

A. Voice Over
B. Ambience
C. Sound Effects
D. Foley
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.

Pytanie 17

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. CUT
B. COPY
C. MUTE
D. PASTE
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 18

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. MP3
B. WAV
C. RIFF
D. CDA
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 19

Którym z wymienionych programów nie można edytować wielościeżkowej sesji dźwiękowej?

A. ReNOVAtor.
B. Samplitude.
C. Pro Tools.
D. Adobe Audition.
ReNOVAtor to narzędzie wyspecjalizowane raczej do bardzo precyzyjnej edycji dźwięku, głównie usuwania zakłóceń i retuszu pojedynczych ścieżek, a nie do pracy z wielościeżkową sesją dźwiękową. Jeśli ktoś miał do czynienia ze studyjną produkcją audio, na pewno spotkał się z typowymi DAW-ami (Digital Audio Workstation) jak Pro Tools, Samplitude czy Adobe Audition – one właśnie służą do tworzenia, miksowania i edytowania projektów składających się z wielu ścieżek jednocześnie. Natomiast ReNOVAtor, choć technicznie bardzo zaawansowany (szczególnie jeśli chodzi o naprawę nagrań, np. wycinanie trzasków czy kliknięć bez naruszania reszty materiału), nie ma funkcji związanych z zarządzaniem większą liczbą ścieżek czy miksowaniem całości. Z mojego doświadczenia taki program przydaje się bardziej jako „wtyczka naprawcza” w większym workflow, ale nie zastępuje klasycznego DAW-a. To jest trochę jak różnica między edytorem tekstu a narzędziem do naprawiania literówek – jedno to centrum dowodzenia całym projektem, a drugie służy do bardzo konkretnych poprawek. W branży audio powszechnie przyjmuje się, że zaawansowana edycja wielościeżkowych sesji odbywa się tylko w pełnoprawnych DAW-ach. ReNOVAtor może być świetnym dodatkiem, ale nie zastąpi głównego narzędzia do miksu czy aranżacji.

Pytanie 20

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 12 Mb/s
B. 33 Gb/s
C. 15 Gb/s
D. 480 Mb/s
Maksymalna prędkość transmisji danych w standardzie USB 2.0 to faktycznie 480 Mb/s, czyli około 60 MB/s. To właśnie ten parametr sprawił, że USB 2.0 przez wiele lat był dominującym standardem w komputerach, drukarkach, skanerach czy zewnętrznych dyskach twardych. Z mojego doświadczenia – w praktycznych zastosowaniach rzadko kiedy uzyskuje się pełne 480 Mb/s, bo dochodzą narzuty protokołu, przeciążenia magistrali, czy jakość kabla, ale standard mówi jasno: 480 Mb/s to maksimum. Warto pamiętać, że wcześniejsza wersja USB 1.1 miała limit zaledwie 12 Mb/s – to ogromna różnica, jeśli chodzi o kopiowanie plików, podłączanie kamer czy transfer z pendrive'ów. Standard USB 2.0 pojawił się na rynku ok. 2000 roku i do dziś spotykany jest w wielu urządzeniach, zwłaszcza tych tańszych. Osobiście uważam, że znajomość tych wartości jest bardzo przydatna np. przy wyborze sprzętu – łatwo wtedy uniknąć rozczarowań związanych z prędkością przesyłania danych. Dla porównania, USB 3.0 daje już 5 Gb/s, a to już zupełnie inna liga, więc zawsze warto sprawdzać, jaki port się wybiera do szybkich operacji. Z punktu widzenia branży: wiedza o ograniczeniach starszych standardów jest niezbędna przy serwisie i modernizacji sprzętu.

Pytanie 21

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. EDIT
B. I/O
C. FILE
D. SESSION
Sekcja I/O (Input/Output) w oprogramowaniu typu DAW rzeczywiście odpowiada za konfigurację połączeń z urządzeniami zewnętrznymi, jak interfejsy audio. To właśnie tutaj ustalamy, które wejścia i wyjścia fizyczne (np. linie mikrofonowe czy wyjścia monitorowe) będą widoczne i dostępne dla ścieżek projektu. Najczęściej spotkasz się z tym podczas ustawiania sesji nagraniowej – przykładowo, jeżeli chcesz nagrać gitarę podpiętą do wejścia 3 interfejsu audio, przypisujesz to wejście konkretnej ścieżce właśnie w sekcji I/O. I/O pozwala na zdefiniowanie, które sygnały z DAW mają trafić do konkretnych portów w Twoim sprzęcie oraz odwrotnie. Moim zdaniem, opanowanie tej sekcji to absolutna podstawa dla każdego, kto poważnie myśli o profesjonalnym nagrywaniu i miksowaniu. Bez odpowiedniego skonfigurowania I/O niemożliwe byłoby np. nagranie kilku instrumentów naraz czy skierowanie miksu na osobne tory odsłuchowe. W praktyce, nawet w prostych domowych studiach, dobrze ustawione I/O pozwala zaoszczędzić mnóstwo czasu i nerwów. Często zapomina się o tym kroku, a tak naprawdę to serce komunikacji DAW z całym światem zewnętrznym – od mikrofonu, przez syntezatory, po końcowe wyjście na monitory czy mastering. Z mojego doświadczenia, im szybciej to zrozumiesz i ogarniesz, tym szybciej DAW przestanie być dla Ciebie czarną skrzynką.

Pytanie 22

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LPF
B. HPF
C. LF
D. BPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 23

Proporcja głośności między lewym i prawym kanałem w stereofonicznym torze konsolety mikserskiej regulowana jest za pomocą potencjometru

A. Volume.
B. Send.
C. Balance.
D. Gain.
Odpowiedź 'Balance' jest faktycznie tą właściwą, bo to właśnie ten potencjometr, zarówno na konsoletach analogowych jak i cyfrowych, odpowiada za proporcję głośności między lewym i prawym kanałem w sygnale stereofonicznym. To narzędzie podstawowe – szczególnie kiedy miksujemy sygnały, które powinny być prawidłowo rozmieszczone w panoramie stereo, jak np. gitary, instrumenty klawiszowe czy nawet wokale w niektórych aranżacjach. Potencjometr balance pozwala swobodnie przesuwać dźwięk w stronę lewego lub prawego głośnika, co daje ogromne możliwości w kreowaniu przestrzeni w miksie. Z mojego doświadczenia – nawet niewielka korekta balance potrafi zdecydowanie poprawić separację instrumentów i ogólne wrażenie przestrzenności. W środowisku audio profesjonalnym bardzo często stosuje się tzw. panoramowanie (panning), które pozwala umieścić każdy element miksu tam, gdzie brzmi najczytelniej. Potencjometr balance działa podobnie, tylko dla sygnału stereo jako całości. Takie podejście jest zgodne z praktykami studyjnymi, gdzie właściwe ustawienie balansu pozwala uzyskać równowagę w miksie i uniknąć nieprzyjemnych przesunięć fazowych czy wrażenia „ucięcia” dźwięku w jednym kanale. Krótko mówiąc – balance to podstawa, jeśli chodzi o kontrolę proporcji kanałów w stereo.

Pytanie 24

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .m4a
B. .flac
C. .ape
D. .wav
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 25

Która z podanych funkcji oprogramowania DAW służy do utworzenia nowej sesji montażowej?

A. Open
B. Load
C. New
D. Import
Wybór funkcji „New” jest podstawą pracy w każdym nowoczesnym DAW-ie, no bo właśnie ona służy do rozpoczęcia nowej sesji montażowej. Kiedy chcesz zacząć świeży projekt – czy to utwór, czy podcast albo jakiekolwiek nagranie – zawsze szukasz tej opcji. W branży to już praktycznie standard, że funkcja „New” odpowiada za tworzenie pustej sesji, w której od podstaw możesz budować aranżację, importować ślady, ustawiać tempo czy nawet konfigurować routing. Moim zdaniem bardzo fajne jest to, że każdy DAW – od Pro Tools, przez Abletona, aż po Cubase – trzyma się tego schematu, więc nie gubisz się, nawet zmieniając program. Dla wielu realizatorów czy producentów to codzienność: uruchamiasz DAW, klikasz „New” i masz czyste pole do pracy twórczej. Warto też pamiętać, że robienie nowej sesji od zera to dobra praktyka, bo chroni przed bałaganem i przypadkowymi zmianami w starych projektach. Czasem nawet branżowe workflow zakłada, żeby każdy klient czy projekt miał swoją dedykowaną sesję, co ułatwia zarządzanie plikami i backup. Z mojego doświadczenia, korzystanie z opcji „New” pozwala lepiej zorganizować pracę, a potem szybciej wrócić do konkretnego projektu bez stresu, że coś się pomieszało. Niby taka prosta opcja, a jednak kluczowa dla profesjonalnej produkcji dźwiękowej.

Pytanie 26

Aby wprowadzić plik audio z dysku twardego komputera do wielościeżkowego edytora dźwięku, należy użyć funkcji

A. save.
B. eksport.
C. play.
D. import.
Wybrałeś import i to jest dokładnie to, co powinno się zrobić, kiedy chcemy przenieść plik audio z dysku do projektu w edytorze wielościeżkowym. Funkcja „import” jest jednym z podstawowych narzędzi w każdym profesjonalnym oprogramowaniu do obróbki dźwięku, takim jak Cubase, Audacity, Reaper czy Pro Tools. Pozwala ona wprowadzić do projektu istniejące pliki – najczęściej WAV, MP3, AIFF, FLAC, OGG i inne formaty audio. Z mojego doświadczenia wynika, że korzystanie z importu gwarantuje, że plik zostanie poprawnie załadowany, z zachowaniem parametrów takich jak częstotliwość próbkowania czy długość trwania. Co więcej, funkcja importu często umożliwia wybór ścieżki docelowej, konwersję formatu albo automatyczne dopasowanie pliku do projektu. To zdecydowanie najbezpieczniejszy sposób na rozpoczęcie pracy z zewnętrznymi materiałami dźwiękowymi. W branży muzycznej i postprodukcyjnej stosuje się tę funkcję niemal codziennie, bo pozwala ona na szybkie rozszerzanie sesji o nowe elementy – sample, nagrania lektorskie, ścieżki instrumentalne. Po prostu, bez importu nie da rady sensownie pracować na kilku ścieżkach z różnymi źródłami dźwięku. Takie podejście jest absolutnym standardem w świecie cyfrowej obróbki audio.

Pytanie 27

Skróty: BD, SN, HH dotyczą

A. instrumentów tria gitarowego.
B. instrumentów sekcji dętej.
C. głosów zespołu wokalnego.
D. instrumentów zestawu perkusyjnego.
Skróty BD, SN, HH to bardzo charakterystyczne oznaczenia używane przede wszystkim w świecie perkusji – szczególnie na planach utworów, w nutach dla perkusisty i na listach sprzętu podczas koncertów. Oznaczają one konkretne elementy perkusyjnego zestawu: BD to „bass drum” (centrala), SN to „snare” (werbel), a HH to „hi-hat” (hi-hat, czyli para talerzy sterowana pedałem). Często spotyka się te skróty na diagramach zestawu perkusyjnego, ale też przy zapisie nutowym, gdzie oszczędność miejsca i szybkość rozpoznania są kluczowe – szczególnie podczas prób czy sesji nagraniowych. Moim zdaniem, nawet jeśli ktoś gra na gitarze albo śpiewa, warto znać te skróty, bo w zespole komunikacja musi być szybka i jasna. W branży muzycznej, zwłaszcza na scenie czy w studiu nagrań, używanie takiego skróconego nazewnictwa to właściwie standard. W notacjach MIDI i DAW-ach (np. Ableton, Cubase), te skróty też są często stosowane jako domyślne oznaczenia ścieżek czy sampli. W praktyce to naprawdę ułatwia życie, bo masz jasność, co i gdzie masz zagrać albo nagrać. Sam często spotykam się z tym, że nawet początkujący perkusiści łapią te oznaczenia szybciej niż pełne nazwy – a wiadomo, liczy się czas i precyzja. Takie skróty są też obecne w podręcznikach branżowych i są uznawane za dobrą praktykę w edukacji muzycznej, zwłaszcza na poziomie technikum czy szkół muzycznych.

Pytanie 28

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Cut
B. Invert
C. Crossfade
D. Gain
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 29

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 4.0
B. 7.1
C. 5.1
D. 9.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 30

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. SOLO
B. RECORD
C. MUTE
D. INPUT
Wybranie opcji SOLO na ścieżce w DAW to taki trochę klasyk pracy w studiu – każdy, kto choć raz miksował, wie, jak często sięga się po ten przycisk. SOLO pozwala na odsłuchanie tylko konkretnej ścieżki, bez przeszkadzania ze strony pozostałych. To wręcz niezbędne, gdy chcesz się skupić na detalach, np. sprawdzić precyzyjnie czy wokal nie ma niechcianych szumów albo czy syntezator dobrze siedzi w miksie. W praktyce bardzo często używa się SOLO podczas ustawiania poziomów, korekcji czy efektów na pojedynczym instrumencie. Standardowe workflow w studiach – i tych domowych, i profesjonalnych – zakłada, że podczas miksowania regularnie korzysta się z tej funkcji, żeby nie pogubić się w gąszczu dźwięków. Moim zdaniem bez SOLO można by się mocno zamotać, zwłaszcza przy większych projektach. Dobrze wiedzieć, że opcja SOLO nie usuwa dźwięków innych ścieżek, tylko je tymczasowo wycisza, więc nie trzeba się martwić o utratę ustawień. To takie narzędzie podglądu – pozwala wyłapać niuanse i dopracować ślady zanim wrócą do pełnego miksu. Branża przyjmuje to jako absolutny standard, a korzystanie z SOLO jest zalecane przez większość instruktorów i producentów. Warto też pamiętać, że niektóre DAWy mają kilka trybów SOLO, np. SOLO in place albo pre/post fader, więc można dopasować działanie do własnych potrzeb. Dla mnie to podstawa pracy z dźwiękiem i coś, bez czego trudno sobie wyobrazić profesjonalny proces produkcji.

Pytanie 31

Który z wymienionych nośników jest nośnikiem analogowym?

A. Kaseta CC
B. Kaseta DAT
C. Płyta CD
D. Płyta DVD
Kaseta CC, czyli Compact Cassette, to klasyczny przykład nośnika analogowego, który był bardzo popularny w XX wieku. Moim zdaniem warto wiedzieć, że taśmy magnetyczne zapisują sygnał w formie ciągłej, nie cyfrowej, co oznacza, że dźwięk jest przechowywany jako zmiany pola magnetycznego na taśmie. Dzięki temu każda zmiana natężenia dźwięku czy częstotliwości jest odwzorowana płynnie, a nie skokowo – to jest właśnie cała magia analogowego zapisu. W praktyce, kasety CC były wykorzystywane do nagrywania muzyki, audycji radiowych, a nawet danych komputerowych (choć z tym było już trochę kombinowania). Branża muzyczna przez dekady polegała na tej technologii i mimo że dziś dominuje cyfrowy zapis, w niektórych niszach – np. produkcja lo-fi czy archiwizacja starych nagrań – kasety wciąż mają swoich zwolenników. Według standardów branżowych, nośniki analogowe są bardziej podatne na zużycie i zakłócenia typu szum taśmy, ale za to mają swój niepowtarzalny, ciepły charakter dźwięku, który trudno podrobić cyfrowo. Moim zdaniem warto rozumieć różnice – bo to podstawa w pracy z dowolnymi archiwami lub przy digitalizacji starych nagrań. Warto też pamiętać, że kasety CC nie musiały posiadać żadnych złożonych mechanizmów korekcji błędów, bo zapis analogowy tolerował drobne zakłócenia bez dramatycznej utraty jakości.

Pytanie 32

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitową.
B. dostępną przepływność bitową.
C. średnią przepływność bitową.
D. zmienną przepływność bitową.
Tryb CBR, czyli Constant Bit Rate, faktycznie oznacza zastosowanie stałej przepływności bitowej podczas konwersji do formatu MP3. To dosyć popularny wybór, zwłaszcza gdy mamy na myśli np. emisję radiową czy archiwizację plików audio na nośnikach o ograniczonej pojemności – płyty CD, stare odtwarzacze MP3 czy nawet niektóre streamy w sieci. W CBR każda sekunda dźwięku kodowana jest zawsze z tą samą liczbą bitów, niezależnie od tego, czy w danym fragmencie utworu jest dużo szczegółów czy akurat jest cisza lub prosty dźwięk. Pozwala to łatwo przewidzieć końcowy rozmiar pliku i utrzymać stałe wymagania transferowe, co bywa kluczowe np. w sieciach o ograniczonej przepustowości. W praktyce branżowej CBR stosuje się też wtedy, gdy zależy nam na kompatybilności – część starszych urządzeń obsługuje wyłącznie nagrania CBR i może mieć problem z innymi trybami. Oczywiście, CBR nie zawsze zapewnia tak dobrą jakość jak VBR (zmienna przepływność), bo czasem "przepłaca" za fragmenty proste, ale za to jest przewidywalny i stabilny. Spotkałem się z tym, że ludzie wybierają CBR nawet w podcastach, żeby nie było niespodzianek z długością pliku. Jeśli komuś zależy na przewidywalności i prostocie, to CBR jest sensownym wyborem – i dokładnie dlatego ta odpowiedź jest prawidłowa.

Pytanie 33

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 48 000 Hz
B. 196 000 Hz
C. 44 100 Hz
D. 98 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 34

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -16 RMS
B. -23 RMS
C. -16 LUFS
D. -23 LUFS
Odpowiedź -23 LUFS jest zgodna z europejskim standardem EBU R128. To właśnie ta wytyczna została przyjęta w branży radiowej i telewizyjnej w Europie, żeby zapewnić spójny poziom głośności wszystkich audycji. LUFS – skrót od Loudness Units relative to Full Scale – to obecnie najpowszechniej stosowana jednostka do pomiaru subiektywnej głośności materiału audio. Z mojego doświadczenia wynika, że coraz więcej inżynierów dźwięku i realizatorów nie wyobraża sobie pracy bez tej skali, bo pozwala ona zapanować nad różnicami w postrzeganiu głośności, które wcześniej często irytowały słuchaczy (np. głośniejsze reklamy). Warto pamiętać, że -23 LUFS nie oznacza po prostu nagrania „cichego” – to punkt odniesienia pozwalający zachować optymalną dynamikę, uniknąć przesterowań i mieć pewność, że słuchacze nie będą musieli ciągle regulować głośności odbiornika. Dla przykładu: jeśli przygotowujesz podcast albo materiał do radia, znormalizowanie do -23 LUFS to podstawa – zarówno w emisji FM, jak i w streamingu cyfrowym, choć tam czasem są inne wymagania, np. -16 LUFS dla podcastów na Spotify. W telewizji publicznej czy dużych rozgłośniach radiowych nieprzestrzeganie tego progu może skutkować odrzuceniem materiału. To taka branżowa gwarancja jakości, zgodnie z zasadą „jeden poziom dla wszystkich”, i moim zdaniem wprowadziła sporo ładu do świata broadcastu. Warto więc od razu przyzwyczaić się do mierników LUFS i pracy z R128 – to standard praktycznie obowiązkowy.

Pytanie 35

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. EDIT
B. I/O
C. FILE
D. SESSION
Sekcja I/O (czyli Input/Output) w oprogramowaniu typu DAW to absolutna podstawa przy konfiguracji połączeń sprzętowych, takich jak zewnętrzne karty dźwiękowe czy interfejsy audio. To właśnie tutaj określasz, które wejścia i wyjścia będą używane podczas nagrywania lub odtwarzania dźwięku. Często w tej sekcji można nie tylko wybrać odpowiednie porty, ale też przypisywać je do konkretnych ścieżek, co jest szalenie ważne, jeśli korzystasz np. z wielokanałowej karty dźwiękowej albo podłączasz mikrofony i instrumenty przez różne wejścia. Z mojego doświadczenia, bez poprawnego ustawienia I/O nie da się w ogóle ruszyć z profesjonalną sesją – wszystko będzie brzmieć zbyt ogólnie albo wręcz nic nie będzie słychać. W branży muzycznej i produkcyjnej to wręcz standard, żeby przed każdą sesją sprawdzić, czy DAW poprawnie widzi Twoją kartę dźwiękową i czy ścieżki są prawidłowo powiązane z fizycznymi wejściami i wyjściami. Czasami, zwłaszcza przy zmianie sprzętu lub pracy w różnych studiach, konfiguracja sekcji I/O pozwala szybko dopasować system do aktualnych potrzeb i uniknąć kłopotliwych sytuacji typu „dlaczego nie mam sygnału?”. Warto też pamiętać, że dobrze ustawione I/O to podstawa, jeśli chcesz korzystać z zaawansowanych funkcji, typu reampowanie, insertowanie efektów zewnętrznych czy nagrywanie kilku źródeł jednocześnie. Bez tej wiedzy ciężko wyobrazić sobie poważną pracę w DAW.

Pytanie 36

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 44100 Hz/24 bity
C. 48000 Hz/24 bity
D. 44100 Hz/16 bitów
Odpowiedź 44100 Hz/16 bitów jest absolutnie zgodna ze standardem CD-Audio, który został przyjęty już w latach 80. przez Sony i Philipsa. W praktyce oznacza to, że jeśli tworzysz projekt w DAW na takich właśnie ustawieniach, plik wynikowy nada się do tłoczenia na płycie CD bez żadnych dodatkowych konwersji czy strat jakości. Samo 44100 Hz to częstotliwość próbkowania, która pozwala na uzyskanie pasma przenoszenia do 20 kHz, czyli tyle, ile słyszy przeciętny człowiek – moim zdaniem to trochę symboliczne, bo uwzględnia „pełne” pasmo audio. 16 bitów daje 96 dB zakresu dynamiki, co na swoje czasy było naprawdę wystarczające (i do dzisiaj zupełnie wystarcza do muzyki popularnej, audiobooków czy podcastów na CD). W studiu czasami pracuje się z wyższymi parametrami, np. 24 bity czy 48 kHz, żeby mieć większy zapas do edycji, ale finalny eksport na CD-Audio zawsze musi być w tych parametrach: 44,1 kHz i 16 bitów. Takie ustawienie sesji od początku minimalizuje konieczność konwertowania plików, co – z mojego doświadczenia – eliminuje ryzyko degradacji jakości i niepotrzebnych błędów przy eksporcie. Dobrze się tego trzymać, szczególnie jeżeli docelowy medium to klasyczna płyta CD.

Pytanie 37

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. TRACK
B. EVENT
C. EDIT
D. VIEW
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 38

Pliki dźwiękowe w projekcie należy znormalizować poprzez zastosowanie

A. korekcji.
B. normalizacji.
C. procesorów dynamicznych Noise Gate.
D. automatyki panoramy.
Normalizacja plików dźwiękowych to jedna z podstawowych czynności w obróbce audio, szczególnie jeśli chcemy, żeby wszystkie nagrania w projekcie brzmiały spójnie pod względem głośności. Chodzi w niej o to, żeby zbliżyć maksymalny poziom sygnału do wybranego punktu odniesienia, zwykle 0 dBFS, ale bez przekraczania granicy i wchodzenia w przesterowanie. Moim zdaniem, normalizacja to taki must-have w każdym projekcie, kiedy masz wiele źródeł – na przykład dialogi z różnych mikrofonów, efekty, muzykę – i nie chcesz, żeby coś znienacka było za cicho lub za głośno. W praktyce wygląda to tak: program DAW analizuje poziom najgłośniejszego fragmentu ścieżki i całość odpowiednio „podciąga” lub „zdejmuje”, by ustawić go na zadanym poziomie. To nie zmienia dynamiki materiału (w przeciwieństwie do kompresji), więc cały charakter nagrania zostaje zachowany. W branży filmowej, podcastowej czy nawet przy miksie muzycznym uznaje się to za dobrą praktykę porządkującą projekt. Szczerze mówiąc, jak ktoś zaczyna miks bez normalizacji, to potem może się nieźle namęczyć z nierówną głośnością, a przecież chodzi o komfort słuchacza. Co ciekawe, niektórzy inżynierowie używają jeszcze normalizacji do określonego LUFS (np. -23 LUFS w broadcast), ale to już wyższa szkoła jazdy.

Pytanie 39

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 6 ścieżek.
B. 2 ścieżki.
C. 8 ścieżek.
D. 4 ścieżki.
W nagraniach binauralnych zawsze pracujemy na dwóch ścieżkach – lewej i prawej. To nie przypadek, tylko konsekwencja samej zasady działania tej techniki. Źródło dźwięku rejestruje się za pomocą dwóch mikrofonów umieszczonych w „uszy” sztucznej głowy lub specjalnych wkładek dousznych. Każda ścieżka to osobny kanał – lewy i prawy, które razem tworzą naturalne wrażenie przestrzenne podczas odsłuchu na słuchawkach. Moim zdaniem to niesamowite, bo taki montaż pozwala słuchaczowi dosłownie znaleźć się „w środku” nagrania. W praktyce, żeby przygotować prawidłowy montaż binauralny, nie ma co kombinować z dodatkowymi ścieżkami, bo cała magia polega właśnie na tym, że są tylko dwie – każda oddaje inną perspektywę ucha. Tak robi się to zarówno w nagraniach profesjonalnych (np. dźwiękowe gry VR, słuchowiska), jak i amatorskich eksperymentach. Dobre praktyki podkreślają, żeby nie rozdzielać ani nie mieszać kanałów w postprodukcji, bo wtedy efekt przestrzenny znika. Standard branżowy jest prosty: dwa mikrofony, dwie ścieżki, zero kompromisów. Dla kogoś, kto pierwszy raz pracuje z tą techniką, może to być zaskakujące, bo czasami przy innych systemach surround trzeba montować nawet osiem czy więcej ścieżek. W binauralu jednak liczy się dokładność i naturalność, więc wystarczają te dwa kanały. I to w sumie jest piękne w swojej prostocie.

Pytanie 40

Tworząc dokumentację nagrania perkusji, należy do rejestracji dużego bębna wybrać mikrofon

A. magnetoelektryczny cewkowy.
B. piezoelektryczny.
C. elektrostatyczny.
D. wstęgowy.
Wybór mikrofonu magnetoelektrycznego cewkowego do rejestracji dużego bębna (kick drum) to standardowa praktyka w studiu nagraniowym i na scenie. Te mikrofony, znane też jako dynamiczne, świetnie radzą sobie z bardzo wysokim poziomem ciśnienia akustycznego, który właśnie generuje stopa. Konstrukcja cewkowa wytrzymuje duże natężenia i nie jest tak podatna na uszkodzenia mechaniczne, co przy energicznych uderzeniach w bęben ma spore znaczenie. Z mojego doświadczenia – takie mikrofony (np. słynny AKG D112, Shure Beta 52A czy Audix D6) nie tylko znoszą trudy pracy, ale i oddają charakterystyczny atak i głębię dźwięku stopy. Producenci sprzętu perkusyjnego i realizatorzy od dekad rekomendują właśnie mikrofony dynamiczne cewkowe do tego zastosowania, bo potrafią odpowiednio „wyciąć” się w miksie i są raczej odporne na sprzężenia. Branżowe standardy (np. rider techniczny zespołu rockowego) praktycznie zawsze przewidują takie rozwiązanie. Często konstrukcje dynamiczne mają też odpowiednio podcięte niskie pasmo i lekkie podbicie w okolicach 4 kHz, przez co stopa brzmi selektywnie. Mikrofony cewkowe są też stosunkowo tanie i dostępne – nie trzeba inwestować w kosztowny sprzęt, żeby osiągnąć dobry efekt. W praktyce – jeśli ktoś chce nagrać bęben basowy z odpowiednią dynamiką i charakterem, mikrofon magnetoelektryczny cewkowy jest właściwym wyborem.