Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 7 maja 2026 10:35
  • Data zakończenia: 7 maja 2026 10:39

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych skrótów klawiaturowych służy do zapisania sesji oprogramowania DAW na dysku komputera?

A. CTRL + X (Win) / Command + X (Mac)
B. CTRL + S (Win) / Command + S (Mac)
C. CTRL + C (Win) / Command + C (Mac)
D. CTRL + V (Win) / Command + V (Mac)
Wybranie skrótu klawiaturowego CTRL + S na Windowsie lub Command + S na Macu do zapisywania sesji w oprogramowaniu typu DAW (Digital Audio Workstation) to absolutna podstawa pracy z praktycznie każdym narzędziem tego typu. Ten skrót funkcjonuje jako niepisany standard branżowy, od najprostszych edytorów tekstu aż po zaawansowane systemy studyjne. Moim zdaniem, dobre nawyki zapisywania pracy co kilka minut to coś, co może dosłownie uratować cały projekt – sam nie raz przekonałem się, że automatyczne zapisywanie nie zawsze wystarcza, szczególnie przy pracy z większymi sesjami. W DAW-ach, jak Ableton Live, FL Studio, Cubase, Logic Pro czy Pro Tools, kombinacja tych klawiszy natychmiast zachowuje stan projektu na dysku bez udziału myszki. To bardzo przyspiesza workflow, szczególnie w sytuacjach, gdy nagle pojawia się inspiracja lub podczas intensywnej edycji. Z punktu widzenia profesjonalisty, szybkie i regularne zapisywanie pozwala uniknąć frustracji związanej z nieoczekiwaną utratą danych, np. po zawieszeniu systemu. Warto dodać, że skrót ten działa nie tylko w DAW-ach, ale od lat jest integralną częścią interfejsów użytkownika w całym środowisku komputerowym – to taki uniwersalny, międzynarodowy język dla wszystkich użytkowników komputerów. Z doświadczenia wiem, że nauczenie się tego skrótu to niemalże pierwszy krok do pracy efektywnej i bezpiecznej. Gdyby nie ten nawyk, naprawdę można się wkopać, szczególnie gdy sprzęt zaczyna się dziwnie zachowywać po dłuższej sesji.

Pytanie 2

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 3 ścieżki.
B. 2 ścieżki.
C. 5 ścieżek.
D. 4 ścieżki.
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 3

Który format należy wybrać przy eksporcie gotowego materiału dźwiękowego, aby utworzyć master dla tłoczni płyt CD?

A. DDP
B. MDS
C. NRG
D. IMG
DDP, czyli Disc Description Protocol, to od lat uznawany standard w branży fonograficznej do przekazywania gotowego materiału audio do tłoczni płyt CD. To nie jest zwykły format audio, tylko specjalny zestaw plików opisujących dokładnie zawartość płyty – ścieżki, indeksy, kody ISRC, CD-Text i inne metadane, które są bardzo ważne przy profesjonalnej produkcji. Tłocznie CD praktycznie zawsze wymagają masterów w formacie DDP, bo gwarantuje to integralność danych i minimalizuje ryzyko błędów podczas tłoczenia. Moim zdaniem, jeśli ktoś poważnie myśli o wydawaniu muzyki na CD, nie ma sensu kombinować z innymi formatami – DDP jest bezpieczny, uniwersalny i obsługiwany przez wszystkie profesjonalne systemy. Przykładowo, większość programów do masteringu, jak Wavelab czy HOFA, pozwala bez problemu tworzyć paczki DDP, w których są nawet sumy kontrolne plików. Dzięki temu tłocznia może zweryfikować, czy nic się nie uszkodziło w trakcie przesyłki. Dodatkowa zaleta to obsługa wszystkich nowoczesnych funkcji płyt CD, jak PQ Codes czy CD-Text. Jeżeli ktoś jeszcze korzysta z płyt fizycznych, to naprawdę warto dobrze ogarnąć DDP i nie próbować oddawać mastera w formatach przeznaczonych do czegoś zupełnie innego.

Pytanie 4

Zapis magnetooptyczny wykorzystywany jest w nośniku typu

A. Karta SDHC
B. Kaseta DAT
C. Dysk SSD
D. Mini Disc
Mini Disc to nośnik, który opiera się na technologii zapisu magnetooptycznego. To dość ciekawa hybryda, bo łączy elementy zapisu magnetycznego i optycznego. Najpierw dane są zapisywane magnetycznie, ale żeby to w ogóle było możliwe, laser nagrzewa odpowiedni fragment dysku do wysokiej temperatury. Dopiero wtedy głowica magnetyczna może zmienić polaryzację tego miejsca. Odczyt też odbywa się optycznie, więc w praktyce Mini Disce używały lasera podobnie jak płyty CD, ale z dodatkowym elementem pola magnetycznego przy zapisie. To rozwiązanie stosowano głównie w sprzęcie audio Sony, np. przenośnych odtwarzaczach i rejestratorach dźwięku, bo dawało możliwość wielokrotnego zapisu i wysokiej trwałości nośnika. Moim zdaniem to fajny przykład na to, jak inżynierowie próbowali pogodzić szybki zapis, dużą pojemność i trwałość – coś jak kompromis pomiędzy klasyczną kasetą a płytą CD-RW. W branży do dziś Mini Disc jest podawany jako przykład nowatorskiego podejścia do przechowywania danych, choć oczywiście obecnie został już wyparty przez nośniki półprzewodnikowe. Ogólnie rzecz biorąc, technologia magnetooptyczna to kawał ciekawej historii – znalazła też zastosowanie np. w stacjonarnych napędach MO używanych w archiwizacji danych w laboratoriach i firmach, gdzie liczy się bezpieczeństwo i trwałość zapisu.

Pytanie 5

Jakiej najmniejszej liczby płyt CD-R należy użyć do zapisania 3-godzinnego nagrania w standardzie CD-Audio?

A. 2 płyt.
B. 4 płyt.
C. 3 płyt.
D. 5 płyt.
Odpowiedź jest prawidłowa, bo standardowa płyta CD-R przeznaczona do nagrywania muzyki w formacie CD-Audio ma pojemność około 80 minut. To jest taki typowy, powszechny nośnik, który obsługują praktycznie wszystkie odtwarzacze. Jeśli mamy nagranie trwające 3 godziny (czyli 180 minut), to łatwa matematyka – dzielimy 180 minut przez 80 minut, wychodzi 2,25. Oczywiście nie da się nagrać częściowo na płycie, więc musimy zaokrąglić w górę do pełnych nośników – czyli potrzeba 3 płyt CD-R. To podejście jest zgodne z branżowymi standardami, bo nie ma co upychać danych na siłę albo stosować formatów typu MP3, jeśli chodzi o CD-Audio. Trzeba pamiętać, że format CD-Audio wymaga określonej jakości (44,1 kHz, 16 bitów, stereo), więc nie da się tam wrzucić więcej muzyki poprzez kompresję stratną – jak na pendrive’a czy płytę danych. W praktyce w studiach nagraniowych czy nawet w radiu zawsze liczy się tak właśnie – przeliczając na minuty i dobierając liczbę płyt. Warto też wiedzieć, że stosowanie kilku płyt jest normalną praktyką przy dłuższych materiałach, a użytkownicy domowi po prostu robią składanki na kilku krążkach. Moim zdaniem takie zadania dobrze pokazują, że te podstawowe parametry nośników to podstawa przy planowaniu archiwizacji czy kopiowania muzyki.

Pytanie 6

Gdzie jest optymalne miejsce do montażu ścieżki dźwiękowej?

A. W miejscu maksymalnej energii dźwięku.
B. Na wybrzmieniu dźwięku.
C. W ciszy pomiędzy dźwiękami.
D. W miejscu wzrostu energii dźwięku.
Bardzo często spotyka się mylne założenie, że najlepiej wprowadzić ścieżkę dźwiękową tam, gdzie wybrzmiewa dźwięk, rośnie energia lub osiąga ona maksimum. Niestety, takie podejście prowadzi do różnych problemów z czytelnością i odbiorem całego materiału. Zacznijmy od montowania na wybrzmieniu dźwięku – to dość powszechny błąd, bo wydaje się, że jak coś się kończy, to można od razu wprowadzić muzykę. W rzeczywistości, jeśli ścieżka wchodzi na wybrzmienie, powstaje efekt "nakładki". Dźwięki się przenikają i odbiorca nie jest w stanie wychwycić wszystkich niuansów, a dialogi czy efekty mogą być zagłuszane. Kolejny przypadek to wprowadzanie muzyki w miejscu wzrostu energii dźwięku. Tu z kolei łatwo o przeładowanie – nagłe wejście nowej warstwy podczas narastania głośności potrafi zniekształcić emocjonalny wydźwięk sceny i zaburzyć naturalną dynamikę. Moim zdaniem takie praktyki prowadzą do utraty przejrzystości i mogą nawet drażnić ucho słuchacza. Podobnie, montaż w punkcie maksymalnej energii dźwięku często powoduje efekt "przebicia" – wszystko naraz, zero przestrzeni i w efekcie widz czuje się przytłoczony. To jest bardzo częsta pułapka początkujących montażystów, którzy myślą, że więcej znaczy lepiej. Branżowe standardy (np. zalecenia EBU czy praktyki z kursów montaży filmowych) wyraźnie wskazują, że najczytelniejszy rezultat osiąga się właśnie w ciszy, czyli w naturalnej przerwie. Dzięki temu materiał audio nabiera profesjonalnego charakteru, a każda warstwa dźwięku ma swoje miejsce i nie konkuruje z innymi. Sztuka montażu to nie tylko technika, ale też wyczucie momentu – warto zaufać sprawdzonym rozwiązaniom, żeby efekt końcowy był klarowny i przyjemny dla odbiorcy.

Pytanie 7

Która wartość rozdzielczości bitowej nie jest dostępna w standardzie DVD-Audio?

A. 24
B. 8
C. 16
D. 20
To jest właśnie sedno sprawy, bo standard DVD-Audio od zawsze był projektowany z myślą o wysokiej jakości dźwięku. Rozdzielczość bitowa 8 bitów to już absolutna podstawa—praktycznie nieużywana w profesjonalnym audio, bo daje bardzo niską dynamikę oraz szumy, które skutecznie psują odbiór. W DVD-Audio obowiązują standardowo wartości 16, 20 oraz 24 bity, czyli poziomy charakterystyczne dla sprzętu studyjnego i audiofilskiego. Taka rozdzielczość pozwala na zapis ogromnej liczby szczegółów i bardzo szeroki zakres dynamiczny, co jest nieosiągalne przy 8 bitach. Przykładowo, płyty CD mają 16 bitów, a DVD-Audio idzie jeszcze dalej, umożliwiając mastering w 24 bitach – to różnica, którą słychać zwłaszcza w muzyce poważnej albo nagraniach koncertowych. W moim odczuciu, kto raz porównał DVD-Audio z 24 bitami do starego formatu 8-bitowego, ten już nie wraca do dawnych ograniczeń. Poza tym, w branży muzycznej i filmowej nikt poważnie nie traktuje 8-bitowych próbek do odtwarzania finalnego materiału – to raczej domena bardzo starych gier komputerowych czy pierwszych samplerów, ale nie nowoczesnych nośników audio. Także, jeśli myślimy o profesjonalnej produkcji muzycznej lub jakości Hi-Fi, 8 bitów po prostu nie wchodzi w grę i nie bez powodu nie znajdziesz jej w specyfikacji DVD-Audio.

Pytanie 8

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. ∞:1
C. 1,4:1
D. 6:1
Limiter, w odróżnieniu od zwykłych kompresorów, charakteryzuje się nieskończonym, czyli teoretycznie ∞:1 stopniem kompresji. To oznacza, że gdy sygnał przekroczy ustawiony próg (threshold), nie jest on wcale przepuszczany dalej, a poziom wyjściowy nie może wzrosnąć powyżej tego progu. W praktyce oznacza to bardzo agresywną ochronę przed przesterowaniem – żadna wartość powyżej thresholdu się nie przebije. Branżowe standardy, np. w nagłośnieniu koncertowym czy przy masteringu, jednoznacznie przypisują limiterom właśnie ten typ działania. Przykładowo, w miksie nagrań radiowych limiter ustawia się na końcu łańcucha, by nie dopuścić do przekroczenia 0 dBFS i uniknąć zniekształceń cyfrowych. Niektóre nowoczesne limitery oferują dodatkowe funkcje – look-ahead, soft clipping, czy programowane krzywe ataku i release – ale zawsze sednem jest ta nieskończona kompresja. Moim zdaniem, znając ten parametr, łatwiej świadomie korzystać z narzędzi do obróbki dynamiki i lepiej chronić materiał audio przed niechcianym przesterem. Warto pamiętać, że zwykłe kompresory (o stopniach np. 2:1 czy 6:1) stosuje się do subtelniejszego kształtowania dynamiki, a nie twardej ochrony poziomów sygnału.

Pytanie 9

Jaka powinna być minimalna liczba ścieżek materiału dźwiękowego w edytorze audio, pozwalająca na kontrolę każdego z instrumentów kwintetu smyczkowego?

A. 5 ścieżek.
B. 2 ścieżki.
C. 3 ścieżki.
D. 4 ścieżki.
Kwintet smyczkowy to zespół, w którym gra pięciu instrumentalistów: zwykle dwóch skrzypków, altowiolista, wiolonczelista i kontrabasista (czasem drugi wiolonczelista zamiast kontrabasisty – szczegóły zależą od repertuaru, ale zawsze pięć osób). Każdy instrument ma swoją unikalną barwę i funkcję w utworze, dlatego w profesjonalnej pracy studyjnej przyjęło się nagrywać lub przynajmniej oddzielnie edytować każdą partię. Jeśli chcesz mieć pełną kontrolę nad miksem – czyli panoramą, poziomem głośności, efektami czy automatyzacją – każda partia powinna mieć osobną ścieżkę. Tak się to robi w każdym porządnym studiu nagraniowym, bo miksowanie instrumentów razem ogranicza możliwości korekty i kreatywnej obróbki. Moim zdaniem to nie tylko wygoda, ale i duża oszczędność czasu, gdy chcesz np. wyciszyć samą wiolonczelę albo podkreślić altówkę. Dodatkowo, praca na pięciu ścieżkach pozwala np. na precyzyjne usuwanie szumów, stosowanie efektów przestrzennych albo automatyzację dynamiki – to już branżowy standard. Oczywiście, istnieją zespoły, które grają „na żywo” do jednej ścieżki stereo, ale w edytorze audio, gdy masz wybór, zawsze lepiej rozdzielać instrumenty. Przy kwintecie smyczkowym minimum to pięć ścieżek, jeśli zależy ci na jakości i profesjonalnym brzmieniu. W sumie, to taki techniczny kompromis między wygodą a kontrolą – im mniej ścieżek, tym mniej swobody. Dlatego 5 ścieżek to podstawa.

Pytanie 10

Technika mikrofonowa MS to technika

A. binauralna.
B. stereofonii natężeniowej.
C. monofoniczna.
D. ambisoniczna.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę sprytna metoda wykorzystywana przy nagraniach stereofonicznych, szczególnie jeśli chodzi o rejestrację przestrzeni z dużą precyzją i elastycznością. Jej podstawą jest wykorzystanie dwóch mikrofonów – jeden pracuje w trybie kardioidalnym (Mid), a drugi w ósemkowym (Side). Dzięki takiemu ustawieniu uzyskuje się tzw. stereofonię natężeniową, gdzie różnice w natężeniu sygnału z obu mikrofonów tworzą efekt stereo. Największą zaletą MS jest to, że po nagraniu można dowolnie regulować szerokość sceny stereo już na etapie postprodukcji, co daje dużą kontrolę nad brzmieniem. Często stosuje się ją np. przy nagrywaniu chóru, instrumentów akustycznych czy nawet w reportażu radiowym, bo pozwala zachować świetną zgodność sumy do mono – co nie jest oczywiste przy innych technikach stereo. Moim zdaniem, warto znać tę metodę, bo nie tylko daje profesjonalny efekt, ale i bywa wręcz standardem w branży. Ciekawe jest też to, że wiele pluginów do DAW wykorzystuje dekodowanie MS, więc rozumienie tej techniki ułatwia pracę z dźwiękiem cyfrowym. W ogóle, w świecie realizacji dźwięku technika MS to temat, który bardzo się przydaje i według mnie każdy, kto poważnie myśli o nagrywaniu, powinien go ogarnąć.

Pytanie 11

Dokumentacją, stanowiącą podstawę produkcji słuchowiska radiowego, jest

A. scenopis.
B. utwór literacki.
C. licencja.
D. scenariusz.
Scenariusz to absolutna podstawa przy produkcji słuchowiska radiowego. Bez niego ciężko wyobrazić sobie profesjonalną realizację – to właśnie ten dokument dokładnie opisuje przebieg akcji, kwestie bohaterów, didaskalia, wszystkie efekty dźwiękowe i muzyczne, a nawet wskazówki dotyczące intonacji czy tempa wypowiedzi. W praktyce scenariusz pełni taką rolę jak partytura w orkiestrze – każdy członek ekipy wie, kiedy wchodzi jego rola i co dokładnie powinno być zrobione. Standardy branżowe, szczególnie w rozgłośniach publicznych, zakładają, że bez kompletnego scenariusza nie rozpoczyna się prób nagraniowych ani montażu. Z mojego doświadczenia wynika, że dobrze przygotowany scenariusz pozwala uniknąć chaosu i znacznie skraca czas produkcji, bo wszystko jest rozpisane „czarno na białym”. Warto pamiętać, że scenariusz w radiu jest jeszcze ważniejszy niż np. w teatrze, bo medium opiera się wyłącznie na dźwięku i nie ma miejsca na improwizację wizualną. Często spotykałem się z opinią, że dobry scenariusz to połowa sukcesu – w pełni się z tym zgadzam. Dobrą praktyką jest także zostawienie marginesu na drobne adaptacje podczas nagrania, ale zawsze bazą jest właśnie scenariusz. Przy produkcjach profesjonalnych nie istnieje opcja pracy bez tego dokumentu.

Pytanie 12

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Freeze.
C. Solo.
D. Mute.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 13

W celu minimalizacji aliasingu podczas konwersji A/C sygnału fonicznego zawierającego częstotliwości składowe z pasma akustycznego 20 Hz - 20 kHz, wartość częstotliwości próbkowania powinna wynosić minimalnie

A. 30 kHz
B. 20 kHz
C. 10 kHz
D. 40 kHz
Dobrze zauważone, że właśnie 40 kHz powinno być minimalną częstotliwością próbkowania przy digitalizacji sygnału fonicznego obejmującego całe pasmo słyszalne, czyli od 20 Hz do 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał, bez efektu aliasingu, częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości w sygnale. W praktyce dla audio, gdzie najwyższa słyszalna częstotliwość to 20 kHz, oznacza to właśnie 40 kHz. Co ciekawe, standard Compact Disc Audio przyjął jeszcze nieco wyższą wartość: 44,1 kHz, żeby zostawić zapas na niefiltrowane składowe i ograniczyć możliwość zakłóceń. Moim zdaniem, w pracy z dźwiękiem, zawsze warto pamiętać o zapasie powyżej minimum, bo rzeczywiste filtry antyaliasingowe nie są idealne i przepuszczają trochę sygnału poza swoim zakresem. W zastosowaniach profesjonalnych coraz częściej spotyka się próbkowanie na poziomie 48 kHz, a nawet 96 kHz, ale minimalnie – zgodnie z teorią – to właśnie 40 kHz. To dobry przykład, jak teoria matematyczna przekłada się bezpośrednio na wymagania sprzętowe i standardy w branży dźwiękowej.

Pytanie 14

Jaki efekt osiągany jest w wyniku odszumiania?

A. Zmniejszenie dynamiki.
B. Rozjaśnienie barwy.
C. Zwiększenie dynamiki.
D. Zaciemnienie barwy.
Odszumianie to proces usuwania lub minimalizowania niepożądanych szumów z sygnału audio, który bardzo często pojawia się w realizacji dźwięku – czy to podczas nagrań, czy przy postprodukcji. Najważniejsze, co się przy tym uzyskuje, to właśnie zwiększenie dynamiki nagrania. Chodzi tu o to, że szumy zazwyczaj wypełniają najcichsze fragmenty audio, przez co „podnoszą” poziom tła, a to ogranicza zakres między najcichszymi a najgłośniejszymi dźwiękami. Gdy skutecznie odszumimy nagranie, znika ten niechciany „dywan” szumu, więc najcichsze fragmenty stają się naprawdę ciche – i całość brzmi dużo bardziej dynamicznie. Tak się robi choćby z nagraniami lektorskimi, wywiadami, ale też śladami instrumentalnymi w studiu. Branżowe standardy, na przykład w masteringowej obróbce muzyki czy materiałów filmowych, wyraźnie zalecają pilnować, by nie przesadzać z tłumieniem szumów – chodzi o to, żeby nie zaszkodzić samemu sygnałowi, ale zawsze dąży się do jak największego kontrastu między ciszą a głośnością. Moim zdaniem, jeżeli ktoś chce robić miks na poziomie, to bez umiejętności dobrego odszumiania trudno sobie wyobrazić profesjonalny rezultat. Efekt podniesionej dynamiki jest wtedy od razu słyszalny, nagranie brzmi czysto i dużo bardziej profesjonalnie.

Pytanie 15

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
B. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
C. wyciszenie dźwięku, trwające 1/100 sekundy.
D. wyciszenie dźwięku, trwające 1/10 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 16

W którym formacie należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .caf
B. .omf
C. .aiff
D. .wav
Format .omf (Open Media Framework) to naprawdę bardzo przydatne narzędzie, szczególnie jeśli ktoś na co dzień pracuje w środowisku studyjnym, gdzie często pojawia się konieczność przenoszenia projektów między różnymi programami DAW. OMF pozwala na eksportowanie nie tylko samych plików audio, ale też wszelkich informacji o rozmieszczeniu klipów na osi czasu, cięciach, podstawowych automacjach czy fade’ach. Dzięki temu, na przykład przenosząc sesję z Cubase do Pro Tools, nie trzeba wszystkiego układać od nowa – wszystko wskakuje na swoje miejsce i można od razu działać dalej. Moim zdaniem, jeśli ktoś planuje współpracę z innymi realizatorami, producentami czy studiem, korzystanie z OMF to właściwie branżowy standard, bo znacznie upraszcza proces wymiany danych. Warto też pamiętać, że OMF nie zapisuje wszystkich możliwych ustawień sesji (np. nie przeniesie wtyczek czy bardzo zaawansowanych automatyzacji), ale i tak to potężna pomoc. Z mojego doświadczenia – zawsze lepiej przygotować sesję w OMF, niż później żmudnie eksportować pojedyncze ślady i odtwarzać cały układ od początku. W branży audio to trochę taki „uniwersalny język” dla sesji między programami DAW i dobrze jest mieć to w swoim arsenale.

Pytanie 17

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic
B. Pro Logic IIx
C. Pro Logic II
D. Pro Logic IIz
Pro Logic IIx to technologia Dolby, która właśnie wyróżnia się możliwością obsługi systemów 7.1, co w praktyce oznacza rozdzielenie sygnału na siedem kanałów efektowych oraz subwoofer. W praktyce instalacje domowego kina, które bazują na amplitunerach obsługujących Dolby Pro Logic IIx, pozwalają na uzyskanie pełniejszego wrażenia przestrzenności – szczególnie podczas oglądania filmów akcji lub koncertów nagranych w wielokanałowym formacie. Moim zdaniem ten standard to taki złoty środek między prostszymi dekoderami (Pro Logic, II) a już zaawansowanymi technologiami typu Dolby TrueHD czy Atmos. Co ciekawe, Pro Logic IIx pozwala nawet na przekształcenie sygnału stereo lub 5.1 w 6.1 lub 7.1, więc daje dużą elastyczność przy korzystaniu ze starszych nagrań czy gier. Przestrzenność jest tu naprawdę odczuwalna – efekty dźwiękowe zaczynają „chodzić” po pokoju. Z mojego doświadczenia, przy dobrze rozmieszczonych głośnikach, można uzyskać bardzo realistyczny pejzaż dźwiękowy. Warto też pamiętać, że standard ten był długo wykorzystywany w amplitunerach średniej i wyższej klasy, zanim upowszechnił się Dolby Atmos. W porównaniu do wcześniejszych generacji, takich jak Pro Logic II, „ix” to nie tylko więcej kanałów, ale i lepsza separacja sygnału. Zdecydowanie warto znać ten standard, jeśli ktoś interesuje się profesjonalnym nagłośnieniem lub domowymi systemami audio.

Pytanie 18

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 2 000 Hz – 20 000 Hz
C. 250 Hz – 999 Hz
D. 20 Hz – 249 Hz
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 19

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. oktawowe.
B. dwuoktawowe.
C. tercjowe.
D. sekstowe.
Odpowiedź jest prawidłowa, ponieważ korektor dziesięciopunktowy najczęściej dzieli słyszalne pasmo częstotliwości właśnie na pasma oktawowe. W praktyce oznacza to, że każdy z dziesięciu suwaków lub gałek na korektorze odpowiada za regulację natężenia dźwięku w jednym zakresie odpowiadającym jednej oktawie. To bardzo wygodne rozwiązanie, które pozwala użytkownikowi szybko i precyzyjnie kształtować charakterystykę brzmienia. Z mojego doświadczenia wynika, że taki podział jest najczęściej spotykany w sprzęcie audio przeznaczonym zarówno dla amatorów, jak i profesjonalistów, bo dobrze balansuje pomiędzy szczegółowością a prostotą obsługi. Oktawowe pasma są szerokie na tyle, by wychwycić najważniejsze zmiany w brzmieniu, ale nie za szerokie, by gubić detale. Przykładowo – jeśli chcesz podbić bas w nagraniu, manipulujesz suwakiem odpowiadającym oktawie 60-120 Hz. W branży nagraniowej i estradowej uznaje się taki korektor za standard, bo łatwo go ustawić nawet pod presją czasu. Ważne jest, aby wiedzieć, że im więcej punktów korektora, tym węższe pasma – ale dziesięciopunktowy to zazwyczaj właśnie oktawy, jak pokazują najczęściej stosowane modele od firm takich jak Behringer czy Yamaha. Daje to duże możliwości przy jednoczesnej czytelności obsługi.

Pytanie 20

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Partytura.
B. Rider techniczny.
C. Scenariusz.
D. Lista znaczników.
To właśnie scenariusz jest podstawą literacką, od której zaczyna się cała przygoda z produkcją słuchowiska radiowego. Bez tego żaden reżyser, realizator czy zespół aktorski nie miałby wyjściowego materiału do pracy. Scenariusz słuchowiskowy nie tylko zawiera teksty dialogów i monologów, ale także precyzyjnie opisuje dźwięki tła, efekty specjalne, momenty muzyczne czy pauzy. Co ciekawe, dobry scenariusz często rozpisuje nawet nastrój scen i emocje bohaterów – to bardzo pomaga aktorom, ale i realizatorom dźwięku. W praktyce, w branży radiowej scenariusz jest dokumentem centralnym, wokół którego kręci się cała produkcja. Bez niego trudno byłoby zachować spójność fabularną, dramaturgiczną i techniczną. Moim zdaniem, umiejętność czytania i interpretacji scenariusza to naprawdę podstawa w pracy przy słuchowiskach – wielu młodych realizatorów zapomina o tym, próbując improwizować, a później efekty bywają... no, różne. Dobrą praktyką jest, by scenariusz był stworzony z myślą o dźwięku, a nie tylko przepisany z opowiadania czy sztuki teatralnej. To wymaga wyczucia specyfiki radia. No i pamiętać trzeba, że tylko scenariusz daje pełen obraz tego, jak historia ma wybrzmieć w eterze.

Pytanie 21

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Scenariusz.
B. Partytura.
C. Drabinka.
D. Lista edycyjna.
Partytura to taki dokument, który można śmiało nazwać instrukcją obsługi dla zespołu muzycznego albo orkiestry. Składa się z zapisów nutowych dla różnych instrumentów lub głosów – wszystko w jednym miejscu, przejrzyście rozpisane linijka po linijce. To, moim zdaniem, jeden z najważniejszych dokumentów w pracy muzyka, dyrygenta, realizatora dźwięku czy nawet kompozytora – bez partytury trudno byłoby zsynchronizować większą grupę wykonawców. Kiedy ktoś pracuje w teatrze muzycznym, studiu nagraniowym czy przy realizacji większych koncertów, taka partytura jest absolutnie niezbędna, bo pozwala ogarnąć cały utwór naraz. Z mojego doświadczenia wynika, że im precyzyjniej napiszesz partyturę, tym mniej zamieszania podczas prób i nagrań. W branży to taki złoty standard, wszyscy profesjonaliści korzystają z partytur, szczególnie gdy utwór zawiera wiele warstw instrumentalnych lub wokalnych. Dodatkowo, partytury są potrzebne do archiwizacji, pracy edytorskiej, a także przy przenoszeniu utworów na inne obsady – np. z orkiestry na zespół kameralny. To nie tylko zapis nut, ale często też tempo, dynamika, artykulacja – te wszystkie szczegóły, które sprawiają, że utwór brzmi jak należy. Bez partytury trudno mówić o profesjonalnym podejściu do muzyki zespołowej.

Pytanie 22

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Latch
B. Read
C. Touch
D. Off
Tryb 'Off' w automatyce DAW to taki trochę niewidzialny strażnik – kiedy go ustawisz, po prostu żadne dane automatyki nie są odtwarzane ani zapisywane. W praktyce oznacza to, że wszystkie zapisane wcześniej ruchy suwaków, zmiany głośności, panoramy czy inne automatyczne manipulacje są ignorowane przez DAW-a. To jest bardzo przydatne, jeśli chcesz mieć pełną kontrolę nad ścieżką i chwilowo wyłączyć wpływ automatyki na dany kanał, na przykład podczas miksu porównawczego lub szybkich edycji. Z mojego doświadczenia, korzystanie z trybu 'Off' jest nieocenione, żeby coś nie „wyskoczyło” nieoczekiwanie w głośności, bo DAW czyta jakieś stare dane automatyki. W zasadzie wszyscy doświadczeni realizatorzy polecają, żeby zawsze sprawdzać, czy ścieżka nie jest przypadkiem w trybie 'Read', 'Latch' albo 'Touch', kiedy chcemy pracować w pełni manualnie. W przemyśle audio to dość powszechna praktyka, żeby nie wprowadzać nieświadomie zmian w miksie przez zapomnianą automatykę. Warto wiedzieć, że 'Off' bywa też nazywany 'Bypass' w niektórych programach, więc dobrze patrzeć na różne nazwy zależnie od softu. Krótko mówiąc – jeśli nie chcesz, żeby automatika wpływała na głośność czy inne parametry, tryb 'Off' jest tym, czego szukasz. Bez żadnych podstępnych zmian, totalny spokój, wszystko leci tak, jak ręcznie ustawisz.

Pytanie 23

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 128 próbek.
B. 64 próbki.
C. 32 próbki.
D. 256 próbek.
Wybierając bufor o wielkości 32 próbki, faktycznie osiągasz najniższą możliwą latencję przy nagrywaniu dźwięku w DAW. To jest taki trochę złoty standard dla sytuacji, w których super ważna jest natychmiastowa reakcja systemu, przykładowo kiedy nagrywasz wokale czy grasz partie MIDI na żywo i chcesz uniknąć uczucia opóźnienia między akcją a dźwiękiem. Im mniejszy bufor, tym szybciej komputer przetwarza dźwięk na bieżąco, więc dźwięk praktycznie od razu trafia do słuchawek lub monitorów. Inżynierowie dźwięku często mówią, że przy 32 próbkach latencja jest praktycznie niezauważalna nawet dla bardzo wyczulonego ucha — to takie typowe ustawienie na profesjonalnych sesjach nagraniowych. Jednak warto pamiętać, że tak mały rozmiar bufora wymaga wydajnego sprzętu — słabe komputery mogą nie nadążać z przetwarzaniem, pojawią się wtedy trzaski lub dropy. Ale właśnie do nagrywania głosu czy instrumentów to jest idealne ustawienie. W miksie czy masteringu zwykle zwiększa się bufor, bo wtedy liczy się stabilność, nie szybkość. Moim zdaniem, nawet w domowym studio warto testować 32 próbki — różnica w feelingu nagrywania jest kolosalna, szczególnie przy dynamicznych instrumentach i perkusji. Warto też pamiętać, że w branży muzycznej taka minimalna latencja jest nie tylko komfortowa, ale wręcz wymagana przy pracy z profesjonalistami.

Pytanie 24

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 96 kHz
B. 192 kHz
C. 44,1 kHz
D. 48 kHz
44,1 kHz to częstotliwość próbkowania, która od lat jest uznawana za standardową dla formatu CD-Audio. Tak ustalono już w początkach lat 80., kiedy opracowywano technologię CD. Ta wartość nie wzięła się znikąd – była wynikiem kompromisu technicznego. Chodziło o uzyskanie wystarczająco wysokiej jakości dźwięku, a jednocześnie dopasowanie do ówczesnych możliwości sprzętowych oraz istniejących formatów wideo (między innymi NTSC i PAL). 44,1 kHz pozwala wiernie odtworzyć częstotliwości słyszalne przez ludzkie ucho, czyli do ok. 20 kHz, bo – zgodnie z twierdzeniem Nyquista – aby prawidłowo zarejestrować sygnał, trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa częstotliwość sygnału. W praktyce ta wartość do dziś jest obecna nie tylko w płytach CD, ale też w wielu plikach muzycznych (np. WAV, FLAC czy MP3), które są zgrywane z płyt kompaktowych, albo przygotowywane pod wydanie cyfrowe. Z mojego doświadczenia – większość domowych i studyjnych odtwarzaczy oraz sprzętu audio bez problemu radzi sobie z tym standardem, a wyższe częstotliwości próbkowania, choć bywają stosowane w studiach nagrań, to w codziennym odsłuchu nie wnoszą aż tak dużej różnicy dla przeciętnego słuchacza. Tak więc, jeżeli gdzieś natkniesz się na informację o muzyce z CD, praktycznie zawsze będzie to 44,1 kHz i 16 bitów na próbkę.

Pytanie 25

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. kompresji bezstratnej.
B. oversamplingu.
C. kompresji stratnej.
D. resamplingu.
Wiele osób myli pojęcia związane z przetwarzaniem sygnałów audio, szczególnie kiedy mowa o zmniejszaniu rozmiaru plików i zachowywaniu jakości. Resampling to proces polegający na zmianie częstotliwości próbkowania sygnału, co może skutkować utratą pewnych informacji o oryginalnym brzmieniu, zwłaszcza jeśli nowa częstotliwość jest niższa. To narzędzie przydatne w określonych przypadkach, na przykład gdy chcemy dostosować dźwięk do odtwarzania na sprzęcie o innych parametrach, ale nie gwarantuje zachowania wszystkich detali oryginału. Oversampling zaś to technika odwrotna – polega na zwiększeniu częstotliwości próbkowania, co może poprawić jakość odtwarzania w specyficznych zastosowaniach, ale nie zmniejsza rozmiaru pliku, wręcz przeciwnie, zwykle go powiększa, więc zupełnie nie rozwiązuje omawianego problemu. Kompresja stratna, którą często stosuje się w popularnych formatach jak MP3 czy AAC, zdecydowanie nie jest metodą do zachowywania pełnej informacji – w tym przypadku część danych jest celowo usuwana, co zmniejsza rozmiar pliku, ale bez możliwości ich odzyskania. To jest dobre podejście tam, gdzie jakość nie jest priorytetem, na przykład w strumieniowaniu muzyki albo na urządzeniach przenośnych z małą pamięcią. W praktyce wybór tych sposobów wynika często z błędnego założenia, że „zmiana parametrów pliku zawsze wystarczy”, ale jeśli komuś zależy na wiernym odwzorowaniu oryginalnego sygnału, tylko kompresja bezstratna spełnia te wymagania. To jest potwierdzone zarówno przez standardy branżowe, jak i doświadczenie realizatorów dźwięku – po prostu nic innego nie daje gwarancji, że wszystkie szczegóły brzmienia zostaną zachowane przy mniejszym rozmiarze pliku.

Pytanie 26

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 2 razy.
B. 4 razy.
C. 6 razy.
D. 8 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 27

Przygotowując notatki do montażu dźwięku, przenikanie pomiędzy regionami określa się mianem

A. Fade In.
B. Crossfade.
C. Fade Out.
D. Fade In/Out.
Crossfade to taki branżowy termin, który w montażu dźwięku oznacza płynne przejście między dwoma regionami lub ścieżkami audio. Zamiast gwałtownego przeskoku lub przerwy, dźwięki nakładają się na siebie przez pewien czas, co pozwala uniknąć kliknięć, trzasków czy innych nieprzyjemnych artefaktów. To właśnie crossfade najlepiej oddaje ideę "przenikania" – bo tutaj jeden dźwięk stopniowo się wycisza, a drugi jednocześnie narasta. Używa się tego nie tylko w montażu radiowym czy telewizyjnym, ale praktycznie we wszystkich sytuacjach, gdzie montujemy ścieżki audio – od prostych podcastów po profesjonalną produkcję muzyczną. W programach takich jak Pro Tools, Cubase czy Reaper, crossfade jest wręcz standardem przy łączeniu regionów tak, by efekt był jak najbardziej naturalny. Moim zdaniem, każdy kto chce uzyskać profesjonalny efekt, powinien opanować sprawne korzystanie z tej funkcji. Nawet jeśli na początku wydaje się to trochę zagmatwane, to potem naprawdę docenia się możliwości, jakie daje subtelne miksowanie przejść – zwłaszcza przy pracy z dialogami, muzyką czy efektami dźwiękowymi. Warto pamiętać, że źle wykonane przejście potrafi kompletnie zniszczyć odbiór całej sceny, dlatego dobry crossfade to podstawa każdej poważnej postprodukcji.

Pytanie 28

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 14
B. 3
C. 4
D. 8
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 29

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. poszerzenie dynamiki sygnału.
B. modulację dźwięku.
C. odwrócenie fazy sygnału.
D. ograniczenie niskich tonów.
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 30

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. MIDI.
B. Instrument.
C. Audio.
D. Aux.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 31

Przy porównaniu cyfrowych plików dźwiękowych o tej samej rozdzielczości bitowej, teoretycznie najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie, którego poziom szczytowy osiąga

A. -12 dBFS
B. -0,3 dBFS
C. -3 dBFS
D. -6 dBFS
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje charakterystykę rozpiętości dynamicznej w plikach cyfrowych. Chodzi o to, że jeśli nagranie osiąga poziom szczytowy „tylko” -12 dBFS, to całość sygnału jest znacznie ciszej względem maksymalnego możliwego poziomu, który wynosi 0 dBFS w systemach cyfrowych. W praktyce oznacza to, że nie wykorzystujesz pełni dostępnego zakresu dynamiki konwertera A/C lub pliku, przez co sygnał „leży” daleko od maksimum i spada nam stosunek sygnału do szumu, a przez to efektywna rozpiętość dynamiczna staje się mniejsza. W studiach nagraniowych i w masteringach zaleca się, żeby szczyty trafiały blisko 0 dBFS (np. do -1 dBFS dla bezpieczeństwa), bo wtedy najlepiej używamy całego „okna” dostępnego w cyfrowym audio. Ograniczając się do -12 dBFS, z praktycznego punktu widzenia, „marnujemy” 12 dB dynamiki, co może wydawać się dużo – szczególnie przy nagraniach wymagających szerokiej palety dynamicznej, jak muzyka klasyczna czy ścieżki filmowe. Często początkujący inżynierowie dźwięku zostawiają za duży margines bezpieczeństwa, a potem się dziwią, że nagranie brzmi płasko i cicho. Moim zdaniem warto pamiętać, żeby trzymać szczyty jak najbliżej limitu, ale nie doprowadzać do przesteru – to taka złota zasada w cyfrowym audio.

Pytanie 32

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. time stretch.
C. ogranicznik.
D. reverb.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 33

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. dwukrotnie.
B. siedmiokrotnie.
C. pięciokrotnie.
D. trzykrotnie.
Zwiększenie poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje, że człowiek odczuwa dźwięk jako dwukrotnie głośniejszy. To wynika z nieliniowej charakterystyki słyszenia ludzkiego ucha. W praktyce oznacza to, że jeśli np. radio gra z mocą 60 dB, a potem podkręcisz je do 70 dB, Twoje odczucie będzie takie, jakbyś słyszał dwa razy głośniejszy dźwięk – choć fizycznie moc wzrosła aż dziesięciokrotnie! W branży elektroakustycznej i przy projektowaniu systemów nagłośnienia często korzysta się z tej zależności, szczególnie przy ocenie komfortu pracy w hałasie, czy przy projektowaniu sal koncertowych, gdzie precyzyjnie dobiera się poziomy ciśnienia akustycznego. Standardy branżowe, jak np. ISO 226 (norma krzywych równej głośności), bazują na tej charakterystyce słyszenia. Fajna sprawa – większość ludzi myśli, że wzrost o 10 dB to olbrzymia zmiana, ale tak naprawdę nasze ucho jest dość „leniwe” i musi być różnica aż 10 dB, żeby odczuć dwukrotną zmianę. Moim zdaniem mega ciekawe, jak fizyka dźwięku przekłada się na nasze zmysłowe postrzeganie. W pracy z dźwiękiem warto zawsze pamiętać, że dB to logarytmiczna jednostka i nie przekłada się wprost na nasze odczucia. To trochę jak z pieniędzmi: niby 10 zł i 20 zł, różnica taka sama, ale odczucie zupełnie inne, jak masz milion albo dwadzieścia złotych.

Pytanie 34

Który z wymienionych formatów umożliwia dystrybucję dźwięku wielokanałowego?

A. .omf
B. .wav
C. .aac
D. .aiff
Format .aac to naprawdę ciekawa sprawa w świecie audio – od lat jest wykorzystywany w profesjonalnej i konsumenckiej dystrybucji dźwięku. Advanced Audio Coding (AAC), bo tak oficjalnie się nazywa, to format stratny, ale – co ważne – obsługuje dźwięk wielokanałowy, na przykład 5.1 czy nawet 7.1. Dzięki temu nadaje się do filmów, gier czy transmisji telewizyjnych, gdzie chce się mieć efekt przestrzenny, a jednocześnie plik nie zajmuje zbyt dużo miejsca. Z mojego doświadczenia, .aac jest wykorzystywany nie tylko w iTunes czy Apple Music, ale też w streamingu i DAB+ (czyli cyfrowym radiu). Branża audio od dawna poleca ten format wszędzie tam, gdzie liczy się jakość i efektywność kompresji. Szczerze mówiąc, dzisiaj mało który format kompresji stratnej radzi sobie równie dobrze z przestrzennością dźwięku i kompatybilnością z różnymi urządzeniami. Warto dodać, że .aac to oficjalny następca MP3 i w wielu miejscach zastępuje stare rozwiązania, właśnie dzięki obsłudze wielokanałowości. W praktyce, jeśli chcesz rozprowadzać dźwięk surround w aplikacjach internetowych czy mobilnych, wybór .aac to wręcz standardowa decyzja. Oczywiście, są też formaty bezstratne, ale jeśli chodzi o praktyczne, szerokie zastosowanie i wsparcie, AAC nie ma sobie równych w tym zakresie.

Pytanie 35

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. masteringu nagrania.
B. wciągania plików dźwiękowych do sesji montażowej.
C. edycji nagrania.
D. zapisywania pliku wynikowego.
To jest dokładnie ten moment, kiedy podejmujemy decyzję o ostatecznym formacie i parametrach pliku dźwiękowego – podczas zapisywania pliku wynikowego, czyli eksportu. Niezależnie od tego, czy cały projekt był nagrywany i obrabiany w wysokiej rozdzielczości, to właśnie przy eksporcie ustawiasz typ pliku (np. WAV, MP3, FLAC), jego rozdzielczość (np. 44,1 kHz, 16-bit, czy może 24-bit), kompresję, bitrate i inne szczegóły techniczne. W praktyce oznacza to, że możesz pracować przez cały czas na plikach bezstratnych, a dopiero na końcu zdecydować, czy chcesz stworzyć plik na CD, dla streamingu lub do archiwizacji. Tak robią też profesjonaliści – najpierw pracują w jak najlepszej jakości, a potem tworzą różne wersje plików zależnie od przeznaczenia. Szczerze mówiąc, często spotykam się z tym, że ludzie niepotrzebnie martwią się o format na wcześniejszych etapach, a to właśnie eksport jest kluczowy dla końcowego rezultatu. Standardy branżowe (np. Red Book Audio dla CD czy specyfikacje streamingowe) jasno mówią, jakie mają być parametry końcowego pliku. Ważne też, żeby podczas zapisu uważać na niezamierzoną konwersję formatu czy nieprzemyślaną kompresję stratną. Można powiedzieć, że to taki finał pracy – wszystko, co robiłeś wcześniej, ma sens dopiero wtedy, gdy właściwie wybierzesz opcje eksportu.

Pytanie 36

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. dBp
B. dBFS
C. LUFS
D. AU
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 37

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 7.1
B. 9.1
C. 4.0
D. 5.1
Oznaczenie 4.0 odnosi się do systemu dźwięku wielokanałowego, który posiada cztery kanały: lewy, prawy, centralny oraz tylny (lub dwa tylne), ale nie zawiera dedykowanego kanału niskoczęstotliwościowego, czyli tzw. LFE (Low Frequency Effects), powszechnie określanego jako „.1” w oznaczeniach takich jak 5.1 czy 7.1. W praktyce oznacza to, że w systemach 4.0 nie ma osobnego głośnika subwoofera odpowiedzialnego za efekty basowe, a niskie częstotliwości są przesyłane do głównych głośników. Moim zdaniem, w domowych zastosowaniach, np. w starszych kinach domowych czy niektórych salach wykładowych, konfiguracja 4.0 była stosunkowo popularna z uwagi na prostotę i niższy koszt wdrożenia, zwłaszcza w czasach, gdy subwoofery nie były jeszcze tak rozpowszechnione. Oznaczenie bez „.1” zawsze wskazuje, że system nie posiada osobnego kanału LFE. Warto zauważyć, że standardy takie jak Dolby Surround czy niektóre konfiguracje kinowe w latach 80. i 90. opierały się właśnie na czterech pełnopasmowych kanałach. To podejście sprawdza się tam, gdzie niekoniecznie zależy nam na bardzo mocnych efektach basowych, a bardziej na precyzyjnym rozmieszczeniu źródeł dźwięku. Z mojego doświadczenia, system 4.0 bywa rozwiązaniem kompromisowym, ale wciąż pozwala na całkiem niezłą przestrzenność dźwięku, szczególnie w mniejszych pomieszczeniach czy przy ograniczonym budżecie.

Pytanie 38

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 144 dB
B. 96 dB
C. 48 dB
D. 192 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 39

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 60 klatek.
B. 30 klatek.
C. 90 klatek.
D. 15 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 40

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.aiff
B. *.mp3
C. *.flac
D. *.ogg
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.