Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 1 maja 2026 13:42
  • Data zakończenia: 1 maja 2026 13:57

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W celu minimalizacji aliasingu podczas konwersji A/C sygnału fonicznego zawierającego częstotliwości składowe z pasma akustycznego 20 Hz - 20 kHz, wartość częstotliwości próbkowania powinna wynosić minimalnie

A. 10 kHz
B. 40 kHz
C. 30 kHz
D. 20 kHz
Dobrze zauważone, że właśnie 40 kHz powinno być minimalną częstotliwością próbkowania przy digitalizacji sygnału fonicznego obejmującego całe pasmo słyszalne, czyli od 20 Hz do 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał, bez efektu aliasingu, częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości w sygnale. W praktyce dla audio, gdzie najwyższa słyszalna częstotliwość to 20 kHz, oznacza to właśnie 40 kHz. Co ciekawe, standard Compact Disc Audio przyjął jeszcze nieco wyższą wartość: 44,1 kHz, żeby zostawić zapas na niefiltrowane składowe i ograniczyć możliwość zakłóceń. Moim zdaniem, w pracy z dźwiękiem, zawsze warto pamiętać o zapasie powyżej minimum, bo rzeczywiste filtry antyaliasingowe nie są idealne i przepuszczają trochę sygnału poza swoim zakresem. W zastosowaniach profesjonalnych coraz częściej spotyka się próbkowanie na poziomie 48 kHz, a nawet 96 kHz, ale minimalnie – zgodnie z teorią – to właśnie 40 kHz. To dobry przykład, jak teoria matematyczna przekłada się bezpośrednio na wymagania sprzętowe i standardy w branży dźwiękowej.

Pytanie 2

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LF
B. BPF
C. LPF
D. HPF
Skrót LPF pochodzi od angielskich słów 'Low Pass Filter', czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o niskiej częstotliwości, a tłumią te wyższe. Kluczowe jest to, że ich działanie znajduje masę zastosowań w praktyce, zwłaszcza w elektronice audio, systemach pomiarowych czy nawet w przetwarzaniu obrazów. Nawet proste kolumny głośnikowe mają wbudowane filtry dolnoprzepustowe, żeby odciąć wysokie częstotliwości od subwoofera. Moim zdaniem znajomość tego skrótu to tak naprawdę jedna z podstaw dla każdego, kto zabiera się za projektowanie lub analizę układów elektronicznych. Jeśli spojrzysz na schematy, to prawie zawsze takie filtry są oznaczane właśnie jako LPF – to standard branżowy, nie tylko u nas, ale i na świecie. Sam nieraz projektowałem filtry dolnoprzepustowe na potrzeby odczytu sygnałów z czujników – bez LPF wszystko by pływało w szumie. Warto pamiętać, że charakterystyka filtra (czyli na przykład jego częstotliwość odcięcia) jest kluczowa dla danego zastosowania. W praktyce, jak projektujesz prosty układ RC – już możesz zbudować LPF, nawet nie wiedząc, że to się tak nazywa. Z mojego doświadczenia – bez LPF ani rusz w świecie elektroniki użytkowej.

Pytanie 3

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 44 100 Hz
B. 98 000 Hz
C. 196 000 Hz
D. 48 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 4

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 96 000 Hz
B. 44 100 Hz
C. 32 000 Hz
D. 48 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 5

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Time Stretching
B. Resample
C. Pitch Shifting
D. Invert Phase
Prawidłowa odpowiedź to Resample, bo właśnie ta opcja w DAW-ach umożliwia zmianę częstotliwości próbkowania sygnału audio – to taki trochę techniczny odpowiednik „przeskalowania” pliku dźwiękowego do innego standardu, jak na przykład z 44,1 kHz na 48 kHz. To bardzo przydatna funkcja np. kiedy pracujesz nad projektem, w którym ścieżki pochodzą z różnych źródeł i muszą mieć jednolitą częstotliwość próbkowania, bo inaczej mogą pojawić się szumy albo dziwne zniekształcenia. Z mojego doświadczenia najczęściej korzysta się z resamplingu przy eksporcie gotowych miksów do różnych formatów albo kiedy importujesz próbki przygotowane w innej sesji. Branżowe standardy, np. w studiach telewizyjnych, wymagają często 48 kHz, a płyty CD to 44,1 kHz, więc bez resamplingu ani rusz. Warto też wiedzieć, że dobre DAWy używają algorytmów wysokiej jakości, żeby podczas zmiany częstotliwości nie tracić na jakości dźwięku. Bardzo polecam sprawdzić, jakie opcje resamplingu oferuje Twój DAW, bo niektóre mają nawet różne tryby, zależnie czy priorytetem jest jakość czy szybkość działania. To jedna z podstawowych umiejętności przy pracy z dźwiękiem na wyższym poziomie.

Pytanie 6

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Peak Master.
B. Phaser.
C. Equalizer.
D. Noise gate.
Phaser to urządzenie, które działa na zasadzie przesuwania fazy sygnału w określonym paśmie częstotliwości. W praktyce polega to na tym, że sygnał audio przechodzi przez szereg filtrów all-pass, które opóźniają fazę określonych częstotliwości, a potem miesza się ten sygnał z oryginałem. Efektem tego są charakterystyczne, płynnie zmieniające się „dziury” (ang. notches) w widmie, co daje ten specyficzny, ruchomy efekt dźwiękowy kojarzony na przykład z gitarami elektrycznymi czy syntezatorami. W branży muzycznej phasery ceni się za to, że nadają głębi i ruchu dźwiękom, przy czym są często używane zgodnie z dobrymi praktykami produkcji, np. do wzbogacania partii instrumentów w miksie. Osobiście, uważam, że takie modulowanie fazy to świetny sposób na wydobycie ciekawszego brzmienia, szczególnie przy nagrywaniu gitar lub niektórych wokali. Warto wiedzieć, że nie każdy efekt modulowany to phaser – chorusy czy flangery też korzystają z przesunięcia fazy, ale robią to trochę inaczej. Phaser jest bardzo rozpoznawalny, jeśli chodzi o efekt przestrzenny i specyficzny charakter brzmienia, a jego działanie wynika bezpośrednio z zastosowania modulacji fazy, co jest zgodne z teorią przetwarzania sygnałów i standardami inżynierii dźwięku.

Pytanie 7

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Karta SDHC
B. Mini Disc
C. Dysk SSD
D. Kaseta DAT
Mini Disc to ciekawy przykład technologii, która łączy świat magnetyczny z optycznym. Nośniki tego typu, wprowadzone przez Sony w latach 90., wykorzystują zapis magnetooptyczny – dane są zapisywane poprzez nagrzanie warstwy magnetycznej wiązką lasera, a następnie zmianę kierunku namagnesowania za pomocą pola magnetycznego. Takie podejście zapewnia dość wysoką trwałość zapisu oraz odporność na uszkodzenia mechaniczne, przynajmniej w porównaniu do klasycznych kaset czy płyt CD. W praktyce Mini Diski przez wiele lat wykorzystywane były w branży audio, zwłaszcza przez dziennikarzy i muzyków – bardzo ceniono je za możliwość wielokrotnego zapisu bez utraty jakości. Moim zdaniem to w ogóle było fajne rozwiązanie, bo łączyło zalety magnetycznych kaset (możliwość kasowania i ponownego nagrywania) z bardziej nowoczesnymi funkcjami optycznych płyt (szybki dostęp do utworów, cyfrowa jakość dźwięku). Dzięki temu Mini Disc wyprzedzał nieco swoje czasy, a obecnie jest ciekawostką technologiczną, z której można wyciągnąć sporo inspiracji przy analizie różnych metod przechowywania danych. W branżowych standardach zapis magnetooptyczny pojawia się jeszcze np. w droższych rozwiązaniach archiwizacyjnych dla firm, ale dla zwykłego użytkownika Mini Disc był najbardziej znanym nośnikiem tego typu.

Pytanie 8

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Avid ProTools.
B. Microsoft Windows Media Player.
C. Celemony Melodyne.
D. Steiberg Cubase.
Rozszerzenie .ptx to format pliku sesji używany wyłącznie przez program Avid Pro Tools. To w zasadzie taki „kontener” na cały projekt – zapisuje wszystkie informacje o ścieżkach, ułożeniu klipów, automatyce, efektach, routingu i wielu innych szczegółach miksu. Pro Tools to jeden z najbardziej rozpoznawalnych programów DAW na świecie, wykorzystywany zarówno w studiach nagraniowych, telewizji, jak i przy produkcji filmowej. Jeśli ktoś pracuje z sesjami od innych realizatorów lub studiów, rozszerzenie .ptx praktycznie od razu mówi, że projekt powstał właśnie w Pro Tools. Z mojego doświadczenia wynika, że profesjonalne wymiany projektów między realizatorami często odbywają się właśnie w tym formacie, bo pozwala on na zachowanie pełnej zgodności i bezpieczeństwa pracy. Standardem branżowym jest też import/eksport ścieżek w plikach .ptx podczas masteringu lub zlecania miksów. Otwieranie plików .ptx w innych DAW zwykle po prostu nie jest możliwe – to zamknięty format, który rozumie tylko Pro Tools. W praktyce, jeśli chcesz dostać się do sesji .ptx, musisz mieć zainstalowanego Pro Toolsa. Warto to wiedzieć, żeby nie tracić czasu na próby otwierania tego typu plików w innych aplikacjach – po prostu się nie da. Takie podejście jest zgodne z dobrymi praktykami pracy przy projektach studyjnych, zwłaszcza w środowisku profesjonalnym.

Pytanie 9

W liście utworów, wykorzystanych przy montażu dźwięku, użytej do rozliczenia praw autorskich, nie podaje się

A. systemu kodowania dźwięku.
B. autora utworu.
C. długości trwania pliku audio.
D. tytułu utworu.
Odpowiedź dotycząca systemu kodowania dźwięku jest jak najbardziej prawidłowa. W praktyce, kiedy przygotowuje się listę utworów do rozliczeń praw autorskich (czyli tzw. cue sheet), kluczowe są informacje pozwalające jednoznacznie zidentyfikować utwór oraz jego twórców i właścicieli praw. To właśnie dlatego zawsze podaje się autora utworu, jego tytuł czy długość trwania pliku audio. Natomiast system kodowania dźwięku, czyli np. czy był to plik w formacie PCM, MP3, FLAC czy innym, w ogóle nie jest istotny z punktu widzenia ZAiKS-u czy innych organizacji zarządzających prawami autorskimi. Oni rozliczają się na podstawie faktu użycia danego utworu – kto napisał, kto wykonuje, ile czasu trwała emisja, itp. Nawet jeśli montażysta dźwięku pracuje na różnych kodekach, to do rozliczeń prawnych liczy się tylko to, co zostało faktycznie użyte i pod jakim tytułem. Moim zdaniem to trochę śmieszne, że ktoś mógłby chcieć wpisywać system kodowania, bo przecież nie wpływa on na prawa autorskie czy wysokość tantiem. W branży filmowej i telewizyjnej standardem jest skrupulatność przy dokumentowaniu utworów, ale nikt nie wymaga tam szczegółów technicznych typu kodek. Takie rzeczy są ważne dla techników przy montażu czy archiwizacji, natomiast dla rozliczeń autorskich kompletnie bez znaczenia. Tu liczy się kto i co, nie jak technicznie przygotowane.

Pytanie 10

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. dwuoktawowe.
B. sekstowe.
C. oktawowe.
D. tercjowe.
Korektor dziesięciopunktowy rzeczywiście dzieli zakres słyszalnych częstotliwości na pasma oktawowe – i to jest bardzo praktyczne podejście, które chyba najczęściej spotyka się w sprzęcie audio przeznaczonym do profesjonalnego i domowego użytku. W skrócie: każda gałka (czy suwak) odpowiada za wzmocnienie albo tłumienie określonego przedziału częstotliwości, przy czym te pasma mają szerokość jednej oktawy. To znaczy, że np. jeśli jedno pasmo obejmuje 100–200 Hz, to następne już 200–400 Hz i tak dalej, każde kolejne dwa razy szersze w sensie wartości liczbowych, ale dla ludzkiego ucha to brzmi naturalnie, bo słyszymy skale logarytmiczne. W branży nagłośnieniowej, studyjnej czy nawet w zaawansowanym sprzęcie car audio taki podział jest bardzo wygodny – pozwala szybko korygować balans dźwięku bez ryzyka, że zmiany będą nienaturalne. Moim zdaniem to też dobre rozwiązanie, bo większość muzyki i dźwięków w praktyce da się sensownie korygować w takich szerokich pasmach. Oczywiście, jeśli ktoś potrzebuje bardziej szczegółowej korekcji, są jeszcze korektory tercjowe czy parametryczne, ale w większości standardowych aplikacji dziesięciopunktowy korektor oktawowy po prostu się sprawdza. To w sumie taki złoty środek między prostotą a skutecznością.

Pytanie 11

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade Out.
B. Strip Silence.
C. Noise Gate.
D. Fade In.
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 12

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Lista edycyjna.
B. Scenariusz.
C. Partytura.
D. Drabinka.
Partytura to w muzyce taki jakby główny dokument, gdzie zapisuje się cały utwór w formie nutowej, bardzo szczegółowo, z podziałem na wszystkie instrumenty czy głosy. To trochę jak instrukcja obsługi dla orkiestry czy chóru – dyrygent musi mieć partyturę, żeby wiedzieć, kiedy co gra i jak wszystko synchronizować. W praktyce każda szanująca się instytucja muzyczna, studio czy zespół pracujący z większymi składami korzysta właśnie z partytury. Z mojego doświadczenia wynika, że profesjonalni muzycy nie zaczynają pracy bez dobrze przygotowanej partytury, bo tylko wtedy są w stanie utrzymać porządek i spójność w wykonaniu. W branży standardem jest, że partytura zawiera nie tylko nuty, ale też mnóstwo oznaczeń, np. dynamikę, artykulację, tempo, czasem nawet sugestie dotyczące interpretacji. Nawet podczas nagrań studyjnych czy koncertów filharmonicznych partytura jest absolutną podstawą – bez niej praktycznie nie da się wykonać bardziej złożonego utworu. Warto wiedzieć, że partytury bywają bardzo rozbudowane, kilkudziesięciostronicowe, a ich przygotowanie to osobna umiejętność, której naprawdę opłaca się nauczyć. Poza tym partytura to nie tylko domena klasyki – w muzyce rozrywkowej, zwłaszcza przy aranżacji na większe składy, coraz częściej pojawia się profesjonalny zapis nutowy, żeby nie było nieporozumień podczas prób czy nagrań.

Pytanie 13

Która z wymienionych list umożliwia odnalezienie uprzednio zaznaczonego punktu na osi czasu w sesji oprogramowania DAW?

A. Lista regionów.
B. Lista grup.
C. Lista ścieżek.
D. Lista markerów.
Lista markerów to narzędzie, które w praktyce ratuje skórę podczas pracy w każdym poważniejszym projekcie muzycznym czy dźwiękowym. Markery w DAW-ach, takich jak Cubase, Pro Tools czy Logic Pro, służą do szybkiego zaznaczania ważnych miejsc na osi czasu – może to być na przykład wejście wokalu, miejsce zmiany akordu, początek refrenu albo choćby punkt, do którego trzeba wrócić podczas edycji. Moim zdaniem, korzystanie z listy markerów to taka trochę ukryta supermoc – zamiast przewijać czy szukać po ścieżkach, jednym kliknięciem wskakujesz dokładnie tam, gdzie chcesz. W profesjonalnych środowiskach markerów używa się nie tylko do nawigacji, ale też do planowania (np. podział projektu na sekcje) czy komunikacji w zespole produkcyjnym – często reżyser czy producent zostawia marker z komentarzem dla miksującego. Lista markerów pozwala szybko przejrzeć wszystkie zapisane punkty i przeskoczyć do wybranego. Niektóre DAWy dają nawet możliwość ustawiania kolorów czy nazw własnych markerów, co jeszcze bardziej usprawnia workflow. Z mojego doświadczenia, kto raz spróbuje pracy z markerami, nie wraca już do chaotycznych notatek na kartce czy szukania „na oko”. To naprawdę solidny standard w branży muzycznej i postprodukcyjnej.

Pytanie 14

Która z wymienionych operacji powoduje odwrócenie fazy sygnału fonicznego?

A. Reverse
B. Clip
C. Normalize
D. Invert
Operacja „Invert” to właśnie to, co odpowiada za odwrócenie fazy sygnału fonicznego. Kiedy stosujesz Invert w edytorze audio, każdy punkt próbkowania sygnału zmienia znak na przeciwny – dodatnie staje się ujemne, ujemne staje się dodatnie. Z technicznego punktu widzenia, jeśli wykres sygnału przechodzi przez oś czasu, po odwróceniu fazy wszystko odbija się jak w lustrze względem tej osi. Brzmi trochę enigmatycznie, ale w praktyce bardzo się to przydaje np. podczas miksowania nagrań stereo, gdzie możesz mieć do czynienia z niepożądanym znoszeniem się fal (tzw. kasowanie fazy). Standardową dobrą praktyką, szczególnie w studiach nagrań, jest sprawdzanie, czy sygnały z różnych mikrofonów nie są przypadkiem w przeciwfazie – jeśli tak, to właśnie Invert jest narzędziem, które ratuje brzmienie i klarowność. Moim zdaniem, takie podstawowe rozumienie tematu jest bardzo przydatne, bo pozwala uniknąć późniejszych frustracji podczas pracy z dźwiękiem. Co ciekawe, niektóre urządzenia na etapie analogowym mają nawet fizyczny przełącznik do odwracania fazy, tzw. „phase reverse”. To pokazuje, że to nie jest tylko komputerowa zabawa, ale standardowa branżowa praktyka.

Pytanie 15

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 12 dB/okt.
B. 18 dB/okt.
C. 6 dB/okt.
D. 24 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 16

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. MP3
B. FLAC
C. RIFF
D. WAV
Format MP3 to chyba najbardziej znany przykład kodowania stratnego dźwięku. W praktyce oznacza to, że podczas kompresji pliku MP3 pewne fragmenty oryginalnego sygnału są trwale usuwane, najczęściej te, które według psychoakustyki są dla ludzkiego ucha najmniej słyszalne. Dzięki temu pliki są dużo mniejsze, a jakość – przy właściwie dobranych ustawieniach – dalej stoi na niezłym poziomie. Moim zdaniem MP3 zrewolucjonizowało sposób przechowywania i przesyłania muzyki, bo wcześniej na dyskach czy w internecie pliki audio były olbrzymie i niepraktyczne. Stosowanie kodowania stratnego w MP3 stało się standardem w branży, zwłaszcza tam, gdzie liczy się oszczędność miejsca i przepustowości, np. w serwisach streamingowych czy przenośnych odtwarzaczach. Kodowanie stratne ma też swoje minusy – przy niskich bitrate’ach da się wyłapać artefakty kompresji, ale dla „zwykłego” słuchania na słuchawkach czy w samochodzie MP3 dalej daje radę. Ciekawostka: oryginalny standard MPEG-1 Audio Layer III (stąd skrót MP3) opracowano już w latach 90., a mimo postępu technologii ten format ciągle jest żywy. Oczywiście, dla archiwizacji czy profesjonalnego audio lepiej stosować bezstratne formaty (jak FLAC), ale w codziennym zastosowaniu MP3 to szybki, praktyczny wybór.

Pytanie 17

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Latch
B. Read
C. Off
D. Touch
Tryb 'Off' w automatyce DAW to taka trochę oczywista, choć często pomijana opcja. Gdy ustawisz ścieżkę na 'Off', automatyka po prostu nie jest odczytywana ani zapisywana – to tak, jakby jej w ogóle nie było. Moim zdaniem, to świetne rozwiązanie, kiedy chcesz zignorować wcześniejsze automatyczne zmiany parametrów, np. głośności, panoramy czy efektów, i mieć totalną kontrolę ręcznie lub ustawić wszystko od nowa. Praktycznie, jeśli miksujesz utwór i robisz kilka wersji automatyki, możesz tymczasowo wyłączyć jej działanie bez kasowania całej pracy – nie ryzykujesz, że coś się przypadkiem zmieni. W branży, szczególnie przy pracy na żywo albo w dużych projektach studyjnych, używa się 'Off', żeby uniknąć konfliktów między różnymi etapami miksowania lub gdy chcesz słyszeć czysty sygnał ścieżki bez ingerencji automatyki. Często też, porównując wersje miksu, wyłączenie automatyki pozwala ocenić, jak brzmią ślady bez żadnych zmian, co bardzo się przydaje przy masteringu lub robieniu wersji instrumentalnych. Na koniec dodam, że w sumie to trochę niedoceniany tryb, a daje ogromną swobodę w zarządzaniu ścieżkami – nie tylko głośność, ale wszystkie parametry na chwilę przestają być pod kontrolą automatyki, co czasami okazuje się zbawienne.

Pytanie 18

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 60 minut.
B. 80 minut.
C. 70 minut.
D. 90 minut.
Poprawnie wybrałeś 80 minut – właśnie tyle maksymalnie można nagrać na standardowej płycie CD-Audio o pojemności 700 MB. Ten format powstał jeszcze w latach 80. XX wieku i od tamtej pory praktycznie się nie zmienił – całość opiera się na zapisie nieskompresowanego dźwięku PCM o częstotliwości próbkowania 44,1 kHz przy 16 bitach i dwóch kanałach (stereo). Przy takich parametrach 1 minuta muzyki zajmuje około 10 MB, dlatego 700 MB wystarcza właśnie na niecałe 80 minut muzyki wysokiej jakości. Standard Red Book (IEC 60908) dokładnie to opisuje, zresztą w branży muzycznej przez lata nikt nie próbował tego modyfikować, bo taka długość płyty idealnie pasowała do większości albumów. W praktyce, jeśli nagrasz płytę o długości 80 minut, nie będzie problemu z jej odtworzeniem w dowolnym klasycznym odtwarzaczu CD. Przekroczenie tej granicy powoduje już spore ryzyko, że płyta nie będzie czytelna wszędzie – producenci sprzętu zawsze trzymają się tych podstawowych parametrów, żeby uniknąć kłopotów z kompatybilnością. Moim zdaniem, właśnie znajomość tych ograniczeń to podstawa dla każdego, kto planuje archiwizować lub publikować dźwięk na CD – nie tylko w teorii, ale i w codziennej praktyce studyjnej. Warto też wiedzieć, że alternatywne formaty, typu CD-MP3, pozwalają zapisać dużo więcej czasu dźwięku, ale tylko na sprzętach, które taką funkcję wspierają. Jednak jeśli chodzi o klasyczny CD-Audio 700 MB – 80 minut to absolutna granica.

Pytanie 19

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. opisu taśmy.
B. skryptu.
C. spisu efektów.
D. opisu postsynchronów.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 20

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. DLY
B. COMP
C. GATE
D. REV
GATE to skrót, który jednoznacznie kojarzy się z bramką szumów – czyli efektem stosowanym do tłumienia niepożądanych dźwięków poniżej określonego progu. W praktyce – a przynajmniej tak to widzę – bramka szumów jest nieoceniona przy nagrywaniu wokali albo instrumentów, gdzie często pojawiają się szumy tła, trzaski albo oddechy między frazami. W DAW-ach bramkę (czyli gate) stosuje się bardzo często na ślady perkusyjne, np. na werblu czy stopie, żeby skrócić wybrzmiewanie i wyciąć ciche przesłuchy innych bębnów. To jest standard w miksie, zwłaszcza jeśli chodzi o muzykę rockową czy metalową, gdzie czystość i selektywność są kluczowe. Bramki szumów można też ustawiać bardzo precyzyjnie – atak, podtrzymanie, zwolnienie – dzięki czemu użytkownik ma pełną kontrolę nad tym, jak szybko efekt reaguje. Często spotyka się sytuację, że ludzie mylą gate z kompresorem, ale to zupełnie inne narzędzia – gate wycina, a kompresor ściska dynamikę. Generalnie, moim zdaniem, znajomość działania bramki to podstawa dla każdego, kto chce ogarnąć miksowanie w DAW. Warto też pamiętać, że wiele profesjonalnych szablonów sesji ma gate na śladach perkusyjnych domyślnie – to taki branżowy standard, który zdecydowanie warto opanować.

Pytanie 21

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Mute
C. Split
D. Copy
Funkcja „Mute” w sesji programu DAW jest podstawowym narzędziem do szybkiego wyciszania wybranych regionów, ścieżek lub nawet pojedynczych dźwięków w aranżacji. To rozwiązanie jest powszechnie stosowane w produkcji muzycznej, bo pozwala na błyskawiczne wyłączenie fragmentu utworu bez kasowania danych – nie tracisz żadnych informacji, zawsze możesz wrócić do tych dźwięków, kiedy tylko chcesz. Przykładowo, gdy miksujesz wokale i chcesz na chwilę usunąć niektóre fragmenty, żeby sprawdzić, jak brzmią inne elementy aranżacji, wystarczy kliknąć „Mute” na odpowiednim regionie. Moim zdaniem to bardzo wygodne, bo daje pełną elastyczność podczas pracy twórczej – nie musisz się stresować, że coś uszkodzisz na stałe. Zgodnie z praktykami branżowymi, korzystanie z „Mute” jest preferowane przed edycją destrukcyjną, gdy chcesz eksperymentować z aranżacją czy układem ścieżek. Funkcja ta jest obecna w praktycznie każdym liczącym się DAW – od Abletona, przez Cubase, aż po Pro Tools. Zaawansowani realizatorzy często używają „Mute” także do przygotowywania alternatywnych wersji miksu, bo pozwala to łatwo porównać różne układy instrumentów bez przeładowywania projektów. Dla mnie „Mute” to jedno z narzędzi, które naprawdę ratuje skórę w sytuacjach, kiedy trzeba coś szybko sprawdzić, a nie ma czasu na żmudne wycinanie czy kopiowanie regionów. W skrócie: praktyczne, szybkie i bezpieczne rozwiązanie na każdą sesję.

Pytanie 22

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. sekundzie.
B. ćwierćnucie.
C. milisekundzie.
D. ramce.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 23

Która komenda oprogramowania DAW służy do zmiany fazy sygnału audio?

A. Gain
B. Cut
C. Invert
D. Crossfade
Komenda „Invert” w DAW to bardzo praktyczna funkcja, która pozwala na odwrócenie fazy sygnału audio o 180 stopni. To może się wydawać na pierwszy rzut oka trochę abstrakcyjne, ale w praktyce jest to szalenie przydatne podczas miksowania. Na przykład – wyobraź sobie, że nagrywasz perkusję kilkoma mikrofonami naraz. Często okazuje się, że niektóre ślady wzajemnie się znoszą, bo ich fale dźwiękowe są w przeciwnej fazie (szczególnie ze stopą i werblem potrafi być zamieszanie). W takich sytuacjach szybkie „Invert” na jednym ze śladów potrafi całkowicie odmienić brzmienie – nagle wszystko staje się pełniejsze, basy wracają na swoje miejsce. To już taka klasyka miksu, zwłaszcza przy nagraniach wielośladowych czy dogrywaniu wokali. Warto pamiętać, że „Invert” nie zmienia głośności, nie ucina ani nie skleja ścieżki, tylko odwraca polaryzację – plus staje się minusem i odwrotnie. W branży to jedna z podstawowych technik sprawdzania kompatybilności fazowej między ścieżkami. Moim zdaniem, nawet jak na początku trudno to usłyszeć, to z czasem ucho zaczyna wyłapywać subtelne różnice. A dobry realizator zawsze pilnuje fazy, bo bez tego nawet najlepsze nagranie zabrzmi płasko i bez energii. Invert jest po prostu niezastąpiony do szybkiego testowania i naprawiania problemów fazowych – to taka codzienna, mała, inżynierska sztuczka.

Pytanie 24

Metoda dogrania fragmentu dźwięku w miejsce innego określana jest mianem

A. Crop in/out.
B. Fade in/out.
C. Trim in/out.
D. Punch in/out.
Odpowiedź punch in/out to zdecydowanie najtrafniejsze określenie w tym kontekście. W branży audio, zwłaszcza przy nagraniach wielośladowych, punch in/out to technika, która pozwala precyzyjnie nagrać konkretny fragment ścieżki dźwiękowej – tak, by zastąpić wcześniejszy fragment nowym nagraniem bez konieczności powtarzania całego utworu czy danej partii. Stosuje się ją, gdy np. wokalista popełni drobny błąd w środku utworu – wtedy inżynier dźwięku ustawia punkty wejścia (punch in) i wyjścia (punch out), a następnie dogrywany jest tylko ten właściwy fragment. W praktyce nie tylko oszczędza się czas, ale też pozwala na zachowanie naturalnego flow utworu oraz pierwotnej energii nagrania. Tę metodę od lat stosuje się zarówno w analogowych studiach (np. na magnetofonach wielośladowych), jak i we współczesnych DAW-ach, gdzie punch in/out realizuje się często dosłownie jednym kliknięciem. Warto przy okazji zauważyć, że poprawne ustawienie punktów wejścia i wyjścia to klucz do uzyskania niemal niewidocznego (a raczej niesłyszalnego!) łączenia. Z mojego doświadczenia w studiu – dobrze opanowany punch in/out to po prostu podstawa profesjonalnej pracy z nagraniami. Często nawet zawodowcy nie próbują nagrać całej partii od początku, tylko korzystają z tej techniki. To także zgodne z dobrymi praktykami produkcji muzycznej, gdzie elastyczność pracy i oszczędność czasu są bardzo ważne.

Pytanie 25

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Solo.
C. Fade out.
D. Mute.
Wybrałeś „fade out” i faktycznie to jest określenie na stopniowe wyciszenie dźwięku. W branży audio ten termin stosuje się bardzo często – zarówno w nagraniach studyjnych, jak i podczas montażu dźwięku w filmach, reklamach czy podcastach. Fade out polega na łagodnym zmniejszaniu poziomu głośności sygnału do zera lub do bardzo niskiej wartości, co pozwala uzyskać naturalne wrażenie „oddalania się” dźwięku, a nie jego nagłego urwania. Najczęściej fade out stosuje się na końcu utworu muzycznego, żeby zakończenie brzmiało płynnie i nie raziło odbiorcy. Oczywiście, spotyka się też fade outy w środku miksu, na przykład gdy chcemy subtelnie wygasić jakiś efekt lub ścieżkę. W programach DAW (np. Cubase, Pro Tools czy Ableton) efekt ten realizuje się najczęściej poprzez edycję obwiedni głośności. Moim zdaniem, jeśli chcesz uzyskać profesjonalne brzmienie w produkcji audio, to umiejętność stosowania fade outów jest absolutnym fundamentem. Co ciekawe, w niektórych gatunkach muzyki elektronicznej fade out jest wręcz nieodłącznym elementem kompozycji. Warto też pamiętać, że przeciągnięty lub źle dobrany fade out może zepsuć dramaturgię utworu, więc zawsze dobrze jest przetestować różne czasy wyciszenia i dobrać je do charakteru materiału.

Pytanie 26

Który z wymienionych formatów umożliwia dystrybucję dźwięku wielokanałowego?

A. .omf
B. .aiff
C. .aac
D. .wav
Wiele osób, które dopiero zaczynają przygodę z realizacją dźwięku albo produkcją multimediów, często myli pojęcie formatu pliku audio z jego możliwościami technicznymi. AIFF i WAV to formaty bezstratne, bardzo popularne w studiach nagraniowych, ale domyślnie przechowują dźwięk w trybie dwukanałowym (stereo). Oczywiście, istnieją rozszerzenia tych formatów wspierające dźwięk wielokanałowy, lecz są one rzadko używane w praktyce poza bardzo wąskimi zastosowaniami studyjnymi – zazwyczaj większość DAW (Digital Audio Workstation) eksportuje je jako stereo. Co ciekawe, AIFF powstał głównie dla komputerów Apple, a WAV dla Windows, więc to bardziej kwestia platformy niż funkcjonalności. OMF jest zaś typowym formatem wymiany projektów audio pomiędzy różnymi programami DAW, a nie formatem do dystrybucji dźwięku – tu nie chodzi o samą zawartość audio, tylko o wymianę danych projektowych, edycji, ścieżek i automatyzacji. Tak naprawdę OMF nie jest przeznaczony do końcowego udostępniania muzyki czy filmów ze ścieżką wielokanałową – to raczej narzędzie produkcyjne, a nie dystrybucyjne. Często spotykam się z mylnym przeświadczeniem, że skoro WAV lub AIFF mają wysoką jakość, to automatycznie wspierają surround – jednak bez dodatkowych specyfikacji i odpowiedniego sposobu zapisania ścieżek nie zadziałają w typowych systemach konsumenckich czy kinowych. Praktyka branżowa jest taka, że jeśli chodzi o masową dystrybucję dźwięku (np. w filmach, serwisach streamingowych, grach), do dźwięku wielokanałowego używa się formatów takich jak AAC, Dolby Digital, DTS lub FLAC. Warto zawsze pamiętać, by rozróżniać formaty edycyjne od formatów przeznaczonych do dystrybucji – to typowy błąd na egzaminach zawodowych i podczas pierwszych projektów.

Pytanie 27

Tworząc dokumentację produkcji słuchowiska radiowego, należy uwzględnić zastosowanie miksera

A. emisyjnego.
B. studyjnego.
C. monitorowego.
D. nagłośnieniowego.
Dokumentacja produkcji słuchowiska radiowego rzeczywiście powinna uwzględniać zastosowanie miksera studyjnego. To właśnie ten typ miksera jest sercem wszystkich operacji dźwiękowych w studiu nagraniowym. Pozwala na precyzyjne miksowanie głosów lektorów, aktorów, efektów dźwiękowych oraz muzyki, zanim powstanie finalna ścieżka audio. Mikser studyjny jest specjalnie zaprojektowany do pracy w środowisku, gdzie kluczowa jest najwyższa jakość dźwięku, kontrola nad poziomami oraz możliwość wszechstronnej edycji i realizacji skomplikowanych scen dźwiękowych. W praktyce, podczas nagrań słuchowisk, często wykorzystuje się dodatkowe funkcje mikserów studyjnych, takie jak insertowanie efektów, routing ścieżek na różne wyjścia czy monitorowanie na słuchawkach różnych podsłuchów – to bardzo pomaga reżyserowi i realizatorowi dźwięku. Moim zdaniem, bez profesjonalnego miksera studyjnego nie da się osiągnąć takiej głębi i selektywności brzmienia, jakiej oczekuje się od nowoczesnych słuchowisk radiowych. Dla porównania, miksery emisyjne są raczej przeznaczone do zarządzania sygnałem podczas emisji na żywo, a miksery nagłośnieniowe do pracy na scenie. Mikser studyjny pozwala na wielościeżkową rejestrację, szybkie korygowanie poziomów i kreatywną pracę z dźwiękiem – to podstawa w sztuce tworzenia słuchowisk. W branży radiowej standardem jest, by cała dokumentacja techniczna szczegółowo opisywała konfigurację i ustawienia miksera studyjnego. Warto to zapamiętać, bo takie wymagania pojawiają się też w rzeczywistych specyfikacjach projektowych.

Pytanie 28

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. MASTER
C. FX
D. AUX
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 29

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 9 dB
B. o 12 dB
C. o 6 dB
D. o 3 dB
Zagadnienie tłumienia sygnału o określoną wartość w decybelach to bardzo częsty temat nie tylko w studiu, ale i na scenie czy w szeroko pojętym inżynierii dźwięku. Często spotykam się z przekonaniem, że aby moc sygnału spadła o połowę, trzeba ściszyć aż o 6 dB albo nawet więcej. To taki mit krążący od lat, głównie przez mylenie pojęć związanych z mocą i napięciem. Warto tu rozróżnić: tłumienie o 6 dB rzeczywiście powoduje spadek napięcia (czyli amplitudy sygnału) o połowę, ale nie mocy. Wynika to z matematycznej definicji decybela – dla mocy stosujemy wzór 10 log(P2/P1), natomiast dla napięcia (lub natężenia prądu) jest to 20 log(U2/U1). Jeśli tłumisz o 6 dB, moc spada czterokrotnie, a nie dwukrotnie, bo (10 log 0,25 = -6 dB). W przypadku tłumienia o 9 dB czy 12 dB, spadek mocy jest jeszcze większy – to już wartości, które w praktyce oznaczają bardzo duże ściszenie sygnału, często spotykane dopiero na końcowych etapach miksu czy podczas „mutowania” śladów. Moim zdaniem najczęstszym błędem prowadzącym do takich pomyłek jest nieodróżnianie tłumienia mocy od tłumienia napięcia, a to są jednak dwa różne światy – w świecie audio liczy się moc (szczególnie przy głośnikach, wzmacniaczach), a nie tylko napięcie. Warto sobie przeliczyć: każdy spadek o kolejne 3 dB to połowa mocy względem poprzedniego poziomu. W praktyce – jak ściszysz ścieżkę w DAW-ie o 6 dB, moc leci czterokrotnie w dół, a nie dwa razy, co może prowadzić do błędnych założeń przy ustawianiu balansu miksu. Szczerze polecam zapamiętać tę różnicę – nie raz uratuje przy szybkim podejmowaniu decyzji podczas miksowania czy nagrywania.

Pytanie 30

Który z podanych typów dodatkowej informacji tekstowej jest właściwy dla plików WAVE / BWF?

A. Broadcast Audio Extension
B. APE tag
C. Document Properties
D. JPEG Comment
Broadcast Audio Extension, czyli tzw. BWF (Broadcast Wave Format), to rozszerzenie formatu WAVE stworzone właśnie po to, żeby do zwykłego pliku audio można było dorzucić dodatkowe dane tekstowe – na przykład opis nagrania, informacje o autorze, copyright czy nawet kody czasowe do synchro z obrazem. Co fajne, BWF jest szeroko wykorzystywany w profesjonalnym audio, szczególnie w telewizji, radio, postprodukcji filmowej albo wszędzie tam, gdzie trzeba zachować ład i porządek w plikach. W praktyce wygląda to tak, że taki plik nadal ma rozszerzenie .wav, ale w środku, w tzw. chunkach, siedzą dodatkowe metadane. Najważniejszy z nich to właśnie „bext” chunk – tu lądują te wszystkie opisy czy numery wersji. Moim zdaniem to rozwiązanie jest dużo lepsze niż dorabianie jakichś zewnętrznych plików tekstowych czy kombinowanie z tagami innych formatów. Co ciekawe, większość dobrych programów DAW (np. Pro Tools, Nuendo) czy rejestratorów terenowych obsługuje BWF bez zająknięcia, czyli wszystko jest zgodne ze standardami branżowymi (EBU Tech 3285). No i nie musisz się martwić o kompatybilność, bo jak nie „czyta” tych metadanych, to plik nadal działa jak zwykły WAV. W branży to już takie trochę must-have, zwłaszcza jak się pracuje z archiwami albo dużą ilością materiału. Z mojego doświadczenia wynika, że osoby, które ogarniają BWF, są po prostu skuteczniejsze w pracy z audio profesjonalnym.

Pytanie 31

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 70 minut.
B. 80 minut.
C. 90 minut.
D. 60 minut.
Właśnie tak – płyta CD-Audio o pojemności 700 MB pozwala na zapisanie maksymalnie około 80 minut dźwięku w standardzie Red Book, czyli podstawowym formacie CD-Audio. Wynika to z parametrów technicznych: dźwięk zapisywany jest jako nieskompresowany sygnał PCM, stereo, 16 bitów na próbkę i 44,1 kHz. To daje około 10 MB miejsca na każdą minutę muzyki – trochę więcej, bo uwzględnia się jeszcze nadmiarowość i korekcję błędów, ale mniej więcej tak się to liczy. 700 MB to właśnie te pełne 80 minut – takie płyty najczęściej spotyka się w sklepach muzycznych czy w bibliotekach audio. Moim zdaniem, praktycznie wszyscy profesjonaliści i realizatorzy dźwięku liczą się z tym limitem, bo jeśli materiał jest dłuższy, trzeba go dzielić na dwie płyty albo stosować inne nośniki. Warto wiedzieć, że starsze płyty miały pojemność 650 MB i wtedy na jednym krążku mieściło się tylko 74 minuty muzyki – to taki historyczny smaczek. Z mojego doświadczenia, w studiu nagraniowym te ograniczenia trzeba mieć cały czas z tyłu głowy, żeby nie zaskoczyć się podczas masteringu. Standard Red Book jest tu po prostu nie do przeskoczenia – każda próba zapisu dłuższego materiału grozi brakiem kompatybilności z klasycznymi odtwarzaczami CD. Jest to więc praktyczny limit, z którym warto się zaprzyjaźnić, jeśli myślimy o wydawaniu muzyki na CD.

Pytanie 32

W którym z wymienionych programów nie można wykonać montażu dźwięku równolegle z obrazem?

A. Logic Pro X.
B. Audacity.
C. Pro Tools.
D. Audition.
Audacity to popularny, darmowy edytor audio, ale nie jest to program do montażu dźwięku w połączeniu z obrazem. W praktyce, jeżeli pracujemy przy produkcji wideo, nawet na prostym poziomie – np. montując filmy do internetu, relacje czy krótkie reklamy – to narzędzia takie jak Adobe Audition, Pro Tools albo Logic Pro X pozwalają zsynchronizować dźwięk bezpośrednio z materiałem wideo, obserwując obraz i ścieżkę dźwiękową jednocześnie. Audacity niestety nie obsługuje podglądu wideo ani importu plików filmowych, co bardzo ogranicza jego zastosowanie w profesjonalnym postprodukcji. Moim zdaniem to dość poważne ograniczenie – bo nawet jeśli ktoś potrafi w Audacity świetnie ciąć czy poprawiać dźwięk, to nie zrobi synchronizacji z obrazem, a to podstawa w filmie, reklamie czy animacji. Przemysł filmowy i telewizyjny od lat bazuje na programach DAW z funkcją importu wideo i dokładnego, klatkowego dopasowania dźwięku. Co ciekawe, nawet amatorskie DAWy powoli wprowadzają obsługę plików wideo, bo zapotrzebowanie na produkcję treści multimedialnych jest coraz większe. Audacity świetnie się sprawdza do prostych obróbek audio, podcastów, digitalizacji kaset czy czyszczenia nagrań, ale do pracy synchronicznej z obrazem po prostu się nie nada. Szkoda, ale taka jest specyfika tego softu.

Pytanie 33

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. MP3
B. CDA
C. WAV
D. RIFF
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 34

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 90 minut.
B. 80 minut.
C. 70 minut.
D. 60 minut.
Płyta CD-Audio o pojemności 700 MB pozwala na zapis materiału dźwiękowego do 80 minut i to jest taka wartość, która praktycznie stała się standardem branżowym dla tego typu nośników. Chociaż na pierwszy rzut oka pojemność 700 MB może wydawać się spora i sugerować możliwość zapisania jeszcze więcej muzyki, to trzeba pamiętać, że format CD-Audio nie korzysta z kompresji danych (jak np. MP3), tylko zapisuje bezstratnie dźwięk w standardzie PCM o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na kanał stereo. To oznacza spory strumień danych – ok. 10 MB na każdą minutę muzyki stereo. Stąd właśnie ta liczba – 80 minut to maksimum, ile da się zmieścić na 700 MB przy zachowaniu jakości wymaganej przez standard Red Book, który określa parametry płyt CD-Audio. Moim zdaniem to całkiem uczciwy kompromis pomiędzy jakością a czasem trwania materiału. W praktyce większość albumów muzycznych mieściła się w tym limicie i nie trzeba było ciąć kawałków. Często w produkcji płyt płyty 80-minutowe były wykorzystywane do albumów kompilacyjnych czy koncertowych, gdzie każda minuta była na wagę złota. Warto pamiętać, że jak już wykraczasz poza te 80 minut, napędy CD mogą mieć problem z odczytem albo płyta w ogóle nie będzie zgodna ze starszym sprzętem. To kolejny przykład, jak ważne jest trzymanie się branżowych norm.

Pytanie 35

Którą opcję edycyjną należy zastosować w celu przycięcia regionu na ścieżce dźwiękowej do zaznaczonego fragmentu?

A. Paste
B. Cut
C. Trim
D. Separate
Opcja „Trim” jest zdecydowanie najwłaściwsza, gdy chodzi o przycięcie regionu do dokładnie wybranego fragmentu na ścieżce dźwiękowej. To narzędzie jest praktycznie standardem w większości programów DAW (Digital Audio Workstation), takich jak Cubase, Pro Tools, Logic czy nawet polski Reaper. Pozwala ona szybko ograniczyć długość regionu (czyli np. klipu audio lub midi) do aktywnego zaznaczenia, bez ryzyka przypadkowego uszkodzenia innych elementów projektu. Używanie opcji „Trim” znacznie przyspiesza pracę, bo nie trzeba ręcznie przesuwać krawędzi regionu czy bawić się wycinaniem i wklejaniem. Moim zdaniem, jeśli ktoś regularnie montuje audio, to nauczenie się szybkiego korzystania z „Trim” to podstawa — daje to nie tylko precyzję, ale też pewność, że nie przesuniesz czegoś poza zaznaczenie. Co więcej, większość instrukcji obsługi i tutoriali zaleca właśnie to narzędzie do podobnych zadań, bo jest to po prostu najbezpieczniejsze i najbardziej przewidywalne rozwiązanie. W praktyce, jeżeli masz np. nagraną dłuższą wypowiedź i chcesz zostawić tylko środek, wystarczy zaznaczyć fragment i użyć „Trim”, a reszta sama znika. To sprawia, że edycja jest dużo mniej frustrująca i bardziej czytelna. Warto dodać, że profesjonalni realizatorzy dźwięku właśnie tego narzędzia używają przy przygotowaniu materiałów do miksu czy montażu podcastów.

Pytanie 36

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. HPF
B. HSF
C. BPF
D. LPF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ filtra, w którym najczęściej spotyka się możliwość regulowania dobroci (Q). Dobroć Q to parametr określający, jak wąskie lub szerokie jest przepuszczane pasmo w stosunku do częstotliwości środkowej. Im wyższa wartość Q, tym filtr jest 'ostrzejszy', bardziej selektywny – przepuszcza tylko wąski wycinek sygnału. No i właśnie przy filtrach pasmowoprzepustowych to kluczowe, bo czasami chcemy wyłowić z sygnału bardzo konkretną częstotliwość, a czasami bardziej ogólne pasmo. W praktyce na przykład w korektorach graficznych albo procesorach audio, możliwość regulacji Q pozwala bardzo precyzyjnie kształtować charakterystykę brzmienia – z mojego doświadczenia to zupełnie niezbędna rzecz przy precyzyjnym usuwaniu niechcianych dźwięków czy sprzężeń. Inżynierowie często projektują takie filtry w oparciu o topologie Sallen-Key lub Multiple Feedback ze specjalnym potencjometrem do płynnej regulacji Q. W literaturze i normach branżowych (np. IEC 60268) jednoznacznie wskazuje się, że pełna kontrola dobroci dotyczy filtrów BPF. Dla LPF i HPF regulacja Q praktycznie nie ma takiego znaczenia albo sprowadza się do regulowania tłumienia zbocza, co wcale nie jest tym samym. Podsumowując: jeśli widzisz możliwość ustawienia Q, to niemal zawsze chodzi o filtr pasmowoprzepustowy.

Pytanie 37

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 60 s
B. 1 s
C. 120 s
D. 10 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 38

Wskaż narzędzie przeznaczone do powiększania lub zmniejszania obrazu obszaru roboczego w sesji montażowej programu DAW.

A. Solo Tool.
B. Scissor Tool.
C. Zoom Tool.
D. Test Tool.
Zoom Tool to faktycznie narzędzie, które w praktycznie każdym nowoczesnym DAW umożliwia szybkie powiększanie albo zmniejszanie widoku obszaru roboczego. Moim zdaniem, to jedno z tych narzędzi, z których korzysta się niemal cały czas, zwłaszcza przy bardziej rozbudowanych projektach – czy to w Cubase, Logic Pro, Abletonie czy Pro Tools. Dzięki Zoom Tool możemy dokładnie przyjrzeć się szczegółom edytowanej ścieżki lub na odwrót: zobaczyć szerszy kontekst całego aranżu. To bardzo ważne, bo często trzeba na przykład wyłapać precyzyjnie miejsce cięcia, ustawić dokładnie punkt edycji lub znaleźć fragment, który wymaga poprawki. Używanie Zoom Toola to nie tylko wygoda, ale też oszczędność czasu – nie musisz przewijać ani gubić się w gąszczu ścieżek. W branży standardem jest szybkie przełączanie się pomiędzy różnymi zakresami widoku, zwłaszcza przy pracy na wielu ścieżkach lub dużej liczbie klipów. Dobrą praktyką jest również łączenie Zoom Tool z funkcjami skrótów klawiaturowych, bo pozwala to jeszcze szybciej reagować na potrzeby projektu. Warto pamiętać, że niektóre DAWy pozwalają nawet na tworzenie własnych presetów powiększenia, co dodatkowo usprawnia workflow. Z mojego doświadczenia – im sprawniej opanujesz obsługę Zoom Toola, tym płynniej i efektywniej pójdzie ci każda sesja montażowa.

Pytanie 39

Jak nazywa się dodanie do struktury pliku dźwiękowego informacji w formie tekstowej?

A. Oznaczenie.
B. Otagowanie.
C. Oflagowanie.
D. Opisanie.
Dodanie do pliku dźwiękowego informacji tekstowych, takich jak tytuł, wykonawca, album czy rok wydania, nazywa się właśnie otagowaniem. Ten proces polega na zapisaniu w metadanych pliku odpowiednich znaczników, które później mogą być odczytywane przez odtwarzacze muzyczne czy aplikacje katalogujące muzykę. Najpopularniejsze standardy to ID3 (stosowany głównie w plikach MP3), Vorbis Comments (dla plików OGG i FLAC) czy APE tags. Takie otagowanie umożliwia nie tylko wygodne zarządzanie biblioteką muzyczną, ale też automatyczne tworzenie playlist, sortowanie według artystów czy wyszukiwanie po gatunku muzycznym. Z mojego doświadczenia warto od razu po pobraniu czy nagraniu dźwięku zadbać o poprawne tagi, bo potem łatwiej uniknąć chaosu w zbiorach. Praktycznie każda profesjonalna produkcja muzyczna dba o kompletność i dokładność tagów – to standard branżowy. Często spotyka się sytuację, że pliki pobrane z internetu nie mają prawidłowych tagów i wtedy trzeba je samodzielnie uzupełnić, np. używając programów takich jak Mp3tag czy MusicBrainz Picard. Sumując, otagowanie jest kluczowe, jeśli zależy nam na uporządkowanej i łatwo dostępnej kolekcji utworów.

Pytanie 40

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Invert
B. Gain
C. Crossfade
D. Cut
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.