Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 1 maja 2026 14:00
  • Data zakończenia: 1 maja 2026 14:17

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Gdzie jest optymalne miejsce do montażu ścieżki dźwiękowej?

A. Na wybrzmieniu dźwięku.
B. W ciszy pomiędzy dźwiękami.
C. W miejscu wzrostu energii dźwięku.
D. W miejscu maksymalnej energii dźwięku.
Bardzo często spotyka się mylne założenie, że najlepiej wprowadzić ścieżkę dźwiękową tam, gdzie wybrzmiewa dźwięk, rośnie energia lub osiąga ona maksimum. Niestety, takie podejście prowadzi do różnych problemów z czytelnością i odbiorem całego materiału. Zacznijmy od montowania na wybrzmieniu dźwięku – to dość powszechny błąd, bo wydaje się, że jak coś się kończy, to można od razu wprowadzić muzykę. W rzeczywistości, jeśli ścieżka wchodzi na wybrzmienie, powstaje efekt "nakładki". Dźwięki się przenikają i odbiorca nie jest w stanie wychwycić wszystkich niuansów, a dialogi czy efekty mogą być zagłuszane. Kolejny przypadek to wprowadzanie muzyki w miejscu wzrostu energii dźwięku. Tu z kolei łatwo o przeładowanie – nagłe wejście nowej warstwy podczas narastania głośności potrafi zniekształcić emocjonalny wydźwięk sceny i zaburzyć naturalną dynamikę. Moim zdaniem takie praktyki prowadzą do utraty przejrzystości i mogą nawet drażnić ucho słuchacza. Podobnie, montaż w punkcie maksymalnej energii dźwięku często powoduje efekt "przebicia" – wszystko naraz, zero przestrzeni i w efekcie widz czuje się przytłoczony. To jest bardzo częsta pułapka początkujących montażystów, którzy myślą, że więcej znaczy lepiej. Branżowe standardy (np. zalecenia EBU czy praktyki z kursów montaży filmowych) wyraźnie wskazują, że najczytelniejszy rezultat osiąga się właśnie w ciszy, czyli w naturalnej przerwie. Dzięki temu materiał audio nabiera profesjonalnego charakteru, a każda warstwa dźwięku ma swoje miejsce i nie konkuruje z innymi. Sztuka montażu to nie tylko technika, ale też wyczucie momentu – warto zaufać sprawdzonym rozwiązaniom, żeby efekt końcowy był klarowny i przyjemny dla odbiorcy.

Pytanie 2

Normalizacja z opcją korekty RMS wpływa

A. na poziom średni i szczytowy.
B. na szum kwantyzacji.
C. wyłącznie na poziom szczytowy.
D. wyłącznie na poziom średni.
Normalizacja z opcją korekty RMS (Root Mean Square) to coś więcej niż zwykłe podbicie głośności do maksymalnego możliwego poziomu bez przesterowania. W praktyce, gdy korzystasz z RMS, nie tylko szczytowe wartości sygnału są brane pod uwagę, ale kluczowe staje się także to, jak sygnał zachowuje się w ujęciu średnim – czyli jak odbieramy głośność utworu jako całość. Przykładowo, w masteringu muzyki RMS pozwala ustawić materiał tak, żeby zarówno ciche fragmenty nie były zbyt wyciszone, a głośne nie przesterowywały. To zapewnia wyższy komfort odsłuchu na różnych urządzeniach i w różnych warunkach. Standardy branżowe, jak EBU R128 czy AES, podkreślają wagę pomiarów średniego poziomu sygnału, bo to właśnie one są bliższe temu, jak ludzkie ucho odbiera głośność. Przy normalizacji z RMS nie wzmacniamy tylko samych szczytów, ale poprawiamy ogólną percepcję dynamiki utworu. Fajnie też zauważyć, że w produkcji podcastów czy materiałów radiowych ta metoda jest wręcz nieodzowna, żeby uniknąć sytuacji, gdzie cisze są niezrozumiałe, a głośne partie bolą w uszy. Moim zdaniem, kto raz spróbuje normalizacji RMS, nie wróci do samego Peak, bo różnica w odbiorze bywa kolosalna. W praktyce – RMS wpływa na oba poziomy: średni i szczytowy, co daje lepszą kontrolę nad całym sygnałem.

Pytanie 3

W celu osiągnięcia maksymalnej wydajności oprogramowania DAW podczas prac montażowych i miksu rozmiar bufora programowego powinien zostać ustawiony na wartość

A. 1 024 próbek.
B. 512 próbek.
C. 256 próbek.
D. 32 próbek.
Ustawienie rozmiaru bufora programowego na 1024 próbki to rozwiązanie, które zdecydowanie zwiększa wydajność systemu DAW podczas montażu i miksu. Przy tak wysokim buforze komputer ma więcej czasu na przetworzenie sygnału audio, dlatego minimalizuje się ryzyko zacięć, pykania czy innych artefaktów dźwiękowych. Z mojego doświadczenia wynika, że większość profesjonalnych realizatorów, kiedy już mają nagrany materiał i przechodzą do miksowania, pracuje właśnie na dużych buforach, często 1024, a nawet 2048 próbek. To jest zgodne z zaleceniami producentów oprogramowania DAW, takich jak Steinberg, Avid czy Ableton. W praktyce, gdy zależy nam na niskiej latencji (np. podczas nagrywania na żywo), schodzimy z buforem niżej, ale przy miksie liczy się przede wszystkim płynność działania, możliwość użycia wielu wtyczek, automatyzacji czy efektów. To pozwala na swobodną pracę bez zrywających się ścieżek lub błędów przetwarzania. Spotkałem się też z opiniami, że niektóre starsze komputery wręcz wymagają większego bufora, żeby w ogóle dało się pracować z bardziej rozbudowanymi projektami. Trochę może przesadzam, ale lepiej mieć ten zapas niż potem borykać się z nieprzewidzianymi problemami. Generalnie, dla miksu i edycji lepiej mieć większy bufor, niż walczyć z brakami wydajności.

Pytanie 4

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Diffusion.
B. Type.
C. Predelay.
D. Decay.
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 5

Do poprawy słyszalności cichych dźwięków w materiale muzycznym należy użyć

A. equalizera.
B. delaya.
C. kamery pogłosowej.
D. kompresora.
Kompresor to urządzenie, które faktycznie świetnie sprawdza się, gdy chcemy zwiększyć słyszalność cichych dźwięków w materiale muzycznym. W praktyce polega to na zmniejszaniu różnicy pomiędzy najgłośniejszymi a najcichszymi fragmentami – czyli tzw. zakresie dynamiki. Kiedy sygnał przekracza ustawiony przez nas próg (threshold), kompresor ścisza go, ale wszystko, co poniżej tej wartości, pozostaje prawie bez zmian. Potem, często za pomocą funkcji make-up gain, możemy podnieść ogólny poziom sygnału, przez co te ciche fragmenty stają się lepiej słyszalne, a jednocześnie całość brzmi bardziej profesjonalnie, klarownie i spójnie. W branży muzycznej kompresja jest właściwie standardem – praktycznie każdy miks przechodzi przez ten proces. Szczególnie w wokalu czy instrumentach akustycznych to wręcz obowiązkowe. Czasem, jak się przesadzi, można uzyskać efekt zbyt płaskiego brzmienia, ale umiejętne użycie kompresora pozwala wydobyć szczegóły, które bez tego byłyby praktycznie niesłyszalne, szczególnie w głośnym otoczeniu lub na małych głośnikach. Moim zdaniem to jedno z najważniejszych narzędzi dla realizatora dźwięku – nie tylko poprawia czytelność, ale też nadaje utworowi charakter i energię. Warto poeksperymentować z różnymi ustawieniami attack, release i ratio, bo każda piosenka reaguje trochę inaczej. Kompresor daje dużo kontroli nad tym, jak muzyka wpływa na słuchacza – i to jest naprawdę fajne.

Pytanie 6

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. regionów.
B. ścieżek.
C. znaczników.
D. grup.
Lista znaczników to w mojej opinii jeden z tych elementów DAW, którego naprawdę warto się nauczyć używać od początku pracy z dźwiękiem. Znaczniki na osi czasu pozwalają szybko zaznaczyć istotne miejsca – mogą to być punkty cięcia, wejścia instrumentów, kluczowe fragmenty aranżu albo, najczęściej, te miejsca, gdzie mamy zaplanowane edycje. Kiedy nagranie jest długie lub mamy wiele ścieżek, ręczne szukanie odpowiedniego miejsca zajęłoby mnóstwo czasu i nerwów. Lista znaczników działa trochę jak mapa – po kliknięciu od razu przenosi do wskazanego punktu. Dzięki temu workflow jest o wiele szybszy, a ryzyko pomyłki mniejsze. W branży to standard, aby oznaczać ważne fragmenty markerami, szczególnie przy pracy zespołowej, gdzie ktoś inny może potem kontynuować edycję. Z praktyki wiem, że bez porządnego oznaczenia sesji DAW bardzo łatwo pogubić się przy większych projektach, zwłaszcza w postprodukcji lub miksie. Dobre DAW-y mają nawet możliwość eksportu/importu znaczników, synchronizacji z innymi aplikacjami czy automatycznej numeracji. To narzędzie jest totalnie podstawą w workflow i moim zdaniem bez niego nie ma sensu tracić czasu na żmudne przeszukiwanie całej sesji.

Pytanie 7

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. HPF
B. LF
C. BPF
D. LPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 8

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 96 kHz
B. 48 kHz
C. 32 kHz
D. 16 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 9

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Reverbs
C. Distortion
D. Modulation
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 10

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .aiff
B. .aac
C. .mp3
D. .ogg
Format pliku .aiff (Audio Interchange File Format) jest bardzo ceniony w środowisku profesjonalnym, zwłaszcza w studiach nagrań i przy produkcji muzyki. To dlatego, że .aiff zapisuje dźwięk w postaci nieskompresowanej, czyli bezstratnej, bardzo podobnie jak popularny .wav. Oznacza to, że każda próbka dźwięku jest odwzorowana dokładnie tak, jak została nagrana – nie traci się żadnych informacji, jak to bywa w formatach kompresowanych. Z mojego doświadczenia praca na plikach .aiff daje dużą swobodę przy dalszej obróbce – na przykład przy miksie albo masteringu. W branży muzycznej to wręcz standard przy pracy z wysoką jakością, bo inżynierowie dźwięku chcą mieć dostęp do pełnego pasma, wysokiej rozdzielczości i dużej głębi bitowej (np. 24 bity, 96 kHz). Co ciekawe, .aiff jest formatem rozwiniętym przez Apple, więc często spotyka się go na komputerach Mac, ale bez problemu radzą sobie z nim też inne systemy. Pliki .aiff zajmują sporo miejsca na dysku – to jedyny minus – ale dla czystej jakości nie ma chyba lepszego wyboru. Warto wiedzieć, że archiwizując nagrania czy przygotowując materiał do dalszej produkcji zawsze lepiej sięgać po formaty bezstratne, właśnie takie jak .aiff czy .wav, bo potem można na nich bazować, eksportując do bardziej skompresowanych formatów jak mp3 czy aac – oczywiście wtedy już z utratą części informacji.

Pytanie 11

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 1
B. 5
C. 2
D. 10
Wartość dobroci filtru, czyli tzw. Q (quality factor), bezpośrednio wpływa na szerokość pasma działania korektora. Im wyższa dobroć (Q), tym bardziej filtr selektywnie działa, a więc obejmuje węższy zakres częstotliwości. Ale uwaga, w pytaniu zostało sprytnie zapytane o najszerszy zakres częstotliwości objęty działaniem korektora, czyli chodzi o najniższą dobroć. W standardach audio i elektroniki ogólnie przyjmuje się, że filtry z niską dobrocią (np. Q=1) mają szerokie pasmo - korygują dużą część spektrum, trochę jakby grzebień o szerokich zębach. Natomiast wysokie wartości Q, na przykład 10 jak w tej odpowiedzi, oznaczają, że korektor wpływa bardzo selektywnie na bardzo wąską część widma – wręcz precyzyjnie "wycina" lub podbija daną częstotliwość. To jest przydatne, gdy chcemy wyeliminować np. pojedynczy, uciążliwy rezonans albo dzwonienie w miksie audio. Z doświadczenia powiem, że w praktycznych aplikacjach audiofilskich czy studyjnych, wysokie Q pozwala na chirurgiczne kształtowanie brzmienia, ale nie nadaje się do szerokich korekt. Można to porównać do precyzyjnej igły zamiast pędzla. Dla szerokiego wpływu na pasmo wykorzystuje się niskie dobroci, a wysokie Q przy precyzyjnych zabiegach. Warto o tym pamiętać, bo wiele osób odruchowo myli szerokość pasma z wartością Q – to taka klasyczna pułapka początkujących. Moim zdaniem, zrozumienie tego mechanizmu bardzo pomaga przy projektowaniu filtrów i korektorów w praktyce.

Pytanie 12

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ramce.
B. milisekundzie.
C. sekundzie.
D. ćwierćnucie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 13

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 4 GB
B. 8 GB
C. 2 GB
D. 1 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 14

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. COPY
B. PASTE
C. UNDO
D. REDO
Funkcja UNDO jest podstawowym narzędziem w każdym programie DAW (Digital Audio Workstation), które pozwala na cofnięcie ostatnio wykonanej operacji edycyjnej. To trochę jak zabezpieczenie przed pomyłkami – wystarczy jedno skrócenie klawiszowe, najczęściej Ctrl+Z, i ostatnia czynność znika, a projekt wraca do wcześniejszego stanu. Ja sam ciągle z tego korzystam, zwłaszcza podczas szybkiej edycji ścieżek, kiedy łatwo coś przypadkiem usunąć lub przesunąć. UNDO działa praktycznie wszędzie – czy to cięcie klipu, przesuwanie nut w MIDI, czy nawet zmiana parametrów efektów. W większości DAW można też wielokrotnie cofać kolejne kroki, a historia edycji pozwala szybko naprawić dłuższą serię błędów. To jest taki must-have, bez którego praca nad muzyką byłaby dużo bardziej stresująca i czasochłonna. Swoją drogą, w profesjonalnych workflow zawsze poleca się korzystanie z UNDO zamiast ręcznego poprawiania, bo to nie tylko szybciej, ale i bezpieczniej. Warto też pamiętać, że cofnięcie operacji często działa nie tylko dla edycji dźwięku, ale też dla zmian w automatyce, aranżacji czy nawet we wtyczkach. No i przy dużych projektach UNDO ratuje skórę, gdy przez przypadek zamkniesz sobie pół aranżu. Tak po ludzku – lepiej kilka razy za dużo kliknąć UNDO, niż potem żałować straconej pracy.

Pytanie 15

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. próbek na sekundę w transmisji danych.
B. próbek opisanych jednym bitem.
C. bitów dostępnych do opisu każdej próbki sygnału.
D. bitów na sekundę w transmisji danych.
Rozdzielczość bitowa sygnału cyfrowego to po prostu liczba bitów, które są używane do zakodowania jednej próbki sygnału. To właśnie od tej wartości zależy, jak dokładnie (czyli z jaką precyzją) możemy opisać wartość sygnału w każdej chwili jego próbkowania. Przykładowo – 8 bitów daje 256 możliwych poziomów sygnału, a 16 bitów już aż 65536 poziomów. Im wyższa rozdzielczość bitowa, tym mniej zauważalna jest tzw. kwantyzacja, czyli 'schodkowanie' sygnału po konwersji z analogowego na cyfrowy. W praktyce – to dlatego muzyka w jakości CD brzmi tak dobrze, bo tam każda próbka ma 16 bitów. Branżowe standardy, takie jak PCM (Pulse Code Modulation), wprost definiują rozdzielczość bitową jako ilość bitów na próbkę. Z mojego doświadczenia wynika, że w zastosowaniach profesjonalnych – np. rejestracja dźwięku w studio – często używa się nawet 24 bitów na próbkę. To pozwala uchwycić bardzo subtelne detale i dynamikę. Generalnie, jeśli chcesz mieć dobrej jakości sygnał cyfrowy, to warto zadbać o odpowiednią rozdzielczość bitową, bo nie da się jej potem „dodać” w postprodukcji – to trochę jak ostrość zdjęcia, jak złapiesz za mało szczegółów na początku, to już nic nie zrobisz. Przy projektowaniu systemów cyfrowych (np. przetworników ADC/DAC) właściwy dobór rozdzielczości to podstawa dobrych praktyk w inżynierii dźwięku i elektronice.

Pytanie 16

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. RIFF
B. CDA
C. WAV
D. MP3
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 17

Który z wymienionych dokumentów elektronicznych, o rozszerzeniu nazwy pliku .edl, zawiera szczegółowe instrukcje montażowe?

A. Rider techniczny.
B. Lista efektów.
C. Spis znaczników.
D. Lista montażowa.
Dokument z rozszerzeniem .edl, czyli tzw. lista montażowa (Edit Decision List), to podstawa pracy w profesjonalnym montażu wideo. Moim zdaniem mało która osoba spoza branży zdaje sobie sprawę, jak ważną rolę pełni taki plik w całym procesie postprodukcji. Lista montażowa opisuje kolejność ujęć, punkty cięć, czas trwania fragmentów oraz wszelkie przejścia czy efekty, które mają być zastosowane. Dzięki temu montażysta nie musi polegać jedynie na własnej pamięci czy notatkach, tylko automatycznie importuje EDL do stacji montażowej (np. Avid, Premiere Pro, DaVinci Resolve), przez co cały projekt układa się według wytycznych reżysera lub operatora. W branży filmowej i telewizyjnej EDL jest standardem komunikacji między różnymi etapami produkcji, umożliwia też przenoszenie projektów między różnymi systemami montażowymi. Często spotyka się sytuacje, gdzie produkcje mają dziesiątki, jak nie setki cięć – ręczne odtwarzanie takiej sekwencji byłoby praktycznie niemożliwe bez listy montażowej. Co ciekawe, EDL pozwala na szybkie odtworzenie procesu twórczego i jest kluczowym elementem archiwizacji projektów audiowizualnych. Z mojego doświadczenia, znajomość obsługi i edycji EDL to podstawa, jeśli ktoś myśli poważnie o montażu na wyższym poziomie, bo każda profesjonalna postprodukcja na tym bazuje.

Pytanie 18

Jaka jest długość efektu dźwiękowego w przeliczeniu na ramki, jeżeli trwa on 5,5 sekundy, a w kodzie czasowym w sesji ustawiono wartość 30 fps?

A. 165 ramek.
B. 170 ramek.
C. 155 ramek.
D. 180 ramek.
Prawidłowo obliczona liczba klatek przy długości efektu 5,5 sekundy i ustawieniu 30 fps wynosi właśnie 165. Wynika to z prostego, ale często wykorzystywanego w postprodukcji przelicznika: liczba sekund mnożona przez ilość klatek na sekundę daje łączną liczbę ramek (frames). Czyli 5,5 x 30 = 165. Tak się to zawsze liczy w standardowych projektach video czy audio, gdzie kluczowe jest zachowanie synchronizacji obrazu i dźwięku. W praktyce, jeśli edytujesz dźwięk do obrazu w programach typu Pro Tools, Adobe Premiere czy DaVinci Resolve, musisz te przeliczniki znać na pamięć, bo od tego zależy precyzja montażu. Moim zdaniem umiejętność szybkiego przeliczenia sekund na ramki to coś, co bardzo przydaje się przy pracy na planie, na przykład gdy reżyser mówi: „Potrzebuję 3 sekundy dłużej tego efektu!” – wtedy błyskawicznie wiesz, że musisz dodać 90 klatek przy 30 fps. Warto pamiętać, że różne standardy (np. 25 fps w Europie, 24 fps w kinie) mogą wymagać innych przeliczeń. Jednak zasada zawsze jest ta sama: sekundy x fps = liczba ramek. Rzetelność takiej kalkulacji pozwala uniknąć rozjazdów między warstwą wizualną a dźwiękową – co jest jednym z najczęstszych problemów w miksie filmowym.

Pytanie 19

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. HSF
B. LSF
C. LPF
D. HPF
Filtr LPF, czyli filtr dolnoprzepustowy, to podstawa w obróbce dźwięku, zwłaszcza gdy chodzi o usuwanie niepotrzebnych wysokich częstotliwości. W praktyce oznacza to, że wszystko powyżej ustalonej częstotliwości granicznej zostaje stłumione lub wręcz wycięte, a sygnały poniżej tej wartości przechodzą praktycznie bez zmian. To rozwiązanie jest codziennością w pracy z miksowaniem muzyki, masteringu czy postprodukcji dźwięku – filtr LPF przydaje się np. przy usuwaniu szumów, syczeń czy innych zakłóceń w wysokich pasmach. Moim zdaniem, to jeden z najważniejszych filtrów, bo pozwala na kontrolowanie przejrzystości miksu. Inżynierowie dźwięku korzystają z LPF, by np. „oczyścić” stopę perkusyjną z niepotrzebnych świstów, które mogą przeszkadzać w odbiorze całości utworu. Standardem branżowym jest dobieranie częstotliwości granicznej tak, by nie wpływać negatywnie na naturalność brzmienia instrumentów. Często do tego celu wykorzystuje się filtry Butterwortha lub Bessela, bo mają łagodne zbocza i minimalne zniekształcenia fazowe. Dobrze jest pamiętać, że w systemach Hi-Fi, filtr LPF służy choćby do rozdzielania pasma między subwooferem a satelitami. Odpowiednie ustawienie LPF pozwala zatem uzyskać pełniejsze i bardziej klarowne brzmienie, zgodnie z obecnymi normami pracy w audio.

Pytanie 20

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Mute.
B. Freeze.
C. Fade out.
D. Solo.
Wybrałeś „fade out” i faktycznie to jest określenie na stopniowe wyciszenie dźwięku. W branży audio ten termin stosuje się bardzo często – zarówno w nagraniach studyjnych, jak i podczas montażu dźwięku w filmach, reklamach czy podcastach. Fade out polega na łagodnym zmniejszaniu poziomu głośności sygnału do zera lub do bardzo niskiej wartości, co pozwala uzyskać naturalne wrażenie „oddalania się” dźwięku, a nie jego nagłego urwania. Najczęściej fade out stosuje się na końcu utworu muzycznego, żeby zakończenie brzmiało płynnie i nie raziło odbiorcy. Oczywiście, spotyka się też fade outy w środku miksu, na przykład gdy chcemy subtelnie wygasić jakiś efekt lub ścieżkę. W programach DAW (np. Cubase, Pro Tools czy Ableton) efekt ten realizuje się najczęściej poprzez edycję obwiedni głośności. Moim zdaniem, jeśli chcesz uzyskać profesjonalne brzmienie w produkcji audio, to umiejętność stosowania fade outów jest absolutnym fundamentem. Co ciekawe, w niektórych gatunkach muzyki elektronicznej fade out jest wręcz nieodłącznym elementem kompozycji. Warto też pamiętać, że przeciągnięty lub źle dobrany fade out może zepsuć dramaturgię utworu, więc zawsze dobrze jest przetestować różne czasy wyciszenia i dobrać je do charakteru materiału.

Pytanie 21

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 3 ścieżki.
B. 4 ścieżki.
C. 5 ścieżek.
D. 2 ścieżki.
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 22

Jaka jest maksymalna dynamika nagrania audio zapisanego w rozdzielczości 16 bitowej?

A. 192 dB
B. 96 dB
C. 48 dB
D. 144 dB
Nagrania audio zapisywane w rozdzielczości 16 bitów umożliwiają uzyskanie maksymalnej dynamiki na poziomie około 96 dB. Oznacza to, że różnica między najcichszym a najgłośniejszym możliwym do zarejestrowania sygnałem wynosi właśnie 96 decybeli. Wynika to z tego, że każdy bit kodowania daje około 6 dB dynamiki (dokładna wartość matematyczna to 6,02 dB na bit), więc 16 x 6 = 96 dB – taki wynik to praktyczny standard w nagraniach CD-Audio, które od lat 80. są zapisywane właśnie w tej rozdzielczości. W praktyce, jeśli nagrywamy np. muzykę czy dźwięk do filmu, 96 dB to już bardzo szeroki zakres – pozwala uchwycić zarówno subtelne niuanse cichego pianissima, jak i bardzo głośne fragmenty bez zniekształceń. Tak naprawdę w domowych czy nawet półprofesjonalnych warunkach rzadko kiedy wykorzystuje się pełen potencjał tej dynamiki – ograniczeniem częściej jest jakość mikrofonów, przedwzmacniaczy albo akustyka pomieszczenia. Myślę, że fajnie o tym pamiętać – często ludzie są przekonani, że bez 24 bitów nie da się uzyskać dobrego brzmienia, a prawda jest taka, że 16 bitów spokojnie wystarcza do naprawdę solidnych nagrań, jeśli dobrze opanujemy poziomy sygnału i zadbamy o resztę toru audio. W branży często spotkać można opinię, że CD-Audio to 'złoty środek' – to, co jest powyżej (czyli np. 24 bity) to już domena zaawansowanej produkcji studyjnej, gdzie margines bezpieczeństwa przy edycji i miksie jest po prostu większy.

Pytanie 23

Która z wymienionych funkcji w programie DAW standardowo umożliwia płynne przejście między dwoma sąsiadującymi regionami umieszczonymi na ścieżce w sesji montażowej?

A. Select
B. Split
C. Crossfade
D. Group
Crossfade to jedna z tych funkcji w DAW, których praktycznie nie da się zastąpić niczym innym, jeśli zależy Ci na płynnym, naturalnym połączeniu dwóch fragmentów audio lub MIDI na jednej ścieżce. Działa to tak, że na styku dwóch regionów program automatycznie tworzy nakładające się wyciszenie (fade out) i narastanie (fade in), przez co dźwięki nie urywają się gwałtownie, nie słychać charakterystycznych kliknięć i artefaktów. To podstawa przy montażu np. wokali czy gitar – bez crossfade'ów każda zmiana nagrania jest jak nożyczki, które tną bez litości. W praktyce wystarczy zaznaczyć dwa sąsiadujące regiony i wybrać opcję crossfade, a DAW zrobi resztę za nas. W większości programów jak Cubase, Pro Tools, Studio One, ta funkcja jest dostępna praktycznie od ręki – branżowy standard i nie wyobrażam sobie sensownego montażu bez niej. Warto też wiedzieć, że można edytować kształt przejścia (np. liniowe, logarytmiczne), co daje ogromną kontrolę nad brzmieniem. Moim zdaniem osoby, które opanowały crossfade'y, popełniają mniej błędów montażowych, a ich produkcje brzmią po prostu bardziej profesjonalnie. Warto się tym bawić i eksperymentować nawet na prostych projektach, bo to narzędzie, które oszczędza mnóstwo czasu i nerwów.

Pytanie 24

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. DIN
B. TDIF
C. TOSLINK
D. BNC
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 25

Który z wymienionych korektorów umożliwia automatyczne dopasowanie charakterystyki częstotliwości nagrania do nagrania wzorcowego?

A. Paragraphic EQ.
B. Matching EQ.
C. Graphic EQ.
D. Dynamic EQ.
Matching EQ to taki korektor, który w mojej opinii trochę zmienił podejście do mixu, szczególnie jak ktoś chce szybko uzyskać podobne brzmienie do jakiegoś referencyjnego utworu. Działa to na zasadzie analizy widma częstotliwościowego nagrania docelowego i porównania go z Twoim materiałem – później EQ automatycznie generuje odpowiednią krzywą korekcji, żeby Twój miks zbliżyć do wzorca. To jest mega przydatne, zwłaszcza przy masteringu, kiedy klient życzy sobie np. „żeby mój kawałek brzmiał jak nowy singiel X”. Wtedy Matching EQ jest wręcz narzędziem pierwszego wyboru, bo pozwala oszczędzić mnóstwo czasu, który normalnie poświęciłbyś na ręczne szukanie tych samych nierówności w częstotliwościach. Przykładem dobrej praktyki jest korzystanie z tej funkcji w połączeniu z własnym odsłuchem – Matching EQ powinien być punktem wyjścia, potem zawsze warto sprawdzić i ręcznie poprawić to, co komputer automatycznie „dopasował”, bo nie zawsze wszystko pasuje muzycznie czy stylistycznie. Ten rodzaj korektora jest obecny w wielu wtyczkach typu Ozone, FabFilter Pro-Q czy nawet niektórych DAW-ach. Z mojego doświadczenia wynika, że Matching EQ świetnie sprawdza się także przy naprawianiu dialogów filmowych – można ujednolicić brzmienie nagrań z różnych mikrofonów. To narzędzie nie zastępuje ucha realizatora, ale bardzo pomaga i jest zgodne z nowoczesnymi workflow w profesjonalnym audio.

Pytanie 26

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Sample Rate
B. Bit Resolution
C. Channels
D. Audio File Type
Częstotliwość próbkowania, czyli po angielsku sample rate, to zdecydowanie jeden z najważniejszych parametrów każdego pliku audio w środowisku DAW. To tak naprawdę liczba pomiarów dźwięku wykonywana w ciągu jednej sekundy – wyrażana w hercach (Hz), najczęściej można spotkać wartości typu 44100 Hz, 48000 Hz czy nawet wyższe jak 96000 Hz. Dlaczego to takie istotne? Im wyższy sample rate, tym wierniej cyfrowy zapis oddaje oryginalny sygnał analogowy, co ma ogromne znaczenie przy profesjonalnych produkcjach muzycznych, miksie czy masteringu. Świetnym przykładem jest praca w studiu nagraniowym – tam standardem branżowym jest zazwyczaj 48 kHz dla projektów filmowych lub 44,1 kHz dla muzyki na CD. Co ciekawe, sample rate wpływa również na to, jakich częstotliwości może dotyczyć zapis – zgodnie z tzw. twierdzeniem Nyquista, maksymalna częstotliwość w nagraniu to połowa sample rate. Moim skromnym zdaniem, umiejętność rozpoznania i manipulowania sample rate przydaje się nawet podczas zwykłego eksportu pliku, bo błędnie dobrana wartość potrafi popsuć kompatybilność plików między różnymi urządzeniami lub programami. W branży przyjęło się, że wiedza o sample rate to absolutna podstawa dla każdego, kto poważnie podchodzi do pracy z dźwiękiem w DAW. Warto też pamiętać, że czasem trzeba dopasować częstotliwość próbkowania do wymagań projektu albo klienta – to po prostu codzienność inżyniera dźwięku.

Pytanie 27

Procesor dźwięku realizujący efekt echo wpływa na

A. dynamikę przetwarzanego sygnału.
B. pasmo częstotliwości przetwarzanego sygnału.
C. przestrzenność materiału muzycznego.
D. wysokość przetwarzanych dźwięków.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 28

Który z wymienionych nośników standardowo wykorzystuje zapis dźwięku w formacie ATRAC?

A. CD-Audio
B. MiniDisc
C. ADAT
D. Mini-Cassette
Format ATRAC (Adaptive Transform Acoustic Coding) to autorski kodek Sony, stworzony specjalnie do kompresji dźwięku przy zachowaniu możliwie najlepszej jakości. To właśnie MiniDisc od początku swojego istnienia był projektowany pod kątem wykorzystania ATRAC jako domyślnego formatu zapisu audio. Moim zdaniem to dość ciekawe, bo znaczna część osób kojarzy MiniDisc tylko z nowoczesnym (jak na lata 90.) nośnikiem, a mało kto zwraca uwagę na aspekt samej kompresji – to właśnie dzięki ATRAC MiniDisc pozwalał na dłuższe nagrania przy bardzo zbliżonej do CD jakości. W praktyce, w świecie studiów nagraniowych czy nawet domowego audio ATRAC miał spore znaczenie, bo z jednej strony pozwalał zaoszczędzić miejsce, a z drugiej zachować kompromis pomiędzy jakością a wielkością pliku. Sam MiniDisc, choć nie przebił się tak mocno jak CD czy MP3, był wykorzystywany w reportażach radiowych, przez dziennikarzy terenowych czy nawet DJ-ów do szybkiego przygotowywania miksów. Zresztą niektóre przenośne odtwarzacze MiniDisc do dziś uchodzą za bardzo wytrzymałe i praktyczne, szczególnie jeśli chodzi o nagrywanie z wejścia liniowego. Dobrą praktyką przy pracy z MiniDiscami zawsze było uwzględnienie stratności kodeka ATRAC przy archiwizacji materiałów, ale mimo to ten system przez lata sprawdzał się w terenie dużo lepiej niż klasyczne kasety czy nawet pierwsze odtwarzacze MP3. Pewnie dziś ATRAC i MiniDisc to ciekawostka, ale kiedyś był to naprawdę solidny standard.

Pytanie 29

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. pola magnetycznego.
B. wilgotności powietrza.
C. pola elektrostatycznego.
D. promieniowania ultrafioletowego.
Promieniowanie ultrafioletowe (UV) jest jednym z największych wrogów nośników optycznych, takich jak płyty CD. To wynika głównie z tego, że warstwa zapisywalna na CD, szczególnie w przypadku płyt CD-R czy CD-RW, jest bardzo wrażliwa na działanie światła UV. Promieniowanie to powoduje degradację materiałów organicznych w barwniku płyty, przez co dane mogą stać się nieczytelne – płyta po prostu przestaje działać. W praktyce, jeśli płyta leży przez dłuższy czas na biurku w nasłonecznionym pokoju, może się okazać, że po kilku latach nie da się już jej odczytać. Właśnie dlatego większość archiwistów czy specjalistów IT zwraca uwagę, żeby nośniki optyczne przechowywać w zamkniętych, nieprzezroczystych pudełkach, najlepiej w ciemnych pomieszczeniach, gdzie nie ma dostępu światła słonecznego. Moim zdaniem, choć czasem ludzie nie doceniają tego zagrożenia, to właśnie promienie UV są najczęstszą przyczyną utraty danych na CD przechowywanych w złych warunkach. Z mojego doświadczenia wynika, że nawet stare płyty z lat 90-tych, jeśli były trzymane w szufladzie, nadal działają sprawnie, a te zostawione na słońcu po prostu przepadają. Najlepszą praktyką jest więc unikanie ekspozycji na światło oraz przechowywanie płyt w kontrolowanej temperaturze i wilgotności. Warto też pamiętać, że profesjonalne archiwizowanie danych na nośnikach optycznych zawsze uwzględnia zabezpieczenie ich przed promieniowaniem UV.

Pytanie 30

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. SESSION
B. I/O
C. FILE
D. EDIT
Sekcja I/O (Input/Output) w oprogramowaniu typu DAW rzeczywiście odpowiada za konfigurację połączeń z urządzeniami zewnętrznymi, jak interfejsy audio. To właśnie tutaj ustalamy, które wejścia i wyjścia fizyczne (np. linie mikrofonowe czy wyjścia monitorowe) będą widoczne i dostępne dla ścieżek projektu. Najczęściej spotkasz się z tym podczas ustawiania sesji nagraniowej – przykładowo, jeżeli chcesz nagrać gitarę podpiętą do wejścia 3 interfejsu audio, przypisujesz to wejście konkretnej ścieżce właśnie w sekcji I/O. I/O pozwala na zdefiniowanie, które sygnały z DAW mają trafić do konkretnych portów w Twoim sprzęcie oraz odwrotnie. Moim zdaniem, opanowanie tej sekcji to absolutna podstawa dla każdego, kto poważnie myśli o profesjonalnym nagrywaniu i miksowaniu. Bez odpowiedniego skonfigurowania I/O niemożliwe byłoby np. nagranie kilku instrumentów naraz czy skierowanie miksu na osobne tory odsłuchowe. W praktyce, nawet w prostych domowych studiach, dobrze ustawione I/O pozwala zaoszczędzić mnóstwo czasu i nerwów. Często zapomina się o tym kroku, a tak naprawdę to serce komunikacji DAW z całym światem zewnętrznym – od mikrofonu, przez syntezatory, po końcowe wyjście na monitory czy mastering. Z mojego doświadczenia, im szybciej to zrozumiesz i ogarniesz, tym szybciej DAW przestanie być dla Ciebie czarną skrzynką.

Pytanie 31

W którym z wymienionych programów nie można wykonać montażu dźwięku równolegle z obrazem?

A. Audacity.
B. Audition.
C. Logic Pro X.
D. Pro Tools.
Audacity to popularny, darmowy edytor audio, ale nie jest to program do montażu dźwięku w połączeniu z obrazem. W praktyce, jeżeli pracujemy przy produkcji wideo, nawet na prostym poziomie – np. montując filmy do internetu, relacje czy krótkie reklamy – to narzędzia takie jak Adobe Audition, Pro Tools albo Logic Pro X pozwalają zsynchronizować dźwięk bezpośrednio z materiałem wideo, obserwując obraz i ścieżkę dźwiękową jednocześnie. Audacity niestety nie obsługuje podglądu wideo ani importu plików filmowych, co bardzo ogranicza jego zastosowanie w profesjonalnym postprodukcji. Moim zdaniem to dość poważne ograniczenie – bo nawet jeśli ktoś potrafi w Audacity świetnie ciąć czy poprawiać dźwięk, to nie zrobi synchronizacji z obrazem, a to podstawa w filmie, reklamie czy animacji. Przemysł filmowy i telewizyjny od lat bazuje na programach DAW z funkcją importu wideo i dokładnego, klatkowego dopasowania dźwięku. Co ciekawe, nawet amatorskie DAWy powoli wprowadzają obsługę plików wideo, bo zapotrzebowanie na produkcję treści multimedialnych jest coraz większe. Audacity świetnie się sprawdza do prostych obróbek audio, podcastów, digitalizacji kaset czy czyszczenia nagrań, ale do pracy synchronicznej z obrazem po prostu się nie nada. Szkoda, ale taka jest specyfika tego softu.

Pytanie 32

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. MP3
B. CDA
C. RIFF
D. WAV
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 33

W celu zabezpieczenia nagrania wokalu przed powstaniem zakłóceń powodowanych przez spółgłoski zwarte, w dokumentacji nagrania należy zastosować

A. low-cut-filter.
B. kompresor.
C. equalizer.
D. de-esser.
Low-cut-filter, czyli filtr górnoprzepustowy, to jedno z narzędzi, które praktycznie zawsze używam przy nagrywaniu wokalu, szczególnie w profesjonalnym lub półprofesjonalnym studio. Jego zadaniem jest eliminacja najniższych częstotliwości – tych, które często nie są pożądane w nagraniu głosu, a pochodzą na przykład od wstrząsów, stuknięć statywu, czy właśnie spółgłosek zwartych typu „p”, „b”, „t”. Kiedy ktoś śpiewa lub mówi blisko mikrofonu, te spółgłoski powodują swojego rodzaju wybuchowe podmuchy powietrza, które mogą generować zakłócenia na poziomie najniższych Hz. Low-cut pozwala je skutecznie wyciąć, nie ingerując przy tym w klarowność wyższych częstotliwości, więc nie wpływamy negatywnie na barwę wokalu. W studiach nagraniowych często ustawia się taki filtr już na poziomie preampu lub jeszcze przed wejściem sygnału do interfejsu audio. Dla mnie to podstawa workflow, zwłaszcza gdy nie korzystam z pop-filtra lub nagrywam w warunkach domowych. Dobrą praktyką jest nie przesadzać z ustawieniem częstotliwości odcięcia – zwykle 80–120 Hz wystarcza. Moim zdaniem to jeden z podstawowych tricków, który odróżnia amatorskie nagranie od profesjonalnego brzmienia.

Pytanie 34

Dokumentacją, stanowiącą podstawę produkcji słuchowiska radiowego, jest

A. scenariusz.
B. utwór literacki.
C. licencja.
D. scenopis.
Scenariusz to absolutna podstawa przy produkcji słuchowiska radiowego. Bez niego ciężko wyobrazić sobie profesjonalną realizację – to właśnie ten dokument dokładnie opisuje przebieg akcji, kwestie bohaterów, didaskalia, wszystkie efekty dźwiękowe i muzyczne, a nawet wskazówki dotyczące intonacji czy tempa wypowiedzi. W praktyce scenariusz pełni taką rolę jak partytura w orkiestrze – każdy członek ekipy wie, kiedy wchodzi jego rola i co dokładnie powinno być zrobione. Standardy branżowe, szczególnie w rozgłośniach publicznych, zakładają, że bez kompletnego scenariusza nie rozpoczyna się prób nagraniowych ani montażu. Z mojego doświadczenia wynika, że dobrze przygotowany scenariusz pozwala uniknąć chaosu i znacznie skraca czas produkcji, bo wszystko jest rozpisane „czarno na białym”. Warto pamiętać, że scenariusz w radiu jest jeszcze ważniejszy niż np. w teatrze, bo medium opiera się wyłącznie na dźwięku i nie ma miejsca na improwizację wizualną. Często spotykałem się z opinią, że dobry scenariusz to połowa sukcesu – w pełni się z tym zgadzam. Dobrą praktyką jest także zostawienie marginesu na drobne adaptacje podczas nagrania, ale zawsze bazą jest właśnie scenariusz. Przy produkcjach profesjonalnych nie istnieje opcja pracy bez tego dokumentu.

Pytanie 35

Która z wymienionych metod kompresji danych zapewnia najmniejszy rozmiar pliku mp3 przy najlepszej jakości dźwięku?

A. Zmiennej przepływności bitów.
B. Dostępnej przepływności bitów.
C. Uśrednionej przepływności bitów.
D. Stałej przepływności bitów.
Metoda kompresji mp3 oparta o zmienną przepływność bitów (VBR – Variable Bit Rate) faktycznie daje najlepszy kompromis pomiędzy jakością dźwięku a rozmiarem pliku. VBR inteligentnie dostosowuje ilość używanych bitów do aktualnych potrzeb utworu – fragmenty bardziej skomplikowane pod względem dźwięku (np. dynamiczne partie orkiestry, złożone harmonie) dostają większą liczbę bitów, a te prostsze (np. cisza, powtarzalny beat) są kompresowane mocniej. Dzięki temu plik końcowy jest mniejszy niż przy stałej przepływności, a jakość audio pozostaje bardzo wysoka, często nieodróżnialna od oryginału dla większości użytkowników. W branży muzycznej i w zastosowaniach amatorskich to właśnie VBR uchodzi za standard, gdy komuś zależy na jak najlepszym stosunku jakości do rozmiaru – spotkałem się z tym setki razy przy ripowaniu płyt CD czy tworzeniu podcastów. Warto jeszcze dodać, że wiele serwisów streamingowych oraz narzędzi do archiwizacji muzyki pozwala właśnie na wybór trybu VBR, bo po prostu daje najwięcej korzyści. Według mnie, z praktyki i testów porównawczych – różnice w jakości między VBR a stałą przepływnością przy tym samym rozmiarze pliku są bardzo wyraźne na korzyść VBR. To też zgodne z ogólnymi zaleceniami organizacji takie jak Fraunhofer IIS (twórcy formatu MP3).

Pytanie 36

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-R
B. DVD+R
C. DVD+R DL
D. DVD-RW
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 37

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.0
B. 2.2
C. 2.1
D. 1.1
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 38

Która z funkcji dostępnych w sesji montażowej programu DAW umożliwia efekt płynnego przejścia między dwoma fragmentami nagrania ułożonymi na tej samej ścieżce?

A. Detect transient.
B. Cross-fade.
C. Overlap.
D. Slide.
Właśnie o to chodzi w cross-fade! Ta funkcja jest jednym z najczęściej używanych narzędzi podczas montażu audio w DAW-ach, takich jak Ableton Live, Cubase czy Pro Tools. Cross-fade polega na równoczesnym wygaszaniu końcówki pierwszego fragmentu i narastaniu początku drugiego, co pozwala na uzyskanie płynnego, niemalże niewyczuwalnego przejścia między dwoma nagraniami na tej samej ścieżce. Dzięki temu unikamy charakterystycznych kliknięć, nagłych skoków głośności albo nienaturalnych zmian brzmienia, które mogą powstać przy zwykłym sklejeniu plików. Z mojego doświadczenia przy obróbce wokali czy gitar cross-fade jest absolutnie nie do przecenienia – pozwala zatuszować wszelkie drobne nierówności albo pokryć przejścia, które bez tego byłyby po prostu słyszalne jako cięcia. Branżowym standardem jest zawsze stosować cross-fady tam, gdzie łączymy dwa fragmenty tej samej partii – to nie tylko wygoda, ale i profesjonalizm, bo słuchacz nie ma prawa zauważyć, że cokolwiek było edytowane. Warto wspomnieć, że DAW-y często pozwalają regulować kształt krzywej cross-fade (np. liniowa, logarytmiczna, S-curve), co dodatkowo daje kontrolę nad charakterem przejścia. Takie narzędzie to podstawa warsztatu montażysty audio, niezależnie od stylu muzycznego czy poziomu zaawansowania.

Pytanie 39

Funkcja Duplicate w procesie edycji regionów służy do tworzenia kopii

A. regionu audio.
B. ścieżki.
C. śladu MIDI.
D. procesora audio.
Funkcja Duplicate w kontekście edycji regionów najczęściej służy do tworzenia kopii wybranego regionu audio w projekcie. To rozwiązanie jest bardzo praktyczne – szczególnie gdy chcesz powielić fragment nagrania, np. refren, pojedynczy takt perkusji czy efekt dźwiękowy, bez konieczności ponownego importowania lub nagrywania. W profesjonalnych stacjach DAW, takich jak Logic Pro, Cubase czy Pro Tools, duplikowanie regionów audio umożliwia szybkie budowanie aranżacji i oszczędza mnóstwo czasu. Moim zdaniem to jedno z tych narzędzi, które pozwala zachować płynność pracy, szczególnie przy produkcji muzycznej, gdzie często pracuje się na powtarzalnych wzorcach. Duplicate zachowuje wszystkie parametry oryginalnego regionu – długość, pozycję względem siatki, a nawet ewentualne automatyki, jeśli są z nim powiązane. Użytkownicy mogą też często wybrać, czy chcą utworzyć kopię niezależną, czy tzw. kopię odwołującą się do tego samego pliku audio (co oszczędza miejsce na dysku). To zgodne z dobrymi praktykami branżowymi: powielanie regionów w ten sposób pozwala na szybkie testowanie różnych wariantów aranżacyjnych bez ryzyka utraty oryginalnego materiału. W praktyce, jeśli masz na przykład fajną frazę gitarową i chcesz ją powtórzyć w innym miejscu utworu, Duplicate robi to jednym kliknięciem. Dla mnie to podstawa ergonomicznej pracy w studiu i coś, czego warto używać na co dzień – nawet jeśli dopiero zaczynasz przygodę z DAW-ami.

Pytanie 40

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.m4p
B. *.mp4
C. *.mp3
D. *.m4a
Rozszerzenia *.m4a, *.mp3 i *.m4p często pojawiają się w kontekście plików audio, ale każdy z nich skupia się wyłącznie na dźwięku, bez wsparcia dla ścieżek wideo. *.mp3 to kultowy wręcz format, chyba każdy miał z nim kiedyś do czynienia, jednak służy jedynie do kompresji muzyki lub innego dźwięku – nie znajdziesz w nim obrazu, nawet jeśli by się chciało. Podobnie jest z *.m4a, które bazuje na MPEG-4 Audio i zapewnia lepszą jakość niż MP3 przy tym samym rozmiarze pliku, ale jedynie w kontekście dźwięku. Co ciekawe, wielu myli .m4a z .mp4, bo oba są powiązane ze standardem MPEG-4 – jednak .m4a nie wspiera video, a po prostu jest bardziej nowoczesnym odpowiednikiem plików mp3. Jeśli chodzi o *.m4p, to jest to w zasadzie plik .m4a z dodatkowym zabezpieczeniem DRM, najczęściej spotykany w plikach zakupionych kiedyś w iTunes Store. Także tutaj – żadnych szans na obraz, bo zabezpieczenia nie dodają funkcji wideo, tylko ograniczają odtwarzanie na innych urządzeniach. Z mojego doświadczenia najczęstszym błędem jest utożsamianie końcówek 'm4a' i 'mp4' przez podobieństwo nazw, ale rozszerzenie .mp4 to jedyny z wymienionych, który realnie obsługuje wideo i audio jednocześnie. W praktyce pliki audio (mp3, m4a, m4p) odtwarzasz w aplikacjach muzycznych, a filmy w .mp4 praktycznie w każdym odtwarzaczu multimedialnym czy przeglądarce – taka jest różnica, o której warto pamiętać przy pracy z multimediami. Moim zdaniem, wybierając format do prezentacji lub publikacji materiału zawierającego obraz i dźwięk, zawsze warto postawić na sprawdzonego MP4.