Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 17:06
  • Data zakończenia: 30 kwietnia 2026 17:11

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Mute
B. Copy
C. Lock
D. Split
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 2

Który dokument zawiera spis m.in. efektów synchronicznych w filmie oraz ich położenie na osi czasu?

A. Skrypt.
B. Playlista.
C. Scenariusz.
D. Lista EDL.
Wiele osób myli się, sądząc, że dokumenty takie jak skrypt czy scenariusz zawierają szczegółowe informacje techniczne dotyczące efektów synchronicznych i ich umiejscowienia na osi czasu filmu. Skrypt zazwyczaj jest opisem przebiegu dźwięku, z podziałem na dialogi, ruchy aktorów czy główne działania, lecz nie zawiera precyzyjnych danych o synchronizacji efektów dźwiękowych z konkretnymi momentami filmu – to zdecydowanie nie ta rola. Scenariusz z kolei skupia się na opisie fabuły, dialogów, ewentualnie pewnych sugestiach dotyczących dźwięku lub obrazu, ale nie prowadzi się w nim rozpiski typowo technicznej, która pozwalałaby na płynne odczytanie informacji przez maszyny montażowe czy operatorów. Playlista często kojarzy się z listą utworów muzycznych lub sekwencją scen, które mają być odtwarzane, ale nie jest to dokument standardowo używany do precyzyjnego określania punktów synchronizacji efektów czy cięć w filmie. Moim zdaniem, często problem wynika z nieznajomości narzędzi pracy montażysty i dźwiękowca; w praktyce branżowej właśnie lista EDL jest uznawana za format wymiany informacji technicznych – pozwala na automatyczny import i eksport danych w profesjonalnych programach montażowych, uwzględniając dokładne położenie każdego elementu na osi czasu. To właśnie EDL daje możliwość zachowania pełnej zgodności pomiędzy obrazem a dźwiękiem, co w przypadku skryptu czy scenariusza po prostu nie jest możliwe. Playlista, nawet jeśli pojawia się w kontekście produkcji, nie służy do zarządzania synchronizacją efektów na osi czasu. Typowym błędem jest utożsamianie dokumentów kreatywnych czy organizacyjnych z narzędziami stricte technicznymi. Efektywna postprodukcja wymaga znajomości takich formatów jak EDL, które pozwalają przenieść projekt między różnymi środowiskami bez utraty informacji o synchronizacji i strukturze filmu.

Pytanie 3

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. dBp
B. AU
C. dBFS
D. LUFS
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 4

Zastosowanie opcji Stereo Split w oprogramowaniu DAW podczas zgrywania sesji spowoduje zapis kanału lewego i kanału prawego do

A. dwóch odrębnych plików stereo.
B. jednego pliku mono.
C. dwóch odrębnych plików mono.
D. jednego pliku stereo.
Opcja <i>Stereo Split</i> w programach DAW, takich jak Cubase, Logic czy Pro Tools, to bardzo przydatna funkcja, szczególnie jeśli pracujesz przy dużych projektach albo musisz później miksować dźwięk na innym sprzęcie. Zaznaczenie tej opcji podczas eksportowania ścieżki stereo powoduje, że DAW rozdziela sygnał na dwa osobne pliki mono – jeden z nich zawiera wyłącznie kanał lewy, a drugi tylko prawy. To jest zgodne ze standardami produkcji audio, zwłaszcza przy współpracy międzystanowiskowej lub kiedy ścieżki mają być poddane dalszej obróbce w innym programie. Z mojego doświadczenia, takie rozwiązanie daje większą elastyczność, bo możesz np. niezależnie zapanować nad panoramą czy poziomem lewego i prawego kanału już na etapie miksu końcowego. Co ciekawe, w profesjonalnych studiach bardzo często wymaga się dostarczania właśnie splitowanych plików mono, bo przy masteringu czy opracowywaniu ścieżek do filmów czy reklam jest to dużo wygodniejsze i bardziej przewidywalne. Warto też dodać, że dwa pliki mono są kompatybilne praktycznie z każdym oprogramowaniem czy sprzętem audio, nawet starszymi konsolami czy systemami broadcastowymi. Tak więc, jeśli zależy Ci na profesjonalizmie i kompatybilności materiału dźwiękowego, zdecydowanie warto znać i korzystać z tej opcji. Zresztą, ja sam nieraz miałem sytuację, że tylko dzięki splitowi mogłem sprawnie poprawić miks bez ponownego eksportowania całej sesji.

Pytanie 5

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. częstotliwości próbkowania sygnału w sesji.
B. koloru ścieżek w sesji.
C. kształtu fade in i fade out w sesji.
D. liczby grup ścieżek w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 6

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Crossfade
B. Invert
C. Cut
D. Gain
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 7

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 1 MB
B. Około 5 MB
C. Około 10 MB
D. Około 20 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 8

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.mp3
C. *.ogg
D. *.aiff
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.

Pytanie 9

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. BUS
B. VCA
C. MASTER
D. AUX
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 10

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Rider techniczny.
B. Partytura.
C. Lista znaczników.
D. Scenariusz.
To właśnie scenariusz jest podstawą literacką, od której zaczyna się cała przygoda z produkcją słuchowiska radiowego. Bez tego żaden reżyser, realizator czy zespół aktorski nie miałby wyjściowego materiału do pracy. Scenariusz słuchowiskowy nie tylko zawiera teksty dialogów i monologów, ale także precyzyjnie opisuje dźwięki tła, efekty specjalne, momenty muzyczne czy pauzy. Co ciekawe, dobry scenariusz często rozpisuje nawet nastrój scen i emocje bohaterów – to bardzo pomaga aktorom, ale i realizatorom dźwięku. W praktyce, w branży radiowej scenariusz jest dokumentem centralnym, wokół którego kręci się cała produkcja. Bez niego trudno byłoby zachować spójność fabularną, dramaturgiczną i techniczną. Moim zdaniem, umiejętność czytania i interpretacji scenariusza to naprawdę podstawa w pracy przy słuchowiskach – wielu młodych realizatorów zapomina o tym, próbując improwizować, a później efekty bywają... no, różne. Dobrą praktyką jest, by scenariusz był stworzony z myślą o dźwięku, a nie tylko przepisany z opowiadania czy sztuki teatralnej. To wymaga wyczucia specyfiki radia. No i pamiętać trzeba, że tylko scenariusz daje pełen obraz tego, jak historia ma wybrzmieć w eterze.

Pytanie 11

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. dostępną przepływność bitową.
B. stałą przepływność bitową.
C. średnią przepływność bitową.
D. zmienną przepływność bitową.
Tryb CBR, czyli Constant Bit Rate, faktycznie oznacza zastosowanie stałej przepływności bitowej podczas konwersji do formatu MP3. To dosyć popularny wybór, zwłaszcza gdy mamy na myśli np. emisję radiową czy archiwizację plików audio na nośnikach o ograniczonej pojemności – płyty CD, stare odtwarzacze MP3 czy nawet niektóre streamy w sieci. W CBR każda sekunda dźwięku kodowana jest zawsze z tą samą liczbą bitów, niezależnie od tego, czy w danym fragmencie utworu jest dużo szczegółów czy akurat jest cisza lub prosty dźwięk. Pozwala to łatwo przewidzieć końcowy rozmiar pliku i utrzymać stałe wymagania transferowe, co bywa kluczowe np. w sieciach o ograniczonej przepustowości. W praktyce branżowej CBR stosuje się też wtedy, gdy zależy nam na kompatybilności – część starszych urządzeń obsługuje wyłącznie nagrania CBR i może mieć problem z innymi trybami. Oczywiście, CBR nie zawsze zapewnia tak dobrą jakość jak VBR (zmienna przepływność), bo czasem "przepłaca" za fragmenty proste, ale za to jest przewidywalny i stabilny. Spotkałem się z tym, że ludzie wybierają CBR nawet w podcastach, żeby nie było niespodzianek z długością pliku. Jeśli komuś zależy na przewidywalności i prostocie, to CBR jest sensownym wyborem – i dokładnie dlatego ta odpowiedź jest prawidłowa.

Pytanie 12

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby Digital EX
B. Dolby Digital
C. Dolby TrueHD
D. Dolby AC3
Dolby TrueHD to faktycznie format wielokanałowej, bezstratnej kompresji dźwięku, który bardzo często spotyka się w domowych systemach kina domowego, a także na płytach Blu-ray. Co ciekawe, moim zdaniem jest to jeden z najbardziej zaawansowanych technologicznie kodeków audio dostępnych dla użytkowników końcowych. Dzięki zastosowaniu technologii bezstratnej kompresji, Dolby TrueHD pozwala na zachowanie jakości dźwięku identycznej z oryginalnym zapisem studyjnym – żaden szczegół nie ginie, nie ma żadnych strat jakości jak w przypadku formatów stratnych takich jak Dolby Digital. W praktyce, jeżeli zależy komuś na słuchaniu muzyki czy oglądaniu filmów z dźwiękiem przestrzennym naprawdę najwyższej jakości (np. 7.1 kanałów), to właśnie TrueHD jest jednym z najlepszych wyborów. Warto dodać, że ten format jest zgodny ze standardem HDMI, co ułatwia integrację z nowoczesnym sprzętem AV. Z mojego doświadczenia, osoby wykorzystujące Dolby TrueHD często podkreślają, że różnica w detaliczności i dynamice dźwięku jest słyszalna nawet na lepszych soundbarach, nie mówiąc już o rozbudowanych systemach głośnikowych. To nie jest taki zwykły kodek jak AC3 – to już wyższa liga, jeśli chodzi o jakość i zastosowanie w branży.

Pytanie 13

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .fla
B. .ldm
C. .edl
D. .cmx
Plik z rozszerzeniem .edl to tzw. Edit Decision List, czyli cyfrowa lista montażowa. To w zasadzie taki branżowy standard w postprodukcji filmowej i telewizyjnej. Stosuje się go do precyzyjnego opisywania kolejności ujęć, punktów cięcia, przejść oraz innych parametrów montażowych. W praktyce EDL jest czymś w rodzaju „przepisu” dla montażysty – zawiera kolejność i czas trwania poszczególnych ujęć, wskazuje nawet źródła materiałów i konkretne timecode’y do wejścia i wyjścia. Pliki .edl są bardzo uniwersalne, bo da się je wymieniać między różnymi systemami montażowymi, na przykład Avid Media Composer, DaVinci Resolve czy Adobe Premiere Pro. Moim zdaniem, to właśnie ta uniwersalność i prostota tekstowego zapisu sprawiają, że EDL od lat funkcjonuje jako pewien wzorzec wymiany projektów montażowych. Co ciekawe, niektóre firmy wciąż korzystają z EDL-i do archiwizacji lub transferu projektów do korekcji barwnej. Warto dodać, że istnieją też nowsze formaty, jak XML czy AAF, ale EDL pozostaje niezastąpiony przy prostszych projektach albo szybkiej komunikacji między studiem montażowym a np. dźwiękowcami. Jeśli planujesz działać przy postprodukcji, dobrze znać strukturę EDL, bo prędzej czy później na pewno się z nim zetkniesz.

Pytanie 14

W celu zapewnienia możliwości zapisu i odczytu nośnika na komputerach z systemem Windows i MacOS, należy sformatować go z użyciem systemu plików

A. HFS+
B. FAT32
C. NTFS
D. Ext4
Wybór systemu plików FAT32 w tym pytaniu jest jak najbardziej uzasadniony, szczególnie kiedy zależy nam na kompatybilności między różnymi systemami operacyjnymi. FAT32 to system plików, który funkcjonuje od lat 90. i do dziś jest wspierany przez praktycznie wszystkie wersje Windows oraz macOS. Dzięki temu możesz bez problemu przenosić dane pomiędzy komputerami z obu tych systemów, niezależnie czy pracujesz na starym laptopie z Windows XP, czy na najnowszym MacBooku. Co ciekawe, FAT32 obsługują też konsole do gier, aparaty cyfrowe czy smart TV, więc jak ktoś lubi mieć jeden pendrive do wszystkiego, to właśnie ten format zazwyczaj się sprawdza. Oczywiście, FAT32 ma swoje ograniczenia – na przykład nie zapiszesz pliku większego niż 4 GB, co czasem bywa problematyczne przy filmach w wysokiej jakości czy dużych archiwach. Ale do zwykłego przenoszenia dokumentów, zdjęć czy muzyki sprawdza się znakomicie. W branży IT często rekomenduje się FAT32 jako najbezpieczniejszy wybór, gdy nie mamy pewności, na jakim sprzęcie będą używane nasze dane. Moim zdaniem, mimo że są nowsze formaty jak exFAT (też dość uniwersalny, ale nie zawsze obsługiwany przez starsze urządzenia), to jednak FAT32 cały czas króluje, zwłaszcza gdy liczy się maksymalna kompatybilność.

Pytanie 15

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Normalizacja.
B. Limiting.
C. Kompresja.
D. Ekspansja.
Normalizacja faktycznie nie wpływa na rozpiętość dynamiczną nagrania, czyli różnicę pomiędzy najcichszym a najgłośniejszym sygnałem w ścieżce audio. To taki trochę trik stosowany głównie po to, żeby wyrównać poziom głośności całego materiału do określonego maksimum, najczęściej do 0 dBFS, nie zmieniając przy tym relacji między poszczególnymi fragmentami. W praktyce, jak weźmiesz nagranie i zastosujesz normalizację, to po prostu najgłośniejszy moment zostaje podciągnięty do wybranego poziomu, a cała reszta idzie proporcjonalnie w górę – żadne ściski, żadne „rozpychanie” czy zawężanie dynamiki nie ma miejsca. To się przydaje np. jak miksujesz pliki z różnych źródeł, gdzie jeden utwór jest wyraźnie cichszy od innego – normalizacja pozwala szybko wyrównać te poziomy, żeby potem łatwiej można było porównywać lub montować. W branży to podstawa przy eksporcie czy masteringu, ale nikt nie traktuje tego narzędzia jako proces kształtujący dynamikę. Dla odmiany, limiter, kompresor czy ekspander ingerują już w relacje między głośnymi a cichymi fragmentami – dlatego właśnie tylko normalizacja jest tutaj poprawną odpowiedzią. Moim zdaniem, dobrze znać takie różnice, bo potem bez problemu można przewidzieć skutki każdego używanego narzędzia i nie robić przypadkiem bałaganu w miksie.

Pytanie 16

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Czterokrotny.
B. Trzykrotny.
C. Dwukrotny.
D. Pięciokrotny.
Zmniejszenie poziomu sygnału o 6 dB to klasyczny przypadek w technice radiowej, telekomunikacji i nagłośnieniu. Praktycy często używają tej wartości jako punktu odniesienia, bo spadek o 6 dB odpowiada bardzo konkretnemu efektowi – moc sygnału spada wtedy dokładnie czterokrotnie. Wynika to z logarytmicznego charakteru skali decybelowej. Wzór na przeliczanie decybeli na stosunek mocy wygląda tak: LdB = 10 * log10(P2/P1). Czyli jeśli LdB = -6, to P2/P1 = 10^(-6/10) ≈ 0,25 – czyli dokładnie 1/4. Jest to bardzo użyteczne np. przy ustawianiu wzmacniaczy, analizie strat sygnału na kablach albo w rozważaniach dotyczących tłumienia sygnałów w instalacjach antenowych. Branżowe standardy, jak np. ITU-T czy rekomendacje IEEE, często wskazują właśnie 3 dB (dwukrotny spadek) oraz 6 dB (czterokrotny spadek) jako kluczowe punkty odniesienia. Moim zdaniem, warto to mieć w małym palcu, bo bardzo często w praktyce się pojawia pytanie: ile to jest spadek o 6 dB i co to oznacza dla jakości sygnału? Takie podstawy naprawdę ułatwiają analizowanie bardziej złożonych przypadków, gdzie na przykład trzeba szacować straty na trasie sygnału albo dobierać odpowiednie parametry urządzeń.

Pytanie 17

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. ALAC
B. AAC
C. AIFF
D. WAV
Format AAC to faktycznie przykład kodowania stratnego, czyli takiego, gdzie podczas kompresji część danych dźwiękowych jest bezpowrotnie usuwana. Szczerze mówiąc, w codziennym użyciu rzadko się o tym myśli, ale to właśnie dzięki temu pliki AAC są dużo mniejsze niż np. WAV czy AIFF, a mimo to brzmią całkiem nieźle. AAC jest standardem w takich serwisach jak YouTube, Apple Music czy Spotify – to nie przypadek, bo wyciśnięto z niego maksimum efektywności. Co ciekawe, wiele smartfonów i odtwarzaczy multimedialnych domyślnie wspiera odtwarzanie AAC, co znacznie ułatwia przenoszenie muzyki między urządzeniami. Moim zdaniem, jeśli komuś zależy na szybkim transferze i niezłej jakości dźwięku – ten format wypada wręcz znakomicie. Trzeba pamiętać, że stratność polega na celowym usuwaniu tych fragmentów sygnału, których ucho ludzkie najczęściej nie wychwytuje. W praktyce – różnica między AAC a WAV jest prawie nieodczuwalna na standardowym sprzęcie audio, a zyskujemy sporo miejsca na dysku. Warto znać ten format, bo to dziś branżowy standard w przypadku streamingu multimediów. ALAC, WAV i AIFF nie mają kompresji stratnej – to też warto zapamiętać, bo czasem różnice jakościowe mają znaczenie np. w pracy studyjnej.

Pytanie 18

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 32 000 Hz
B. 48 000 Hz
C. 96 000 Hz
D. 44 100 Hz
Zasada próbkowania, czyli twierdzenie Nyquista-Shannona, mówi jasno: aby móc poprawnie zdigitalizować sygnał analogowy, musimy próbkować go z częstotliwością co najmniej dwa razy większą niż najwyższa częstotliwość w jego widmie. Przy dźwięku o maksymalnej częstotliwości 20 kHz, to właśnie 40 kHz jest tym absolutnym minimum. Jednak w praktyce, technologia audio przyjęła nieco wyższą wartość, czyli 44 100 Hz, głównie ze względu na potrzeby zapisu na płytach CD oraz rezerwę na filtry antyaliasingowe. Gdybyśmy wybrali niższą częstotliwość, mogłyby się pojawić zniekształcenia aliasingu, które potrafią solidnie namieszać szczególnie w muzyce czy nagraniach mowy, gdzie precyzja jest kluczowa. Warto też zauważyć, że 44 100 Hz to dziś taki złoty standard – spotykany właściwie wszędzie, od odtwarzania muzyki po produkcję materiałów do internetu. Z mojego doświadczenia wynika, że niższe próbkowania bardzo szybko ujawniają swoje ograniczenia, nawet laik wyczuje pogorszenie jakości dźwięku. W branży stosuje się czasem wyższe wartości, ale to już raczej dla specjalistycznych zastosowań, np. w studiach nagraniowych. Moim zdaniem, bez znajomości tej podstawowej zasady ciężko ruszyć dalej w świecie cyfrowego audio, bo każdy etap obróbki opiera się właśnie na tej logice i konsekwencjach wyboru częstotliwości próbkowania.

Pytanie 19

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 33 Gb/s
B. 12 Mb/s
C. 480 Mb/s
D. 15 Gb/s
Maksymalna prędkość transmisji danych w standardzie USB 2.0 to faktycznie 480 Mb/s, czyli około 60 MB/s. To właśnie ten parametr sprawił, że USB 2.0 przez wiele lat był dominującym standardem w komputerach, drukarkach, skanerach czy zewnętrznych dyskach twardych. Z mojego doświadczenia – w praktycznych zastosowaniach rzadko kiedy uzyskuje się pełne 480 Mb/s, bo dochodzą narzuty protokołu, przeciążenia magistrali, czy jakość kabla, ale standard mówi jasno: 480 Mb/s to maksimum. Warto pamiętać, że wcześniejsza wersja USB 1.1 miała limit zaledwie 12 Mb/s – to ogromna różnica, jeśli chodzi o kopiowanie plików, podłączanie kamer czy transfer z pendrive'ów. Standard USB 2.0 pojawił się na rynku ok. 2000 roku i do dziś spotykany jest w wielu urządzeniach, zwłaszcza tych tańszych. Osobiście uważam, że znajomość tych wartości jest bardzo przydatna np. przy wyborze sprzętu – łatwo wtedy uniknąć rozczarowań związanych z prędkością przesyłania danych. Dla porównania, USB 3.0 daje już 5 Gb/s, a to już zupełnie inna liga, więc zawsze warto sprawdzać, jaki port się wybiera do szybkich operacji. Z punktu widzenia branży: wiedza o ograniczeniach starszych standardów jest niezbędna przy serwisie i modernizacji sprzętu.

Pytanie 20

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. SN
B. FT
C. BD
D. HH
SN to skrót od angielskiego słowa 'snare', czyli werbel, który jest centralnym elementem większości zestawów perkusyjnych. Werbel wyróżnia się charakterystycznym, ostrym brzmieniem dzięki sprężynom (strunom) umieszczonym pod dolną membraną – to właśnie te sprężyny nadają mu specyficzny, „szeleszczący” dźwięk. W zapisie nutowym, jak i podczas soundchecku czy prób, skrót SN jest standardowo używany w arkuszach ustawień scenicznych oraz notacjach perkusyjnych. Moim zdaniem warto zapamiętać ten skrót, bo spotkasz go praktycznie w każdej profesjonalnej sytuacji nagraniowej czy w riderze technicznym. Werbel jest wykorzystywany do grania akcentów, sygnałów, a także podstawowych rytmów – bez niego większość groove'ów rockowych czy popowych po prostu nie brzmi. Gdy patrzysz na schemat zestawu perkusyjnego w instrukcjach obsługi czy podręcznikach, zawsze SN będzie oznaczał właśnie werbel. W praktyce, na scenie, jeśli ktoś z obsługi pyta o SN, to chodzi o mikrofonowanie lub ustawienie właśnie tego instrumentu. Warto też wiedzieć, że nazewnictwo skrótowe, takie jak SN, BD czy FT, jest międzynarodowym standardem w branży muzycznej – znajomość tych oznaczeń ułatwia komunikację z realizatorami dźwięku, technikami i innymi muzykami.

Pytanie 21

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 96 kHz, 8 bitów.
B. .aiff, 96 kHz, 16 bitów.
C. .aiff, 48 kHz, 16 bitów.
D. .wav, 192 kHz, 8 bitów.
To właśnie odpowiedź .aiff, 96 kHz, 16 bitów najlepiej oddaje, jak poprawnie przeprowadzić konwersję analogowego dźwięku do cyfrowej postaci z zachowaniem wysokiej wierności. Format AIFF jest nieskompresowany i bezstratny, co oznacza, że żadne dane audio nie są tracone podczas zapisu. Próbkowanie na poziomie 96 kHz daje bardzo gęste „odwzorowanie” sygnału – to sporo powyżej standardowego CD (44,1 kHz), co jest wręcz wymagane przy nagraniach profesjonalnych, masteringu audio czy pracy w studiu. Wartość 16 bitów z kolei oznacza 65 536 poziomów kwantyzacji, co w praktyce daje szeroki zakres dynamiki oraz minimalizuje zniekształcenia kwantyzacyjne. To właśnie tego typu parametry wybiera się w sytuacjach, gdy priorytetem jest zachowanie maksymalnej jakości dźwięku, np. w archiwizacji nagrań, miksie czy przy masteringu materiałów muzycznych. Moim zdaniem, jeżeli zależy komuś na audiofilskiej jakości i nie ogranicza go pojemność dysku, to takie ustawienia są naturalnym wyborem. Przy pracy z materiałem do dalszej obróbki jest to wręcz standard – można potem ew. konwertować do niższych parametrów na potrzeby publikacji, ale zawsze warto zaczynać od jak najlepszego materiału źródłowego. Spotyka się to praktycznie w każdym profesjonalnym studiu nagraniowym.

Pytanie 22

Normalizacja poziomu szczytowego nagrania (peak normalization) to

A. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
B. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
C. obniżenie szczytowego poziomu nagrania o 3 dB
D. obniżenie średniego poziomu nagrania o 3 dB
Normalizacja poziomu szczytowego nagrania, czyli tzw. peak normalization, to taki proces, w którym podnosi się poziom całego nagrania tak, żeby najwyższa wartość szczytowa (czyli ten największy pojedynczy impuls w sygnale) sięgnęła dokładnie 0 dBFS. Oczywiście, w praktyce czasem zostawia się minimalny margines, np. do -0,1 dBFS, żeby uniknąć ewentualnych przesterowań przy dalszym przetwarzaniu, ale główny mechanizm polega właśnie na tym jednym – znajdź najwyższy pik i przesuń wszystko w górę tak, żeby był na samym szczycie skali cyfrowej. To bardzo prosty i szybki sposób na wyrównanie głośności różnych plików albo przygotowanie materiału do dalszego masteringu. Spotyka się to właściwie w każdym DAW-ie i nawet podstawowe programy do montażu audio mają taką funkcję. Z mojego doświadczenia bywa to bardzo przydatne, zwłaszcza jak ktoś dostaje miks z różnych źródeł i chce, żeby od razu było równo pod względem potencjału głośności, zanim zacznie głębsze zmiany. Warto pamiętać, że peak normalization nie zmienia relacji między cichymi a głośnymi fragmentami – nie jest to kompresja ani normalizacja RMS/średnia. Z punktu widzenia standardów, to absolutna podstawa i wręcz obowiązkowy krok w wielu workflow, choć na etapie końcowym w radiu czy streamingach częściej używa się normalizacji według LUFS (średniego poziomu głośności), ale peak normalization dalej ma swoje miejsce, zwłaszcza przy przygotowaniu surowych plików.

Pytanie 23

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Invert Phase
B. Pitch Shifting
C. Time Stretching
D. Resample
Resample to w DAW-ach taka funkcja, którą wykorzystuje się, gdy trzeba zmienić częstotliwość próbkowania sygnału – na przykład z 44,1 kHz na 48 kHz. Właściwie, moim zdaniem, to jedna z kluczowych operacji, zwłaszcza jeśli pracujesz z różnymi formatami audio albo przygotowujesz pliki do masteringu pod różne platformy (np. streaming czy CD). Jak to wygląda w praktyce? Jeśli nagrasz coś w 44,1 kHz, a potem chcesz to dodać do projektu, gdzie wszystko jest na 48 kHz, to wtedy właśnie z pomocą przychodzi opcja Resample. Oprogramowanie musi wtedy matematycznie przeliczyć punkty próbkowania, żeby nowy plik zachował oryginalną prędkość i wysokość dźwięku, ale pasował do projektu. Warto wiedzieć, że dobre DAWy (np. Cubase, Pro Tools, Reaper) oferują różne algorytmy resamplingu – im lepszy, tym mniej artefaktów, typu aliasing. Branżowy standard to stosowanie wysokiej jakości algorytmów, takich jak SRC lub iZotope SRC, właśnie po to, aby nie tracić szczegółów czy nie wprowadzać niechcianych szumów. Z mojego doświadczenia lepiej zrobić resampling jeszcze przed końcowym eksportem, bo wtedy masz większą kontrolę nad jakością. Ogólnie, Resample to podstawa przy pracy z projektami, gdzie miksujemy pliki o różnych parametrach.

Pytanie 24

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista grup.
B. Lista ścieżek.
C. Lista efektów.
D. Lista regionów.
Lista regionów powinna być codziennym narzędziem każdego realizatora czy producenta pracującego w DAW. Regiony to tak naprawdę wycinki materiału dźwiękowego – mogą to być fragmenty audio, MIDI lub nawet automatyki, które zostały podzielone, przemieszczone lub skopiowane w trakcie pracy nad projektem. W praktyce, podczas montażu utworu czy podcastu, najpierw przecina się ścieżkę na mniejsze kawałki, żeby potem łatwo móc przesuwać je, kopiować, wyciszać lub nakładać efekty tylko na wybrane fragmenty. Moim zdaniem właśnie to rozróżnienie regionów daje ogromną elastyczność w montażu i miksie. W większości profesjonalnych DAW, takich jak Pro Tools, Logic Pro czy Cubase, istnieje specjalny panel lub lista regionów, która pozwala szybko odnaleźć i zarządzać wszystkimi fragmentami, które pojawiły się w sesji. To ułatwia kontrolę nad projektem, zapewnia przejrzystość oraz pozwala uniknąć chaosu podczas pracy z dużą liczbą śladów i cięć. Z mojego doświadczenia wynika, że dobre opanowanie pracy z regionami to podstawa szybkiego i wydajnego montażu – nie tylko w studiu, ale nawet w domowych warunkach. W branży powszechnie przyjmuje się, że korzystanie z listy regionów to jedna z dobrych praktyk produkcji dźwięku – bo pozwala na precyzyjne zarządzanie materiałem, bez potrzeby przekopywania się przez całą sesję na timeline. Jeśli ktoś planuje zajmować się edycją audio zawodowo, zdecydowanie powinien nauczyć się wykorzystywać ten element DAW praktycznie na pamięć.

Pytanie 25

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .mp3
B. .wav
C. .riff
D. .aiff
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 26

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. filtru dolnoprzepustowego.
B. kompresora.
C. bramki szumów.
D. ekspandera.
Redukcja podmuchów wiatru na nagraniu to jedna z typowych bolączek w pracy z dźwiękiem, zwłaszcza przy nagraniach terenowych. Niestety, wiele osób ma tendencję do sięgania po narzędzia, które wydają się uniwersalne, ale w tym konkretnym przypadku nie przynoszą oczekiwanych rezultatów. Ekspander, którego głównym zadaniem jest zwiększanie kontrastu dynamicznego – czyli pogłębianie różnicy między cichymi a głośnymi fragmentami – nie potrafi selektywnie eliminować niskoczęstotliwościowych zakłóceń powodowanych przez wiatr. Stosowany jest raczej do ograniczania szumów tła w przerwach, ale nie radzi sobie z ciągłymi niskimi dźwiękami, które występują jednocześnie z mową. Z kolei kompresor działa niejako odwrotnie – ściska dynamikę, przez co nagłe podmuchy mogą wręcz stać się bardziej słyszalne, bo poziom głośniejszych fragmentów zostanie zbliżony do normalnych, a to zupełnie nie pomaga w uzyskaniu czystego nagrania. Bramki szumów, choć czasami użyteczne przy eliminacji szumu tła, bazują na ustawieniu progu czułości i wyciszaniu wszystkiego poniżej niego. W przypadku podmuchów wiatru, które są często głośne i bardzo niskie, bramka może po prostu nie zadziałać lub wręcz wycinać fragmenty mowy, robiąc więcej szkody niż pożytku. Moim zdaniem, błędne jest przekonanie, że każde narzędzie do dynamiki czy szumów jest uniwersalne – praktyka uczy, że skuteczność uzyskuje się tylko przez właściwe dopasowanie rozwiązania do problemu. Dobrym nawykiem jest uważne analizowanie widma dźwięku i stosowanie narzędzi częstotliwościowych, takich jak filtr dolnoprzepustowy, które naprawdę są dedykowane do walki z niskimi, mechanicznymi zakłóceniami.

Pytanie 27

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .alac
B. .omf
C. .ogg
D. .wav
Format pliku .ogg jest związany z kodekiem stratnym, najczęściej wykorzystującym kompresję Vorbis. Ogg Vorbis to uznany w środowisku branżowym sposób na redukcję wielkości plików audio przy zachowaniu stosunkowo wysokiej jakości dźwięku. Moim zdaniem to jeden z najlepszych wyborów, jeśli zależy komuś na bezpłatnym i otwartym standardzie, bez ograniczeń patentowych jak w przypadku MP3. Praktycznie każdy gracz, radio internetowe czy podcast korzystał kiedyś z OGG właśnie po to, by zoptymalizować transfer bez wyraźnej utraty wierności odsłuchu. Co ciekawe, format ten jest popularny w środowisku open source, zwłaszcza w grach komputerowych i aplikacjach linuksowych, bo tam nikt nie chce płacić za MP3. Pliki OGG są też wygodne do strumieniowania, co znacznie odciąża serwery, a użytkownicy nie narzekają na jakość dźwięku. Warto ogarniać różnice pomiędzy stratnymi a bezstratnymi kodekami – jeśli ktoś archiwizuje lub miksuje muzykę, to raczej nie korzysta z OGG, ale do codziennego słuchania, podcastów czy dystrybucji online – ten format naprawdę daje radę. Eksperci zwracają uwagę, że dobór kodeka powinien zależeć od przeznaczenia pliku, a OGG to świetna opcja do multimediów na co dzień.

Pytanie 28

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Korektor.
B. Ekspander.
C. Kompresor.
D. Crossover.
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 29

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD – R DL
B. DVD – R DL
C. DVD + R SL
D. CD + R SL
DVD – R DL to faktycznie nośnik o największej pojemności spośród podanych opcji. W branży mówi się, że płyty DVD w wersji dwuwarstwowej (DL, czyli Dual Layer) oferują aż do 8,5 GB miejsca na dane. To już naprawdę sporo, zwłaszcza jeśli porównać do klasycznego CD, który ma tylko 700 MB, albo nawet DVD jednowarstwowego (SL), gdzie mieści się około 4,7 GB. Z mojego doświadczenia, w archiwizacji materiałów wideo czy backupie średnich baz danych, wybiera się właśnie DVD – R DL, bo pozwala zmieścić np. dłuższy film w lepszej jakości lub całą kolekcję zdjęć bez dzielenia na kilka nośników. Warto pamiętać, że różnica między CD a DVD nie dotyczy tylko pojemności – DVD wykorzystuje krótszą falę lasera (650 nm zamiast 780 nm jak w CD), co umożliwia gęstsze upakowanie danych. Dual Layer to jeszcze sprytniejszy patent: druga warstwa leży pod pierwszą, a laser jest odpowiednio ustawiany, by je czytać. W branży IT stosowanie DVD – R DL to wciąż dobra, tania opcja do dystrybucji danych, tam gdzie nie można użyć pendrive’a czy dysków sieciowych. Spotyka się je także przy tworzeniu kopii oprogramowania czy gier. Moim zdaniem warto znać te różnice, bo w praktyce nieraz trzeba dobrać nośnik pod konkretne zadanie, a różnice w pojemności są naprawdę kluczowe.

Pytanie 30

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. SACD
B. DCC
C. CC
D. ADAT
Patrząc na wszystkie wymienione odpowiedzi, łatwo o zamieszanie, bo nazwy bywają podobne i technicznie brzmiące. Jednak CC to po prostu kaseta kompaktowa (Compact Cassette), czyli magnetyczny analogowy nośnik, który nie ma nic wspólnego z optyką – to stary, ale wciąż czasem używany standard, głównie przez entuzjastów vintage. DCC, czyli Digital Compact Cassette, to również kaseta, tylko że cyfrowa – działała na tej samej zasadzie co zwykłe kasety, ale dźwięk zapisywany był cyfrowo, nie analogowo. Oba te rozwiązania są oparte na taśmie magnetycznej, nie na technologii optycznej, więc nie spełniają kryteriów pytania. ADAT natomiast to coś z zupełnie innej bajki – to format zapisu wielościeżkowego audio na nośnikach S-VHS (czyli kasetach magnetycznych do nagrywania wideo), wykorzystywany głównie w studiach nagraniowych w latach 90., zanim cyfrowe DAWy były powszechne. Typowy błąd to mylenie tych kaset z płytami, bo ADAT kojarzy się z cyfrowym nagrywaniem, ale nie ma tu ani grama technologii optycznej. Często spotykam się z przekonaniem, że cyfrowość = optyka, a to zupełnie nie tak – wiele cyfrowych standardów bazuje przecież na taśmach czy dyskach. Optyczne standardy audio to przede wszystkim płyty CD, DVD-Audio, czy właśnie SACD, gdzie zapis i odczyt operują na wiązce lasera, a nie na głowicy magnetycznej. Jeśli chcesz naprawdę zrozumieć różnice w praktyce, warto choć raz zobaczyć, jak wygląda odczyt danych z kasety i z płyty – od razu widać, że to dwie różne bajki. Takie pomyłki są dość powszechne, szczególnie u osób, które mają więcej do czynienia z plikami cyfrowymi niż z fizycznymi nośnikami, ale warto rozróżniać, bo to klucz do zrozumienia ewolucji technologii audio.

Pytanie 31

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.fls
B. *.edl
C. *.oem
D. *.ldm
Pliki o rozszerzeniu *.edl (Edit Decision List) to absolutny standard, jeśli chodzi o zapisywanie decyzji montażowych w postprodukcji filmowej. Z mojego doświadczenia wynika, że EDL jest wręcz niezbędny do sprawnej współpracy między montażystą a działem dźwięku czy korekcji barwnej. Taki plik to tekstowy zapis wszystkich kluczowych informacji o cięciach, przejściach oraz źródłach materiału – w praktyce zawiera szczegółową listę użytych fragmentów klipów, czasów wejścia i wyjścia, a także typów przejść. Dzięki temu można bezproblemowo przenosić projekt pomiędzy różnymi systemami montażowymi, na przykład z Avid Media Composer do DaVinci Resolve czy Adobe Premiere Pro. Co ważne, EDL jest formatem otwartym i bardzo czytelnym – fachowcy mówią, że to taki pomost między różnymi etapami postprodukcji. Branża filmowa od lat korzysta z EDL, bo to po prostu działa i nie ma tutaj większej filozofii. Warto też pamiętać, że pliki EDL obsługują głównie podstawowe informacje montażowe, a do bardziej zaawansowanych danych (np. ruchów kamery, efektów) stosuje się nowsze formaty jak XML czy AAF. Ale do podstawowej wymiany decyzji edycyjnych *.edl jest po prostu najpraktyczniejszy.

Pytanie 32

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. OPEN
B. SAVE
C. CLOSE
D. NEW
Opcja OPEN w menu FILE w oprogramowaniu typu DAW (Digital Audio Workstation) służy właśnie do przywoływania wcześniej zapisanych sesji. To absolutna podstawa pracy z każdym projektem muzycznym czy dźwiękowym. Kiedy pracujesz nad utworem, miksujesz albo obrabiasz nagrania, całość zapisujesz w pliku sesji – i żeby do niej wrócić, używasz właśnie polecenia OPEN. W praktyce wygląda to tak: zamykasz DAW, wracasz za kilka dni, chcesz kontynuować miks lub poprawić aranżację – wybierasz FILE → OPEN, wskazujesz plik, program ładuje całą sesję łącznie z ustawieniami, ścieżkami, efektami i automatyzacją. Moim zdaniem, ogarnięcie tej funkcji to taki całkowity must-have – bez niej nie da się wydajnie pracować. OPEN jest też standardem branżowym, zawsze pod tym poleceniem szukamy opcji otwierania plików projektowych, niezależnie czy używasz Cubase, Reapera czy Pro Tools. Dobra praktyka to regularne zapisywanie sesji pod różnymi nazwami, żeby potem móc łatwo je przywołać przez OPEN i ewentualnie wrócić do wcześniejszych wersji projektu. To pozwala uniknąć utraty ważnych etapów pracy i daje większą kontrolę nad historią zmian.

Pytanie 33

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Konwersja.
C. Kompresja.
D. Filtrowanie.
Filtrowanie to absolutnie podstawowe narzędzie w każdym programie typu DAW, jeśli chodzi o usuwanie przydźwięków, takich jak charakterystyczny szum 50 Hz (albo 60 Hz w USA), który wynika właśnie z zakłóceń sieci elektrycznej. W praktyce stosuje się najczęściej tzw. filtry wąskopasmowe – notch lub band-stop, które pozwalają wyciąć konkretną częstotliwość bez naruszania reszty sygnału. W wielu DAW-ach są nawet gotowe presety „hum remover” albo „de-hum”. Często użytkownicy korzystają z narzędzi typu EQ parametryczny, gdzie można ręcznie ustawić wycięcie dokładnie na częstotliwości przydźwięku i jej harmonicznych (np. 50, 100, 150 Hz itd.). Z mojego doświadczenia, to rozwiązanie jest dużo bardziej profesjonalne niż próby różnych sztuczek z kompresją czy konwersją, bo filtr działa selektywnie i nie zniekształca reszty nagrania. Filtrowanie jest zgodne z dobrymi praktykami branżowymi – praktycznie każdy realizator dźwięku w studiu czy na scenie sięga w pierwszej kolejności właśnie po filtry, żeby pozbyć się tego typu zakłóceń, zanim zacznie cokolwiek innego robić z materiałem. Dobrze dobrany filtr to podstawa czystego brzmienia – warto się tego nauczyć i nie bać się eksperymentować z ustawieniami, bo czasem nawet minimalna zmiana szerokości filtra robi dużą różnicę w jakości.

Pytanie 34

Aplikacje DAW mogą odtwarzać w sesji pliki

A. o tej samej częstotliwości i innej rozdzielczości.
B. o tej samej rozdzielczości i różnej częstotliwości.
C. skompresowane do mp3 oraz wav.
D. tylko o tych samych parametrach.
To pytanie świetnie pokazuje, jak ważne są podstawowe zasady działania aplikacji DAW (Digital Audio Workstation) podczas pracy z plikami audio w jednej sesji. W praktyce, gdy wrzucasz do projektu różne pliki dźwiękowe, to kluczowa jest zgodność częstotliwości próbkowania (sample rate). DAW bez problemu radzi sobie z różną rozdzielczością bitową (czyli np. 16-bit i 24-bit mogą być zmiksowane w jednej sesji), bo silnik programu konwertuje je do ustawionej wartości projektu. Natomiast, gdybyś spróbował wstawić plik z inną częstotliwością niż ta ustawiona w projekcie (np. 44,1 kHz i 48 kHz), w większości DAW pojawi się problem – plik zostanie odtworzony w złym tempie albo wymuszona zostanie konwersja sample rate, co nieraz wpływa na jakość dźwięku. Z mojego doświadczenia, dobrym nawykiem jest zawsze trzymanie się jednej częstotliwości próbkowania w sesji, nawet jeśli różne nagrania mają inne rozdzielczości bitowe. W profesjonalnych studiach to praktycznie standard, bo pozwala uniknąć niepotrzebnych komplikacji i utraty jakości. Ważne też, że pliki można wrzucać zarówno mono, jak i stereo, a DAW przeliczy je do wspólnej postaci. Podsumowując – różne rozdzielczości w jednym projekcie raczej nie stanowią przeszkody, ale różne sample rate to już poważniejszy temat.

Pytanie 35

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 4 ścieżki.
B. 1 ścieżkę.
C. 3 ścieżki.
D. 2 ścieżki.
W przypadku nagrania chóru z użyciem techniki XY oraz dwóch mikrofonów podpórkowych, przygotowanie czterech monofonicznych ścieżek w sesji DAW to absolutna podstawa, żeby zachować pełną kontrolę nad całością materiału podczas miksu. Technika XY polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej pod kątem 90 stopni względem siebie, co daje stereo, ale każda kapsuła to osobny sygnał, więc już na starcie potrzebujemy dwóch ścieżek dla XY. Mikrofony podpórkowe, często nazywane spotami lub mikrofonami sekcyjnymi, również rejestrują niezależne ślady – najczęściej służą do podkreślenia sekcji lub solistów. W sumie daje to cztery ścieżki: dwa kanały z XY i dwa z mikrofonów podpórkowych. Moim zdaniem, nie da się tego zrobić sensownie na mniejszej liczbie ścieżek bez utraty kontroli, szczególnie jeśli chodzi o panoramowanie, obróbkę dynamiki czy ewentualne kompensacje fazowe. Takie podejście pozwala na swobodny balans pomiędzy ogólnym brzmieniem chóru uchwyconym techniką stereo a detalem uzyskanym z mikrofonów spotowych. Praktyka studyjna pokazuje, że profesjonalne produkcje zawsze rozdzielają te ślady, bo potem łatwiej jest korygować proporcje, efekty czy nawet opóźnienia. W branży to wręcz standard – nawet jeśli finalnie miksujemy wszystkie ślady razem, rozdzielenie ich na etapie montażu daje pełną elastyczność. Z mojego doświadczenia, kombinowanie z miksowaniem tych sygnałów na jednym śladzie zawsze kończy się kompromisami, których można uniknąć, przygotowując cztery niezależne ścieżki.

Pytanie 36

Pojemność jednowarstwowej płyty Blu-ray umożliwia nagranie materiałów dźwiękowych o maksymalnym rozmiarze

A. 25 GB
B. 50 GB
C. 8,5 GB
D. 4,7 GB
Płyta Blu-ray w wersji jednowarstwowej to obecnie jeden z najpopularniejszych nośników do przechowywania dużych ilości danych – zwłaszcza tam, gdzie zależy nam na jakości, a niekoniecznie na wielokrotnym nagrywaniu. Jej pojemność wynosi właśnie 25 GB, co czyni ją kilkukrotnie bardziej pojemną od standardowych płyt DVD czy nawet dwuwarstwowych DVD. To, moim zdaniem, naprawdę sporo jak na potrzeby domowego archiwizowania muzyki czy nawet bardziej rozbudowanych projektów dźwiękowych. W praktyce można tam zmieścić tysiące plików audio w wysokiej jakości lub nawet kilka godzin nieskompresowanego materiału dźwiękowego PCM, co zresztą wykorzystywały kiedyś płyty Blu-ray Audio. Warto pamiętać, że technologia Blu-ray to nie tylko filmy w wysokiej rozdzielczości. W branży muzycznej również znalazła swoje miejsce, choć raczej jako nośnik premium. Standardy Blu-ray określają jasno pojemności – 25 GB dla jednowarstwowej i 50 GB dla dwuwarstwowej, a nawet więcej dla wersji BD-XL, ale te są już rzadziej używane w konsumenckich zastosowaniach. Z mojego doświadczenia, korzystanie z jednowarstwowych płyt Blu-ray to dobra praktyka, bo łatwiej je odczytać w większości napędów, a ryzyko błędów przy nagrywaniu jest niższe niż w przypadku bardziej upakowanych nośników. I jeszcze ciekawostka – pliki w formacie FLAC lub WAV bez problemu się tam pomieszczą, a jak ktoś lubi eksperymentować z dźwiękiem przestrzennym, to Blu-ray daje naprawdę spore pole do popisu.

Pytanie 37

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 7 kanałów.
B. 5 kanałów.
C. 1 kanału.
D. 3 kanałów.
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.

Pytanie 38

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Mute.
C. Freeze.
D. Fade out.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 39

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Lista edycyjna.
B. Partytura.
C. Scenariusz.
D. Drabinka.
Partytura to w muzyce taki jakby główny dokument, gdzie zapisuje się cały utwór w formie nutowej, bardzo szczegółowo, z podziałem na wszystkie instrumenty czy głosy. To trochę jak instrukcja obsługi dla orkiestry czy chóru – dyrygent musi mieć partyturę, żeby wiedzieć, kiedy co gra i jak wszystko synchronizować. W praktyce każda szanująca się instytucja muzyczna, studio czy zespół pracujący z większymi składami korzysta właśnie z partytury. Z mojego doświadczenia wynika, że profesjonalni muzycy nie zaczynają pracy bez dobrze przygotowanej partytury, bo tylko wtedy są w stanie utrzymać porządek i spójność w wykonaniu. W branży standardem jest, że partytura zawiera nie tylko nuty, ale też mnóstwo oznaczeń, np. dynamikę, artykulację, tempo, czasem nawet sugestie dotyczące interpretacji. Nawet podczas nagrań studyjnych czy koncertów filharmonicznych partytura jest absolutną podstawą – bez niej praktycznie nie da się wykonać bardziej złożonego utworu. Warto wiedzieć, że partytury bywają bardzo rozbudowane, kilkudziesięciostronicowe, a ich przygotowanie to osobna umiejętność, której naprawdę opłaca się nauczyć. Poza tym partytura to nie tylko domena klasyki – w muzyce rozrywkowej, zwłaszcza przy aranżacji na większe składy, coraz częściej pojawia się profesjonalny zapis nutowy, żeby nie było nieporozumień podczas prób czy nagrań.

Pytanie 40

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 250 Hz – 999 Hz
B. 20 Hz – 249 Hz
C. 1 000 Hz – 1 999 Hz
D. 2 000 Hz – 20 000 Hz
Sybilanty, czyli głoski takie jak „s”, „sz” czy „ś”, charakteryzują się bardzo wyraźnym, szumiącym brzmieniem, które łatwo wychwycić na spektrogramie właśnie w zakresie wysokich częstotliwości. Z mojego doświadczenia analizując nagrania mowy, sybilanty praktycznie zawsze wypadają powyżej 2 000 Hz, a często pikują nawet powyżej 5 000 Hz – szczególnie w języku polskim „s” potrafi sięgnąć do 8–10 kHz. Dlatego odpowiedź obejmująca przedział 2 000 Hz – 20 000 Hz jest tutaj absolutnie poprawna. To pasmo jest kluczowe przy detekcji i obróbce sybilantów, na przykład kiedy stosujemy de-essery podczas produkcji podcastów czy nagrań lektorskich. Standardy branżowe, np. przy masteringu muzyki czy postprodukcji dźwięku, jasno wskazują, że filtry oraz efekty usuwające sybilanty, takie jak de-esser, koncentrują się właśnie na tych wysokich pasmach. Często nawet w korektorach graficznych i parametrycznych można znaleźć fabryczne presety zaprojektowane specjalnie dla tego zakresu. W praktyce oznacza to, że chcąc poprawić czytelność nagrania, wygasić nieprzyjemne „syczenie” czy nawet podczas syntezy mowy, zawsze zwracamy uwagę na zakres 2 000 Hz i wyżej. Moim zdaniem, świadomość tej charakterystyki bardzo ułatwia skuteczną pracę z nagraniami mowy, bo pozwala szybko zlokalizować i wyeliminować problematyczne dźwięki bez niepotrzebnego naruszania pozostałych elementów sygnału.