Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 27 kwietnia 2026 21:14
  • Data zakończenia: 27 kwietnia 2026 21:28

Egzamin zdany!

Wynik: 31/40 punktów (77,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Split
C. Mute
D. Copy
Funkcja „Mute” w sesji programu DAW jest podstawowym narzędziem do szybkiego wyciszania wybranych regionów, ścieżek lub nawet pojedynczych dźwięków w aranżacji. To rozwiązanie jest powszechnie stosowane w produkcji muzycznej, bo pozwala na błyskawiczne wyłączenie fragmentu utworu bez kasowania danych – nie tracisz żadnych informacji, zawsze możesz wrócić do tych dźwięków, kiedy tylko chcesz. Przykładowo, gdy miksujesz wokale i chcesz na chwilę usunąć niektóre fragmenty, żeby sprawdzić, jak brzmią inne elementy aranżacji, wystarczy kliknąć „Mute” na odpowiednim regionie. Moim zdaniem to bardzo wygodne, bo daje pełną elastyczność podczas pracy twórczej – nie musisz się stresować, że coś uszkodzisz na stałe. Zgodnie z praktykami branżowymi, korzystanie z „Mute” jest preferowane przed edycją destrukcyjną, gdy chcesz eksperymentować z aranżacją czy układem ścieżek. Funkcja ta jest obecna w praktycznie każdym liczącym się DAW – od Abletona, przez Cubase, aż po Pro Tools. Zaawansowani realizatorzy często używają „Mute” także do przygotowywania alternatywnych wersji miksu, bo pozwala to łatwo porównać różne układy instrumentów bez przeładowywania projektów. Dla mnie „Mute” to jedno z narzędzi, które naprawdę ratuje skórę w sytuacjach, kiedy trzeba coś szybko sprawdzić, a nie ma czasu na żmudne wycinanie czy kopiowanie regionów. W skrócie: praktyczne, szybkie i bezpieczne rozwiązanie na każdą sesję.

Pytanie 2

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. sekundę.
B. godzinę.
C. ramkę.
D. minutę.
Druga para cyfr w zapisie kodu czasowego SMPTE faktycznie odpowiada za minuty. To jest bardzo istotne, szczególnie gdy zajmujemy się montażem wideo albo nagraniami audio, gdzie precyzja synchronizacji jest kluczowa. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) definiuje czteroelementowy format: HH:MM:SS:FF, gdzie właśnie ta druga para cyfr (MM) wskazuje liczbę minut. Moim zdaniem, dobrze rozumieć tę strukturę, bo potem łatwiej jest nawigować w profesjonalnych programach do edycji, takich jak Adobe Premiere, DaVinci Resolve czy Avid. Tam nie ma miejsca na domysły – każde pole odpowiada za konkretną jednostkę czasu, co pozwala np. bardzo szybko znaleźć określony fragment materiału. W praktyce, przy przekładaniu notatek z planu: „akcja zaczyna się w 12:07:15:17”, od razu wiadomo, że „07” to siódma minuta drugiej godziny. To trochę jak czytanie zegarka cyfrowego, tylko z dokładnością do pojedynczej klatki filmu. Z mojego doświadczenia osoby, które dobrze rozumieją ten zapis, dużo mniej się mylą przy przygotowywaniu list montażowych (EDL) albo przy synchronizacji dźwięku z obrazem. Ma to też znaczenie w broadcastingu, gdzie precyzja odliczania minut przekłada się na ramówkę telewizyjną. W skrócie – praktyczna i bardzo istotna wiedza w świecie zawodowego wideo i audio.

Pytanie 3

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Trzykrotny.
B. Czterokrotny.
C. Pięciokrotny.
D. Dwukrotny.
Często pojawiają się nieporozumienia dotyczące tego, jak mocno subiektywna głośność (wrażeń słuchowych) rośnie względem poziomu sygnału podawanego w decybelach. Przykładowo, niektórzy zakładają, że skoro skala dB rośnie szybko, to każda „dziesiątka” oznacza nawet trzykrotny, czterokrotny czy pięciokrotny wzrost słyszalności – ale to niestety nie tak działa. Skala dB to skala logarytmiczna, więc już sam sposób jej przeliczania sugeruje, że wzrost o 10 dB nie da trzykrotności ani większych wzrostów odbieranych przez ucho. W rzeczywistości, nasze ucho ma ograniczoną czułość i rejestruje zmiany głośności zgodnie z tzw. krzywymi równych głośności (Fletchera-Munsona), a te pokazują, że wzrost o 10 dB daje nam odczucie mniej więcej dwa razy głośniejszego dźwięku. Trzykrotny lub czterokrotny wzrost głośności wymagałby znacznie większej zmiany poziomu wyrażonego w dB – odpowiednio około 20 dB dla czterokrotności. To dość częsty błąd: myślenie, że decybele rosną liniowo i od razu przekładają się na takie same zmiany w postrzeganiu dźwięku. Z punktu widzenia praktyki – przy miksie, nagłośnieniu czy nawet obsłudze prostych urządzeń audio – warto znać tę zasadę, bo pozwala realistycznie ocenić, jak dużo zmieni się dla słuchacza przy regulacji poziomu. W branży przyjmuje się, że podwojenie subiektywnej głośności to 10 dB wzrostu, a nie większe wartości. To sprawdzona zasada poparta testami psychoakustycznymi i normami branżowymi, np. wg AES czy EBU. W sumie, moim zdaniem, dobrze znać ten niuans – bo pozwala realnie planować i przewidywać efekty w pracy z dźwiękiem, a nie kręcić gałkami w ciemno.

Pytanie 4

Spośród wymienionych typów nośników, największą pojemnością charakteryzuje się płyta

A. DVD – R SL
B. DVD – R DL
C. DVD + R DL
D. DVD + R SL
Dokładnie, płyta DVD – R DL wyróżnia się największą pojemnością spośród wymienionych opcji. Skrót "DL" oznacza Dual Layer, czyli dwie warstwy zapisu, co pozwala na zapisanie aż do 8,5 GB danych na jednej płycie. Standard DVD – R DL jest wykorzystywany przede wszystkim wtedy, gdy potrzebujemy zapisać większe pliki, na przykład filmy w wysokiej jakości lub archiwa projektów. W branży IT i w zastosowaniach domowych wybieranie płyt dwuwarstwowych to całkiem częsta praktyka, zwłaszcza jeśli zależy komuś na nośniku jednorazowego zapisu, a pendrive czy dysk zewnętrzny są niedostępne. Dla porównania, płyty typu SL (czyli Single Layer) mają pojemność do ok. 4,7 GB – to już spora różnica w praktyce. Moim zdaniem warto znać te różnice, bo przy archiwizacji lub kopiowaniu większej ilości danych można się mocno zdziwić, gdy płyta okaże się za mała. DVD – R DL działa na podobnych zasadach jak DVD + R DL, ale w praktyce bywa częściej wybierana w środowiskach, gdzie ważna jest kompatybilność ze starszymi odtwarzaczami albo urządzeniami. Czasem ludzie mylą te oznaczenia i potem mają problem z odczytem albo nagraniem płyty. Dobrze to ogarniać, bo w pracy technika komputerowego takie niuanse się często pojawiają.

Pytanie 5

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. pola elektrostatycznego.
B. wilgotności powietrza.
C. promieniowania ultrafioletowego.
D. pola magnetycznego.
Promieniowanie ultrafioletowe rzeczywiście jest jednym z największych zagrożeń dla nośników optycznych, takich jak płyty CD. Wynika to z faktu, że promieniowanie UV stopniowo degraduje warstwę poliwęglanową oraz barwnik, którym pokryta jest płyta. Efektem tego jest utrata integralności danych zapisanych na dysku, co w praktyce może oznaczać nieczytelność plików lub całkowitą utratę danych. Od lat w branży informatycznej mówi się, żeby płyty przechowywać w ciemnych miejscach, najlepiej w pudełkach, osłonięte przed światłem słonecznym i lampami UV. To nie jest czcza teoria – liczne testy pokazały, że nawet kilkugodzinne wystawienie płyty na bezpośrednie słońce może sprawić, że stanie się ona bezużyteczna. Moim zdaniem niewiele osób zdaje sobie sprawę, że zwykła żarówka LED nie stanowi zagrożenia, ale już świetlówki czasem emitują pewną ilość UV, która na przestrzeni lat może zaszkodzić nośnikowi. Branża zaleca też przechowywanie płyt w pozycji pionowej, w miejscu suchym i chłodnym, ale to właśnie ochrona przed UV jest absolutnym priorytetem. Pamiętaj, że nawet najnowocześniejsze płyty z powłoką ochronną nie są stuprocentowo odporne – UV robi swoje. To dlatego archiwa cyfrowe czy muzea mają specjalne, zaciemnione pomieszczenia na nośniki optyczne. Takie są realia, jeśli myślisz o długoterminowym przechowywaniu danych.

Pytanie 6

Znaczniki w sesji programu DAW należy umiejscowić na osi

A. Timeline
B. Tempo
C. Meter
D. Markers
Markers to narzędzie w DAW, które służy do oznaczania konkretnych punktów na osi czasu (timeline) projektu. W praktyce, gdy pracujemy nad większym projektem muzycznym albo postprodukcją audio, bardzo często wstawiamy znaczniki, żeby na szybko wrócić do ważnych miejsc – na przykład refrenu, wejścia wokalu czy początku nowej sceny. W większości profesjonalnych programów DAW, jak Ableton Live, Pro Tools czy Cubase, sekcja Markers znajduje się zwykle nad główną linią czasu i można ją łatwo edytować, przesuwać, opisywać. To właśnie Markers pozwalają na szybkie poruszanie się po projekcie oraz ułatwiają współpracę z innymi osobami (np. ktoś od miksu od razu widzi, gdzie jest bridge albo gdzie trzeba poprawić błąd). Z mojego doświadczenia, bez znaczników praca nad bardziej skomplikowanymi utworami potrafi być naprawdę męcząca – ciągle trzeba przewijać i szukać tych samych miejsc. Warto pamiętać, że korzystanie z Markers jest uważane za dobrą praktykę branżową, bo zwiększa efektywność, porządek i przejrzystość całej sesji. Jeszcze jedna rzecz: Markers nie mają wpływu na dźwięk czy tempo, służą głównie do nawigacji i organizacji, co moim zdaniem jest ich największym atutem.

Pytanie 7

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. pendrive.
B. dysk twardy.
C. płytę CD-R.
D. pamięć Memory Stick.
Dokładnie, płyta CD-R to klasyczny nośnik wykorzystywany przy optycznej metodzie zapisu danych, w tym materiałów muzycznych. W praktyce polega to na tym, że dane są zapisywane za pomocą lasera na powierzchni płyty, która działa jak swoista "matryca" odbijająca światło w różny sposób, w zależności od tego, czy dany fragment został zapisany czy nie. To rozwiązanie przez długie lata było standardem – nie tylko w branży muzycznej, ale też w archiwizacji danych czy dystrybucji oprogramowania. Co ciekawe, profesjonalne tłoczenie płyt wykorzystuje podobną zasadę, chociaż jest to już bardziej skomplikowany proces przemysłowy. W warunkach domowych lub studyjnych nagranie na CD-R pozwala zachować wysoką jakość dźwięku (format Audio CD, 44,1 kHz/16 bitów), a dodatkowo nośnik ten jest od razu gotowy do odczytu przez zdecydowaną większość sprzętu audio. W branży produkcji muzycznej płyty CD-R często służą do tworzenia tzw. "masterów" lub wersji demonstracyjnych gotowych do dalszej produkcji czy promowania utworów. Sam nie raz przygotowywałem taką płytę na potrzeby przesłuchań czy weryfikacji miksu. Moim zdaniem nadal warto znać tę technologię, bo mimo popularności cyfrowych plików, w niektórych przypadkach CD-R jest wciąż niezastąpiony, zwłaszcza gdy zależy nam na trwałości zapisu i kompatybilności.

Pytanie 8

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. PAN
B. TEMPO
C. FADE OUT
D. FADE IN
Fade in to bardzo charakterystyczna i przydatna funkcja w każdym DAW-ie, bo pozwala płynnie wprowadzić sygnał audio z ciszy, unikając nieprzyjemnych kliknięć czy nagłego wejścia dźwięku. W praktyce robi się to najczęściej na początku ścieżki audio, gdzie zamiast ostrego startu, dźwięk stopniowo się podgłaśnia. Moim zdaniem to taki absolutny standard w obróbce audio – korzystają z tego wszyscy, od producentów muzycznych po realizatorów nagrań lektorskich. Wypada wiedzieć, że fade in działa nie tylko na pojedynczych ścieżkach, ale też na grupach (np. na całym intro utworu albo przed wejściem wokalu). Warto dodać, że stosowanie fade in wynika z dobrych praktyk branżowych – pozwala zachować czystość aranżu, naturalność brzmienia i dobre wrażenie słuchowe. Często łączy się fade in z fade out na końcu ścieżki, żeby przejścia były bezszwowe. Z mojego doświadczenia, w projektach podcastów czy nagrań instrumentalnych fade in ratuje sytuację, gdy na początku traku słychać szum lub przypadkowy oddech – bardzo wygodne i szybkie rozwiązanie. Generalnie każda szanująca się sesja DAW powinna korzystać z fade in tam, gdzie jest to potrzebne.

Pytanie 9

Który z podanych formatów oferuje wyłącznie bezstratną kompresję cyfrowych danych dźwiękowych?

A. ALAC
B. WMA
C. AAC
D. MP3
ALAC, czyli Apple Lossless Audio Codec, to format, który jak sama nazwa wskazuje, stosuje wyłącznie bezstratną kompresję dźwięku cyfrowego. Oznacza to, że dane audio zakodowane w tym formacie po dekompresji są identyczne bit po bicie z oryginałem – nie tracisz absolutnie żadnej informacji, co jest szczególnie ważne w profesjonalnym audio, archiwizacji czy produkcji muzycznej. Moim zdaniem ALAC jest ciekawą alternatywą dla FLAC, zwłaszcza jeśli ktoś korzysta ze sprzętu Apple, bo systemy tej firmy obsługują go natywnie bez żadnych kombinacji. W branży audio powszechnie stosuje się bezstratne formaty do masteringu czy archiwizacji, bo można potem bez obaw przekonwertować materiał do innych formatów stratnych (jak MP3), nie martwiąc się o degradację jakości. Często spotykam się z opinią, że FLAC jest lepszy, ale to zależy głównie od środowiska, w którym działasz – pod MacOS czy iOS ALAC jest wygodniejszy. Ciekawostka: mimo że pliki ALAC bywają trochę większe od stratnych, to i tak oszczędzają sporo miejsca względem nieskompresowanych WAV czy AIFF. To naprawdę dobry wybór, jeśli chcesz zachować oryginalną jakość dźwięku i jednocześnie nie marnować przestrzeni na dysku.

Pytanie 10

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. HH
B. FT
C. SN
D. BD
SN to skrót od angielskiego słowa 'snare', czyli werbel, który jest centralnym elementem większości zestawów perkusyjnych. Werbel wyróżnia się charakterystycznym, ostrym brzmieniem dzięki sprężynom (strunom) umieszczonym pod dolną membraną – to właśnie te sprężyny nadają mu specyficzny, „szeleszczący” dźwięk. W zapisie nutowym, jak i podczas soundchecku czy prób, skrót SN jest standardowo używany w arkuszach ustawień scenicznych oraz notacjach perkusyjnych. Moim zdaniem warto zapamiętać ten skrót, bo spotkasz go praktycznie w każdej profesjonalnej sytuacji nagraniowej czy w riderze technicznym. Werbel jest wykorzystywany do grania akcentów, sygnałów, a także podstawowych rytmów – bez niego większość groove'ów rockowych czy popowych po prostu nie brzmi. Gdy patrzysz na schemat zestawu perkusyjnego w instrukcjach obsługi czy podręcznikach, zawsze SN będzie oznaczał właśnie werbel. W praktyce, na scenie, jeśli ktoś z obsługi pyta o SN, to chodzi o mikrofonowanie lub ustawienie właśnie tego instrumentu. Warto też wiedzieć, że nazewnictwo skrótowe, takie jak SN, BD czy FT, jest międzynarodowym standardem w branży muzycznej – znajomość tych oznaczeń ułatwia komunikację z realizatorami dźwięku, technikami i innymi muzykami.

Pytanie 11

Jakiej najmniejszej liczby płyt CD-R należy użyć do zapisania 3-godzinnego nagrania w standardzie CD-Audio?

A. 2 płyt.
B. 4 płyt.
C. 5 płyt.
D. 3 płyt.
W przypadku zapisywania nagrań w standardzie CD-Audio, kluczowe jest zrozumienie ograniczeń pojemności standardowej płyty CD-R. Typowa płyta CD-R pozwala na zapisanie do 80 minut muzyki w pełnym standardzie CD-Audio, co jest ściśle określone przez format Red Book (specyfikacja Compact Disc Digital Audio), który nie przewiduje żadnych kompromisów jakościowych czy kompresji stratnej, jak to bywa w formatach MP3 lub WMA. Jeśli ktoś zakłada, że wystarczą tylko dwie płyty na 3-godzinne nagranie, to zapewne błędnie zakłada, że płyty mogą pomieścić znacznie więcej niż faktycznie mogą, być może sugerując się pojemnością płyt CD jako nośników danych (700 MB), albo zapominając, że muzyka w CD-Audio zajmuje znacznie więcej miejsca niż skompresowane pliki audio. Z kolei wybór odpowiedzi mówiących o czterech czy pięciu płytach sugeruje, że ktoś nie zweryfikował faktycznej pojemności jednej płyty i być może myli pojęcia związane z różnymi formatami zapisu lub podświadomie zakłada, że nagranie zajmie więcej miejsca, niż jest w rzeczywistości. To dość częsty błąd – wynika zwykle z nieznajomości specyfikacji Red Book lub braku praktycznego doświadczenia w nagrywaniu płyt audio. Nawet w branży wielu początkujących techników audio zakłada zbyt dużą rezerwę albo błędnie przelicza minuty na ilość płyt przez niedokładność w zaokrągleniach. Warto więc zawsze dokładnie sprawdzić parametry danego nośnika i nie mieszać pojęć – bo płyta CD-R używana jako nośnik danych i jako CD-Audio ma zupełnie różne charakterystyki pojemnościowe, wymuszone przez standard odtwarzaczy. Jeśli nagranie trwa 180 minut, podzielone przez 80 minut daje 2,25, a to oznacza, że potrzebne są trzy płyty – nie mniej i nie więcej, i tak się to rozwiązuje zarówno w profesjonalnych tłoczniach, jak i w domowym studiu. Dobre praktyki podpowiadają, aby zawsze sprawdzić minutową pojemność płyty, bo to ona, nie zaś rozmiar danych w megabajtach czy gigabajtach, decyduje o liczbie potrzebnych nośników w tym standardzie.

Pytanie 12

Aby uniknąć ewentualnych zniekształceń nieliniowych w montowanym materiale dźwiękowym, należy na bieżąco obserwować

A. zmianę dynamiki odtwarzanych dźwięków.
B. pasmo częstotliwościowe odtwarzanych dźwięków.
C. poziom tła towarzyszącego nagraniu.
D. poziom szczytowy odtwarzanego dźwięku.
W świecie realizacji dźwięku można bardzo łatwo popełnić błąd, skupiając się na pozornie ważnych aspektach, które jednak nie mają kluczowego znaczenia, jeśli chodzi o zapobieganie zniekształceniom nieliniowym. Często ludzie myślą, że to poziom tła towarzyszącego nagraniu jest najważniejszy – faktycznie, szumy czy pogłosy mogą przeszkadzać, ale one nie powodują przesterowań i zniekształceń nieliniowych, tylko raczej wpływają na ogólną czystość dźwięku. Zmiana dynamiki odtwarzanych dźwięków też może być myląca, bo kompresja czy ekspansja dynamiki to narzędzia służące do kontroli głośności i wyrazistości, ale same w sobie nie zabezpieczają Cię przed przesterowaniem. Pasmo częstotliwościowe jest istotne np. przy korekcji, ale nawet jeśli dźwięk jest bardzo szerokopasmowy, to nie oznacza automatycznie przekroczenia poziomu szczytowego. Najczęściej spotykany błąd to przekonanie, że jeżeli ogólnie poziom dźwięku nie jest zbyt wysoki, to nie może dojść do zniekształceń – a tymczasem krótkie, intensywne piki bardzo łatwo mogą "przebić" się przez mikser czy interfejs i spowodować nieodwracalne zniekształcenia. Kluczowe jest więc ciągłe monitorowanie poziomu szczytowego („peak” lub „clip” na miernikach), bo tylko wtedy masz realną kontrolę nad czystością brzmienia. W praktyce branżowej, niezależnie od stylu czy gatunku muzycznego, dbałość o peaki to żelazna zasada – po prostu bez tego trudno mówić o profesjonalnym podejściu do audio.

Pytanie 13

Który z wymienionych korektorów umożliwia automatyczne dopasowanie charakterystyki częstotliwości nagrania do nagrania wzorcowego?

A. Matching EQ.
B. Graphic EQ.
C. Paragraphic EQ.
D. Dynamic EQ.
Matching EQ to taki korektor, który w mojej opinii trochę zmienił podejście do mixu, szczególnie jak ktoś chce szybko uzyskać podobne brzmienie do jakiegoś referencyjnego utworu. Działa to na zasadzie analizy widma częstotliwościowego nagrania docelowego i porównania go z Twoim materiałem – później EQ automatycznie generuje odpowiednią krzywą korekcji, żeby Twój miks zbliżyć do wzorca. To jest mega przydatne, zwłaszcza przy masteringu, kiedy klient życzy sobie np. „żeby mój kawałek brzmiał jak nowy singiel X”. Wtedy Matching EQ jest wręcz narzędziem pierwszego wyboru, bo pozwala oszczędzić mnóstwo czasu, który normalnie poświęciłbyś na ręczne szukanie tych samych nierówności w częstotliwościach. Przykładem dobrej praktyki jest korzystanie z tej funkcji w połączeniu z własnym odsłuchem – Matching EQ powinien być punktem wyjścia, potem zawsze warto sprawdzić i ręcznie poprawić to, co komputer automatycznie „dopasował”, bo nie zawsze wszystko pasuje muzycznie czy stylistycznie. Ten rodzaj korektora jest obecny w wielu wtyczkach typu Ozone, FabFilter Pro-Q czy nawet niektórych DAW-ach. Z mojego doświadczenia wynika, że Matching EQ świetnie sprawdza się także przy naprawianiu dialogów filmowych – można ujednolicić brzmienie nagrań z różnych mikrofonów. To narzędzie nie zastępuje ucha realizatora, ale bardzo pomaga i jest zgodne z nowoczesnymi workflow w profesjonalnym audio.

Pytanie 14

W jakim celu normalizuje się pliki dźwiękowe?

A. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
B. Ustalenia minimalnego poziomu nagrania.
C. Ustalenia maksymalnego poziomu nagrania.
D. Wyrównania pików nagrania do tej samej wartości.
Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.

Pytanie 15

Na jakim etapie produkcji nagrania wykonywany jest montaż nagrania?

A. W trakcie archiwizacji.
B. Po zgraniu.
C. Po masteringu.
D. W trakcie edycji.
Montaż nagrania to naprawdę kluczowy etap w produkcji dźwięku. Odbywa się właśnie podczas edycji materiału. To wtedy inżynier dźwięku lub realizator pracuje z poszczególnymi ścieżkami – wycina niepotrzebne fragmenty, składa ujęcia według założeń reżysera albo klienta, poprawia długość, synchronizuje dialogi, czasem też czyści nagranie z usterek czy szumów. Słyszałem już niejednokrotnie, że dobry montaż potrafi uratować nagranie, które na pierwszy rzut ucha wydaje się chaotyczne. Praktyka pokazuje, że im lepiej zorganizowany jest etap edycji, tym mniej problemów pojawia się później podczas miksu czy masteringu. Standardy branżowe, np. workflow w Pro Tools czy Cubase, mocno podkreślają oddzielenie montażu od miksowania i masteringu. Uporządkowane, dobrze zmontowane ścieżki to podstawa dobrego brzmienia. Moim zdaniem montaż to taki ukryty bohater całej produkcji – dużo zależy od tego, jak dobrze ktoś ogarnie właśnie ten moment. Bez sensownego montażu nawet najlepszy mastering nie pomoże. Montaż to nie tylko cięcie i klejenie, ale cała filozofia podejścia do materiału, żeby potem wszystko razem grało i miało sens. W praktyce zawsze polecam poświęcić na to chwilę dłużej, bo potem można już tylko zyskać.

Pytanie 16

Który z wymienionych parametrów kompresora dynamiki odpowiada za czas odpuszczenia kompresji po spadku poziomu sygnału poniżej progu zadziałania kompresora?

A. Ratio.
B. Release.
C. Attack.
D. Threshold.
Release to, moim zdaniem, jeden z najważniejszych parametrów w kompresorze dynamiki, szczególnie jeśli chodzi o kontrolę tego, jak naturalnie brzmi przetworzony sygnał. Odpowiada on za czas, jaki zajmuje kompresorowi powrót do stanu nieaktywnego po tym, jak sygnał spadnie poniżej progu (threshold). Jeżeli release ustawimy za krótko, sygnał może stać się nienaturalny, wręcz „pompujący”, co czasem bywa efektem zamierzonym w muzyce elektronicznej, ale na przykład w nagraniach wokalnych czy instrumentów akustycznych raczej unika się takiego efektu. Z kolei zbyt długi czas release może powodować zbyt małą dynamikę, przez co całość będzie brzmiała płasko i bez życia. W praktyce technicy dźwięku często eksperymentują z tym parametrem, żeby znaleźć złoty środek i dopasować charakter kompresji do stylistyki utworu. Release jest też kluczowy w sytuacjach, gdzie utwór ma dynamiczne zmiany – np. w rocku czy jazzie, gdy nagle cichnie gitara lub perkusja, release decyduje, jak szybko kompresor puści sygnał, co wpływa na ogólne wrażenie przestrzeni i oddychania miksu. W dobrze zrealizowanych produkcjach release jest zawsze świadomie dobrany – nieprzypadkowo. Takie rzeczy są omawiane na kursach realizacji dźwięku i naprawdę warto to rozumieć. Jeśli ktoś chce pracować ze sprzętem studyjnym, zdecydowanie powinien nauczyć się wyczuwać ten parametr, bo na papierze wygląda na prosty, a w praktyce potrafi mocno namieszać.

Pytanie 17

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 255
B. 127
C. 55
D. 99
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.

Pytanie 18

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Decay.
B. Type.
C. Predelay.
D. Diffusion.
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 19

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -23 LUFS
B. -23 RMS
C. -16 RMS
D. -16 LUFS
Odpowiedź -23 LUFS jest zgodna z europejskim standardem EBU R128. To właśnie ta wytyczna została przyjęta w branży radiowej i telewizyjnej w Europie, żeby zapewnić spójny poziom głośności wszystkich audycji. LUFS – skrót od Loudness Units relative to Full Scale – to obecnie najpowszechniej stosowana jednostka do pomiaru subiektywnej głośności materiału audio. Z mojego doświadczenia wynika, że coraz więcej inżynierów dźwięku i realizatorów nie wyobraża sobie pracy bez tej skali, bo pozwala ona zapanować nad różnicami w postrzeganiu głośności, które wcześniej często irytowały słuchaczy (np. głośniejsze reklamy). Warto pamiętać, że -23 LUFS nie oznacza po prostu nagrania „cichego” – to punkt odniesienia pozwalający zachować optymalną dynamikę, uniknąć przesterowań i mieć pewność, że słuchacze nie będą musieli ciągle regulować głośności odbiornika. Dla przykładu: jeśli przygotowujesz podcast albo materiał do radia, znormalizowanie do -23 LUFS to podstawa – zarówno w emisji FM, jak i w streamingu cyfrowym, choć tam czasem są inne wymagania, np. -16 LUFS dla podcastów na Spotify. W telewizji publicznej czy dużych rozgłośniach radiowych nieprzestrzeganie tego progu może skutkować odrzuceniem materiału. To taka branżowa gwarancja jakości, zgodnie z zasadą „jeden poziom dla wszystkich”, i moim zdaniem wprowadziła sporo ładu do świata broadcastu. Warto więc od razu przyzwyczaić się do mierników LUFS i pracy z R128 – to standard praktycznie obowiązkowy.

Pytanie 20

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW, możliwy do prawidłowego odczytania w różnych programach DAW?

A. .aiff
B. .wav
C. .omf
D. .caf
Rozszerzenie .omf oznacza plik Open Media Framework, który faktycznie jest szeroko wykorzystywany w branży muzycznej i postprodukcyjnej do przenoszenia projektów pomiędzy różnymi programami DAW, czyli Digital Audio Workstation. Z mojego doświadczenia wynika, że OMF to taki uniwersalny format „most”, dzięki któremu możesz przenieść całą sesję – wraz z pozycjonowaniem ścieżek, fade’ami, a czasem nawet podstawowymi informacjami o automatyzacji – z jednego środowiska do drugiego. Szczególnie przy większych projektach, gdzie pracują ze sobą osoby korzystające z różnych DAW, OMF jest niemalże standardem. Przykładowo, jeżeli ktoś zaczyna miks w Cubase, a potem całość ma być dokończona w Pro Tools, to OMF bardzo ułatwia życie, bo nie trzeba eksportować każdej ścieżki osobno jako audio. Oczywiście, nie jest to format doskonały – nie wszystkie efekty czy wtyczki się przeniosą, ale podstawowe elementy struktury projektu zostaną zachowane. Warto jeszcze wspomnieć, że OMF jest wspierany przez takie programy jak Pro Tools, Logic Pro, Cubase czy Nuendo. W odróżnieniu od typowych formatów audio (WAV, AIFF), OMF nie zawiera tylko dźwięku, ale też informacje o aranżacji sesji. To zupełnie inny poziom wymiany danych niż zwykłe pliki audio, więc na rynku pracy w branży muzycznej czy filmowej to naprawdę przydatna wiedza. Moim zdaniem, znajomość OMF-a i jego ograniczeń to podstawa dla każdego technika czy realizatora nagrań, który chce działać profesjonalnie.

Pytanie 21

W nagraniu zakłócenia w postaci szumów należy redukować z zastosowaniem procesu

A. Noise Reduction
B. HPF
C. Dither
D. Compression
Noise Reduction to specjalistyczny proces, który służy właśnie do redukcji szumów w nagraniach – czy to głosu, czy instrumentów, czy ogólnie w miksie. Cały myk polega na tym, że systemy do redukcji szumów analizują sygnał i starają się usunąć tylko to, co uznają za niepożądane zakłócenia, jak np. szum tła, szum taśmy, buczenie czy nawet szumy wynikające z pracy urządzeń czy kiepskich kabli. W praktyce Noise Reduction stosuje się na etapie postprodukcji, często w programach typu DAW (np. Adobe Audition, Izotope RX – swoją drogą RX to czołówka jeśli chodzi o naprawianie nagrań). Bardzo ważne jest, by nie przesadzić z redukcją, bo wtedy brzmi to nienaturalnie, czasem pojawiają się artefakty i nagranie robi się takie... plastikowe. W branży standardem jest, żeby najpierw zadbać o czyste źródło (dobry mikrofon, izolacja akustyczna), a dopiero potem, jeśli coś w nagraniu zostało, działać za pomocą Noise Reduction. Moim zdaniem, jeśli ktoś poważnie podchodzi do produkcji audio, powinien umieć korzystać z tego typu narzędzi, bo one naprawdę ratują skórę, np. kiedy nagranie robione było w trudnych warunkach terenowych albo ze sprzętem nie najwyższych lotów. Dodatkowo, Noise Reduction to nie tylko filtry – to często zaawansowane algorytmy, które porównują fragmenty ciszy i sygnału, ucząc się, co jest szumem. To jest zupełnie inne podejście niż zwykły EQ czy kompresja.

Pytanie 22

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Freeze.
C. Mute.
D. Fade out.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 23

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 10
B. 1
C. 0,1
D. 100
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 24

Spośród wymienionych programów wskaż ten, który umożliwia zarówno zapis audio, jak i komunikatów MIDI.

A. WaveLab.
B. Cubase.
C. Sound Forge.
D. Audacity.
Cubase to zdecydowanie jedno z najbardziej rozpoznawalnych narzędzi typu DAW (Digital Audio Workstation) na rynku, zwłaszcza jeśli chodzi o produkcję muzyki zarówno na poziomie profesjonalnym, jak i amatorskim. Wyróżnia się tym, że umożliwia nie tylko nagrywanie i edycję ścieżek audio, ale też bardzo rozbudowaną obsługę komunikatów MIDI – czyli takiego standardu, którym steruje się instrumentami wirtualnymi, syntezatorami czy efektami. Sam często widziałem, jak realizatorzy nagrywają żywe instrumenty, wokale, a jednocześnie dodają partie MIDI np. dla perkusji czy syntezatorów, mając to wszystko w jednym projekcie. Cubase obsługuje też zaawansowane funkcje jak automatyzacja, routing czy integracja z wtyczkami VST, co jest nieocenione przy miksie i masteringu. Z mojego doświadczenia wynika, że jest to program bardzo elastyczny, nadający się zarówno do prostych nagrań domowych, jak i skomplikowanych sesji studyjnych. W branży muzycznej uważany jest za jeden ze standardów, a możliwość płynnej pracy z MIDI i audio znacząco przyspiesza kreatywny proces i ułatwia zachowanie wysokiej jakości produkcji.

Pytanie 25

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. WAV
B. MP3
C. RIFF
D. FLAC
Format MP3 to chyba najpowszechniejszy przykład kodowania stratnego w świecie plików audio. Cała idea polega na tym, że dane dźwiękowe są kompresowane w taki sposób, by plik był dużo mniejszy niż oryginał, a dla przeciętnego słuchacza jakość brzmiała prawie identycznie z oryginałem – szczególnie przy wyższych bitrate'ach. Kluczowe jest tutaj to, że MP3 wykorzystuje psychoakustykę, czyli usuwa te fragmenty dźwięku, których ludzki słuch i tak najprawdopodobniej by nie wychwycił. To sprawia, że pliki MP3 są idealne do przechowywania muzyki na urządzeniach mobilnych, wysyłania przez internet czy wykorzystywania w serwisach streamingowych. Standard ISO/IEC 11172-3 dokładnie opisuje, jak ta kompresja ma wyglądać, by zachować jak najlepszą równowagę między wielkością pliku a jakością dźwięku. Z mojego doświadczenia w pracy z dźwiękiem mogę powiedzieć, że MP3 to nie jest format dla audiofilów, ale do codziennego słuchania sprawdza się znakomicie. W praktyce nadal ma ogromne zastosowanie, chociaż coraz częściej wypierany jest przez nowsze rozwiązania jak AAC czy Ogg Vorbis, które dają lepszą jakość przy podobnym rozmiarze pliku. Warto pamiętać, że kodowanie stratne jest kluczowe w sytuacjach, gdzie zależy nam na oszczędności miejsca lub szybkości transmisji – na przykład przy podcastach, muzyce w serwisach internetowych czy dzwonkach telefonicznych.

Pytanie 26

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .aiff
B. .mp3
C. .ac3
D. .omf
Pliki .mp3, choć są zdecydowanie najpopularniejszym formatem kompresji stratnej audio na świecie, to jednak ich głównym przeznaczeniem jest kodowanie dźwięku w trybie stereo lub mono, ewentualnie jako strumień wielokanałowy, ale bez pełnej obsługi przestrzennej typowej dla standardów kina domowego. W praktyce w branży muzycznej i rozrywkowej .mp3 nigdy nie był wykorzystywany do profesjonalnej dystrybucji dźwięku wielokanałowego, bo po prostu nie daje takiej funkcjonalności ani jakości. Z kolei .aiff to klasyczny, nieskompresowany format audio, rozwijany przez Apple. Pozwala co prawda zapisać wiele ścieżek, ale nie jest zoptymalizowany do zapisu dźwięku przestrzennego w jednym pliku zgodnie ze standardami surround (np. 5.1, 7.1 itd.), które są niezbędne w produkcjach filmowych czy telewizji. Raczej używa się go do archiwizacji lub pracy na pojedynczych ścieżkach podczas miksu. .omf to z kolei format przeznaczony do wymiany projektów multimedialnych między różnymi programami DAW. Umożliwia transport wielu ścieżek audio i informacji o projekcie, ale nie jest formatem docelowym do dystrybucji gotowego materiału audio, a już na pewno nie do masteringu wielokanałowego. Często spotykałem się z mylnym przekonaniem, że skoro format coś „widzi” wiele ścieżek to już obsługuje surround – tu właśnie łatwo się pomylić. Kluczowym kryterium jest to, czy dany format pozwala na zapis dźwięku w układzie przestrzennym i jego odczyt na sprzęcie konsumenckim bez dodatkowej obróbki – a tego nie oferują ani .mp3, ani .aiff, ani .omf. W praktyce, jeżeli gdzieś chcemy, żeby dźwięk otaczał widza lub słuchacza z każdej strony, to formaty specjalistyczne jak .ac3 są absolutnie niezbędne. Warto wiedzieć, że dobór formatu pod kątem docelowego odbiorcy i sprzętu jest kluczowym etapem produkcji audio – tu kompromisy często kończą się utratą efektu, na którym zależy realizatorom.

Pytanie 27

Normalizacja nagrania (peak normalization) to

A. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
B. obniżenie średniego poziomu nagrania o 3 dB.
C. obniżenie szczytowego poziomu nagrania o 3 dB.
D. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS.
Normalizacja szczytowa (peak normalization) to podstawa podczas pracy z dźwiękiem, zwłaszcza gdy zależy nam na zachowaniu integralności materiału i ułatwieniu sobie dalszej obróbki. W praktyce chodzi o to, żeby cały plik audio został wzmocniony lub osłabiony tak, by jego najgłośniejszy fragment, czyli tzw. szczyt (peak), osiągnął określony poziom – najczęściej 0 dBFS, czyli maksymalny możliwy poziom w cyfrowym systemie audio bez przesterowania. To istotne, bo dzięki temu możemy mieć pewność, że dźwięk wykorzysta pełen zakres dynamiki dostępnej w systemie, a jednocześnie nie przekroczy granicy, po której zacznie się zniekształcać. Z mojego doświadczenia, normalizacja szczytowa jest często wykorzystywana np. przed masteringiem czy podczas przygotowywania ścieżek do miksu, żeby każdy utwór miał podobny poziom głośności początkowej. Warto pamiętać, że normalizacja peakowa nie wpływa na relacje między cichszymi i głośniejszymi fragmentami, nie zmienia kompresji czy dynamiki – po prostu przesuwa cały sygnał w górę lub w dół. W branży to taki codzienny chleb – szybki sposób na wyrównanie poziomów. Oczywiście, w niektórych sytuacjach bardziej zależy nam na normalizacji średniej (RMS), ale to już zupełnie inna bajka. Tutaj, jeśli zależy nam na tym, żeby nie przekraczać 0 dBFS, a jednocześnie korzystać z pełnej głębi bitowej, peak normalization to najlepsza opcja.

Pytanie 28

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -6 dB.
B. Nagrany z maksymalnym poziomem -0,3 dB.
C. Nagrany z maksymalnym poziomem -12 dB.
D. Nagrany z maksymalnym poziomem -3 dB.
Największa rozpiętość dynamiczna (dynamic range) sygnału cyfrowego osiągana jest wtedy, gdy nagrywamy go jak najbliżej maksymalnego możliwego poziomu, czyli tuż pod tzw. 0 dBFS (Full Scale). Odpowiedź „nagranie z maksymalnym poziomem -0,3 dB” jest w tej sytuacji najbardziej poprawna, bo wykorzystuje niemal cały dostępny zakres sygnału, nie wchodząc jeszcze w obszar przesterowania. W praktyce właśnie taki zapas – drobne poniżej 0 dBFS – jest zalecany w profesjonalnych studiach nagraniowych, bo chroni przed przypadkowym clippingiem, a jednocześnie zapewnia optymalną jakość i najlepszy stosunek sygnału do szumu (SNR). Dla przykładu: jeśli nagrasz wokalistę z maksymalnym poziomem -12 dB, to 12 decybeli potencjalnego zakresu zostaje niewykorzystane, przez co wzrasta udział szumów tła i konwertera AD, co wprost zmniejsza rozpiętość dynamiczną nagrania. Moim zdaniem, takie korzystanie z pełnej skali sygnału to podstawa profesjonalnej realizacji dźwięku, czy to w radiu, czy przy masteringu muzyki. Warto pamiętać, że nawet renomowane urządzenia audio są tak projektowane, by najniższy możliwy poziom szumów osiągać przy silnym, ale nieprzesterowanym sygnale wejściowym. Zalecane standardy AES i EBU również sugerują trzymanie się możliwie wysokiego poziomu sygnału, z minimalnym marginesem bezpieczeństwa, właśnie na poziomie -0,3 lub -1 dBFS.

Pytanie 29

Charakterystyczne punkty na osi czasu w sesji oprogramowania DAW oznaczyć można za pomocą

A. tagów.
B. punktorów.
C. taktów.
D. znaczników.
To właśnie znaczniki są podstawowym narzędziem do oznaczania charakterystycznych punktów na osi czasu w sesji DAW (Digital Audio Workstation). W praktyce, znaczniki pozwalają szybko zaznaczyć istotne fragmenty projektu, np. wejścia refrenu, przejścia między zwrotkami czy miejsca do edycji, bez konieczności przewijania całej sesji. Moim zdaniem, korzystanie ze znaczników to rzecz absolutnie niezbędna nie tylko przy większych produkcjach, ale nawet przy prostych projektach – szukanie danego miejsca w długim nagraniu bez znaczników to istna katorga. Profesjonaliści zawsze polecają, żeby już na etapie nagrywania czy aranżowania umieszczać znaczniki wszędzie tam, gdzie pojawia się coś wartego uwagi: zmiana tempa, wejście nowego instrumentu, a nawet wskazówki dla miksu („tu zrobić fade-out”, „tutaj rozbić wokal na stereo”). Większość DAW-ów, jak Ableton Live, Cubase, FL Studio czy Pro Tools, domyślnie wspiera funkcję znaczników (ang. markerów), bo to już standard branżowy. Umożliwia to sprawną komunikację w zespole oraz pozwala zachować porządek w projekcie, co później bardzo przyspiesza wszelkie poprawki i edycje. Szczerze, nie znam praktyka, który by ignorował znaczniki – to taki must-have w codziennej pracy z DAW.

Pytanie 30

„Fade In – 100 ms” oznacza płynne

A. wyciszenie dźwięku, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/10 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 31

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 10 MB
B. Około 30 MB
C. Około 5 MB
D. Około 20 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 32

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. MP3
B. WAV
C. FLAC
D. WMA
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 33

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. LEAD
B. VOX
C. RHYTHM
D. ORG
Wiele osób, zwłaszcza na początku swojej drogi w branży muzycznej, myli często oznaczenia używane w dokumentacji nagrań. „RHYTHM” kojarzy się z gitarą, to prawda, ale chodzi tu o gitarę rytmiczną, czyli taką, która przede wszystkim podtrzymuje strukturę harmoniczną utworu i tworzy podkład pod resztę aranżu – nie jest to gitara prowadząca, która gra solówki czy wyróżniające się partie. Takie uproszczenie wynika pewnie z tego, że w polskich zespołach czasem nie rozdziela się tych ról aż tak wyraźnie, ale w profesjonalnej produkcji rozróżnienie jest kluczowe. Z kolei „VOX” to skrót od „vocal” i odnosi się do ścieżek wokalnych, najczęściej wokalu prowadzącego, rzadziej chórków czy wokaliz pobocznych – nie ma to nic wspólnego z gitarą, choć wokal, tak jak gitara LEAD, bywa na froncie miksu. Natomiast „ORG” to oznaczenie ścieżki organów lub keyboardu, czyli zupełnie innego instrumentu – czasem w stylach typu rock czy pop organy są ważnym elementem, ale to nie ma żadnego połączenia z gitarą prowadzącą. Częstym błędem jest też myślenie kategoriami nazw polskich i przenoszenie ich bezpośrednio na angielską dokumentację, gdzie skróty i nazwy są znormalizowane. Jeśli chodzi o dobre praktyki w studiu, to precyzyjne opisywanie śladów – LEAD, RHYTHM, BASS, VOX, DRUMS, ORG – pozwala zaoszczędzić mnóstwo czasu i uniknąć nieporozumień podczas miksowania czy edycji. Z mojego doświadczenia wynika, że osoby mylące „RHYTHM” z „LEAD” często nie miały okazji pracować z większą sesją nagraniową albo nie zwracały uwagi na profesjonalną dokumentację, w której ten podział jest standardem. Warto więc już na etapie nauki przyswoić sobie te rozróżnienia, bo potem, przy pracy zespołowej czy w dużym studiu, to jest po prostu niezbędne.

Pytanie 34

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Ekspansja.
B. Normalizacja.
C. Limiting.
D. Kompresja.
Normalizacja faktycznie nie wpływa na rozpiętość dynamiczną nagrania, czyli różnicę pomiędzy najcichszym a najgłośniejszym sygnałem w ścieżce audio. To taki trochę trik stosowany głównie po to, żeby wyrównać poziom głośności całego materiału do określonego maksimum, najczęściej do 0 dBFS, nie zmieniając przy tym relacji między poszczególnymi fragmentami. W praktyce, jak weźmiesz nagranie i zastosujesz normalizację, to po prostu najgłośniejszy moment zostaje podciągnięty do wybranego poziomu, a cała reszta idzie proporcjonalnie w górę – żadne ściski, żadne „rozpychanie” czy zawężanie dynamiki nie ma miejsca. To się przydaje np. jak miksujesz pliki z różnych źródeł, gdzie jeden utwór jest wyraźnie cichszy od innego – normalizacja pozwala szybko wyrównać te poziomy, żeby potem łatwiej można było porównywać lub montować. W branży to podstawa przy eksporcie czy masteringu, ale nikt nie traktuje tego narzędzia jako proces kształtujący dynamikę. Dla odmiany, limiter, kompresor czy ekspander ingerują już w relacje między głośnymi a cichymi fragmentami – dlatego właśnie tylko normalizacja jest tutaj poprawną odpowiedzią. Moim zdaniem, dobrze znać takie różnice, bo potem bez problemu można przewidzieć skutki każdego używanego narzędzia i nie robić przypadkiem bałaganu w miksie.

Pytanie 35

Pierwsza para cyfr w zapisie kodu czasowego SMPTE oznacza

A. sekundę.
B. godzinę.
C. ramkę.
D. minutę.
Kod czasowy SMPTE jest powszechnie stosowany w przemyśle filmowym i telewizyjnym, a jego poprawna interpretacja to podstawa sprawnej pracy z materiałami audiowizualnymi. Wiele osób, które dopiero zaczynają przygodę z tym standardem, myli znaczenie poszczególnych segmentów zapisu, myśląc na przykład, że pierwsza para cyfr to minuta albo nawet ramka. To się niestety zdarza – może wynikać z przyzwyczajeń do innych formatów czasowych, gdzie czasem od razu patrzymy na minuty i sekundy, pomijając godziny, bo rzadko się z nich korzysta na co dzień. Równie częsty błąd to przekonanie, że najważniejsze w montażu są właśnie ramki, bo mają bezpośredni wpływ na synchronizację. Owszem, precyzyjne określenie ramki jest kluczowe przy pracy na poziomie klatki, ale w zapisie SMPTE ich miejsce jest zawsze na końcu, nie na początku. Zapis wygląda zawsze tak: godzina:minuta:sekunda:ramka, więc każda para cyfr ma swoje konkretne miejsce i znaczenie. Gdybyśmy przyjęli, że pierwsza para to minuta lub sekunda, całkowicie rozjechałaby się logika obsługi długich nagrań, bo nagle nie moglibyśmy bezproblemowo odczytać, na którym etapie dużego materiału jesteśmy. Z mojego doświadczenia wynika, że dobra praktyka przy pracy ze standardem SMPTE to regularne sprawdzanie, czy odczytujemy kod prawidłowo i nie sugerujemy się intuicją znaną z codziennych zegarów cyfrowych. W profesjonalnych środowiskach nawet drobna pomyłka w interpretacji kodu czasowego może skutkować poważnymi problemami z synchronizacją dźwięku i obrazu, a czasem nawet utratą cennych fragmentów materiału. Warto więc zapamiętać układ SMPTE i zawsze zaczynać analizę kodu od lewej, gdzie znajdują się godziny – to po prostu branżowy standard, który ułatwia życie wszystkim technikom i realizatorom.

Pytanie 36

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ćwierćnucie.
B. milisekundzie.
C. sekundzie.
D. ramce.
Kod SMPTE to temat, wokół którego narosło sporo nieporozumień, zwłaszcza wśród początkujących montażystów czy realizatorów audio-wideo. Oznaczenie 00:00:00:20 nie dotyczy ani sekund, ani milisekund, ani – co jest jeszcze bardziej egzotyczne – ćwierćnut. Jeśli ktoś pomyli to z sekundą, to pewnie wynika z przyzwyczajenia do czytania czasu jako godzin, minut i sekund, bez zwracania uwagi na ostatnią liczbę po dwukropku. Jednak w standardzie SMPTE ta ostatnia wartość zawsze odnosi się do numeru klatki (ramki) w obrębie danej sekundy. Milisekundy często mylą się osobom, które pracują głównie z dźwiękiem w DAW-ach, gdzie czas bywa liczony w milisekundach, ale w filmie i telewizji królują ramki. Z kolei ćwierćnuta to już zupełnie inna bajka – to określenie muzyczne, a nie jednostka czasu w wideo. W praktyce, błędne utożsamianie wartości SMPTE z sekundami albo milisekundami prowadzi do poważnych problemów z synchronizacją materiałów – na przykład dźwięk może wypaść z obrazu, a efekty specjalne przeskoczyć w nieodpowiedni moment. Co więcej, ignorowanie tej konwencji stoi w sprzeczności z branżowymi dobrymi praktykami, gdzie synchronizacja „do ramki” jest kluczowa zwłaszcza przy pracy z telewizją czy filmem. Moim zdaniem, jeśli ktoś chce mieć porządek w projekcie i nie gubić się przy obróbce materiału, musi wyrobić sobie nawyk czytania kodu SMPTE właśnie przez pryzmat ramek, nie innych jednostek. To pozwala uniknąć wielu typowych błędów i daje kontrolę nad każdym szczegółem w materiale.

Pytanie 37

Do przekazywania informacji, dotyczących sposobu montażu wyłącznie plików dźwiękowych w postprodukcji filmowej, wykorzystuje się pliki

A. OEM
B. EDL
C. SDL
D. AAF
Często się zdarza, że osoby uczące się postprodukcji mylą różne formaty plików używanych w montażu dźwięku i obrazu, co jest w sumie zrozumiałe, bo nazw i skrótów jest cała masa. Zacznijmy może od SDL – takie rozszerzenie rzeczywiście istnieje w informatyce, ale nie jest to żaden standard branżowy związany z postprodukcją filmową. SDL (Simple DirectMedia Layer) to raczej biblioteka programistyczna używana do obsługi grafiki i dźwięku w grach czy aplikacjach multimedialnych, a nie format wymiany projektów montażowych czy list montażu. Z kolei AAF (Advanced Authoring Format) to już coś poważniejszego i rzeczywiście stosowanego w branży audio-video, ale warto zapamiętać, że AAF służy do znacznie bardziej zaawansowanej wymiany projektów, zawierając zarówno obraz, jak i dźwięk, wraz z całą strukturą montażową, efektami czy metadanymi. Ten format jest wykorzystywany głównie wtedy, gdy trzeba przenosić złożone projekty między dużymi systemami DAW lub NLE – trochę jak „projekt w pudełku”. Jednak do prostego przekazania samych decyzji montażowych (co, kiedy i gdzie się pojawia na ścieżce dźwiękowej), EDL jest zdecydowanie szybszy i bardziej uniwersalny. No i jeszcze OEM – tu chyba ktoś się zakręcił, bo to w branży technologicznej zwykle oznacza producenta oryginalnego sprzętu (Original Equipment Manufacturer) i nie ma żadnego związku z montażem dźwięku. Moim zdaniem to dobre przypomnienie, żeby zawsze sprawdzać, czy dany skrót faktycznie funkcjonuje w danym kontekście branżowym. W praktyce, jeśli chodzi o prosty, sprawdzony sposób przekazywania informacji o montażu ścieżek dźwiękowych w filmie, EDL pozostaje nie do zastąpienia – głównie dzięki swojej prostocie i powszechnej akceptacji przez najważniejsze narzędzia na rynku. Często słyszę, że początkujący próbują używać AAF do wszystkiego, ale to trochę jak strzelać z armaty do muchy, jeśli potrzeba jest bardzo konkretna i niewielka. Dlatego warto zapamiętać, który format do czego służy – to znacznie ułatwi pracę w przyszłości.

Pytanie 38

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. masteringu nagrania.
B. zapisywania pliku wynikowego.
C. edycji nagrania.
D. wciągania plików dźwiękowych do sesji montażowej.
Wybór ostatecznego formatu i parametrów pliku dźwiękowego to, moim zdaniem, jeden z najważniejszych momentów w całym procesie pracy z dźwiękiem. To właśnie podczas zapisywania pliku wynikowego decydujesz, czy Twój utwór będzie w formacie WAV, MP3, FLAC, a może jeszcze innym. Wtedy ustawiasz też takie rzeczy jak częstotliwość próbkowania (na przykład 44,1 kHz lub 48 kHz), głębię bitową (16 bitów, 24 bity), ewentualną kompresję i wiele innych detali. Dlatego branżowym standardem jest, żeby na tym etapie być bardzo uważnym – nie raz już widziałem, jak nawet świetne miksy traciły na jakości przez nieprzemyślany eksport. Przykładowo, jeśli nagrywasz muzykę na CD, musisz wyeksportować plik do WAV 16 bitów 44,1 kHz, bo taki jest wymóg płyty. Z kolei do serwisów streamingowych często zaleca się eksport 24 bity i 48 kHz, nawet jeśli finalnie pliki zostaną przekonwertowane, bo zachowuje się wtedy lepszą jakość źródłową. Dobrym zwyczajem jest też przygotowanie kilku wersji pliku: osobno do masteringu, osobno na streaming i osobno do archiwum – to bardzo pomaga uniknąć późniejszych problemów z kompatybilnością. Ustawienia te nie są wybierane automatycznie ani w trakcie montażu, ani podczas masteringu – zawsze musisz świadomie podjąć decyzję tuż przed eksportem. No i pamiętaj: formaty stratne (MP3, AAC) zawsze pogorszą jakość względem bezstratnych (WAV, FLAC), więc jeśli nie musisz, lepiej używaj bezstratnych. W mojej opinii, to właśnie kontrola nad eksportem decyduje o końcowej jakości pliku.

Pytanie 39

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. resamplingu.
B. kompresji stratnej.
C. kompresji bezstratnej.
D. oversamplingu.
Wiele osób myli pojęcia związane z przetwarzaniem sygnałów audio, szczególnie kiedy mowa o zmniejszaniu rozmiaru plików i zachowywaniu jakości. Resampling to proces polegający na zmianie częstotliwości próbkowania sygnału, co może skutkować utratą pewnych informacji o oryginalnym brzmieniu, zwłaszcza jeśli nowa częstotliwość jest niższa. To narzędzie przydatne w określonych przypadkach, na przykład gdy chcemy dostosować dźwięk do odtwarzania na sprzęcie o innych parametrach, ale nie gwarantuje zachowania wszystkich detali oryginału. Oversampling zaś to technika odwrotna – polega na zwiększeniu częstotliwości próbkowania, co może poprawić jakość odtwarzania w specyficznych zastosowaniach, ale nie zmniejsza rozmiaru pliku, wręcz przeciwnie, zwykle go powiększa, więc zupełnie nie rozwiązuje omawianego problemu. Kompresja stratna, którą często stosuje się w popularnych formatach jak MP3 czy AAC, zdecydowanie nie jest metodą do zachowywania pełnej informacji – w tym przypadku część danych jest celowo usuwana, co zmniejsza rozmiar pliku, ale bez możliwości ich odzyskania. To jest dobre podejście tam, gdzie jakość nie jest priorytetem, na przykład w strumieniowaniu muzyki albo na urządzeniach przenośnych z małą pamięcią. W praktyce wybór tych sposobów wynika często z błędnego założenia, że „zmiana parametrów pliku zawsze wystarczy”, ale jeśli komuś zależy na wiernym odwzorowaniu oryginalnego sygnału, tylko kompresja bezstratna spełnia te wymagania. To jest potwierdzone zarówno przez standardy branżowe, jak i doświadczenie realizatorów dźwięku – po prostu nic innego nie daje gwarancji, że wszystkie szczegóły brzmienia zostaną zachowane przy mniejszym rozmiarze pliku.

Pytanie 40

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/16 bitów
B. 44100 Hz/24 bity
C. 48000 Hz/24 bity
D. 48000 Hz/16 bitów
Odpowiedź 44100 Hz/16 bitów jest absolutnie zgodna ze standardem CD-Audio, który został przyjęty już w latach 80. przez Sony i Philipsa. W praktyce oznacza to, że jeśli tworzysz projekt w DAW na takich właśnie ustawieniach, plik wynikowy nada się do tłoczenia na płycie CD bez żadnych dodatkowych konwersji czy strat jakości. Samo 44100 Hz to częstotliwość próbkowania, która pozwala na uzyskanie pasma przenoszenia do 20 kHz, czyli tyle, ile słyszy przeciętny człowiek – moim zdaniem to trochę symboliczne, bo uwzględnia „pełne” pasmo audio. 16 bitów daje 96 dB zakresu dynamiki, co na swoje czasy było naprawdę wystarczające (i do dzisiaj zupełnie wystarcza do muzyki popularnej, audiobooków czy podcastów na CD). W studiu czasami pracuje się z wyższymi parametrami, np. 24 bity czy 48 kHz, żeby mieć większy zapas do edycji, ale finalny eksport na CD-Audio zawsze musi być w tych parametrach: 44,1 kHz i 16 bitów. Takie ustawienie sesji od początku minimalizuje konieczność konwertowania plików, co – z mojego doświadczenia – eliminuje ryzyko degradacji jakości i niepotrzebnych błędów przy eksporcie. Dobrze się tego trzymać, szczególnie jeżeli docelowy medium to klasyczna płyta CD.