Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 3 maja 2026 14:41
  • Data zakończenia: 3 maja 2026 14:54

Egzamin zdany!

Wynik: 30/40 punktów (75,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 1
B. 100
C. 0,1
D. 10
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 2

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 2 ścieżki.
C. 3 ścieżki.
D. 1 ścieżkę.
Przygotowanie czterech ścieżek monofonicznych w sesji DAW do montażu kwartetu smyczkowego nagranego techniką MM (czyli mikrofonu monofonicznego na każdy instrument) to absolutny standard, który wynika z charakterystyki samego zespołu. Kwartet smyczkowy składa się z czterech indywidualnych instrumentów: dwóch skrzypiec, altówki i wiolonczeli. Każdy z nich najczęściej nagrywany jest oddzielnie, osobnym mikrofonem, aby uzyskać pełną kontrolę nad brzmieniem każdego głosu w miksie. Takie podejście pozwala na niezależną edycję, panoramowanie, korekcję czy zastosowanie efektów w postprodukcji. Branżowe workflow zakłada, że jedna ścieżka odpowiada jednemu mikrofonowi, a tym samym jednemu instrumentowi – i to jest dobra praktyka, bo daje maksimum możliwości podczas miksowania. Moim zdaniem, jeśli ktoś próbowałby ograniczyć się do jednej czy dwóch ścieżek, to ograniczałby swobodę pracy i detaliczność miksu – po prostu nie da się uzyskać tej samej precyzji. Dodatkowo, jeśli planujesz rozbudować aranżacje czy korzystać z różnych ujęć mikrofonowych w większych składach, taka zasada – jedna ścieżka na każdy głos lub mikrofon – znacznie ułatwia późniejszą organizację sesji. Warto też pamiętać, że przygotowanie odpowiedniej liczby ścieżek już na etapie sesji nagraniowej to domena profesjonalistów i gwarancja sprawnego przebiegu pracy.

Pytanie 3

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Mini Disc
B. Dysk SSD
C. Karta SDHC
D. Kaseta DAT
Mini Disc to naprawdę ciekawy przykład nośnika, który wykorzystuje technologię magnetooptyczną. Chodzi o to, że zapis i odczyt danych odbywa się tutaj dwoma metodami naraz – magnetyczną i optyczną, co daje unikalne właściwości, takie jak odporność na pole magnetyczne i dość dużą trwałość zapisu. Nośnik ten działa w ten sposób, że laser lokalnie rozgrzewa wybrany fragment dysku, a zmienne pole magnetyczne modyfikuje orientację domen magnetycznych tylko w tym rozgrzanym miejscu. Przy czytaniu laser odczytuje zmiany polaryzacji światła odbitego, które zależą właśnie od tych zmian magnetycznych. Z mojego doświadczenia z branży audio, Mini Diski przez długi czas były cenione właśnie za połączenie zalet zapisu cyfrowego z fizyczną ochroną danych – można je było bezpiecznie przenosić, kopiować i kasować, co w tamtych czasach nie było takie oczywiste. W praktyce używano ich głównie w sprzęcie audio, zwłaszcza przenośnych rejestratorach i odtwarzaczach, ale spotykało się je także w studiach nagraniowych i profesjonalnych zastosowaniach reporterskich. Magnetooptyka przetrwała dzięki swojej niezawodności w archiwizacji – niektórzy stosują podobne rozwiązania nawet dziś, choć technologia została wyparta przez pendrive'y czy SSD. No i taka ciekawostka: Mini Disc pozwalał na kasowanie i ponowny zapis, co było nieosiągalne dla zwykłych płyt CD-Audio – tutaj naprawdę widać przewagę tej technologii. Jeśli chodzi o normy – Mini Disc był zgodny ze standardami Sony dotyczącymi formatu ATRAC, a sama technologia magnetooptyczna była stosowana też w większych systemach archiwizacyjnych, więc to rozwiązanie naprawdę miało szerokie zastosowanie.

Pytanie 4

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .omf
B. .aiff
C. .mp3
D. .ac3
Format pliku .ac3, czyli Dolby Digital Audio Coding 3, to jeden z najważniejszych standardów w branży filmowej i szeroko rozumianej postprodukcji dźwięku. Umożliwia on zapis i dystrybucję dźwięku wielokanałowego, najczęściej w systemie 5.1, co oznacza pięć kanałów pełnopasmowych i jeden kanał niskich częstotliwości (subwoofer). Ten format jest wykorzystywany głównie na płytach DVD, Blu-ray, w telewizji cyfrowej, a nawet w kinach domowych. Z mojego doświadczenia, kiedy pracowałem przy projektach filmowych, to właśnie pliki .ac3 były standardem przy masteringu ścieżek surround – inne formaty praktycznie nie wchodziły w grę. Plik .ac3 pozwala na zachowanie wysokiej jakości dźwięku przy stosunkowo niewielkim rozmiarze, co jest kluczowe przy dystrybucji. Bardzo ciekawą rzeczą jest to, że standard Dolby Digital jest wspierany przez większość amplitunerów i odtwarzaczy, co daje uniwersalność i pewność, że zamierzony efekt trafi do odbiorcy. Moim zdaniem, jeśli ktoś chce na poważnie wejść w świat dźwięku przestrzennego, to bez znajomości .ac3 ani rusz. W branży to taki must have. Warto też zauważyć, że .ac3 zapewnia obsługę metadanych, co ułatwia późniejsze dostosowanie dźwięku do różnych warunków odsłuchowych, np. przy dynamicznym tłumieniu dialogów czy automatycznym wyrównywaniu poziomów.

Pytanie 5

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .cmx
B. .ldm
C. .fla
D. .edl
Format .edl, czyli Edit Decision List, to cyfrowa forma listy montażowej używana praktycznie w każdej większej produkcji filmowej czy telewizyjnej. Plik EDL zawiera zestawienie najważniejszych decyzji montażowych: numery ujęć, punkty wejścia i wyjścia, kolejność oraz podstawowe efekty przejść pomiędzy klipami. Moim zdaniem, to taki pomost między starym montażem taśmowym, a współczesnym montażem nieliniowym – bo pozwala przenieść strukturę montażu do różnych programów, jak np. Avid, DaVinci Resolve czy Adobe Premiere. W praktyce montażysta eksportuje EDL z jednego systemu, żeby szybko odtworzyć układ projektu w innym środowisku albo w studiu postprodukcji. Co ciekawe, format EDL jest uznany za branżowy standard – ma już swoje lata, ale do dziś jest mocno używany przy wymianie projektów między stacjami roboczymi. Najważniejsze w praktycznym zastosowaniu jest to, że EDL nie przenosi wszystkich efektów czy warstw, ale świetnie sprawdza się do podstawowej struktury i przyspiesza cały workflow. Jeśli kiedyś trafisz na archiwalne projekty albo będziesz musiał współpracować ze studiem dźwiękowym czy VFX, znajomość EDL naprawdę się przydaje. W sumie ciężko wyobrazić sobie profesjonalny pipeline bez tego typu plików, nawet jeśli współczesne formaty XML czy AAF oferują więcej możliwości.

Pytanie 6

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 60 s
B. 120 s
C. 10 s
D. 1 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 7

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 12 dB/okt.
B. 24 dB/okt.
C. 6 dB/okt.
D. 18 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 8

Który z podanych nośników umożliwia magnetooptyczny zapis dźwięku?

A. Dysk MD
B. Płyta CD
C. Dysk SSD
D. Płyta DVD
Wybór innych nośników jak płyta CD, płyta DVD czy dysk SSD bywa kuszący, zwłaszcza że wszystkie te urządzenia kojarzą się z zapisem danych, także dźwięku. Jednak od strony technologicznej warto rozróżnić zastosowane w nich metody zapisu i odczytu. Płyta CD oraz DVD to klasyczne przykłady nośników optycznych – laser odczytuje i wypala informacje w warstwie poliwęglanowej, ale proces nie obejmuje rejestrowania zmian magnetycznych, więc nie spełnia definicji zapisu magnetooptycznego. Wersje CD-RW czy DVD-RW owszem pozwalają kasować i nagrywać dane wielokrotnie, ale to nadal czysta technologia optyczna, oparta na zmianach fazowych materiału pod wpływem lasera. Dysk SSD zaś wykorzystuje pamięci flash, w których dane zapisywane są przez sterowanie ładunkami elektrycznymi w komórkach półprzewodnikowych, zupełnie inny mechanizm niż w zapisie magnetooptycznym. Typowe nieporozumienie polega tu na utożsamianiu wszystkich nośników cyfrowych z możliwością „zwykłego” zapisu dźwięku, bez zwracania uwagi na konkretną fizykę procesu – a to dość duży błąd z punktu widzenia technologii informatycznych. Z mojego doświadczenia takie uproszczenia prowadzą potem do nieporozumień przy pracy z archiwizacją czy odzyskiwaniem danych. W praktyce, spośród wymienionych tylko dysk MD wykorzystuje unikalne połączenie działania pola magnetycznego i lasera, zgodnie z wymaganiami technologii magnetooptycznej. Praca z różnymi standardami nośników wymaga zrozumienia, jaka technika zapisu jest zastosowana, bo to ma wpływ zarówno na trwałość, jak i na możliwości serwisowania czy odzysku danych, co dobrze widać właśnie na przykładzie MiniDisca w porównaniu do innych rozwiązań.

Pytanie 9

Wielokanałowy format dźwięku przestrzennego 5.1 nie zawiera kanału

A. centralnego tylnego.
B. subbasowego.
C. centralnego przedniego.
D. surround L/R.
Format 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku przestrzennego wykorzystywany w kinie domowym, grach czy transmisjach telewizyjnych. Składa się z sześciu kanałów: lewy przedni, prawy przedni, centralny przedni, lewy surround, prawy surround oraz subbasowy (czyli ten .1, od Low Frequency Effects). Kluczowe jest to, że nie przewiduje się tu czegoś takiego, jak centralny tylny kanał – to pojawia się dopiero w bardziej rozbudowanych systemach jak 6.1 lub 7.1. Moim zdaniem to dobrze pokazuje, jak czasem łatwo się pomylić, bo nazwy mogą być mylące – „centralny” kojarzy się z przodem, a „tylny” z dodatkowymi kanałami. W praktyce, kiedy ustawiasz kino domowe, właśnie te dwa kanały surround (lewy i prawy) odpowiadają za efekt przestrzenności za słuchaczem, ale nie są to kanały centralne. Standard Dolby Digital oraz DTS rzeczywiście mówią wprost: tylko jeden centralny (przedni). Z mojego doświadczenia wynika, że nawet profesjonaliści czasem mają z tym problem i szukają czegoś, czego nie ma w 5.1. Warto o tym pamiętać zwłaszcza przy projektowaniu instalacji audio lub przy pracy z mikserami cyfrowymi.

Pytanie 10

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 48 000 Hz, 128 kbps
B. 44 100 Hz, 96 kbps
C. 44 100 Hz, 160 kbps
D. 22 000 Hz, 128 kbps
Kiedy wybieramy parametry pliku mp3 z myślą o jak najmniejszym rozmiarze, warto zrozumieć, jak działają częstotliwość próbkowania i bitrate oraz jak się one przekładają na praktyczny efekt. Często popełnianym błędem jest myślenie, że wystarczy wybrać niższą częstotliwość próbkowania lub wyższy bitrate, żeby poprawić jakość, nie patrząc na wagę pliku. Przykładowo, 22 000 Hz to już dość niska częstotliwość próbkowania, ale jeśli zestawimy ją z bitrate 128 kbps, to finalna waga pliku i tak będzie wyższa niż przy 96 kbps, bo to właśnie bitrate w największym stopniu odpowiada za rozmiar końcowy mp3. Z kolei wybór bitrate 160 kbps przy standardowej częstotliwości 44 100 Hz to już rozwiązanie dobre do muzyki, gdzie liczy się jakość, ale kompletnie chybione, jeśli celem jest minimalizacja rozmiaru. Bitrate 160 kbps znacząco zwiększy wagę pliku, nawet jeśli próbka jest taka sama jak w odpowiedzi poprawnej. Natomiast 48 000 Hz, 128 kbps to parametry spotykane przeważnie w plikach audio do video (np. w produkcji filmowej), więc tutaj bitrate nadal jest wyższy niż 96 kbps, a do tego częstotliwość próbkowania 48 000 Hz nie wpływa już aż tak znacząco na percepcję jakości w stosunku do 44 100 Hz, szczególnie w formacie mp3. Z mojego punktu widzenia największa pomyłka polega na skupianiu się wyłącznie na jednym parametrze – albo tylko bitrate, albo tylko częstotliwość. Tymczasem minimalizacja rozmiaru zawsze będzie najlepiej osiągnięta przez najniższy możliwy bitrate przy zachowaniu akceptowalnej jakości, a 44,1 kHz to kompromisowy standard, który sprawdza się praktycznie wszędzie. Moim zdaniem, poznanie zależności między tymi dwoma parametrami bardzo przydaje się w praktyce, bo pozwala elastycznie podejść do różnych zastosowań: od archiwum, przez podcasty, aż po publikacje w internecie. Warto też unikać mitów, że samo obniżenie częstotliwości rozwiąże problem wagi – w realnych zastosowaniach to bitrate „robi robotę”.

Pytanie 11

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Około pięciokrotny.
B. Mniej niż dwukrotny.
C. Około dziesięciokrotny.
D. Ponad dwudziestokrotny.
Formaty kompresji stratnej, takie jak MP3, AAC czy OGG Vorbis, zostały stworzone właśnie po to, żeby znacząco redukować rozmiary plików audio, a przy tym utrzymać akceptowalną jakość dźwięku. Gdy mamy do czynienia z plikiem WAV (który zazwyczaj jest nieskompresowany i zajmuje sporo miejsca – na przykład typowe 3-minutowe nagranie stereo 44,1 kHz/16 bit to ponad 30 MB), użycie dobrego kodeka stratnego pozwala zejść z rozmiarem do ok. 3 MB. Z mojego doświadczenia – zarówno przy projektach muzycznych, jak i podczas przygotowywania podcastów – stosuje się najczęściej bitrate na poziomie 128-192 kbps, co daje właśnie około dziesięciokrotną redukcję w stosunku do oryginału. Oczywiście, im wyższy bitrate, tym większy plik i lepsza jakość, ale właśnie 10x jest taką sensowną średnią, przy której większość ludzi nie słyszy większej różnicy w typowym sprzęcie. Standardy branżowe, na przykład w streamingach czy archiwizacji nagrań do internetu, bardzo często opierają się na tej proporcji. Praktycznym przykładem jest przesyłanie utworów do serwisów streamingowych – pliki muszą być jak najmniejsze przy zachowaniu jakości, bo to po prostu opłacalne i wygodne. Moim zdaniem, jeśli ktoś zawodowo obrabia dźwięk, to doskonale zna tę zasadę i zawsze balansuje między jakością a optymalnym rozmiarem pliku.

Pytanie 12

Wskaż nośnik, który można przechowywać w pobliżu głośników, bez obaw o utratę danych.

A. Kaseta VHS.
B. Taśma magnetofonowa.
C. MiniDisc.
D. Płyta Blu-ray.
Płyta Blu-ray to nośnik optyczny, co oznacza, że do zapisu i odczytu danych wykorzystuje światło lasera, a nie pole magnetyczne. Z tego względu nie jest podatna na wpływ pola magnetycznego, jakie wytwarzają głośniki czy inne urządzenia elektroniczne. W praktyce, w branży IT i w zastosowaniach domowych, płyty Blu-ray, podobnie jak DVD czy płyty CD, można spokojnie przechowywać nawet w pobliżu silnych głośników, bez ryzyka utraty danych czy uszkodzenia zawartości. To ogromna przewaga nad nośnikami magnetycznymi, gdzie ryzyko rozmagnesowania i utraty informacji jest całkiem realne. Sam kiedyś przechowywałem filmy na Blu-ray zaraz obok kolumn i nigdy nie miałem z tym problemu. To trochę taki standard branżowy – optyczne nośniki są odporne na pole magnetyczne, co czyni je dużo bezpieczniejszym wyborem w tego typu lokalizacjach. Dodatkowa zaleta to długowieczność – prawidłowo przechowywane płyty Blu-ray mogą przetrwać kilkanaście czy nawet kilkadziesiąt lat, o ile nie porysują się mechanicznie. Warto jednak pamiętać, żeby unikać ekstremalnych temperatur czy ekspozycji na światło słoneczne, bo to rzeczywiście może już im zaszkodzić. W sumie, przechowywanie Blu-ray przy głośnikach nie niesie za sobą żadnego ryzyka związanego z ich konstrukcją i technologią zapisu.

Pytanie 13

Który dokument zawiera spis sygnałów wejściowych nagrania wielośladowego?

A. Input List.
B. Playlista.
C. Rider.
D. Layers.
Dokument nazywany Input List to absolutna podstawa przy każdej poważniejszej realizacji nagrania wielośladowego, zwłaszcza na koncertach czy podczas sesji studyjnych, gdzie liczba źródeł dźwięku i kanałów wejściowych potrafi sięgnąć naprawdę sporych wartości. Input List to po prostu lista wszystkich sygnałów, które muszą trafić do miksera lub rejestratora – na przykład mikrofonów, DI-boxów czy innych źródeł. Każdy kanał jest precyzyjnie opisany: np. „Kick IN”, „Snare Top”, „Gitara L”, a często też z numerem wejścia, rodzajem mikrofonu, ewentualnie informacją o phantomie czy specjalnych wymaganiach. Z mojego doświadczenia przygotowanie solidnego Input Listu naprawdę oszczędza nerwów na etapie patchowania sceny i rozstawiania sprzętu – dokładnie wiadomo, co, gdzie i jak ma być podpięte. To trochę taki must-have w branży live i studyjnej, bo nie ma profesjonalisty, który podchodzi do pracy bez tego typu rozpiski. Co ciekawe, bardzo często Input List jest częścią ridera technicznego, ale zawsze jest oddzielnym, szczegółowym dokumentem. Dobrą praktyką jest także aktualizacja tego dokumentu w miarę zmian setupu, bo każda niespodzianka na etapie soundchecku potrafi wywrócić całą realizację do góry nogami. Warto o tym pamiętać, bo Input List to gwarancja porządku i przewidywalności w pracy dźwiękowca.

Pytanie 14

Spośród wymienionych wskaż program dedykowany wyłącznie do edycji audio.

A. Steinberg Cubase
B. Steinberg WaveLab
C. Apple Logic Pro
D. Avid Pro Tools
Steinberg WaveLab to przykład oprogramowania, które od początku projektowano wyłącznie z myślą o edycji i masteringu dźwięku. To narzędzie typowo dla profesjonalistów, którzy skupiają się na pracy z pojedynczymi plikami audio, ich edycją, analizą, korektą i finalnym masteringiem. Nie znajdziesz tu rozbudowanych funkcji typowych dla DAW, jak rozbudowana obsługa MIDI czy wielośladowe nagrywanie sesji muzycznych. Z mojego doświadczenia, WaveLab jest często wybierany przez realizatorów dźwięku przy przygotowywaniu materiału do tłoczenia płyt CD, przygotowywaniu podcastów czy restauracji archiwalnych nagrań, gdzie potrzeba narzędzi do precyzyjnej obróbki fali dźwiękowej – np. usuwania szumów, klików czy korekcji barwy. W branży uznaje się, że dedykowane edytory audio, takie jak WaveLab lub Adobe Audition, zapewniają większą kontrolę nad detalami niż rozbudowane stacje robocze audio (DAW). Takie podejście pozwala uzyskać wyższy poziom jakości końcowego materiału audio, bo narzędzia masteringowe są wyraźnie lepiej zoptymalizowane pod kątem analizy sygnału, renderowania czy eksportu według profesjonalnych standardów (np. Red Book CD, EBU R128). W codziennej pracy z dźwiękiem często korzystam z WaveLab właśnie tam, gdzie liczy się chirurgiczna precyzja i szybkość pracy na plikach audio, np. w radiu albo przy gotowych nagraniach lektorskich.

Pytanie 15

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Na końcowych słowach zdania.
B. Na początkowych słowach zdania.
C. Od nowego zdania.
D. W połowie zdania.
Wybór miejsc innych niż początek nowego zdania do montażu ścieżki dźwiękowej lektora często prowadzi do sporego zamieszania i utraty przejrzystości, zarówno dla realizatora, jak i odbiorcy końcowego. Umieszczanie lektora w połowie zdania zwykle skutkuje nienaturalnym przecięciem logicznej całości – widz nie zawsze wie, do czego odnosi się lektor, łatwo zgubić sens i ciągłość wypowiedzi. Montaż na końcowych słowach zdania z kolei powoduje, że znaczenie oryginalnej wypowiedzi zostaje „urwane”, a nowy głos pojawia się zbyt późno, przez co informacja bywa nieczytelna lub ginie. Początkowe słowa zdania to już lepsza opcja, ale nawet tu można wpaść w pułapkę – jeśli lektor wchodzi tylko na pierwsze wyrazy, a potem znika lub pojawia się z opóźnieniem, całość brzmi poszarpanie. Osobiście zauważyłem, że osoby początkujące często myślą, że wystarczy wstawić lektora tam, gdzie akurat „jest miejsce”, bez analizowania sensu wypowiedzi czy tempa materiału. To błąd – praktyka i wytyczne branżowe, choćby te, które znajdują się w instrukcjach dla tłumaczy i realizatorów dźwięku, jasno wskazują, że nowa ścieżka lektorska powinna zaczynać się równo z początkiem nowego zdania, bo to gwarantuje spójność komunikatu. W innym przypadku pojawiają się niepotrzebne trudności z odbiorem, a efekt końcowy jest po prostu nieprofesjonalny. Pamiętaj, że komfort odbiorcy i czytelność to zawsze priorytet w realizacji ścieżek lektorskich.

Pytanie 16

Normalizacja z opcją korekty RMS wpływa

A. na poziom średni i szczytowy.
B. wyłącznie na poziom szczytowy.
C. na szum kwantyzacji.
D. wyłącznie na poziom średni.
Wokół normalizacji audio narosło sporo nieporozumień, zwłaszcza jeśli chodzi o opcję korekty RMS. Często można spotkać się z przekonaniem, że normalizacja wpływa wyłącznie na poziom szczytowy albo tylko na średni, co nie jest do końca prawdą, szczególnie gdy w grę wchodzi RMS. Założenie, że RMS dotyczy tylko szumów kwantyzacji, jest mylące – RMS w praktyce pomaga dostosować ogólną głośność materiału, a nie ingeruje bezpośrednio w sam poziom szumów wynikających z procesu cyfryzacji. Jeśli zaś chodzi o twierdzenie, że normalizacja RMS wpływa wyłącznie na poziom średni, to również nie oddaje pełnego obrazu – zmiana poziomu RMS z definicji pociąga za sobą także korektę poziomu szczytowego, bo oba są ze sobą powiązane. Skupianie się tylko na szczytach (tzw. Peak) prowadzi często do sytuacji, gdzie materiał jest teoretycznie głośny, ale w realnym odsłuchu brzmi cicho, bo średni poziom pozostaje niski. To dość popularny błąd myślowy, zwłaszcza u osób stawiających pierwsze kroki w montażu dźwięku lub masteringu. W praktyce, gdy korzystasz z normalizacji RMS, automatycznie wpływasz zarówno na odbiór głośności (czyli poziom średni), jak i na to, jak blisko górnej granicy idą szczyty. Branżowe standardy, takie jak EBU R128 czy ITU-R BS.1770, kładą nacisk właśnie na równoważenie tych parametrów, by uzyskać spójny materiał pod względem głośności bez nieprzyjemnych przesterowań. Dlatego patrzenie na normalizację RMS jednostronnie – tylko przez pryzmat szumów, pojedynczych szczytów lub wyłącznie średniej – jest nieścisłe i może skutkować materiałem niespełniającym oczekiwań jakościowych. Dobre praktyki podpowiadają, żeby zawsze myśleć o RMS jako o narzędziu równoważącym oba poziomy, co przekłada się na lepszy efekt końcowy – czy to w muzyce, czy w materiałach mówionych.

Pytanie 17

Kopię bezpieczeństwa materiału dźwiękowego sporządza się

A. z niższą rozdzielczością.
B. z wyższą rozdzielczością.
C. w źródłowych parametrach.
D. z niższą częstotliwością.
Kopia bezpieczeństwa materiału dźwiękowego powinna zawsze być tworzona w tych samych, źródłowych parametrach, co oryginał. To jest taka podstawowa zasada w branży audio, o której czasami niestety się zapomina. Jeśli zapiszesz plik z obniżoną jakością – na przykład zmniejszysz rozdzielczość bitową lub częstotliwość próbkowania – to nie zrobisz prawdziwej kopii bezpieczeństwa, tylko stworzysz nową, gorszą wersję. A w razie awarii nie odzyskasz pełnej jakości oryginału. Moim zdaniem to trochę jakby robić ksero ważnego dokumentu na rozmazanym papierze – formalnie jest kopia, ale po co taka, z której nie da się nic odczytać? Profesjonalne studia nagraniowe, archiwa radiowe i wszyscy, którzy na poważnie zajmują się dźwiękiem, zawsze archiwizują materiał w parametrach źródłowych. Przykładowo, jeśli oryginalny plik to WAV 48kHz/24bit, backup też musi być dokładnie taki sam, bez żadnej kompresji stratnej czy downgrade'u parametrów. Taką praktykę wymuszają też często wymogi prawne i standardy branżowe, np. zalecenia Międzynarodowej Federacji Przemysłu Fonograficznego (IFPI) czy EBU (European Broadcasting Union). Dodatkowo, mając kopię bezpieczeństwa w oryginalnych parametrach, zawsze możesz wrócić do dowolnej edycji, remasteringu lub konwersji bez ryzyka degradacji jakości. Osobiście uważam, że to jest rozwiązanie, które daje spokój ducha i pewność, że chronisz nie tylko dane, ale też ich wartość artystyczną i użytkową.

Pytanie 18

Technika mikrofonowa MS to technika

A. binauralna.
B. ambisoniczna.
C. monofoniczna.
D. stereofonii natężeniowej.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę ciekawe rozwiązanie w rejestracji dźwięku, szczególnie jeśli zależy nam na elastyczności późniejszej obróbki sygnału stereo. W tej technice korzysta się z dwóch mikrofonów – jeden ustawiony jest na środek (Mid), najczęściej o charakterystyce kardioidalnej, a drugi na boki (Side), co zazwyczaj oznacza charakterystykę ósemkową. Dzięki temu uzyskujemy sygnał, z którego można stworzyć obraz stereofoniczny na podstawie różnic w natężeniu sygnału, a nie tylko fazie. To się nazywa stereofonia natężeniowa, bo opiera się właśnie na różnicy poziomów sygnału w kanałach lewym i prawym. Ogromną zaletą tej techniki jest możliwość regulacji szerokości stereo już po nagraniu – w praktyce wystarczy manipulować proporcją sygnału Mid do Side podczas miksu. W branży studyjnej MS jest wręcz standardem np. przy rejestracji chóru, orkiestry, ale też do nagrań plenerowych czy nawet w broadcastingu, bo zapewnia świetną mono-kompatybilność. Z mojego doświadczenia wynika, że inżynierowie lubią MS za jego wszechstronność – czasem uratuje nagranie, które w klasycznej parze XY nie daje rady. Ciekawostka: obecnie wiele profesjonalnych pluginów DAW pozwala na rozbudowaną edycję MS, więc warto znać tę technikę nawet jeśli nie pracuje się na żywych mikrofonach.

Pytanie 19

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. DCC
B. ADAT
C. CC
D. SACD
Super, trafiłeś w sedno. SACD, czyli Super Audio CD, to standard zapisu dźwięku, który faktycznie wykorzystuje nośniki optyczne – w tym przypadku specjalnie przygotowane płyty podobne do klasycznych CD, ale o zdecydowanie większych możliwościach. SACD powstało głównie po to, żeby zapewnić słuchaczom lepszą jakość dźwięku niż tradycyjne płyty kompaktowe. W praktyce zapis na SACD odbywa się w technologii DSD (Direct Stream Digital), która pozwala osiągnąć bardzo szerokie pasmo przenoszenia i niski poziom zakłóceń. Co ciekawsze, nośniki SACD są odporne na wiele typowych uszkodzeń, a sama płyta potrafi zawierać zarówno warstwę kompatybilną ze zwykłymi odtwarzaczami CD, jak i warstwę wysokiej rozdzielczości, czy to stereo, czy nawet wielokanałową. Z mojego doświadczenia, chociaż obecnie standard SACD nie jest już aż tak popularny jak kiedyś (przez streaming i pliki cyfrowe), to w studiach nagraniowych i wśród audiofilów wciąż budzi spore zainteresowanie. W branży uznaje się SACD za przykład standardu, który świetnie wykorzystał możliwości nośnika optycznego do przenoszenia bardzo wysokiej klasy dźwięku bez strat, co kiedyś miało naprawdę ogromne znaczenie przy archiwizacji muzyki czy produkcji audio o najwyższej jakości.

Pytanie 20

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 96 kHz
B. 48 kHz
C. 32 kHz
D. 16 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 21

Oprogramowania DAW umożliwiają odtwarzanie, bez uprzedniej konwersji, plików dźwiękowych zapisanych w formacie

A. .wav
B. .m4a
C. .mp3
D. .ogg
Wiele osób zakłada, że DAW-y obsługują każdy popularny format audio, bo przecież .mp3 czy .m4a są niemal wszędzie obecne – w telefonach, na YouTube czy Spotify. Jednak w praktyce, programy do produkcji muzycznej stawiają głównie na jakość i uniwersalność plików, a tutaj formaty stratne, takie jak .mp3, .ogg czy .m4a, nie do końca się sprawdzają. Główny powód to kompresja stratna – tego typu pliki usuwają pewne fragmenty dźwięku, żeby zmniejszyć rozmiar, co niestety odbija się na jakości nagrania. DAW-y, owszem, czasem umożliwiają import takich plików, ale często wymagają wtedy konwersji do formatu nieskompresowanego (np. wav lub aiff), żeby można było je poprawnie edytować lub miksować. Spotkałem się z sytuacjami, gdzie ktoś chciał zacząć pracę w projekcie na mp3 i okazywało się, że wtyczki nie zaczytują poprawnych długości, pojawiają się dziwne szumy albo synchronizacja się rozjeżdża. Moim zdaniem wiele osób nie zdaje sobie sprawy z technicznych ograniczeń – DAW-y, szczególnie w profesjonalnym środowisku, muszą być stabilne i przewidywalne, a tego nie da się osiągnąć na formatów stratnych. Ogg i m4a są w ogóle mniej popularne w branży muzycznej – mogą się pojawić raczej w grach czy aplikacjach mobilnych, ale nie w produkcji studyjnej. Często też pojawia się mylne przekonanie, że im mniejszy plik, tym lepiej, ale w audio to tak nie działa – każdy DAW preferuje pliki wav, bo są one standardem branżowym, gwarantują pełną kompatybilność i jakość. Warto o tym pamiętać, bo praca na nieodpowiednich formatach może prowadzić do niepotrzebnych komplikacji na etapie miksu czy masteringu.

Pytanie 22

W celu osiągnięcia maksymalnej wydajności oprogramowania DAW podczas prac montażowych i miksu rozmiar bufora programowego powinien zostać ustawiony na wartość

A. 32 próbek.
B. 256 próbek.
C. 512 próbek.
D. 1 024 próbek.
W branży muzycznej często pojawia się przekonanie, że im mniejszy bufor, tym lepiej, bo uzyskujemy wtedy niższą latencję. Jednak takie podejście nie sprawdza się podczas montażu i miksu w DAW, gdzie kluczowa staje się stabilność i wydajność całego systemu. Warto zrozumieć, że bufor rzędu 32, 256 czy nawet 512 próbek sprawdzi się głównie w trakcie nagrywania na żywo, gdy każdy milisekundowy opóźnienia może być odczuwalny dla muzyka. Natomiast podczas miksowania nie jesteśmy już ograniczeni przez latencję, tylko przez moc obliczeniową komputera i liczbę aktywnych wtyczek oraz ścieżek. Zbyt niska wartość bufora prowadzi do przeciążenia procesora, pojawiają się trzaski, dropy, czasem nawet całkowity zanik dźwięku. To typowy błąd, szczególnie wśród początkujących, którzy myślą, że cały czas trzeba mieć jak najmniejszy bufor. Prawda jest taka, że przy miksie, gdzie mamy dziesiątki ścieżek, automatyzacje i zaawansowane efekty, większy bufor — właśnie 1024 próbki lub więcej — zapewnia płynność i eliminuje artefakty. Z mojego doświadczenia wynika, że dobrym nawykiem jest zmiana rozmiaru bufora w zależności od etapu pracy: minimalny przy nagrywaniu, maksymalny przy miksie i edycji. Warto też pamiętać, że niektóre wtyczki, zwłaszcza masteringowe, same wymagają większych buforów do poprawnego działania. Jeśli ktoś ustawi 32 lub 256 próbek podczas miksowania, bardzo szybko przekona się, że komputer ledwo zipie, szczególnie na bardziej zaawansowanych projektach. Podsumowując, ustawianie zbyt małego bufora podczas montażu i miksu to klasyczny błąd wynikający z niezrozumienia potrzeb danego etapu produkcji muzycznej. Odpowiednia konfiguracja bufora to podstawa płynnej i profesjonalnej pracy w DAW.

Pytanie 23

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Instrument.
B. Aux.
C. MIDI.
D. Audio.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 24

Który tryb edycyjny umożliwia przesuwanie regionów ścieżki dźwiękowej do siatki metro-rytmicznej?

A. Slip
B. Spot
C. Shuffle
D. Grid
Slip, Spot i Shuffle to bardzo ciekawe i użyteczne tryby edycyjne, ale jednak nie gwarantują precyzyjnego wyrównania regionów względem siatki metrycznej. Zacznijmy od Slip – w tym trybie można swobodnie przesuwać regiony po osi czasu, zupełnie bez ograniczeń. Często widzę, jak osoby początkujące wybierają ten tryb z przekonaniem, że daje największą kontrolę, ale w praktyce nagminnie pojawiają się tam przypadkowe przesunięcia poza takt czy tempo, co w pracy z muzyką rytmiczną jest po prostu ryzykowne. Spot to trochę inna bajka – pozwala na dokładne ustawienie regionu w określonym miejscu według czasu (np. w minutach czy próbkach), lecz nie jest to powiązane stricte z metrum czy siatką. Spot wykorzystuje się raczej przy montażu dźwięku do obrazu, gdzie liczy się precyzja czasowa względem frame’ów, a nie rytmu. Shuffle z kolei działa na zasadzie „przylepiania” – przesuwane regiony dosuwają się do innych, a całość projektu się reorganizuje, jakby kawałki układanki przesuwały się względem siebie. To sprytne rozwiązanie, kiedy chcemy, by po usunięciu fragmentu reszta automatycznie się przesunęła, ale nie ma to praktycznie nic wspólnego z automatycznym wyrównywaniem do siatki metro-rytmicznej. Moim zdaniem bardzo łatwo tu wpaść w pułapkę myślenia, że skoro regiony się same przesuwają, to wszystko będzie równo, ale w praktyce kończy się to chaosem, zwłaszcza w złożonych aranżacjach. Doświadczony realizator od razu wybierze Grid tam, gdzie musi być zachowana ścisła synchronizacja z tempem – to jest po prostu branżowy standard i nie warto tutaj kombinować z innymi trybami, jeśli zależy nam na profesjonalnym wyniku.

Pytanie 25

Który ze sposobów opisu osi czasu w sesji oprogramowania DAW odnosi się do jednostek czasu?

A. MIN/SEC
B. FRAMES
C. SAMPLES
D. BARS/BEATS
Opcje takie jak FRAMES, SAMPLES czy BARS/BEATS wydają się na pierwszy rzut oka bardzo techniczne i profesjonalne, ale w praktyce każda z nich służy zupełnie innemu celowi niż opis osi czasu w kategoriach jednostek czasu rzeczywistego. FRAMES odnosi się do ramek klatkowych – to jest typowy sposób pracy z wideo i filmem, gdzie synchronizacja dźwięku do obrazu polega na liczeniu ilości klatek na sekundę (np. 24fps, 25fps). To super przydatne, jeśli montujesz ścieżki dźwiękowe pod konkretną animację czy film, ale nie daje nam informacji o czasie jako takim (minuty, sekundy), tylko o położeniu względem klatek obrazu. SAMPLES natomiast to już totalnie techniczny świat – próbki audio to pojedyncze wartości sygnału cyfrowego liczone w tysiącach na sekundę (np. 44100Hz). Praca w próbkach jest bardzo precyzyjna, ale kompletnie nieczytelna dla kogoś, kto chce wiedzieć, ile czasu trwa dany fragment – chyba że ktoś lubi przeliczać setki tysięcy próbek na sekundy, co szczerze mówiąc, nie ma większego sensu w codziennej pracy. BARS/BEATS to podejście typowo muzyczne, związane z metrum i tempem – tu czas odmierzany jest w taktach i uderzeniach, co sprawdza się genialnie przy produkcji muzyki elektronicznej czy aranżacji, ale nie daje nam jasnej informacji o faktycznym czasie trwania – długość taktu zależy przecież od tempa utworu. Moim zdaniem często spotyka się taki błąd: ktoś pracuje w DAW i automatycznie zakłada, że skoro BARS/BEATS to najbardziej „muzyczna” opcja, to jej użycie będzie uniwersalne, a potem okazuje się, że trudno zsynchronizować utwór z wymaganiami czasowymi np. pod reklamę czy intro. Warto zapamiętać: jeżeli potrzebujemy opisać położenie na osi czasu w sposób zrozumiały dla osób spoza środowiska muzycznego, zawsze wybieramy MIN/SEC. To naprawdę ułatwia komunikację z klientem czy zespołem filmowym i pozwala uniknąć nieporozumień.

Pytanie 26

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. TRACK
B. VIEW
C. EVENT
D. EDIT
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 27

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 3 ścieżki.
D. 2 ścieżki.
Prawidłowa odpowiedź to 4 ścieżki, bo właśnie tyle potrzeba do zarejestrowania wielościeżkowego nagrania gitary przy użyciu dwóch mikrofonów podpórkowych (close mików) oraz pary mikrofonów ogólnych ustawionych w systemie XY. Każdy mikrofon powinien mieć swoją oddzielną ścieżkę w sesji DAW – to podstawa profesjonalnej rejestracji, bo tylko wtedy masz pełną kontrolę nad edycją, panoramą, EQ czy efektami na każdym z nich. Takie podejście pozwala potem swobodnie miksować – na przykład przesunąć mikrofony XY szerzej w panoramie, dodać inny pogłos na close mikach albo nawet wyciąć niechciany szum tylko z jednej ścieżki. Moim zdaniem, w praktyce studyjnej to absolutny standard i nie znam realizatora, który by wrzucał dwa mikrofony na jedną ścieżkę – później nie da się tego sensownie rozdzielić. Co ciekawe, taka konfiguracja przydaje się nie tylko przy gitarze, bo identyczna logika działa przy nagrywaniu perkusji, fortepianu czy chórów – osobne ścieżki dla każdego mikrofonu! Warto o tym pamiętać, bo potem przy miksie można wyciągnąć z tych nagrań znacznie więcej. A jeszcze na marginesie – zawsze dobrze jest opisać ścieżki w projekcie, bo przy czterech mikrofonach łatwo się pomylić, gdzie jest XY lewy, a gdzie prawy. To drobiazg, ale bardzo pomaga w kolejnych etapach produkcji.

Pytanie 28

Który z parametrów pliku audio wskazuje rodzaj użytego kodeka?

A. Rozmiar.
B. Przepływność.
C. Nazwa.
D. Rozszerzenie.
W praktyce spotykam się często z sytuacją, gdy osoby zaczynające przygodę z plikami audio mylą parametry takie jak nazwa, rozmiar czy przepływność z faktycznym typem kodeka. Nazwa pliku, choć czasami bywa opisowa (np. "piosenka_mp3"), nie daje gwarancji co do użytego kodeka – można ją dowolnie ustawić i nie ma ona żadnego technicznego związku z formatem zakodowania dźwięku. Rozmiar pliku natomiast zależy od wielu czynników: długości nagrania, wybranej przepływności, ilości kanałów (mono/stereo), a nawet obecności dodatkowych danych, jak okładka czy tagi ID3. To zdecydowanie nie jest parametr wskazujący rodzaj użytego kodeka, bo np. plik MP3 o wysokiej jakości może być większy niż plik FLAC o krótkim czasie trwania. Przepływność (ang. bitrate) to ważna cecha wpływająca na jakość i rozmiar pliku, ale różne kodeki mogą pracować przy tej samej przepływności – np. zarówno MP3, jak i AAC mogą mieć ustawione 128 kbps, a jednak są zakodowane zupełnie inną technologią. Typowy błąd myślowy polega tutaj na zbyt powierzchownym rozumieniu parametrów – łatwo założyć, że to, co widać na pierwszy rzut oka (nazwa, wielkość, bitrate), sugeruje nam wszystko o pliku, podczas gdy tylko rozszerzenie faktycznie jest bezpośrednio powiązane z typem kodeka. Warto w praktyce zwracać uwagę na ten detal, bo poprawna identyfikacja kodeka ma kluczowe znaczenie przy konwersjach, odtwarzaniu i archiwizacji materiałów dźwiękowych. Prawidłowe rozpoznanie kodeka pozwala uniknąć problemów z kompatybilnością i nieporozumień przy pracy z oprogramowaniem audio. W branży zawsze kładzie się nacisk na stosowanie plików z poprawnym rozszerzeniem i weryfikowanie tego parametru, szczególnie w środowiskach profesjonalnych.

Pytanie 29

Której z komend należy użyć w przypadku tworzenia nowego projektu w programie edycyjnym?

A. Export.
B. Load.
C. New.
D. Import.
Komenda „New” to absolutna podstawa w praktycznie każdym programie edycyjnym – niezależnie, czy mówimy o edytorze grafiki, wideo, tekstu czy nawet oprogramowaniu CAD. Jej głównym zadaniem jest utworzenie zupełnie nowego projektu lub dokumentu, czyli czystego miejsca pracy, gdzie użytkownik może rozpocząć swoje zadanie od zera. W większości programów skrót klawiszowy Ctrl+N wywołuje właśnie to polecenie. Moim zdaniem to takie „otwarcie drzwi do pustego pokoju”, gotowego do wypełnienia treścią. Praktycznie rzecz biorąc, bez tej funkcji nie da się zacząć pracy nad czymś zupełnie nowym bez mieszania ze starymi plikami, co jest nieefektywne i niepraktyczne. Warto pamiętać, że branżowe standardy UX przewidują, by funkcja tworzenia nowego projektu była zawsze łatwo dostępna i jednoznacznie opisana – właśnie jako „New”. Dobra praktyka mówi też, żeby przed utworzeniem nowego projektu program pytał o zapisanie bieżących zmian, by nie stracić dotychczasowej pracy. Z mojego doświadczenia, początkujący często mylą „New” z innymi opcjami, przez co tracą czas lub przypadkowo nadpisują ważne dane. Korzystając z „New”, masz pewność, że zaczynasz od czystej kartki i możesz wszystko poukładać dokładnie tak, jak chcesz. To taki techniczny start od zera, bez żadnych „śmieci” z poprzednich projektów.

Pytanie 30

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. Stereo
B. Mono
C. 6.1
D. 5.1
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 31

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Zmiany barwy wokalu.
B. Zmiany barwy poszczególnych instrumentów.
C. Zwiększenia subiektywnej głośności nagrania.
D. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 32

Jakiego rodzaju płyty DVD należy użyć do nagrania największej ilości materiału muzycznego?

A. DVD5
B. DVD9
C. DVD10
D. DVD18
Wybrałeś DVD18, co jest zdecydowanie najbardziej sensowne, jeśli chodzi o maksymalizowanie ilości danych na jednej płycie DVD. DVD18 to tzw. płyta dwustronna, dwuwarstwowa. Oznacza to, że ma dwie warstwy zapisu po każdej stronie, a więc w sumie cztery warstwy do wykorzystania. Dzięki temu DVD18 może pomieścić aż do około 17,1 GB danych, co jest prawie czterokrotnością zwykłej płyty DVD5. W praktyce, jeśli masz bardzo dużo materiałów muzycznych, które chcesz nagrać – np. archiwum płyt, koncerty czy kolekcje plików audio w wysokiej jakości – DVD18 daje największe pole do popisu i nie trzeba się martwić o miejsce. Warto też zauważyć, że takie płyty nie są zbyt popularne w codziennym użyciu, bo wymagają specjalnych nagrywarek, ale w zastosowaniach profesjonalnych lub archiwizacji spotyka się je całkiem często. Moim zdaniem, jeśli ktoś podchodzi na poważnie do tematu archiwizacji muzyki na fizycznych nośnikach, zawsze powinien brać pod uwagę nie tylko pojemność nominalną, ale też kompatybilność sprzętową oraz sposób odczytu – DVD18 wymaga odtwarzania z obu stron, co czasem bywa kłopotliwe, ale coś za coś. Standardy takie jak DVD Forum dokładnie opisują te różnice, więc warto się z nimi zapoznać jeśli planuje się duże projekty nagraniowe.

Pytanie 33

W którym z wymienionych dokumentów normatywnych zapisana jest specyfikacja techniczna płyt CD-DA?

A. W Zielonej Księdze.
B. W Niebieskiej Księdze.
C. W Czerwonej Księdze.
D. W Żółtej Księdze.
Czerwona Księga, czyli Red Book, to absolutna podstawa, jeżeli chodzi o techniczne aspekty płyt CD-DA (Compact Disc Digital Audio). To właśnie w tym dokumencie, stworzonym w latach 80. przez firmy Sony i Philips, szczegółowo opisano nie tylko jak fizycznie wygląda płyta CD, ale też w jaki sposób kodowany jest na niej dźwięk, jakie są parametry próbkowania (44,1 kHz, 16 bitów), odstępy między ścieżkami oraz jak powinno wyglądać zapisywanie informacji kontrolnych. Moim zdaniem, każda osoba związana z audio czy archiwizacją cyfrową powinna choć raz przejrzeć podstawowe założenia Red Booka. W praktyce to właśnie ten standard sprawił, że płyty CD mogły być odtwarzane na dowolnym sprzęcie i zachowywały uniwersalność, co do dziś wykorzystuje się np. w studiach nagraniowych, podczas masteringu lub archiwizacji utworów muzycznych. W branży muzycznej Czerwona Księga to coś jak Biblia dla CD – bez jej wytycznych nie byłoby zgodności między różnymi producentami czy urządzeniami. Fajne jest to, że nawet współczesne odtwarzacze CD bazują na tej specyfikacji, więc nagrania przygotowane zgodnie z Red Bookiem praktycznie zawsze będą prawidłowo odczytywane. To jest właśnie siła standaryzacji i dobrych praktyk technicznych.

Pytanie 34

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. Tools
B. File
C. Edit
D. View
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 35

Która z wymienionych funkcji w wielościeżkowej sesji programu DAW umożliwia ukrycie wybranych ścieżek dźwiękowych?

A. Minimize
B. Hide
C. Resize
D. Close
Opcja 'Hide' w środowisku DAW (Digital Audio Workstation) to bardzo przydatne narzędzie, zwłaszcza kiedy masz do czynienia z dużą liczbą ścieżek w sesji. Ukrywanie ścieżek pomaga utrzymać porządek i przejrzystość podczas miksowania lub edycji, bo można skupić się tylko na tych elementach, które są akurat potrzebne. Wielu producentów korzysta z tej funkcji, kiedy pracuje nad złożonym projektem – na przykład ukrywają ślady perkusji, gdy dopracowują wokale, albo chowają nieużywane wersje partii instrumentalnych, żeby nie rozpraszały uwagi. Moim zdaniem, korzystanie z opcji 'Hide' to już taki standard pracy w profesjonalnych studiach – pozwala zachować czytelność interfejsu i lepiej zarządzać dużymi projektami. Co ciekawe, w większości DAW-ów ukrycie ścieżki nie powoduje jej wyciszenia ani usunięcia – to po prostu organizacyjne rozwiązanie. Przy dłuższych sesjach można sobie oszczędzić mnóstwo frustracji. Z doświadczenia wiem, że osoby, które nie korzystają z tej funkcji, często mają chaos na ekranie i dużo trudniej im znaleźć potrzebne elementy. Warto też pamiętać, że ukrywanie ścieżek to nie tylko kwestia wygody, ale też wydajności – mniej widocznych elementów to szybsza orientacja w sesji, mniej pomyłek i sprawniejsza praca. Można to porównać trochę do porządkowania dokumentów w segregatorach – wszystko jest na swoim miejscu, ale nie zawsze musi być na wierzchu. W sumie – jeśli zależy ci na profesjonalnym workflow, to naprawdę warto korzystać z 'Hide'.

Pytanie 36

Jaki jest czas trwania 441 próbek dźwięku cyfrowego, gdy częstotliwość próbkowania dźwięku wynosi 44,1 kHz?

A. 1 ms
B. 1000 ms
C. 10 ms
D. 100 ms
Czas trwania 441 próbek przy częstotliwości próbkowania 44,1 kHz to dokładnie 10 ms. Wynika to z prostego przelicznika: 44 100 próbek na sekundę oznacza, że każda próbka trwa 1/44 100 sekundy. No i jak przemnożysz 441 próbek przez czas jednej próbki (1/44 100 s), wyjdzie 0,01 sekundy, czyli 10 milisekund. To jest taki bardzo typowy fragment w przemyśle audio – dokładnie tyle trwa jedna setna sekundy podczas odtwarzania lub nagrywania CD-Audio. Branża muzyczna czy radiowa często korzysta z takich wartości, bo łatwo na nich operować przy montażu dźwięku. Przykład praktyczny: jeżeli programujesz efekty dźwiękowe albo robisz tzw. crossfading między ścieżkami, to bardzo często ustawienia czasów są podawane właśnie w ms, a 10 ms to taki bardzo klasyczny 'skok'. Z mojego doświadczenia wynika, że zrozumienie tego przelicznika bardzo ułatwia pracę w DAW-ach czy przy obróbce sygnału. No i tak na marginesie, warto wiedzieć: standard 44,1 kHz to nie jest przypadek, tylko tradycja wynikająca z historii płyt CD – taka częstotliwość pozwala na zapisanie całego zakresu słyszalnego przez człowieka, zgodnie z twierdzeniem Nyquista. Także ten temat pojawia się praktycznie wszędzie tam, gdzie mamy do czynienia z cyfrowym audio.

Pytanie 37

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Scrubbing
B. Bounce
C. Shuffle
D. Marquee
Scrubbing to naprawdę bardzo przydatna funkcja w każdym nowoczesnym DAW-ie. Pozwala na odsłuchanie fragmentu ścieżki dźwiękowej dokładnie w tym miejscu, gdzie przesuwamy kursor po osi czasu. Moim zdaniem to trochę taka lupa dźwiękowa – zamiast odtwarzać cały utwór albo męczyć się z dokładnym ustawieniem playbacku, po prostu łapiemy za kursor i „przeciągamy” nim po wykresie fali. Działa to często podobnie jak przewijanie taśmy w klasycznym magnetofonie, gdzie szybciej lub wolniej przesuwany kursor daje podgląd dźwięku w danym fragmencie. Przydaje się to szczególnie przy precyzyjnym montażu, szukaniu klików, szumów czy ustawianiu punktów cięcia sampli. W branży muzycznej i postprodukcyjnej to wręcz codzienność – standardem jest, że inżynierowie dźwięku używają scrubbingu do szybkiego odnajdywania błędów lub synchronizowania efektów z konkretnym momentem w nagraniu. Warto pamiętać, że scrubbing może działać zarówno w trybie mono, jak i stereo, a niektóre programy pozwalają nawet na „scrubowanie” przez kontrolery fizyczne, co jeszcze bardziej przyspiesza workflow. Osobiście często korzystam z tej opcji podczas edytowania podcastów – słychać wtedy nawet niewielkie szelesty albo niechciane oddechy. Takie podejście nie tylko usprawnia pracę, ale też pozwala na osiągnięcie wysokiego poziomu precyzji, której oczekuje się w profesjonalnych produkcjach audio. Poza tym to po prostu wygodne – nie wyobrażam sobie wracać do pracy bez scrubbingu, szczególnie przy większych sesjach i wielościeżkowych projektach.

Pytanie 38

Która z nazw oznacza płytę DVD o pojemności 9,4 GB?

A. DVD9
B. DVD5
C. DVD18
D. DVD10
DVD10 to właśnie format płyty DVD, który ma pojemność 9,4 GB, czyli dokładnie dwustronny nośnik opisany jako DVD Double Sided Single Layer. Moim zdaniem to trochę mało znany wariant, bo w praktyce częściej spotyka się DVD5 i DVD9, ale DVD10 bywa wykorzystywany np. do archiwizacji danych tam, gdzie nie da się zastosować płyt blu-ray, a zależy komuś na większej pojemności niż klasyczne DVD5. Oznaczenia są dosyć logiczne – cyfra po „DVD” oznacza tak naprawdę wariant pojemnościowy: DVD5 to 4,7 GB (jedna warstwa, jedna strona), DVD9 to taka „ulepszona” wersja, bo ma dwie warstwy po tej samej stronie i 8,5 GB, natomiast DVD10 to dwie strony po jednej warstwie na każdej – razem daje właśnie 9,4 GB (czyli 4,7 GB + 4,7 GB). No i nie trzeba mieć superzaawansowanego napędu – wystarczy tylko przewrócić płytę. Z mojego doświadczenia w serwisie komputerowym wynika, że DVD10 czasem jest mylone z DVD9, bo różnica w pojemności jest niewielka, ale sposób zapisu i odczytu jest już zupełnie inny. Warto zapamiętać ten wariant, jeśli trafi się na stare archiwa lub starsze zestawy programów do instalacji, gdzie czasem korzystano z takich płyt. Standardy DVD-Forum dokładnie opisują te wersje i jeśli interesujesz się zagadnieniami związanymi z nośnikami optycznymi, to warto to sobie usystematyzować – przydaje się chociażby przy diagnostyce starych napędów lub kopiowaniu danych na potrzeby digitalizacji.

Pytanie 39

Który z wymienionych procesorów typowo służy do zawężania zakresu dynamiki nagrania?

A. Delay.
B. Expander.
C. Compressor.
D. Equalizer.
Compressor to taki trochę must-have, jeśli chodzi o kontrolę dynamiki w nagraniach audio. W praktyce polega to na tym, że kompresor automatycznie ścisza te fragmenty sygnału, które są zbyt głośne, dzięki czemu całość brzmi bardziej równo i profesjonalnie. Dobrze ustawiony kompresor pozwala na to, by np. wokal nie wybijał się nagle ponad resztę miksu albo żeby perkusja nie powodowała przesterowań. Z mojego doświadczenia, praktycznie każdy miks – czy to radiowy, telewizyjny, czy koncertowy – zawsze korzysta z kompresji. Standardem w branży jest stosowanie kompresorów zarówno na pojedynczych ścieżkach (np. wokalu), jak i na sumie miksu. Warto pamiętać, że kompresja nie polega wyłącznie na ściszaniu – odpowiednie ustawienie tzw. ataku i release pozwala też nadać dźwiękowi odpowiedniego charakteru, a nawet podkreślić niektóre elementy rytmiczne. O ile na początku łatwo jest z tym przesadzić i zrobić dźwięk za bardzo „ściśnięty”, to jednak bez kompresora trudno o profesjonalnie brzmiącą produkcję. W studio czy na scenie – kompresor to narzędzie pierwszego wyboru do zawężania zakresu dynamiki.

Pytanie 40

Który z wymienionych typów plików dźwiękowych nie zapewnia możliwości zastosowania zmiennej przepływności bitowej (VBR)?

A. AAC
B. WAV
C. MP3
D. OGG
MP3, OGG oraz AAC to formaty audio, które powstały po to, żeby skutecznie kompresować dźwięk i dostosowywać jakość do różnych zastosowań, np. odtwarzania w internecie, na urządzeniach przenośnych czy w streamingach. Te formaty obsługują zmienną przepływność bitową (VBR), która pozwala na dynamiczne przydzielanie większego bitrate’u do bardziej skomplikowanych fragmentów utworu, a mniejszego tam, gdzie dźwięk jest prosty. To bardzo praktyczne – w efekcie plik może być mniejszy przy zachowaniu lepszej jakości, zwłaszcza gdy chodzi o muzykę z dużą ilością ciszy czy prostych dźwięków. W praktyce, VBR w MP3 jest wręcz powszechnie używane w ripowaniu płyt czy podcastach; OGG (czyli Ogg Vorbis) również został zaprojektowany z myślą o elastycznym zarządzaniu jakością; AAC (Advanced Audio Coding) z kolei to standard stosowany m.in. przez Apple i serwisy streamingowe, właśnie ze względu na świetną obsługę VBR i wyższą efektywność kompresji względem MP3. Często pojawia się mylne przekonanie, że każdy popularny format audio jest równie ograniczony, jak WAV, bo użytkownicy nie zawsze widzą opcje bitrate przy zapisie pliku. Tymczasem tylko WAV, z racji swojej pierwotnej funkcji archiwizacyjnej i studyjnej, w ogóle nie przewiduje takiej zmienności – tam bitrate jest zawsze stały, bo technicznie to po prostu zapis nieprzetworzonego strumienia dźwięku. Myślę, że wynika to z faktu, że WAV nie został zaprojektowany do kompresji, więc współczesne wymagania użytkowników wykraczają poza to, co ten format oferuje. Jeśli chodzi o praktykę – wybór WAV ma sens, gdy liczy się najwyższa jakość i edycja bez strat, ale nie wtedy, kiedy liczy się optymalizacja rozmiaru pliku czy wydajność strumieniowania. To taki trochę relikt, który wciąż ma swoje miejsce, ale nie do codziennego użycia tam, gdzie ważne są nowoczesne opcje kompresji, jak VBR.