Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 22 kwietnia 2026 17:01
  • Data zakończenia: 22 kwietnia 2026 17:24

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Znaczniki w sesji oprogramowania DAW należy umiejscowić na osi

A. Tempo
B. Key
C. Markers
D. Meter
Zaznaczenie odpowiedzi 'Markers' jest jak najbardziej na miejscu – w większości popularnych programów DAW (Digital Audio Workstation), takich jak Cubase, Pro Tools, Ableton Live czy Logic Pro, oś znaczników (Markers) służy właśnie do ustawiania tzw. markerów. Markery to niewielkie punkty odniesienia, które umieszczasz na osi czasu projektu. Pozwalają one szybko nawigować po sesji, zaznaczać ważne momenty, np. wejście wokalu, zmianę refrenu, przejście instrumentalne czy miejsce na reklamę radiową. Z mojego doświadczenia praca z markerami potrafi znacznie przyspieszyć cały workflow – nie trzeba przewijać godzinami ścieżek, tylko jednym kliknięciem wracasz do kluczowego miejsca. Markery są też bardzo pomocne podczas eksportu czy automatyzacji, bo możesz je wykorzystać do określenia fragmentów do eksportu, pętli czy renderowania. Praktycznie każda profesjonalna sesja, którą spotkałem, była dokładnie opisana markerami, co jest pewnym standardem branżowym. Warto pamiętać, że Markers to nie to samo, co oznaczenie tempa, metrum czy tonacji – one służą do innych rzeczy. Markery nie wpływają bezpośrednio na parametry muzyczne, są tylko opisowymi punktami na osi czasu. W praktyce, jeśli planujesz współpracę z innymi realizatorami dźwięku czy muzykami, dobre oznaczenie projektu za pomocą markerów to podstawa – w chaosie długiej sesji naprawdę docenisz takie rozwiązanie.

Pytanie 2

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Steiberg Cubase.
B. Celemony Melodyne.
C. Microsoft Windows Media Player.
D. Avid ProTools.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 3

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LM
B. HM
C. HP
D. LP
Filtr HP, czyli High-Pass (po polsku: filtr górnoprzepustowy), to standard w każdym systemie audio, akustyce czy nawet w elektronice użytkowej. Jego głównym zadaniem jest przepuszczanie dźwięków o częstotliwościach wyższych od tzw. częstotliwości odcięcia, a blokowanie albo tłumienie tych niskich. Taki filtr świetnie sprawdza się na przykład przy nagrywaniu wokalu — wycina szumy o niskich częstotliwościach, buczenie podłogi czy brum sieciowy, które potrafią zepsuć całą ścieżkę dźwiękową. W praktyce często spotykam się z sytuacją, gdzie technicy studyjni od razu włączają HP na mikrofonach, żeby nie zbierał przypadkowych dudnień czy „przewiewów” powietrza. Nawet w prostym mikserze czy interfejsie USB można znaleźć ten filtr pod oznaczeniem HPF albo po prostu z symbolem „górującej rampy”. Moim zdaniem warto pamiętać, że prawidłowe zastosowanie HP to klucz do czystego miksu, zwłaszcza jeżeli nie chcemy, żeby bas lub stopa perkusyjna wszystko nam rozmywała. Jak pokazują podręczniki realizacji dźwięku, HP jest praktycznie obowiązkowy dla wszystkich ścieżek poza tymi, gdzie te niskie częstotliwości są istotne, czyli np. dla basu. To taka trochę podstawa, a jednocześnie prosty sposób na lepszy efekt końcowy.

Pytanie 4

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 127
B. 99
C. 55
D. 255
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.

Pytanie 5

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SD
B. SD A1
C. SDHC
D. SDXC
W temacie kart pamięci SD wiele osób myli się, sądząc, że praktycznie każda nowsza karta jest pojemniejsza, ale to nie zawsze tak działa. Na przykład SD czy nawet SDHC były przez długi czas najpopularniejsze, ale ich pojemność jest mocno ograniczona przez sam standard. SD to właściwie już historia – ich maksymalna pojemność to 2 GB i dziś raczej nie spotkasz takich kart w nowoczesnych urządzeniach. Trochę nowszy standard, czyli SDHC, pozwalał przeskoczyć granicę do 32 GB, co jeszcze kilka lat temu było świetnym wynikiem, ale przy obecnych wymaganiach sprzętu foto-wideo czy nawet smartfonów to już trochę za mało. Wybór SD A1 to też dość często spotykany błąd, bo ludzie mylą tutaj oznaczenie wydajności (A1 wskazuje na większą liczbę operacji wejścia-wyjścia na sekundę, ważne dla aplikacji mobilnych) z pojemnością – a to dwie różne bajki. SD A1 może być zarówno SDHC, jak i SDXC, więc sama ta literka nie daje nam informacji o pojemności maksymalnej. Największy błąd to założenie, że samo „nowo brzmiące” oznaczenie daje większą pojemność. Standardy są jasno określone: SD do 2 GB, SDHC do 32 GB, a dopiero SDXC pozwala na aż do 2 TB. Dla osób, które pracują z ciężkimi plikami (np. wideo 4K, RAW-y), wybór niższego standardu będzie sporym ograniczeniem. Dobrze jest patrzeć nie tylko na marketingowe oznaczenia, ale właśnie na to, co mówi branża i standardy – to podstawa prawidłowego wyboru sprzętu.

Pytanie 6

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 0|1|000
B. 1|0|000
C. 1|1|000
D. 0|0|000
Wskazanie 1|1|000 na liczniku BARS/BEATS w DAW faktycznie oznacza miejsce początku sesji. To dlatego, że większość programów DAW – takich jak Ableton Live, Cubase, Pro Tools czy FL Studio – przyjęła właśnie taki standard przedstawiania lokalizacji na osi czasu: pierwszy numer wskazuje takt, drugi uderzenie (beat), a trzeci tzw. tick (czyli drobna jednostka podziału taktu, czasem nazywana też sub-beatem). W praktyce, w DAW nigdy nie zobaczysz pozycji 0|0|000, bo nie istnieje taki „zerowy” takt – muzyka zawsze zaczyna się od pierwszego taktu i pierwszego uderzenia, czyli 1|1|000. To bardzo ważne przy ustawianiu markerów, punktów startu loopów, eksportu czy automatyzacji – wszystko synchronizuje się właśnie do tej pozycji. Wiesz, czasem początkujący próbują ustawić coś na „zerowym” takcie, ale wtedy DAWy po prostu nie pozwalają lub przesuwają wszystko na 1|1|000. To też miejsce, gdzie zwykle zaczynam importować ślady lub ustawiać pierwsze wejście MIDI, bo wtedy wszystko jest równo z siatką i nie ma potem problemów z przesuwaniem. Jest to też bardzo wygodne w kontekście pracy zespołowej – jeżeli ktoś wyśle Ci projekt, to możesz być pewien, że początek sesji zawsze jest w 1|1|000. Przyzwyczajenie się do tego ułatwia komunikację w branży, a także sprawia, że praca idzie sprawniej. Tak jest po prostu czytelniej i żaden szanujący się DAW nie robi tego inaczej – to taki branżowy standard, który po prostu warto znać i stosować.

Pytanie 7

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.1
B. 1.1
C. 2.0
D. 2.2
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 8

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. BUS
B. AUX
C. VCA
D. MASTER
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 9

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 96 dB
B. 192 dB
C. 48 dB
D. 144 dB
Maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów wynosi 96 dB i to jest jedna z takich żelaznych zasad w cyfrowym audio. Bierze się to z tego, że każdy bit rozdzielczości daje około 6 dB dynamiki, więc dla 16 bitów mamy 16 × 6 dB = 96 dB. To wartość, która przez lata weszła do standardów branżowych, szczególnie w przypadku płyt CD-Audio, gdzie stosuje się właśnie 16-bitowe próbkowanie z częstotliwością 44,1 kHz. Dzięki tej dynamice nagrania na CD mogą oddać pełen zakres od bardzo cichych do bardzo głośnych dźwięków – no może nie zupełnie jak w studiu, ale dla większości zastosowań domowych czy rozgłośni radiowych w zupełności wystarcza. Swoją drogą, 96 dB to już naprawdę spory zakres i przeciętne warunki odsłuchowe (np. w domu) raczej nie pozwolą wykorzystać tego w 100%. W praktyce, jeśli ktoś potrzebuje większej dynamiki – na przykład w profesjonalnych studiach nagraniowych albo do masteringu muzyki klasycznej – stosuje się rozdzielczości 24-bitowe, co daje nawet 144 dB, ale to już ekstremum i wymaga doskonałego sprzętu. Moim zdaniem znajomość tej liczby 96 dB jest podstawowa jeśli pracujesz z cyfrowym dźwiękiem, bo pozwala realnie ocenić możliwości sprzętu i dobrać właściwe ustawienia tak, by nie tracić szczegółów i nie przesadzać z wymaganiami.

Pytanie 10

Szumy w nagraniu redukować można poprzez

A. kompresję.
B. funkcję noise reduction.
C. bramkę szumów noise gate.
D. korekcję nagrania.
Funkcja noise reduction to zdecydowanie jeden z najczęściej używanych sposobów na walkę z szumami w nagraniach audio. W praktyce wygląda to tak: specjalny algorytm analizuje fragment nagrania, który zawiera wyłącznie szum (najlepiej, gdy jest to tzw. próbka szumu), a potem na tej podstawie usuwa podobne komponenty z całego pliku dźwiękowego. Takie podejście pozwala skutecznie wyciszyć niepożądane tło – szum wentylatora, szelest mikrofonu, brum sieciowy i inne tego typu rzeczy. Narzędzia noise reduction znajdziesz w praktycznie każdym programie do obróbki audio, od darmowych (Audacity) po profesjonalne (np. iZotope RX, Adobe Audition). Z mojego doświadczenia wynika, że właściwie ustawiona funkcja noise reduction pozwala odzyskać naprawdę dużo z nagrania, które na pierwszy rzut ucha wydaje się bezużyteczne. W branży produkcji dźwięku to codzienność, bo nawet najlepszy sprzęt nie zawsze gwarantuje czyste nagranie – czasami coś zaszumi, ktoś zostawi otwarte okno albo mikrofon złapie zakłócenia z sieci. Dobrą praktyką jest ostrożne stosowanie tej funkcji, bo zbyt mocne parametry mogą zniekształcić głos czy inne ważne dźwięki. Najlepiej, jeśli noise reduction jest tylko jednym z etapów pracy – obok dobrej jakości nagrania, prawidłowego ustawienia mikrofonu i unikania źródeł szumu, to właśnie ta funkcja pozwala uzyskać naprawdę profesjonalny rezultat.

Pytanie 11

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .aif
B. .mp3
C. .mp4
D. .wma
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 12

Której z wymienionych opcji należy użyć, aby zapisać sesję oprogramowania DAW w postaci szablonu?

A. SAVE
B. SAVE AS TEMPLATE
C. SAVE COPY IN
D. SAVE AS
Opcja SAVE AS TEMPLATE to tak naprawdę podstawa pracy w każdym nowoczesnym DAW, kiedy zależy nam na szybkim powielaniu sprawdzonych ustawień czy struktur projektu. Tworzenie szablonów poprzez tę funkcję pozwala zaoszczędzić masę czasu – nie trzeba za każdym razem ustawiać kanałów, routingu, efektów czy nawet wtyczek. Z mojego doświadczenia, nawet takie drobiazgi jak wstępnie ustawiony metronom czy automatyczne przygotowanie ścieżek MIDI potrafią później bardzo przyspieszyć start pracy z nowym projektem. W branży muzycznej i studyjnej to trochę taki must-have – większość producentów, których znam, utrzymuje własną bazę szablonów dla różnych sytuacji: nagranie wokalu, miks perkusji, szybka sesja demo itd. Szablon nie zapisuje oczywiście treści utworu, tylko całą strukturę, ustawienia miksera, insertów, grup, a nawet takie rzeczy jak mapy automatyzacji czy foldery. Standardem jest, żeby nie używać zwykłego SAVE lub SAVE AS, bo te opcje odnoszą się do pojedynczych projektów, a nie do szablonów do wielokrotnego wykorzystania. W dobrych DAW-ach (jak Cubase, Ableton, Studio One czy Logic) szablony są potem łatwo dostępne przy zakładaniu nowego projektu – to naprawdę ogromne ułatwienie w codziennej pracy. Moim zdaniem, raz dobrze przygotowany szablon to połowa sukcesu w profesjonalnym workflow.

Pytanie 13

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Mute
C. Split
D. Lock
Wyciszenie (Mute) regionu w programie DAW to podstawa codziennej pracy producenta czy realizatora dźwięku. To właśnie ta funkcja pozwala na szybkie wyłączenie z odtwarzania konkretnego fragmentu materiału – bez potrzeby jego usuwania czy przesuwania. Bardzo często wykorzystuje się to podczas aranżacji piosenki, kiedy eksperymentujemy z różnymi kombinacjami ścieżek, chcąc np. sprawdzić, jak utwór zabrzmi bez wybranego instrumentu lub wokalu w danym fragmencie. Z mojego doświadczenia, mute jest też niezastąpiony przy edycji nagrań – jeśli trafia się fragment z jakimś błędem lub niepożądanym dźwiękiem, wyciszenie regionu pozwala szybko zapanować nad chaosem i skupić się na właściwej części projektu. Branżowe standardy jasno wskazują, że użycie mute jest bezpieczniejsze niż kasowanie, bo umożliwia cofnięcie decyzji w każdej chwili. Bardzo polecam korzystać z tego narzędzia zamiast pochopnego kasowania klipów – można potem wrócić do oryginału, jeśli koncepcja się zmieni. W praktyce większość DAW-ów (np. Cubase, Logic, Pro Tools) pozwala wyciszyć pojedyncze regiony, a nie tylko całe ścieżki, więc rozwiązanie jest bardzo elastyczne. Warto też pamiętać, że domyślny skrót do mute różni się między programami, więc dobrze sobie to skonfigurować, by nie tracić czasu w pracy.

Pytanie 14

Który z podanych formatów oferuje wyłącznie bezstratną kompresję cyfrowych danych dźwiękowych?

A. WMA
B. MP3
C. ALAC
D. AAC
ALAC, czyli Apple Lossless Audio Codec, to format, który jak sama nazwa wskazuje, stosuje wyłącznie bezstratną kompresję dźwięku cyfrowego. Oznacza to, że dane audio zakodowane w tym formacie po dekompresji są identyczne bit po bicie z oryginałem – nie tracisz absolutnie żadnej informacji, co jest szczególnie ważne w profesjonalnym audio, archiwizacji czy produkcji muzycznej. Moim zdaniem ALAC jest ciekawą alternatywą dla FLAC, zwłaszcza jeśli ktoś korzysta ze sprzętu Apple, bo systemy tej firmy obsługują go natywnie bez żadnych kombinacji. W branży audio powszechnie stosuje się bezstratne formaty do masteringu czy archiwizacji, bo można potem bez obaw przekonwertować materiał do innych formatów stratnych (jak MP3), nie martwiąc się o degradację jakości. Często spotykam się z opinią, że FLAC jest lepszy, ale to zależy głównie od środowiska, w którym działasz – pod MacOS czy iOS ALAC jest wygodniejszy. Ciekawostka: mimo że pliki ALAC bywają trochę większe od stratnych, to i tak oszczędzają sporo miejsca względem nieskompresowanych WAV czy AIFF. To naprawdę dobry wybór, jeśli chcesz zachować oryginalną jakość dźwięku i jednocześnie nie marnować przestrzeni na dysku.

Pytanie 15

Która z wymienionych funkcji dostępnych w sesji montażowej programu DAW umożliwia przyciąganie przesuwanych ręcznie regionów dźwiękowych np. do siatki czasu?

A. Split.
B. Snap.
C. Shuffle.
D. Quantize.
W kontekście pracy z DAW łatwo się pomylić, bo wiele funkcji ma nazwy podobne do siebie lub brzmiące dość technicznie. „Split” oznacza po prostu cięcie regionów, czyli rozdzielanie wybranego klipu na kilka mniejszych. Jest to przydatne przy edycji aranżacji, ale w żaden sposób nie pomaga w wyrównywaniu czy przyciąganiu do siatki czasu – po prostu tnie, tam gdzie klikniesz. Z kolei „Shuffle” często kojarzy się z automatycznym przesuwaniem regionów po edycji, gdy na przykład wycinasz fragment, a pozostałe automatycznie się dosuwają – to bardziej tryb układania niż precyzyjne wyrównywanie względem siatki. Nie daje Ci on tej kontroli nad dokładnym ustawianiem regionów w czasie, jaką daje Snap. „Quantize” natomiast, chociaż brzmi poważnie, służy głównie do automatycznego korygowania timing’u - czyli wyrównywania uderzeń, nut lub całych fraz MIDI i audio do najbliższej wartości rytmicznej. Quantize działa na wybranych dźwiękach lub nutach, a nie na przesuwaniu regionów jako takich po osi czasu. Z mojego doświadczenia wynika, że wielu początkujących myli Quantize ze Snap, bo oba mają coś wspólnego z siatką, ale w praktyce Snap odpowiada za manualne przesuwanie i przyciąganie, a Quantize za automatyczne wyrównywanie tego, co już jest nagrane. Typowym błędem jest też zakładanie, że cięcie (Split) i tryby układania (Shuffle) mają coś wspólnego z wyrównywaniem do siatki – to trochę inna bajka. Najlepsze rezultaty daje używanie Snap do precyzyjnego montażu, a Quantize ewentualnie do poprawy rytmicznej nagrań – nie warto tego mieszać, bo później łatwo się pogubić w projekcie.

Pytanie 16

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Mute.
B. Freeze.
C. Solo.
D. Fade out.
Fade out to fachowy termin używany w branży audio, który oznacza stopniowe, płynne wyciszanie dźwięku aż do całkowitej ciszy. W praktyce stosuje się go bardzo często – na przykład na końcu utworów muzycznych, w produkcji reklam, filmów, podcastów czy prezentacji multimedialnych. Dzięki fade out dźwięk nie urywa się nagle, tylko elegancko schodzi do zera, co brzmi naturalniej i po prostu przyjemniej dla ucha. Takie rozwiązanie to już branżowy standard, zwłaszcza w miksie i masteringu. W programach typu DAW (Digital Audio Workstation) ustawia się to bardzo intuicyjnie – wystarczy zazwyczaj przeciągnąć końcówkę ścieżki lub dodać automatyzację głośności. Dobrą praktyką jest stosowanie fade out tam, gdzie naturalne zakończenie utworu jest zbyt gwałtowne – można wtedy zapanować nad nastrojem i nie drażnić słuchacza nagłym brakiem dźwięku. Z mojego doświadczenia wynika, że umiejętność prawidłowego używania fade out przekłada się na lepszą jakość całego projektu dźwiękowego. Warto też pamiętać, że niektórzy producenci lubią używać bardzo długiego fade out, żeby zostawić delikatne echo czy szum na końcu. To już takie „smaczki” branżowe.

Pytanie 17

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|1|000
B. 2|1|000
C. 1|2|000
D. 1|3|000
Wiele osób, szczególnie na początku pracy z DAW, myśli, że wskazania typu 1|1|000 albo 2|1|000 odnoszą się bezpośrednio do upływających sekund, co jest dość mylące. Przy tempie 120 bpm każda ćwierćnuta trwa dokładnie 0,5 sekundy, czyli pełny takt w metrum 4/4 to 2 sekundy. To oznacza, że po 2 sekundach jesteśmy na początku trzeciego taktu, a nie na początku drugiego czy pierwszego. Wskazanie 1|1|000 zawsze oznacza absolutny początek utworu – 'start sesji', więc nie może być punktem po 2 sekundach. Wybierając 1|2|000, można założyć, że to druga ćwierćnuta pierwszego taktu, ale to tylko 0,5 sekundy od startu, więc znacznie za wcześnie. Z kolei 2|1|000 kusi, bo sugeruje drugi takt, ale to jest dokładnie po 4 sekundach (czyli dwa takty po 2 sekundy każdy). Spotkałem się już z sytuacjami, gdzie realizatorzy w stresie montują automaty albo efekty na złych pozycjach, bo mylą oznaczenia BARS/BEATS z czasem rzeczywistym. To dość typowy błąd, zwłaszcza przy szybkim tempie pracy, gdzie liczy się każda sekunda. Moim zdaniem, zanim zacznie się ingerować w aranżację czy automatyzację w DAW, warto naprawdę dobrze opanować konwersję między czasem a siatką taktów i uderzeń – to pozwala uniknąć niepotrzebnych przesunięć i chaosu. Licznik BARS/BEATS jest tu po to, by precyzyjnie określić lokalizację w projekcie, a jego poprawne czytanie stanowi fundament sprawnej pracy z każdym profesjonalnym oprogramowaniem typu DAW. Jeśli więc wybierzesz inną niż 1|3|000 opcję, to znaczy, że warto jeszcze raz prześledzić, jak tempo i metrum wpływają na położenie kursora względem czasu i siatki muzycznej.

Pytanie 18

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.mp3
B. *.wav
C. *.riff
D. *.aiff
Kodek LAME to tak naprawdę jeden z najpopularniejszych kodeków służących do kompresji dźwięku w formacie MP3. Z mojego punktu widzenia, praktycznie każdy, kto miał styczność z obróbką audio, natknął się na ten kodek – często nawet w popularnych programach do nagrywania czy edycji dźwięku, jak Audacity. Format MP3 jest obecnie standardem w zapisie skompresowanych plików muzycznych, używanym do archiwizacji, przesyłania plików przez Internet czy nawet w transmisji strumieniowej. LAME jest projektem open source i przez to stał się czymś w rodzaju branżowego „must have” przy konwersji do MP3, szczególnie gdy zależy nam na dobrej jakości przy niewielkim rozmiarze pliku. Co ciekawe, kodek ten jest w stanie generować pliki z różnym poziomem bitrate, pozwalając dobrać balans między jakością a wagą pliku. Dla wielu zastosowań komercyjnych i domowych, MP3 zakodowane przez LAME jest praktycznym i uniwersalnym wyborem, chociaż nowocześniejsze kodeki, jak AAC, też mają swoje zalety. Jednak jeśli chodzi o LAME, jego domeną jest właśnie generowanie plików *.mp3 i moim zdaniem warto pamiętać, że sam kodek nie służy do kodowania innych formatów, nawet tych, które są popularne w produkcji audio, jak WAV czy AIFF. To rozróżnienie jest ważne podczas pracy w studiu czy przy przygotowywaniu materiałów do publikacji w sieci.

Pytanie 19

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. MP3
B. WAV
C. FLAC
D. RIFF
Format MP3 to chyba najpowszechniejszy przykład kodowania stratnego w świecie plików audio. Cała idea polega na tym, że dane dźwiękowe są kompresowane w taki sposób, by plik był dużo mniejszy niż oryginał, a dla przeciętnego słuchacza jakość brzmiała prawie identycznie z oryginałem – szczególnie przy wyższych bitrate'ach. Kluczowe jest tutaj to, że MP3 wykorzystuje psychoakustykę, czyli usuwa te fragmenty dźwięku, których ludzki słuch i tak najprawdopodobniej by nie wychwycił. To sprawia, że pliki MP3 są idealne do przechowywania muzyki na urządzeniach mobilnych, wysyłania przez internet czy wykorzystywania w serwisach streamingowych. Standard ISO/IEC 11172-3 dokładnie opisuje, jak ta kompresja ma wyglądać, by zachować jak najlepszą równowagę między wielkością pliku a jakością dźwięku. Z mojego doświadczenia w pracy z dźwiękiem mogę powiedzieć, że MP3 to nie jest format dla audiofilów, ale do codziennego słuchania sprawdza się znakomicie. W praktyce nadal ma ogromne zastosowanie, chociaż coraz częściej wypierany jest przez nowsze rozwiązania jak AAC czy Ogg Vorbis, które dają lepszą jakość przy podobnym rozmiarze pliku. Warto pamiętać, że kodowanie stratne jest kluczowe w sytuacjach, gdzie zależy nam na oszczędności miejsca lub szybkości transmisji – na przykład przy podcastach, muzyce w serwisach internetowych czy dzwonkach telefonicznych.

Pytanie 20

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. Open Media Format
B. Meridian Lossless Packing
C. Free Lossless Audio Codec
D. MPEG Layer 3
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 21

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 160 kb/s
B. 240 kb/s
C. 480 kb/s
D. 320 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 22

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 5 ścieżek.
B. 3 ścieżki.
C. 4 ścieżki.
D. 2 ścieżki.
Wiele osób myśli, że nagrania przestrzenne zawsze wymagają bardzo dużej liczby ścieżek albo przeciwnie – można je zrobić na dwóch czy trzech kanałach, bo mikrofony stereo przecież też „łapią” trochę przestrzeni. To jednak nie do końca tak działa. ORTF Surround jest rozwinięciem klasycznej techniki ORTF, która opiera się na dwóch mikrofonach ustawionych pod kątem 110° i oddalonych od siebie o 17 cm. Klasyczny ORTF daje dwie ścieżki – lewą i prawą – i jest szeroko wykorzystywany w radiu czy nagraniach stereo, gdzie nie zależy nam aż tak bardzo na wrażeniu otoczenia słuchacza dźwiękiem. Gdy jednak przechodzimy na ORTF Surround, czyli nagrywanie przestrzenne, dokładamy kolejne dwa mikrofony (razem cztery), najczęściej ustawione w dwóch parach skierowanych do przodu i do tyłu. Pozwala to na uzyskanie pełnej kwadrofonii, która z założenia musi mieć cztery oddzielne ścieżki – każda odpowiada innemu kanałowi przestrzennemu. Trzy ścieżki nie wystarczą, bo zawsze zabraknie jednego z kierunków i przestrzeń jest wtedy sztucznie zawężona, co słychać szczególnie podczas ruchów czy efektów specjalnych w dźwięku. Dwie ścieżki odzwierciedlają tylko klasyczne stereo, a pięć to już domena systemu 5.1, gdzie dochodzi kanał centralny i subwoofer – w ORTF Surround nie korzysta się z takiej konfiguracji. Często spotykam się z myśleniem, że więcej ścieżek to lepiej, ale to nie zawsze prawda – liczba ścieżek powinna odpowiadać założeniom techniki mikrofonowej i końcowemu zastosowaniu materiału. W praktyce, cztery ścieżki w ORTF Surround zapewniają idealny kompromis między prostotą nagrania a możliwościami odwzorowania rzeczywistej przestrzeni akustycznej. Warto o tym pamiętać, żeby nie mylić różnych technik i nie używać zbyt małej lub zbyt dużej liczby kanałów, które potem tylko skomplikują miks.

Pytanie 23

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 192 kHz, 8 bitów.
B. .aiff, 48 kHz, 16 bitów.
C. .aiff, 96 kHz, 16 bitów.
D. .wav, 96 kHz, 8 bitów.
To właśnie odpowiedź .aiff, 96 kHz, 16 bitów najlepiej oddaje, jak poprawnie przeprowadzić konwersję analogowego dźwięku do cyfrowej postaci z zachowaniem wysokiej wierności. Format AIFF jest nieskompresowany i bezstratny, co oznacza, że żadne dane audio nie są tracone podczas zapisu. Próbkowanie na poziomie 96 kHz daje bardzo gęste „odwzorowanie” sygnału – to sporo powyżej standardowego CD (44,1 kHz), co jest wręcz wymagane przy nagraniach profesjonalnych, masteringu audio czy pracy w studiu. Wartość 16 bitów z kolei oznacza 65 536 poziomów kwantyzacji, co w praktyce daje szeroki zakres dynamiki oraz minimalizuje zniekształcenia kwantyzacyjne. To właśnie tego typu parametry wybiera się w sytuacjach, gdy priorytetem jest zachowanie maksymalnej jakości dźwięku, np. w archiwizacji nagrań, miksie czy przy masteringu materiałów muzycznych. Moim zdaniem, jeżeli zależy komuś na audiofilskiej jakości i nie ogranicza go pojemność dysku, to takie ustawienia są naturalnym wyborem. Przy pracy z materiałem do dalszej obróbki jest to wręcz standard – można potem ew. konwertować do niższych parametrów na potrzeby publikacji, ale zawsze warto zaczynać od jak najlepszego materiału źródłowego. Spotyka się to praktycznie w każdym profesjonalnym studiu nagraniowym.

Pytanie 24

Której komendy programu DAW należy użyć w celu przywrócenia stanu sesji montażowej do ostatnio zapisanej wersji?

A. Save As
B. Save
C. Save Copy In
D. Revert to Saved
Komenda „Revert to Saved” to taki trochę ratunek, kiedy coś pójdzie nie po naszej myśli podczas pracy w DAW. Jeśli np. przypadkowo usuniesz ścieżkę, nadpiszesz efekt czy po prostu eksperymentujesz i chcesz wrócić do momentu, w którym ostatnio zapisałeś projekt, to właśnie ta opcja pozwala cofnąć całą sesję do ostatniego, zapisanego stanu. Nie zapisuje aktualnych zmian, nie pyta o nic, po prostu wczytuje ostatnią wersję projektu. W praktyce na bieżąco warto używać funkcji Save (albo nawet autosave, jak DAW na to pozwala), żeby minimalizować ewentualne straty, ale jak już się pogubisz lub coś pójdzie nie tak – Revert to Saved to klasyczny „panic button”. W branży muzycznej i postprodukcyjnej to rozwiązanie pozwala zachować porządek i pewność, że możesz wrócić do bezpiecznego punktu w każdej chwili. Moim zdaniem dobre praktyki to regularne zapisywanie, robienie kopii zapasowych (np. Save Copy In przy większych zmianach), a Revert zostawić sobie na sytuacje awaryjne, gdy trzeba naprawdę odkręcić całą sesję. Dla osoby pracującej z dużą ilością ścieżek czy efektów, to oszczędza mnóstwo czasu i stresu – zwłaszcza gdy deadline na karku.

Pytanie 25

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 16 bitowej?

A. 96 dB
B. 48 dB
C. 144 dB
D. 192 dB
Maksymalna dynamika nagrania audio w jakości 16-bitowej to 96 dB i to nie jest wcale przypadkowa liczba. Wynika ona wprost z matematyki zapisu cyfrowego: każdy bit zwiększa zakres dynamiczny o około 6 dB, więc 16 bitów daje 16 × 6 = 96 dB. Moim zdaniem to wciąż całkiem sporo, zwłaszcza patrząc na warunki domowego odsłuchu czy nagrywania instrumentów w studiu. W praktyce taki zakres pozwala uchwycić zarówno bardzo ciche, jak i bardzo głośne fragmenty dźwięku bez wyraźnych zniekształceń czy szumów quantyzacji, które są bardziej widoczne przy niższych rozdzielczościach. Standard CD Audio wykorzystuje właśnie 16 bitów i przez lata był uznawany za wystarczający nawet dla wymagających słuchaczy. Oczywiście, przy profesjonalnych produkcjach stosuje się często 24 bity, co daje jeszcze większy zakres dynamiczny i niższy poziom szumów, ale do większości zastosowań 16 bitów jest po prostu wystarczające. Z mojego doświadczenia wynika, że większość problemów w miksie nie wynika z ograniczeń dynamiki, tylko raczej z błędów w gain stagingu czy nieumiejętnego użycia kompresji. Warto też pamiętać, że typowe warunki odsłuchowe – domowe pokoje czy samochód – i tak mają ograniczenia akustyczne dużo poniżej tych 96 dB. Ogólnie rzecz biorąc, znajomość tych cyfr pomaga lepiej zrozumieć, jak działa sprzęt audio i dlaczego standardy przyjęły się właśnie takie, a nie inne.

Pytanie 26

Normalizacja poziomu szczytowego nagrania (peak normalization) to

A. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
B. obniżenie średniego poziomu nagrania o 3 dB
C. obniżenie szczytowego poziomu nagrania o 3 dB
D. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
Normalizacja poziomu szczytowego nagrania, czyli tzw. peak normalization, to taki proces, w którym podnosi się poziom całego nagrania tak, żeby najwyższa wartość szczytowa (czyli ten największy pojedynczy impuls w sygnale) sięgnęła dokładnie 0 dBFS. Oczywiście, w praktyce czasem zostawia się minimalny margines, np. do -0,1 dBFS, żeby uniknąć ewentualnych przesterowań przy dalszym przetwarzaniu, ale główny mechanizm polega właśnie na tym jednym – znajdź najwyższy pik i przesuń wszystko w górę tak, żeby był na samym szczycie skali cyfrowej. To bardzo prosty i szybki sposób na wyrównanie głośności różnych plików albo przygotowanie materiału do dalszego masteringu. Spotyka się to właściwie w każdym DAW-ie i nawet podstawowe programy do montażu audio mają taką funkcję. Z mojego doświadczenia bywa to bardzo przydatne, zwłaszcza jak ktoś dostaje miks z różnych źródeł i chce, żeby od razu było równo pod względem potencjału głośności, zanim zacznie głębsze zmiany. Warto pamiętać, że peak normalization nie zmienia relacji między cichymi a głośnymi fragmentami – nie jest to kompresja ani normalizacja RMS/średnia. Z punktu widzenia standardów, to absolutna podstawa i wręcz obowiązkowy krok w wielu workflow, choć na etapie końcowym w radiu czy streamingach częściej używa się normalizacji według LUFS (średniego poziomu głośności), ale peak normalization dalej ma swoje miejsce, zwłaszcza przy przygotowaniu surowych plików.

Pytanie 27

Zastosowanie opcji Interleaved podczas zgrywania sesji spowoduje zapis danych do

A. jednego pliku mono.
B. odrębnych plików stereo dla każdego kanału.
C. odrębnych plików mono dla każdego kanału.
D. jednego pliku stereo.
Opcja <i>Interleaved</i> podczas zgrywania sesji oznacza, że dane audio z wielu kanałów, na przykład z lewego i prawego w przypadku stereo, są zapisywane naprzemiennie w jednym pliku. To jest bardzo praktyczne, bo potem taki plik można łatwo wykorzystać w niemal każdym programie DAW, odtworzyć bez problemu na większości platform czy przesłać dalej do miksu lub masteringu. W branży muzycznej i postprodukcyjnej jest to już od lat standard, szczególnie jeśli chodzi o eksport stereo miksów czy stemów – praktycznie każdy realizator dźwięku preferuje jeden plik stereo zamiast dwóch osobnych plików mono. Dzięki temu transport i archiwizacja są dużo prostsze. Warto wiedzieć, że formaty takie jak WAV czy AIFF obsługują pliki interleaved, bo są przystosowane do zapisywania danych z kilku kanałów razem, w określonej kolejności próbek. Moim zdaniem, jeśli planujesz pracować z innymi osobami lub przenosić sesje między różnymi stanowiskami, zastosowanie opcji interleaved bardzo ułatwia życie i minimalizuje ryzyko pomyłek, np. zamiany kanałów. Warto pamiętać, że interleaved to nie tylko wygoda, ale też pewien wymóg przy pracy z niektórymi urządzeniami czy oprogramowaniem, które nie radzi sobie z wieloma pojedynczymi plikami mono. Ogólnie polecam pilnować tej opcji przy eksportach stereo – to sprawdzone rozwiązanie w praktyce.

Pytanie 28

Która z wymienionych funkcji w programie DAW standardowo umożliwia płynne przejście między dwoma sąsiadującymi regionami umieszczonymi na ścieżce w sesji montażowej?

A. Crossfade
B. Select
C. Group
D. Split
Crossfade to jedna z tych funkcji w DAW, których praktycznie nie da się zastąpić niczym innym, jeśli zależy Ci na płynnym, naturalnym połączeniu dwóch fragmentów audio lub MIDI na jednej ścieżce. Działa to tak, że na styku dwóch regionów program automatycznie tworzy nakładające się wyciszenie (fade out) i narastanie (fade in), przez co dźwięki nie urywają się gwałtownie, nie słychać charakterystycznych kliknięć i artefaktów. To podstawa przy montażu np. wokali czy gitar – bez crossfade'ów każda zmiana nagrania jest jak nożyczki, które tną bez litości. W praktyce wystarczy zaznaczyć dwa sąsiadujące regiony i wybrać opcję crossfade, a DAW zrobi resztę za nas. W większości programów jak Cubase, Pro Tools, Studio One, ta funkcja jest dostępna praktycznie od ręki – branżowy standard i nie wyobrażam sobie sensownego montażu bez niej. Warto też wiedzieć, że można edytować kształt przejścia (np. liniowe, logarytmiczne), co daje ogromną kontrolę nad brzmieniem. Moim zdaniem osoby, które opanowały crossfade'y, popełniają mniej błędów montażowych, a ich produkcje brzmią po prostu bardziej profesjonalnie. Warto się tym bawić i eksperymentować nawet na prostych projektach, bo to narzędzie, które oszczędza mnóstwo czasu i nerwów.

Pytanie 29

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -3 dB.
B. Nagrany z maksymalnym poziomem -12 dB.
C. Nagrany z maksymalnym poziomem -0,3 dB.
D. Nagrany z maksymalnym poziomem -6 dB.
Można się spotkać z przekonaniem, że nagrywanie na niższych poziomach, typu -6 dB czy nawet -12 dBFS, daje sygnał „bezpieczniejszy” lub że zapewnia lepszą rozpiętość dynamiczną, ale to jest nieporozumienie wynikające z mylenia bezpieczeństwa od przesterowania z wykorzystaniem dynamiki. W rzeczywistości, im niżej ustawisz maksymalny poziom sygnału podczas nagrania, tym bardziej ograniczasz rzeczywistą rozpiętość dynamiczną. Każdy decybel poniżej 0 dBFS to utracona przestrzeń, która zostaje „oddana” szumom konwertera AD lub tła w torze nagraniowym. Wprawdzie zostawienie odrobiny marginesu – np. tych 0,3 dB czy nawet 1 dB – jest dobrą praktyką, by uniknąć przypadkowego clippingu przy niespodziewanych transjentach, ale już zapas rzędu 6 czy 12 dB robi się bezsensowny, zwłaszcza w nowoczesnym cyfrowym torze nagraniowym. Często początkujący realizatorzy wychodzą z założenia, że „ciszej to bezpieczniej” i przez to nagrania wychodzą później matowe, mniej wyraziste, z gorszym stosunkiem sygnału do szumu – co może być problematyczne przy dalszej obróbce lub masteringu. Praktyka studyjna oraz standardy branżowe (np. AES, EBU) jasno wskazują, że optymalny poziom końcowy nagrania powinien być możliwie blisko 0 dBFS, ale bez przekraczania tej granicy – dlatego właśnie nagranie z poziomem -0,3 dB zapewnia największą możliwą rozpiętość dynamiczną i najlepszą jakość. Warto o tym pamiętać przy każdej sesji nagraniowej, bo to jeden z tych technicznych szczegółów, które realnie przekładają się na profesjonalny efekt końcowy.

Pytanie 30

Jaką nazwę nosi dokument zawierający „szkielet” fabuły filmu?

A. Drabinka scenariuszowa.
B. Playlista.
C. Lista znaczników.
D. Spis efektów.
Drabinka scenariuszowa to jeden z tych dokumentów, bez których trudno sobie wyobrazić proces przygotowania filmu – szczególnie w profesjonalnych warunkach. Zawiera ona rozpisaną w punktach całą strukturę fabuły, od ogólnych zdarzeń aż po konkretne sceny. Moim zdaniem, to taki swoisty „szkielet”, na którym dopiero buduje się szczegóły – dialogi, opis miejsca akcji, przebieg wydarzeń. Praktycznie każda większa produkcja, czy to fabularna, czy dokumentalna, korzysta z drabinki, żeby zachować porządek w opowieści i nie pogubić się podczas dalszego rozpisywania scenariusza. W branży filmowej to jest taki etap, kiedy scenarzysta lub cały zespół twórczy może jeszcze łatwo wprowadzać zmiany w logice fabularnej – zanim przejdzie się do szczegółowego scenariusza. Często spotyka się sytuację, gdzie na warsztatach filmowych prowadzący wymaga najpierw dobrze przemyślanej drabinki, zanim dopuści do pisania scenariusza – to już taki standard. Dzięki drabince łatwiej też współpracować z reżyserem, producentem czy nawet z inwestorami, bo już na tym etapie widać jaka będzie dynamika historii, gdzie są kulminacje i zwroty akcji. Z mojego doświadczenia, kto pominie drabinkę, ten potem nieraz żałuje – bo poprawianie gotowego scenariusza jest dużo trudniejsze niż zmienienie kolejności czy treści scen w drabince. No i niestety, bez niej trudno dobrze rozplanować rytm filmu.

Pytanie 31

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/2.
B. o 1/4.
C. o 1/3.
D. o 1/6.
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 32

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. FILE
B. I/O
C. EDIT
D. SESSION
Wybór sekcji I/O jako miejsca konfiguracji połączenia z zewnętrzną kartą dźwiękową to zdecydowanie najrozsądniejsza i zgodna ze standardami branżowymi decyzja. W większości programów DAW (np. Pro Tools, Cubase, Ableton Live czy Studio One) sekcja I/O, czyli Inputs/Outputs, służy do przypisywania wejść i wyjść audio oraz ustawiania routingów sygnału. W praktyce, jeśli podłączasz zewnętrzny interfejs audio, to właśnie w tej sekcji możesz wybrać jego porty jako domyślne wejścia i wyjścia, mapować konkretne kanały albo określić, które ścieżki mają korzystać z danych fizycznych gniazd. Przypisanie właściwych portów I/O to podstawa, żeby uniknąć problemów typu „brak dźwięku” czy błędne nagrania na niewłaściwym wejściu. Z mojego doświadczenia wynika, że wielu początkujących realizatorów omija tę sekcję albo nie do końca rozumie jej funkcje, co później skutkuje chaosem w projekcie. Warto dodać, że w profesjonalnym studiu, prawidłowe skonfigurowanie I/O pozwala nie tylko na poprawne nagrywanie, ale też na integrację zewnętrznych efektów oraz reamping. Zresztą, nawet w mniejszych projektach domowych bez tej konfiguracji nie ruszysz dalej – takie są realia branży muzycznej. Moim zdaniem, opanowanie sekcji I/O powinno być jednym z pierwszych kroków każdego, kto chce świadomie korzystać z DAW.

Pytanie 33

Zjawisko maskowania dźwięku polega na

A. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
B. spadku słyszalności tonów wysokich podczas głośnego słuchania.
C. generowaniu przez ucho tonów harmonicznych.
D. zmianie barwy dźwięku w zależności od głośności.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 34

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. R50 R100
B. L0 R0
C. L50 L100
D. L100 R100
Panorama w miksie dźwięku to jedno z tych narzędzi, które potrafią zrobić ogromną różnicę, nawet jak się zaczyna od prostych sygnałów mono. Ustawienie panoramy na L100 dla jednego sygnału i R100 dla drugiego to klasyka, jeśli chodzi o pełną separację przestrzenną – każdy dźwięk trafia tylko do jednego kanału stereo. Nie ma tu żadnego nakładania się, więc słuchacz od razu wychwyci, który dźwięk dochodzi z lewej, a który z prawej strony. To taki trochę fundament np. w koncertach live, gdzie chcesz, żeby gitara była maksymalnie po lewej, a klawisze po prawej, żeby muzyka nie zlewała się w jeden chaos. W studiu często robi się tak przy nagraniach instrumentów, których brzmienia chcesz odseparować — potem dużo łatwiej zapanować nad miksem, bo nie musisz walczyć z kolizjami w środku panoramy. Zresztą – w broadcastingu, w produkcjach telewizyjnych, nawet przy dźwięku filmowym ta technika, moim zdaniem, jest mega przydatna, szczególnie przy dialogach i efektach specjalnych. Dodatkowo, takie rozłożenie sygnałów bardzo ułatwia pracę, jeśli planujesz potem robić wersje do formatu mono, bo od razu wiesz, które dźwięki są potencjalnie problematyczne. Warto pamiętać, że de facto L100 i R100 to po prostu pełne wychylenie panoramy do skrajnych pozycji, zgodnie z zasadą stosowaną w każdej profesjonalnej konsolecie czy DAW. Takie podejście daje największą czytelność miksu i jest zgodne z zaleceniami m.in. AES i EBU przy produkcji materiałów stereo.

Pytanie 35

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .omf
B. .aiff
C. .ac3
D. .mp3
Pliki .mp3, choć są zdecydowanie najpopularniejszym formatem kompresji stratnej audio na świecie, to jednak ich głównym przeznaczeniem jest kodowanie dźwięku w trybie stereo lub mono, ewentualnie jako strumień wielokanałowy, ale bez pełnej obsługi przestrzennej typowej dla standardów kina domowego. W praktyce w branży muzycznej i rozrywkowej .mp3 nigdy nie był wykorzystywany do profesjonalnej dystrybucji dźwięku wielokanałowego, bo po prostu nie daje takiej funkcjonalności ani jakości. Z kolei .aiff to klasyczny, nieskompresowany format audio, rozwijany przez Apple. Pozwala co prawda zapisać wiele ścieżek, ale nie jest zoptymalizowany do zapisu dźwięku przestrzennego w jednym pliku zgodnie ze standardami surround (np. 5.1, 7.1 itd.), które są niezbędne w produkcjach filmowych czy telewizji. Raczej używa się go do archiwizacji lub pracy na pojedynczych ścieżkach podczas miksu. .omf to z kolei format przeznaczony do wymiany projektów multimedialnych między różnymi programami DAW. Umożliwia transport wielu ścieżek audio i informacji o projekcie, ale nie jest formatem docelowym do dystrybucji gotowego materiału audio, a już na pewno nie do masteringu wielokanałowego. Często spotykałem się z mylnym przekonaniem, że skoro format coś „widzi” wiele ścieżek to już obsługuje surround – tu właśnie łatwo się pomylić. Kluczowym kryterium jest to, czy dany format pozwala na zapis dźwięku w układzie przestrzennym i jego odczyt na sprzęcie konsumenckim bez dodatkowej obróbki – a tego nie oferują ani .mp3, ani .aiff, ani .omf. W praktyce, jeżeli gdzieś chcemy, żeby dźwięk otaczał widza lub słuchacza z każdej strony, to formaty specjalistyczne jak .ac3 są absolutnie niezbędne. Warto wiedzieć, że dobór formatu pod kątem docelowego odbiorcy i sprzętu jest kluczowym etapem produkcji audio – tu kompromisy często kończą się utratą efektu, na którym zależy realizatorom.

Pytanie 36

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. CUT
B. DELETE
C. SPLIT
D. FREEZE
Odpowiedź SPLIT to absolutna podstawa pracy z plikami audio w każdym szanującym się DAW-ie. Funkcja SPLIT (czasem nazywana też 'slice' albo 'scissors tool') pozwala na precyzyjne cięcie klipu audio dokładnie w wybranych miejscach na ścieżce, bez utraty jakości i bez konieczności usuwania jego fragmentów. Dzięki temu można potem swobodnie przesuwać, kopiować, edytować lub nakładać efekty na konkretne wycinki nagrania. Typowa sytuacja: nagrywasz całą piosenkę, a potem chcesz osobno popracować nad refrenem czy konkretnym dźwiękiem – SPLIT rozwiązuje ten problem w kilka sekund. W branży muzycznej to praktycznie standard – nawet wśród profesjonalistów, bo pozwala na błyskawiczne dzielenie surowych ścieżek na mniejsze partie, które potem można aranżować według uznania. Warto dodać, że SPLIT działa nie tylko na ścieżkach audio, ale często również na MIDI, co daje naprawdę duże pole do kreatywności podczas produkcji. Moim zdaniem, jeśli ktoś planuje na poważnie pracować w DAW-ie, nie ma opcji, żeby nie znał i nie używał SPLIT regularnie. Bez tej funkcji wszystko robiłoby się dziesięć razy wolniej. To trochę jak nożyczki na stole montażowym – totalny must-have w workflow każdego realizatora dźwięku.

Pytanie 37

Tworząc dokumentację produkcji słuchowiska radiowego, należy uwzględnić zastosowanie miksera

A. monitorowego.
B. nagłośnieniowego.
C. emisyjnego.
D. studyjnego.
Dokumentacja produkcji słuchowiska radiowego rzeczywiście powinna uwzględniać zastosowanie miksera studyjnego. To właśnie ten typ miksera jest sercem wszystkich operacji dźwiękowych w studiu nagraniowym. Pozwala na precyzyjne miksowanie głosów lektorów, aktorów, efektów dźwiękowych oraz muzyki, zanim powstanie finalna ścieżka audio. Mikser studyjny jest specjalnie zaprojektowany do pracy w środowisku, gdzie kluczowa jest najwyższa jakość dźwięku, kontrola nad poziomami oraz możliwość wszechstronnej edycji i realizacji skomplikowanych scen dźwiękowych. W praktyce, podczas nagrań słuchowisk, często wykorzystuje się dodatkowe funkcje mikserów studyjnych, takie jak insertowanie efektów, routing ścieżek na różne wyjścia czy monitorowanie na słuchawkach różnych podsłuchów – to bardzo pomaga reżyserowi i realizatorowi dźwięku. Moim zdaniem, bez profesjonalnego miksera studyjnego nie da się osiągnąć takiej głębi i selektywności brzmienia, jakiej oczekuje się od nowoczesnych słuchowisk radiowych. Dla porównania, miksery emisyjne są raczej przeznaczone do zarządzania sygnałem podczas emisji na żywo, a miksery nagłośnieniowe do pracy na scenie. Mikser studyjny pozwala na wielościeżkową rejestrację, szybkie korygowanie poziomów i kreatywną pracę z dźwiękiem – to podstawa w sztuce tworzenia słuchowisk. W branży radiowej standardem jest, by cała dokumentacja techniczna szczegółowo opisywała konfigurację i ustawienia miksera studyjnego. Warto to zapamiętać, bo takie wymagania pojawiają się też w rzeczywistych specyfikacjach projektowych.

Pytanie 38

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .wav
B. .mp3
C. .m4a
D. .aac
Wybór formatu .wav jako docelowego to zdecydowanie najlepsze podejście, gdy zależy Ci na zachowaniu maksymalnej ilości informacji z pliku dźwiękowego. Format WAV jest typowym przykładem bezstratnego zapisu audio – nie stosuje on kompresji stratnej, więc oryginalny sygnał audio pozostaje nienaruszony. To sprawia, że pliki WAV są w branży audio standardem przechowywania nagrań, masterów oraz wszelkich materiałów, które jeszcze będą edytowane czy przetwarzane. Moim zdaniem, przy pracy w studiu, archiwizacji czy jakiejkolwiek dalszej obróbce – tylko „wave’y” mają sens. Warto zwrócić uwagę, że profesjonalne DAW-y i sprzęt nagraniowy domyślnie zapisują ścieżki właśnie w tym formacie. Oczywiście, WAV zajmuje dużo miejsca, więc nie jest praktycznym wyborem do odtwarzania muzyki na telefonie czy wysyłania mailem, ale jeśli priorytetem jest jakość i kompletność informacji, to nikt w „branży” nie wybierze mp3 czy m4a. Dodatkowo, WAV nie narzuca ograniczeń związanych z kodekami czy DRM, co ułatwia współpracę pomiędzy różnymi systemami. Fajnie też wiedzieć, że ze względu na swoją prostotę, format ten jest kompatybilny praktycznie wszędzie – nawet bardzo stare systemy operacyjne czy programy audio poradzą sobie z plikiem .wav bez kombinowania z dodatkowymi kodekami.

Pytanie 39

Kompresja równoległa polega na

A. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
B. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
C. jednoczesnej kompresji wszystkich ścieżek wokalnych.
D. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 40

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. SACD
B. ADAT
C. DCC
D. CC
Temat różnych standardów zapisu dźwięku potrafi być zdradliwy, bo wiele z nich łączy się na poziomie technologii, ale rozdziela na szczegółach konstrukcyjnych. Sporo osób myli DCC lub ADAT z formatami opartymi na nośnikach optycznych przez to, że są typowe dla profesjonalnych zastosowań i często brzmią „poważnie”. Tymczasem DCC, czyli Digital Compact Cassette, pomimo swej nazwy i pokrewieństwa z kompaktowym kasetami magnetofonowymi, wykorzystuje klasyczne taśmy magnetyczne, tyle że zapis cyfrowy. Ten format próbował zastąpić analogowe kasety, jednak nigdy nie korzystał z nośników optycznych. ADAT natomiast to system oparty na taśmach S-VHS, więc całkowicie bazuje na magnetycznym zapisie sygnału cyfrowego – był bardzo popularny w studiach nagraniowych, ale z optycznymi płytami nie miał nic wspólnego. Jeśli chodzi o CC, to jest to po prostu klasyczna kaseta kompaktowa, czysto analogowa technologia, praktycznie już przeżytek w profesjonalnym audio. Wydaje mi się, że głównym błędem myślowym jest tu utożsamianie nowocześnie brzmiących nazw z technologią optyczną. W rzeczywistości tylko SACD został specjalnie zaprojektowany do pracy z płytami typu CD/DVD, wykorzystując laser do odczytu danych audio o bardzo wysokiej jakości. W branży dobra praktyka to umiejętne rozróżnianie standardów pod kątem fizycznej postaci nośnika, bo to fundamentalnie wpływa na zastosowania, trwałość i jakość dźwięku. Warto zawsze sprawdzać, czy dany format działa na taśmach, płytach optycznych czy może na zupełnie innych mediach – to kluczowa wiedza przy wyborze sprzętu czy archiwizacji materiałów dźwiękowych.