Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 09:21
  • Data zakończenia: 29 kwietnia 2026 09:27

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Częstotliwość próbkowania 48 kHz jest wykorzystywana na potrzeby

A. płyt mp3.
B. płyt CD-Audio.
C. transmisji zakresu mowy.
D. produkcji dźwięku w telewizji.
Częstotliwość próbkowania 48 kHz to taki trochę złoty standard właśnie w telewizji i ogólnie w branży związanej z produkcją wideo. Stosuje się ją w większości profesjonalnych środowisk audio-wideo, głównie ze względu na to, jak jest ustawiona infrastruktura broadcastowa i sprzęt studyjny. W praktyce, praktycznie wszystkie kamery, rejestratory dźwięku, miksery czy systemy montażowe pracują domyślnie na 48 kHz. To wynika z faktu, że ta wartość daje bardzo dobrą jakość dźwięku, znacznie przewyższającą ludzkie potrzeby percepcyjne (słyszymy do ok. 20 kHz), ale jednocześnie nie generuje zbyt dużych plików jak wyższe częstotliwości. Jest to kompromis między jakością a wydajnością – przetwarzanie dźwięku w tej rozdzielczości jest szybkie i nie obciąża tak mocno sprzętu. Moim zdaniem, dobrze wiedzieć, że różne branże mają różne standardy: np. płyty CD zawsze trzymają się 44,1 kHz, a telewizja twardo 48 kHz. Dodatkowo, jeśli kiedykolwiek trzeba będzie synchronizować dźwięk z obrazem w filmie czy reklamie, trzymanie się 48 kHz ułatwi współpracę z resztą ekipy. Naprawdę warto to zapamiętać – w telewizji i filmie 48 kHz to praktycznie obowiązek. Tak jako ciekawostka: nawet nagrania do podcastów czy YouTube coraz częściej robi się w tej jakości, żeby potem nie mieć problemów z eksportem do wideo.

Pytanie 2

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 5.1
B. 4.0
C. 7.1
D. 9.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 3

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Playlista.
B. Scenariusz.
C. Partytura.
D. Spis efektów.
Partytura to właśnie ten dokument, który pozwala muzykom oraz dyrygentom dokładnie zorientować się, jak przebiega utwór muzyczny. Całość jest rozpisana w taki sposób, że każda linia przypisana jest do konkretnego instrumentu lub głosu, a zapis nutowy uwzględnia wszelkie niuanse, takie jak dynamika, artykulacja czy tempo. Moim zdaniem bez partytury trudno byłoby sobie wyobrazić współpracę większego zespołu, orkiestry czy chóru – daje ona pełną kontrolę nad przebiegiem muzyki. W profesjonalnych środowiskach przyjęło się, że partytura to absolutna podstawa przygotowania i wykonania utworu, szczególnie jeśli chodzi o utwory klasyczne, filmowe czy szeroko pojętą muzykę rozrywkową z elementami aranżacyjnymi. Często partytura powstaje jako pierwsza, a dopiero na jej podstawie tworzy się głosy poszczególnych muzyków. Tak naprawdę, nawet w studiach nagraniowych, muzycy studyjni oczekują dostępu do profesjonalnie przygotowanej partytury – dzięki temu nagranie przebiega sprawnie i bez nieporozumień. Według mnie, znajomość tego typu dokumentacji muzycznej to absolutny must-have dla każdego, kto myśli o pracy w branży muzycznej na poważnie.

Pytanie 4

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 6
B. 4
C. 2
D. 5
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 5

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Loop
B. Freeze
C. Snap
D. Merge
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 6

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 2 razy.
B. 4 razy.
C. 8 razy.
D. 6 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 7

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 192 kHz, 8 bitów.
B. .aiff, 48 kHz, 16 bitów.
C. .aiff, 96 kHz, 16 bitów.
D. .wav, 96 kHz, 8 bitów.
To właśnie odpowiedź .aiff, 96 kHz, 16 bitów najlepiej oddaje, jak poprawnie przeprowadzić konwersję analogowego dźwięku do cyfrowej postaci z zachowaniem wysokiej wierności. Format AIFF jest nieskompresowany i bezstratny, co oznacza, że żadne dane audio nie są tracone podczas zapisu. Próbkowanie na poziomie 96 kHz daje bardzo gęste „odwzorowanie” sygnału – to sporo powyżej standardowego CD (44,1 kHz), co jest wręcz wymagane przy nagraniach profesjonalnych, masteringu audio czy pracy w studiu. Wartość 16 bitów z kolei oznacza 65 536 poziomów kwantyzacji, co w praktyce daje szeroki zakres dynamiki oraz minimalizuje zniekształcenia kwantyzacyjne. To właśnie tego typu parametry wybiera się w sytuacjach, gdy priorytetem jest zachowanie maksymalnej jakości dźwięku, np. w archiwizacji nagrań, miksie czy przy masteringu materiałów muzycznych. Moim zdaniem, jeżeli zależy komuś na audiofilskiej jakości i nie ogranicza go pojemność dysku, to takie ustawienia są naturalnym wyborem. Przy pracy z materiałem do dalszej obróbki jest to wręcz standard – można potem ew. konwertować do niższych parametrów na potrzeby publikacji, ale zawsze warto zaczynać od jak najlepszego materiału źródłowego. Spotyka się to praktycznie w każdym profesjonalnym studiu nagraniowym.

Pytanie 8

Na której z kaset sygnał audio zostanie zapisany w postaci cyfrowej?

A. BETACAM
B. CC
C. VHS
D. DAT
Odpowiedź DAT jest prawidłowa, bo kasety DAT (Digital Audio Tape) zostały opracowane specjalnie do cyfrowego zapisu dźwięku. DAT to w zasadzie taki techniczny przełom z końca lat 80., który pozwolił na rejestrację dźwięku w postaci cyfrowej, a nie analogowej jak w przypadku większości starszych kaset. Tego typu nośnik zachowuje idealną stabilność sygnału, nie ma szumów charakterystycznych dla zapisu analogowego, nie występują dropy czy zniekształcenia, które często irytowały podczas archiwizacji na kasetach CC czy VHS. Z mojego doświadczenia, DAT-y były i są używane do archiwizacji materiałów studyjnych, miksów, produkcji radiowych, a nawet w masteringach, zanim wszystko przeniosło się na dyski twarde. Szczególnie w branży muzycznej, gdzie wymaga się najwyższej jakości – 16 lub 24 bity przy 48 kHz albo nawet wyżej – DAT po prostu dawał radę przez lata i był zgodny z profesjonalnymi standardami. W dodatku, dane na DAT-ach można było łatwo przenosić między różnymi urządzeniami, co jest zgodne z dobrymi praktykami backupu i archiwizacji w branży AV. Co ciekawe, ten format był też wykorzystywany przy rejestracji dialogów filmowych czy w reportażu, bo urządzenia były względnie małe i mobilne. Dziś już rzadko się tego używa, ale wciąż spotykam się z tymi kasetami w archiwach radiowych. Digital Audio Tape to dobry przykład, jak standard cyfrowy opanował profesjonalny rynek – i trochę szkoda, że ludzie często mylą to z podobnie wyglądającymi, ale całkiem innymi kasetami.

Pytanie 9

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Last Session
B. Create Session from Template
C. Open Recent Session
D. Create Empty Session
Wybrana opcja 'Create Session from Template' to właśnie to, o co chodzi w profesjonalnej pracy z DAW-ami. Tak naprawdę, korzystanie z szablonów przy tworzeniu nowej sesji to ogromna oszczędność czasu, zwłaszcza jeśli często nagrywasz lub miksujesz podobne projekty. W praktyce wygląda to tak: masz przygotowany szablon z ustawionymi torami audio, MIDI, grupami, efektami czy routowaniem – nie musisz za każdym razem wszystkiego konfigurować od zera. Szablony są wykorzystywane nawet w dużych studiach nagraniowych, gdzie workflow musi być szybki i powtarzalny, zgodnie z dobrymi praktykami branżowymi. Moim zdaniem, dobrze jest mieć kilka własnych szablonów, np. do miksowania podcastów, produkcji beatów czy masteringu. Często szablony zawierają już konkretne ustawienia kompresorów, EQ, grup Aux, a nawet specyficzne routing dla wokali, perkusji czy instrumentów wirtualnych. W profesjonalnych środowiskach pracy mówi się wręcz, że szablon to podstawa wydajności. Oczywiście można pracować od zera, ale z mojego doświadczenia – im więcej projektów, tym bardziej docenia się tę opcję. Warto nad tym chwilę posiedzieć i stworzyć własny workflow oparty na szablonach. To nie tylko wygoda – to też konsekwencja w brzmieniu i organizacji sesji.

Pytanie 10

Który ze sposobów opisu osi czasu w sesji oprogramowania DAW odnosi się do jednostek czasu?

A. MIN/SEC
B. BARS/BEATS
C. FRAMES
D. SAMPLES
MIN/SEC to chyba najpopularniejszy sposób opisu osi czasu w DAW, jeśli zależy nam na rzeczywistych jednostkach czasu, a nie stricte muzycznych. W praktyce oznacza to, że cała sesja, klipy lub konkretne zdarzenia są oznaczone właśnie w minutach i sekundach, tak jak w zwykłym zegarze. To rozwiązanie jest nieocenione np. podczas montażu dźwięku do filmu, reklamy czy podcastów – wszędzie tam, gdzie liczy się precyzyjna synchronizacja z obrazem lub narracją, a nie tylko z tempem utworu. Ja często korzystam z MIN/SEC przy produkcji spotów reklamowych, bo klient zawsze pyta „ile sekund trwa dany efekt”, a nie „ile to jest taktów”. W branży profesjonalnej MIN/SEC to absolutny standard przy pracy z materiałami, gdzie czas nominalny jest ważniejszy niż aspekty muzyczne, np. w radiu lub TV. Ciekawostka: niektóre DAWy pozwalają nawet na jednoczesny wyświetlacz MIN/SEC i innych formatów, żeby szybko porównywać synchronizację z tempem. Wielu realizatorów dźwięku przyzwyczaiło się też, że łatwiej jest im planować strukturę sesji pod kątem minut i sekund, zwłaszcza przy masteringu czy cutach do konkretnych ram czasowych. To bardzo praktyczny i uniwersalny wybór w codziennej pracy z dźwiękiem.

Pytanie 11

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Na końcowych słowach zdania.
B. W połowie zdania.
C. Na początkowych słowach zdania.
D. Od nowego zdania.
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 12

Które z nagrań zostało zakodowane w cyfrowym systemie wielokanałowym?

A. Dolby Pro Logic.
B. Dolby Stereo.
C. Dolby.
D. Dolby Theatre System.
Dolby Theatre System to określenie używane w odniesieniu do nowoczesnych, cyfrowych systemów wielokanałowych Dolby stosowanych w kinach, np. Dolby Digital Cinema czy Dolby Atmos. W odróżnieniu od wcześniejszych systemów analogowych czy matrycowych (jak Dolby Stereo lub Pro Logic), tutaj cały dźwięk jest kodowany i przesyłany cyfrowo z podziałem na wiele niezależnych kanałów. To właśnie pozwala na precyzyjne pozycjonowanie dźwięku w przestrzeni sali kinowej – osobne kanały na front, tył, boki, a nawet sufit! W praktyce oznacza to zupełnie inny poziom immersji dla widza – efekty dźwiękowe mogą „przemieszczać się” z dokładnością nieosiągalną dla starszych technologii. Moim zdaniem, największą zaletą Dolby Theatre System jest właśnie skalowalność i elastyczność – dźwięk można idealnie dostosować do konkretnego pomieszczenia oraz liczby głośników. Użycie technologii cyfrowych pozwala także na znacznie lepszą jakość i bezpieczeństwo transmisji – nie ma już szumów czy ograniczeń wynikających z taśmy filmowej. W branży uznaje się, że nowoczesne systemy kinowe bez cyfrowego, wielokanałowego kodowania dźwięku po prostu nie mają racji bytu – widzowie chcą doświadczać efektów przestrzennych na najwyższym poziomie i Dolby Theatre System to umożliwia. Warto sobie zapamiętać tę różnicę, bo na egzaminach i w praktyce zawodowej odróżnianie systemów cyfrowych od analogowych to podstawa.

Pytanie 13

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R
B. DVD+R DL
C. DVD-RW
D. DVD-R
Wybrałeś prawidłowo – DVD-RW to faktycznie płyta wielokrotnego zapisu danych. Skrót RW (ReWritable) od razu sugeruje, że możemy ją nagrywać i kasować wielokrotnie, co jest ogromną zaletą przy testowaniu oprogramowania, tworzeniu backupów, czy po prostu, kiedy człowiek coś źle nagra i chce poprawić. W praktyce, w pracy technika czy informatyka, takie płyty są czasem niezastąpione, bo nie trzeba za każdym razem sięgać po nową, tylko można nadpisać poprzednie dane. Standard DVD-RW został zatwierdzony przez DVD Forum, a na rynku spotyka się zarówno płyty -RW, jak i +RW, ale akurat w tym pytaniu chodziło o -RW. Z mojego doświadczenia, przy testach oprogramowania albo kiedy trzeba szybko przenosić większe pliki między starszymi komputerami, taka płyta sprawdza się całkiem nieźle. Oczywiście, nośniki optyczne powoli odchodzą do lamusa na rzecz pendrive’ów i chmury, ale czasem branża wymaga pracy z legacy sprzętem i właśnie tam DVD-RW się przydaje. Warto dodać, że płyty wielokrotnego zapisu mają ograniczoną żywotność – po kilkudziesięciu czy kilkuset cyklach mogą zacząć szwankować, ale to i tak niezły wynik jak na taki format. W sumie miło wiedzieć, że jeszcze potrafimy rozpoznać, który standard do czego służy – taka wiedza w branży IT może się nie raz przydać.

Pytanie 14

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. Downsampling
B. Noise Reduction
C. De-crackle
D. De-click
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 15

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 1 kanału.
B. 3 kanałów.
C. 7 kanałów.
D. 5 kanałów.
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.

Pytanie 16

Który tryb edycyjny umożliwia przesuwanie regionów ścieżki dźwiękowej do siatki metro-rytmicznej?

A. Spot
B. Grid
C. Slip
D. Shuffle
Tryb Grid w edytorach DAW, takich jak Pro Tools czy Ableton, to kluczowe narzędzie, kiedy trzeba zachować precyzyjne rozstawienie elementów na osi czasu – szczególnie w produkcjach, gdzie rytm i metrum są świętością. Przesuwając regiony ścieżek w tym trybie, wszystko idealnie dopasowuje się do siatki, czyli punktów podziału wynikających z tempa i podziałki taktu. Moim zdaniem to jest totalny must-have przy edycji perkusji, loopów albo ogólnie materiałów, gdzie każda drobna przesunięcie mogłaby zepsuć groove. Grid eliminuje przypadkowe przesunięcia poza rytm – nie trzeba się martwić, że wokal wyląduje pół milisekundy za wcześnie. Z mojego doświadczenia, przy produkcjach komercyjnych, gdzie klient potrafi wyłapać nawet mikroprzesunięcia, Grid daje spokój ducha i pewność, że wszystko jest tam, gdzie powinno. Warto pamiętać, że Grid to też nie tylko sztywność – w różnych DAW-ach możesz ustawić gęstość tej siatki (np. co ćwierćnutę, ósemkę itd.), co daje elastyczność, a jednocześnie trzyma materiał na właściwej linii czasowej. W branży muzycznej takie podejście jest standardem, bo przekłada się na profesjonalny, równo brzmiący miks. Dobrą praktyką jest wręcz zaczynanie sesji od ustawienia właściwego metrum i siatki – wtedy cała produkcja idzie sprawniej. To rozwiązanie zdecydowanie ułatwia pracę nie tylko realizatorom, ale i muzykom, którzy potem nie muszą walczyć z niedokładnościami edycji.

Pytanie 17

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 24 bity.
B. 8 bitów.
C. 32 bity.
D. 16 bitów.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 18

Nową sesję montażową oprogramowania DAW można utworzyć poprzez menu

A. Edit
B. Window
C. View
D. File
Wybór opcji File w menu DAW to zdecydowanie standard, jeśli chodzi o tworzenie nowej sesji montażowej. W praktycznie każdym szanowanym programie do produkcji muzycznej, czy to Pro Tools, Cubase, Ableton Live, czy Reaper, właśnie tam znajdziesz funkcję 'New Session', 'New Project' lub coś w tym stylu. To swego rodzaju wzorzec interfejsu użytkownika, który się przyjął w oprogramowaniu tego typu. Moim zdaniem, to całkiem logiczne – w końcu wszystkie operacje związane z plikami, takie jak otwieranie, zapisywanie, import czy eksport, są zebrane właśnie pod File. Praktyczne korzystanie z DAW wymaga szybkiego orientowania się, gdzie co jest. Dzięki temu rozwiązaniu – wiadomo od razu, gdzie szukać. Nawet jak zmienisz program, nie zaskoczy Cię układ menu. W branży uważa się, że klarowność interfejsu i trzymanie się przyjętych schematów jest bardzo ważna, bo przyspiesza pracę – a w studiu czas to pieniądz. Można tu dodać, że nową sesję zawsze dobrze jest od razu odpowiednio nazwać i ustawić lokalizację zapisu, żeby potem nie szukać plików po całym dysku. To naprawdę pomaga w zachowaniu porządku, szczególnie jak masz dużo projektów. Krótko mówiąc – File to podstawa przy organizacji pracy w DAW, więc wybór tej opcji to nie tylko poprawna, ale i bardzo praktyczna decyzja.

Pytanie 19

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Scrubbing
B. Marquee
C. Bounce
D. Shuffle
Scrubbing to naprawdę bardzo przydatna funkcja w każdym nowoczesnym DAW-ie. Pozwala na odsłuchanie fragmentu ścieżki dźwiękowej dokładnie w tym miejscu, gdzie przesuwamy kursor po osi czasu. Moim zdaniem to trochę taka lupa dźwiękowa – zamiast odtwarzać cały utwór albo męczyć się z dokładnym ustawieniem playbacku, po prostu łapiemy za kursor i „przeciągamy” nim po wykresie fali. Działa to często podobnie jak przewijanie taśmy w klasycznym magnetofonie, gdzie szybciej lub wolniej przesuwany kursor daje podgląd dźwięku w danym fragmencie. Przydaje się to szczególnie przy precyzyjnym montażu, szukaniu klików, szumów czy ustawianiu punktów cięcia sampli. W branży muzycznej i postprodukcyjnej to wręcz codzienność – standardem jest, że inżynierowie dźwięku używają scrubbingu do szybkiego odnajdywania błędów lub synchronizowania efektów z konkretnym momentem w nagraniu. Warto pamiętać, że scrubbing może działać zarówno w trybie mono, jak i stereo, a niektóre programy pozwalają nawet na „scrubowanie” przez kontrolery fizyczne, co jeszcze bardziej przyspiesza workflow. Osobiście często korzystam z tej opcji podczas edytowania podcastów – słychać wtedy nawet niewielkie szelesty albo niechciane oddechy. Takie podejście nie tylko usprawnia pracę, ale też pozwala na osiągnięcie wysokiego poziomu precyzji, której oczekuje się w profesjonalnych produkcjach audio. Poza tym to po prostu wygodne – nie wyobrażam sobie wracać do pracy bez scrubbingu, szczególnie przy większych sesjach i wielościeżkowych projektach.

Pytanie 20

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. spisu efektów.
B. opisu taśmy.
C. skryptu.
D. opisu postsynchronów.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 21

Tryb automatyki na ścieżce w sesji programu DAW pozwalający na odtwarzanie uprzednio zapisanej krzywej automatyki określany jest mianem

A. Touch.
B. Latch.
C. Write.
D. Read.
Tryb Read w automatyce ścieżek w DAW to taki trochę fundament, jeśli chodzi o zarządzanie wcześniej zapisanymi ruchami automatyki. Cały bajer polega na tym, że kiedy wybierzesz Read, DAW po prostu odtwarza to, co już zostało nagrane – regulacje głośności, panoramy, parametry wtyczek i inne zmiany, które sobie wcześniej zapisałeś na ścieżce. Nie ma tu ryzyka, że przypadkiem coś nadpiszesz, bo wszystko idzie zgodnie z przygotowaną krzywą, a Ty możesz spokojnie słuchać efektów swoich ustawień. Moim zdaniem to absolutna podstawa profesjonalnej pracy z automatyką – praktycznie każdy poważniejszy projekt prędzej czy później wymaga dokładnego odsłuchania i sprawdzenia, czy te wszystkie wyciszenia, podbicia, czy inne automatyczne zmiany brzmią tak, jak chciałeś. W branży muzycznej to też taki niepisany standard – inżynierowie dźwięku pracują w trybie Read nie tylko po to, żeby się nie pogubić w swoich automatyzacjach, ale też po to, żeby mieć pełną kontrolę nad finalnym brzmieniem utworu. Z mojego doświadczenia wynika, że używając Read, łatwiej wychwycić ewentualne błędy albo sytuacje, gdzie automatyka nie działa zgodnie z zamierzeniem. Najlepsze jest to, że możesz skupić się na słuchaniu, a nie na pilnowaniu, czy czegoś przypadkiem nie zmieniasz. To bardzo praktyczne, zwłaszcza w większych projektach, gdzie automatyki jest od groma i człowiek łatwo może coś przegapić. Co ciekawe, większość DAW-ów oferuje ten tryb właśnie jako domyślny sposób odtwarzania automatyki, więc to nie jest tylko wymysł jednej firmy – to już taki branżowy klasyk.

Pytanie 22

Który z plików został skompresowany bezstratnie?

A. .oga
B. .mp3
C. .wma
D. .mlp
Plik z rozszerzeniem .mlp to Meridian Lossless Packing, czyli format kompresji bezstratnej dźwięku, stosowany m.in. w płytach DVD-Audio oraz systemach profesjonalnych. Bezstratna kompresja dźwięku polega na tym, że po dekompresji otrzymujemy dokładnie taki sam sygnał audio, jaki był początkowo – nie tracimy żadnych informacji. To sprawia, że .mlp idealnie nadaje się do zastosowań archiwizacyjnych lub studia nagraniowego, gdzie istotna jest najwyższa jakość i zachowanie oryginalnych parametrów sygnału. Spotyka się go rzadziej w codziennym użyciu niż np. FLAC, ale w branży muzycznej ma swoje miejsce, szczególnie przy masteringu lub archiwizacji materiału źródłowego. Moim zdaniem, znajomość formatów bezstratnych, takich jak .mlp, to trochę taka tajna broń audiofila czy technika z dźwięku – pozwala nie tylko prawidłowo wybrać narzędzie do zadania (czyli np. archiwizacja kontra streaming), ale też rozumieć, dlaczego niektóre pliki audio brzmią lepiej niż inne. W wielu profesjonalnych workflow, np. przy pracy z muzyką do filmu czy przy masteringu, bezstratność jest kluczowa, bo pozwala potem robić kolejne kopie, edycje i remixy bez degradacji jakości. No, a jeśli ktoś się interesuje branżą audio, warto znać nie tylko popularne skróty, ale też te mniej oczywiste jak MLP. W sumie, to taki standard branżowy dla kogoś, kto chce pracować na poważnie z dźwiękiem.

Pytanie 23

Plik w formacie CD-Audio posiada następujące parametry:

A. 24 bit, 96 kHz.
B. 24 bit, 44,1 kHz.
C. 16 bit, 44,1 kHz.
D. 24 bit, 48 kHz.
CD-Audio, czyli popularne płyty kompaktowe odtwarzane przez klasyczne odtwarzacze, mają bardzo sztywno ustalony standard zapisu dźwięku. Jest to dokładnie 16 bitów rozdzielczości próbkowania i 44,1 kHz częstotliwości próbkowania. Nie bez powodu — taki wybór parametrów był kompromisem między jakością, pojemnością płyty i możliwościami technicznymi z lat 80. XX wieku. 16 bitów pozwala na uzyskanie dynamiki na poziomie około 96 dB, co w warunkach domowych w zupełności wystarcza do wiernego odwzorowania większości materiału muzycznego. 44,1 kHz wynika natomiast z teorii Nyquista – pozwala na prawidłowe odwzorowanie dźwięków do 22,05 kHz, czyli ciut ponad granicę słyszalności ludzkiego ucha. Właśnie dlatego większość płyt CD brzmi tak, a nie inaczej, i nie znajdziesz płyty audio z innymi parametrami. Co ciekawe, wyższe wartości jak 24 bit czy 96 kHz spotkasz raczej w plikach studyjnych albo formatach typu FLAC lub SACD, których zwykłe odtwarzacze CD nie odczytują. Moim zdaniem wiedza o tych parametrach bywa bardzo praktyczna – np. przy zgrywaniu (tzw. ripowaniu) płyt CD na komputer, warto ustawić właśnie 16 bit / 44,1 kHz, żeby niepotrzebnie nie powiększać plików bez żadnej korzyści jakościowej.

Pytanie 24

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. TOSLINK
B. BNC
C. TDIF
D. DIN
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 25

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 2 ścieżki.
B. 4 ścieżki.
C. 3 ścieżki.
D. 5 ścieżek.
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 26

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HP
B. LP
C. LM
D. HM
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 27

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. VIDEO
B. MIDI
C. MASTER
D. AUDIO
Ścieżka AUDIO to absolutna podstawa, jeśli chodzi o nagrywanie dźwięku w dowolnym programie DAW, takim jak Cubase, Ableton Live czy Pro Tools. To właśnie ten typ ścieżki jest zoptymalizowany do przyjmowania sygnału z mikrofonu, instrumentu lub innego urządzenia audio. W praktyce, kiedy chcesz nagrać wokal, gitarę albo nawet perkusję elektroniczną wychodzącą jako sygnał audio, musisz dodać ścieżkę audio i odpowiednio ją uzbroić (uzbrojenie do nagrywania to typowy krok – ikonka 'R' albo 'Record'). Umożliwia to przechwycenie analogowego lub cyfrowego sygnału i zapisanie go bezpośrednio do projektu – na waveforms, z możliwością dalszej edycji, efektów czy miksowania. Przemysł muzyczny od lat korzysta z tego standardu; praktycznie każda sesja studyjna opiera się właśnie na ścieżkach audio, nawet jeśli w aranżu dominuje elektronika. Zwróć uwagę, że ścieżki audio można później swobodnie edytować: ciąć, przesuwać, nakładać efekty, a także eksportować do różnych formatów. Moim zdaniem, umiejętność pracy z tym typem ścieżki to fundament dla każdego, kto chce poważnie myśleć o produkcji muzycznej – bez tego nie nagrasz ani wokalu, ani rzeczywistego instrumentu, niezależnie od wybranego DAW.

Pytanie 28

Jaką nazwę nosi dokument zawierający „szkielet” fabuły filmu?

A. Lista znaczników.
B. Playlista.
C. Spis efektów.
D. Drabinka scenariuszowa.
Drabinka scenariuszowa to jeden z tych dokumentów, bez których trudno sobie wyobrazić proces przygotowania filmu – szczególnie w profesjonalnych warunkach. Zawiera ona rozpisaną w punktach całą strukturę fabuły, od ogólnych zdarzeń aż po konkretne sceny. Moim zdaniem, to taki swoisty „szkielet”, na którym dopiero buduje się szczegóły – dialogi, opis miejsca akcji, przebieg wydarzeń. Praktycznie każda większa produkcja, czy to fabularna, czy dokumentalna, korzysta z drabinki, żeby zachować porządek w opowieści i nie pogubić się podczas dalszego rozpisywania scenariusza. W branży filmowej to jest taki etap, kiedy scenarzysta lub cały zespół twórczy może jeszcze łatwo wprowadzać zmiany w logice fabularnej – zanim przejdzie się do szczegółowego scenariusza. Często spotyka się sytuację, gdzie na warsztatach filmowych prowadzący wymaga najpierw dobrze przemyślanej drabinki, zanim dopuści do pisania scenariusza – to już taki standard. Dzięki drabince łatwiej też współpracować z reżyserem, producentem czy nawet z inwestorami, bo już na tym etapie widać jaka będzie dynamika historii, gdzie są kulminacje i zwroty akcji. Z mojego doświadczenia, kto pominie drabinkę, ten potem nieraz żałuje – bo poprawianie gotowego scenariusza jest dużo trudniejsze niż zmienienie kolejności czy treści scen w drabince. No i niestety, bez niej trudno dobrze rozplanować rytm filmu.

Pytanie 29

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. EDIT
B. EVENT
C. TRACK
D. VIEW
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 30

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Split
C. Lock
D. Mute
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 31

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +RW
B. DVD –R
C. DVD +R
D. DVD +R DL
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych, co w praktyce oznacza, że na jednej stronie płyty można zapisać daną ilość danych, a po jej odwróceniu, na drugiej stronie – kolejną. Z mojego doświadczenia wynika, że takie rozwiązania są naprawdę przydatne, szczególnie przy archiwizacji dużych plików, chociaż dzisiaj coraz rzadziej spotyka się użytkowników korzystających z fizycznych nośników. Warto wiedzieć, że standard DVD +R DL (czyli Double Layer) pozwala na zapis dwóch warstw na jednej stronie płyty, a istnieją również płyty DVD o oznaczeniu DS (Double Side), które dają możliwość fizycznego odwrócenia płyty i zapisania danych po obu stronach, jednak najczęściej w kontekście testów i egzaminów mówi się o płytach dwuwarstwowych, zwanych często mylnie dwustronnymi – stąd mogą pojawiać się nieścisłości. W praktyce płyty DVD +R DL używa się tam, gdzie trzeba zmieścić do 8,5 GB danych, czyli na przykład dłuższe filmy w wysokiej jakości lub duże archiwa. Branża długo trzymała się tego rozwiązania, bo dawało większą elastyczność, a komputery i odtwarzacze obsługujące standard +R DL były dość powszechne. Warto też pamiętać, że aby w pełni wykorzystać możliwości takiej płyty, trzeba mieć odpowiedni napęd obsługujący zapis i odczyt na warstwie double layer – to takie typowe ograniczenie sprzętowe, o którym łatwo zapomnieć. Generalnie – DVD +R DL to praktyczne, czasem niedoceniane rozwiązanie, które pokazuje, jak rozwijały się fizyczne nośniki danych.

Pytanie 32

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Aux.
B. Audio.
C. MIDI.
D. Instrument.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 33

Normalizacja nagrania (peak normalization) to

A. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS.
B. obniżenie średniego poziomu nagrania o 3 dB.
C. obniżenie szczytowego poziomu nagrania o 3 dB.
D. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
Normalizacja szczytowa (peak normalization) to podstawa podczas pracy z dźwiękiem, zwłaszcza gdy zależy nam na zachowaniu integralności materiału i ułatwieniu sobie dalszej obróbki. W praktyce chodzi o to, żeby cały plik audio został wzmocniony lub osłabiony tak, by jego najgłośniejszy fragment, czyli tzw. szczyt (peak), osiągnął określony poziom – najczęściej 0 dBFS, czyli maksymalny możliwy poziom w cyfrowym systemie audio bez przesterowania. To istotne, bo dzięki temu możemy mieć pewność, że dźwięk wykorzysta pełen zakres dynamiki dostępnej w systemie, a jednocześnie nie przekroczy granicy, po której zacznie się zniekształcać. Z mojego doświadczenia, normalizacja szczytowa jest często wykorzystywana np. przed masteringiem czy podczas przygotowywania ścieżek do miksu, żeby każdy utwór miał podobny poziom głośności początkowej. Warto pamiętać, że normalizacja peakowa nie wpływa na relacje między cichszymi i głośniejszymi fragmentami, nie zmienia kompresji czy dynamiki – po prostu przesuwa cały sygnał w górę lub w dół. W branży to taki codzienny chleb – szybki sposób na wyrównanie poziomów. Oczywiście, w niektórych sytuacjach bardziej zależy nam na normalizacji średniej (RMS), ale to już zupełnie inna bajka. Tutaj, jeśli zależy nam na tym, żeby nie przekraczać 0 dBFS, a jednocześnie korzystać z pełnej głębi bitowej, peak normalization to najlepsza opcja.

Pytanie 34

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 88,2 kHz
B. 96 kHz
C. 44,1 kHz
D. 48 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 35

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Szerokopasmowa kompresja.
B. Normalizacja.
C. Edycja panoramy.
D. Kluczowanie amplitudy.
Normalizacja to w sumie bardzo praktyczna sprawa, zwłaszcza jeśli chodzi o obróbkę dźwięku w studiu czy nawet w domowych warunkach. Chodzi tutaj o to, żeby tak podnieść poziom nagrania, żeby jego najwyższy szczyt, czyli tzw. peak, osiągnął 0 dBFS (pełną skalę cyfrową). Normalizacja nie zmienia proporcji głośności między różnymi fragmentami nagrania, po prostu przesuwa całość do góry, aż najwyższy punkt zetknie się z maksymalnym dopuszczalnym poziomem w systemie cyfrowym. To jest szalenie ważne np. przy masteringu, żeby nagranie miało odpowiednią głośność, ale nie przesterowało. Moim zdaniem to taka trochę „podstawowa higiena” w pracy z audio. Często używa się tej operacji przed wysyłką utworu do streamingów albo do radia, bo wtedy mamy pewność, że nie przekroczymy zakresu dynamicznego systemu cyfrowego i nie powstaną brzydkie przestery. Warto pamiętać, że normalizacja nie zastępuje kompresji – ona po prostu podnosi całość, nie ściska dynamiki. Jeszcze taka ciekawostka – niektóre DAWy pozwalają wybrać, czy normalizujemy do peaku, czy do wartości RMS, ale w pytaniu chodziło właśnie o szczytowy poziom 0 dBFS, więc tu normalizacja jest jedyną poprawną opcją.

Pytanie 36

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Clip Group.
B. Unloop Region.
C. Loop Region.
D. Split Clip.
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 37

Jaką opcję należy zastosować do szybkiego powielenia regionu audio w 16 kopiach umieszczonych jedna za drugą?

A. Consolidate.
B. Repeat.
C. Separate.
D. Duplicate.
Opcja „Repeat” to zdecydowanie najpraktyczniejsze narzędzie do szybkiego powielania regionu audio w określonej liczbie kopii, szczególnie gdy chodzi o umieszczenie ich jedna za drugą na tej samej ścieżce. W większości programów DAW, funkcja ta pozwala błyskawicznie wykonać wiele powtórzeń danego fragmentu – wystarczy podać żądaną liczbę kopii, jak w tym przypadku 16, a całość zostanie elegancko rozłożona w linii czasowej projektu, bez żadnych przerw czy przesunięć. Z mojego doświadczenia praca z „Repeat” oszczędza mnóstwo czasu – nie musisz ręcznie kopiować i przesuwać regionów, co łatwo prowadzi do bałaganu na ścieżce albo niezamierzonych błędów rytmicznych. Jest to zgodne z dobrą praktyką produkcyjną, bo zachowujesz porządek i rytmikę projektu. Dodatkowo, korzystanie z tej opcji sprzyja zachowaniu spójności aranżacji – każdy region rozmieszczony jest równo, idealnie „na siatce”, co przy dużych ilościach powtórzeń jest wręcz niezbędne. Szczerze mówiąc, nie wyobrażam sobie pracy nad np. pętlami perkusyjnymi czy efektami bez tej funkcji – to taki DAW-owy chleb powszedni. Moim zdaniem, warto też pamiętać, że „Repeat” działa nie tylko na pojedynczych regionach, ale też na wybranych grupach – co jeszcze bardziej przyspiesza workflow. Krótko mówiąc – wybór tej opcji to świadome korzystanie z narzędzi, które branża muzyczna uznaje za podstawowe i nieodzowne podczas aranżacji materiału audio.

Pytanie 38

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Volume
B. Balance
C. Send
D. Gain
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 39

Zastosowanie opcji Stereo Split w oprogramowaniu DAW podczas zgrywania sesji spowoduje zapis kanału lewego i kanału prawego do

A. jednego pliku stereo.
B. dwóch odrębnych plików mono.
C. jednego pliku mono.
D. dwóch odrębnych plików stereo.
Opcja <i>Stereo Split</i> w programach DAW, takich jak Cubase, Logic czy Pro Tools, to bardzo przydatna funkcja, szczególnie jeśli pracujesz przy dużych projektach albo musisz później miksować dźwięk na innym sprzęcie. Zaznaczenie tej opcji podczas eksportowania ścieżki stereo powoduje, że DAW rozdziela sygnał na dwa osobne pliki mono – jeden z nich zawiera wyłącznie kanał lewy, a drugi tylko prawy. To jest zgodne ze standardami produkcji audio, zwłaszcza przy współpracy międzystanowiskowej lub kiedy ścieżki mają być poddane dalszej obróbce w innym programie. Z mojego doświadczenia, takie rozwiązanie daje większą elastyczność, bo możesz np. niezależnie zapanować nad panoramą czy poziomem lewego i prawego kanału już na etapie miksu końcowego. Co ciekawe, w profesjonalnych studiach bardzo często wymaga się dostarczania właśnie splitowanych plików mono, bo przy masteringu czy opracowywaniu ścieżek do filmów czy reklam jest to dużo wygodniejsze i bardziej przewidywalne. Warto też dodać, że dwa pliki mono są kompatybilne praktycznie z każdym oprogramowaniem czy sprzętem audio, nawet starszymi konsolami czy systemami broadcastowymi. Tak więc, jeśli zależy Ci na profesjonalizmie i kompatybilności materiału dźwiękowego, zdecydowanie warto znać i korzystać z tej opcji. Zresztą, ja sam nieraz miałem sytuację, że tylko dzięki splitowi mogłem sprawnie poprawić miks bez ponownego eksportowania całej sesji.

Pytanie 40

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 25 GB
B. 100 GB
C. 50 GB
D. 200 GB
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.