Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 5 maja 2026 10:12
  • Data zakończenia: 5 maja 2026 10:19

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W celu wykonania montażu równoległego realizator powinien w edytorze dźwięku wgrać fragmenty muzyczne na

A. tę samą ścieżkę jeden za drugim zgodnie z chronologią czasową.
B. tę samą ścieżkę w kolejności czasu ich trwania.
C. osobne ścieżki od tego samego punktu czasowego.
D. tę samą ścieżkę nie zachowując chronologii czasowej.
Montaż równoległy w edytorze dźwięku polega właśnie na tym, że kilka fragmentów muzycznych odtwarzanych jest jednocześnie, a nie po kolei. Z technicznego punktu widzenia, żeby to osiągnąć, trzeba umieścić te fragmenty na osobnych ścieżkach, startujących od tego samego miejsca na osi czasu projektu. To daje pełną kontrolę nad każdym fragmentem – osobno możesz ustawić głośność, panoramę, efekty i precyzyjnie miksować całość. To standardowa praktyka nie tylko w produkcji muzycznej, ale też w postprodukcji filmowej czy radiowej, gdzie często nakłada się kilka dźwięków naraz: muzykę, efekty, dialogi. Osobne ścieżki to podstawa workflow w takich programach jak Cubase, Pro Tools czy nawet Audacity. Nawet jak się kiedyś pracowało na sprzęcie analogowym, to myślenie ścieżkami już wtedy było istotne – dzisiaj po prostu jest to łatwiejsze i dokładniejsze. Moim zdaniem warto od razu wyrobić sobie nawyk pracy na wielu ścieżkach, bo to bardzo ułatwia późniejszą edycję i oszczędza mnóstwo czasu przy bardziej złożonych projektach. Dzięki temu każdy element miksu masz pod kontrolą i możesz go zmieniać nie wpływając na pozostałe fragmenty. To taki absolutny fundament branżowy – nie znam chyba nikogo, kto profesjonalnie pracuje inaczej.

Pytanie 2

Wielokanałowy format dźwięku przestrzennego 5.1 nie zawiera kanału

A. subbasowego.
B. surround L/R.
C. centralnego tylnego.
D. centralnego przedniego.
Format 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku przestrzennego wykorzystywany w kinie domowym, grach czy transmisjach telewizyjnych. Składa się z sześciu kanałów: lewy przedni, prawy przedni, centralny przedni, lewy surround, prawy surround oraz subbasowy (czyli ten .1, od Low Frequency Effects). Kluczowe jest to, że nie przewiduje się tu czegoś takiego, jak centralny tylny kanał – to pojawia się dopiero w bardziej rozbudowanych systemach jak 6.1 lub 7.1. Moim zdaniem to dobrze pokazuje, jak czasem łatwo się pomylić, bo nazwy mogą być mylące – „centralny” kojarzy się z przodem, a „tylny” z dodatkowymi kanałami. W praktyce, kiedy ustawiasz kino domowe, właśnie te dwa kanały surround (lewy i prawy) odpowiadają za efekt przestrzenności za słuchaczem, ale nie są to kanały centralne. Standard Dolby Digital oraz DTS rzeczywiście mówią wprost: tylko jeden centralny (przedni). Z mojego doświadczenia wynika, że nawet profesjonaliści czasem mają z tym problem i szukają czegoś, czego nie ma w 5.1. Warto o tym pamiętać zwłaszcza przy projektowaniu instalacji audio lub przy pracy z mikserami cyfrowymi.

Pytanie 3

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Split Clip.
B. Loop Region.
C. Clip Group.
D. Unloop Region.
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 4

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 1 ścieżkę.
B. 2 ścieżki.
C. 3 ścieżki.
D. 4 ścieżki.
Prawidłowa odpowiedź to 4 ścieżki, bo właśnie tyle potrzeba do zarejestrowania wielościeżkowego nagrania gitary przy użyciu dwóch mikrofonów podpórkowych (close mików) oraz pary mikrofonów ogólnych ustawionych w systemie XY. Każdy mikrofon powinien mieć swoją oddzielną ścieżkę w sesji DAW – to podstawa profesjonalnej rejestracji, bo tylko wtedy masz pełną kontrolę nad edycją, panoramą, EQ czy efektami na każdym z nich. Takie podejście pozwala potem swobodnie miksować – na przykład przesunąć mikrofony XY szerzej w panoramie, dodać inny pogłos na close mikach albo nawet wyciąć niechciany szum tylko z jednej ścieżki. Moim zdaniem, w praktyce studyjnej to absolutny standard i nie znam realizatora, który by wrzucał dwa mikrofony na jedną ścieżkę – później nie da się tego sensownie rozdzielić. Co ciekawe, taka konfiguracja przydaje się nie tylko przy gitarze, bo identyczna logika działa przy nagrywaniu perkusji, fortepianu czy chórów – osobne ścieżki dla każdego mikrofonu! Warto o tym pamiętać, bo potem przy miksie można wyciągnąć z tych nagrań znacznie więcej. A jeszcze na marginesie – zawsze dobrze jest opisać ścieżki w projekcie, bo przy czterech mikrofonach łatwo się pomylić, gdzie jest XY lewy, a gdzie prawy. To drobiazg, ale bardzo pomaga w kolejnych etapach produkcji.

Pytanie 5

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.0
B. 1.1
C. 2.2
D. 2.1
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 6

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .omf
B. .aiff
C. .ac3
D. .mp3
Format pliku .ac3, czyli Dolby Digital Audio Coding 3, to jeden z najważniejszych standardów w branży filmowej i szeroko rozumianej postprodukcji dźwięku. Umożliwia on zapis i dystrybucję dźwięku wielokanałowego, najczęściej w systemie 5.1, co oznacza pięć kanałów pełnopasmowych i jeden kanał niskich częstotliwości (subwoofer). Ten format jest wykorzystywany głównie na płytach DVD, Blu-ray, w telewizji cyfrowej, a nawet w kinach domowych. Z mojego doświadczenia, kiedy pracowałem przy projektach filmowych, to właśnie pliki .ac3 były standardem przy masteringu ścieżek surround – inne formaty praktycznie nie wchodziły w grę. Plik .ac3 pozwala na zachowanie wysokiej jakości dźwięku przy stosunkowo niewielkim rozmiarze, co jest kluczowe przy dystrybucji. Bardzo ciekawą rzeczą jest to, że standard Dolby Digital jest wspierany przez większość amplitunerów i odtwarzaczy, co daje uniwersalność i pewność, że zamierzony efekt trafi do odbiorcy. Moim zdaniem, jeśli ktoś chce na poważnie wejść w świat dźwięku przestrzennego, to bez znajomości .ac3 ani rusz. W branży to taki must have. Warto też zauważyć, że .ac3 zapewnia obsługę metadanych, co ułatwia późniejsze dostosowanie dźwięku do różnych warunków odsłuchowych, np. przy dynamicznym tłumieniu dialogów czy automatycznym wyrównywaniu poziomów.

Pytanie 7

Technika mikrofonowa MS to technika

A. ambisoniczna.
B. monofoniczna.
C. stereofonii natężeniowej.
D. binauralna.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę sprytna metoda wykorzystywana przy nagraniach stereofonicznych, szczególnie jeśli chodzi o rejestrację przestrzeni z dużą precyzją i elastycznością. Jej podstawą jest wykorzystanie dwóch mikrofonów – jeden pracuje w trybie kardioidalnym (Mid), a drugi w ósemkowym (Side). Dzięki takiemu ustawieniu uzyskuje się tzw. stereofonię natężeniową, gdzie różnice w natężeniu sygnału z obu mikrofonów tworzą efekt stereo. Największą zaletą MS jest to, że po nagraniu można dowolnie regulować szerokość sceny stereo już na etapie postprodukcji, co daje dużą kontrolę nad brzmieniem. Często stosuje się ją np. przy nagrywaniu chóru, instrumentów akustycznych czy nawet w reportażu radiowym, bo pozwala zachować świetną zgodność sumy do mono – co nie jest oczywiste przy innych technikach stereo. Moim zdaniem, warto znać tę metodę, bo nie tylko daje profesjonalny efekt, ale i bywa wręcz standardem w branży. Ciekawe jest też to, że wiele pluginów do DAW wykorzystuje dekodowanie MS, więc rozumienie tej techniki ułatwia pracę z dźwiękiem cyfrowym. W ogóle, w świecie realizacji dźwięku technika MS to temat, który bardzo się przydaje i według mnie każdy, kto poważnie myśli o nagrywaniu, powinien go ogarnąć.

Pytanie 8

Ile kanałów audio stosowanych jest w reprodukcji techniką 5.1?

A. 8 kanałów.
B. 12 kanałów.
C. 6 kanałów.
D. 7 kanałów.
Technika 5.1 to obecnie jeden z najczęściej stosowanych standardów dźwięku przestrzennego, zwłaszcza w kinie domowym, grach wideo czy transmisjach telewizyjnych. Liczba „5” oznacza pięć pełnopasmowych kanałów audio: front lewy, front prawy, centralny, surround lewy oraz surround prawy. Ta konfiguracja pozwala uzyskać bardzo realistyczne wrażenie przestrzeni, gdzie dźwięki mogą być precyzyjnie przypisane do otoczenia wokół widza. Ten szósty kanał, czyli „.1”, odnosi się do kanału niskich częstotliwości LFE (Low Frequency Effects), dedykowanego subwooferowi. Dzięki temu subwoofer odtwarza głównie efekty specjalne, takie jak wybuchy czy dudnienia, wzmacniając doznania dźwiękowe. Dla mnie, jako fana kina domowego, różnicę między zwykłym stereo a 5.1 słychać od razu – szczególnie przy filmach akcji albo grach wyścigowych. Standard 5.1 został formalnie zdefiniowany przez organizacje takie jak ITU-R BS.775 oraz Dolby Digital i DTS. Warto dodać, że instalacja systemu 5.1 jest dość uniwersalna i nie wymaga bardzo zaawansowanego sprzętu, przez co jest szeroko dostępna. Rozumienie tej konfiguracji to podstawa, jeśli myślisz o pracy z dźwiękiem, bo praktycznie każdy profesjonalny system audio, czy w studio, czy w kinie, potrafi obsłużyć układ 5.1. Z mojego doświadczenia sam podział na 5+1 kanałów znacznie ułatwia miksowanie ścieżek dźwiękowych, bo pozwala lepiej rozplanować brzmienie i efekty, żeby publiczność naprawdę miała poczucie przestrzeni.

Pytanie 9

Na płycie DVD zawierającej materiał dźwiękowy nagrany w formacie 5.1 należy umieścić opis

A. Dolby Digital.
B. Dolby Digital EX.
C. Dolby Surround.
D. Dolby Stereo.
Z punktu widzenia technicznego, zamieszczanie oznaczenia takiego jak Dolby Stereo czy Dolby Surround na płycie DVD z dźwiękiem zapisanym w formacie 5.1 jest po prostu niepoprawne – to jeden z częstszych błędów, na które można się natknąć w praktyce. Często myli się Dolby Stereo i Dolby Surround z nowoczesnymi systemami wielokanałowymi, bo nazwy są podobne i kojarzą się z przestrzennością, ale w rzeczywistości te technologie dotyczą całkiem innych rozwiązań. Dolby Stereo to system przeznaczony pierwotnie do dźwięku analogowego na taśmie filmowej i kasetach VHS, umożliwiający jedynie bardzo ograniczone efekty surround na bazie zapisu stereo. Dolby Surround to jego rozwinięcie, pozwalające zyskać trochę szerszą scenę dźwiękową, ale wciąż nie zapewnia prawdziwej separacji sześciu kanałów, jak w 5.1. Bardzo często osoby wybierające te odpowiedzi kierują się skojarzeniami z klasycznym kinem domowym sprzed lat albo po prostu mylą pojęcia. Jeżeli chodzi o Dolby Digital EX – to rzeczywiście format wielokanałowy, ale rozszerzony względem klasycznego 5.1 – dodaje dodatkowy kanał tylny centralny (czyli konfigurację 6.1 lub nawet 7.1), co przy DVD raczej spotyka się rzadziej i wymaga specjalnych warunków odtwarzania. Standardowy zapis 5.1 na DVD praktycznie zawsze będzie oznaczany jako Dolby Digital, bo tak przewidują specyfikacje i licencje producentów. Mylenie tych technologii prowadzi do problemów z kompatybilnością sprzętu lub błędnego oczekiwania efektów dźwiękowych. Dlatego zawsze warto sprawdzić, jaki dokładnie format znajduje się na płycie, a do zapisu typowego 5.1 na DVD – po prostu wybiera się Dolby Digital, bo to synonim branżowego standardu. Techniczna precyzja w tym temacie naprawdę się przydaje, zwłaszcza jeśli zajmujesz się produkcją lub postprodukcją materiałów audio-wideo.

Pytanie 10

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 7 kanałów.
B. 1 kanału.
C. 8 kanałów.
D. 5 kanałów.
System wielokanałowy oznaczony jako 7.1 składa się z ośmiu kanałów, czyli 7 głośników pełnopasmowych i jednego subwoofera dedykowanego do odtwarzania niskich częstotliwości. To oznaczenie jest standardem w branży audio, zwłaszcza w kinie domowym czy profesjonalnych instalacjach dźwiękowych. Te siedem kanałów to zwykle: lewy, środkowy, prawy, lewy surround, prawy surround, lewy tylni i prawy tylni. Subwoofer (czyli ten '.1') zajmuje się generowaniem basów i efektów specjalnych o bardzo niskich częstotliwościach, co daje potężniejszy i bardziej realistyczny odbiór dźwięku, zwłaszcza w filmach akcji czy grach. Moim zdaniem, jeśli ktoś raz usłyszy dobrze ustawiony system 7.1, to już nie będzie chciał wrócić do starego stereo czy nawet 5.1. Takie zestawy są obecnie wspierane przez nowoczesne formaty dźwięku przestrzennego, jak Dolby TrueHD czy DTS-HD Master Audio. Często spotyka się je w salach kinowych, ale coraz częściej także w lepszych pokojach gamingowych i domowych salach audiofilskich. Branża od lat rekomenduje takie rozwiązania tam, gdzie liczy się precyzja pozycjonowania dźwięku i wierność odwzorowania przestrzeni akustycznej. Powiem szczerze, czasem nawet nie zdajemy sobie sprawy, jak wiele szczegółów audio można przegapić, jeśli nie mamy tylu kanałów!

Pytanie 11

Zastosowanie opcji Multi Mono podczas zapisu miksu sesji spowoduje zapis

A. do jednego pliku stereo.
B. kanałów lewego i prawego do jednego pliku mono.
C. kanałów lewego i prawego jako niezależne pliki audio.
D. kanałów lewego i prawego w postaci dwóch odrębnych ścieżek stereo.
Jednym z typowych nieporozumień podczas pracy z eksportem miksów audio jest założenie, że opcje eksportu takie jak Multi Mono odnoszą się tylko do prostych formatów stereo lub mono. W rzeczywistości, jeśli zdecydujesz się na zapis całości do jednego pliku stereo, to DAW po prostu sumuje kanał lewy i prawy do wspólnego pliku, co jest oczywiste w większości domowych produkcji, ale ogranicza możliwości późniejszej edycji każdego kanału osobno. Z kolei zapis kanałów lewego i prawego do jednego pliku mono jest błędną koncepcją – taka operacja powodowałaby utratę informacji przestrzennej, bo oba kanały zostałyby zsumowane do jednego i tracimy cały efekt panoramy stereo. Często myli się też Multi Mono z eksportem dwóch odrębnych ścieżek stereo, co jest nieporozumieniem, bo to prowadziłoby do nadmiarowej liczby plików i niepotrzebnej redundancji – nie ma żadnego technicznego uzasadnienia dla generowania dwóch identycznych plików stereo z tej samej zawartości. U podstaw tych błędów leży najczęściej niezrozumienie, czym różni się architektura plików mono i stereo oraz jak profesjonalne DAWy traktują routing sygnału. Multi Mono nie służy do miksu, a raczej do rozdzielania kanałów na potrzeby dalszej edycji, archiwizacji czy przenoszenia projektu między różnymi systemami. Branżowe standardy (szczególnie w postprodukcji filmowej i telewizyjnej) wymagają właśnie tego typu separacji – zamiast jednego pliku stereo, generujemy dwa niezależne pliki mono, co eliminuje ryzyko błędnego przetworzenia kanałów w dalszych etapach produkcji. Z mojego doświadczenia wynika, że ten sposób zapisu jest po prostu bezpieczniejszy i gwarantuje większą kompatybilność plików audio, co na dużych sesjach ma kluczowe znaczenie. Warto to zapamiętać, bo daje to większą kontrolę nad materiałem dźwiękowym.

Pytanie 12

Zastosowanie opcji Stereo Split w programie DAW podczas zgrywania sesji spowoduje zapis kanału lewego i kanału prawego do

A. jednego pliku stereo.
B. dwóch odrębnych plików mono.
C. dwóch odrębnych plików stereo.
D. jednego pliku mono.
Opcja „Stereo Split” w programie DAW (Digital Audio Workstation) jest stosowana wtedy, gdy chcemy rozdzielić nagranie stereo na dwa oddzielne pliki – jeden zawierający wyłącznie kanał lewy, drugi tylko prawy. W praktyce wygląda to tak, że na przykład miksujesz utwór i chcesz go wyeksportować w taki sposób, aby później móc wykorzystać osobno lewy i prawy kanał – na przykład do masteringu stemów, do analizy czy do formatów broadcastowych. To rozwiązanie jest bardzo wygodne i wręcz standardowe w wielu studiach, szczególnie przy pracy z materiałem do kina czy telewizji, gdzie często każdy kanał ma inne przeznaczenie. Moim zdaniem warto znać i korzystać z tej opcji, bo pozwala uniknąć wielu nieporozumień, jeśli potem trzeba przekazać ślady do dalszej obróbki. Pliki mono są też mniej podatne na błędy związane z konwersją między formatami, a wiele starszych systemów lub urządzeń w ogóle nie obsługuje plików stereo. Dobra praktyka jest taka, żeby zawsze wiedzieć, czy dany plik to stereo, mono, czy właśnie split stereo – bo to potem bardzo ułatwia życie przy większych projektach. No i jeszcze: export w trybie „Stereo Split” sprawia, że nie musisz się zastanawiać, czy program dobrze rozpozna kanały podczas importu. Na przykład w Pro Tools czy Cubase to naprawdę ratuje czas i nerwy.

Pytanie 13

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Volume
B. Balance
C. Gain
D. Send
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 14

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. L100 R100
B. L0 R0
C. R50 R100
D. L50 L100
Panorama w miksie dźwięku to jedno z tych narzędzi, które potrafią zrobić ogromną różnicę, nawet jak się zaczyna od prostych sygnałów mono. Ustawienie panoramy na L100 dla jednego sygnału i R100 dla drugiego to klasyka, jeśli chodzi o pełną separację przestrzenną – każdy dźwięk trafia tylko do jednego kanału stereo. Nie ma tu żadnego nakładania się, więc słuchacz od razu wychwyci, który dźwięk dochodzi z lewej, a który z prawej strony. To taki trochę fundament np. w koncertach live, gdzie chcesz, żeby gitara była maksymalnie po lewej, a klawisze po prawej, żeby muzyka nie zlewała się w jeden chaos. W studiu często robi się tak przy nagraniach instrumentów, których brzmienia chcesz odseparować — potem dużo łatwiej zapanować nad miksem, bo nie musisz walczyć z kolizjami w środku panoramy. Zresztą – w broadcastingu, w produkcjach telewizyjnych, nawet przy dźwięku filmowym ta technika, moim zdaniem, jest mega przydatna, szczególnie przy dialogach i efektach specjalnych. Dodatkowo, takie rozłożenie sygnałów bardzo ułatwia pracę, jeśli planujesz potem robić wersje do formatu mono, bo od razu wiesz, które dźwięki są potencjalnie problematyczne. Warto pamiętać, że de facto L100 i R100 to po prostu pełne wychylenie panoramy do skrajnych pozycji, zgodnie z zasadą stosowaną w każdej profesjonalnej konsolecie czy DAW. Takie podejście daje największą czytelność miksu i jest zgodne z zaleceniami m.in. AES i EBU przy produkcji materiałów stereo.

Pytanie 15

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. INSTRUMENT
B. AUX
C. AUDIO
D. MASTER
MASTER to absolutnie kluczowa ścieżka w każdej sesji DAW, bo to właśnie ona działa jako główna szyna stereo miksu – taka ostatnia prosta, przez którą przechodzi cały sygnał audio, zanim trafi na głośniki albo zostanie wyeksportowany do pliku. W praktyce, kiedy miksujesz utwór, wszystkie ścieżki (audio, instrumenty, grupy, AUX-y itd.) sumują się właśnie na torze MASTER. To rozwiązanie nie wzięło się znikąd – podobnie działa to w fizycznych stołach mikserskich, gdzie masz tzw. sumę główną (main out) i to ona leci do systemu odsłuchowego lub nagrywania finalnego. Z mojego doświadczenia, nawet jeśli nie zaglądasz do tej ścieżki za każdym razem, warto pamiętać, że wszelkie efekty typu limiter, kompresor czy masteringowe EQ najlepiej umieścić właśnie tutaj. To też miejsce, gdzie najwygodniej kontrolować poziom końcowy miksu, żeby nie przesterować sygnału. W większości DAW-ów MASTER jest ustawiony domyślnie jako wyjście główne i nie trzeba tego ruszać, chyba że eksperymentujesz z routingiem. Fajne jest też to, że MASTER daje możliwość szybkiego sprawdzenia, jak miks brzmi po zgraniu, bez konieczności renderowania do pliku. Moim zdaniem, opanowanie pracy z tą ścieżką to absolutna podstawa dla każdego, kto chce produkować muzykę na przyzwoitym poziomie.

Pytanie 16

Zastosowanie opcji Interleaved podczas zgrywania sesji spowoduje zapis danych do

A. jednego pliku stereo.
B. jednego pliku mono.
C. odrębnych plików stereo dla każdego kanału.
D. odrębnych plików mono dla każdego kanału.
Opcja <i>Interleaved</i> podczas zgrywania sesji oznacza, że dane audio z wielu kanałów, na przykład z lewego i prawego w przypadku stereo, są zapisywane naprzemiennie w jednym pliku. To jest bardzo praktyczne, bo potem taki plik można łatwo wykorzystać w niemal każdym programie DAW, odtworzyć bez problemu na większości platform czy przesłać dalej do miksu lub masteringu. W branży muzycznej i postprodukcyjnej jest to już od lat standard, szczególnie jeśli chodzi o eksport stereo miksów czy stemów – praktycznie każdy realizator dźwięku preferuje jeden plik stereo zamiast dwóch osobnych plików mono. Dzięki temu transport i archiwizacja są dużo prostsze. Warto wiedzieć, że formaty takie jak WAV czy AIFF obsługują pliki interleaved, bo są przystosowane do zapisywania danych z kilku kanałów razem, w określonej kolejności próbek. Moim zdaniem, jeśli planujesz pracować z innymi osobami lub przenosić sesje między różnymi stanowiskami, zastosowanie opcji interleaved bardzo ułatwia życie i minimalizuje ryzyko pomyłek, np. zamiany kanałów. Warto pamiętać, że interleaved to nie tylko wygoda, ale też pewien wymóg przy pracy z niektórymi urządzeniami czy oprogramowaniem, które nie radzi sobie z wieloma pojedynczymi plikami mono. Ogólnie polecam pilnować tej opcji przy eksportach stereo – to sprawdzone rozwiązanie w praktyce.

Pytanie 17

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 4 ścieżki.
B. 2 ścieżki.
C. 8 ścieżek.
D. 6 ścieżek.
Binauralne nagrania opierają się na odwzorowaniu tego, jak ludzkie uszy odbierają dźwięki w rzeczywistości, dlatego do ich prawidłowego montażu wystarczają dokładnie dwie ścieżki audio – lewa i prawa. Jest to w zasadzie odwzorowanie naturalnego słyszenia, gdzie każde ucho odbiera sygnał osobno. Najpopularniejsze mikrofony binauralne mają dwie kapsuły, rozmieszczone na kształt ludzkiej głowy, co pozwala na uchwycenie wszelkich niuansów przestrzennych, takich jak przesunięcia fazowe, mikroróżnice w natężeniu i czasie dotarcia fali akustycznej. Właśnie te szczegóły decydują o efekcie „immersji”, czyli poczuciu zanurzenia w dźwięku – słuchacz zyskuje iluzję, że dźwięki go otaczają, gdy odtwarza nagranie przez słuchawki stereo. Praktyka branżowa wskazuje, że rozdzielczość na więcej niż dwie ścieżki nie tylko nie jest potrzebna przy binaurali, ale wręcz może zaburzyć efekt. Z mojego doświadczenia, montując nagrania binauralne, nie spotkałem sytuacji, w której sensowne byłoby korzystanie z większej liczby ścieżek – cały efekt polega właśnie na zachowaniu naturalnej pary lewa-prawa. Warto też dodać, że standardowe formaty dystrybucji nagrań binauralnych – np. pliki WAV czy FLAC – obsługują dwukanałowe audio. To bardzo wygodne i uniwersalne rozwiązanie, bo nie wymaga specjalistycznego sprzętu odsłuchowego, a jedynie dobre słuchawki. Zresztą, nawet w profesjonalnych studiach nagraniowych, przy miksie binauralnym nie stosuje się więcej ścieżek, bo cały trick polega na prostocie i precyzji właśnie tych dwóch kanałów.

Pytanie 18

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby TrueHD
B. Dolby AC3
C. Dolby Digital EX
D. Dolby Digital
Dolby TrueHD to faktycznie format wielokanałowej, bezstratnej kompresji dźwięku, który bardzo często spotyka się w domowych systemach kina domowego, a także na płytach Blu-ray. Co ciekawe, moim zdaniem jest to jeden z najbardziej zaawansowanych technologicznie kodeków audio dostępnych dla użytkowników końcowych. Dzięki zastosowaniu technologii bezstratnej kompresji, Dolby TrueHD pozwala na zachowanie jakości dźwięku identycznej z oryginalnym zapisem studyjnym – żaden szczegół nie ginie, nie ma żadnych strat jakości jak w przypadku formatów stratnych takich jak Dolby Digital. W praktyce, jeżeli zależy komuś na słuchaniu muzyki czy oglądaniu filmów z dźwiękiem przestrzennym naprawdę najwyższej jakości (np. 7.1 kanałów), to właśnie TrueHD jest jednym z najlepszych wyborów. Warto dodać, że ten format jest zgodny ze standardem HDMI, co ułatwia integrację z nowoczesnym sprzętem AV. Z mojego doświadczenia, osoby wykorzystujące Dolby TrueHD często podkreślają, że różnica w detaliczności i dynamice dźwięku jest słyszalna nawet na lepszych soundbarach, nie mówiąc już o rozbudowanych systemach głośnikowych. To nie jest taki zwykły kodek jak AC3 – to już wyższa liga, jeśli chodzi o jakość i zastosowanie w branży.

Pytanie 19

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 1 ścieżkę.
C. 3 ścieżki.
D. 2 ścieżki.
W przypadku nagrania kwartetu smyczkowego z użyciem techniki mikrofonowej MM, czyli mikrofonowania mono-mono każdego instrumentu osobno, absolutnym minimum są 4 ścieżki monofoniczne w sesji DAW. Każdy instrument kwartetu, czyli I skrzypce, II skrzypce, altówka i wiolonczela, powinien dostać swoją własną niezależną ścieżkę. To pozwala na pełną kontrolę podczas miksowania – możesz osobno regulować poziomy, panoramę, kompresję albo dodawać efekty, jeśli zajdzie taka potrzeba. Tak robi się to praktycznie wszędzie w branży, bo daje to najwięcej możliwości edycyjnych i pozwala uzyskać profesjonalne brzmienie. Łączenie nagrań kilku instrumentów na jedną ścieżkę mocno ogranicza późniejszą edycję, a tego raczej nikt nie robi w poważnej produkcji. Dodatkowo, jeśli kiedyś będziesz chciał miksować albo masterować materiał pod różne potrzeby, osobne nagrania są wręcz niezbędne. Co więcej, to nie tylko wygoda, ale i bezpieczeństwo – jeżeli na którejś ścieżce pojawi się problem (np. szum albo brudne wejście mikrofonowe), łatwo go wychwycisz i poprawisz bez naruszania reszty partii. Moim zdaniem, to podejście jest po prostu standardem, bo każda profesjonalna sesja opiera się na oddzielnych śladach dla każdego źródła. Warto mieć te 4 ścieżki nawet jeśli wydaje się to „za dużo” – w praktyce szybko docenisz tę elastyczność.

Pytanie 20

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 2 ścieżki.
B. 3 ścieżki.
C. 4 ścieżki.
D. 1 ścieżkę.
W przypadku nagrania chóru z użyciem techniki XY oraz dwóch mikrofonów podpórkowych, przygotowanie czterech monofonicznych ścieżek w sesji DAW to absolutna podstawa, żeby zachować pełną kontrolę nad całością materiału podczas miksu. Technika XY polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej pod kątem 90 stopni względem siebie, co daje stereo, ale każda kapsuła to osobny sygnał, więc już na starcie potrzebujemy dwóch ścieżek dla XY. Mikrofony podpórkowe, często nazywane spotami lub mikrofonami sekcyjnymi, również rejestrują niezależne ślady – najczęściej służą do podkreślenia sekcji lub solistów. W sumie daje to cztery ścieżki: dwa kanały z XY i dwa z mikrofonów podpórkowych. Moim zdaniem, nie da się tego zrobić sensownie na mniejszej liczbie ścieżek bez utraty kontroli, szczególnie jeśli chodzi o panoramowanie, obróbkę dynamiki czy ewentualne kompensacje fazowe. Takie podejście pozwala na swobodny balans pomiędzy ogólnym brzmieniem chóru uchwyconym techniką stereo a detalem uzyskanym z mikrofonów spotowych. Praktyka studyjna pokazuje, że profesjonalne produkcje zawsze rozdzielają te ślady, bo potem łatwiej jest korygować proporcje, efekty czy nawet opóźnienia. W branży to wręcz standard – nawet jeśli finalnie miksujemy wszystkie ślady razem, rozdzielenie ich na etapie montażu daje pełną elastyczność. Z mojego doświadczenia, kombinowanie z miksowaniem tych sygnałów na jednym śladzie zawsze kończy się kompromisami, których można uniknąć, przygotowując cztery niezależne ścieżki.

Pytanie 21

Technika mikrofonowa MS to technika

A. monofoniczna.
B. binauralna.
C. stereofonii natężeniowej.
D. ambisoniczna.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę ciekawe rozwiązanie w rejestracji dźwięku, szczególnie jeśli zależy nam na elastyczności późniejszej obróbki sygnału stereo. W tej technice korzysta się z dwóch mikrofonów – jeden ustawiony jest na środek (Mid), najczęściej o charakterystyce kardioidalnej, a drugi na boki (Side), co zazwyczaj oznacza charakterystykę ósemkową. Dzięki temu uzyskujemy sygnał, z którego można stworzyć obraz stereofoniczny na podstawie różnic w natężeniu sygnału, a nie tylko fazie. To się nazywa stereofonia natężeniowa, bo opiera się właśnie na różnicy poziomów sygnału w kanałach lewym i prawym. Ogromną zaletą tej techniki jest możliwość regulacji szerokości stereo już po nagraniu – w praktyce wystarczy manipulować proporcją sygnału Mid do Side podczas miksu. W branży studyjnej MS jest wręcz standardem np. przy rejestracji chóru, orkiestry, ale też do nagrań plenerowych czy nawet w broadcastingu, bo zapewnia świetną mono-kompatybilność. Z mojego doświadczenia wynika, że inżynierowie lubią MS za jego wszechstronność – czasem uratuje nagranie, które w klasycznej parze XY nie daje rady. Ciekawostka: obecnie wiele profesjonalnych pluginów DAW pozwala na rozbudowaną edycję MS, więc warto znać tę technikę nawet jeśli nie pracuje się na żywych mikrofonach.

Pytanie 22

Zastosowanie opcji Interleaved w sesji spowoduje zapis

A. kanału lewego i prawego miksu do niezależnych plików.
B. do jednego pliku kanałów na ścieżkach stereo.
C. do niezależnych plików kanałów lewego i prawego ścieżki stereo.
D. kanałów lewego i prawego ścieżki stereo do pliku mono.
Opcja Interleaved w sesji, szczególnie w kontekście programów DAW i pracy ze ścieżkami stereo, oznacza zapisanie obu kanałów (lewego i prawego) do jednego pliku audio. W praktyce to jest najczęściej wykorzystywany sposób pracy z plikami stereo, bo pozwala na wygodniejsze zarządzanie projektami i szybszy transfer plików między różnymi systemami czy aplikacjami. Moim zdaniem, jest to szczególnie przydatne wtedy, kiedy eksportujesz miks do masteringu albo wysyłasz sesję komuś do dalszej obróbki – nie musisz pilnować, żeby oba pliki mono były poprawnie sparowane, bo wszystko masz w jednym, logicznym pliku stereo. W branży muzycznej i postprodukcyjnej to właściwie standard – WAV i AIFF obsługują tryb interleaved, a większość pluginów i stacji roboczych oczekuje właśnie takiego formatu. Z mojego doświadczenia wynika, że unikasz w ten sposób chaosu związanego z rozdzielnymi plikami kanałów, bo np. przy przenoszeniu projektu na inny komputer nie trzeba już ręcznie przypisywać lewego i prawego kanału. To drobiazg, który realnie przyspiesza workflow. Co ciekawe, niektóre starsze urządzenia hardware’owe czy programy jeszcze korzystają z plików split (osobny na kanał), ale to już raczej wyjątek niż reguła. Warto też wiedzieć, że Interleaved jest domyślną opcją eksportu w większości nowoczesnych DAW, więc nawet nie trzeba się nad tym za bardzo zastanawiać, po prostu działa.

Pytanie 23

Skróty: BD, SN, HH dotyczą

A. instrumentów tria gitarowego.
B. głosów zespołu wokalnego.
C. instrumentów sekcji dętej.
D. instrumentów zestawu perkusyjnego.
Skróty BD, SN, HH to bardzo charakterystyczne oznaczenia używane przede wszystkim w świecie perkusji – szczególnie na planach utworów, w nutach dla perkusisty i na listach sprzętu podczas koncertów. Oznaczają one konkretne elementy perkusyjnego zestawu: BD to „bass drum” (centrala), SN to „snare” (werbel), a HH to „hi-hat” (hi-hat, czyli para talerzy sterowana pedałem). Często spotyka się te skróty na diagramach zestawu perkusyjnego, ale też przy zapisie nutowym, gdzie oszczędność miejsca i szybkość rozpoznania są kluczowe – szczególnie podczas prób czy sesji nagraniowych. Moim zdaniem, nawet jeśli ktoś gra na gitarze albo śpiewa, warto znać te skróty, bo w zespole komunikacja musi być szybka i jasna. W branży muzycznej, zwłaszcza na scenie czy w studiu nagrań, używanie takiego skróconego nazewnictwa to właściwie standard. W notacjach MIDI i DAW-ach (np. Ableton, Cubase), te skróty też są często stosowane jako domyślne oznaczenia ścieżek czy sampli. W praktyce to naprawdę ułatwia życie, bo masz jasność, co i gdzie masz zagrać albo nagrać. Sam często spotykam się z tym, że nawet początkujący perkusiści łapią te oznaczenia szybciej niż pełne nazwy – a wiadomo, liczy się czas i precyzja. Takie skróty są też obecne w podręcznikach branżowych i są uznawane za dobrą praktykę w edukacji muzycznej, zwłaszcza na poziomie technikum czy szkół muzycznych.

Pytanie 24

Proporcja głośności między lewym i prawym kanałem w stereofonicznym torze konsolety mikserskiej regulowana jest za pomocą potencjometru

A. Volume.
B. Send.
C. Balance.
D. Gain.
Odpowiedź 'Balance' jest faktycznie tą właściwą, bo to właśnie ten potencjometr, zarówno na konsoletach analogowych jak i cyfrowych, odpowiada za proporcję głośności między lewym i prawym kanałem w sygnale stereofonicznym. To narzędzie podstawowe – szczególnie kiedy miksujemy sygnały, które powinny być prawidłowo rozmieszczone w panoramie stereo, jak np. gitary, instrumenty klawiszowe czy nawet wokale w niektórych aranżacjach. Potencjometr balance pozwala swobodnie przesuwać dźwięk w stronę lewego lub prawego głośnika, co daje ogromne możliwości w kreowaniu przestrzeni w miksie. Z mojego doświadczenia – nawet niewielka korekta balance potrafi zdecydowanie poprawić separację instrumentów i ogólne wrażenie przestrzenności. W środowisku audio profesjonalnym bardzo często stosuje się tzw. panoramowanie (panning), które pozwala umieścić każdy element miksu tam, gdzie brzmi najczytelniej. Potencjometr balance działa podobnie, tylko dla sygnału stereo jako całości. Takie podejście jest zgodne z praktykami studyjnymi, gdzie właściwe ustawienie balansu pozwala uzyskać równowagę w miksie i uniknąć nieprzyjemnych przesunięć fazowych czy wrażenia „ucięcia” dźwięku w jednym kanale. Krótko mówiąc – balance to podstawa, jeśli chodzi o kontrolę proporcji kanałów w stereo.

Pytanie 25

Zastosowanie opcji Interleaved podczas zgrywania sesji spowoduje zapis danych do

A. jednego pliku stereo.
B. odrębnych plików stereo dla każdego kanału.
C. odrębnych plików mono dla każdego kanału.
D. jednego pliku mono.
Opcja <i>Interleaved</i> przy zgrywaniu sesji audio to bardzo wygodna funkcja, szczególnie gdy pracujemy z plikami stereo lub wielokanałowymi. Jeżeli wybierzesz właśnie tę opcję, program zapisuje całość do jednego pliku stereo, zamiast rozdzielać każdy kanał osobno. To jest zgodne z praktyką stosowaną przez większość profesjonalnych DAW-ów (Digital Audio Workstation), takich jak Pro Tools czy Cubase. Moim zdaniem to spore ułatwienie – mniej plików do ogarnięcia, nie ma bałaganu na dysku, a potem łatwiej przekazać materiał do dalszej obróbki. W branży muzycznej i postprodukcyjnej standardem jest, żeby miks stereo był jednym plikiem interleaved, bo wtedy każde oprogramowanie lub klient bez problemu go odtworzy i nie trzeba się martwić o synchronizację kanałów – wszystko jest w jednym miejscu. Dla porównania, opcja „split” generuje dwa pliki mono, co bywa przydatne, ale głównie w sytuacjach bardzo technicznych, na przykład eksport ścieżek do miksowania w innym środowisku. Interleaved jest wygodny do archiwizacji, wysyłki do masteringu, a nawet wrzucania na platformy streamingowe. Z mojego doświadczenia wynika, że chyba 90% sytuacji w studiu kończy się właśnie zapisem do jednego pliku stereo interleaved.

Pytanie 26

Ile kanałów zawiera sygnał stereofoniczny nagrany w technice mikrofonowej X/Y?

A. 8 kanałów.
B. 2 kanały.
C. 6 kanałów.
D. 4 kanały.
Sygnał stereofoniczny nagrany w technice mikrofonowej X/Y to klasyczny przykład, gdzie mamy do czynienia dokładnie z dwoma kanałami: lewym i prawym. Tak to się przyjęło właściwie wszędzie – od domowych nagrań, przez studia nagraniowe aż po transmisje radiowe i telewizyjne. Technika X/Y polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej (najczęściej) pod kątem 90° lub 120° względem siebie, membranami praktycznie w tym samym punkcie. Dzięki temu uzyskujemy wierne odwzorowanie panoramy stereo bez problemów z przesunięciem fazy. Dwa kanały pozwalają odtwarzać dźwięk w taki sposób, że słuchacz zyskuje poczucie przestrzeni – słychać skąd dany instrument czy głos dochodzi. Właśnie w ten sposób rejestruje się koncerty na żywo, nagrania ambientowe czy próby zespołów, jeśli zależy nam na autentycznym obrazie dźwiękowym. W branży audio to taki złoty standard – większość sprzętu, od mikserów po rejestratory, jest domyślnie przygotowana pod dwa kanały stereo. Moim zdaniem, jeśli ktoś planuje swoją przygodę z rejestracją dźwięku, powinien zacząć właśnie od opanowania techniki X/Y i zrozumienia, jak działa stereofonia na bazie dwóch kanałów – to fundament przy dalszych eksperymentach z dźwiękiem przestrzennym.

Pytanie 27

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. L100 R100
B. L0 R0
C. L50 L100
D. R50 R100
Ustawienie panoramy dwóch sygnałów monofonicznych na L100 oraz R100 to klasyczne rozwiązanie, które pozwala osiągnąć maksymalną separację przestrzenną w systemie stereo. Co to właściwie znaczy? L100 oznacza pełne wychylenie panoramy na lewo, a R100 — na prawo. W praktyce realizatorskiej jest to jeden z najprostszych sposobów, żeby dwa niezależne dźwięki nie nakładały się na siebie w środku obrazu stereo i każdy z nich zajął „swoją własną” przestrzeń w miksie. Dzięki temu odbiorca słyszy wyraźnie rozdzielone źródła dźwięku — na przykład dwie gitary, wokale lub inne instrumenty — i nie ma wrażenia, że dźwięki się mieszają. Taka technika jest często stosowana w miksie perkusji, kiedy np. hi-hat idzie mocno w lewo, a ride w prawo, żeby uzyskać poczucie szerokości sceny. Moim zdaniem, w sytuacjach, gdzie zależy nam na czytelności i selektywności, takie hard-panning jest wręcz niezastąpione. Oczywiście, warto uważać, bo przesadne korzystanie z tej metody może sprawić, że miks zabrzmi nienaturalnie w mono lub na głośnikach niesymetrycznych, ale w większości nowoczesnych produkcji to standardowa praktyka. Branżowe normy, jak choćby te stosowane w broadcastingu czy nagraniach koncertowych, wręcz zalecają takie ustawienia dla uzyskania maksymalnej rozdzielczości przestrzennej.

Pytanie 28

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 32 kHz
B. 16 kHz
C. 48 kHz
D. 96 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 29

Ile kanałów można jednocześnie transmitować połączeniem S/PDIF?

A. 32 kanały.
B. 16 kanałów.
C. 8 kanałów.
D. najwyżej 6 kanałów.
S/PDIF, czyli Sony/Philips Digital Interface Format, to popularny cyfrowy interfejs audio wykorzystywany w urządzeniach konsumenckich, zwłaszcza przy sprzęcie Hi-Fi, kinie domowym i telewizorach. Ograniczenie do maksymalnie 6 kanałów wynika z parametrów technicznych tego złącza. Standard S/PDIF został zaprojektowany przede wszystkim do przesyłania sygnału audio w formacie stereo PCM (czyli tylko dwa kanały), ale dzięki kompresji (np. Dolby Digital lub DTS) możliwe jest przesłanie do sześciu dyskretnych kanałów, czyli tzw. system 5.1. W praktyce oznacza to, że przez jedno złącze S/PDIF da się przesłać nie tylko zwykły dźwięk stereo, lecz również wielokanałowy sygnał przestrzenny, wykorzystywany chociażby w filmach na DVD. Moim zdaniem, warto pamiętać, że S/PDIF nie nadaje się do transmisji większej liczby kanałów – na przykład nie obsłuży pełnego systemu 7.1 ani profesjonalnych formatów studyjnych. Standardy branżowe jasno to określają, więc przy projektowaniu systemów audio lepiej nie zakładać, że przez S/PDIF „przepchniemy” coś więcej niż 6 kanałów. Z mojego doświadczenia wynika też, że wielu użytkowników myli możliwości S/PDIF z dużo bardziej wydajnymi interfejsami, jak HDMI czy ADAT, które pozwalają już na transmisję kilkunastu czy nawet kilkudziesięciu kanałów. Reasumując – jeśli chcesz przesyłać wielokanałowy dźwięk np. z odtwarzacza Blu-ray do amplitunera przez S/PDIF, musisz liczyć się z tym limitem. Dobrze to mieć na uwadze przy konfiguracji sprzętu domowego.

Pytanie 30

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 3 ścieżki.
D. 2 ścieżki.
Minimalna liczba ścieżek monofonicznych do montażu kwartetu smyczkowego zarejestrowanego techniką MM (czyli mikrofonami monofonicznymi skierowanymi na każdy instrument osobno) to właśnie cztery. Wynika to z tego, że kwartet smyczkowy to cztery osobne głosy: skrzypce I, skrzypce II, altówka i wiolonczela. Każdy z tych instrumentów powinien być nagrany na osobnej ścieżce, żeby mieć pełną kontrolę nad balansem, panoramą, dynamiką czy efektami w miksie. Tak się to robi w profesjonalnych studiach, bo dzięki temu można uzyskać czytelny i selektywny miks, a także korygować ewentualne błędy lub niedoskonałości wykonania pojedynczego muzyka. Gdy pracuje się na czterech ścieżkach, można np. delikatnie skompresować samą altówkę, nie naruszając reszty kwartetu, albo ustawić szeroko panoramę – skrzypce I po lewej, wiolonczela po prawej, itd. To klasyczna i chyba najwygodniejsza metoda pracy nie tylko przy klasyce, ale również przy innych kameralnych składach, gdy zależy nam na elastyczności w postprodukcji. No i nie oszukujmy się – w praktyce zawodowej praktycznie zawsze rejestruje się każdy głos osobno, jeżeli tylko pozwala na to sprzęt i warunki. Pozwala to także na swobodne edytowanie, np. sklejanie kilku podejść poszczególnego instrumentu bez naruszania reszty. Tyle z teorii i praktyki, ale z mojego doświadczenia – naprawdę warto trzymać się tej zasady, bo potem w miksie można sporo zyskać na jakości.

Pytanie 31

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. 5.1
B. Stereo
C. Mono
D. 6.1
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 32

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. INSTRUMENT
B. AUDIO
C. AUX
D. MASTER
MASTER jako główna szyna stereo to absolutna podstawa w każdym projekcie DAW – i nie ma tu raczej wyjątków. W profesjonalnych środowiskach pracy, niezależnie od tego, czy korzystamy z Cubase’a, Pro Toolsów czy Abletona, wyjście MASTER jest centralnym punktem miksu. To na nie trafiają wszystkie pozostałe ślady i grupy – po prostu całość dźwięku musi się „zebrać” w jednym miejscu, zanim pójdzie dalej, np. do eksportu czy na odsłuchy. Z mojego doświadczenia, każda modyfikacja na MASTERZE, jak kompresja, limiter czy korekcja, ma wpływ na cały miks – dlatego to właśnie ta ścieżka jest tak strategiczna. Osobiście, zawsze staram się mieć na MASTERZE podstawowe narzędzia kontrolujące poziom wyjściowy i ewentualne zabezpieczenie przed przesterowaniem. Taką organizację projektu DAW wymuszają też standardy branżowe, np. w studiach emisyjnych czy podczas produkcji płyt – łatwo wtedy kontrolować końcową dynamikę i zachować porządek w projekcie. Moim zdaniem, rozumienie roli MASTERa jest kluczowe dla każdego, kto poważnie myśli o miksie i masteringu – bez tego łatwo coś przeoczyć i zgubić się w całej tej cyfrowej dżungli efektów, routingu i poziomów.

Pytanie 33

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 1 kanału.
B. 5 kanałów.
C. 8 kanałów.
D. 7 kanałów.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 34

Ile monofonicznych ścieżek należy utworzyć w sesji montażowej programu DAW, aby móc w niej odtworzyć nagranie wykonane techniką mikrofonową ORTF?

A. 5 ścieżek.
B. 2 ścieżki.
C. 3 ścieżki.
D. 4 ścieżki.
Technika mikrofonowa ORTF polega na wykorzystaniu dwóch mikrofonów ustawionych względem siebie pod kątem 110 stopni i oddalonych o 17 cm. Te dwa mikrofony rejestrują dwa niezależne sygnały – lewy i prawy kanał. Jeżeli chcemy poprawnie odtworzyć nagranie wykonane tą metodą w DAW, musimy utworzyć dwie monofoniczne ścieżki – każdą dla osobnego sygnału mikrofonowego. To podejście jest zgodne z praktyką studyjną, bo umożliwia późniejsze precyzyjne panoramowanie każdej ścieżki: jedna trafia w panoramę lewą, druga w prawą, dzięki czemu uzyskujemy efekt szerokiej i naturalnej stereofonii, charakterystyczny dla ORTF. Z mojego doświadczenia to najbardziej uniwersalna metoda pracy z takimi nagraniami – pozwala na dowolne dalsze przetwarzanie każdego kanału osobno, czy to korekcję, czy kompresję, albo też subtelne efekty przestrzenne. Warto dodać, że nie używa się tutaj ścieżki stereo, bo tracimy wtedy elastyczność miksu. W branży audio uznaje się, że oddzielne ścieżki mono dla każdego mikrofonu dają najlepszą kontrolę nad przestrzenią i balansem. Stosowanie większej liczby ścieżek nie ma sensu, bo ORTF bazuje tylko na dwóch mikrofonach. W praktyce bardzo często, nawet w profesjonalnych sesjach, inżynierowie nagrań trzymają się tej zasady. To daje pełną zgodność z wytycznymi EBU oraz AES dotyczącymi rejestracji dźwięku stereofonicznego.

Pytanie 35

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Korekty barwy poszczególnych śladów.
B. Ustalenia panoramy śladów.
C. Wzmocnienia cichych fragmentów nagrania.
D. Ustalenia poziomów głośności śladów.
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 36

Który z wymienionych formatów umożliwia dystrybucję dźwięku wielokanałowego?

A. .aiff
B. .aac
C. .wav
D. .omf
Format .aac to naprawdę ciekawa sprawa w świecie audio – od lat jest wykorzystywany w profesjonalnej i konsumenckiej dystrybucji dźwięku. Advanced Audio Coding (AAC), bo tak oficjalnie się nazywa, to format stratny, ale – co ważne – obsługuje dźwięk wielokanałowy, na przykład 5.1 czy nawet 7.1. Dzięki temu nadaje się do filmów, gier czy transmisji telewizyjnych, gdzie chce się mieć efekt przestrzenny, a jednocześnie plik nie zajmuje zbyt dużo miejsca. Z mojego doświadczenia, .aac jest wykorzystywany nie tylko w iTunes czy Apple Music, ale też w streamingu i DAB+ (czyli cyfrowym radiu). Branża audio od dawna poleca ten format wszędzie tam, gdzie liczy się jakość i efektywność kompresji. Szczerze mówiąc, dzisiaj mało który format kompresji stratnej radzi sobie równie dobrze z przestrzennością dźwięku i kompatybilnością z różnymi urządzeniami. Warto dodać, że .aac to oficjalny następca MP3 i w wielu miejscach zastępuje stare rozwiązania, właśnie dzięki obsłudze wielokanałowości. W praktyce, jeśli chcesz rozprowadzać dźwięk surround w aplikacjach internetowych czy mobilnych, wybór .aac to wręcz standardowa decyzja. Oczywiście, są też formaty bezstratne, ale jeśli chodzi o praktyczne, szerokie zastosowanie i wsparcie, AAC nie ma sobie równych w tym zakresie.

Pytanie 37

W formularzu zgrania materiału audio do określonego standardu dźwięku wielokanałowego wypełnia się dane, dotyczące

A. użytego kodeka.
B. rodzaju formatu pliku.
C. nazwy formatu danych audio.
D. ilości ścieżek dźwiękowych.
Prawidłowo wskazałeś, że w formularzu zgrania materiału audio do konkretnego standardu dźwięku wielokanałowego najważniejsze jest podanie nazwy formatu danych audio. To absolutna podstawa przy pracy np. w studiach nagraniowych czy przy postprodukcji filmowej. Branża wymaga jednoznacznej identyfikacji standardu – czy to będzie WAV, AIFF, BWF, czy inny typ kontenera, bo od tego zależy, jak później taki plik będzie interpretowany przez sprzęt oraz oprogramowanie. Każdy format definiuje nie tylko układ ścieżek, ale też sposoby zapisu metadanych czy choćby obsługę różnych trybów wielokanałowych. Przykładowo: jeśli materiał przeznaczony jest do kina, często korzysta się z formatu BWF lub specjalnych presetów WAV z odpowiednią kolejnością kanałów zgodnie ze standardem Dolby Atmos czy DTS-X. Z mojego doświadczenia wynika, że nawet najlepszy kodek czy poprawna liczba ścieżek nic nie dadzą, jeśli format danych audio nie będzie zgodny z wymaganiami końcowego odbiorcy. W praktyce często dostaje się zwroty plików tylko dlatego, że format był nieprawidłowy – mimo że cała reszta technicznie się zgadzała. Warto zawsze czytać dokładne wytyczne zamawiającego lub nadawcy – to oszczędza sporo nerwów. Dobrą praktyką jest też zapisywanie tej informacji w dokumentacji produkcyjnej oraz na etapie archiwizacji materiałów – wtedy nie ma żadnych niejasności w przyszłości.

Pytanie 38

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 1 ścieżkę.
C. 3 ścieżki.
D. 2 ścieżki.
Przygotowanie czterech ścieżek monofonicznych w sesji DAW do montażu kwartetu smyczkowego nagranego techniką MM (czyli mikrofonu monofonicznego na każdy instrument) to absolutny standard, który wynika z charakterystyki samego zespołu. Kwartet smyczkowy składa się z czterech indywidualnych instrumentów: dwóch skrzypiec, altówki i wiolonczeli. Każdy z nich najczęściej nagrywany jest oddzielnie, osobnym mikrofonem, aby uzyskać pełną kontrolę nad brzmieniem każdego głosu w miksie. Takie podejście pozwala na niezależną edycję, panoramowanie, korekcję czy zastosowanie efektów w postprodukcji. Branżowe workflow zakłada, że jedna ścieżka odpowiada jednemu mikrofonowi, a tym samym jednemu instrumentowi – i to jest dobra praktyka, bo daje maksimum możliwości podczas miksowania. Moim zdaniem, jeśli ktoś próbowałby ograniczyć się do jednej czy dwóch ścieżek, to ograniczałby swobodę pracy i detaliczność miksu – po prostu nie da się uzyskać tej samej precyzji. Dodatkowo, jeśli planujesz rozbudować aranżacje czy korzystać z różnych ujęć mikrofonowych w większych składach, taka zasada – jedna ścieżka na każdy głos lub mikrofon – znacznie ułatwia późniejszą organizację sesji. Warto też pamiętać, że przygotowanie odpowiedniej liczby ścieżek już na etapie sesji nagraniowej to domena profesjonalistów i gwarancja sprawnego przebiegu pracy.

Pytanie 39

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 2
B. 5
C. 4
D. 6
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 40

Ile ścieżek należy utworzyć w sesji oprogramowania DAW, aby dokonać montażu materiału dźwiękowego zarejestrowanego w systemie 5.1?

A. 4 ścieżki.
B. 5 ścieżek.
C. 6 ścieżek.
D. 3 ścieżki.
Dokładnie tak – przygotowując sesję montażową w DAW dla materiału zarejestrowanego w systemie 5.1, musisz utworzyć sześć osobnych ścieżek, każdą dla innego kanału systemu surround. Standard 5.1 obejmuje: lewy (L), prawy (R), centralny (C), lewy surround (Ls), prawy surround (Rs) oraz subwoofer (LFE). Każdy z tych kanałów niesie inny element miksu – dialogi, efekty, ambience czy basy – więc ich oddzielenie jest kluczowe dla zachowania kontroli nad przestrzenią dźwiękową. Moim zdaniem, nawet jeśli miksujesz coś prostego, warto zawsze trzymać się tego podziału, bo potem łatwiej edytować albo eksportować mix do różnych formatów. W praktyce często spotyka się sytuacje, że ktoś próbuje „oszczędzić” ścieżki, łącząc kilka kanałów, ale to się mści na etapie masteringu czy korekcji. Branżowe normy Dolby czy ITU jasno określają układ 6-kanałowy dla 5.1 i profesjonalny DAW zawsze pozwala na konfigurację oddzielnych torów. Dobrą praktyką jest też nadanie ścieżkom czytelnych nazw typu L, R, C itd., co przy większych projektach naprawdę porządkuje sesję. Takie podejście bardzo ułatwia pracę zarówno podczas montażu, jak i późniejszego miksu czy nawet archiwizacji projektu. Warto o tym pamiętać, bo systemy surround to przyszłość produkcji dźwięku do filmów, gier czy VR.