Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 10:25
  • Data zakończenia: 29 kwietnia 2026 10:34

Egzamin zdany!

Wynik: 30/40 punktów (75,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitową.
B. dostępną przepływność bitową.
C. średnią przepływność bitową.
D. zmienną przepływność bitową.
Średnia, zmienna czy nawet dostępna przepływność bitowa to pojęcia, które nie oddają istoty działania trybu CBR w formacie MP3. Wiele osób myli czasem VBR (Variable Bit Rate) z CBR, zakładając, że każda forma kompresji dźwięku dynamicznie dostosowuje gęstość danych do zawartości audio, ale to właśnie CBR jest od tego wyjątkiem. VBR faktycznie bazuje na analizie treści – tam przepływność rośnie, gdy jest dużo szczegółów, a spada przy prostszych fragmentach, dzięki czemu można uzyskać lepszą jakość przy tym samym średnim rozmiarze pliku. Jednak CBR działa całkowicie inaczej: narzuca zawsze identyczną liczbę bitów na sekundę, bez względu na to, czy fragment utworu jest skomplikowany, czy prosty. Odpowiedź dotycząca średniej przepływności bitowej odnosi się do trybu ABR (Average Bit Rate), który jest czymś pośrednim – dąży do uzyskania określonej średniej wartości, ale dopuszcza niewielkie wahania chwilowej przepływności. Natomiast sformułowanie „dostępna przepływność bitowa” w kontekście kodowania MP3 nie ma sensu technicznego – nie jest to pojęcie spotykane w standardach czy praktyce branżowej. W praktyce spotkałem się z tym, że wybór trybu nie wynika ze zrozumienia technicznego, tylko z mylnego przekonania, że im więcej bitów, tym lepiej – a tutaj kluczowe jest, żeby rozumieć charakterystyki każdego z trybów kodowania. Źle interpretując nazwy trybów, można wygenerować pliki niekompatybilne z niektórymi urządzeniami lub o nieprzewidywalnych rozmiarach. Dlatego ważne jest, żeby odróżniać CBR od VBR i ABR – każdy ma swoje zastosowanie, ale tylko CBR gwarantuje stałą przepływność bitową przez cały plik.

Pytanie 2

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD – R DL
B. CD – R DL
C. CD + R SL
D. DVD + R SL
Wiele osób myli pojemności różnych rodzajów płyt optycznych, bo oznaczenia potrafią być nieintuicyjne, szczególnie gdy do gry wchodzi skróty typu SL (Single Layer) i DL (Double Layer). CD – zarówno w wersji +R, jak i –R, niezależnie czy są jedno- czy dwuwarstwowe (chociaż w praktyce dwuwarstwowe CD to rzadkość), mają pojemność do około 700 MB. To bardzo mało w porównaniu do płyt DVD. Stąd czasem ktoś myśli, że DVD +R SL będzie miał większą pojemność niż CD – i słusznie, bo to 4,7 GB, ale i tak jest daleko od największych możliwości. Z mojego doświadczenia wynika, że dużo osób zapomina, iż tak zwane DVD – R DL, czyli DVD minus R Double Layer, to już nawet 8,5 GB, co w praktyce oznacza możliwość zapisania np. trzech filmów w dobrej jakości lub naprawdę sporego archiwum zdjęć. Typowym błędem jest uznanie, że każda płyta „DL” jest większa od „SL”, niezależnie czy to CD czy DVD – a w rzeczywistości różnica między CD DL a DVD SL jest gigantyczna na korzyść DVD. Warto zwracać uwagę na standard, bo sama literka „DL” nie oznacza jeszcze dużej pojemności, jeśli odnosi się do CD. To, że DVD +R SL ma wyższą pojemność niż CD DL czy CD SL, wynika z konstrukcji samego formatu DVD, a nie z liczby warstw. Podsumowując: największą pojemność z podanych opcji ma DVD – R DL, bo łączy technologię DVD z dwuwarstwowym zapisem, dając ponad 8 GB na jednej płytce. W branży IT, zwłaszcza przy archiwizacji, dobór nośnika powinien być zawsze świadomy i poparty znajomością tych parametrów. Niezrozumienie tych różnic prowadzi do nietrafionych decyzji zakupowych lub błędów przy tworzeniu kopii zapasowych – a to w pracy technika jest niestety dość bolesne w skutkach.

Pytanie 3

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z próbkowaniem na potrzeby płyty CD-Audio.
B. z próbkowaniem dla transmisji zakresu mowy.
C. z próbkowaniem na potrzeby płyty DVD-Audio.
D. z niską rozdzielczością procesu próbkowania.
Częstotliwość próbkowania 96 kHz zdecydowanie kojarzy się z zaawansowanymi systemami audio, zwłaszcza z płytami DVD-Audio. W branży muzycznej i filmowej wysokie próbkowanie pozwala na uzyskanie znacznie lepszej jakości dźwięku – chodzi tutaj o zachowanie większej ilości szczegółów, a także szerszego pasma przenoszenia. DVD-Audio, w przeciwieństwie do klasycznych płyt CD (gdzie mamy 44,1 kHz), umożliwia odtwarzanie dźwięku o wyższej rozdzielczości, co doceniają zarówno profesjonaliści, jak i audiofile. Jest to szczególnie ważne przy nagraniach wielokanałowych lub materiałach do masteringu. Co ciekawe, 96 kHz przydaje się również w studiach nagrań – przy edycji i miksowaniu pozwala na większą swobodę przy późniejszej konwersji czy przetwarzaniu efektów cyfrowych, bo większa liczba próbek na sekundę po prostu daje większy margines błędu i lepszą jakość końcową. Moim zdaniem warto pamiętać, że standard DVD-Audio został stworzony właśnie po to, żeby pozwolić na dużo wyższą jakość niż ta dostępna na płytach CD i to próbkowanie 96 kHz jest jednym z jego najbardziej rozpoznawalnych wyróżników. Z mojego doświadczenia wynika, że jeśli ktoś pracuje profesjonalnie z dźwiękiem, to od razu kojarzy 96 kHz z zaawansowanymi zastosowaniami studyjnymi i archiwizacją na wysokim poziomie.

Pytanie 4

Technika mikrofonowa MS to technika

A. monofoniczna.
B. binauralna.
C. ambisoniczna.
D. stereofonii natężeniowej.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę sprytna metoda wykorzystywana przy nagraniach stereofonicznych, szczególnie jeśli chodzi o rejestrację przestrzeni z dużą precyzją i elastycznością. Jej podstawą jest wykorzystanie dwóch mikrofonów – jeden pracuje w trybie kardioidalnym (Mid), a drugi w ósemkowym (Side). Dzięki takiemu ustawieniu uzyskuje się tzw. stereofonię natężeniową, gdzie różnice w natężeniu sygnału z obu mikrofonów tworzą efekt stereo. Największą zaletą MS jest to, że po nagraniu można dowolnie regulować szerokość sceny stereo już na etapie postprodukcji, co daje dużą kontrolę nad brzmieniem. Często stosuje się ją np. przy nagrywaniu chóru, instrumentów akustycznych czy nawet w reportażu radiowym, bo pozwala zachować świetną zgodność sumy do mono – co nie jest oczywiste przy innych technikach stereo. Moim zdaniem, warto znać tę metodę, bo nie tylko daje profesjonalny efekt, ale i bywa wręcz standardem w branży. Ciekawe jest też to, że wiele pluginów do DAW wykorzystuje dekodowanie MS, więc rozumienie tej techniki ułatwia pracę z dźwiękiem cyfrowym. W ogóle, w świecie realizacji dźwięku technika MS to temat, który bardzo się przydaje i według mnie każdy, kto poważnie myśli o nagrywaniu, powinien go ogarnąć.

Pytanie 5

Który format plików audio należy wybrać, aby po przekonwertowaniu zajmował najmniej miejsca na dysku komputera?

A. .wave
B. .aiff
C. .mp3
D. .flac
Format MP3 to zdecydowanie najlepszy wybór, gdy zależy Ci na minimalnym rozmiarze pliku audio po konwersji. To format stratny (lossy), co oznacza, że podczas kompresji traci się część informacji dźwiękowych, ale zyskuje się na tym drastyczne zmniejszenie wielkości pliku. Standard MP3 powstał właśnie po to, by móc przechowywać lub przesyłać muzykę przez internet, kiedy miejsce na dysku czy przepustowość łącza były na wagę złota. Moim zdaniem, nawet dziś, gdy dyski są większe, to w zastosowaniach masowych (np. serwisy streamingowe, podcasty, audiobooki) MP3 jest niezastąpiony ze względu na balans jakości do wielkości pliku. Jeśli chodzi o bitrate, to np. plik MP3 o jakości 128 kbps waży często kilkukrotnie mniej niż ten sam utwór w formacie WAV czy AIFF. Oczywiście, tracimy trochę na jakości dźwięku, ale dla większości codziennych zastosowań to praktycznie niezauważalne. To też jest powód, dla którego większość osób wrzucając muzykę na telefon czy odtwarzacz mp3 wybiera właśnie ten format. Z mojego doświadczenia, jeśli zależy Ci na szybkim udostępnianiu czy wysyłce plików audio, MP3 to po prostu standard branżowy i nie ma co kombinować. Warto pamiętać, że MP3 jest obsługiwany praktycznie przez każde urządzenie, od komputerów, przez samochody, aż po stare odtwarzacze. Przy konwersji audio zawsze trzeba jednak pamiętać o kompromisie między rozmiarem a jakością – im niższy bitrate, tym mniejszy plik, ale i gorszy dźwięk.

Pytanie 6

W celu wykonania montażu równoległego realizator powinien w edytorze dźwięku wgrać fragmenty muzyczne na

A. osobne ścieżki od tego samego punktu czasowego.
B. tę samą ścieżkę w kolejności czasu ich trwania.
C. tę samą ścieżkę nie zachowując chronologii czasowej.
D. tę samą ścieżkę jeden za drugim zgodnie z chronologią czasową.
Montaż równoległy w edytorze dźwięku polega właśnie na tym, że kilka fragmentów muzycznych odtwarzanych jest jednocześnie, a nie po kolei. Z technicznego punktu widzenia, żeby to osiągnąć, trzeba umieścić te fragmenty na osobnych ścieżkach, startujących od tego samego miejsca na osi czasu projektu. To daje pełną kontrolę nad każdym fragmentem – osobno możesz ustawić głośność, panoramę, efekty i precyzyjnie miksować całość. To standardowa praktyka nie tylko w produkcji muzycznej, ale też w postprodukcji filmowej czy radiowej, gdzie często nakłada się kilka dźwięków naraz: muzykę, efekty, dialogi. Osobne ścieżki to podstawa workflow w takich programach jak Cubase, Pro Tools czy nawet Audacity. Nawet jak się kiedyś pracowało na sprzęcie analogowym, to myślenie ścieżkami już wtedy było istotne – dzisiaj po prostu jest to łatwiejsze i dokładniejsze. Moim zdaniem warto od razu wyrobić sobie nawyk pracy na wielu ścieżkach, bo to bardzo ułatwia późniejszą edycję i oszczędza mnóstwo czasu przy bardziej złożonych projektach. Dzięki temu każdy element miksu masz pod kontrolą i możesz go zmieniać nie wpływając na pozostałe fragmenty. To taki absolutny fundament branżowy – nie znam chyba nikogo, kto profesjonalnie pracuje inaczej.

Pytanie 7

Której z komend należy użyć w przypadku tworzenia nowego projektu w programie edycyjnym?

A. Load.
B. Import.
C. New.
D. Export.
Komenda „New” to absolutna podstawa w praktycznie każdym programie edycyjnym – niezależnie, czy mówimy o edytorze grafiki, wideo, tekstu czy nawet oprogramowaniu CAD. Jej głównym zadaniem jest utworzenie zupełnie nowego projektu lub dokumentu, czyli czystego miejsca pracy, gdzie użytkownik może rozpocząć swoje zadanie od zera. W większości programów skrót klawiszowy Ctrl+N wywołuje właśnie to polecenie. Moim zdaniem to takie „otwarcie drzwi do pustego pokoju”, gotowego do wypełnienia treścią. Praktycznie rzecz biorąc, bez tej funkcji nie da się zacząć pracy nad czymś zupełnie nowym bez mieszania ze starymi plikami, co jest nieefektywne i niepraktyczne. Warto pamiętać, że branżowe standardy UX przewidują, by funkcja tworzenia nowego projektu była zawsze łatwo dostępna i jednoznacznie opisana – właśnie jako „New”. Dobra praktyka mówi też, żeby przed utworzeniem nowego projektu program pytał o zapisanie bieżących zmian, by nie stracić dotychczasowej pracy. Z mojego doświadczenia, początkujący często mylą „New” z innymi opcjami, przez co tracą czas lub przypadkowo nadpisują ważne dane. Korzystając z „New”, masz pewność, że zaczynasz od czystej kartki i możesz wszystko poukładać dokładnie tak, jak chcesz. To taki techniczny start od zera, bez żadnych „śmieci” z poprzednich projektów.

Pytanie 8

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .mp3
B. .aif
C. .wma
D. .mp4
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 9

Którą opcję edycyjną należy zastosować w celu dopasowania długości regionu na ścieżce w sesji programu DAW do zaznaczonego fragmentu?

A. Trim
B. Separate
C. Paste
D. Select
Trim to jedna z tych funkcji, które w DAW-ach są absolutną podstawą podczas edycji regionów audio lub MIDI. Za jej pomocą możesz bardzo szybko przyciąć początek lub koniec wybranego fragmentu, idealnie dopasowując długość regionu do konkretnego zakresu, który sobie zaznaczyłeś – na przykład pod aranżację, wokal czy nawet krótką próbkę perkusyjną. To jest mega wygodne, bo nie musisz przesuwać całego regionu czy bawić się w wycinanie, tylko po prostu łapiesz za krawędź i dopasowujesz do granicy selekcji. W większości programów pokroju Ableton Live, Cubase, Pro Tools czy Logic, właśnie przycinanie (trim) jest zalecane jako pierwszy krok przy porządkowaniu ścieżek. Moim zdaniem to też najbezpieczniejsza metoda, bo zachowujesz oryginalny materiał – po prostu odsłaniasz lub ukrywasz fragmenty nagrania, bez destrukcyjnej edycji. To się też świetnie sprawdza, kiedy musisz ułożyć kilka regionów jeden za drugim, żeby nie było żadnych przerw czy nakładek. W praktyce, stosowanie narzędzia „trim” umożliwia szybkie dopasowanie długości regionu do punktów markerów, automatyzacji czy nawet siatki projektu. Branżowe workflow poleca właśnie takie podejście, bo minimalizuje chaos i pozwala na bardzo szybkie korekty już w trakcie pracy nad aranżem.

Pytanie 10

Zjawisko maskowania dźwięku polega na

A. zmianie barwy dźwięku w zależności od głośności.
B. generowaniu przez ucho tonów harmonicznych.
C. spadku słyszalności tonów wysokich podczas głośnego słuchania.
D. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 11

Procesor dźwięku realizujący efekt echo wpływa na

A. dynamikę przetwarzanego sygnału.
B. pasmo częstotliwości przetwarzanego sygnału.
C. przestrzenność materiału muzycznego.
D. wysokość przetwarzanych dźwięków.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 12

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 88,2 kHz
B. 192 kHz
C. 96 kHz
D. 44,1 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 13

Aby zapętlić odtwarzanie fragmentu dźwięku na ścieżce w sesji oprogramowania DAW, należy użyć polecenia

A. snap.
B. merge.
C. loop.
D. freeze.
Funkcja 'loop' to jedna z podstawowych i najczęściej używanych opcji w każdym szanującym się DAW-ie. Dzięki niej możesz powtarzać wybrany fragment ścieżki tyle razy, ile tylko chcesz – to mega wygodne podczas miksowania, aranżacji, czy nawet samego nagrywania. W praktyce wygląda to tak: zaznaczasz sobie konkretny zakres na timeline, włączasz tryb loop i możesz bez końca słuchać tego samego fragmentu, co jest genialne np. przy edycji bitu, dogrywaniu wokali czy testowaniu efektów. Moim zdaniem to narzędzie absolutnie niezbędne dla każdego, kto chce pracować szybko i sprawnie, bez ciągłego przewijania czy ręcznego odpalania tego samego miejsca. To jest też standard w workflow – praktycznie każda sesja produkcyjna, jaką widziałem, korzysta z loopowania, choćby przy pracy nad sekcją perkusyjną. Warto też pamiętać, że funkcja loop w DAW-ach często jest powiązana z innymi opcjami, np. automatyzacją czy quantizacją, dzięki czemu można łatwo testować różne rozwiązania bez rozwalania całej aranżacji. Trochę zabawne, ile razy widziałem, jak ktoś zapomina o tej funkcji i męczy się z ręcznym odtwarzaniem fragmentów – szkoda czasu, naprawdę. Dobrą praktyką jest też ustawianie loopa na krótkie fragmenty przy dokładnym montażu lub korekcji błędów w nagraniu. No i na koniec: praktycznie wszystkie popularne DAW-y mają przycisk lub skrót klawiszowy do loopowania, więc warto się tego nauczyć na pamięć, bo to sporo usprawnia pracę.

Pytanie 14

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Audio.
B. MIDI.
C. Aux.
D. Instrument.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 15

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Karta SD
B. Płyta DVD
C. Płyta CD
D. Dysk SSD
Dysk SSD to naprawdę mistrz, jeśli chodzi o szybki odczyt danych – moim zdaniem to obecnie absolutny standard w komputerach i serwerach, gdzie liczy się czas dostępu. Wynika to z faktu, że SSD, czyli dysk półprzewodnikowy, nie ma żadnych ruchomych części, całe operacje odbywają się elektronicznie. Dzięki temu odczyt danych jest niemal natychmiastowy, a czasy dostępu liczymy w mikrosekundach, a nie milisekundach, jak w starszych rozwiązaniach. W praktyce, gdy porównasz SSD do płyty CD czy nawet karty SD, różnica jest kolosalna – system operacyjny uruchamia się w kilka sekund, a transfery potrafią sięgać nawet kilkuset megabajtów na sekundę (NVMe jeszcze szybciej, nawet powyżej 3000 MB/s). W branży IT przyjęło się już, że do zastosowań profesjonalnych czy gamingowych nie stosuje się starych dysków talerzowych, a już na pewno nie nośników optycznych. Z mojego doświadczenia mogę powiedzieć, że wymiana starego dysku na SSD daje większego „kopa” komputerowi niż upgrade procesora czy RAM-u. Standardy takie jak SATA III czy PCIe NVMe wyznaczają dziś normy prędkości i niezawodności. Branżowo mówi się wręcz, że bez SSD praca na dużych plikach czy obróbka wideo to męczarnia. Wypada dodać, że SSD są też bardziej odporne na wstrząsy, co w laptopach bywa zbawienne. Podsumowując: SSD pod względem szybkości i komfortu użytkowania to prawdziwa rewolucja.

Pytanie 16

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 44100 Hz/24 bity
C. 48000 Hz/24 bity
D. 44100 Hz/16 bitów
Odpowiedź 44100 Hz/16 bitów jest absolutnie zgodna ze standardem CD-Audio, który został przyjęty już w latach 80. przez Sony i Philipsa. W praktyce oznacza to, że jeśli tworzysz projekt w DAW na takich właśnie ustawieniach, plik wynikowy nada się do tłoczenia na płycie CD bez żadnych dodatkowych konwersji czy strat jakości. Samo 44100 Hz to częstotliwość próbkowania, która pozwala na uzyskanie pasma przenoszenia do 20 kHz, czyli tyle, ile słyszy przeciętny człowiek – moim zdaniem to trochę symboliczne, bo uwzględnia „pełne” pasmo audio. 16 bitów daje 96 dB zakresu dynamiki, co na swoje czasy było naprawdę wystarczające (i do dzisiaj zupełnie wystarcza do muzyki popularnej, audiobooków czy podcastów na CD). W studiu czasami pracuje się z wyższymi parametrami, np. 24 bity czy 48 kHz, żeby mieć większy zapas do edycji, ale finalny eksport na CD-Audio zawsze musi być w tych parametrach: 44,1 kHz i 16 bitów. Takie ustawienie sesji od początku minimalizuje konieczność konwertowania plików, co – z mojego doświadczenia – eliminuje ryzyko degradacji jakości i niepotrzebnych błędów przy eksporcie. Dobrze się tego trzymać, szczególnie jeżeli docelowy medium to klasyczna płyta CD.

Pytanie 17

W którym formacie należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .omf
B. .wav
C. .caf
D. .aiff
Format .omf (Open Media Framework) to naprawdę bardzo przydatne narzędzie, szczególnie jeśli ktoś na co dzień pracuje w środowisku studyjnym, gdzie często pojawia się konieczność przenoszenia projektów między różnymi programami DAW. OMF pozwala na eksportowanie nie tylko samych plików audio, ale też wszelkich informacji o rozmieszczeniu klipów na osi czasu, cięciach, podstawowych automacjach czy fade’ach. Dzięki temu, na przykład przenosząc sesję z Cubase do Pro Tools, nie trzeba wszystkiego układać od nowa – wszystko wskakuje na swoje miejsce i można od razu działać dalej. Moim zdaniem, jeśli ktoś planuje współpracę z innymi realizatorami, producentami czy studiem, korzystanie z OMF to właściwie branżowy standard, bo znacznie upraszcza proces wymiany danych. Warto też pamiętać, że OMF nie zapisuje wszystkich możliwych ustawień sesji (np. nie przeniesie wtyczek czy bardzo zaawansowanych automatyzacji), ale i tak to potężna pomoc. Z mojego doświadczenia – zawsze lepiej przygotować sesję w OMF, niż później żmudnie eksportować pojedyncze ślady i odtwarzać cały układ od początku. W branży audio to trochę taki „uniwersalny język” dla sesji między programami DAW i dobrze jest mieć to w swoim arsenale.

Pytanie 18

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 192 kHz
C. 96 kHz
D. 44,1 kHz
44,1 kHz to częstotliwość próbkowania, która od lat jest uznawana za standardową dla formatu CD-Audio. Tak ustalono już w początkach lat 80., kiedy opracowywano technologię CD. Ta wartość nie wzięła się znikąd – była wynikiem kompromisu technicznego. Chodziło o uzyskanie wystarczająco wysokiej jakości dźwięku, a jednocześnie dopasowanie do ówczesnych możliwości sprzętowych oraz istniejących formatów wideo (między innymi NTSC i PAL). 44,1 kHz pozwala wiernie odtworzyć częstotliwości słyszalne przez ludzkie ucho, czyli do ok. 20 kHz, bo – zgodnie z twierdzeniem Nyquista – aby prawidłowo zarejestrować sygnał, trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa częstotliwość sygnału. W praktyce ta wartość do dziś jest obecna nie tylko w płytach CD, ale też w wielu plikach muzycznych (np. WAV, FLAC czy MP3), które są zgrywane z płyt kompaktowych, albo przygotowywane pod wydanie cyfrowe. Z mojego doświadczenia – większość domowych i studyjnych odtwarzaczy oraz sprzętu audio bez problemu radzi sobie z tym standardem, a wyższe częstotliwości próbkowania, choć bywają stosowane w studiach nagrań, to w codziennym odsłuchu nie wnoszą aż tak dużej różnicy dla przeciętnego słuchacza. Tak więc, jeżeli gdzieś natkniesz się na informację o muzyce z CD, praktycznie zawsze będzie to 44,1 kHz i 16 bitów na próbkę.

Pytanie 19

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 15 Gb/s
B. 33 Gb/s
C. 12 Mb/s
D. 480 Mb/s
Maksymalna prędkość transmisji danych w standardzie USB 2.0 to faktycznie 480 Mb/s, czyli około 60 MB/s. To właśnie ten parametr sprawił, że USB 2.0 przez wiele lat był dominującym standardem w komputerach, drukarkach, skanerach czy zewnętrznych dyskach twardych. Z mojego doświadczenia – w praktycznych zastosowaniach rzadko kiedy uzyskuje się pełne 480 Mb/s, bo dochodzą narzuty protokołu, przeciążenia magistrali, czy jakość kabla, ale standard mówi jasno: 480 Mb/s to maksimum. Warto pamiętać, że wcześniejsza wersja USB 1.1 miała limit zaledwie 12 Mb/s – to ogromna różnica, jeśli chodzi o kopiowanie plików, podłączanie kamer czy transfer z pendrive'ów. Standard USB 2.0 pojawił się na rynku ok. 2000 roku i do dziś spotykany jest w wielu urządzeniach, zwłaszcza tych tańszych. Osobiście uważam, że znajomość tych wartości jest bardzo przydatna np. przy wyborze sprzętu – łatwo wtedy uniknąć rozczarowań związanych z prędkością przesyłania danych. Dla porównania, USB 3.0 daje już 5 Gb/s, a to już zupełnie inna liga, więc zawsze warto sprawdzać, jaki port się wybiera do szybkich operacji. Z punktu widzenia branży: wiedza o ograniczeniach starszych standardów jest niezbędna przy serwisie i modernizacji sprzętu.

Pytanie 20

Wskaż nazwę procesora lub procesu programowego umożliwiającego usuwanie przesłuchów z sąsiednich instrumentów w sygnale audio.

A. Noise Gate
B. Invert
C. Normalize
D. Reverse
Noise Gate to bardzo przydatne narzędzie w inżynierii dźwięku, szczególnie podczas miksowania nagrań wielośladowych – na przykład bębnów na scenie lub w studio. Zasadniczo bramka szumów działa jak swego rodzaju „strażnik” – przepuszcza sygnał tylko wtedy, kiedy jego poziom przekracza określony próg. Dzięki temu można skutecznie wyeliminować niepożądane dźwięki, takie jak przesłuchy z innych instrumentów, które pojawiają się na mikrofonie, kiedy właściwy instrument milczy. Przykładowo: na śladzie werbla często słychać stopy, blachy czy tomy. Ustawiając odpowiednio Noise Gate, ogranicza się ten problem, bo mikrofon „otwiera się” tylko na mocny impuls – uderzenie pałki. Moim zdaniem to prawdziwy must-have w każdym sensownym miksie perkusji, ale też np. przy obróbce śladów wokalnych, jeśli w tle słychać szumy lub pogłosy z innych źródeł. Warto pamiętać, że profesjonalne bramki szumów pozwalają ustawić parametry takie jak czas otwarcia, zamknięcia i długość podtrzymania bramki (attack, release, hold), co daje dużą kontrolę nad końcowym efektem. W praktyce trzeba trochę poeksperymentować, bo za agresywne ustawienia mogą „ucinać” naturalne wybrzmienie instrumentu. W świecie realizacji dźwięku Noise Gate to standardowy procesor, polecany przez większość realizatorów i producentów, a jego obsługa to podstawa warsztatu technika dźwięku.

Pytanie 21

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 24 bity.
B. 16 bitów.
C. 32 bity.
D. 8 bitów.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 22

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Last Session
B. Create Session from Template
C. Open Recent Session
D. Create Empty Session
Wybrana opcja 'Create Session from Template' to właśnie to, o co chodzi w profesjonalnej pracy z DAW-ami. Tak naprawdę, korzystanie z szablonów przy tworzeniu nowej sesji to ogromna oszczędność czasu, zwłaszcza jeśli często nagrywasz lub miksujesz podobne projekty. W praktyce wygląda to tak: masz przygotowany szablon z ustawionymi torami audio, MIDI, grupami, efektami czy routowaniem – nie musisz za każdym razem wszystkiego konfigurować od zera. Szablony są wykorzystywane nawet w dużych studiach nagraniowych, gdzie workflow musi być szybki i powtarzalny, zgodnie z dobrymi praktykami branżowymi. Moim zdaniem, dobrze jest mieć kilka własnych szablonów, np. do miksowania podcastów, produkcji beatów czy masteringu. Często szablony zawierają już konkretne ustawienia kompresorów, EQ, grup Aux, a nawet specyficzne routing dla wokali, perkusji czy instrumentów wirtualnych. W profesjonalnych środowiskach pracy mówi się wręcz, że szablon to podstawa wydajności. Oczywiście można pracować od zera, ale z mojego doświadczenia – im więcej projektów, tym bardziej docenia się tę opcję. Warto nad tym chwilę posiedzieć i stworzyć własny workflow oparty na szablonach. To nie tylko wygoda – to też konsekwencja w brzmieniu i organizacji sesji.

Pytanie 23

Która z funkcji programu DAW typowo umożliwia płynne przejście między dwoma sąsiadującymi plikami dźwiękowymi umieszczonymi na ścieżce w sesji montażowej?

A. Group.
B. Select.
C. Crossfade.
D. Split.
Crossfade to bardzo charakterystyczna funkcja spotykana praktycznie w każdym nowoczesnym DAW-ie, która pozwala na zrobienie naprawdę płynnego przejścia między dwoma klipami audio ustawionymi obok siebie na jednej ścieżce. W praktyce polega to na tym, że końcówka wcześniejszego pliku zostaje stopniowo ściszana (fade out), a początek następnego zostaje stopniowo podgłaśniany (fade in). Oba te procesy nakładają się na siebie przez wybrany fragment czasu i dzięki temu nie słychać żadnych trzasków, szumów czy nienaturalnych przerw. Moim zdaniem to wręcz podstawa, jeśli chodzi o montaż muzyczny, podcasty, nagrania lektorskie czy postprodukcję filmową. Branżowe workflow po prostu wymaga korzystania z crossfade'ów, chociażby dlatego, że bez nich bardzo łatwo byłoby o błędy montażowe albo nieprzyjemne artefakty. Warto pamiętać, że różne DAW-y dają sporo opcji kształtowania charakterystyki crossfade'u – można manipulować krzywą wygaszania i narastania, co pozwala dopasować efekt do konkretnych potrzeb. No i jeszcze jedno – crossfade stosuje się nie tylko w edycji audio, ale i przy miksowaniu utworów w DJ-ingu. To takie narzędzie, które jak już raz się opanuje, to trudno sobie potem wyobrazić pracę bez niego.

Pytanie 24

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W komentarzu reżyserskim.
B. W znacznikach.
C. W skrypcie.
D. W harmonogramie produkcji.
Jednym z częstych błędów podczas pracy nad projektami multimedialnymi jest zakładanie, że informacje o docelowych nazwach plików dźwiękowych można znaleźć w różnych pobocznych dokumentach, takich jak znaczniki, komentarze reżyserskie czy harmonogram produkcji. W praktyce żadne z tych miejsc nie jest dedykowane do opisywania szczegółowych aspektów technicznych eksportu plików audio. Znaczniki zazwyczaj opisują konkretne punkty montażowe, przejścia lub synchronizację elementów w projekcie – są bardziej pomocne dla montażystów i operatorów, ale nie zawierają danych dotyczących archiwizacji czy nazewnictwa plików. Komentarz reżyserski to raczej narracja artystyczna, notatki dotyczące emocji, klimatu sceny, ewentualnie wskazówki interpretacyjne, ale na pewno nie miejsce na kwestie techniczne. Harmonogram produkcji natomiast to narzędzie stricte organizacyjne, rozpisuje terminy i zadania, ale nie wnika w detale typu „jak nazwiesz finalny plik dźwiękowy”. Typowym błędem jest tu myślenie, że skoro w tych dokumentach pojawiają się ogólne informacje o projekcie, to znajdą się tam także dane techniczne – niestety tak nie jest. W profesjonalnych środowiskach produkcji multimedialnych obowiązuje zasada, że wszelkie dane techniczne, w tym nazwy plików wyjściowych, muszą być jasno sprecyzowane w skrypcie lub dedykowanej dokumentacji technicznej. Pomijanie tej zasady prowadzi często do chaosu, błędów podczas wymiany plików i niepotrzebnych opóźnień w harmonogramie. Dobre praktyki branżowe wskazują właśnie na centralną rolę skryptu, bo tylko tam można precyzyjnie kontrolować cały proces – od planowania po finalny eksport.

Pytanie 25

Którą z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 10
B. 100
C. 1
D. 0,1
Wielu osobom obliczanie dobroci Q sprawia trudność, głównie przez mylenie wzorów lub niewłaściwe zrozumienie pojęcia szerokości pasma. Gdy ktoś wybiera 0,1, często wynika to ze spontanicznego odwrócenia proporcji lub uznania, że Q to zawsze bardzo mała liczba, co nie ma uzasadnienia w praktyce technicznej. W rzeczywistości, jeśli filtr ma częstotliwość środkową znacznie większą niż szerokość pasma, Q będzie właśnie wysoki, a nie niski. Podobnie odpowiedź 1 bywa typowa dla tych, którzy sądzą, że Q to po prostu iloraz liczby przez samą siebie lub nie przeliczają uważnie. W filtrach o szerokim paśmie względem częstotliwości środkowej Q rzeczywiście zbliża się do 1, ale przy podanych parametrach to nie jest ten przypadek. Z kolei 100 to już wartość bardzo wysoka, charakterystyczna raczej dla wyjątkowo selektywnych filtrów, takich jak filtry w torach radiowych czy wąskich rezonatorów, gdzie szerokość pasma jest ekstremalnie mała. W praktycznych zastosowaniach w elektronice, automatyce czy akustyce filtry o Q rzędu 10 stosuje się często, by odpowiednio wyodrębnić pożądaną częstotliwość, nie powodując przy tym zbyt dużych zniekształceń sygnału ani niepotrzebnego wzbudzenia układu. Moim zdaniem częsty błąd wynika z braku rozróżnienia między Q a tłumieniem, bo oba te parametry bywają mylone, a ich wpływ na charakterystykę filtra jest zupełnie inny. Dla jasności: Q = f₀/B. Niewłaściwe podstawienie lub pominięcie jednostek może sprawić, że wynik jest zupełnie nietrafiony. Stąd najlepszą praktyką jest zawsze dokładne sprawdzenie definicji i świadome podkładanie wartości do wzoru – wtedy uniknie się pułapek typowych dla początkujących.

Pytanie 26

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitów.
B. dostępną przepływność bitów.
C. zmienną przepływność bitów.
D. średnią przepływność bitów.
Pojęcia dotyczące sposobu kodowania plików MP3 bywają mylące, ale warto zrozumieć, czym tak naprawdę różni się CBR od innych metod konwersji audio. Przepływność bitów w trybie CBR (Constant Bit Rate) pozostaje zawsze stała – to znaczy, że każda sekunda zakodowanego dźwięku zajmuje tę samą ilość miejsca bez względu na to, czy w danej części utworu występuje cisza, czy intensywny dźwięk. Przeciwieństwem tego rozwiązania jest VBR (Variable Bit Rate), gdzie przepływność bitów dynamicznie się zmienia w zależności od złożoności dźwięku – jeśli fragment jest prosty, kodowanie zużywa mniej bitów, jeśli skomplikowany – więcej. Stąd twierdzenie o "zmiennej" lub "średniej" przepływności bitów nie pasuje do definicji CBR – takie określenia odnoszą się właśnie do trybu VBR i czasem ABR (Average Bit Rate), który jest czymś pomiędzy – ustalana jest średnia przepływność, ale w praktyce bitrate potrafi się zmieniać. Z mojego doświadczenia, sporo osób myli te tryby, bo podczas kompresji można wybrać np. 128 kbps i mylnie zakładać, że to zawsze średnia – tymczasem CBR to zawsze stała liczba. Wybór typu "dostępna przepływność" nie odnosi się do żadnego oficjalnego trybu kodowania, a raczej brzmi jak luźny opis. Typowym błędem jest też przekonanie, że CBR automatycznie zapewnia najlepszą jakość lub najmniejszy plik – to nie zawsze prawda, bo często VBR pozwala uzyskać wyższą jakość przy tym samym rozmiarze, ale kosztem mniejszej przewidywalności rozmiaru końcowego pliku. W praktyce, do archiwizacji czy profesjonalnych zastosowań, często wybiera się VBR, ale do transmisji strumieniowej lub tam, gdzie kompatybilność ma największe znaczenie, lepiej sprawdza się właśnie CBR. Warto więc nauczyć się rozpoznawać te skróty i dokładnie dobierać metodę kodowania do konkretnego zastosowania, a nie sugerować się tylko nazwą czy uproszczonym opisem.

Pytanie 27

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 90 klatek.
B. 15 klatek.
C. 30 klatek.
D. 60 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 28

Który dokument zawiera spis m.in. efektów synchronicznych w filmie oraz ich położenie na osi czasu?

A. Skrypt.
B. Playlista.
C. Scenariusz.
D. Lista EDL.
Wiele osób myli się, sądząc, że dokumenty takie jak skrypt czy scenariusz zawierają szczegółowe informacje techniczne dotyczące efektów synchronicznych i ich umiejscowienia na osi czasu filmu. Skrypt zazwyczaj jest opisem przebiegu dźwięku, z podziałem na dialogi, ruchy aktorów czy główne działania, lecz nie zawiera precyzyjnych danych o synchronizacji efektów dźwiękowych z konkretnymi momentami filmu – to zdecydowanie nie ta rola. Scenariusz z kolei skupia się na opisie fabuły, dialogów, ewentualnie pewnych sugestiach dotyczących dźwięku lub obrazu, ale nie prowadzi się w nim rozpiski typowo technicznej, która pozwalałaby na płynne odczytanie informacji przez maszyny montażowe czy operatorów. Playlista często kojarzy się z listą utworów muzycznych lub sekwencją scen, które mają być odtwarzane, ale nie jest to dokument standardowo używany do precyzyjnego określania punktów synchronizacji efektów czy cięć w filmie. Moim zdaniem, często problem wynika z nieznajomości narzędzi pracy montażysty i dźwiękowca; w praktyce branżowej właśnie lista EDL jest uznawana za format wymiany informacji technicznych – pozwala na automatyczny import i eksport danych w profesjonalnych programach montażowych, uwzględniając dokładne położenie każdego elementu na osi czasu. To właśnie EDL daje możliwość zachowania pełnej zgodności pomiędzy obrazem a dźwiękiem, co w przypadku skryptu czy scenariusza po prostu nie jest możliwe. Playlista, nawet jeśli pojawia się w kontekście produkcji, nie służy do zarządzania synchronizacją efektów na osi czasu. Typowym błędem jest utożsamianie dokumentów kreatywnych czy organizacyjnych z narzędziami stricte technicznymi. Efektywna postprodukcja wymaga znajomości takich formatów jak EDL, które pozwalają przenieść projekt między różnymi środowiskami bez utraty informacji o synchronizacji i strukturze filmu.

Pytanie 29

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .wav
B. .mlp
C. .acc
D. .ogg
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 30

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. EVENT
B. TRACK
C. EDIT
D. VIEW
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 31

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Lista znaczników.
B. Partytura.
C. Rider techniczny.
D. Scenariusz.
To właśnie scenariusz jest podstawą literacką, od której zaczyna się cała przygoda z produkcją słuchowiska radiowego. Bez tego żaden reżyser, realizator czy zespół aktorski nie miałby wyjściowego materiału do pracy. Scenariusz słuchowiskowy nie tylko zawiera teksty dialogów i monologów, ale także precyzyjnie opisuje dźwięki tła, efekty specjalne, momenty muzyczne czy pauzy. Co ciekawe, dobry scenariusz często rozpisuje nawet nastrój scen i emocje bohaterów – to bardzo pomaga aktorom, ale i realizatorom dźwięku. W praktyce, w branży radiowej scenariusz jest dokumentem centralnym, wokół którego kręci się cała produkcja. Bez niego trudno byłoby zachować spójność fabularną, dramaturgiczną i techniczną. Moim zdaniem, umiejętność czytania i interpretacji scenariusza to naprawdę podstawa w pracy przy słuchowiskach – wielu młodych realizatorów zapomina o tym, próbując improwizować, a później efekty bywają... no, różne. Dobrą praktyką jest, by scenariusz był stworzony z myślą o dźwięku, a nie tylko przepisany z opowiadania czy sztuki teatralnej. To wymaga wyczucia specyfiki radia. No i pamiętać trzeba, że tylko scenariusz daje pełen obraz tego, jak historia ma wybrzmieć w eterze.

Pytanie 32

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Reverbs
B. Dynamics
C. Modulation
D. Distortion
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 33

Która z wymienionych operacji powoduje odwrócenie fazy sygnału fonicznego?

A. Clip
B. Normalize
C. Invert
D. Reverse
Operacja „Invert” to właśnie to, co odpowiada za odwrócenie fazy sygnału fonicznego. Kiedy stosujesz Invert w edytorze audio, każdy punkt próbkowania sygnału zmienia znak na przeciwny – dodatnie staje się ujemne, ujemne staje się dodatnie. Z technicznego punktu widzenia, jeśli wykres sygnału przechodzi przez oś czasu, po odwróceniu fazy wszystko odbija się jak w lustrze względem tej osi. Brzmi trochę enigmatycznie, ale w praktyce bardzo się to przydaje np. podczas miksowania nagrań stereo, gdzie możesz mieć do czynienia z niepożądanym znoszeniem się fal (tzw. kasowanie fazy). Standardową dobrą praktyką, szczególnie w studiach nagrań, jest sprawdzanie, czy sygnały z różnych mikrofonów nie są przypadkiem w przeciwfazie – jeśli tak, to właśnie Invert jest narzędziem, które ratuje brzmienie i klarowność. Moim zdaniem, takie podstawowe rozumienie tematu jest bardzo przydatne, bo pozwala uniknąć późniejszych frustracji podczas pracy z dźwiękiem. Co ciekawe, niektóre urządzenia na etapie analogowym mają nawet fizyczny przełącznik do odwracania fazy, tzw. „phase reverse”. To pokazuje, że to nie jest tylko komputerowa zabawa, ale standardowa branżowa praktyka.

Pytanie 34

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. masteringu nagrania.
B. edycji nagrania.
C. zapisywania pliku wynikowego.
D. wciągania plików dźwiękowych do sesji montażowej.
To jest dokładnie ten moment, kiedy podejmujemy decyzję o ostatecznym formacie i parametrach pliku dźwiękowego – podczas zapisywania pliku wynikowego, czyli eksportu. Niezależnie od tego, czy cały projekt był nagrywany i obrabiany w wysokiej rozdzielczości, to właśnie przy eksporcie ustawiasz typ pliku (np. WAV, MP3, FLAC), jego rozdzielczość (np. 44,1 kHz, 16-bit, czy może 24-bit), kompresję, bitrate i inne szczegóły techniczne. W praktyce oznacza to, że możesz pracować przez cały czas na plikach bezstratnych, a dopiero na końcu zdecydować, czy chcesz stworzyć plik na CD, dla streamingu lub do archiwizacji. Tak robią też profesjonaliści – najpierw pracują w jak najlepszej jakości, a potem tworzą różne wersje plików zależnie od przeznaczenia. Szczerze mówiąc, często spotykam się z tym, że ludzie niepotrzebnie martwią się o format na wcześniejszych etapach, a to właśnie eksport jest kluczowy dla końcowego rezultatu. Standardy branżowe (np. Red Book Audio dla CD czy specyfikacje streamingowe) jasno mówią, jakie mają być parametry końcowego pliku. Ważne też, żeby podczas zapisu uważać na niezamierzoną konwersję formatu czy nieprzemyślaną kompresję stratną. Można powiedzieć, że to taki finał pracy – wszystko, co robiłeś wcześniej, ma sens dopiero wtedy, gdy właściwie wybierzesz opcje eksportu.

Pytanie 35

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 35 MB
C. 45 MB
D. 15 MB
Wbrew pozorom oszacowanie wielkości pliku WAV nie jest tak oczywiste i opiera się na podstawowych zależnościach pomiędzy parametrami technicznymi nagrania. Pojawia się tu kilka typowych błędów myślowych: część osób kojarzy pliki audio z popularnymi formatami skompresowanymi (np. MP3 czy AAC), gdzie plik o długości minuty potrafi ważyć nawet poniżej 10 MB, przez co odpowiedzi typu 15 MB czy 25 MB wydają się na pierwszy rzut oka logiczne. Jednak w formacie WAV, który jest nieskompresowany, rozmiar rośnie znacznie szybciej. Z mojego doświadczenia często studenci mylą próbki na sekundę z kilobajtami lub myślą, że rozdzielczość bitowa nie ma aż tak dużego wpływu na rozmiar. Przykładowo, przy 24-bitach na próbkę i próbkowaniu 96 kHz każda sekunda dźwięku stereo to około 576 KB. Przez minutę daje to ponad 34 MB – a więc znacznie powyżej 15 czy 25 MB. Jeszcze innym źródłem nieporozumień jest nieuwzględnianie liczby kanałów (mono kontra stereo) – stereo podwaja wielkość pliku względem mono, co w praktyce ma ogromne znaczenie przy szacowaniu miejsca na dysku. Odpowiedź 45 MB jest natomiast typowym przykładem przeszacowania, być może przez zaokrąglenie w górę lub nieuwzględnienie rzeczywistej liczby bajtów na próbkę. W branży obowiązują dość precyzyjne standardy i obliczenia tego typu są na porządku dziennym przy pracy z profesjonalnym audio. Dla plików WAV o wysokiej jakości – takich jak 24 bity, 96 kHz, stereo – 35 MB za minutę to nie tylko teoria, ale realna wartość spotykana na co dzień w studiach nagrań i przy montażu dźwięku do obrazu. Właśnie dlatego kluczowe jest, by nie sugerować się nawykami z plików skompresowanych czy uproszczonymi przelicznikami – profesjonalne audio rządzi się trochę innymi prawami i wymaga bardziej technicznego podejścia do szacowania miejsca na dysku.

Pytanie 36

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. MIDI
B. MASTER
C. VIDEO
D. AUDIO
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 37

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Read
B. Latch
C. Off
D. Touch
Tryb 'Off' w automatyce DAW to taka trochę oczywista, choć często pomijana opcja. Gdy ustawisz ścieżkę na 'Off', automatyka po prostu nie jest odczytywana ani zapisywana – to tak, jakby jej w ogóle nie było. Moim zdaniem, to świetne rozwiązanie, kiedy chcesz zignorować wcześniejsze automatyczne zmiany parametrów, np. głośności, panoramy czy efektów, i mieć totalną kontrolę ręcznie lub ustawić wszystko od nowa. Praktycznie, jeśli miksujesz utwór i robisz kilka wersji automatyki, możesz tymczasowo wyłączyć jej działanie bez kasowania całej pracy – nie ryzykujesz, że coś się przypadkiem zmieni. W branży, szczególnie przy pracy na żywo albo w dużych projektach studyjnych, używa się 'Off', żeby uniknąć konfliktów między różnymi etapami miksowania lub gdy chcesz słyszeć czysty sygnał ścieżki bez ingerencji automatyki. Często też, porównując wersje miksu, wyłączenie automatyki pozwala ocenić, jak brzmią ślady bez żadnych zmian, co bardzo się przydaje przy masteringu lub robieniu wersji instrumentalnych. Na koniec dodam, że w sumie to trochę niedoceniany tryb, a daje ogromną swobodę w zarządzaniu ścieżkami – nie tylko głośność, ale wszystkie parametry na chwilę przestają być pod kontrolą automatyki, co czasami okazuje się zbawienne.

Pytanie 38

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|1|000
B. 2|1|000
C. 1|3|000
D. 1|2|000
Wiele osób, szczególnie na początku pracy z DAW, myśli, że wskazania typu 1|1|000 albo 2|1|000 odnoszą się bezpośrednio do upływających sekund, co jest dość mylące. Przy tempie 120 bpm każda ćwierćnuta trwa dokładnie 0,5 sekundy, czyli pełny takt w metrum 4/4 to 2 sekundy. To oznacza, że po 2 sekundach jesteśmy na początku trzeciego taktu, a nie na początku drugiego czy pierwszego. Wskazanie 1|1|000 zawsze oznacza absolutny początek utworu – 'start sesji', więc nie może być punktem po 2 sekundach. Wybierając 1|2|000, można założyć, że to druga ćwierćnuta pierwszego taktu, ale to tylko 0,5 sekundy od startu, więc znacznie za wcześnie. Z kolei 2|1|000 kusi, bo sugeruje drugi takt, ale to jest dokładnie po 4 sekundach (czyli dwa takty po 2 sekundy każdy). Spotkałem się już z sytuacjami, gdzie realizatorzy w stresie montują automaty albo efekty na złych pozycjach, bo mylą oznaczenia BARS/BEATS z czasem rzeczywistym. To dość typowy błąd, zwłaszcza przy szybkim tempie pracy, gdzie liczy się każda sekunda. Moim zdaniem, zanim zacznie się ingerować w aranżację czy automatyzację w DAW, warto naprawdę dobrze opanować konwersję między czasem a siatką taktów i uderzeń – to pozwala uniknąć niepotrzebnych przesunięć i chaosu. Licznik BARS/BEATS jest tu po to, by precyzyjnie określić lokalizację w projekcie, a jego poprawne czytanie stanowi fundament sprawnej pracy z każdym profesjonalnym oprogramowaniem typu DAW. Jeśli więc wybierzesz inną niż 1|3|000 opcję, to znaczy, że warto jeszcze raz prześledzić, jak tempo i metrum wpływają na położenie kursora względem czasu i siatki muzycznej.

Pytanie 39

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby Digital
B. Dolby TrueHD
C. Dolby AC3
D. Dolby Digital EX
Wiele osób myli różne formaty Dolby, bo ich nazwy są do siebie podobne, a przecież mają one zupełnie inne zastosowania i właściwości techniczne. Na przykład Dolby Digital (czyli popularny AC3) to format stratnej kompresji, bardzo często używany w telewizji, DVD i niektórych transmisjach cyfrowych, ale nie gwarantuje zachowania pełnej jakości oryginalnego nagrania – zawsze jest jakiś kompromis między jakością a rozmiarem pliku. Dolby Digital EX to po prostu rozszerzenie tego standardu, dodające kanał tylny centralny dla większego efektu przestrzennego, ale nadal korzysta ze stratnej kompresji. Jeszcze większe zamieszanie potrafi się zrobić z nazwami – niektórzy sądzą, że Dolby AC3 to osobny format, a to przecież po prostu techniczna nazwa Dolby Digital. Z mojego doświadczenia dość często spotyka się ten błąd nawet u ludzi pracujących w branży audiowizualnej. Niestety, żaden z tych formatów nie oferuje bezstratnej kompresji. W praktyce oznacza to, że jeśli ktoś jest audiofilem albo montuje materiały, gdzie liczy się studyjna jakość dźwięku, to wybór AC3 albo Dolby Digital EX nie spełni oczekiwań. Z kolei Dolby TrueHD został zaprojektowany właśnie do zachowania pełnej jakości dźwięku i współpracuje z nowoczesnymi systemami kina domowego poprzez HDMI. Warto to zapamiętać, bo różnice nie są tylko teoretyczne – mają spory wpływ na końcowe wrażenia z odsłuchu. Dobre praktyki branżowe mówią wyraźnie: jeśli zależy nam na jakości, warto sięgać po formaty bezstratne jak Dolby TrueHD, a nie te stratne, nawet jeśli są bardzo popularne.

Pytanie 40

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 7 kanałów.
B. 1 kanału.
C. 5 kanałów.
D. 8 kanałów.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.