Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 9 maja 2026 12:11
  • Data zakończenia: 9 maja 2026 12:17

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która komenda oprogramowania DAW służy do zmiany fazy sygnału audio?

A. Invert
B. Gain
C. Crossfade
D. Cut
Komenda „Invert” w DAW to bardzo praktyczna funkcja, która pozwala na odwrócenie fazy sygnału audio o 180 stopni. To może się wydawać na pierwszy rzut oka trochę abstrakcyjne, ale w praktyce jest to szalenie przydatne podczas miksowania. Na przykład – wyobraź sobie, że nagrywasz perkusję kilkoma mikrofonami naraz. Często okazuje się, że niektóre ślady wzajemnie się znoszą, bo ich fale dźwiękowe są w przeciwnej fazie (szczególnie ze stopą i werblem potrafi być zamieszanie). W takich sytuacjach szybkie „Invert” na jednym ze śladów potrafi całkowicie odmienić brzmienie – nagle wszystko staje się pełniejsze, basy wracają na swoje miejsce. To już taka klasyka miksu, zwłaszcza przy nagraniach wielośladowych czy dogrywaniu wokali. Warto pamiętać, że „Invert” nie zmienia głośności, nie ucina ani nie skleja ścieżki, tylko odwraca polaryzację – plus staje się minusem i odwrotnie. W branży to jedna z podstawowych technik sprawdzania kompatybilności fazowej między ścieżkami. Moim zdaniem, nawet jak na początku trudno to usłyszeć, to z czasem ucho zaczyna wyłapywać subtelne różnice. A dobry realizator zawsze pilnuje fazy, bo bez tego nawet najlepsze nagranie zabrzmi płasko i bez energii. Invert jest po prostu niezastąpiony do szybkiego testowania i naprawiania problemów fazowych – to taka codzienna, mała, inżynierska sztuczka.

Pytanie 2

Który z wymienionych procesorów efektów służy do zmiany wysokości dźwięku o określony interwał muzyczny?

A. Pitch Shifter
B. HF Exciter
C. Multivoice Chorus
D. Classic Phaser
Pitch Shifter to procesor efektów, który rzeczywiście pozwala na zmianę wysokości dźwięku o określony interwał muzyczny. Ten efekt jest powszechnie stosowany zarówno w produkcji muzycznej, jak i podczas występów na żywo. Moim zdaniem to jedno z bardziej kreatywnych narzędzi, szczególnie jeśli chodzi o wokale – umożliwia uzyskanie efektu harmonizatora, tworzenie podwójnych partii czy nawet całkowitą zmianę charakteru głosu. Standardowo pitch shifter pozwala na przesunięcie dźwięku w górę lub w dół o półtony, całe tony, kwinty, oktawy czy nawet bardziej niestandardowe interwały. Co ciekawe, to rozwiązanie jest wykorzystywane też do korekty intonacji instrumentalnej, na przykład w gitarach podczas nagrań, jeśli trzeba coś „podciągnąć” bez konieczności ponownego rejestrowania ścieżki. W świecie audio pitch shifting jest też podstawą efektów wokalnych w EDM czy popie – na przykład popularny efekt „chipmunk” to nic innego jak przetworzenie wokalu przez shifter ustawiony na wyższą oktawę. Z punktu widzenia realizatora dźwięku, stosowanie pitch shiftera wymaga pewnej ostrożności – przesadzenie z ustawieniami może prowadzić do niepożądanych artefaktów, dlatego najlepszą praktyką jest, moim zdaniem, subtelne dawkowanie tego efektu i słuchanie, jak całość wpisuje się w miks.

Pytanie 3

Który z wymienionych parametrów kompresora dynamiki odpowiada za czas odpuszczenia kompresji po spadku poziomu sygnału poniżej progu zadziałania kompresora?

A. Attack.
B. Threshold.
C. Release.
D. Ratio.
Parametr „release” w kompresorze dynamiki określa, jak szybko urządzenie przestaje tłumić sygnał po tym, jak jego poziom spadnie poniżej ustalonego progu (threshold). To właśnie release kontroluje długość powrotu sygnału do normalnej głośności po zakończeniu działania kompresji. Moim zdaniem, to taki trochę niedoceniany parametr, ale bardzo ważny w praktycznej realizacji dźwięku – źle ustawiony release może prowadzić do dziwnych efektów, np. pompującego dźwięku albo nienaturalnego, „oddychającego” miksu. W dobrych praktykach studyjnych zawsze testuje się release na żywym materiale – instrumenty perkusyjne czy wokale często wymagają różnych wartości, żeby wszystko brzmiało naturalnie i bez artefaktów. W branży dźwiękowej mówi się nawet, że release jest kluczem do transparentności kompresji. Dla przykładu, przy miksowaniu nagrania z dynamicznym wokalem, długi release może powodować, że całe frazy będą cichsze niż powinny, a krótki release – że pojawią się niepożądane efekty pulsowania. Dlatego dobrze mieć świadomość, na czym polega działanie tego parametru i jak wpływa na całość brzmienia. Ustawianie release wymaga trochę wyczucia, ale też znajomości materiału – nie zawsze warto kierować się „na oko”, tylko raczej słuchać i eksperymentować. Praktycy często polecają najpierw ustawić krótki release i stopniowo go wydłużać, aż kompresja stanie się mniej zauważalna – to taka branżowa sztuczka, która się sprawdza.

Pytanie 4

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .ogg
B. .acc
C. .mlp
D. .wav
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 5

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .cmx
B. .fla
C. .edl
D. .ldm
Format .edl, czyli Edit Decision List, to cyfrowa forma listy montażowej używana praktycznie w każdej większej produkcji filmowej czy telewizyjnej. Plik EDL zawiera zestawienie najważniejszych decyzji montażowych: numery ujęć, punkty wejścia i wyjścia, kolejność oraz podstawowe efekty przejść pomiędzy klipami. Moim zdaniem, to taki pomost między starym montażem taśmowym, a współczesnym montażem nieliniowym – bo pozwala przenieść strukturę montażu do różnych programów, jak np. Avid, DaVinci Resolve czy Adobe Premiere. W praktyce montażysta eksportuje EDL z jednego systemu, żeby szybko odtworzyć układ projektu w innym środowisku albo w studiu postprodukcji. Co ciekawe, format EDL jest uznany za branżowy standard – ma już swoje lata, ale do dziś jest mocno używany przy wymianie projektów między stacjami roboczymi. Najważniejsze w praktycznym zastosowaniu jest to, że EDL nie przenosi wszystkich efektów czy warstw, ale świetnie sprawdza się do podstawowej struktury i przyspiesza cały workflow. Jeśli kiedyś trafisz na archiwalne projekty albo będziesz musiał współpracować ze studiem dźwiękowym czy VFX, znajomość EDL naprawdę się przydaje. W sumie ciężko wyobrazić sobie profesjonalny pipeline bez tego typu plików, nawet jeśli współczesne formaty XML czy AAF oferują więcej możliwości.

Pytanie 6

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 44 100 Hz, 96 kbps
B. 44 100 Hz, 160 kbps
C. 48 000 Hz, 128 kbps
D. 22 000 Hz, 128 kbps
Wybranie parametrów 44 100 Hz oraz 96 kbps to taki mały trik praktyczny, który bardzo często stosuje się, gdy zależy nam na minimalizacji rozmiaru pliku mp3, ale jednocześnie chcemy zachować akceptowalną jakość dźwięku. 44 100 Hz to standardowa częstotliwość próbkowania używana na płytach CD i w większości plików audio, więc nie ryzykujemy utraty kompatybilności z większością odtwarzaczy czy programów. Z kolei bitrate 96 kbps to już wartość wyraźnie niższa niż popularne 128 kbps, przez co rozmiar pliku spada zauważalnie – szczerze mówiąc, przy muzyce tła albo podcastach różnica w jakości jest często trudna do wychwycenia dla przeciętnego ucha, zwłaszcza w warunkach domowych albo na słuchawkach niższej klasy. Z mojego doświadczenia wynika, że taki kompromis jest idealny np. przy archiwizowaniu dużych ilości nagrań, wysyłaniu plików mailem czy przygotowywaniu materiałów do udostępnienia online, gdzie kluczowe jest ograniczenie rozmiaru. Z punktu widzenia branży, dobrym zwyczajem jest stosowanie jak najniższego bitrate’u, który zapewnia jeszcze użyteczną jakość – a 96 kbps, przy zachowaniu 44 100 Hz, to właśnie taki złoty środek dla zastosowań nieprofesjonalnych. Oczywiście, jeśli ktoś oczekuje najwyższej wierności dźwięku, wybierze coś wyższego, ale w praktyce, do zastosowań codziennych, taka optymalizacja ma duży sens. Myślę, że warto też pamiętać, że pliki mp3, w przeciwieństwie do bezstratnych formatów, zawsze będą pewnym kompromisem – dlatego tak ważne jest umiejętne dobranie parametrów pod swoje potrzeby.

Pytanie 7

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 2 ścieżki.
B. 3 ścieżki.
C. 1 ścieżkę.
D. 4 ścieżki.
W przypadku nagrania kwartetu smyczkowego z użyciem techniki mikrofonowej MM, czyli mikrofonowania mono-mono każdego instrumentu osobno, absolutnym minimum są 4 ścieżki monofoniczne w sesji DAW. Każdy instrument kwartetu, czyli I skrzypce, II skrzypce, altówka i wiolonczela, powinien dostać swoją własną niezależną ścieżkę. To pozwala na pełną kontrolę podczas miksowania – możesz osobno regulować poziomy, panoramę, kompresję albo dodawać efekty, jeśli zajdzie taka potrzeba. Tak robi się to praktycznie wszędzie w branży, bo daje to najwięcej możliwości edycyjnych i pozwala uzyskać profesjonalne brzmienie. Łączenie nagrań kilku instrumentów na jedną ścieżkę mocno ogranicza późniejszą edycję, a tego raczej nikt nie robi w poważnej produkcji. Dodatkowo, jeśli kiedyś będziesz chciał miksować albo masterować materiał pod różne potrzeby, osobne nagrania są wręcz niezbędne. Co więcej, to nie tylko wygoda, ale i bezpieczeństwo – jeżeli na którejś ścieżce pojawi się problem (np. szum albo brudne wejście mikrofonowe), łatwo go wychwycisz i poprawisz bez naruszania reszty partii. Moim zdaniem, to podejście jest po prostu standardem, bo każda profesjonalna sesja opiera się na oddzielnych śladach dla każdego źródła. Warto mieć te 4 ścieżki nawet jeśli wydaje się to „za dużo” – w praktyce szybko docenisz tę elastyczność.

Pytanie 8

Zastosowanie opcji Interleaved w sesji spowoduje zapis

A. kanałów lewego i prawego ścieżki stereo do pliku mono.
B. do niezależnych plików kanałów lewego i prawego ścieżki stereo.
C. kanału lewego i prawego miksu do niezależnych plików.
D. do jednego pliku kanałów na ścieżkach stereo.
Opcja Interleaved w sesji, szczególnie w kontekście programów DAW i pracy ze ścieżkami stereo, oznacza zapisanie obu kanałów (lewego i prawego) do jednego pliku audio. W praktyce to jest najczęściej wykorzystywany sposób pracy z plikami stereo, bo pozwala na wygodniejsze zarządzanie projektami i szybszy transfer plików między różnymi systemami czy aplikacjami. Moim zdaniem, jest to szczególnie przydatne wtedy, kiedy eksportujesz miks do masteringu albo wysyłasz sesję komuś do dalszej obróbki – nie musisz pilnować, żeby oba pliki mono były poprawnie sparowane, bo wszystko masz w jednym, logicznym pliku stereo. W branży muzycznej i postprodukcyjnej to właściwie standard – WAV i AIFF obsługują tryb interleaved, a większość pluginów i stacji roboczych oczekuje właśnie takiego formatu. Z mojego doświadczenia wynika, że unikasz w ten sposób chaosu związanego z rozdzielnymi plikami kanałów, bo np. przy przenoszeniu projektu na inny komputer nie trzeba już ręcznie przypisywać lewego i prawego kanału. To drobiazg, który realnie przyspiesza workflow. Co ciekawe, niektóre starsze urządzenia hardware’owe czy programy jeszcze korzystają z plików split (osobny na kanał), ale to już raczej wyjątek niż reguła. Warto też wiedzieć, że Interleaved jest domyślną opcją eksportu w większości nowoczesnych DAW, więc nawet nie trzeba się nad tym za bardzo zastanawiać, po prostu działa.

Pytanie 9

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 20 GB danych.
B. 15 GB danych.
C. 25 GB danych.
D. 10 GB danych.
Jednowarstwowy nośnik Blu-ray umożliwia zapis do 25 GB danych i to jest dokładnie wartość określona przez oficjalny standard Blu-ray Disc Association. To właśnie dzięki wykorzystaniu niebieskiego lasera (o długości fali około 405 nm) można uzyskać tak dużą gęstość zapisu na tej samej wielkości płycie, co DVD czy CD. W praktyce oznacza to, że na jednej płycie jednowarstwowej można zmieścić nawet dwugodzinny film w jakości Full HD wraz z dodatkowymi materiałami, napisami i ścieżkami dźwiękowymi. Często w pracy spotykam się z sytuacjami, gdzie klienci chcą archiwizować duże ilości zdjęć czy projektów graficznych – Blu-ray sprawdza się wtedy lepiej niż zwykłe DVD, bo nie trzeba dzielić danych na kilka płyt. W branży IT przyjęło się właśnie wykorzystywanie nośników o pojemności 25 GB do tworzenia kopii zapasowych lub dystrybucji oprogramowania, szczególnie tam, gdzie liczy się odporność na uszkodzenia i długi okres przechowywania danych. Trzeba pamiętać, że istnieją również wersje dwuwarstwowe (50 GB) i więcej, ale ta podstawowa, jednowarstwowa płyta zawsze mieści dokładnie 25 GB. To ważny fakt, jeśli chcesz poprawnie dobierać nośniki do określonych zadań lub planować archiwizację danych na konkretną ilość przestrzeni. Moim zdaniem znajomość tych parametrów to podstawa, zwłaszcza jeśli działa się w świecie cyfrowego przetwarzania informacji.

Pytanie 10

Który z wymienionych formatów plików dźwiękowych charakteryzuje się bezstratnym kodowaniem dźwięku?

A. M4A
B. AIFF
C. MP3
D. AAC
Format AIFF, czyli Audio Interchange File Format, to przykład pliku dźwiękowego, który wykorzystuje bezstratne kodowanie. To znaczy, że zapisuje dźwięk dokładnie tak, jak został on nagrany, bez żadnej kompresji stratnej, która obniżałaby jakość. W praktyce AIFF wykorzystywany jest głównie w środowiskach profesjonalnych — studiach nagraniowych, podczas produkcji muzycznej oraz przez entuzjastów audio, którzy cenią sobie najwyższą jakość dźwięku. Oprogramowanie Apple od lat promuje AIFF, ale pliki te są szeroko obsługiwane także na systemach Windows. Moim zdaniem, jeśli ktoś zajmuje się miksowaniem, masterowaniem czy archiwizowaniem materiału muzycznego, to właśnie AIFF (albo WAV) jest najlepszym wyborem. W branży muzycznej AIFF często konkuruje z WAV i oba te formaty są wręcz standardem w profesjonalnych workflowach. Co ważne, AIFF przechowuje dane PCM (czyli Pulse Code Modulation), co zapewnia pełną zgodność z urządzeniami audio wysokiej klasy. Dla zwykłego słuchacza może to nie mieć aż takiego znaczenia, bo te pliki są większe niż MP3, ale dla realizatorów dźwięku, DJ-ów czy osób przygotowujących podcasty do dalszej edycji — różnica jakości jest kolosalna. Właśnie dlatego AIFF to bezstratny format, który zapewnia dźwięk w oryginalnej jakości, bez kompromisów.

Pytanie 11

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. milisekundzie.
B. ćwierćnucie.
C. ramce.
D. sekundzie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 12

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.ogg
C. *.mp3
D. *.aiff
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 13

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Bass
B. Cello
C. Violin
D. Viola
Wybranie nazwy „Violin” dla ścieżki zawierającej nagranie partii skrzypiec w sesji programu DAW to rozwiązanie zgodne z najlepszymi praktykami branżowymi. Taka etykieta od razu wskazuje, jaki instrument został zarejestrowany na tej konkretnej ścieżce, co w dużym stopniu ułatwia zarówno organizację pracy, jak i późniejszą edycję czy miks. Moim zdaniem, jasne i jednoznaczne nazewnictwo ścieżek to coś, czego nie da się przecenić – wystarczy sobie wyobrazić projekt, w którym mamy kilkanaście różnych instrumentów smyczkowych i wszystkie są podpisane ogólnie albo błędnie. Kiedy dochodzi do miksu czy nawet szybkiego odsłuchu, nie ma miejsca na domysły – chcemy wiedzieć dokładnie, która ścieżka dotyczy jakiego instrumentu. Takie podejście jest też standardem w studiach nagraniowych na całym świecie, a profesjonalne sesje często mają bardzo szczegółowe nazwy ścieżek, zawierające nawet dodatkowe informacje, np. „Violin 1”, „Violin 2”, „Violin Room Mic”. Tego typu praktyka zapobiega pomyłkom podczas aranżowania, edytowania czy masteringu i znacznie ułatwia współpracę z innymi realizatorami czy muzykami. Z mojego doświadczenia wynika, że niewłaściwe nazewnictwo prowadzi tylko do chaosu w projekcie, a poprawne – oszczędza masę czasu przy dużych produkcjach. W skrócie: zawsze warto nazywać ścieżki zgodnie z tym, co naprawdę się na nich znajduje.

Pytanie 14

Które z urządzeń poszerza zakres dynamiki nagrania?

A. Saturator.
B. Filtr HP.
C. Filtr LP.
D. Ekspander.
Ekspander to narzędzie, które faktycznie poszerza zakres dynamiki sygnału audio. W praktyce oznacza to, że różnica między najcichszymi a najgłośniejszymi fragmentami nagrania staje się większa. Ekspander działa trochę odwrotnie niż kompresor – zamiast ściskać dynamikę, rozciąga ją. Najczęściej używa się go do walki z niechcianym szumem tła, wyciszając ciche fragmenty jeszcze bardziej, przez co te głośne są jeszcze wyraźniej odseparowane. Na przykład w studiu nagraniowym, kiedy mamy nagrania wokalu z delikatnym szumem w tle, ekspander może bardzo skutecznie pomóc wyeliminować te niepożądane elementy bez ingerowania w główny sygnał. Z mojego doświadczenia, dobry ekspander potrafi uratować track, który wydawał się już nie do odratowania pod względem czytelności. Warto pamiętać, że w broadcastingu czy podczas masteringu ekspander jest też używany do celów artystycznych, żeby dodać nagraniu większej wyrazistości i naturalności. Z technicznego punktu widzenia, ekspandery należą do podstawowego arsenału inżyniera dźwięku, szczególnie tam, gdzie wymagane są duże kontrasty dynamiczne. W porównaniu do filtrów czy saturatorów, ekspander rzeczywiście realnie wpływa na zakres dynamiki, co jest zgodne z ogólnymi standardami pracy z sygnałem audio.

Pytanie 15

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. sekundę.
B. minutę.
C. godzinę.
D. ramkę.
Kod SMPTE to taki trochę uniwersalny zegar dla świata audio-wideo, bez którego montaż czy synchronizacja byłaby totalnym chaosem. Druga para cyfr, czyli te dwie środkowe w zapisie np. 01:23:45:17, to właśnie minuty. Moim zdaniem, to kluczowa informacja, bo właśnie minuty są takim mostem między godzinami a sekundami – pozwalają szybko lokalizować dłuższe fragmenty materiału. Praktycznie – jeśli montujesz dłuższy program telewizyjny lub film i masz podane SMPTE 00:07:32:15, od razu wiesz, że chodzi o siódmą minutę, nie musisz liczyć ramek czy sekund. To się naprawdę przydaje, szczególnie przy pracy zespołowej, bo każdy, kto zna standard SMPTE, błyskawicznie odczyta czas. W branży obowiązuje zasada zapisu godzin:minut:sekund:ramek, zgodnie z normą SMPTE 12M oraz EBU Tech 3097-E. Z mojego doświadczenia wynika, że bardzo wielu techników trochę lekceważy znaczenie tej kolejności, a potem mają zamieszanie przy synchronizacji dźwięku z obrazem. Ciekawostka – są też wersje kodu SMPTE z drobnymi różnicami (np. drop-frame w NTSC), ale układ minut zawsze jest w tej samej, drugiej pozycji. Im szybciej opanujesz czytanie kodu SMPTE, tym łatwiej radzić sobie z timecode’em na co dzień – niezależnie czy siedzisz w reżyserce czy przy edycji.

Pytanie 16

Który z formatów plików audio nie używa kodowania stratnego?

A. .rm
B. .ra
C. .ogg
D. .wav
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 17

Uzyskanie dynamiki dźwięku o wartości 192 dB możliwe jest przy rozdzielczości przetwarzania wynoszącej

A. 32 bity.
B. 8 bitów.
C. 24 bity.
D. 16 bitów.
Dobrze wybrana odpowiedź – 32 bity to realnie konieczna rozdzielczość, by osiągnąć zakres dynamiki aż 192 dB. Wynika to z podstawowych wzorów dotyczących przetwarzania sygnałów analogowo-cyfrowych. Teoretycznie, jedna liczba bitowa daje nam około 6,02 dB dynamiki, więc przy 32 bitach mamy ponad 192 dB (dokładniej: 32 × 6,02 ≈ 192,64 dB). W praktyce taki zakres dynamiki znacznie przekracza potrzeby i możliwości percepcyjne człowieka, bo nawet najcichsze i najgłośniejsze dźwięki, które słyszymy, mieszczą się w dużo węższym przedziale – około 120 dB. Jednak sprzęt studyjny klasy high-end, rozwiązania DAW czy formaty typu floating point 32-bit stosuje się tam, gdzie istotna jest pełna swoboda obróbki sygnału, np. w profesjonalnej produkcji muzycznej, masteringu czy archiwizacji dźwięku bez strat jakości. Takie podejście pozwala na zaawansowaną edycję bez ryzyka powstawania zniekształceń czy utraty subtelnych niuansów. Z mojego doświadczenia, nawet jeśli nie zawsze wykorzystamy całe 32 bity w końcowym pliku, to podczas pracy nad nagraniem lepiej mieć ten zapas, bo zabezpiecza to przed tzw. clippingiem oraz utratą informacji. W sumie, 32 bity to już takie „all inclusive” dla zawodowców, a te 192 dB to wartość czysto teoretyczna, ale ważna w kontekście norm ISO i AES, które opisują wymagania dla konwersji sygnałów audio na najwyższym poziomie.

Pytanie 18

Który tryb edycyjny umożliwia przesuwanie regionów ścieżki dźwiękowej do siatki metro-rytmicznej?

A. Slip
B. Spot
C. Grid
D. Shuffle
Tryb Grid w edytorach DAW, takich jak Pro Tools czy Ableton, to kluczowe narzędzie, kiedy trzeba zachować precyzyjne rozstawienie elementów na osi czasu – szczególnie w produkcjach, gdzie rytm i metrum są świętością. Przesuwając regiony ścieżek w tym trybie, wszystko idealnie dopasowuje się do siatki, czyli punktów podziału wynikających z tempa i podziałki taktu. Moim zdaniem to jest totalny must-have przy edycji perkusji, loopów albo ogólnie materiałów, gdzie każda drobna przesunięcie mogłaby zepsuć groove. Grid eliminuje przypadkowe przesunięcia poza rytm – nie trzeba się martwić, że wokal wyląduje pół milisekundy za wcześnie. Z mojego doświadczenia, przy produkcjach komercyjnych, gdzie klient potrafi wyłapać nawet mikroprzesunięcia, Grid daje spokój ducha i pewność, że wszystko jest tam, gdzie powinno. Warto pamiętać, że Grid to też nie tylko sztywność – w różnych DAW-ach możesz ustawić gęstość tej siatki (np. co ćwierćnutę, ósemkę itd.), co daje elastyczność, a jednocześnie trzyma materiał na właściwej linii czasowej. W branży muzycznej takie podejście jest standardem, bo przekłada się na profesjonalny, równo brzmiący miks. Dobrą praktyką jest wręcz zaczynanie sesji od ustawienia właściwego metrum i siatki – wtedy cała produkcja idzie sprawniej. To rozwiązanie zdecydowanie ułatwia pracę nie tylko realizatorom, ale i muzykom, którzy potem nie muszą walczyć z niedokładnościami edycji.

Pytanie 19

Który z wymienionych formatów plików dźwiękowych charakteryzuje się stratną kompresją danych?

A. AIFF
B. FLAC
C. AAC
D. WAV
Format AAC to klasyczny przykład pliku dźwiękowego wykorzystującego stratną kompresję. Moim zdaniem, to jeden z najpopularniejszych kodeków w codziennym użytkowaniu – a szczególnie mocno obecny w usługach streamingowych, jak Apple Music czy YouTube. Kompresja stratna polega na tym, że podczas zapisywania dźwięku część informacji jest bezpowrotnie usuwana, żeby mocno zmniejszyć rozmiar pliku. Robi się to tak, żeby ucho przeciętnego człowieka nie zauważyło różnicy albo była ona minimalna. W praktyce, jak mam do wysłania audiobooka albo podcastu i nie chcę przesyłać gigabajtów danych, to wybieram właśnie AAC albo MP3. Branża traktuje AAC jako nowoczesnego następcę MP3 – daje lepszą jakość przy tym samym bitrate'cie. Warto wiedzieć, że AAC jest stosowany w standardzie MPEG-4, czyli wideo z dźwiękiem, na przykład w plikach MP4. Z mojego punktu widzenia to jest bardzo uniwersalny wybór na potrzeby mobilne czy internetowe, gdzie liczy się szybkość transferu i niewielki rozmiar pliku, a nie bezwzględna jakość.

Pytanie 20

Jaki efekt osiągany jest w wyniku odszumiania?

A. Rozjaśnienie barwy.
B. Zaciemnienie barwy.
C. Zwiększenie dynamiki.
D. Zmniejszenie dynamiki.
Odszumianie to proces usuwania lub minimalizowania niepożądanych szumów z sygnału audio, który bardzo często pojawia się w realizacji dźwięku – czy to podczas nagrań, czy przy postprodukcji. Najważniejsze, co się przy tym uzyskuje, to właśnie zwiększenie dynamiki nagrania. Chodzi tu o to, że szumy zazwyczaj wypełniają najcichsze fragmenty audio, przez co „podnoszą” poziom tła, a to ogranicza zakres między najcichszymi a najgłośniejszymi dźwiękami. Gdy skutecznie odszumimy nagranie, znika ten niechciany „dywan” szumu, więc najcichsze fragmenty stają się naprawdę ciche – i całość brzmi dużo bardziej dynamicznie. Tak się robi choćby z nagraniami lektorskimi, wywiadami, ale też śladami instrumentalnymi w studiu. Branżowe standardy, na przykład w masteringowej obróbce muzyki czy materiałów filmowych, wyraźnie zalecają pilnować, by nie przesadzać z tłumieniem szumów – chodzi o to, żeby nie zaszkodzić samemu sygnałowi, ale zawsze dąży się do jak największego kontrastu między ciszą a głośnością. Moim zdaniem, jeżeli ktoś chce robić miks na poziomie, to bez umiejętności dobrego odszumiania trudno sobie wyobrazić profesjonalny rezultat. Efekt podniesionej dynamiki jest wtedy od razu słyszalny, nagranie brzmi czysto i dużo bardziej profesjonalnie.

Pytanie 21

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 88,2 kHz
B. 44,1 kHz
C. 48 kHz
D. 96 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 22

W którym z formatów należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .mpeg
B. .aup
C. .rmvb
D. .omf
Format .omf (Open Media Framework) to taki trochę złoty standard, jeśli chodzi o przenoszenie projektów między różnymi programami DAW – czyli Digital Audio Workstation. W praktyce oznacza to, że sesję, którą np. zaczniesz w Pro Tools, możesz potem otworzyć w Cubase czy Nuendo, o ile oba programy wspierają OMF. Z mojego doświadczenia to mega przyspiesza współpracę między studiem dźwiękowym a montażystą filmowym albo producentem muzycznym, bo nie musisz eksportować każdego śladu osobno i ręcznie synchronizować wszystkiego od zera. OMF umożliwia przeniesienie nie tylko samych plików audio, ale również podstawowych ustawień ścieżek czy cięć, co w pracy zawodowej bywa wręcz zbawienne. Moim zdaniem, każdy, kto planuje zawodowo zajmować się produkcją audio czy postprodukcją, powinien znać ten format i umieć z niego korzystać. To jest taka dobra praktyka branżowa, żeby zawsze mieć kopię sesji w OMF, bo nigdy nie wiadomo, na czym przyjdzie Ci pracować albo komu będzie trzeba przesłać projekt. Warto też wiedzieć, że są nowsze formaty jak AAF, ale OMF dalej jest bardzo powszechny i każdy szanujący się DAW go obsługuje – przynajmniej w wersji podstawowej.

Pytanie 23

Spośród wymienionych programów wskaż ten, który umożliwia zarówno zapis audio, jak i komunikatów MIDI.

A. Cubase.
B. Sound Forge.
C. Audacity.
D. WaveLab.
Cubase to zdecydowanie jedno z najbardziej rozpoznawalnych narzędzi typu DAW (Digital Audio Workstation) na rynku, zwłaszcza jeśli chodzi o produkcję muzyki zarówno na poziomie profesjonalnym, jak i amatorskim. Wyróżnia się tym, że umożliwia nie tylko nagrywanie i edycję ścieżek audio, ale też bardzo rozbudowaną obsługę komunikatów MIDI – czyli takiego standardu, którym steruje się instrumentami wirtualnymi, syntezatorami czy efektami. Sam często widziałem, jak realizatorzy nagrywają żywe instrumenty, wokale, a jednocześnie dodają partie MIDI np. dla perkusji czy syntezatorów, mając to wszystko w jednym projekcie. Cubase obsługuje też zaawansowane funkcje jak automatyzacja, routing czy integracja z wtyczkami VST, co jest nieocenione przy miksie i masteringu. Z mojego doświadczenia wynika, że jest to program bardzo elastyczny, nadający się zarówno do prostych nagrań domowych, jak i skomplikowanych sesji studyjnych. W branży muzycznej uważany jest za jeden ze standardów, a możliwość płynnej pracy z MIDI i audio znacząco przyspiesza kreatywny proces i ułatwia zachowanie wysokiej jakości produkcji.

Pytanie 24

Na płycie DVD zawierającej materiał dźwiękowy nagrany w formacie 5.1 należy umieścić opis

A. Dolby Digital.
B. Dolby Surround.
C. Dolby Stereo.
D. Dolby Digital EX.
Odpowiedź Dolby Digital jest jak najbardziej trafiona, bo właśnie ten format od dawna jest standardem w przypadku zapisu dźwięku wielokanałowego 5.1 na płytach DVD. Takie rozwiązanie umożliwia zapis sześciu niezależnych kanałów audio – chodzi o lewy, prawy, centralny, dwa tylne (surround) i subwoofer (Low Frequency Effects, czyli .1). Moim zdaniem, w branży rozrywkowej i filmowej nie znajdziesz bardziej popularnego standardu, jeśli idzie o DVD. W praktyce, kiedy kupujesz film na DVD z nagraniem w systemie 5.1, na pudełku czy w opisie zawsze będzie właśnie oznaczenie Dolby Digital. To jest wymóg licencyjny i taka informacja dla użytkownika, bo pozwala od razu rozpoznać, jakiego sprzętu potrzebujesz, żeby w pełni wykorzystać potencjał ścieżki dźwiękowej. Warto dodać, że Dolby Digital jest też elastyczne – pozwala na kodowanie zarówno prostych ścieżek stereo, jak i zaawansowanych konfiguracji kinowych. Podobne rozwiązania stosuje się w telewizji cyfrowej czy streamingu, ale na DVD to właśnie Dolby Digital dominuje. Taka standaryzacja daje pewność kompatybilności z amplitunerami kina domowego i innymi urządzeniami audio. Dla branży to po prostu dobry kompromis między jakością a rozmiarem pliku i dostępnością dla użytkownika. Fajnie też wiedzieć, że Dolby Digital powstało w latach 90., a do dziś pozostaje jednym z najważniejszych formatów dla dźwięku przestrzennego na różnych nośnikach optycznych.

Pytanie 25

Która z wymienionych kaset umożliwia zapis sygnału fonicznego w postaci cyfrowej?

A. Microcassette
B. 8-track
C. CC
D. DAT
Kaseta DAT, czyli Digital Audio Tape, to nośnik, który faktycznie umożliwia zapis dźwięku w formacie cyfrowym. Takie rozwiązanie pojawiło się w latach 80. i wbrew pozorom, do dziś bywa stosowane w archiwizacji dźwięku – głównie w instytucjach, gdzie zależy na zachowaniu wysokiej jakości nagrań analogowych po ich cyfryzacji. DAT był oparty o taśmę magnetyczną, ale różnił się od standardowych kaset tym, że dane zapisywane były nie w sposób analogowy, lecz cyfrowy, podobnie jak na płytach CD czy w plikach muzycznych we współczesnych systemach. Ciekawostka – kasety DAT umożliwiają zapis do 120 minut dźwięku w bardzo wysokiej jakości (częstotliwość próbkowania 48 kHz, rozdzielczość 16 bitów), co przewyższało niejednokrotnie możliwości standardowego nośnika analogowego. Moim zdaniem, to właśnie wejście DAT było pewnego rodzaju rewolucją, bo pozwoliło na swobodne kopiowanie bez strat jakości, co w erze analogowej było praktycznie niemożliwe. W praktyce DAT znalazł zastosowanie w studiach nagraniowych, emisji radiowej oraz tam, gdzie zależało na bezpieczeństwie danych dźwiękowych. Dziś raczej uznaje się tę technologię za historię, ale wciąż można spotkać archiwa czy nawet sprzęt, który pozwala odzyskać nagrania z tych taśm. Pewne standardy branżowe, np. w radiofonii, przez długi czas rekomendowały DAT jako główny format roboczy – właśnie ze względu na odporność na degradację sygnału oraz wygodę kopiowania.

Pytanie 26

Tryb Snap to frames powoduje przyciąganie przesuwanego regionu na ścieżce w sesji programu DAW do siatki

A. klatek.
B. sekund.
C. taktów.
D. próbek.
Tryb Snap to frames to bardzo przydatna funkcja w wielu programach typu DAW (Digital Audio Workstation), szczególnie jeśli pracujesz z materiałem wideo lub audio zsynchronizowanym z obrazem. Klatki (frames) to podstawowy podział czasu w filmie i animacji – standardowo mamy np. 24, 25 lub 30 klatek na sekundę. Gdy włączysz Snap to frames, każdy przesuwany region, clip czy nawet pojedynczy punkt automatycznie przyciąga się do najbliższej granicy klatki. Dzięki temu nie powstaną przesunięcia, które mogą rozjechać synchronizację obrazu z dźwiękiem. Takie rozwiązanie jest wręcz wymuszone przy montażu dialogów do filmu, muzyki ilustracyjnej czy efektów dźwiękowych – bo nawet minimalne przestawienie poza siatkę klatek potrafi zaburzyć wrażenie synchroniczności. Moim zdaniem, korzystanie z tego trybu powinno być nawykiem przy każdej pracy z wideo, bo bardzo pomaga uniknąć błędów, które potem trudno wyłapać na etapie finalnego eksportu. Dobrą praktyką jest też ustawienie projektu DAW na dokładnie taką samą ilość klatek na sekundę jak docelowe wideo – wtedy Snap to frames działa idealnie. Niektórzy czasem zapominają o tym, myślą że wystarczy synchronizować na „ucho”, ale to właśnie siatka klatkowa zapewnia pełną precyzję. Polecam też sprawdzić, jak zachowuje się DAW przy eksporcie – czasem minimalne przesunięcia mogą pojawić się przy złym ustawieniu FPS, a Snap to frames po prostu tego unika.

Pytanie 27

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. FX
B. AUX
C. MASTER
D. PREVIEW
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 28

„Fade In – 100 ms” oznacza płynne

A. wyciszenie dźwięku, trwające 1/10 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 29

Który z wymienionych dokumentów elektronicznych, o rozszerzeniu nazwy pliku .edl, zawiera szczegółowe instrukcje montażowe?

A. Spis znaczników.
B. Lista montażowa.
C. Rider techniczny.
D. Lista efektów.
Dokument z rozszerzeniem .edl, czyli tzw. lista montażowa (Edit Decision List), to podstawa pracy w profesjonalnym montażu wideo. Moim zdaniem mało która osoba spoza branży zdaje sobie sprawę, jak ważną rolę pełni taki plik w całym procesie postprodukcji. Lista montażowa opisuje kolejność ujęć, punkty cięć, czas trwania fragmentów oraz wszelkie przejścia czy efekty, które mają być zastosowane. Dzięki temu montażysta nie musi polegać jedynie na własnej pamięci czy notatkach, tylko automatycznie importuje EDL do stacji montażowej (np. Avid, Premiere Pro, DaVinci Resolve), przez co cały projekt układa się według wytycznych reżysera lub operatora. W branży filmowej i telewizyjnej EDL jest standardem komunikacji między różnymi etapami produkcji, umożliwia też przenoszenie projektów między różnymi systemami montażowymi. Często spotyka się sytuacje, gdzie produkcje mają dziesiątki, jak nie setki cięć – ręczne odtwarzanie takiej sekwencji byłoby praktycznie niemożliwe bez listy montażowej. Co ciekawe, EDL pozwala na szybkie odtworzenie procesu twórczego i jest kluczowym elementem archiwizacji projektów audiowizualnych. Z mojego doświadczenia, znajomość obsługi i edycji EDL to podstawa, jeśli ktoś myśli poważnie o montażu na wyższym poziomie, bo każda profesjonalna postprodukcja na tym bazuje.

Pytanie 30

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Ekspander.
B. Bramka szumów.
C. Kompresor.
D. Korektor tercjowy.
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 31

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Partytura.
B. Drabinka.
C. Lista edycyjna.
D. Scenariusz.
Partytura to w muzyce taki jakby główny dokument, gdzie zapisuje się cały utwór w formie nutowej, bardzo szczegółowo, z podziałem na wszystkie instrumenty czy głosy. To trochę jak instrukcja obsługi dla orkiestry czy chóru – dyrygent musi mieć partyturę, żeby wiedzieć, kiedy co gra i jak wszystko synchronizować. W praktyce każda szanująca się instytucja muzyczna, studio czy zespół pracujący z większymi składami korzysta właśnie z partytury. Z mojego doświadczenia wynika, że profesjonalni muzycy nie zaczynają pracy bez dobrze przygotowanej partytury, bo tylko wtedy są w stanie utrzymać porządek i spójność w wykonaniu. W branży standardem jest, że partytura zawiera nie tylko nuty, ale też mnóstwo oznaczeń, np. dynamikę, artykulację, tempo, czasem nawet sugestie dotyczące interpretacji. Nawet podczas nagrań studyjnych czy koncertów filharmonicznych partytura jest absolutną podstawą – bez niej praktycznie nie da się wykonać bardziej złożonego utworu. Warto wiedzieć, że partytury bywają bardzo rozbudowane, kilkudziesięciostronicowe, a ich przygotowanie to osobna umiejętność, której naprawdę opłaca się nauczyć. Poza tym partytura to nie tylko domena klasyki – w muzyce rozrywkowej, zwłaszcza przy aranżacji na większe składy, coraz częściej pojawia się profesjonalny zapis nutowy, żeby nie było nieporozumień podczas prób czy nagrań.

Pytanie 32

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 24 bity
B. 8 bitów
C. 12 bitów
D. 16 bitów
Odpowiedź 24 bity to zdecydowanie najlepszy wybór, jeśli chodzi o nagrania o bardzo dużej dynamice, takiej jak 100 dB. Słuchaj, z praktycznego punktu widzenia, każdy dodatkowy bit w rozdzielczości próbkowania daje nam około 6 dB więcej zakresu dynamicznego. Czyli jak sobie policzysz: 16 bitów daje mniej więcej 96 dB, a 24 bity to już aż 144 dB! To oznacza, że nagrania wykonane w 24 bitach pozwalają uchwycić dużo subtelniejsze różnice w głośności – nawet te najcichsze szczegóły nie giną w szumie kwantyzacji. W studiach nagraniowych i przy pracy z dźwiękiem na poważnie, absolutnym standardem są właśnie 24 bity; ciężko sobie wyobrazić profesjonalną produkcję bez tej rozdzielczości, bo pozwala ona na dużo większą swobodę przy miksowaniu, masteringu i późniejszej obróbce. Samo nagranie w wyższej rozdzielczości daje też większą elastyczność, jeśli chodzi o korekcję dynamiki, bez ryzyka wprowadzenia zniekształceń czy utraty szczegółów. Moim zdaniem, nawet jeśli finalnie plik audio trafi do odbiorcy w 16 bitach (np. na płycie CD), to etap produkcji zawsze opłaca się robić w 24 bitach. Przemysł muzyczny właściwie nie uznaje już niższych rozdzielczości, jeśli chodzi o poważniejsze projekty – i to ma sens, bo technologia pozwala na więcej, więc szkoda nie korzystać. Warto też wiedzieć, że taka dynamika jest potrzebna nie tylko w muzyce klasycznej; nawet w produkcjach elektronicznych czy filmowych daje ogromny komfort pracy.

Pytanie 33

Technika mikrofonowa MS to technika

A. ambisoniczna.
B. binauralna.
C. monofoniczna.
D. stereofonii natężeniowej.
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę ciekawe rozwiązanie w rejestracji dźwięku, szczególnie jeśli zależy nam na elastyczności późniejszej obróbki sygnału stereo. W tej technice korzysta się z dwóch mikrofonów – jeden ustawiony jest na środek (Mid), najczęściej o charakterystyce kardioidalnej, a drugi na boki (Side), co zazwyczaj oznacza charakterystykę ósemkową. Dzięki temu uzyskujemy sygnał, z którego można stworzyć obraz stereofoniczny na podstawie różnic w natężeniu sygnału, a nie tylko fazie. To się nazywa stereofonia natężeniowa, bo opiera się właśnie na różnicy poziomów sygnału w kanałach lewym i prawym. Ogromną zaletą tej techniki jest możliwość regulacji szerokości stereo już po nagraniu – w praktyce wystarczy manipulować proporcją sygnału Mid do Side podczas miksu. W branży studyjnej MS jest wręcz standardem np. przy rejestracji chóru, orkiestry, ale też do nagrań plenerowych czy nawet w broadcastingu, bo zapewnia świetną mono-kompatybilność. Z mojego doświadczenia wynika, że inżynierowie lubią MS za jego wszechstronność – czasem uratuje nagranie, które w klasycznej parze XY nie daje rady. Ciekawostka: obecnie wiele profesjonalnych pluginów DAW pozwala na rozbudowaną edycję MS, więc warto znać tę technikę nawet jeśli nie pracuje się na żywych mikrofonach.

Pytanie 34

Normalizacja z opcją korekty RMS wpływa

A. wyłącznie na poziom średni.
B. wyłącznie na poziom szczytowy.
C. na szum kwantyzacji.
D. na poziom średni i szczytowy.
Normalizacja z opcją korekty RMS (Root Mean Square) to coś więcej niż zwykłe podbicie głośności do maksymalnego możliwego poziomu bez przesterowania. W praktyce, gdy korzystasz z RMS, nie tylko szczytowe wartości sygnału są brane pod uwagę, ale kluczowe staje się także to, jak sygnał zachowuje się w ujęciu średnim – czyli jak odbieramy głośność utworu jako całość. Przykładowo, w masteringu muzyki RMS pozwala ustawić materiał tak, żeby zarówno ciche fragmenty nie były zbyt wyciszone, a głośne nie przesterowywały. To zapewnia wyższy komfort odsłuchu na różnych urządzeniach i w różnych warunkach. Standardy branżowe, jak EBU R128 czy AES, podkreślają wagę pomiarów średniego poziomu sygnału, bo to właśnie one są bliższe temu, jak ludzkie ucho odbiera głośność. Przy normalizacji z RMS nie wzmacniamy tylko samych szczytów, ale poprawiamy ogólną percepcję dynamiki utworu. Fajnie też zauważyć, że w produkcji podcastów czy materiałów radiowych ta metoda jest wręcz nieodzowna, żeby uniknąć sytuacji, gdzie cisze są niezrozumiałe, a głośne partie bolą w uszy. Moim zdaniem, kto raz spróbuje normalizacji RMS, nie wróci do samego Peak, bo różnica w odbiorze bywa kolosalna. W praktyce – RMS wpływa na oba poziomy: średni i szczytowy, co daje lepszą kontrolę nad całym sygnałem.

Pytanie 35

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 16 bitów.
B. 24 bity.
C. 32 bity.
D. 8 bitów.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 36

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 88,2 kHz
B. 44,1 kHz
C. 48 kHz
D. 96 kHz
Wybrałeś 96 kHz i faktycznie, to jest ta najwyższa częstotliwość próbkowania z podanych opcji, co oznacza, że jedna próbka sygnału trwa najkrócej. Częstotliwość próbkowania określa, ile razy na sekundę rejestrujemy sygnał – im większa wartość, tym więcej próbek upakowanych w jednej sekundzie, czyli każda pojedyncza próbka reprezentuje krótszy odcinek czasu. W przypadku 96 kHz długość jednej próbki to dokładnie 1/96000 sekundy, czyli ok. 10,4 mikrosekundy. To bardzo krótko! W praktyce, taki standard jest często wykorzystywany w profesjonalnych studiach nagraniowych czy przy produkcji muzyki, gdzie zależy nam na maksymalnie precyzyjnym odwzorowaniu dźwięku i minimalnych zniekształceniach. Moim zdaniem, choć 44,1 kHz czy 48 kHz wystarcza do domowego użytku, to kiedy mamy do czynienia z obróbką dźwięku na wysokim poziomie, wyższa częstotliwość daje większy zapas – łatwiej potem coś edytować, nie tracąc jakości. Warto też zapamiętać, że w branży dźwiękowej obowiązują różne standardy: 44,1 kHz to płyty CD, 48 kHz dominuje w audio wideo, a 96 kHz spotkasz głównie w masteringu. To pokazuje, jak ważne jest dobranie odpowiedniego parametru do konkretnego zastosowania. Ostatecznie, im wyższa częstotliwość próbkowania, tym krótszy czas jednej próbki, co pozwala dokładniej odwzorować szybkie zmiany sygnału audio.

Pytanie 37

Które z wymienionych określeń oznacza nagranie lektora?

A. Voice Over
B. Sound Effects
C. Foley
D. Ambience
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.

Pytanie 38

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Lock
C. Split
D. Mute
Funkcja „Mute” w sesji programu DAW jest podstawowym narzędziem do szybkiego wyciszania wybranych regionów, ścieżek lub nawet pojedynczych dźwięków w aranżacji. To rozwiązanie jest powszechnie stosowane w produkcji muzycznej, bo pozwala na błyskawiczne wyłączenie fragmentu utworu bez kasowania danych – nie tracisz żadnych informacji, zawsze możesz wrócić do tych dźwięków, kiedy tylko chcesz. Przykładowo, gdy miksujesz wokale i chcesz na chwilę usunąć niektóre fragmenty, żeby sprawdzić, jak brzmią inne elementy aranżacji, wystarczy kliknąć „Mute” na odpowiednim regionie. Moim zdaniem to bardzo wygodne, bo daje pełną elastyczność podczas pracy twórczej – nie musisz się stresować, że coś uszkodzisz na stałe. Zgodnie z praktykami branżowymi, korzystanie z „Mute” jest preferowane przed edycją destrukcyjną, gdy chcesz eksperymentować z aranżacją czy układem ścieżek. Funkcja ta jest obecna w praktycznie każdym liczącym się DAW – od Abletona, przez Cubase, aż po Pro Tools. Zaawansowani realizatorzy często używają „Mute” także do przygotowywania alternatywnych wersji miksu, bo pozwala to łatwo porównać różne układy instrumentów bez przeładowywania projektów. Dla mnie „Mute” to jedno z narzędzi, które naprawdę ratuje skórę w sytuacjach, kiedy trzeba coś szybko sprawdzić, a nie ma czasu na żmudne wycinanie czy kopiowanie regionów. W skrócie: praktyczne, szybkie i bezpieczne rozwiązanie na każdą sesję.

Pytanie 39

Szumy w nagraniu redukować można poprzez

A. funkcję noise reduction.
B. bramkę szumów noise gate.
C. korekcję nagrania.
D. kompresję.
Funkcja noise reduction to zdecydowanie jeden z najczęściej używanych sposobów na walkę z szumami w nagraniach audio. W praktyce wygląda to tak: specjalny algorytm analizuje fragment nagrania, który zawiera wyłącznie szum (najlepiej, gdy jest to tzw. próbka szumu), a potem na tej podstawie usuwa podobne komponenty z całego pliku dźwiękowego. Takie podejście pozwala skutecznie wyciszyć niepożądane tło – szum wentylatora, szelest mikrofonu, brum sieciowy i inne tego typu rzeczy. Narzędzia noise reduction znajdziesz w praktycznie każdym programie do obróbki audio, od darmowych (Audacity) po profesjonalne (np. iZotope RX, Adobe Audition). Z mojego doświadczenia wynika, że właściwie ustawiona funkcja noise reduction pozwala odzyskać naprawdę dużo z nagrania, które na pierwszy rzut ucha wydaje się bezużyteczne. W branży produkcji dźwięku to codzienność, bo nawet najlepszy sprzęt nie zawsze gwarantuje czyste nagranie – czasami coś zaszumi, ktoś zostawi otwarte okno albo mikrofon złapie zakłócenia z sieci. Dobrą praktyką jest ostrożne stosowanie tej funkcji, bo zbyt mocne parametry mogą zniekształcić głos czy inne ważne dźwięki. Najlepiej, jeśli noise reduction jest tylko jednym z etapów pracy – obok dobrej jakości nagrania, prawidłowego ustawienia mikrofonu i unikania źródeł szumu, to właśnie ta funkcja pozwala uzyskać naprawdę profesjonalny rezultat.

Pytanie 40

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .song
B. .cpr
C. .mid
D. .omf
Rozszerzenie .omf to naprawdę bardzo ważny standard w pracy z różnymi programami DAW. OMF, czyli Open Media Framework, został stworzony właśnie po to, żeby umożliwić wymianę sesji audio pomiędzy odmiennymi środowiskami – na przykład przenosząc projekt z Cubase do Pro Tools albo z Logic do Nuendo. Moim zdaniem, jeśli ktoś poważnie myśli o współpracy z różnymi studiami czy producentami, to musi znać OMF, bo często to jedyny sposób na zachowanie struktury sesji, ścieżek, markerów, a nawet podstawowych automatyzacji. Przykładowo, jeśli ktoś dostaje zlecenie masteringu czy miksu, bardzo często klient przesyła właśnie plik .omf – dzięki temu nie trzeba eksportować każdej ścieżki osobno i ręcznie ustawiać ich w nowym DAW. W praktyce, OMF nie przenosi wszystkich ustawień wtyczek czy parametrów miksu, ale zachowuje układ ścieżek i przejścia audio, co w większości przypadków bardzo usprawnia pracę. Warto też wiedzieć, że OMF to branżowy standard, z którego korzysta się nawet w produkcjach filmowych, gdzie synchronizacja materiałów z różnych źródeł jest kluczowa. Pewnie, że formaty typu AAF zaczynają wypierać OMF, ale wciąż mnóstwo studiów korzysta z tego rozwiązania, bo jest po prostu sprawdzone i przewidywalne. Moim zdaniem, znajomość OMF to taki must-have każdego, kto działa z DAW-ami na poważnie.