Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 8 maja 2026 08:25
  • Data zakończenia: 8 maja 2026 08:31

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Funkcja służąca do zgrania zaznaczonego fragmentu materiału dźwiękowego w sesji oprogramowania DAW na dysk komputera znajduje się typowo w menu

A. EVENT
B. FILE
C. WINDOW
D. OPTIONS
Właściwy wybór to FILE, bo to właśnie w tym menu większość programów typu DAW (np. Cubase, Pro Tools, Ableton Live, Reaper) umieszcza funkcje związane z operacjami na plikach – czyli zapisywanie, eksport, import czy zgrywanie materiału na dysk. Kiedy chcesz wyeksportować fragment utworu lub całą sesję do pliku audio (np. wav, mp3), zawsze szukasz opcji pokroju „Export”, „Bounce”, „Render” właśnie pod FILE. To standard branżowy, bo użytkownik spodziewa się tutaj wszystkich operacji, które mają na celu przeniesienie projektu lub jego części poza DAW. Z mojego doświadczenia, im szybciej nauczysz się korzystać z tych funkcji, tym sprawniej ogarniesz przygotowanie ścieżek do miksu, masteringu czy nawet demówek do wysyłki. Dobra praktyka nakazuje regularne wykorzystywanie eksportu do archiwizacji postępów projektu, a także do testowania brzmień na różnych urządzeniach. Co ciekawe, w większości DAW plik wyeksportowany przez FILE zachowuje ustawienia miksu, efekty i automatyzacje – więc to podstawa, jeśli chcesz mieć kontrolę nad finalnym brzmieniem. Oczywiście, w zależności od DAW, szczegóły mogą się różnić, ale ogólna zasada jest zawsze ta sama – FILE to „centrum dowodzenia” jeśli chodzi o zapis i eksport materiałów.

Pytanie 2

Zastosowanie procesora Upward Expander wpływa na

A. usunięcie przydźwięku sieci.
B. zmniejszenie dynamiki.
C. poszerzenie dynamiki.
D. ograniczenie niskich tonów.
Procesor typu Upward Expander to zdecydowanie ciekawe narzędzie w realizacji dźwięku, zwłaszcza w kontekście obróbki dynamiki. Jego głównym zadaniem jest poszerzenie zakresu dynamiki sygnału audio – co oznacza, że cichsze fragmenty stają się jeszcze cichsze względem głośnych. To zupełnie odwrotnie niż w przypadku kompresora, który "ściska" dynamikę poprzez wyrównywanie poziomów. W praktyce, zastosowanie upw. expandera przydaje się wtedy, gdy nagranie wydaje się zbyt "spłaszczone", na przykład po wcześniejszym mocnym skompresowaniu lub przy słabych nagraniach z dużą ilością szumów w tle. Upraszczając, expander pomaga przywrócić naturalność i przestrzeń nagrania, przez co miks staje się bardziej przejrzysty. Przykład z mojego doświadczenia – czasem, kiedy wokal jest za bardzo wyciśnięty przez kompresję, expander potrafi dodać mu życia, podkreślając subtelności, które były zbyt ukryte. W branży dźwiękowej stosuje się expander w broadcastingu, postprodukcji filmowej czy w masteringu, gdzie ważne jest zachowanie rozpiętości dynamicznej. Zgodnie z praktykami AES i standardami broadcastu, ekspander powinien być stosowany z wyczuciem, aby nie przesadzić i nie spowodować przesadnej utraty detali. Niektórzy realizatorzy stosują też expandery selektywnie, np. tylko na ścieżkach perkusji, by podkreślić atak i naturalność. W skrócie, upward expander poszerza dynamikę – to jego najważniejsza cecha i cel stosowania.

Pytanie 3

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Music Player.
B. Windows Media Player.
C. Samplitude.
D. Audacity.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 4

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. FADE IN
B. FADE OUT
C. TEMPO
D. PAN
Fade in to jedna z tych funkcji, które są naprawdę podstawowe, ale często niedoceniane, zwłaszcza jak ktoś dopiero zaczyna zabawę w DAW-ach. Z technicznego punktu widzenia fade in to stopniowe zwiększenie głośności dźwięku od ciszy do pełnej wartości – czyli dźwięk nie pojawia się nagle, tylko płynnie wchodzi, bez żadnych trzasków czy nagłych przeskoków. W praktyce często wykorzystuje się fade in na początku ścieżki audio, żeby wprowadzić słuchacza w nagranie płynnie – nie tylko w muzyce, ale też np. w podcastach, produkcji reklam, czy nawet w filmie, gdzie zależy nam na subtelnym rozpoczęciu sceny dźwiękowej. W branży to taki must-have, szczególnie przy masteringu i miksie utworów, bo pozwala uniknąć nieestetycznych artefaktów i sprawia, że całość brzmi profesjonalnie. Warto pamiętać, że fade in można stosować nie tylko ręcznie, rysując automatyzację głośności, ale wiele DAW-ów ma dedykowaną funkcję do naniesienia fade in na klipie, co przyspiesza pracę. Z mojego doświadczenia, dobrze wykonany fade in robi ogromną różnicę w odbiorze nagrania, bo pozwala zbudować napięcie albo wprowadzić klimat. To jedno z tych narzędzi, bez których ciężko sobie wyobrazić poprawny workflow w każdej poważniejszej produkcji dźwiękowej.

Pytanie 5

Na jakim etapie produkcji nagrania wykonywany jest montaż nagrania?

A. W trakcie archiwizacji.
B. Po masteringu.
C. Po zgraniu.
D. W trakcie edycji.
Montaż nagrania to naprawdę kluczowy etap w produkcji dźwięku. Odbywa się właśnie podczas edycji materiału. To wtedy inżynier dźwięku lub realizator pracuje z poszczególnymi ścieżkami – wycina niepotrzebne fragmenty, składa ujęcia według założeń reżysera albo klienta, poprawia długość, synchronizuje dialogi, czasem też czyści nagranie z usterek czy szumów. Słyszałem już niejednokrotnie, że dobry montaż potrafi uratować nagranie, które na pierwszy rzut ucha wydaje się chaotyczne. Praktyka pokazuje, że im lepiej zorganizowany jest etap edycji, tym mniej problemów pojawia się później podczas miksu czy masteringu. Standardy branżowe, np. workflow w Pro Tools czy Cubase, mocno podkreślają oddzielenie montażu od miksowania i masteringu. Uporządkowane, dobrze zmontowane ścieżki to podstawa dobrego brzmienia. Moim zdaniem montaż to taki ukryty bohater całej produkcji – dużo zależy od tego, jak dobrze ktoś ogarnie właśnie ten moment. Bez sensownego montażu nawet najlepszy mastering nie pomoże. Montaż to nie tylko cięcie i klejenie, ale cała filozofia podejścia do materiału, żeby potem wszystko razem grało i miało sens. W praktyce zawsze polecam poświęcić na to chwilę dłużej, bo potem można już tylko zyskać.

Pytanie 6

W jakiej pozycji na osi czasu w sesji programu DAW należy ustawić znacznik końcowy utworu muzycznego, jeśli utwór ten ma trwać 64 takty przy metrum 4/4 i tempie 120 BPM?

A. Na końcu 128 sekundy.
B. Na początku 240 sekundy.
C. Na początku 186 sekundy.
D. Na końcu 64 sekundy.
Poprawnie zidentyfikowałeś moment zakończenia utworu – 128 sekunda to dokładnie tam, gdzie kończy się 64 takt w metrum 4/4 przy tempie 120 BPM. Sprawa wygląda tak: każde 4/4 oznacza, że w jednym takcie mamy 4 ćwierćnuty. Przy tempie 120 BPM, czyli 120 ćwierćnut na minutę, jeden takt trwa dokładnie 2 sekundy (bo 120 podzielić na 60 to 2, czyli 2 ćwierćnuty na sekundę, więc 4 ćwierćnuty – cały takt – to 2 sekundy). Mnożąc 64 takty razy 2 sekundy, wychodzi właśnie 128 sekund. W praktyce, w DAW-ach jak Ableton, FL Studio czy Cubase, wyznaczanie końca utworu w taki sposób to podstawa pracy – pozwala to uniknąć niewygodnych pauz lub uciętych dźwięków przy renderingu, a także porządkuje workflow całej sesji. Często producenci ustawiają marker końca dokładnie na ostatnim takcie, żeby przy eksporcie nie zgubić żadnych ważnych elementów np. efektów wybrzmiewających na końcu utworu. Moim zdaniem, taka precyzyjna kalkulacja bardzo się przydaje przy planowaniu automatyzacji, fade-outów czy edycji struktury utworu. W branży to taki standard, żeby nie marnować czasu na zgadywanie, tylko od razu podchodzić do sesji technicznie i praktycznie. To też ważna umiejętność, szczególnie gdy współpracuje się z innymi albo chce się przesłać projekt dalej.

Pytanie 7

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce w sesji programu DAW, aby całkowicie wypełnić przestrzeń na ścieżce do początku taktu piątego?

A. 4 razy.
B. 2 razy.
C. 1 raz.
D. 3 razy.
To jest właśnie sedno logicznego podejścia do pracy w DAW-ach. Jeśli mamy region obejmujący pierwszy takt – czyli od początku taktu pierwszego do początku taktu drugiego – to powielając go 3 razy, uzyskujemy cztery identyczne regiony: jeden od 1. do 2. taktu, drugi od 2. do 3., trzeci od 3. do 4. i czwarty od 4. do 5. taktu. W praktyce, region z pierwszego taktu trzeba skopiować jeszcze trzy razy, żeby wypełnić przestrzeń od początku do końca czwartego taktu, czyli dokładnie do początku piątego. To bardzo typowe zadanie – wiele osób podczas aranżowania bitu, basu czy perkusji zapętla jedną sekwencję i powiela ją, żeby zbudować strukturę utworu. Prawda jest taka, że większość DAW-ów, jak Ableton, FL Studio czy Cubase, działa właśnie na zasadzie kopiowania regionów/taktów i to jest zgodne z praktyką producencką. Moim zdaniem, rozumienie tego typu operacji nie tylko przyspiesza pracę, ale też pozwala lepiej panować nad aranżem. Warto pamiętać, że kopiowanie regionów w taki sposób jest podstawową umiejętnością i świetnym punktem wyjścia do dalszej edycji – potem można dowolnie modyfikować każdy takt czy dodawać automacje. W środowiskach studyjnych to wręcz codzienność – i każda osoba pracująca profesjonalnie w DAW-ach powinna mieć to w małym palcu.

Pytanie 8

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Create Session from Template
B. Create Empty Session
C. Open Recent Session
D. Open Last Session
Opcja „Create Session from Template” to w wielu DAW-ach, takich jak Pro Tools czy Cubase, prawdziwy gamechanger dla tych, którzy chcą pracować szybciej i efektywniej. Dlaczego? Pozwala ona od razu wystartować z gotową strukturą projektu—na przykład z ustawionymi torami, grupami, routingiem, efektami, a nawet wzorcowymi ustawieniami miksera. W branży muzycznej to standardowa praktyka, bo szablony oszczędzają mnóstwo czasu przy powtarzalnych zleceniach, np. nagraniach podcastów czy miksowaniu demówek zespołów. Moim zdaniem, szablony są wręcz nieocenione, gdy trzeba szybko przejść do właściwej pracy, nie bawić się w ustawianie wszystkiego od nowa. Kiedyś sam marnowałem czas na kopiowanie ustawień i zawsze coś pominąłem, a teraz—raz skonfigurowany template i problem znika. Profesjonaliści często budują własne szablony dla różnych typów projektów: osobne do nagrań live, inne do miksu czy masteringu. To też dobry sposób, żeby nie zapomnieć o drobnych szczegółach, które później wychodzą w praniu. Używanie tej opcji to nie tylko wygoda, ale wręcz podstawa workflow w nowoczesnej produkcji audio.

Pytanie 9

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. kompresji stratnej.
B. kompresji bezstratnej.
C. resamplingu.
D. oversamplingu.
Kompresja bezstratna to metoda, która pozwala na zmniejszenie rozmiaru pliku dźwiękowego bez utraty jakiejkolwiek informacji z oryginalnego sygnału. To kluczowe, gdy zależy nam na zachowaniu pełnej jakości materiału, tak jak w przypadku archiwizacji nagrań studyjnych czy profesjonalnej produkcji audio. Przykładami kompresji bezstratnej są formaty takie jak FLAC, ALAC czy ZIP dla plików audio. Branża muzyczna, szczególnie w środowiskach audiofilskich albo podczas masteringu, korzysta z tych rozwiązań, ponieważ każda, nawet najmniejsza utrata danych w sygnale może skutkować drobnymi, ale słyszalnymi artefaktami. Uważam, że nie ma sensu oszczędzać miejsca kosztem jakości, jeżeli ktoś chce potem obrabiać lub analizować dźwięk. Standardy takie jak FLAC stały się wręcz domyślnym wyborem do archiwizacji, bo zapewniają identyczny dźwięk przy odtwarzaniu, bez kompromisów. Dla mnie kompresja bezstratna to coś w rodzaju cyfrowej „skrzynki bezpieczeństwa” – zawsze możesz odzyskać oryginał, a przy tym plik jest mniejszy niż WAV czy AIFF. No i jeszcze jedno: jeśli masz do czynienia z nagraniami wielościeżkowymi, praca na plikach bezstratnych to wręcz obowiązek, bo każda kolejna konwersja w formacie stratnym to coraz większa degradacja sygnału. Także kompresja bezstratna to zdecydowanie najlepszy kierunek, jeśli zależy nam na oryginalności i pełnej jakości dźwięku.

Pytanie 10

Aby ustawić maksymalny poziom sygnału materiału muzycznego bez ingerencji w jego dynamikę, należy użyć w edytorach dźwięku funkcji

A. range.
B. solo.
C. normalizacja.
D. split.
Normalizacja to naprawdę podstawowa i bardzo przydatna funkcja w edytorach dźwięku – i to nie tylko dla kogoś, kto robi miks na szybko, ale też dla osób, które chcą dbać o jakość dźwięku według najlepszych branżowych standardów. Polega na takim podniesieniu poziomu całego materiału muzycznego, żeby najwyższy szczyt sygnału sięgał ustalonego maksimum (najczęściej to 0 dBFS w systemach cyfrowych). Super sprawa jest taka, że ten proces nie zmienia relacji dynamicznych w utworze – to znaczy, wszystkie ciche i głośne fragmenty pozostają względem siebie takie same. Moim zdaniem normalizacja to prawdziwy ratunek wtedy, kiedy nagrany materiał jest za cichy, ale nie chcemy niszczyć jego naturalnej dynamiki. Przykładowo, jak nagrasz wokal, który ma dobre proporcje, ale jest ogólnie za cicho, normalizacja załatwi sprawę. Profesjonaliści używają tej funkcji m.in. przy przygotowywaniu plików pod mastering albo do wyrównania poziomów różnych ścieżek przed miksowaniem. Warto też pamiętać, że nadmierne stosowanie normalizacji może podbijać także szumy, ale jeśli materiał wyjściowy jest czysty, to jest to jedna z najbezpieczniejszych metod podnoszenia poziomu sygnału bez ryzyka przesterowania czy spłaszczenia dynamiki. W praktyce to bardzo szybka i łatwa metoda na zoptymalizowanie głośności bez używania kompresora czy limitera.

Pytanie 11

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Kompresor.
B. Korektor tercjowy.
C. Bramka szumów.
D. Ekspander.
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 12

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. CD-RW
B. DVD+R
C. HD DVD-R
D. BD-R
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.

Pytanie 13

Jaka jest maksymalna dynamika nagrania audio zapisanego w rozdzielczości 16 bitowej?

A. 48 dB
B. 144 dB
C. 192 dB
D. 96 dB
Nagrania audio zapisywane w rozdzielczości 16 bitów umożliwiają uzyskanie maksymalnej dynamiki na poziomie około 96 dB. Oznacza to, że różnica między najcichszym a najgłośniejszym możliwym do zarejestrowania sygnałem wynosi właśnie 96 decybeli. Wynika to z tego, że każdy bit kodowania daje około 6 dB dynamiki (dokładna wartość matematyczna to 6,02 dB na bit), więc 16 x 6 = 96 dB – taki wynik to praktyczny standard w nagraniach CD-Audio, które od lat 80. są zapisywane właśnie w tej rozdzielczości. W praktyce, jeśli nagrywamy np. muzykę czy dźwięk do filmu, 96 dB to już bardzo szeroki zakres – pozwala uchwycić zarówno subtelne niuanse cichego pianissima, jak i bardzo głośne fragmenty bez zniekształceń. Tak naprawdę w domowych czy nawet półprofesjonalnych warunkach rzadko kiedy wykorzystuje się pełen potencjał tej dynamiki – ograniczeniem częściej jest jakość mikrofonów, przedwzmacniaczy albo akustyka pomieszczenia. Myślę, że fajnie o tym pamiętać – często ludzie są przekonani, że bez 24 bitów nie da się uzyskać dobrego brzmienia, a prawda jest taka, że 16 bitów spokojnie wystarcza do naprawdę solidnych nagrań, jeśli dobrze opanujemy poziomy sygnału i zadbamy o resztę toru audio. W branży często spotkać można opinię, że CD-Audio to 'złoty środek' – to, co jest powyżej (czyli np. 24 bity) to już domena zaawansowanej produkcji studyjnej, gdzie margines bezpieczeństwa przy edycji i miksie jest po prostu większy.

Pytanie 14

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -0,3 dBFS
B. -3 dBFS
C. -6 dBFS
D. -12 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 15

Proces zmiany częstotliwości próbkowania dźwięku to

A. kompresja.
B. konwersja.
C. kompensacja.
D. korekcja.
Proces zmiany częstotliwości próbkowania dźwięku fachowo nazywamy konwersją, a konkretnie – konwersją częstotliwości próbkowania, po angielsku sample rate conversion. To jest bardzo ważne w obróbce audio, zwłaszcza jeśli nagrania z różnych źródeł mają być zintegrowane w jednym projekcie czy miksie. Na przykład, jeśli masz plik nagrany w 44,1 kHz, a chcesz go użyć w projekcie, który bazuje na 48 kHz – musisz wykonać konwersję. W profesjonalnych programach DAW (Digital Audio Workstation) są do tego wyspecjalizowane algorytmy. Warto podkreślić, że dobrze przeprowadzona konwersja zachowuje maksymalną jakość sygnału i nie wprowadza zniekształceń typu aliasing. W branży audio stosuje się do tego np. algorytmy sinc interpolation lub asynchroniczne konwertery SRC. Warto pamiętać, że konwersja próbkowania nie jest tym samym co kompresja, bo tu nie chodzi o zmniejszenie rozmiaru pliku, tylko o dostosowanie parametrów technicznych sygnału do wymagań sprzętu lub projektu. Z mojego doświadczenia, bardzo ważne jest, żeby nie robić tego „byle czym”, bo słabe algorytmy potrafią bardzo zepsuć brzmienie – profesjonalne narzędzia od iZotope czy r8brain są tu w czołówce. Takie podejście jest zgodne z najlepszymi praktykami produkcji audio i masteringu.

Pytanie 16

Metoda dogrania fragmentu dźwięku w miejsce innego określana jest mianem

A. Punch in/out.
B. Trim in/out.
C. Crop in/out.
D. Fade in/out.
Odpowiedź punch in/out to zdecydowanie najtrafniejsze określenie w tym kontekście. W branży audio, zwłaszcza przy nagraniach wielośladowych, punch in/out to technika, która pozwala precyzyjnie nagrać konkretny fragment ścieżki dźwiękowej – tak, by zastąpić wcześniejszy fragment nowym nagraniem bez konieczności powtarzania całego utworu czy danej partii. Stosuje się ją, gdy np. wokalista popełni drobny błąd w środku utworu – wtedy inżynier dźwięku ustawia punkty wejścia (punch in) i wyjścia (punch out), a następnie dogrywany jest tylko ten właściwy fragment. W praktyce nie tylko oszczędza się czas, ale też pozwala na zachowanie naturalnego flow utworu oraz pierwotnej energii nagrania. Tę metodę od lat stosuje się zarówno w analogowych studiach (np. na magnetofonach wielośladowych), jak i we współczesnych DAW-ach, gdzie punch in/out realizuje się często dosłownie jednym kliknięciem. Warto przy okazji zauważyć, że poprawne ustawienie punktów wejścia i wyjścia to klucz do uzyskania niemal niewidocznego (a raczej niesłyszalnego!) łączenia. Z mojego doświadczenia w studiu – dobrze opanowany punch in/out to po prostu podstawa profesjonalnej pracy z nagraniami. Często nawet zawodowcy nie próbują nagrać całej partii od początku, tylko korzystają z tej techniki. To także zgodne z dobrymi praktykami produkcji muzycznej, gdzie elastyczność pracy i oszczędność czasu są bardzo ważne.

Pytanie 17

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wav
B. .wfm
C. .mid
D. .ptx
W plikach o rozszerzeniu .wfm zapisywane są dane dotyczące obwiedni (ang. waveform) regionów audio w aplikacjach typu DAW, czyli cyfrowych stacjach roboczych do obróbki dźwięku. Moim zdaniem ten format jest często niedoceniany, bo niby tylko „obrazki”, ale bez nich trudno byłoby wygodnie edytować dźwięk. DAWy takie jak Pro Tools generują pliki .wfm automatycznie – dzięki temu podczas pracy z dużymi sesjami, nawet z wieloma ścieżkami, wyświetlanie przebiegów falowych pozostaje płynne. To jest ogromna pomoc, zwłaszcza gdy robisz szybkie cięcia albo musisz na oko znaleźć transienty czy inne szczegóły w zapisie dźwięku. Pliki .wfm nie zawierają samego audio, lecz tylko dane do wizualizacji – taka „mapka” falowa, która pozwala na szybkie zorientowanie się, co się dzieje w regionie bez konieczności analizowania pełnego pliku .wav. To praktyka zgodna z dobrą organizacją workflow – oddzielanie danych użytkowych od metadanych wizualnych przyspiesza ładowanie sesji i ułatwia współpracę kilku osób nad jednym projektem. Z mojego doświadczenia, kiedy .wfm są usunięte lub uszkodzone, DAW musi je wygenerować od nowa, co potrafi zająć trochę czasu przy większych projektach. Znajomość tego formatu to podstawa, jeśli chcesz świadomie zarządzać plikami projektów audio na poziomie technicznym.

Pytanie 18

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Volume
B. Send
C. Balance
D. Gain
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 19

Wielokanałowy format dźwięku przestrzennego 5.1 nie zawiera kanału

A. surround L/R.
B. centralnego przedniego.
C. subbasowego.
D. centralnego tylnego.
Format 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku przestrzennego wykorzystywany w kinie domowym, grach czy transmisjach telewizyjnych. Składa się z sześciu kanałów: lewy przedni, prawy przedni, centralny przedni, lewy surround, prawy surround oraz subbasowy (czyli ten .1, od Low Frequency Effects). Kluczowe jest to, że nie przewiduje się tu czegoś takiego, jak centralny tylny kanał – to pojawia się dopiero w bardziej rozbudowanych systemach jak 6.1 lub 7.1. Moim zdaniem to dobrze pokazuje, jak czasem łatwo się pomylić, bo nazwy mogą być mylące – „centralny” kojarzy się z przodem, a „tylny” z dodatkowymi kanałami. W praktyce, kiedy ustawiasz kino domowe, właśnie te dwa kanały surround (lewy i prawy) odpowiadają za efekt przestrzenności za słuchaczem, ale nie są to kanały centralne. Standard Dolby Digital oraz DTS rzeczywiście mówią wprost: tylko jeden centralny (przedni). Z mojego doświadczenia wynika, że nawet profesjonaliści czasem mają z tym problem i szukają czegoś, czego nie ma w 5.1. Warto o tym pamiętać zwłaszcza przy projektowaniu instalacji audio lub przy pracy z mikserami cyfrowymi.

Pytanie 20

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Modulation
B. Distortion
C. Dynamics
D. Reverbs
Ekspander to procesor należący do kategorii procesorów dynamiki, czyli tzw. „Dynamics”. To trochę jak brat kompresora, tylko działa odwrotnie – zamiast ściskać sygnał, rozszerza zakres dynamiki. W praktyce ekspander tłumi ciche dźwięki, sprawiając, że jeszcze bardziej się różnią od głośnych. Używa się go np. do wycinania szumów tła w nagraniach wokalnych albo do oczyszczania ścieżek perkusyjnych, gdy chcemy, żeby werbel czy stopa były mocne i selektywne, a przeszkadzające drobne dźwięki znikały. W branży muzycznej standardowo zaleca się stosować ekspander właśnie w sekcji dynamiki, na etapie miksu czy nawet już przy nagrywaniu. Daje to większą kontrolę nad poziomem głośności i czytelnością śladów. Moim zdaniem, dobrze dobrany ekspander potrafi naprawdę uratować brzmienie, zwłaszcza przy słabej akustyce pomieszczenia lub kiedy nagrywamy wokale w domu i walczymy z hałasami zza ściany. Dużo realizatorów dźwięku korzysta z ekspanderów w połączeniu z innymi efektami, żeby uzyskać profesjonalne, dynamiczne brzmienie. Warto pamiętać, że wszystkie procesory z tej grupy – kompresory, bramki szumów, ekspandery – służą do kontroli dynamiki i często pracują ze sobą na jednej ścieżce. To taki podstawowy workflow w każdym DAW-ie.

Pytanie 21

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Ekspander.
B. Crossover.
C. Korektor.
D. Kompresor.
Ekspander to urządzenie, które rzeczywiście poszerza zakres dynamiki nagrania – czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. W praktyce oznacza to, że przy pomocy ekspandera możemy sprawić, że ciche dźwięki staną się jeszcze cichsze, a głośne pozostaną bez zmian, co wyraźnie zwiększa kontrast i przejrzystość materiału dźwiękowego. Na przykład w studiach nagraniowych często stosuje się ekspandery do redukcji szumów tła czy zminimalizowania niepożądanych dźwięków pomiędzy frazami wokalnymi – jest to bardzo przydatne, gdy chcemy uzyskać klarowny, profesjonalny miks. Ciekawe jest to, że ekspander jest jakby odwrotnością kompresora – zamiast spłaszczać dynamikę, dodaje jej głębi i „powietrza”. Z mojego doświadczenia, używanie ekspandera wymaga pewnej wprawy, bo łatwo przesadzić i zrobić nagranie zbyt „dziurawe”, ale dobrze użyty potrafi zdziałać cuda, szczególnie w realizacji nagrań akustycznych. W branży uznaje się ekspander za narzędzie dość specjalistyczne, ale naprawdę warto je poznać i stosować tam, gdzie zależy nam na naturalności oraz wyrazistej dynamice. Właśnie takie podejście do obróbki dynamicznej materiału jest zgodne z profesjonalnymi standardami produkcji audio.

Pytanie 22

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Trzykrotny.
B. Dwukrotny.
C. Czterokrotny.
D. Pięciokrotny.
Zmniejszenie poziomu sygnału o 6 dB oznacza, że moc sygnału spada dokładnie czterokrotnie. Wynika to z definicji decybela – 1 dB to logarytmiczna jednostka opisująca stosunek dwóch wartości mocy. Wzór na zmianę mocy w decybelach wygląda tak: dB = 10 * log10(P2/P1). Jeśli podstawimy -6 dB, to: -6 = 10 * log10(P2/P1), czyli log10(P2/P1) = -0,6. Po wyliczeniu: P2/P1 = 10^(-0,6) ≈ 0,25, czyli dokładnie 1/4, co oznacza czterokrotny spadek mocy. Takie przeliczenia przydają się np. w systemach nagłośnieniowych, radiokomunikacji, instalacjach antenowych czy nawet prostych testach wzmacniaczy. W praktyce dużo łatwiej jest operować na decybelach niż na zwykłych wartościach liniowych, bo szybciej wychwycisz zmiany – 3 dB to połowa, 6 dB to ćwiartka, 10 dB to już tylko 1/10 pierwotnej mocy. Z mojego doświadczenia, wielu techników korzysta z tego uproszczenia na co dzień, bo pozwala błyskawicznie ocenić skutki tłumienia czy strat na kablu. Standardy branżowe, np. ITU czy zalecenia EBU, też operują tymi wartościami właśnie dlatego, że są wygodne i uniwersalne. Warto sobie to dobrze zapamiętać – i przydaje się nie tylko na egzaminie, ale i w realnej pracy z elektroniką.

Pytanie 23

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 24 bity.
B. 8 bitów.
C. 20 bitów.
D. 16 bitów.
24 bity to standard, który w praktyce gwarantuje bardzo niski poziom szumów kwantyzacji w sygnale fonicznym – praktycznie nie do odróżnienia dla ludzkiego ucha, nawet przy bardzo cichych fragmentach. Z mojego doświadczenia, w profesjonalnych studiach nagraniowych oraz przy produkcji muzyki używa się właśnie 24-bitowej rozdzielczości, bo pozwala zachować ogromny zakres dynamiki (ponad 140 dB!), co jest kluczowe, gdy miksuje się wiele ścieżek lub wielokrotnie modyfikuje nagranie. Im wyższa głębia bitowa, tym dokładniej można odwzorować ciche i głośne fragmenty – a szum kwantyzacji praktycznie zanika. To dlatego mastering audio, produkcja filmowa czy sample banki opierają się o 24 bity. Dla porównania, płyta CD wykorzystuje 16 bitów, co też daje bardzo dobrą jakość, ale już mniej miejsca na subtelności, zwłaszcza przy obróbce materiału. Oczywiście, wyższa bitowość wymaga większej pojemności dysku i mocniejszego sprzętu, ale w dzisiejszych czasach to już nie problem. Moim zdaniem, kto raz nagrywał w 24 bitach, ten nie chce wracać do niższych rozdzielczości. Jeśli zależy ci na naprawdę czystym, profesjonalnym dźwięku bez cyfrowych artefaktów, 24 bity to po prostu właściwy wybór.

Pytanie 24

Jeżeli materiał dźwiękowy ma być odtwarzany od jego końca do początku, to należy użyć opcji

A. Reverse
B. Flanger
C. Invert
D. Phaser
Odpowiedź 'Reverse' jest tutaj absolutnie trafiona, bo właśnie ta funkcja odwraca kolejność odtwarzania materiału dźwiękowego – nagranie leci wtedy od końca do początku. W praktyce edycji audio reverse to taki stary trik, często wykorzystywany zarówno w muzyce elektronicznej, jak i przy efektach specjalnych w filmach. Pozwala tworzyć ciekawe, czasem wręcz surrealistyczne brzmienia, szczególnie kiedy użyje się jej na perkusji czy wokalu – taki odwrócony talerz brzmi zupełnie inaczej i niejednokrotnie buduje napięcie w aranżu. W programach typu DAW (np. Ableton, Reaper, Cubase) opcja 'Reverse' jest dosłownie podstawową funkcją obróbki audio. Co ciekawe, nie powoduje ona żadnej zmiany w zakresie częstotliwości czy barwy dźwięku, tylko odwraca przebieg w osi czasu. To jest zgodne z dobrymi praktykami branżowymi – jeśli producent chce uzyskać efekt cofania się dźwięku, nie kombinuje z efektami typu flanger czy phaser, tylko po prostu używa reverse. Osobiście uważam, że świetnie sprawdza się to przy sound designie, kiedy potrzeba czegoś nietypowego, ale z kontrolowaną dynamiką. Warto pamiętać, że odwrotność nie jest tym samym co inwersja fazy czy zmiana kierunku panoramy – reverse to konkretnie cofanie czasu nagrania. W studio to jedna z tych funkcji, które czasem ratują aranż, kiedy brakuje kreatywnych pomysłów.

Pytanie 25

Na jakiej wartości osi czasowej należy ustawić region, jeżeli w dokumentacji jego docelowa lokalizacja jest zapisana w formacie SMPTE w następujący sposób: 00:00:00:16?

A. Na szesnastej próbie.
B. Na szesnastej klatce.
C. Na pierwszej nucie szesnastkowej.
D. Na szesnastej sekundzie.
Odpowiedź jest trafiona, bo format SMPTE (Society of Motion Picture and Television Engineers) dokładnie wskazuje pozycję czasową podając: godziny, minuty, sekundy oraz klatki. Wygląda to tak: hh:mm:ss:ff, gdzie każde „f” to jedna klatka filmu lub materiału wideo. W zapisie 00:00:00:16 liczba 16 odnosi się do szesnastej klatki w pierwszej sekundzie materiału – ważne, żeby pamiętać, że numerowanie klatek zwykle zaczyna się od zera, więc 00:00:00:00 to pierwsza klatka, 00:00:00:01 druga itd. W praktyce, kiedy w dokumentacji widzisz taki zapis, od razu wiesz, gdzie dokładnie na osi czasowej powinien pojawić się region czy dany element montażowy. W montażu telewizyjnym, dźwiękowym czy filmowym to podstawowa umiejętność – bo dzięki temu, niezależnie od platformy czy programu, wszyscy pracują na tej samej siatce czasowej, eliminując nieporozumienia. Moim zdaniem docenienie precyzji SMPTE bardzo ułatwia współpracę, bo standard jest uniwersalny i nie ma tu miejsca na niedomówienia. Dla przykładu: jeśli montujesz efekty dźwiękowe i masz podany kod 00:00:00:16, dokładnie wiesz, że chodzi o szesnastą klatkę, a nie o próbkę czy sekundę dźwiękową. To potem znacząco wpływa na synchroniczność oraz jakość całego projektu.

Pytanie 26

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Kompresor.
B. Bramka szumów.
C. Korektor tercjowy.
D. Ekspander.
Kompresor to narzędzie, które według mnie jest absolutnie podstawowe w pracy z dźwiękiem – zwłaszcza kiedy trzeba panować nad zbyt dużą rozpiętością dynamiczną nagrań. W praktyce, kompresor działa w ten sposób, że gdy sygnał dźwiękowy przekracza ustalony próg (tzw. threshold), urządzenie automatycznie ścisza te najgłośniejsze fragmenty, a przez to całość staje się bardziej wyrównana pod względem głośności. Przykład z życia: wokale w muzyce pop, nagrania podcastów, czy miksowanie perkusji – w każdym z tych przypadków kompresor pozwala na lepsze „osadzenie” dźwięków w miksie, bez ryzyka nieprzyjemnych skoków głośności. Z mojego doświadczenia wynika, że dobrze użyty kompresor potrafi całkowicie odmienić brzmienie nagrania, sprawiając, że jest ono bardziej „radiowe” i czytelne. Zasada działania kompresora wpisuje się w kanon branżowych praktyk – praktycznie każdy realizator dźwięku korzysta z tego narzędzia na różnych etapach produkcji. Zwracam uwagę, że ustawienie parametrów takich jak ratio, attack czy release wymaga wprawy, bo niewłaściwie ustawiony kompresor może bardziej zaszkodzić niż pomóc. Warto też pamiętać, że choć istnieją inne procesory dynamiki, to właśnie kompresor jest tym, który rzeczywiście zawęża zakres dynamiki sygnału – i to w sposób kontrolowany, zgodnie z zamysłem realizatora.

Pytanie 27

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wyciszenie dźwięku, trwające 1/10 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
Fade In to taki proces, w którym dźwięk startuje od ciszy i stopniowo narasta do pełnej głośności – dokładnie tak, jak przy otwieraniu drzwi do głośnego pokoju. Parametr „100 ms” oznacza, że całe to przejście trwa 1/10 sekundy, czyli bardzo krótko, ale w praktyce wystarczająco, by uniknąć charakterystycznego kliku czy nieprzyjemnego przesterowania na początku pliku dźwiękowego. W profesjonalnych programach do edycji audio jak Pro Tools czy Cubase, fade in ustawiamy właśnie po to, żeby wejście dźwięku było płynne i naturalne, a nie nagłe i szarpane. Takie wstawianie fade’ów to nie tylko kwestia wygładzenia, ale też standard w branży dźwiękowej, zwłaszcza przy montażu dialogów, efektów czy muzyki do filmu. Moim zdaniem, nawet w amatorskich produkcjach nie powinno się zostawiać ostrych wejść, bo to później słychać – i to dość wyraźnie. Dobrą praktyką jest testowanie różnych długości fade in, lecz przy szybkim materiale 100 ms najczęściej sprawdza się świetnie, bo nie psuje dynamiki, a jednak zabezpiecza przed zniekształceniami. Z mojego doświadczenia, im krótszy fade in, tym bardziej subtelny efekt – ale zawsze zostaje ten miły efekt wygładzenia początku dźwięku, co jest szczególnie ważne przy miksowaniu na żywo czy masteringu. Pamiętaj, że fade in to nie tylko efekt „estetyczny”, ale wręcz fundament przy obróbce audio, bez którego trudno osiągnąć profesjonalne brzmienie.

Pytanie 28

Która z wymienionych funkcji w sesji programu DAW standardowo umożliwia wielokrotne powtórzenie zaznaczonego fragmentu materiału dźwiękowego na ścieżce?

A. RECALL
B. MOVE
C. DUPLICATE
D. TRIM
Funkcja DUPLICATE w programach typu DAW (Digital Audio Workstation) to naprawdę jeden z podstawowych i zarazem najpraktyczniejszych narzędzi, jakie można sobie wyobrazić podczas pracy z dźwiękiem. Jej główne zadanie polega na natychmiastowym powieleniu zaznaczonego fragmentu materiału na ścieżce – wystarczy jedno kliknięcie lub skrót klawiszowy i mamy kilka kolejnych kopii tego samego fragmentu, ustawionych zaraz obok siebie. Z mojego doświadczenia korzystanie z DUPLICATE znacznie przyspiesza pracę, zwłaszcza jeśli chcemy zbudować np. stały rytm perkusyjny, powtórzyć frazę wokalną czy zrealizować loop oparty na fragmencie MIDI lub audio. To narzędzie jest niemal wszędzie – w Abletonie, Cubase, Logic Pro czy Pro Tools – zawsze działa podobnie, choć czasem pod różnymi skrótami klawiszowymi. Według dobrych praktyk branżowych, korzystanie z funkcji DUPLICATE nie tylko pozwala zachować precyzję czasową (bo kopie są dokładnie wyrównane do siatki), ale też pozwala na szybkie eksperymentowanie z aranżacją utworu bez mozolnego kopiowania i wklejania. Moim zdaniem, kiedyś nie doceniałem tej funkcji, a teraz nie wyobrażam sobie bez niej pracy – szczególnie przy dłuższych sesjach, gdzie każda sekunda się liczy. Warto pamiętać, że powielony fragment można potem niezależnie edytować, co daje ogromną elastyczność przy tworzeniu nowych wariacji czy efektów. Krótko mówiąc, DUPLICATE to must-have każdego, kto chce sprawnie pracować w DAW i poruszać się zgodnie ze standardami profesjonalnych realizatorów dźwięku.

Pytanie 29

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 16 MB
B. 10 MB
C. 5 MB
D. 24 MB
Nagranie w formacie CD-Audio (standard Red Book) zapisuje dźwięk stereo z parametrami 44,1 kHz próbkowania i 16 bitów na próbkę dla każdego z dwóch kanałów. To daje 16 bitów × 2 kanały × 44 100 próbek na sekundę = 1 411 200 bitów na sekundę, czyli 176 400 bajtów na sekundę (bo 1 bajt to 8 bitów). Dla czasu trwania 1 minuta i 30 sekund, czyli 90 sekund, całkowity rozmiar pliku wynosi 176 400 × 90 = 15 876 000 bajtów. W praktyce to prawie 16 MB (jeżeli 1 MB przyjmiemy jako 1 048 576 bajtów, bo tak jest najczęściej w informatyce). Warto wiedzieć, że formaty nieskompresowane, takie jak WAV bez kompresji albo właśnie CD-Audio, szybko generują duże pliki, dlatego w nagraniach studyjnych czy archiwizowaniu materiału audio zawsze trzeba przewidzieć dużo miejsca na dysku lub płytach. Spotkałem się z sytuacją, że ktoś zaskoczony był rozmiarem zrzutów z płyt CD – z tego właśnie powodu. W branży multimedialnej standardy takie jak Red Book są podstawą, a szybkie wyliczenie rozmiaru pliku to przydatna umiejętność w codziennej pracy z audio. Moim zdaniem warto to umieć, bo często pozwala to lepiej planować zgrywanie, archiwizację czy transport plików między urządzeniami.

Pytanie 30

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Pięciokrotny.
B. Dwukrotny.
C. Trzykrotny.
D. Czterokrotny.
Wzrost poziomu sygnału o 10 dB jest w akustyce uważany za taki, który odpowiada mniej więcej podwojeniu subiektywnie odczuwanej głośności przez człowieka. To wynika z właściwości ludzkiego słuchu – reagujemy logarytmicznie na zmiany natężenia dźwięku, a nie liniowo. Ta zasada jest szeroko stosowana w branży audio, przy projektowaniu sprzętu nagłośnieniowego, systemów alarmowych czy chociażby przy kalibracji studiów nagraniowych. Przykład praktyczny? Jeżeli ustawisz jeden głośnik na 70 dB SPL, a drugi na 80 dB SPL, ten drugi będzie wydawał się mniej więcej dwa razy głośniejszy. W mojej praktyce wielokrotnie spotykałem się z tym, że ludzie nie doceniają, jak powolny jest przyrost subiektywnej głośności, bo 10 dB to wcale nie jest jakaś ogromna różnica, jeśli chodzi o moc sygnału – to jest jej dziesięciokrotny wzrost! Jednak dopiero nasze uszy odbierają to jako dwa razy głośniej. Takie podejście znajdziesz choćby w normach ISO 226 czy zaleceniach EBU dotyczących emisji sygnałów audio. Warto zapamiętać tę zasadę, bo pozwala lepiej ustawiać poziomy w miksie, uniknąć niepotrzebnego przesterowania czy zbyt głośnych reklam – a jednocześnie zrozumieć, dlaczego czasami użytkownikom wydaje się, że podkręcenie głośności nie daje tak dużego efektu, jak oczekiwali. Ogólnie, dobre praktyki nakazują ostrożność przy manipulowaniu poziomami dźwięku – zwłaszcza, że różne osoby mogą też trochę różnie odbierać te zmiany, ale reguła 10 dB = 2x głośniej działa naprawdę nieźle w większości przypadków.

Pytanie 31

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -1 dB Peak/ -9 dB RMS
B. -0,3 dB Peak/ -7 dB RMS
C. -0,1 dB Peak/ -8 dB RMS
D. -3 dB Peak/ -12 dB RMS
Wybrałeś parę -0,3 dB Peak oraz -7 dB RMS, co faktycznie wskazuje na nagranie o najwyższym średnim poziomie głośności. W praktyce RMS (Root Mean Square) to miara uśrednionej energii sygnału, która zdecydowanie lepiej niż peak opisuje realnie odbieraną przez ucho 'moc' dźwięku. W branży muzycznej czy radiowej to właśnie RMS mówi nam, jak głośne odczuwalnie jest nagranie, bo szczytowe wartości (Peak) mogą być wysokie, ale trwać bardzo krótko i nie przekładać się na całościową siłę utworu. Moim zdaniem, jeśli zależy Ci na tzw. loudness wars i przebiciu się na platformach streamingowych, patrzysz przede wszystkim na RMS albo LUFS, bo to one decydują o tym, czy Twój kawałek nie zostanie automatycznie ściszony przez algorytm. Warto pamiętać, że wartości RMS powyżej -8 dB uważane są już za bardzo głośne, zbliżone do popularnych nagrań radiowych, a -7 dB RMS to wręcz granica kompresji, którą łatwo usłyszeć przez utratę dynamiki. W praktyce miksując, dążymy do kompromisu: peak poniżej 0 dBFS, żeby nie przesterować, ale RMS jak najwyższy, nie tracąc przy tym naturalności brzmienia. Standardy radiowe czy streamingowe (np. Spotify, Apple Music) nakazują pilnować tych poziomów, bo za głośne utwory i tak zostaną przyciszone. Z mojego doświadczenia -7 dB RMS to już naprawdę głośno i nie warto przesadzać, bo można zniszczyć detal i przestrzeń. Dobrze wiedzieć, czemu te liczby są tak istotne w praktyce!

Pytanie 32

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Recent Session
B. Create Empty Session
C. Create Session from Template
D. Open Last Session
Wybrana opcja 'Create Session from Template' to właśnie to, o co chodzi w profesjonalnej pracy z DAW-ami. Tak naprawdę, korzystanie z szablonów przy tworzeniu nowej sesji to ogromna oszczędność czasu, zwłaszcza jeśli często nagrywasz lub miksujesz podobne projekty. W praktyce wygląda to tak: masz przygotowany szablon z ustawionymi torami audio, MIDI, grupami, efektami czy routowaniem – nie musisz za każdym razem wszystkiego konfigurować od zera. Szablony są wykorzystywane nawet w dużych studiach nagraniowych, gdzie workflow musi być szybki i powtarzalny, zgodnie z dobrymi praktykami branżowymi. Moim zdaniem, dobrze jest mieć kilka własnych szablonów, np. do miksowania podcastów, produkcji beatów czy masteringu. Często szablony zawierają już konkretne ustawienia kompresorów, EQ, grup Aux, a nawet specyficzne routing dla wokali, perkusji czy instrumentów wirtualnych. W profesjonalnych środowiskach pracy mówi się wręcz, że szablon to podstawa wydajności. Oczywiście można pracować od zera, ale z mojego doświadczenia – im więcej projektów, tym bardziej docenia się tę opcję. Warto nad tym chwilę posiedzieć i stworzyć własny workflow oparty na szablonach. To nie tylko wygoda – to też konsekwencja w brzmieniu i organizacji sesji.

Pytanie 33

Które z wymienionych określeń dotyczy nagrania dialogów służącego jako wzorzec do montażu postsynchronów?

A. Ujęcie.
B. Pilot.
C. Setka.
D. Dubel.
Nagranie określane jako „pilot” to absolutny fundament przy pracy z postsynchronami w produkcji filmowej czy telewizyjnej. Pilot to nic innego jak robocze nagranie dźwięku, które rejestruje dialogi aktorów podczas zdjęć na planie, często razem z szumami tła, odgłosami planu czy innymi przypadkowymi dźwiękami. Chociaż taki dźwięk z pilota nie jest używany w finalnym montażu, to jednak pełni kluczową rolę – jest punktem odniesienia dla aktorów oraz realizatorów dźwięku podczas nagrywania postsynchronów w studiu. Bez pilota trudno byłoby zsynchronizować kwestie mówione z obrazem, bo aktorzy muszą odtworzyć dokładnie ten sam rytm, intonację i emocje, jakie były obecne na planie. Moim zdaniem, właśnie takie rozwiązanie znacząco podnosi jakość końcowego dźwięku, bo pozwala uniknąć sztuczności i niezgodności ruchu warg. Stosowanie pilota to też dobra praktyka branżowa, którą zalecają zarówno polskie, jak i międzynarodowe standardy pracy z dźwiękiem filmowym. Co ciekawe, czasem zdarza się, że niektóre fragmenty ścieżki pilotowej zostają w końcowym miksie, gdy np. postsynchrony wypadają gorzej pod względem emocji. Warto więc zawsze o tym pamiętać, bo pilot to nie tylko narzędzie techniczne, ale też ważny element całego procesu dźwiękowego.

Pytanie 34

Zjawisko maskowania dźwięku polega na

A. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
B. generowaniu przez ucho tonów harmonicznych.
C. spadku słyszalności tonów wysokich podczas głośnego słuchania.
D. zmianie barwy dźwięku w zależności od głośności.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 35

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. MASTER
C. FX
D. AUX
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 36

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. usunięcia szumów własnych miksera.
B. usunięcia dudnienia i wibracji.
C. kształtowania barwy blach hi-hatu.
D. regulowania barwy stopy perkusji.
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.

Pytanie 37

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 10 GB danych.
B. 100 GB danych.
C. 25 GB danych.
D. 50 GB danych.
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.

Pytanie 38

Lista oznaczona skrótem FX to lista

A. ścieżek lektorskich.
B. efektów specjalnych.
C. plików MIDI.
D. klipów.
Skrót FX w technice audio-wideo oznacza efekty specjalne (ang. effects), co jest powszechnie stosowane nie tylko w profesjonalnych studiach filmowych, ale też w prostych programach do montażu dźwięku czy obrazu. Lista FX to nic innego jak zestaw efektów, które możesz zastosować do pojedynczych klipów, ścieżek czy całych projektów. W praktyce, w programach takich jak Adobe Premiere, Cubase czy nawet DaVinci Resolve, masz specjalną zakładkę FX, gdzie wrzucasz takie rzeczy jak pogłos, korekcja barwy, echa, filtry czy bardziej zaawansowane przekształcenia obrazu. To zdecydowanie nie jest lista klipów ani plików MIDI, bo te mają osobne kategorie i oznaczenia. Spotkasz się z tym w branży praktycznie na każdym kroku – wystarczy spojrzeć na listy presetów czy gotowych łańcuchów efektów, gdzie pod FX kryją się te wszystkie „bajery”, które nadają brzmieniu lub obrazowi charakter. Moim zdaniem warto pamiętać, że dobra organizacja efektów pod FX ułatwia szybkie eksperymentowanie i workflow, a w dużych projektach bez tego można się pogubić. Profesjonaliści zawsze starają się trzymać efekty pod ręką i mieć porządek na liście FX – to po prostu ułatwia życie i przyspiesza pracę. Z mojego doświadczenia, jeśli ktoś mówi „dopisz to do FX”, wiadomo od razu, że chodzi o efekty specjalne, nie żadne lektorskie ścieżki czy MIDI. No, taka branżowa oczywistość.

Pytanie 39

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Mute
C. Split
D. Copy
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 40

Znaczniki w sesji programu DAW należy umiejscowić na osi

A. Timeline
B. Tempo
C. Meter
D. Markers
Markers to narzędzie w DAW, które służy do oznaczania konkretnych punktów na osi czasu (timeline) projektu. W praktyce, gdy pracujemy nad większym projektem muzycznym albo postprodukcją audio, bardzo często wstawiamy znaczniki, żeby na szybko wrócić do ważnych miejsc – na przykład refrenu, wejścia wokalu czy początku nowej sceny. W większości profesjonalnych programów DAW, jak Ableton Live, Pro Tools czy Cubase, sekcja Markers znajduje się zwykle nad główną linią czasu i można ją łatwo edytować, przesuwać, opisywać. To właśnie Markers pozwalają na szybkie poruszanie się po projekcie oraz ułatwiają współpracę z innymi osobami (np. ktoś od miksu od razu widzi, gdzie jest bridge albo gdzie trzeba poprawić błąd). Z mojego doświadczenia, bez znaczników praca nad bardziej skomplikowanymi utworami potrafi być naprawdę męcząca – ciągle trzeba przewijać i szukać tych samych miejsc. Warto pamiętać, że korzystanie z Markers jest uważane za dobrą praktykę branżową, bo zwiększa efektywność, porządek i przejrzystość całej sesji. Jeszcze jedna rzecz: Markers nie mają wpływu na dźwięk czy tempo, służą głównie do nawigacji i organizacji, co moim zdaniem jest ich największym atutem.