Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 22 kwietnia 2026 10:12
  • Data zakończenia: 22 kwietnia 2026 11:03

Egzamin niezdany

Wynik: 0/40 punktów (0,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. De-noiser.
B. Ekspander.
C. De-esser.
D. Filtr LP.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to absolutna podstawa jeśli chodzi o profesjonalną obróbkę nagrań głosu, zwłaszcza lektorskiego czy wokalnego. Ten procesor dynamiczny specjalizuje się w ograniczaniu poziomu sybilantów, czyli głosek takich jak „s”, „sz”, „z”, które występują w paśmie częstotliwości zwykle pomiędzy 4 a 9 kHz. Akurat w tych zakresach sybilanty potrafią być bardzo nieprzyjemne dla ucha, szczególnie jeśli nagranie jest mocno skompresowane lub później odtwarzane na słuchawkach czy radiówkach FM. De-esser pracuje podobnie do kompresora, ale reaguje tylko na określony wycinek pasma – wyłapuje i „przycisza” fragmenty, gdzie poziom tych częstotliwości przekracza ustalony próg. W praktyce jest to must-have przy nagraniach lektorskich, podcastach, audiobookach czy nawet wokalach muzycznych – w sumie wszędzie tam, gdzie liczy się komfort słuchacza i przejrzystość przekazu. Moim zdaniem, nawet najlepszy mikrofon czy przedwzmacniacz nie zniweluje sibilantów tak skutecznie i muzykalnie jak dobrze ustawiony de-esser. W branży audio jest to uznany standard – praktycznie każda sesja mikserska z udziałem ludzkiego głosu przechodzi przez etap de-essingu. Co ciekawe, nowoczesne de-essery potrafią być bardzo selektywne, można ustawić konkretne pasmo działania i czułość, więc nie ma obaw, że sygnał stanie się matowy czy nienaturalny. To świetne narzędzie, zdecydowanie warto je znać i stosować.

Pytanie 2

Który z wymienionych filtrów umożliwia usunięcie niskoczęstotliwościowych zakłóceń pojawiających się w nagraniu plenerowym na skutek podmuchów wiatru na mikrofon?

A. High Shelf Filter.
B. Low-Pass Filter.
C. Comb Filter.
D. High-Pass Filter.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
High-Pass Filter to absolutny standard w eliminowaniu niskoczęstotliwościowych zakłóceń, takich jak podmuchy wiatru rejestrowane przez mikrofon w terenie. Działa to w taki sposób, że filtr po prostu „odcina” wszystko, co jest poniżej ustalonej częstotliwości granicznej – najczęściej w okolicach 80–120 Hz w przypadku nagrań terenowych i pracy z głosem. Dzięki temu pozbywamy się niepożądanych dźwięków, np. dudnień, buczenia czy właśnie tych męczących uderzeń powietrza w mikrofon. To rozwiązanie spotkasz zarówno w sprzęcie studyjnym, jak i w polowych rejestratorach dźwięku, a nawet wtyczkach DAW. Moim zdaniem, jeśli ktoś planuje nagrywać na zewnątrz, to korzystanie z high-pass filtra jest trochę jak zapięcie pasów w aucie – po prostu warto. W branży zaleca się, by taki filtr był wręcz aktywowany „na stałe” przy nagrywaniu mowy lub wokalu na zewnątrz, oczywiście z zachowaniem ostrożności, żeby nie wyciąć zbyt dużo z naturalnego brzmienia. To proste narzędzie, ale jego wpływ na czystość i czytelność nagrań jest ogromny. W praktyce często wystarczy jeden klik i nagle nagranie staje się o wiele bardziej profesjonalne i przyjemne w odsłuchu. Warto też pamiętać, że niektóre mikrofony mają takie filtry wbudowane fizycznie, co jeszcze bardziej ułatwia pracę.

Pytanie 3

Pliki dźwiękowe w projekcie należy znormalizować poprzez zastosowanie

A. normalizacji.
B. korekcji.
C. procesorów dynamicznych Noise Gate.
D. automatyki panoramy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Normalizacja plików dźwiękowych to jedna z podstawowych czynności w obróbce audio, szczególnie jeśli chcemy, żeby wszystkie nagrania w projekcie brzmiały spójnie pod względem głośności. Chodzi w niej o to, żeby zbliżyć maksymalny poziom sygnału do wybranego punktu odniesienia, zwykle 0 dBFS, ale bez przekraczania granicy i wchodzenia w przesterowanie. Moim zdaniem, normalizacja to taki must-have w każdym projekcie, kiedy masz wiele źródeł – na przykład dialogi z różnych mikrofonów, efekty, muzykę – i nie chcesz, żeby coś znienacka było za cicho lub za głośno. W praktyce wygląda to tak: program DAW analizuje poziom najgłośniejszego fragmentu ścieżki i całość odpowiednio „podciąga” lub „zdejmuje”, by ustawić go na zadanym poziomie. To nie zmienia dynamiki materiału (w przeciwieństwie do kompresji), więc cały charakter nagrania zostaje zachowany. W branży filmowej, podcastowej czy nawet przy miksie muzycznym uznaje się to za dobrą praktykę porządkującą projekt. Szczerze mówiąc, jak ktoś zaczyna miks bez normalizacji, to potem może się nieźle namęczyć z nierówną głośnością, a przecież chodzi o komfort słuchacza. Co ciekawe, niektórzy inżynierowie używają jeszcze normalizacji do określonego LUFS (np. -23 LUFS w broadcast), ale to już wyższa szkoła jazdy.

Pytanie 4

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Kompresor.
B. Ekspander.
C. Crossover.
D. Korektor.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 5

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. ∞:1
C. 1,4:1
D. 6:1

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Limiter, w odróżnieniu od zwykłych kompresorów, charakteryzuje się nieskończonym, czyli teoretycznie ∞:1 stopniem kompresji. To oznacza, że gdy sygnał przekroczy ustawiony próg (threshold), nie jest on wcale przepuszczany dalej, a poziom wyjściowy nie może wzrosnąć powyżej tego progu. W praktyce oznacza to bardzo agresywną ochronę przed przesterowaniem – żadna wartość powyżej thresholdu się nie przebije. Branżowe standardy, np. w nagłośnieniu koncertowym czy przy masteringu, jednoznacznie przypisują limiterom właśnie ten typ działania. Przykładowo, w miksie nagrań radiowych limiter ustawia się na końcu łańcucha, by nie dopuścić do przekroczenia 0 dBFS i uniknąć zniekształceń cyfrowych. Niektóre nowoczesne limitery oferują dodatkowe funkcje – look-ahead, soft clipping, czy programowane krzywe ataku i release – ale zawsze sednem jest ta nieskończona kompresja. Moim zdaniem, znając ten parametr, łatwiej świadomie korzystać z narzędzi do obróbki dynamiki i lepiej chronić materiał audio przed niechcianym przesterem. Warto pamiętać, że zwykłe kompresory (o stopniach np. 2:1 czy 6:1) stosuje się do subtelniejszego kształtowania dynamiki, a nie twardej ochrony poziomów sygnału.

Pytanie 6

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Ustalenia panoramy śladów.
B. Korekty barwy poszczególnych śladów.
C. Wzmocnienia cichych fragmentów nagrania.
D. Ustalenia poziomów głośności śladów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 7

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Bramka szumów.
B. Kompresor.
C. Ekspander.
D. Korektor tercjowy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 8

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Predelay.
B. Decay.
C. Diffusion.
D. Type.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Predelay w efektach typu Reverb to naprawdę jeden z tych parametrów, które potrafią bardzo mocno wpłynąć na charakterystykę przestrzeni, jaką budujemy w miksie. Pozwala on ustawić czas (w milisekundach) między momentem pojawienia się dźwięku źródłowego a pierwszym słyszalnym odbiciem od „ścian” wirtualnej przestrzeni. To bardzo przydatne, szczególnie gdy chcemy, żeby oryginalny sygnał był bardziej czytelny i nie zlewał się od razu z pogłosem – daje to trochę „oddechu” instrumentom czy wokalom. W praktyce, kiedy miksuję wokal albo gitarę akustyczną, często eksperymentuję z predelay, żeby uzyskać bardziej naturalny efekt i nie zamazać transjentów. Producenci audio i inżynierowie dźwięku od lat zwracają uwagę na ustawienie predelay, szczególnie przy dynamicznych aranżacjach. Branżowe standardy jasno sugerują, żeby predelay dobierać w odniesieniu do tempa utworu – np. 1/16 czy 1/32 nuty, żeby pogłos nie przeszkadzał w groove. Moim zdaniem wiele osób lekceważy ten parametr, a to on decyduje o tym, czy dźwięk jest „z przodu” czy już w głębi miksu. Warto poeksperymentować i przekonać się, jak sporo można uzyskać, dostosowując tylko ten jeden suwak.

Pytanie 9

Którego toru wirtualnego miksera w programie DAW należy użyć do obróbki równoległej dźwięku za pomocą efektu pogłosu?

A. Aux.
B. MIDI.
C. Instrument.
D. Audio.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Aux to prawdziwy król, jeśli chodzi o obróbkę równoległą, szczególnie w przypadku efektu pogłosu. W wirtualnych mikserach DAW tworzy się tory typu Aux (czasem nazywane też Send/Return), żeby wysyłać na nie sygnał z różnych ścieżek i tam wspólnie go przetwarzać jednym efektem. Dlatego nie musisz wrzucać kilku pogłosów na każdą ścieżkę osobno, co oszczędza moc obliczeniową i daje większą kontrolę nad proporcjami efektu. To bardzo wygodne, bo np. wokal, gitara i werbel mogą korzystać z tego samego pogłosu, ale każdy w innym natężeniu (regulujesz to gałką send na każdej ścieżce). Z mojego doświadczenia, jeśli chcesz edytować efekt globalnie lub automatyzować jego parametry w jednym miejscu – tor Aux to najlepsza opcja. Tak się robi w każdym profesjonalnym studiu i tego wymagają nawet podstawowe standardy miksu. Ciekawostka: ten sposób pozwala uzyskać bardziej spójne przestrzenie w miksie, bo wszystkie ślady „siedzą” w tym samym pomieszczeniu, czyli brzmią naturalnie. Oczywiście są sytuacje, gdzie lepiej użyć insertu, ale przy równoległej obróbce, szczególnie z pogłosem, tor Aux jest bezkonkurencyjny. No i przy masteringu też się czasem przydaje, tylko już trochę bardziej zaawansowane rzeczy wtedy się robi.

Pytanie 10

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Kompresja.
C. Filtrowanie.
D. Konwersja.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtrowanie to absolutna podstawa, jeśli chodzi o eliminację niepożądanych częstotliwości w nagraniu – szczególnie takich jak przydźwięk sieciowy, czyli popularne brumienie 50 Hz (albo 60 Hz w niektórych krajach). W praktyce wykorzystuje się zazwyczaj tzw. filtr grzebieniowy albo filtr Notch (wąskopasmowy filtr wycinający konkretną częstotliwość), który pozwala bardzo precyzyjnie usunąć ten dźwięk bez znacznej utraty jakości całego materiału. Często trzeba dobrać filtr o odpowiednio wąskim zakresie, żeby przypadkiem nie wyciąć przy okazji innych istotnych elementów. No i warto pamiętać, że czasem przydźwięk pojawia się także w postaci harmonicznych (czyli wielokrotności tej częstotliwości) – wtedy najlepiej zastosować kilka filtrów Notch, ustawionych na kolejne harmoniczne: 50, 100, 150 Hz itd. W praktyce studyjnej filtrowanie to podstawowa technika walki z zakłóceniami pochodzącymi z sieci elektrycznej i jest zgodna z dobrymi praktykami branżowymi – praktycznie każdy program DAW, czy to Ableton, Cubase, Pro Tools albo nawet Reaper, ma gotowe narzędzia do tego typu operacji. Moim zdaniem bez umiejętności stosowania filtrów trudno mówić o profesjonalnej postprodukcji dźwięku – to jedna z tych rzeczy, które po prostu się robi, zamiast kombinować z innymi efektami. Filtry są precyzyjne i, przy dobrym ustawieniu, praktycznie nie wpływają negatywnie na resztę miksu.

Pytanie 11

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Fade out.
C. Freeze.
D. Mute.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fade out to pojęcie szeroko wykorzystywane w branży muzycznej, filmowej i dźwiękowej, które oznacza stopniowe wyciszanie dźwięku aż do całkowitej ciszy. Moim zdaniem to bardzo przydatna technika zarówno w miksie audio, jak i w montażu wideo, bo pozwala płynnie zakończyć utwór lub fragment nagrania, nie pozostawiając słuchacza z nagłym urwaniem. Z mojego doświadczenia wynika, że fade out wykorzystuje się często przy końcówkach piosenek, kiedy nie planuje się konkretnej kulminacji, tylko dyskretny koniec. W programach typu DAW (Digital Audio Workstation), takich jak Ableton Live, Pro Tools czy Cubase, standardem jest, by ścieżki audio kończyć właśnie fade outem, zamiast brutalnego cięcia. Z perspektywy słuchacza daje to poczucie profesjonalizmu i dbałości o szczegóły. Dobre praktyki branżowe sugerują, żeby fade out był odpowiednio długi – przeważnie od kilku do nawet kilkunastu sekund, w zależności od gatunku i charakteru utworu. Ciekawe jest to, że fade out może być liniowy (stała prędkość wyciszania) lub wykorzystywać krzywe logarytmiczne, co pozwala uzyskać bardziej naturalny, „ludzki” efekt. Warto wiedzieć, że fade out stosuje się też w efektach dźwiękowych do filmów, by nie było nienaturalnych „kliknięć” przy nagłych ucięciach dźwięku. Jest to technika, której nie da się przecenić w pracy z dźwiękiem – osobiście uważam ją za obowiązkową praktykę w większości projektów audio.

Pytanie 12

Którego ze złącz zewnętrznego procesora dźwięku należy użyć, w celu przesłania cyfrowego sygnału audio do montowanej sesji dźwiękowej?

A. WORLD CLOCK OUT
B. USB TO HOST
C. MIDI OUT
D. AES/EBU OUT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór złącza AES/EBU OUT to zdecydowanie właściwe podejście, jeśli chodzi o przesyłanie cyfrowego sygnału audio do sesji montażowej. Standard AES/EBU (Audio Engineering Society/European Broadcasting Union) to jedno z najbardziej uznanych rozwiązań w profesjonalnych studiach dźwiękowych, szeroko stosowane zarówno w broadcastingu, jak i przy produkcji muzycznej. Pozwala na transmisję wysokiej jakości sygnału audio w postaci cyfrowej, bez konwersji na postać analogową – to, jak dla mnie, największy plus, bo nie tracimy jakości i nie łapiemy niepotrzebnych zakłóceń. W praktyce ten standard jest też bardzo odporny na zakłócenia elektromagnetyczne, bo przesyła dane symetrycznie, co jest ogromną zaletą w wymagającym środowisku studia. Przy profesjonalnych projektach dźwiękowych, zwłaszcza jeśli miksujemy na dużym stole lub korzystamy z cyfrowych rejestratorów i interfejsów, użycie AES/EBU to po prostu standardowa dobra praktyka. Z mojego doświadczenia wynika, że większość lepszych interfejsów audio i cyfrowych mikserów już dziś ma takie złącza. Oprócz tego, warto pamiętać, że ten protokół umożliwia przesyłanie nie tylko dźwięku stereo, ale i dodatkowych danych, co może się przydać przy bardziej zaawansowanych sesjach. Jeśli zależy Ci na czystości sygnału i profesjonalnym workflow, to nie wyobrażam sobie innego rozwiązania.

Pytanie 13

Która z funkcji dostępnych w sesji montażowej programu DAW umożliwia efekt płynnego przejścia między dwoma fragmentami nagrania ułożonymi na tej samej ścieżce?

A. Overlap.
B. Cross-fade.
C. Slide.
D. Detect transient.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Właśnie o to chodzi w cross-fade! Ta funkcja jest jednym z najczęściej używanych narzędzi podczas montażu audio w DAW-ach, takich jak Ableton Live, Cubase czy Pro Tools. Cross-fade polega na równoczesnym wygaszaniu końcówki pierwszego fragmentu i narastaniu początku drugiego, co pozwala na uzyskanie płynnego, niemalże niewyczuwalnego przejścia między dwoma nagraniami na tej samej ścieżce. Dzięki temu unikamy charakterystycznych kliknięć, nagłych skoków głośności albo nienaturalnych zmian brzmienia, które mogą powstać przy zwykłym sklejeniu plików. Z mojego doświadczenia przy obróbce wokali czy gitar cross-fade jest absolutnie nie do przecenienia – pozwala zatuszować wszelkie drobne nierówności albo pokryć przejścia, które bez tego byłyby po prostu słyszalne jako cięcia. Branżowym standardem jest zawsze stosować cross-fady tam, gdzie łączymy dwa fragmenty tej samej partii – to nie tylko wygoda, ale i profesjonalizm, bo słuchacz nie ma prawa zauważyć, że cokolwiek było edytowane. Warto wspomnieć, że DAW-y często pozwalają regulować kształt krzywej cross-fade (np. liniowa, logarytmiczna, S-curve), co dodatkowo daje kontrolę nad charakterem przejścia. Takie narzędzie to podstawa warsztatu montażysty audio, niezależnie od stylu muzycznego czy poziomu zaawansowania.

Pytanie 14

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. De-esser.
B. Ekspander.
C. Filtr LP.
D. De-noiser.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to bardzo użyteczne narzędzie w obróbce dźwięku, szczególnie gdy mamy do czynienia z nagraniami lektorskimi czy wokalem. Jego główną rolą jest selektywna kompresja pasma częstotliwości, gdzie występują tzw. głoski syczące, czyli głównie „s”, „sz”, „cz” i podobne. Najczęściej są one zlokalizowane gdzieś w zakresie 4–10 kHz, choć wszystko zależy od charakterystyki głosu i mikrofonu. Moim zdaniem, dobrze ustawiony de-esser potrafi zdziałać cuda – usuwa drażniące podbicia sybilantów bez uszczerbku dla reszty nagrania. W praktyce realizatorskiej korzysta się z niego niemal zawsze przy nagraniach głosu, bo nawet bardzo dobre mikrofony studyjne „łapią” czasem zbyt mocne „syczenia”. To urządzenie nie tylko poprawia jakość odsłuchu, ale też sprawia, że głos jest bardziej zrozumiały i mniej męczący dla słuchacza. Poza tym, de-esser często jest wykorzystywany zgodnie z profesjonalnymi workflow w studiach radiowych, podcastowych czy przy produkcji audiobooków. Warto pamiętać, że używanie filtra LP czy de-noisera nie daje takich precyzyjnych efektów, bo one działają szerzej – de-esser skupia się typowo na bardzo wąskim paśmie i reaguje tylko wtedy, gdy poziom sybilantów przekracza ustalone threshold. Z mojego doświadczenia wynika, że regularne stosowanie de-essera to po prostu podstawa nowoczesnego miksu głosu. Warto nauczyć się go dobrze ustawiać, bo wtedy efekty są naprawdę profesjonalne.

Pytanie 15

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Korektor tercjowy.
B. Bramka szumów.
C. Ekspander.
D. Kompresor.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to narzędzie, które według mnie jest absolutnie podstawowe w pracy z dźwiękiem – zwłaszcza kiedy trzeba panować nad zbyt dużą rozpiętością dynamiczną nagrań. W praktyce, kompresor działa w ten sposób, że gdy sygnał dźwiękowy przekracza ustalony próg (tzw. threshold), urządzenie automatycznie ścisza te najgłośniejsze fragmenty, a przez to całość staje się bardziej wyrównana pod względem głośności. Przykład z życia: wokale w muzyce pop, nagrania podcastów, czy miksowanie perkusji – w każdym z tych przypadków kompresor pozwala na lepsze „osadzenie” dźwięków w miksie, bez ryzyka nieprzyjemnych skoków głośności. Z mojego doświadczenia wynika, że dobrze użyty kompresor potrafi całkowicie odmienić brzmienie nagrania, sprawiając, że jest ono bardziej „radiowe” i czytelne. Zasada działania kompresora wpisuje się w kanon branżowych praktyk – praktycznie każdy realizator dźwięku korzysta z tego narzędzia na różnych etapach produkcji. Zwracam uwagę, że ustawienie parametrów takich jak ratio, attack czy release wymaga wprawy, bo niewłaściwie ustawiony kompresor może bardziej zaszkodzić niż pomóc. Warto też pamiętać, że choć istnieją inne procesory dynamiki, to właśnie kompresor jest tym, który rzeczywiście zawęża zakres dynamiki sygnału – i to w sposób kontrolowany, zgodnie z zamysłem realizatora.

Pytanie 16

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 20 Hz – 249 Hz
B. 250 Hz – 999 Hz
C. 1 000 Hz – 1 999 Hz
D. 2 000 Hz – 20 000 Hz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 17

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 6 dB/okt.
B. 12 dB/okt.
C. 24 dB/okt.
D. 18 dB/okt.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 18

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. modulację dźwięku.
B. poszerzenie dynamiki sygnału.
C. odwrócenie fazy sygnału.
D. ograniczenie niskich tonów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 19

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma regionami dźwiękowymi?

A. GLUE
B. PASTE
C. CROSSFADE
D. MERGE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Crossfade to naprawdę podstawowa funkcja w praktycznie każdym nowoczesnym DAW, bez której ciężko sobie wyobrazić wygodną pracę z edycją audio. Chodzi tutaj o takie płynne połączenie dwóch sąsiednich regionów dźwiękowych, żeby nie było żadnego charakterystycznego kliku, przeskoku czy dziwnego przerywania dźwięku. Crossfade sprawia, że końcówka jednego regionu nakłada się z początkiem drugiego, a całość zostaje automatycznie wymiksowana i zblendowana – efekt to naturalnie brzmiąca całość, która nawet przy gwałtownych cięciach nie zdradza, że coś było edytowane. Moim zdaniem, to jedna z tych opcji, które naprawdę ratują skórę przy montażu wokalu czy perkusji, bo przecież w praktyce nagrania rzadko kiedy są idealnie czyste i zawsze trzeba coś pociąć, przestawić, podmienić. W branży muzycznej i postprodukcyjnej crossfade to po prostu standard – znajdziesz go w Cubase, Logic, Pro Tools czy Ableton Live. Dobrą praktyką jest nawet ustawić automatyczny crossfade dla każdego połączenia regionów, żeby nie musieć poprawiać później artefaktów. Jeśli chcesz, żeby Twój montaż był profesjonalny, ta funkcja to absolutna podstawa i warto ją dobrze poznać, bo można nią też kreatywnie manipulować długością i kształtem przejścia – na przykład dla uzyskania efektu morphingu czy delikatnego zanikania. Krótko mówiąc, crossfade to narzędzie, które znacznie podnosi jakość końcowego miksu i jest nieodłącznym elementem workflow każdego realizatora dźwięku.

Pytanie 20

Metoda nałożenia fragmentu dźwięku w miejsce innego określana jest mianem

A. X-Fade
B. Overlap
C. Shuffle
D. No Overlap

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
No Overlap to określenie, które trafnie opisuje sytuację, gdzie fragment dźwięku zostaje umieszczony dokładnie w miejscu innego, bez pozostawiania żadnych nakładających się części. Takie rozwiązanie jest bardzo popularne np. podczas edycji dialogów w postprodukcji filmowej, gdy chcemy wymienić jakieś słowo czy wyrażenie na inne, nie zaburzając przy tym długości całego klipu. Z mojego doświadczenia wynika, że technika ta jest też często stosowana w montażu podcastów i audiobooków – zwłaszcza jeśli zależy nam na szybkim podmienieniu fragmentu, bez słyszalnych efektów przenikania czy sztucznego wydłużenia materiału. W środowiskach takich jak Pro Tools czy Adobe Audition opcja „No Overlap” pozwala na precyzyjne zastąpienie wybranego odcinka nowym nagraniem – to zdecydowanie jedna z podstawowych funkcji profesjonalnego workflow. Warto pamiętać, że to podejście minimalizuje ryzyko powstawania artefaktów dźwiękowych czy przypadkowych przesunięć fazowych. Jeżeli chodzi o standardy branżowe, to właśnie jasne wskazanie, gdzie zaczyna i kończy się dany fragment, jest kluczowe dla zachowania przejrzystości projektu audio. Szczerze mówiąc, nie wyobrażam sobie pracy przy większych sesjach bez tej funkcji – to oszczędność czasu i nerwów, zwłaszcza przy dużych ilościach materiału.

Pytanie 21

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji dynamiki.
B. Po korekcji barwy i dynamiki.
C. Bez korekcji barwy i dynamiki.
D. Po korekcji barwy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest właśnie to, o co chodzi w profesjonalnej pracy z dźwiękiem. Zapis sygnału na wielośladzie bez żadnej korekcji barwy ani dynamiki to podstawa, bo daje największą elastyczność podczas późniejszej obróbki. Moim zdaniem, to jak zostawiasz sobie otwartą furtkę na etapie miksu: masz czysty, nieprzetworzony surowiec i możesz z nim zrobić wszystko, co tylko przyjdzie Ci do głowy. Branżowa praktyka pokazuje, że wszelkie korekcje – czy to EQ, czy kompresja – wprowadzone zbyt wcześnie często są nieodwracalne. Jak coś przetniesz albo skompresujesz już w trakcie nagrań, potem nie da się tego „cofnąć”, a to utrudnia pracę przy miksowaniu. Standardy studyjne są tutaj jednoznaczne – inżynierowie dźwięku trzymają się zasady, żeby nagrywać sygnał jak najczystszy, bez dodatkowych ingerencji. Oczywiście, są wyjątki, na przykład kiedy chcesz zachować konkretny charakter brzmienia z używanego urządzenia czy efektu – wtedy czasem warto coś dodać przy nagraniu. Ale w większości sytuacji to właśnie nieprzetworzony sygnał daje najwięcej możliwości. Tak robią zawodowcy w studiach nagraniowych, gdzie każdy etap obróbki jest przemyślany i możliwy do dopasowania do końcowej wizji brzmieniowej.

Pytanie 22

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LP
B. LM
C. HP
D. HM

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 23

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Kompresja.
B. Nadpróbkowanie.
C. Konwersja.
D. Filtrowanie.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtrowanie to zdecydowanie najbardziej skuteczna metoda na usunięcie przydźwięku sieci energetycznej, czyli charakterystycznego buczenia o częstotliwości 50 Hz (w Polsce i większości Europy) lub 60 Hz (w USA). W praktyce, w programach DAW najczęściej stosuje się filtr dolnoprzepustowy, górnoprzepustowy albo precyzyjnie ustawiony filtr półkowy lub notch filter (filtr szczelinowy), by celowo wyciąć konkretną częstotliwość i jej harmoniczne, bez wpływania na resztę nagrania. Z mojego doświadczenia, najefektywniejsze są właśnie filtry notch, bo potrafią bardzo wąsko zredukować uciążliwy dźwięk, nie ruszając prawie sygnału muzycznego. W branży audio przyjęło się, że przed dalszą obróbką zawsze najpierw usuwa się takie artefakty – to podstawa workflow, żeby potem nie maskować problemu, tylko faktycznie go eliminować. Warto pamiętać, że filtry można łączyć, np. wycinać 50 Hz i kolejne harmoniczne (100 Hz, 150 Hz itd.), jeśli przydźwięk jest mocny. Bardziej zaawansowane narzędzia, jak np. iZotope RX, mają nawet specjalne presety do tego. Filtrowanie jest więc nie tylko najskuteczniejsze, ale też zgodne ze standardami postprodukcji dźwięku. Moim zdaniem każdy inżynier dźwięku powinien mieć to opanowane do perfekcji – przydźwięk sieciowy to bardzo powszechny problem, a filtry są podstawowym narzędziem w jego zwalczaniu.

Pytanie 24

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Normalizacja.
B. Transpozycja.
C. Kompresja.
D. Korekcja.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Normalizacja to proces, który polega na podniesieniu poziomu całego nagrania w taki sposób, żeby jego najwyższa wartość szczytowa (peak) osiągnęła dokładnie 0 dBFS, czyli maksymalny poziom sygnału cyfrowego bez przesterowania. To jedna z najczęściej wykonywanych operacji podczas pracy z dźwiękiem w studiu czy przy montażu podcastów. Dzięki normalizacji uzyskujemy bardziej równomierny poziom głośności między różnymi nagraniami albo plikami audio, co znacznie ułatwia dalszą obróbkę i miksowanie, zwłaszcza w profesjonalnych workflow. Moim zdaniem, to taka podstawowa „higiena” dźwiękowa — nie poprawia dynamiki jak kompresja, ale daje pewność, że żaden plik nie będzie za cichy lub nieprzewidywalnie głośny. Warto wiedzieć, że normalizacja nie zniekształca proporcji między głośniejszymi i cichszymi fragmentami, bo wszystko podnoszone jest równomiernie, czyli nie ucina transjentów ani nie spłaszcza dynamiki, tylko przesuwa całość w górę. Użycie normalizacji jest szczególnie polecane przed eksportem ścieżek do masteringu albo publikacją materiałów w internecie, gdzie ważne są standardy głośności. W branży muzycznej i radiowej często zwraca się uwagę na to, żeby nie przekraczać 0 dBFS, bo wtedy pojawia się clipping — a normalizacja nam właśnie w tym pomaga. Z doświadczenia wiem, że zbyt częste używanie normalizacji na różnych etapach może prowadzić do zgubienia pierwotnej dynamiki, więc lepiej traktować ją jako jeden z ostatnich kroków w procesie produkcji.

Pytanie 25

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. time stretch.
B. de-esser.
C. ogranicznik.
D. reverb.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 26

Który z wymienionych procesorów efektów służy do zmiany wysokości dźwięku o określony interwał muzyczny?

A. Multivoice Chorus
B. HF Exciter
C. Pitch Shifter
D. Classic Phaser

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Pitch Shifter to procesor efektów, który rzeczywiście pozwala na zmianę wysokości dźwięku o określony interwał muzyczny. Ten efekt jest powszechnie stosowany zarówno w produkcji muzycznej, jak i podczas występów na żywo. Moim zdaniem to jedno z bardziej kreatywnych narzędzi, szczególnie jeśli chodzi o wokale – umożliwia uzyskanie efektu harmonizatora, tworzenie podwójnych partii czy nawet całkowitą zmianę charakteru głosu. Standardowo pitch shifter pozwala na przesunięcie dźwięku w górę lub w dół o półtony, całe tony, kwinty, oktawy czy nawet bardziej niestandardowe interwały. Co ciekawe, to rozwiązanie jest wykorzystywane też do korekty intonacji instrumentalnej, na przykład w gitarach podczas nagrań, jeśli trzeba coś „podciągnąć” bez konieczności ponownego rejestrowania ścieżki. W świecie audio pitch shifting jest też podstawą efektów wokalnych w EDM czy popie – na przykład popularny efekt „chipmunk” to nic innego jak przetworzenie wokalu przez shifter ustawiony na wyższą oktawę. Z punktu widzenia realizatora dźwięku, stosowanie pitch shiftera wymaga pewnej ostrożności – przesadzenie z ustawieniami może prowadzić do niepożądanych artefaktów, dlatego najlepszą praktyką jest, moim zdaniem, subtelne dawkowanie tego efektu i słuchanie, jak całość wpisuje się w miks.

Pytanie 27

Który z wymienionych korektorów umożliwia automatyczne dopasowanie charakterystyki częstotliwości nagrania do nagrania wzorcowego?

A. Paragraphic EQ.
B. Matching EQ.
C. Dynamic EQ.
D. Graphic EQ.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Matching EQ to taki korektor, który w mojej opinii trochę zmienił podejście do mixu, szczególnie jak ktoś chce szybko uzyskać podobne brzmienie do jakiegoś referencyjnego utworu. Działa to na zasadzie analizy widma częstotliwościowego nagrania docelowego i porównania go z Twoim materiałem – później EQ automatycznie generuje odpowiednią krzywą korekcji, żeby Twój miks zbliżyć do wzorca. To jest mega przydatne, zwłaszcza przy masteringu, kiedy klient życzy sobie np. „żeby mój kawałek brzmiał jak nowy singiel X”. Wtedy Matching EQ jest wręcz narzędziem pierwszego wyboru, bo pozwala oszczędzić mnóstwo czasu, który normalnie poświęciłbyś na ręczne szukanie tych samych nierówności w częstotliwościach. Przykładem dobrej praktyki jest korzystanie z tej funkcji w połączeniu z własnym odsłuchem – Matching EQ powinien być punktem wyjścia, potem zawsze warto sprawdzić i ręcznie poprawić to, co komputer automatycznie „dopasował”, bo nie zawsze wszystko pasuje muzycznie czy stylistycznie. Ten rodzaj korektora jest obecny w wielu wtyczkach typu Ozone, FabFilter Pro-Q czy nawet niektórych DAW-ach. Z mojego doświadczenia wynika, że Matching EQ świetnie sprawdza się także przy naprawianiu dialogów filmowych – można ujednolicić brzmienie nagrań z różnych mikrofonów. To narzędzie nie zastępuje ucha realizatora, ale bardzo pomaga i jest zgodne z nowoczesnymi workflow w profesjonalnym audio.

Pytanie 28

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. AUDIO
B. MIDI
C. AUX
D. INSTRUMENTS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ścieżka AUX w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, jest od lat podstawą do obsługi efektów typu send/return, zwłaszcza pogłosów czy delayów. Wysyłka sygnału na AUX oznacza, że nie musisz instancjonować efektu pogłosowego osobno na każdej ścieżce – wystarczy jedna instancja pogłosu na AUX, a poszczególne kanały wysyłają do niej sygnał przez sendy. To nie tylko ułatwia miksowanie, ale też znacznie oszczędza zasoby komputera, bo nie kopiujesz tego samego efektu kilka razy. Bardzo często ustawia się tam też kompresory równoległe czy efekty modulacyjne, zależnie od potrzeb miksu. Moim zdaniem, to absolutna podstawa workflow w miksie – praktycznie każdy szanujący się realizator pracuje z AUX-ami. Daje to spójną przestrzeń pogłosową dla wszystkich ścieżek, co brzmi znacznie bardziej naturalnie. Warto też wiedzieć, że w nomenklaturze niektórych DAW AUX może być nazywany jako Bus lub Return, ale funkcja pozostaje ta sama. Dobrą praktyką branżową jest też zostawianie sobie kilku AUX-ów na różne typy pogłosów (np. krótszy na wokal, dłuższy na instrumenty). Taki routing pozwala mieć pełną kontrolę nad ilością efektu na każdej ścieżce i daje mega swobodę kreatywną w miksie.

Pytanie 29

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. AUX
B. MASTER
C. VCA
D. BUS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 30

Zastosowanie kompresora wpływa

A. na usunięcie szumów.
B. na zmniejszenie dynamiki.
C. na poszerzenie dynamiki.
D. na ograniczenie niskich tonów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to jedno z podstawowych narzędzi w obróbce dźwięku i miksowaniu muzyki, zwłaszcza w studiach nagraniowych czy podczas produkcji radiowej. Jego głównym zadaniem jest właśnie zmniejszenie dynamiki sygnału, czyli ograniczenie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami nagrania. Po zastosowaniu kompresora głośne dźwięki stają się cichsze, a ciche mogą być podbite – to daje bardziej wyrównany, profesjonalny efekt finalny. Bez kompresora np. wokal bywa zbyt skokowy, czasem ledwo słyszalny, a czasem za bardzo wybija się ponad inne elementy miksu. Moim zdaniem dobry kompresor w rękach doświadczonego realizatora pozwala uzyskać tę charakterystyczną „spójność” brzmienia, którą słychać w komercyjnych produkcjach. Warto też pamiętać, że kompresja jest wręcz standardem w broadcastingu i masteringu – ciężko sobie wyobrazić gotowy materiał audio bez jakiejkolwiek formy kompresji. Oczywiście, jak ze wszystkim, trzeba uważać, żeby nie przesadzić, bo zbyt mocna kompresja może zabić naturalność i ekspresję wykonania. Ale generalnie, jeśli ktoś chce ogarnąć miks, kompresor to absolutna podstawa w zakresie kontroli dynamiki.

Pytanie 31

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. AUX
B. MASTER
C. VCA
D. GROUP

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to absolutny standard jeśli chodzi o wysyłanie sygnału równoległego w środowisku DAW. W praktyce, kiedy chcemy na przykład dodać pogłos, delay albo nawet subtelny chorus do kilku ścieżek jednocześnie, to właśnie AUX jest tym, czego szukamy. Moim zdaniem, to jedna z podstawowych umiejętności każdego, kto ogarnia miksowanie – dobrze skonfigurowany AUX pozwala nie tylko na oszczędność zasobów komputera, bo nie musisz ładować tego samego efektu na każdą ścieżkę, ale jeszcze daje mega kontrolę nad ilością efektu (tzw. send level) dla każdej z nich. W studyjnych workflow AUX-y są traktowane jako taki „wspólny zbiornik” – sygnał z różnych kanałów trafia tam przez wysyłki, a potem wraca już zmiksowany z efektem do sumy głównej. Często się zapomina, że można też na AUX-ach stosować kreatywne rozwiązania, np. równoległą kompresję. W każdym poważnym DAW, jak Pro Tools, Cubase czy Logic Pro, szyny AUX są domyślnie przeznaczone do takich rzeczy – to wynika z klasycznej architektury konsolet analogowych. Sam fakt, że nazwa „AUX” pochodzi od „auxiliary”, czyli pomocniczy, już sporo mówi. Jak ktoś zacznie świadomie korzystać z AUX-ów, od razu robi się większy porządek w miksie. Z mojego doświadczenia – dobrze ustawiony AUX przyspiesza pracę i pozwala uzyskać lepszy, bardziej przestrzenny sound.

Pytanie 32

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade Out.
B. Fade In.
C. Strip Silence.
D. Noise Gate.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 33

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Korektor.
B. Ekspander.
C. Kompresor.
D. Crossover.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to urządzenie, które rzeczywiście poszerza zakres dynamiki nagrania – czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. W praktyce oznacza to, że przy pomocy ekspandera możemy sprawić, że ciche dźwięki staną się jeszcze cichsze, a głośne pozostaną bez zmian, co wyraźnie zwiększa kontrast i przejrzystość materiału dźwiękowego. Na przykład w studiach nagraniowych często stosuje się ekspandery do redukcji szumów tła czy zminimalizowania niepożądanych dźwięków pomiędzy frazami wokalnymi – jest to bardzo przydatne, gdy chcemy uzyskać klarowny, profesjonalny miks. Ciekawe jest to, że ekspander jest jakby odwrotnością kompresora – zamiast spłaszczać dynamikę, dodaje jej głębi i „powietrza”. Z mojego doświadczenia, używanie ekspandera wymaga pewnej wprawy, bo łatwo przesadzić i zrobić nagranie zbyt „dziurawe”, ale dobrze użyty potrafi zdziałać cuda, szczególnie w realizacji nagrań akustycznych. W branży uznaje się ekspander za narzędzie dość specjalistyczne, ale naprawdę warto je poznać i stosować tam, gdzie zależy nam na naturalności oraz wyrazistej dynamice. Właśnie takie podejście do obróbki dynamicznej materiału jest zgodne z profesjonalnymi standardami produkcji audio.

Pytanie 34

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Distortion
B. Reverbs
C. Modulation
D. Dynamics

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to procesor należący do kategorii procesorów dynamiki, czyli tzw. „Dynamics”. To trochę jak brat kompresora, tylko działa odwrotnie – zamiast ściskać sygnał, rozszerza zakres dynamiki. W praktyce ekspander tłumi ciche dźwięki, sprawiając, że jeszcze bardziej się różnią od głośnych. Używa się go np. do wycinania szumów tła w nagraniach wokalnych albo do oczyszczania ścieżek perkusyjnych, gdy chcemy, żeby werbel czy stopa były mocne i selektywne, a przeszkadzające drobne dźwięki znikały. W branży muzycznej standardowo zaleca się stosować ekspander właśnie w sekcji dynamiki, na etapie miksu czy nawet już przy nagrywaniu. Daje to większą kontrolę nad poziomem głośności i czytelnością śladów. Moim zdaniem, dobrze dobrany ekspander potrafi naprawdę uratować brzmienie, zwłaszcza przy słabej akustyce pomieszczenia lub kiedy nagrywamy wokale w domu i walczymy z hałasami zza ściany. Dużo realizatorów dźwięku korzysta z ekspanderów w połączeniu z innymi efektami, żeby uzyskać profesjonalne, dynamiczne brzmienie. Warto pamiętać, że wszystkie procesory z tej grupy – kompresory, bramki szumów, ekspandery – służą do kontroli dynamiki i często pracują ze sobą na jednej ścieżce. To taki podstawowy workflow w każdym DAW-ie.

Pytanie 35

Który z wymienionych procesorów dostępnych w sesji montażowej programu DAW umożliwia usunięcie przesłuchów występujących np. na ścieżce lektora pomiędzy jego wypowiedziami?

A. Limiter
B. Exciter
C. Bramka
D. De-esser

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Bramka szumów (ang. gate) to jedno z tych narzędzi w arsenale inżyniera dźwięku, które naprawdę potrafi zmienić jakość nagrania, zwłaszcza jeśli pracujesz z materiałem, gdzie na ścieżkach pojawiają się niechciane dźwięki czy przesłuchy – typowy przykład to wokal z domieszką dźwięków otoczenia czy szumów pomiędzy frazami lektora. Bramka działa w ten sposób, że automatycznie wycisza fragmenty ścieżki, gdy poziom sygnału spada poniżej ustalonego progu – wtedy po prostu nie przepuszcza sygnału na wyjście. Dzięki temu, w przerwach między wypowiedziami, wszelkie szumy tła, echo z innych mikrofonów czy przesłuchy instrumentów znikają niemal całkowicie. Moim zdaniem, przy miksie podcastów, audiobooków czy nawet nagrań wokalnych, użycie bramki to wręcz podstawa, bo pozwala zachować czystość i przejrzystość nagrania – nieprzypadkowo praktycznie każdy profesjonalny DAW ma wbudowany taki procesor. No i warto dodać, że umiejętne ustawienie parametrów (takich jak threshold, attack, release) pozwala uniknąć nieprzyjemnych artefaktów, na przykład nienaturalnego cięcia końcówek słów. To rozwiązanie zgodne z powszechnie stosowanymi praktykami w branży audio, w tym standardami radia czy telewizji, gdzie jakość i czytelność nagrania lektorskiego jest kluczowa. Sam często zauważam, że początkujący realizatorzy nie doceniają tego narzędzia, a to właśnie ono robi robotę w kontekście eliminowania przesłuchów i utrzymania profesjonalnego brzmienia.

Pytanie 36

Które z urządzeń poszerza zakres dynamiki nagrania?

A. Ekspander.
B. Saturator.
C. Filtr HP.
D. Filtr LP.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to narzędzie, które faktycznie poszerza zakres dynamiki nagrania, działając odwrotnie niż kompresor. W praktyce oznacza to, że różnica między najcichszymi a najgłośniejszymi fragmentami sygnału staje się większa. Moim zdaniem ekspander jest często niedoceniany, a potrafi zrobić robotę tam, gdzie miks wydaje się 'spłaszczony' i brakuje mu życia. Używa się go na przykład do wygładzania szumów tła – wszystko poniżej określonego progu zostaje jeszcze bardziej wyciszone, dzięki czemu cisza staje się prawdziwie cicha, a dynamika rośnie. W branży przyjmuje się, że ekspandery mogą być stosowane zarówno kreatywnie, jak i stricte narzędziowo, np. na ślady perkusji, wokalu czy ścieżki ambientowe. To świetny patent przy nagraniach live, gdy mikrofony zbierają dużo niepotrzebnych dźwięków z otoczenia. W przeciwieństwie do filtrów czy saturatora, ekspander nie wpływa bezpośrednio na barwę czy harmoniczne, tylko operuje 'głośnością' w sposób bardziej wyrafinowany niż zwykły fader. Standardy miksowania zakładają, żeby przed zastosowaniem kompresji dobrze przemyśleć, czy przypadkiem nie warto najpierw poszerzyć dynamiki tam, gdzie materiał jest zbyt płaski. Z mojego doświadczenia stosowanie ekspandera to często ostatni szlif, który potrafi dodać nagraniu przestrzeni i świeżości. Dobrze wiedzieć, jak to działa, bo daje ogromne możliwości w pracy przy każdym typie muzyki.

Pytanie 37

Procesor dźwięku, umożliwiający kompresję sygnału audio, zaliczany jest do grupy procesorów przetwarzających

A. intonację.
B. barwę.
C. dynamikę.
D. przestrzeń.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Procesor dźwięku umożliwiający kompresję sygnału audio faktycznie należy do grupy procesorów przetwarzających dynamikę. Chodzi tutaj o urządzenia lub wtyczki, które wpływają na zakres głośności sygnału – czyli na przykład kompresory, limitery, czy ekspandery. Ich głównym zadaniem jest kontrolowanie różnic między najcichszymi a najgłośniejszymi fragmentami nagrania. Moim zdaniem to absolutnie podstawowe narzędzie w pracy z muzyką, zarówno podczas nagrań studyjnych, jak i przy miksowaniu koncertów na żywo. Kompresor pozwala wyrównać poziomy, przez co wokal nie „znika” w miksie albo nie wybija się nagle, co często się zdarza bez odpowiedniej kontroli dynamiki. Zwróć uwagę, że branża audio od lat uznaje kompresję za kluczowy etap produkcji – trudno sobie wyobrazić profesjonalnie brzmiące nagranie bez odpowiednio użytej kompresji. Często początkujący realizatorzy ignorują ten etap, przez co ich produkcje brzmią płasko albo chaotycznie. Warto wiedzieć, że procesory dynamiki mają zastosowanie nawet w radiu i telewizji, gdzie sygnał musi być zrównoważony, żeby nie zaskoczyć odbiorcy. Praktyka pokazuje, że dobre zrozumienie działania kompresji i innych procesorów dynamiki to podstawa pracy każdego realizatora czy producenta.

Pytanie 38

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Ekspander.
B. Bramka szumów.
C. Kompresor.
D. Korektor tercjowy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to sprzęt, który faktycznie zawęża zakres dynamiki dźwięku, czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. Na co dzień spotykamy go na przykład w studio nagrań, na scenie czy nawet podczas obróbki podcastów. Kompresor automatycznie obniża poziom tych fragmentów, które przekraczają określony próg (tzw. threshold), przez co cały materiał brzmi bardziej spójnie i mniej chaotycznie w odbiorze, a słabsze sygnały są łatwiejsze do usłyszenia. To narzędzie jest absolutną podstawą w miksie – trudno wyobrazić sobie współczesną produkcję muzyczną czy realizację dźwięku bez kompresji. Dobrze ustawiony kompresor sprawia, że wokal nie ginie w miksie, perkusja jest soczysta, a całość nie męczy słuchacza nagłymi skokami głośności. Inżynierowie dźwięku często stosują różne typy kompresorów – od sprzętowych, lampowych, po wtyczki cyfrowe – zależnie od stylu i potrzeb. Moim zdaniem bez praktycznej znajomości tego urządzenia trudno mówić o profesjonalnym podejściu do dźwięku. Co ciekawe, kompresory bywają też stosowane kreatywnie, by nadać barwie charakterystyczne brzmienie, dodać tzw. "pompowania" do bębnów czy uczynić miks bardziej radiowym. Warto eksperymentować i na własnym uchu przekonać się, jak bardzo zmienia się odbiór materiału po zastosowaniu kompresji – to serio otwiera oczy na temat kontroli dynamiki!

Pytanie 39

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. kompresora.
B. bramki szumów.
C. filtru dolnoprzepustowego.
D. ekspandera.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr dolnoprzepustowy to podstawowe narzędzie w walce z podmuchami wiatru podczas obróbki nagrań audio. Tego typu zakłócenia charakteryzują się tym, że zawierają głównie niskie częstotliwości – często są to właśnie te buczenia i szumy słyszalne w tle, gdy mikrofon rejestruje gwałtowne ruchy powietrza. W praktyce, stosowanie filtru dolnoprzepustowego (zwanego też high-pass filter) pozwala odciąć te najniższe, niepożądane pasma, zostawiając czystszy dźwięk i bardziej czytelny głos. Najczęściej ustawia się taki filtr w okolicach 80–120 Hz, chociaż to mocno zależy od nagrania i typu głosu. Moim zdaniem to wręcz standard przy rejestracji w plenerze lub nawet w studiu przy problemach z popami i innymi zakłóceniami mechanicznymi. Warto pamiętać, że profesjonalne mikrofony lub rejestratory często mają taki filtr już wbudowany – szanujące się studia i realizatorzy dźwięku praktycznie zawsze korzystają z tej funkcji. Dodatkowo, korzystanie z pop-filtrów czy gąbek nie rozwiąże wszystkiego, więc obróbka cyfrowa z użyciem filtru dolnoprzepustowego jest nieodzowna. Taki zabieg nie tylko poprawia komfort słuchania, ale też pozwala zachować naturalność i profesjonalny charakter nagrania, bo nie wycina pasm istotnych dla barwy głosu, jeśli jest umiejętnie ustawiony. W branży audio to jedno z absolutnie podstawowych narzędzi, bez którego trudno wyobrazić sobie skuteczną walkę z niechcianymi podmuchami.

Pytanie 40

Które z wymienionych określeń oznacza nagranie lektora?

A. Voice Over
B. Sound Effects
C. Ambience
D. Foley

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.