Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 5 maja 2026 10:11
  • Data zakończenia: 5 maja 2026 10:11

Egzamin niezdany

Wynik: 1/40 punktów (2,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -0,1 dB Peak/ -8 dB RMS
B. -3 dB Peak/ -12 dB RMS
C. -0,3 dB Peak/ -7 dB RMS
D. -1 dB Peak/ -9 dB RMS
Odpowiedź z wartościami -0,3 dB Peak oraz -7 dB RMS jest zdecydowanie najbardziej trafna, jeśli chodzi o najwyższy średni poziom głośności nagrania. Wynika to z tego, że RMS (Root Mean Square) jest miarą średniej energii sygnału audio i bardziej oddaje faktyczną, odczuwalną głośność niż sam Peak, który pokazuje tylko najwyższy chwilowy poziom. W branży muzycznej i radiowej bardzo często operuje się poziomami RMS, żeby uzyskać głośne, ale wciąż dobrze brzmiące nagrania. Wartość -7 dB RMS to już naprawdę wysoki poziom i często spotyka się ją w nowoczesnych, mocno skompresowanych utworach popowych czy radiowych. Z kolei -0,3 dB Peak oznacza, że sygnał praktycznie nie przekracza progu przesterowania (clippingu), co jest bardzo bliskie maksymalnemu poziomowi dopuszczalnemu w standardzie cyfrowym. W praktyce – taki balans między RMS a Peak świadczy o umiejętnym użyciu kompresji i limitera. Dobrze zrealizowany mastering pozwala wtedy na uzyskanie głośnego, a przy tym nieprzesterowanego i niezmęczonego dla ucha utworu. Moim zdaniem to właśnie wyczucie tych wartości odróżnia profesjonalne produkcje od amatorskich, gdzie często albo przesadza się z głośnością (prowadząc do clipingu), albo zostawia za duży margines i przez to utwór wypada cicho przy innych. Warto pamiętać, że nie wszystkie gatunki muzyczne wymagają tak wysokiego RMS, jednak dla nowoczesnej muzyki rozrywkowej -7 dB RMS to bardzo popularny target.

Pytanie 2

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. HPF
B. LPF
C. LF
D. BPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Skrót LPF pochodzi od angielskich słów 'Low Pass Filter', czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o niskiej częstotliwości, a tłumią te wyższe. Kluczowe jest to, że ich działanie znajduje masę zastosowań w praktyce, zwłaszcza w elektronice audio, systemach pomiarowych czy nawet w przetwarzaniu obrazów. Nawet proste kolumny głośnikowe mają wbudowane filtry dolnoprzepustowe, żeby odciąć wysokie częstotliwości od subwoofera. Moim zdaniem znajomość tego skrótu to tak naprawdę jedna z podstaw dla każdego, kto zabiera się za projektowanie lub analizę układów elektronicznych. Jeśli spojrzysz na schematy, to prawie zawsze takie filtry są oznaczane właśnie jako LPF – to standard branżowy, nie tylko u nas, ale i na świecie. Sam nieraz projektowałem filtry dolnoprzepustowe na potrzeby odczytu sygnałów z czujników – bez LPF wszystko by pływało w szumie. Warto pamiętać, że charakterystyka filtra (czyli na przykład jego częstotliwość odcięcia) jest kluczowa dla danego zastosowania. W praktyce, jak projektujesz prosty układ RC – już możesz zbudować LPF, nawet nie wiedząc, że to się tak nazywa. Z mojego doświadczenia – bez LPF ani rusz w świecie elektroniki użytkowej.

Pytanie 3

Zastosowanie kompresora wpływa

A. na poszerzenie dynamiki.
B. na usunięcie szumów.
C. na zmniejszenie dynamiki.
D. na ograniczenie niskich tonów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to jedno z podstawowych narzędzi w obróbce dźwięku i miksowaniu muzyki, zwłaszcza w studiach nagraniowych czy podczas produkcji radiowej. Jego głównym zadaniem jest właśnie zmniejszenie dynamiki sygnału, czyli ograniczenie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami nagrania. Po zastosowaniu kompresora głośne dźwięki stają się cichsze, a ciche mogą być podbite – to daje bardziej wyrównany, profesjonalny efekt finalny. Bez kompresora np. wokal bywa zbyt skokowy, czasem ledwo słyszalny, a czasem za bardzo wybija się ponad inne elementy miksu. Moim zdaniem dobry kompresor w rękach doświadczonego realizatora pozwala uzyskać tę charakterystyczną „spójność” brzmienia, którą słychać w komercyjnych produkcjach. Warto też pamiętać, że kompresja jest wręcz standardem w broadcastingu i masteringu – ciężko sobie wyobrazić gotowy materiał audio bez jakiejkolwiek formy kompresji. Oczywiście, jak ze wszystkim, trzeba uważać, żeby nie przesadzić, bo zbyt mocna kompresja może zabić naturalność i ekspresję wykonania. Ale generalnie, jeśli ktoś chce ogarnąć miks, kompresor to absolutna podstawa w zakresie kontroli dynamiki.

Pytanie 4

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Predelay.
B. Decay.
C. Type.
D. Diffusion.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 5

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 2
B. 10
C. 1
D. 5

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wartość dobroci filtru (Q, czyli quality factor) bezpośrednio wpływa na szerokość pasma, które jest obejmowane przez działanie filtru lub korektora. Im wyższa wartość Q, tym filtr obejmuje węższy zakres częstotliwości – działa bardziej selektywnie i precyzyjnie. Natomiast przy niższych wartościach Q zakres częstotliwości, na który filtr oddziałuje, staje się szerszy i bardziej rozciągnięty. W praktyce, jeśli chodzi o zastosowania w akustyce czy elektronice, wybór wartości Q zależy od tego czy chcemy delikatnie korygować szeroki fragment pasma, czy może bardzo precyzyjnie wycinać lub wzmacniać konkretne częstotliwości. Jednak w tym pytaniu pytamy o szerokość pasma objętego przez korektor i tu sprawa jest trochę przewrotna – NAJSZERSZY zakres uzyskujemy przy najniższym Q, czyli Q=1. Tak jest zgodnie z definicją: szerokość pasma jest odwrotnie proporcjonalna do Q. Moim zdaniem na co dzień można się pomylić, bo w praktyce często myślimy o „lepszym” filtrze jako tym precyzyjniejszym, ale tutaj szerszy zakres – czyli mniej precyzyjny, ale rozciągnięty – to właśnie Q=1. Spotyka się to często w prostych korektorach graficznych, gdzie wycinając szerokie pasmo, stosuje się właśnie niskie dobroci. Standardy branżowe, jak np. parametry korektorów w stołach mikserskich, to potwierdzają.

Pytanie 6

Którego toru wirtualnego miksera w programie DAW należy użyć do obróbki równoległej dźwięku za pomocą efektu pogłosu?

A. MIDI.
B. Aux.
C. Audio.
D. Instrument.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Aux to prawdziwy król, jeśli chodzi o obróbkę równoległą, szczególnie w przypadku efektu pogłosu. W wirtualnych mikserach DAW tworzy się tory typu Aux (czasem nazywane też Send/Return), żeby wysyłać na nie sygnał z różnych ścieżek i tam wspólnie go przetwarzać jednym efektem. Dlatego nie musisz wrzucać kilku pogłosów na każdą ścieżkę osobno, co oszczędza moc obliczeniową i daje większą kontrolę nad proporcjami efektu. To bardzo wygodne, bo np. wokal, gitara i werbel mogą korzystać z tego samego pogłosu, ale każdy w innym natężeniu (regulujesz to gałką send na każdej ścieżce). Z mojego doświadczenia, jeśli chcesz edytować efekt globalnie lub automatyzować jego parametry w jednym miejscu – tor Aux to najlepsza opcja. Tak się robi w każdym profesjonalnym studiu i tego wymagają nawet podstawowe standardy miksu. Ciekawostka: ten sposób pozwala uzyskać bardziej spójne przestrzenie w miksie, bo wszystkie ślady „siedzą” w tym samym pomieszczeniu, czyli brzmią naturalnie. Oczywiście są sytuacje, gdzie lepiej użyć insertu, ale przy równoległej obróbce, szczególnie z pogłosem, tor Aux jest bezkonkurencyjny. No i przy masteringu też się czasem przydaje, tylko już trochę bardziej zaawansowane rzeczy wtedy się robi.

Pytanie 7

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. LPF
B. Comb Filter
C. High Shelf
D. HPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 8

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. poszerzenie dynamiki sygnału.
B. odwrócenie fazy sygnału.
C. ograniczenie niskich tonów.
D. modulację dźwięku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 9

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Pięciokrotny.
B. Trzykrotny.
C. Dwukrotny.
D. Czterokrotny.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmniejszenie poziomu sygnału o 6 dB oznacza, że moc sygnału spada dokładnie czterokrotnie. Wynika to z definicji decybela – 1 dB to logarytmiczna jednostka opisująca stosunek dwóch wartości mocy. Wzór na zmianę mocy w decybelach wygląda tak: dB = 10 * log10(P2/P1). Jeśli podstawimy -6 dB, to: -6 = 10 * log10(P2/P1), czyli log10(P2/P1) = -0,6. Po wyliczeniu: P2/P1 = 10^(-0,6) ≈ 0,25, czyli dokładnie 1/4, co oznacza czterokrotny spadek mocy. Takie przeliczenia przydają się np. w systemach nagłośnieniowych, radiokomunikacji, instalacjach antenowych czy nawet prostych testach wzmacniaczy. W praktyce dużo łatwiej jest operować na decybelach niż na zwykłych wartościach liniowych, bo szybciej wychwycisz zmiany – 3 dB to połowa, 6 dB to ćwiartka, 10 dB to już tylko 1/10 pierwotnej mocy. Z mojego doświadczenia, wielu techników korzysta z tego uproszczenia na co dzień, bo pozwala błyskawicznie ocenić skutki tłumienia czy strat na kablu. Standardy branżowe, np. ITU czy zalecenia EBU, też operują tymi wartościami właśnie dlatego, że są wygodne i uniwersalne. Warto sobie to dobrze zapamiętać – i przydaje się nie tylko na egzaminie, ale i w realnej pracy z elektroniką.

Pytanie 10

Który z wymienionych parametrów odpowiada za próg zadziałania funkcji Strip Silence?

A. Post-Release
B. Minimum Time
C. Pre-Attack
D. Threshold

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Threshold w funkcji Strip Silence to kluczowy parametr, który decyduje o tym, od jakiego poziomu głośności dany fragment zostaje uznany za "dźwiękowy" i nie jest wycinany. Cała magia Strip Silence polega właśnie na tym, że automatycznie wykrywa ciszę na ścieżce audio i usuwa ją, zostawiając tylko to, co faktycznie gra. Threshold działa trochę jak bramkarz – jeśli sygnał przekroczy ustawiony próg, zostaje wpuszczony, a jeśli jest zbyt cichy, traktowany jest jako cisza. Z mojego doświadczenia warto eksperymentować z jego wartością, bo czasem w nagraniach pojawiają się ciche szumy albo oddechy, które też chcesz usunąć. Branżowe standardy sugerują, żeby zacząć od wartości nieco powyżej tła szumowego i dopasowywać próg do konkretnego materiału. W praktyce – jeśli pracujesz nad wokalami, perkusją czy podcastem, dobrze ustawiony threshold pozwala szybko i czysto oczyścić ścieżkę ze zbędnych fragmentów. Ułatwia to późniejszą edycję i miks, nie musisz ręcznie wycinać każdego milisekundowego szumu. Warto dodać, że dobór thresholdu często zależy od dynamiki nagrania – im większa rozpiętość, tym ostrożniej trzeba ustawić próg, żeby nie wycinać cichych, ale istotnych dźwięków. To trochę taki kompromis między precyzją a wygodą. Moim zdaniem – jak przy każdej automatyzacji – warto na koniec przesłuchać fragmenty, żeby mieć pewność, że nic ważnego nie zostało przypadkowo wyciszone.

Pytanie 11

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Tremolo.
B. Pitchshifter.
C. Wibrato.
D. Reverb.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Procesor Reverb, czyli pogłos, to podstawowe narzędzie używane w realizacji dźwięku do kształtowania przestrzenności nagrania. Dzięki niemu możemy uzyskać wrażenie, że źródło dźwięku znajduje się w określonym pomieszczeniu – czy to w małym pokoju, wielkiej hali koncertowej, kościele albo dowolnie zaprojektowanej przestrzeni. Moim zdaniem żadna inna wtyczka nie daje takiego szerokiego wachlarza możliwości w tym zakresie jak właśnie Reverb. W praktyce, dość często używa się go do „osadzenia” instrumentów w miksie, nadania im głębi albo nawet zamaskowania pewnych niedoskonałości nagrania. Z mojego doświadczenia dobry pogłos sprawia, że miks brzmi bardziej naturalnie, mniej sucho i sterylnie, ale jednocześnie daje kontrolę nad rozmiarem, odległością czy nawet wysokością źródła dźwięku w obrazie stereo. Fachowcy zwracają uwagę, żeby nie przesadzać – zbyt duża ilość pogłosu może zniszczyć selektywność miksu. Dobre praktyki przewidują stosowanie różnych typów pogłosów na różnych śladach, by uzyskać możliwie realistyczny efekt akustyczny. Reverb jest też podstawą w przestrzennym dźwięku filmowym czy grach komputerowych. Wystarczy porównać suchy wokal z wokalem z pogłosem – różnica robi wrażenie nawet na laikach!

Pytanie 12

Które z wymienionych określeń oznacza nagranie lektora?

A. Foley
B. Sound Effects
C. Ambience
D. Voice Over

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.

Pytanie 13

Zastosowanie efektu typu Flanger w nagraniu dźwiękowym powoduje

A. poszerzenie dynamiki sygnału.
B. modulację dźwięku.
C. ograniczenie niskich tonów.
D. przesterowanie sygnału.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Efekt typu Flanger to jeden z najbardziej rozpoznawalnych efektów modulacyjnych wykorzystywanych w produkcji muzycznej, szczególnie w rocku, elektronice i muzyce pop. Działa on na zasadzie mieszania sygnału pierwotnego z jego lekko opóźnioną kopią, gdzie to opóźnienie jest dynamicznie modulowane – zmienia się w czasie, tworząc charakterystyczne przesuwające się brzmienie przypominające dźwięk startującego samolotu albo „fale”. To właśnie modulacja czasu opóźnienia powoduje powstawanie efektu „grzebieniowego” w widmie częstotliwościowym, czyli słyszalne przemieszczanie się dołków oraz wzmocnień w paśmie. Takie zjawisko jest bardzo przydatne do dodania przestrzenności, ruchu lub wręcz psychodelicznego klimatu w nagraniu. Standardowo flanger stosuje się na gitarach, wokalach, a czasem nawet całych ścieżkach perkusyjnych – jednym słowem, wszędzie tam, gdzie potrzebujemy „ożywić” materiał dźwiękowy. Co ciekawe, efekt ten pierwotnie powstał przez ręczne zahamowanie jednej taśmy podczas odtwarzania dwóch identycznych ścieżek, stąd jego nazwa („flange” – kołnierz szpuli taśmy). Dobra praktyka zaleca umiar w stosowaniu flangera, bo przy dużym natężeniu może on zamazać szczegóły i sprawić, że miks stanie się nieczytelny. Moim zdaniem, flanger to świetne narzędzie kreacyjne, jeśli tylko używa się go z głową – można dzięki niemu dodać nowy wymiar nawet bardzo prostym dźwiękom.

Pytanie 14

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Reverb.
B. Wibrato.
C. Pitchshifter.
D. Tremolo.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Reverb to procesor, który faktycznie umożliwia zmianę właściwości przestrzennych nagrania – nic dziwnego, że stosuje się go praktycznie w każdym profesjonalnym miksie. Jego główną rolą jest symulacja pogłosu, czyli tego, jak dźwięk rozchodzi się i odbija w różnych pomieszczeniach: od małych pokojów aż po wielkie sale koncertowe. Dzięki temu możesz „osadzić” instrument albo wokal w określonej przestrzeni, przez co nagranie brzmi bardziej naturalnie, głębiej, czasem wręcz kinowo. W praktyce inżynierowie dźwięku wykorzystują reverb do uzyskania efektu odległości – można sprawić, że wokal stanie się jakby dalszy, a perkusja trafi „na tyły” miksu. To też jeden z podstawowych sposobów na rozdzielanie planów dźwiękowych w miksie, zgodnie z dobrymi praktykami produkcji muzycznej. Takie podejście jest zgodne z klasycznymi technikami stosowanymi w studiach nagraniowych od lat, gdzie reverb pozwala na kreatywne kształtowanie przestrzeni dźwięku. Moim zdaniem, umiejętne użycie pogłosu to jedna z kluczowych umiejętności realizatora – łatwo z tym przesadzić, ale bez tego miks często wydaje się suchy lub nienaturalny. Warto eksperymentować z różnymi typami reverbów: sprężynowy, płytowy, algorytmiczny czy konwolucyjny – każdy daje inne, ciekawe efekty. No i – dla porządku – reverb to jeden z niewielu efektów, które rzeczywiście ingerują w poczucie przestrzenności nagrania, a nie tylko w barwę czy wysokość dźwięku.

Pytanie 15

W nagraniu zakłócenia w postaci szumów należy redukować z zastosowaniem procesu

A. Noise Reduction
B. Dither
C. HPF
D. Compression

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Noise Reduction to specjalistyczny proces, który służy właśnie do redukcji szumów w nagraniach – czy to głosu, czy instrumentów, czy ogólnie w miksie. Cały myk polega na tym, że systemy do redukcji szumów analizują sygnał i starają się usunąć tylko to, co uznają za niepożądane zakłócenia, jak np. szum tła, szum taśmy, buczenie czy nawet szumy wynikające z pracy urządzeń czy kiepskich kabli. W praktyce Noise Reduction stosuje się na etapie postprodukcji, często w programach typu DAW (np. Adobe Audition, Izotope RX – swoją drogą RX to czołówka jeśli chodzi o naprawianie nagrań). Bardzo ważne jest, by nie przesadzić z redukcją, bo wtedy brzmi to nienaturalnie, czasem pojawiają się artefakty i nagranie robi się takie... plastikowe. W branży standardem jest, żeby najpierw zadbać o czyste źródło (dobry mikrofon, izolacja akustyczna), a dopiero potem, jeśli coś w nagraniu zostało, działać za pomocą Noise Reduction. Moim zdaniem, jeśli ktoś poważnie podchodzi do produkcji audio, powinien umieć korzystać z tego typu narzędzi, bo one naprawdę ratują skórę, np. kiedy nagranie robione było w trudnych warunkach terenowych albo ze sprzętem nie najwyższych lotów. Dodatkowo, Noise Reduction to nie tylko filtry – to często zaawansowane algorytmy, które porównują fragmenty ciszy i sygnału, ucząc się, co jest szumem. To jest zupełnie inne podejście niż zwykły EQ czy kompresja.

Pytanie 16

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Od nowego zdania.
B. W połowie zdania.
C. Na początkowych słowach zdania.
D. Na końcowych słowach zdania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 17

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Filtrowanie.
B. Konwersja.
C. Nadpróbkowanie.
D. Kompresja.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtrowanie to zdecydowanie najbardziej skuteczna metoda na usunięcie przydźwięku sieci energetycznej, czyli charakterystycznego buczenia o częstotliwości 50 Hz (w Polsce i większości Europy) lub 60 Hz (w USA). W praktyce, w programach DAW najczęściej stosuje się filtr dolnoprzepustowy, górnoprzepustowy albo precyzyjnie ustawiony filtr półkowy lub notch filter (filtr szczelinowy), by celowo wyciąć konkretną częstotliwość i jej harmoniczne, bez wpływania na resztę nagrania. Z mojego doświadczenia, najefektywniejsze są właśnie filtry notch, bo potrafią bardzo wąsko zredukować uciążliwy dźwięk, nie ruszając prawie sygnału muzycznego. W branży audio przyjęło się, że przed dalszą obróbką zawsze najpierw usuwa się takie artefakty – to podstawa workflow, żeby potem nie maskować problemu, tylko faktycznie go eliminować. Warto pamiętać, że filtry można łączyć, np. wycinać 50 Hz i kolejne harmoniczne (100 Hz, 150 Hz itd.), jeśli przydźwięk jest mocny. Bardziej zaawansowane narzędzia, jak np. iZotope RX, mają nawet specjalne presety do tego. Filtrowanie jest więc nie tylko najskuteczniejsze, ale też zgodne ze standardami postprodukcji dźwięku. Moim zdaniem każdy inżynier dźwięku powinien mieć to opanowane do perfekcji – przydźwięk sieciowy to bardzo powszechny problem, a filtry są podstawowym narzędziem w jego zwalczaniu.

Pytanie 18

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. GROUP
B. VCA
C. AUX
D. MASTER

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to absolutny standard jeśli chodzi o wysyłanie sygnału równoległego w środowisku DAW. W praktyce, kiedy chcemy na przykład dodać pogłos, delay albo nawet subtelny chorus do kilku ścieżek jednocześnie, to właśnie AUX jest tym, czego szukamy. Moim zdaniem, to jedna z podstawowych umiejętności każdego, kto ogarnia miksowanie – dobrze skonfigurowany AUX pozwala nie tylko na oszczędność zasobów komputera, bo nie musisz ładować tego samego efektu na każdą ścieżkę, ale jeszcze daje mega kontrolę nad ilością efektu (tzw. send level) dla każdej z nich. W studyjnych workflow AUX-y są traktowane jako taki „wspólny zbiornik” – sygnał z różnych kanałów trafia tam przez wysyłki, a potem wraca już zmiksowany z efektem do sumy głównej. Często się zapomina, że można też na AUX-ach stosować kreatywne rozwiązania, np. równoległą kompresję. W każdym poważnym DAW, jak Pro Tools, Cubase czy Logic Pro, szyny AUX są domyślnie przeznaczone do takich rzeczy – to wynika z klasycznej architektury konsolet analogowych. Sam fakt, że nazwa „AUX” pochodzi od „auxiliary”, czyli pomocniczy, już sporo mówi. Jak ktoś zacznie świadomie korzystać z AUX-ów, od razu robi się większy porządek w miksie. Z mojego doświadczenia – dobrze ustawiony AUX przyspiesza pracę i pozwala uzyskać lepszy, bardziej przestrzenny sound.

Pytanie 19

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. kompresora.
B. filtru dolnoprzepustowego.
C. ekspandera.
D. bramki szumów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr dolnoprzepustowy to podstawowe narzędzie w walce z podmuchami wiatru podczas obróbki nagrań audio. Tego typu zakłócenia charakteryzują się tym, że zawierają głównie niskie częstotliwości – często są to właśnie te buczenia i szumy słyszalne w tle, gdy mikrofon rejestruje gwałtowne ruchy powietrza. W praktyce, stosowanie filtru dolnoprzepustowego (zwanego też high-pass filter) pozwala odciąć te najniższe, niepożądane pasma, zostawiając czystszy dźwięk i bardziej czytelny głos. Najczęściej ustawia się taki filtr w okolicach 80–120 Hz, chociaż to mocno zależy od nagrania i typu głosu. Moim zdaniem to wręcz standard przy rejestracji w plenerze lub nawet w studiu przy problemach z popami i innymi zakłóceniami mechanicznymi. Warto pamiętać, że profesjonalne mikrofony lub rejestratory często mają taki filtr już wbudowany – szanujące się studia i realizatorzy dźwięku praktycznie zawsze korzystają z tej funkcji. Dodatkowo, korzystanie z pop-filtrów czy gąbek nie rozwiąże wszystkiego, więc obróbka cyfrowa z użyciem filtru dolnoprzepustowego jest nieodzowna. Taki zabieg nie tylko poprawia komfort słuchania, ale też pozwala zachować naturalność i profesjonalny charakter nagrania, bo nie wycina pasm istotnych dla barwy głosu, jeśli jest umiejętnie ustawiony. W branży audio to jedno z absolutnie podstawowych narzędzi, bez którego trudno wyobrazić sobie skuteczną walkę z niechcianymi podmuchami.

Pytanie 20

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Ekspander.
B. Korektor tercjowy.
C. Bramka szumów.
D. Kompresor.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to jedno z tych urządzeń, które są właściwie niezbędne w każdym studiu nagraniowym czy podczas realizacji dźwięku na żywo. Jego głównym zadaniem jest właśnie zawężanie zakresu dynamiki sygnału audio, czyli zmniejszanie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami dźwięku. Dzięki temu nagrania brzmią bardziej spójnie, wyraźnie i nie ma sytuacji, że jeden instrument nagle wybija się ponad resztę tylko dlatego, że ktoś mocniej uderzył w struny czy perkusję. W praktyce kompresor stosuje się na wokalach, basie, gitarach, bębnach – praktycznie na każdym śladzie, gdzie ważna jest kontrola nad dynamiką. Moim zdaniem bez dobrego opanowania tego efektu trudno mówić o profesjonalnym miksie. Warto pamiętać, że kompresor nie tylko ściska dynamikę, ale też może dodać charakteru brzmieniu, czasem wręcz podkręcić energię nagrania. Są różne typy kompresorów: od klasycznych VCA przez optyczne po lampowe – każdy z nich działa trochę inaczej, ale idea się nie zmienia. Z moich doświadczeń wynika, że umiejętne użycie kompresji to jedna z kluczowych umiejętności realizatora, bo pozwala utrzymać miks w ryzach i sprawić, że wszystko zabrzmi spójnie zarówno na słuchawkach, jak i dużych głośnikach. Dobrą praktyką branżową jest też stosowanie kompresji równoległej, gdzie sygnał czysty miesza się z przetworzonym, żeby zachować naturalność przy jednoczesnej kontroli nad dynamiką.

Pytanie 21

Który z wymienionych procesorów typowo służy do przekształcania przestrzeni w nagraniu dźwiękowym?

A. Time stretch.
B. Reverb.
C. Pitch correction.
D. Invert phase.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Reverb, czyli pogłos, to klasyczny procesor używany do przekształcania przestrzeni w nagraniu dźwiękowym. W praktyce ten efekt symuluje naturalne odbicia fal dźwiękowych, jakie występują w różnych pomieszczeniach – od małych pokojów po ogromne hale koncertowe. Dzięki niemu nagranie może zabrzmieć, jakby zostało wykonane w zupełnie innym miejscu, nawet jeśli wokalista stał w szczelnie wygłuszonym studio. Z mojego doświadczenia, reverb jest jednym z najważniejszych narzędzi do budowania głębi i atmosfery w miksie. W standardowych produkcjach muzycznych praktycznie nie ma śladu wokalu, który byłby kompletnie suchy – zawsze jest chociaż delikatny pogłos. Stosowanie reverbu pozwala też ukryć drobne niedoskonałości, sprawić, że instrumenty się ze sobą lepiej "kleją" i nie brzmią tak martwo. W branży przyjęło się, że to właśnie pogłos odpowiada za wrażenie przestrzeni, bo inne narzędzia, jak chorus czy delay, raczej nadają efektu szerokości czy powtórzeń, ale nie naturalnego odbicia dźwięku od ścian. Trochę trzeba uważać, żeby nie przesadzić, bo za dużo reverbu powoduje, że miks traci selektywność i robi się "zamulony". Fajna sprawa to też kreatywny reverb, na przykład specjalnie ekstremalne pogłosy na wokalu w muzyce ambient czy elektronicznej. Szczerze mówiąc, bez tego efektu trudno sobie wyobrazić współczesną produkcję audio – nawet filmowcy i podcasterzy używają go, żeby nadać nagraniom wiarygodność przestrzenną.

Pytanie 22

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. LUFS
B. dBp
C. AU
D. dBFS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 23

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -0,3 dB Peak/ -7 dB RMS
B. -0,1 dB Peak/ -8 dB RMS
C. -1 dB Peak/ -9 dB RMS
D. -3 dB Peak/ -12 dB RMS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś parę -0,3 dB Peak oraz -7 dB RMS, co faktycznie wskazuje na nagranie o najwyższym średnim poziomie głośności. W praktyce RMS (Root Mean Square) to miara uśrednionej energii sygnału, która zdecydowanie lepiej niż peak opisuje realnie odbieraną przez ucho 'moc' dźwięku. W branży muzycznej czy radiowej to właśnie RMS mówi nam, jak głośne odczuwalnie jest nagranie, bo szczytowe wartości (Peak) mogą być wysokie, ale trwać bardzo krótko i nie przekładać się na całościową siłę utworu. Moim zdaniem, jeśli zależy Ci na tzw. loudness wars i przebiciu się na platformach streamingowych, patrzysz przede wszystkim na RMS albo LUFS, bo to one decydują o tym, czy Twój kawałek nie zostanie automatycznie ściszony przez algorytm. Warto pamiętać, że wartości RMS powyżej -8 dB uważane są już za bardzo głośne, zbliżone do popularnych nagrań radiowych, a -7 dB RMS to wręcz granica kompresji, którą łatwo usłyszeć przez utratę dynamiki. W praktyce miksując, dążymy do kompromisu: peak poniżej 0 dBFS, żeby nie przesterować, ale RMS jak najwyższy, nie tracąc przy tym naturalności brzmienia. Standardy radiowe czy streamingowe (np. Spotify, Apple Music) nakazują pilnować tych poziomów, bo za głośne utwory i tak zostaną przyciszone. Z mojego doświadczenia -7 dB RMS to już naprawdę głośno i nie warto przesadzać, bo można zniszczyć detal i przestrzeń. Dobrze wiedzieć, czemu te liczby są tak istotne w praktyce!

Pytanie 24

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Delay.
B. Declicker.
C. Ducker.
D. Expander.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.

Pytanie 25

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Kompresja.
B. Limiting.
C. Normalizacja.
D. Ekspansja.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Normalizacja faktycznie nie wpływa na rozpiętość dynamiczną nagrania, czyli różnicę pomiędzy najcichszym a najgłośniejszym sygnałem w ścieżce audio. To taki trochę trik stosowany głównie po to, żeby wyrównać poziom głośności całego materiału do określonego maksimum, najczęściej do 0 dBFS, nie zmieniając przy tym relacji między poszczególnymi fragmentami. W praktyce, jak weźmiesz nagranie i zastosujesz normalizację, to po prostu najgłośniejszy moment zostaje podciągnięty do wybranego poziomu, a cała reszta idzie proporcjonalnie w górę – żadne ściski, żadne „rozpychanie” czy zawężanie dynamiki nie ma miejsca. To się przydaje np. jak miksujesz pliki z różnych źródeł, gdzie jeden utwór jest wyraźnie cichszy od innego – normalizacja pozwala szybko wyrównać te poziomy, żeby potem łatwiej można było porównywać lub montować. W branży to podstawa przy eksporcie czy masteringu, ale nikt nie traktuje tego narzędzia jako proces kształtujący dynamikę. Dla odmiany, limiter, kompresor czy ekspander ingerują już w relacje między głośnymi a cichymi fragmentami – dlatego właśnie tylko normalizacja jest tutaj poprawną odpowiedzią. Moim zdaniem, dobrze znać takie różnice, bo potem bez problemu można przewidzieć skutki każdego używanego narzędzia i nie robić przypadkiem bałaganu w miksie.

Pytanie 26

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. GLUE
B. MERGE
C. CROSSFADE
D. PASTE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Efekt crossfade, czyli płynne przejście między dwoma plikami dźwiękowymi, to absolutna podstawa w codziennej pracy z DAW-ami. Crossfade działa na tej zasadzie, że dźwięk z jednego pliku stopniowo się wycisza (fade out), a dźwięk z drugiego pojawia się coraz mocniej (fade in), dzięki czemu unikasz nieprzyjemnych kliknięć i szumów na łączeniu. Praktycznie w każdym profesjonalnym DAW ta funkcja jest dostępna standardowo, często wręcz jako domyślne narzędzie przy edycji audio. Takie przejście przydaje się nie tylko przy montażu dialogów czy muzyki, ale też w masteringu, kiedy trzeba posklejać różne wersje utworów albo poprawić cięcia. W świecie nagraniowców mówi się nawet, że dobrze wykonany crossfade jest ledwo zauważalny dla słuchacza – i to jest złota zasada. Moim zdaniem w ogóle warto nauczyć się tworzyć różne rodzaje crossfade’ów (np. liniowe, logarytmiczne, S-curve) i testować, jak wpływają na odbiór materiału. To takie małe detale, które w finalnym miksie robią ogromną różnicę. Pamiętaj, że używanie crossfade’ów to nie tylko kwestia estetyki, ale też technicznego bezpieczeństwa – szczególnie jeśli pracuje się z surowym materiałem, gdzie mogą pojawiać się artefakty. W branży standardem jest stosowanie crossfade’ów przy każdej edycji, gdzie pliki audio się stykają lub nakładają. Z mojego doświadczenia, jeśli raz zaczniesz ich używać, nie będziesz już chciał wracać do 'suchych' cięć.

Pytanie 27

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. COMP
B. DLY
C. REV
D. GATE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Bramka szumów, czyli właśnie GATE, to procesor efektów używany w produkcji muzycznej i miksowaniu do automatycznego wyciszania sygnału poniżej określonego progu. Najczęściej stosuje się ją, by pozbyć się niechcianego tła, na przykład szumu z mikrofonu albo lekkiego sprzężenia z gitarowych przetworników. Typowe jest użycie gate’a na śladzie perkusji, zwłaszcza werbla czy bębna basowego, żeby odciąć przesłuchy z innych mikrofonów. Standard branżowy sugeruje stosowanie bramki szumów wszędzie tam, gdzie tłumienie niepożądanych dźwięków poprawia czytelność miksu. W DAW-ach gate jest często dostępny jako podstawowy plugin, a jego działanie można bardzo precyzyjnie kontrolować – od ustawienia progu czułości, przez czas otwierania i zamykania, aż po tzw. „hold”. Bramka szumów nie tylko poprawia czystość nagrania, ale pozwala też kreatywnie kształtować dźwięk – na przykład w elektronice i EDM stosuje się ją do „cięcia” wokali i perkusji dla efektownych, rytmicznych przerywań. Z doświadczenia wiem, że nawet prosta bramka, odpowiednio ustawiona, potrafi zrobić ogromną różnicę, zwłaszcza przy nagraniach DIY. Dużo osób na początku myli gate z kompresorem, ale to zupełnie inne narzędzia – kompresor redukuje dynamikę, a gate wycina sygnał poniżej ustalonego progu. To taki niepozorny, ale bardzo praktyczny efekt, który warto dobrze poznać, bo często ratuje miks.

Pytanie 28

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Ustalenia poziomów głośności śladów.
B. Ustalenia panoramy śladów.
C. Wzmocnienia cichych fragmentów nagrania.
D. Korekty barwy poszczególnych śladów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 29

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Declicker.
B. Ducker.
C. Expander.
D. Delay.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Delay to jeden z podstawowych efektów w produkcji dźwięku, który polega na powtarzaniu sygnału audio po określonym czasie. Dzięki temu można uzyskać efekt echa, ale – co ważniejsze w kontekście pytania – umożliwia także tworzenie zapętleń, czyli tzw. looperów. W praktyce ustawiając delay na bardzo krótki czas i dużą liczbę powtórzeń, uzyskujemy efekt ciągłego powtarzania fragmentu dźwięku, co jest wykorzystywane np. w muzyce elektronicznej czy podczas live actów. Loopery bazują właśnie na zasadzie działania delay'a, tylko są bardziej rozbudowane – pozwalają nagrywać i wielokrotnie odtwarzać fragmenty na żywo. W branży często stosuje się delay do kreatywnego budowania przestrzeni czy rytmicznych faktur, nie tylko do prostego echa. Moim zdaniem delay to taki wstęp do zabawy z loopingiem, bo jeśli zrozumiesz, jak działa delay, to potem łatwiej ogarnąć bardziej zaawansowane narzędzia do zapętlania. Często też delay bywa stosowany do eksperymentowania z teksturami dźwiękowymi. W standardach produkcji muzycznej oraz postprodukcji dźwięku delay jest wręcz niezbędny do kontroli powtarzalności, przestrzeni i efektów specjalnych. Warto wiedzieć, że dobrze ustawiony delay może zastąpić nawet proste loopery w wielu zastosowaniach. Z mojego doświadczenia to narzędzie, którego nie da się przecenić w pracy z dźwiękiem.

Pytanie 30

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. ogranicznik.
B. de-esser.
C. time stretch.
D. reverb.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 31

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. regulowania barwy stopy perkusji.
B. usunięcia dudnienia i wibracji.
C. kształtowania barwy blach hi-hatu.
D. usunięcia szumów własnych miksera.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.

Pytanie 32

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Trzykrotny.
B. Czterokrotny.
C. Dwukrotny.
D. Pięciokrotny.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmniejszenie poziomu sygnału o 6 dB to klasyczny przypadek w technice radiowej, telekomunikacji i nagłośnieniu. Praktycy często używają tej wartości jako punktu odniesienia, bo spadek o 6 dB odpowiada bardzo konkretnemu efektowi – moc sygnału spada wtedy dokładnie czterokrotnie. Wynika to z logarytmicznego charakteru skali decybelowej. Wzór na przeliczanie decybeli na stosunek mocy wygląda tak: LdB = 10 * log10(P2/P1). Czyli jeśli LdB = -6, to P2/P1 = 10^(-6/10) ≈ 0,25 – czyli dokładnie 1/4. Jest to bardzo użyteczne np. przy ustawianiu wzmacniaczy, analizie strat sygnału na kablach albo w rozważaniach dotyczących tłumienia sygnałów w instalacjach antenowych. Branżowe standardy, jak np. ITU-T czy rekomendacje IEEE, często wskazują właśnie 3 dB (dwukrotny spadek) oraz 6 dB (czterokrotny spadek) jako kluczowe punkty odniesienia. Moim zdaniem, warto to mieć w małym palcu, bo bardzo często w praktyce się pojawia pytanie: ile to jest spadek o 6 dB i co to oznacza dla jakości sygnału? Takie podstawy naprawdę ułatwiają analizowanie bardziej złożonych przypadków, gdzie na przykład trzeba szacować straty na trasie sygnału albo dobierać odpowiednie parametry urządzeń.

Pytanie 33

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Diffusion.
B. Predelay.
C. Type.
D. Decay.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Predelay w efektach typu Reverb to naprawdę jeden z tych parametrów, które potrafią bardzo mocno wpłynąć na charakterystykę przestrzeni, jaką budujemy w miksie. Pozwala on ustawić czas (w milisekundach) między momentem pojawienia się dźwięku źródłowego a pierwszym słyszalnym odbiciem od „ścian” wirtualnej przestrzeni. To bardzo przydatne, szczególnie gdy chcemy, żeby oryginalny sygnał był bardziej czytelny i nie zlewał się od razu z pogłosem – daje to trochę „oddechu” instrumentom czy wokalom. W praktyce, kiedy miksuję wokal albo gitarę akustyczną, często eksperymentuję z predelay, żeby uzyskać bardziej naturalny efekt i nie zamazać transjentów. Producenci audio i inżynierowie dźwięku od lat zwracają uwagę na ustawienie predelay, szczególnie przy dynamicznych aranżacjach. Branżowe standardy jasno sugerują, żeby predelay dobierać w odniesieniu do tempa utworu – np. 1/16 czy 1/32 nuty, żeby pogłos nie przeszkadzał w groove. Moim zdaniem wiele osób lekceważy ten parametr, a to on decyduje o tym, czy dźwięk jest „z przodu” czy już w głębi miksu. Warto poeksperymentować i przekonać się, jak sporo można uzyskać, dostosowując tylko ten jeden suwak.

Pytanie 34

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. De-crackle
B. Noise Reduction
C. De-click
D. Downsampling

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 35

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Aux.
B. MIDI.
C. Audio.
D. Instrument.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 36

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HP
B. HM
C. LP
D. LM

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr HP, czyli High-Pass (po polsku: filtr górnoprzepustowy), to standard w każdym systemie audio, akustyce czy nawet w elektronice użytkowej. Jego głównym zadaniem jest przepuszczanie dźwięków o częstotliwościach wyższych od tzw. częstotliwości odcięcia, a blokowanie albo tłumienie tych niskich. Taki filtr świetnie sprawdza się na przykład przy nagrywaniu wokalu — wycina szumy o niskich częstotliwościach, buczenie podłogi czy brum sieciowy, które potrafią zepsuć całą ścieżkę dźwiękową. W praktyce często spotykam się z sytuacją, gdzie technicy studyjni od razu włączają HP na mikrofonach, żeby nie zbierał przypadkowych dudnień czy „przewiewów” powietrza. Nawet w prostym mikserze czy interfejsie USB można znaleźć ten filtr pod oznaczeniem HPF albo po prostu z symbolem „górującej rampy”. Moim zdaniem warto pamiętać, że prawidłowe zastosowanie HP to klucz do czystego miksu, zwłaszcza jeżeli nie chcemy, żeby bas lub stopa perkusyjna wszystko nam rozmywała. Jak pokazują podręczniki realizacji dźwięku, HP jest praktycznie obowiązkowy dla wszystkich ścieżek poza tymi, gdzie te niskie częstotliwości są istotne, czyli np. dla basu. To taka trochę podstawa, a jednocześnie prosty sposób na lepszy efekt końcowy.

Pytanie 37

Który z wymienionych procesów typowo przeprowadza się w celu redukcji szumu kwantyzacji po przetworzeniu sygnału analogowego do postaci cyfrowej?

A. Normalizację.
B. Kompresję.
C. Próbkowanie.
D. Dithering.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dithering to jedna z tych technik, które wydają się niepozorne, a potrafią naprawdę uratować jakość sygnału cyfrowego, szczególnie przy niskich rozdzielczościach. Gdy sygnał analogowy zostaje zamieniony na cyfrowy, pojawia się zjawisko szumu kwantyzacji, czyli drobnych błędów wynikających z zaokrąglania wartości do najbliższego poziomu kwantyzacji. Dithering polega na dodaniu do sygnału małego, kontrolowanego szumu przed procesem kwantyzacji – brzmi to trochę paradoksalnie, ale dzięki temu te błędy nie kumulują się i nie tworzą nieprzyjemnych artefaktów, np. zniekształconych alikwotów czy nieprzyjemnego „cyfrowego” brzmienia w nagraniu audio. W audio masteringowym jest to zabieg absolutnie standardowy, szczególnie przy zgrywaniu ścieżki do niższej rozdzielczości, np. z 24 na 16 bitów. Spotkałem się z tym wielokrotnie w studiach nagraniowych – inżynierowie wręcz nie wyobrażają sobie finalizacji ścieżki bez zastosowania ditheringu. Co ciekawe, dithering jest używany także w grafice komputerowej, gdy trzeba zredukować liczbę kolorów w obrazie – tam efekt jest bardzo podobny, czyli wygładzenie przejść i uniknięcie widocznych pasów (bandingu). Moim zdaniem dobrze znać tę technikę, bo pozwala na znacznie lepszą kontrolę nad ostatecznym brzmieniem lub obrazem. Warto pamiętać, że są różne algorytmy ditheringu i ich dobór bywa zależny od zastosowania – na przykład w standardzie CD-Audio (Red Book) dithering jest w zasadzie normą. Jeśli ktoś chce zajmować się obróbką dźwięku profesjonalnie, nie sposób pominąć tej metody.

Pytanie 38

Poprzez zastosowanie filtra High Pass można

A. usunąć zakłócenia niskotonowe.
B. kształtować dynamikę nagrania.
C. usunąć szumy wysokotonowe.
D. dodać basu do nagrania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr High Pass, czyli filtr górnoprzepustowy, jest jednym z podstawowych narzędzi stosowanych w obróbce dźwięku, zwłaszcza podczas miksowania i masteringu nagrań. Jego główne zadanie to eliminacja niechcianych niskich częstotliwości, takich jak buczenie, szumy czy przydźwięki wynikające np. z podmuchów powietrza, stuków w mikrofon czy rezonansów pomieszczenia. Z mojego doświadczenia, High Pass filtr to must-have w przypadku nagrań wokalu, gitar czy overheadów perkusyjnych – praktycznie zawsze usuwam niepotrzebne tony poniżej 60-120 Hz, żeby dźwięk był czystszy i bardziej selektywny. Warto też wiedzieć, że branżowym standardem jest używanie High Passa na niemal każdej ścieżce, gdzie niskie częstotliwości nie są pożądane, co pomaga uniknąć „zamulania” miksu. Odpowiednie ustawienie częstotliwości odcięcia jest kluczowe – nie chodzi o to, żeby wyciąć za dużo i pozbawić brzmienia naturalnej masy, tylko subtelnie oczyścić ścieżki. Moim zdaniem, zbyt rzadko zwraca się uwagę na to, że High Pass nie służy do kształtowania dynamiki czy podbijania basu – to typowa pułapka dla początkujących. W praktyce, umiejętne stosowanie High Passa pozwala uzyskać bardziej przejrzyste, profesjonalnie brzmiące produkcje, a operatorzy dźwięku w radiu czy telewizji traktują ten filtr jako absolutną podstawę higieny dźwiękowej.

Pytanie 39

Technika mikrofonowa MS to technika

A. binauralna.
B. stereofonii natężeniowej.
C. ambisoniczna.
D. monofoniczna.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę sprytna metoda wykorzystywana przy nagraniach stereofonicznych, szczególnie jeśli chodzi o rejestrację przestrzeni z dużą precyzją i elastycznością. Jej podstawą jest wykorzystanie dwóch mikrofonów – jeden pracuje w trybie kardioidalnym (Mid), a drugi w ósemkowym (Side). Dzięki takiemu ustawieniu uzyskuje się tzw. stereofonię natężeniową, gdzie różnice w natężeniu sygnału z obu mikrofonów tworzą efekt stereo. Największą zaletą MS jest to, że po nagraniu można dowolnie regulować szerokość sceny stereo już na etapie postprodukcji, co daje dużą kontrolę nad brzmieniem. Często stosuje się ją np. przy nagrywaniu chóru, instrumentów akustycznych czy nawet w reportażu radiowym, bo pozwala zachować świetną zgodność sumy do mono – co nie jest oczywiste przy innych technikach stereo. Moim zdaniem, warto znać tę metodę, bo nie tylko daje profesjonalny efekt, ale i bywa wręcz standardem w branży. Ciekawe jest też to, że wiele pluginów do DAW wykorzystuje dekodowanie MS, więc rozumienie tej techniki ułatwia pracę z dźwiękiem cyfrowym. W ogóle, w świecie realizacji dźwięku technika MS to temat, który bardzo się przydaje i według mnie każdy, kto poważnie myśli o nagrywaniu, powinien go ogarnąć.

Pytanie 40

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. HSF
B. LPF
C. BPF
D. HPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ filtra, w którym najczęściej spotyka się możliwość regulowania dobroci (Q). Dobroć Q to parametr określający, jak wąskie lub szerokie jest przepuszczane pasmo w stosunku do częstotliwości środkowej. Im wyższa wartość Q, tym filtr jest 'ostrzejszy', bardziej selektywny – przepuszcza tylko wąski wycinek sygnału. No i właśnie przy filtrach pasmowoprzepustowych to kluczowe, bo czasami chcemy wyłowić z sygnału bardzo konkretną częstotliwość, a czasami bardziej ogólne pasmo. W praktyce na przykład w korektorach graficznych albo procesorach audio, możliwość regulacji Q pozwala bardzo precyzyjnie kształtować charakterystykę brzmienia – z mojego doświadczenia to zupełnie niezbędna rzecz przy precyzyjnym usuwaniu niechcianych dźwięków czy sprzężeń. Inżynierowie często projektują takie filtry w oparciu o topologie Sallen-Key lub Multiple Feedback ze specjalnym potencjometrem do płynnej regulacji Q. W literaturze i normach branżowych (np. IEC 60268) jednoznacznie wskazuje się, że pełna kontrola dobroci dotyczy filtrów BPF. Dla LPF i HPF regulacja Q praktycznie nie ma takiego znaczenia albo sprowadza się do regulowania tłumienia zbocza, co wcale nie jest tym samym. Podsumowując: jeśli widzisz możliwość ustawienia Q, to niemal zawsze chodzi o filtr pasmowoprzepustowy.