Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 12 kwietnia 2026 17:20
  • Data zakończenia: 12 kwietnia 2026 17:28

Egzamin niezdany

Wynik: 9/40 punktów (22,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Expander.
B. Declicker.
C. Delay.
D. Ducker.
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.

Pytanie 2

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. BPF
B. LF
C. LPF
D. HPF
Skrót LPF pochodzi od angielskich słów 'Low Pass Filter', czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o niskiej częstotliwości, a tłumią te wyższe. Kluczowe jest to, że ich działanie znajduje masę zastosowań w praktyce, zwłaszcza w elektronice audio, systemach pomiarowych czy nawet w przetwarzaniu obrazów. Nawet proste kolumny głośnikowe mają wbudowane filtry dolnoprzepustowe, żeby odciąć wysokie częstotliwości od subwoofera. Moim zdaniem znajomość tego skrótu to tak naprawdę jedna z podstaw dla każdego, kto zabiera się za projektowanie lub analizę układów elektronicznych. Jeśli spojrzysz na schematy, to prawie zawsze takie filtry są oznaczane właśnie jako LPF – to standard branżowy, nie tylko u nas, ale i na świecie. Sam nieraz projektowałem filtry dolnoprzepustowe na potrzeby odczytu sygnałów z czujników – bez LPF wszystko by pływało w szumie. Warto pamiętać, że charakterystyka filtra (czyli na przykład jego częstotliwość odcięcia) jest kluczowa dla danego zastosowania. W praktyce, jak projektujesz prosty układ RC – już możesz zbudować LPF, nawet nie wiedząc, że to się tak nazywa. Z mojego doświadczenia – bez LPF ani rusz w świecie elektroniki użytkowej.

Pytanie 3

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Noise gate.
B. Phaser.
C. Equalizer.
D. Peak Master.
Phaser to bardzo charakterystyczny efekt dźwiękowy, który rzeczywiście bazuje na modulacji fazy sygnału w określonym paśmie częstotliwości. Cała magia polega na tym, że sygnał jest rozdzielany na dwie ścieżki – jedna pozostaje niezmieniona, a druga przechodzi przez filtr all-pass, który przesuwa fazę w zależności od częstotliwości. Następnie oba sygnały są sumowane, co prowadzi do powstawania charakterystycznych efektów konstruktywnej i destruktywnej interferencji. W praktyce daje to dobrze słyszalne "przesuwanie" czy "fazowanie" w dźwięku, bardzo popularne zwłaszcza w gitarach elektrycznych czy syntezatorach – np. klasyczny efekt z muzyki rockowej lat 70. Moim zdaniem to jeden z najfajniejszych efektów, bo potrafi ożywić nawet najprostszy riff. Z punktu widzenia inżynierii dźwięku phasery są projektowane tak, by nie ingerować w głośność sygnału, a tylko modulować fazę. W branży standardem jest stosowanie phaserów właśnie w aranżacjach wymagających przestrzenności lub unikalnego "kosmicznego" brzmienia. Warto jeszcze dodać, że phaser nie jest częstotliwościowym korektorem czy urządzeniem tłumiącym – jego działanie jest unikalne, bo opiera się właśnie na manipulacji fazą, a nie na zmianie amplitudy czy tłumieniu szumów. Jeśli ktoś chce eksperymentować z barwą instrumentu, phaser daje naprawdę szerokie możliwości, a jego obsługa jest całkiem prosta nawet w domowym studio.

Pytanie 4

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. GATE
B. REV
C. COMP
D. DLY
Odpowiedź „GATE” jest jak najbardziej trafna – w kontekście procesorów efektów w DAW, właśnie ten skrót odnosi się do tzw. bramki szumów (ang. noise gate). Z mojego doświadczenia wynika, że bramka szumów to jeden z tych efektów, które są absolutnie niezbędne, gdy pracujesz z nagraniami audio, gdzie pojawia się niechciany szum, sprzężenia lub inne zakłócenia między frazami czy podczas ciszy w ścieżce. Bramki działają na zasadzie ustawiania progu głośności – jeśli sygnał jest poniżej tego progu, zostaje wyciszony, a jeśli go przekracza, jest przepuszczany dalej. Użycie GATE pozwala uzyskać czystsze nagrania, szczególnie w sytuacjach, gdzie mikrofon zbiera dźwięki otoczenia. W branży to już właściwie standard, że ścieżki wokalne, bębny czy nagrania z gitary często mają na insertach bramkę, żeby nie męczyć się z ręcznym usuwaniem szumów. Ciekawostką jest, że niektóre gate’y mają dodatkowe opcje, np. sidechain, co pozwala na naprawdę kreatywną pracę z dynamicznymi efektami. Warto jeszcze dodać, że GATE pojawia się praktycznie w każdym DAW, czy to Ableton, Cubase czy Pro Tools, a jego obsługa jest jednym z podstawowych elementów miksu. Moim zdaniem, każdy realizator dźwięku powinien znać to narzędzie na wylot, bo bez niego ciężko o profesjonalnie brzmiące nagrania.

Pytanie 5

Kompresor dynamiki do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Aux
B. Matrix
C. Insert
D. Master Output
Wybierając inne tory niż Insert, łatwo wpaść w pułapkę nieporozumień związanych z architekturą sygnałową miksera DAW. Aux to tor wysyłkowy, który przydaje się przede wszystkim do efektów pracujących równolegle, jak pogłos czy delay – tam część sygnału jest wysyłana na efekt, a następnie wraca do miksu i sumuje się z oryginałem. Kompresor dynamiki stosowany w ten sposób realizuje tzw. kompresję równoległą, a nie szeregową. W praktyce taka konfiguracja ma sens, gdy chcemy zachować część „czystego” sygnału i zmiksować go z przetworzonym, ale nie jest to podstawowy sposób użycia kompresora w kontekście kontroli dynamiki pojedynczej ścieżki. Matrix to raczej rzadko używane narzędzie w DAW, służące do zaawansowanych trasowań i kombinacji sygnałów, wykorzystywane głównie w dużych realizacjach live lub systemach surround – kompletnie niepotrzebne do prostego wpięcia kompresora na ścieżce. Podłączenie kompresora na Master Output to już naprawdę „gruba” ingerencja w cały miks – stosuje się tam czasem kompresory masteringowe, ale szeregowa obróbka pojedynczych śladów powinna odbywać się indywidualnie na Insertach. Często spotykanym błędem jest myślenie, że Aux albo Master Output pozwolą na większą elastyczność, ale w rzeczywistości tracimy wtedy precyzyjną kontrolę nad konkretną ścieżką, a efekty mogą się nakładać niepożądanie. Z mojego doświadczenia najwięcej bałaganu w miksie powstaje właśnie przez nieświadome korzystanie z tych torów. Standardy branżowe są dość jasne – kompresor w torze Insert to podstawa przy szeregowej obróbce dynamiki.

Pytanie 6

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LM
B. HM
C. HP
D. LP
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 7

W celu zabezpieczenia nagrania wokalu przed powstaniem zakłóceń powodowanych przez spółgłoski zwarte, w dokumentacji nagrania należy zastosować

A. equalizer.
B. low-cut-filter.
C. kompresor.
D. de-esser.
Low-cut-filter, czyli filtr górnoprzepustowy, to jedno z narzędzi, które praktycznie zawsze używam przy nagrywaniu wokalu, szczególnie w profesjonalnym lub półprofesjonalnym studio. Jego zadaniem jest eliminacja najniższych częstotliwości – tych, które często nie są pożądane w nagraniu głosu, a pochodzą na przykład od wstrząsów, stuknięć statywu, czy właśnie spółgłosek zwartych typu „p”, „b”, „t”. Kiedy ktoś śpiewa lub mówi blisko mikrofonu, te spółgłoski powodują swojego rodzaju wybuchowe podmuchy powietrza, które mogą generować zakłócenia na poziomie najniższych Hz. Low-cut pozwala je skutecznie wyciąć, nie ingerując przy tym w klarowność wyższych częstotliwości, więc nie wpływamy negatywnie na barwę wokalu. W studiach nagraniowych często ustawia się taki filtr już na poziomie preampu lub jeszcze przed wejściem sygnału do interfejsu audio. Dla mnie to podstawa workflow, zwłaszcza gdy nie korzystam z pop-filtra lub nagrywam w warunkach domowych. Dobrą praktyką jest nie przesadzać z ustawieniem częstotliwości odcięcia – zwykle 80–120 Hz wystarcza. Moim zdaniem to jeden z podstawowych tricków, który odróżnia amatorskie nagranie od profesjonalnego brzmienia.

Pytanie 8

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Od nowego zdania.
B. W połowie zdania.
C. Na początkowych słowach zdania.
D. Na końcowych słowach zdania.
Wybór miejsc innych niż początek nowego zdania do montażu ścieżki dźwiękowej lektora często prowadzi do sporego zamieszania i utraty przejrzystości, zarówno dla realizatora, jak i odbiorcy końcowego. Umieszczanie lektora w połowie zdania zwykle skutkuje nienaturalnym przecięciem logicznej całości – widz nie zawsze wie, do czego odnosi się lektor, łatwo zgubić sens i ciągłość wypowiedzi. Montaż na końcowych słowach zdania z kolei powoduje, że znaczenie oryginalnej wypowiedzi zostaje „urwane”, a nowy głos pojawia się zbyt późno, przez co informacja bywa nieczytelna lub ginie. Początkowe słowa zdania to już lepsza opcja, ale nawet tu można wpaść w pułapkę – jeśli lektor wchodzi tylko na pierwsze wyrazy, a potem znika lub pojawia się z opóźnieniem, całość brzmi poszarpanie. Osobiście zauważyłem, że osoby początkujące często myślą, że wystarczy wstawić lektora tam, gdzie akurat „jest miejsce”, bez analizowania sensu wypowiedzi czy tempa materiału. To błąd – praktyka i wytyczne branżowe, choćby te, które znajdują się w instrukcjach dla tłumaczy i realizatorów dźwięku, jasno wskazują, że nowa ścieżka lektorska powinna zaczynać się równo z początkiem nowego zdania, bo to gwarantuje spójność komunikatu. W innym przypadku pojawiają się niepotrzebne trudności z odbiorem, a efekt końcowy jest po prostu nieprofesjonalny. Pamiętaj, że komfort odbiorcy i czytelność to zawsze priorytet w realizacji ścieżek lektorskich.

Pytanie 9

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Tremolo.
B. Pitchshifter.
C. Wibrato.
D. Reverb.
Reverb to procesor, który faktycznie umożliwia zmianę właściwości przestrzennych nagrania – nic dziwnego, że stosuje się go praktycznie w każdym profesjonalnym miksie. Jego główną rolą jest symulacja pogłosu, czyli tego, jak dźwięk rozchodzi się i odbija w różnych pomieszczeniach: od małych pokojów aż po wielkie sale koncertowe. Dzięki temu możesz „osadzić” instrument albo wokal w określonej przestrzeni, przez co nagranie brzmi bardziej naturalnie, głębiej, czasem wręcz kinowo. W praktyce inżynierowie dźwięku wykorzystują reverb do uzyskania efektu odległości – można sprawić, że wokal stanie się jakby dalszy, a perkusja trafi „na tyły” miksu. To też jeden z podstawowych sposobów na rozdzielanie planów dźwiękowych w miksie, zgodnie z dobrymi praktykami produkcji muzycznej. Takie podejście jest zgodne z klasycznymi technikami stosowanymi w studiach nagraniowych od lat, gdzie reverb pozwala na kreatywne kształtowanie przestrzeni dźwięku. Moim zdaniem, umiejętne użycie pogłosu to jedna z kluczowych umiejętności realizatora – łatwo z tym przesadzić, ale bez tego miks często wydaje się suchy lub nienaturalny. Warto eksperymentować z różnymi typami reverbów: sprężynowy, płytowy, algorytmiczny czy konwolucyjny – każdy daje inne, ciekawe efekty. No i – dla porządku – reverb to jeden z niewielu efektów, które rzeczywiście ingerują w poczucie przestrzenności nagrania, a nie tylko w barwę czy wysokość dźwięku.

Pytanie 10

Gdzie jest optymalne miejsce do montażu ścieżki dźwiękowej?

A. Na wybrzmieniu dźwięku.
B. W miejscu wzrostu energii dźwięku.
C. W miejscu maksymalnej energii dźwięku.
D. W ciszy pomiędzy dźwiękami.
Bardzo często spotyka się mylne założenie, że najlepiej wprowadzić ścieżkę dźwiękową tam, gdzie wybrzmiewa dźwięk, rośnie energia lub osiąga ona maksimum. Niestety, takie podejście prowadzi do różnych problemów z czytelnością i odbiorem całego materiału. Zacznijmy od montowania na wybrzmieniu dźwięku – to dość powszechny błąd, bo wydaje się, że jak coś się kończy, to można od razu wprowadzić muzykę. W rzeczywistości, jeśli ścieżka wchodzi na wybrzmienie, powstaje efekt "nakładki". Dźwięki się przenikają i odbiorca nie jest w stanie wychwycić wszystkich niuansów, a dialogi czy efekty mogą być zagłuszane. Kolejny przypadek to wprowadzanie muzyki w miejscu wzrostu energii dźwięku. Tu z kolei łatwo o przeładowanie – nagłe wejście nowej warstwy podczas narastania głośności potrafi zniekształcić emocjonalny wydźwięk sceny i zaburzyć naturalną dynamikę. Moim zdaniem takie praktyki prowadzą do utraty przejrzystości i mogą nawet drażnić ucho słuchacza. Podobnie, montaż w punkcie maksymalnej energii dźwięku często powoduje efekt "przebicia" – wszystko naraz, zero przestrzeni i w efekcie widz czuje się przytłoczony. To jest bardzo częsta pułapka początkujących montażystów, którzy myślą, że więcej znaczy lepiej. Branżowe standardy (np. zalecenia EBU czy praktyki z kursów montaży filmowych) wyraźnie wskazują, że najczytelniejszy rezultat osiąga się właśnie w ciszy, czyli w naturalnej przerwie. Dzięki temu materiał audio nabiera profesjonalnego charakteru, a każda warstwa dźwięku ma swoje miejsce i nie konkuruje z innymi. Sztuka montażu to nie tylko technika, ale też wyczucie momentu – warto zaufać sprawdzonym rozwiązaniom, żeby efekt końcowy był klarowny i przyjemny dla odbiorcy.

Pytanie 11

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. HSF
B. LSF
C. LPF
D. HPF
Wybór niewłaściwego filtra przy obróbce dźwięku to dość częsty błąd, zwłaszcza jeśli nazwy skrótowe brzmią podobnie, a ich zastosowanie radykalnie się różni. HPF, czyli filtr górnoprzepustowy, działa dokładnie odwrotnie do LPF – jego zadaniem jest przepuszczać wysokie częstotliwości, a tłumić te poniżej ustalonej granicy. Stosowanie HPF byłoby uzasadnione, gdybyśmy chcieli na przykład wyciąć basy lub niskie szumy, nie zaś ograniczyć górę pasma. Z kolei skróty HSF i LSF nie należą do typowych oznaczeń filtrów w profesjonalnym audio. HSF mógłby sugerować High Shelf Filter, czyli filtr półkowy górny, który podbija lub obcina częstotliwości od pewnego punktu w górę, jednak nie 'wycina' ich całkowicie, tylko zmienia poziom – to inne zastosowanie niż ścisłe odcięcie. Podobnie LSF, czyli potencjalnie Low Shelf Filter, wpływa na niskie częstotliwości półkowo, a nie odcina ich jak filtr dolnoprzepustowy. Moim zdaniem, brak rozróżnienia między filtrami półkowymi a przepustowymi to najczęstsza przyczyna pomyłek początkujących akustyków. Warto pamiętać, że w profesjonalnym nazewnictwie (zgodnie z normami branżowymi, choćby AES czy ITU), skróty LPF (Low Pass Filter) i HPF (High Pass Filter) mają konkretne, niepodważalne znaczenie. Dobre praktyki nakazują najpierw określić, czy chcemy ograniczyć dół czy górę pasma, a potem dopasować filtr do tego zadania, bo nieprawidłowy wybór może prowadzić do utraty ważnych harmonii albo przesadnego stłumienia konkretnych dźwięków. Praktyka pokazuje, że prawidłowe rozpoznanie typu filtra pozwala znacząco poprawić jakość sygnału, natomiast pomyłki w tym zakresie utrudniają realizację profesjonalnych efektów audio.

Pytanie 12

Który z wymienionych parametrów korektora barwy wpływa na szerokość filtrowanego pasma częstotliwości?

A. Gain
B. Frequency
C. Output
D. Q
Parametr Q to kluczowa rzecz, jeśli chodzi o korektory barwy, szczególnie te parametryczne. Q, czyli tzw. dobroć filtra, bezpośrednio decyduje o szerokości pasma częstotliwości, które jest poddawane regulacji – im wyższa wartość Q, tym węższy zakres, który zmieniamy, natomiast niska wartość Q rozszerza wpływ korektora na szersze pasmo. To bardzo praktyczne, bo pozwala „wycinać” lub podbijać bardzo konkretne częstotliwości bez naruszania reszty sygnału. W branży audio, np. podczas miksowania nagrań czy przy pracy live na scenie, umiejętne operowanie parametrem Q jest wręcz niezbędne. Pozwala precyzyjnie eliminować niechciane dźwięki jak np. brumienie lub sybilanty, nie zabierając przy tym charakteru reszcie miksu. Moim zdaniem, każdy kto poważnie myśli o pracy z dźwiękiem, powinien trochę poeksperymentować z Q i zobaczyć, jak diametralnie zmienia się brzmienie, gdy operujemy tym właśnie parametrem. To jedno z tych ustawień, które rozdzielają zwykłe filtry od profesjonalnych narzędzi do kształtowania dźwięku. Warto też wiedzieć, że w standardach branżowych, jak choćby w korektorach graficznych i półparametrycznych, parametr Q jest często predefiniowany, a w tych w pełni parametrycznych można go swobodnie ustawiać. Dlatego Q to podstawa w precyzyjnej korekcji barwy.

Pytanie 13

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 1,4:1
B. 6:1
C. 2:1
D. ∞:1
Limiter, w odróżnieniu od zwykłych kompresorów, charakteryzuje się nieskończonym, czyli teoretycznie ∞:1 stopniem kompresji. To oznacza, że gdy sygnał przekroczy ustawiony próg (threshold), nie jest on wcale przepuszczany dalej, a poziom wyjściowy nie może wzrosnąć powyżej tego progu. W praktyce oznacza to bardzo agresywną ochronę przed przesterowaniem – żadna wartość powyżej thresholdu się nie przebije. Branżowe standardy, np. w nagłośnieniu koncertowym czy przy masteringu, jednoznacznie przypisują limiterom właśnie ten typ działania. Przykładowo, w miksie nagrań radiowych limiter ustawia się na końcu łańcucha, by nie dopuścić do przekroczenia 0 dBFS i uniknąć zniekształceń cyfrowych. Niektóre nowoczesne limitery oferują dodatkowe funkcje – look-ahead, soft clipping, czy programowane krzywe ataku i release – ale zawsze sednem jest ta nieskończona kompresja. Moim zdaniem, znając ten parametr, łatwiej świadomie korzystać z narzędzi do obróbki dynamiki i lepiej chronić materiał audio przed niechcianym przesterem. Warto pamiętać, że zwykłe kompresory (o stopniach np. 2:1 czy 6:1) stosuje się do subtelniejszego kształtowania dynamiki, a nie twardej ochrony poziomów sygnału.

Pytanie 14

Przy prowadzeniu dokumentacji montażu dźwięku w jego końcowych czynnościach należy uwzględnić użycie

A. pogłosu.
B. bramki szumów.
C. limitera.
D. korektora barwy.
Wielu początkujących realizatorów dźwięku ma pokusę, żeby w końcowym etapie montażu skupiać się na efektach takich jak pogłos czy korektor barwy, albo też stosować bramkę szumów. Z mojego punktu widzenia to są narzędzia, które mają swoje miejsce, ale nie na samym końcu łańcucha przetwarzania. Pogłos, czyli reverb, jest używany raczej do kreowania przestrzeni i głębi w miksie. Ustawia się go wcześniej, już na etapie kreatywnym, a nie podczas zabezpieczania końcowego materiału. Korektor barwy (equalizer) to świetne narzędzie do kształtowania charakteru brzmienia poszczególnych ścieżek albo sumy, jednak nie chroni on przed przesterowaniem, które może zniszczyć cały miks. Bramka szumów natomiast służy do eliminacji niechcianych szumów lub przydźwięków, ale jej miejsce jest zwykle na początku toru – na pojedynczych śladach, szczególnie na nagraniach wokalnych, instrumentalnych czy perkusyjnych. Typowym nieporozumieniem jest myślenie, że bramka szumów zabezpieczy końcowy miks – to kompletnie nie ten etap, bo ona nie radzi sobie z głośnymi transientami. W końcowych czynnościach montażu – przed oddaniem materiału czy masteringiem – kluczowe jest pilnowanie, aby poziom sygnału nie przekroczył bezpiecznych granic. Właśnie dlatego limiter jest tu niezastąpiony. Ogranicza on wszelkie szczyty sygnału, nie dopuszczając do clipowania, co jest kluczowe przy dystrybucji cyfrowej. Podsumowując, pogłos, bramka szumów i korektor są ważne, ale ich rola kończy się wcześniej, a ostatnie słowo zawsze należy do limitera.

Pytanie 15

Wskaż nazwę procesora lub procesu programowego umożliwiającego usuwanie przesłuchów z sąsiednich instrumentów w sygnale audio.

A. Normalize
B. Noise Gate
C. Reverse
D. Invert
Wybierając narzędzia do eliminowania przesłuchów pomiędzy śladami instrumentów, łatwo pomylić funkcje procesorów audio, szczególnie jeśli nie miało się jeszcze okazji głębiej popracować w praktyce studyjnej. Przykładowo, odwracanie fazy (Invert) to technika przydatna głównie wtedy, gdy mamy problem z sumowaniem sygnałów z kilku mikrofonów, np. na bębnie czy gitarze akustycznej. Może pomóc zmniejszyć zjawisko „wygaszania” sygnału, ale nie służy do usuwania konkretnych przesłuchów, bo oba sygnały dalej się nakładają w czasie, tylko z przeciwną polaryzacją. Reverse też nie rozwiązuje sprawy – to po prostu odtwarzanie sygnału od tyłu, ewentualnie dla efektów specjalnych, ale nie do minimalizacji zakłóceń z innych instrumentów. Normalize natomiast reguluje ogólny poziom głośności ścieżki, ustawiając maksymalny szczyt na wybraną wartość. To jest zabieg typowo masteringowy, wpływający na dynamikę, nie na charakter przesłuchów. W praktyce, przesłuchy to dźwięki sąsiednich instrumentów łapane przez mikrofony, które powinny rejestrować inny źródło. Stosowanie nieodpowiednich narzędzi, takich jak normalize czy odwracanie fazy, to częsty błąd początkujących, wynikający z mylenia pojęć i braku doświadczenia z realnymi problemami miksu. Dopiero bramka szumów, czyli Noise Gate, daje narzędzia do dynamicznego „wygaszania” sygnału, gdy poziom dźwięku spada poniżej progu, co skutecznie minimalizuje przesłuchy. Przy miksowaniu zespołów, szczególnie perkusji, to standardowa praktyka. Na rynku dostępne są zaawansowane bramki sprzętowe i wtyczki, a ich zastosowanie wymaga nie tylko wiedzy, ale i wyczucia, bo źle ustawiony gate może uszkodzić naturalny charakter instrumentu. Moim zdaniem, zrozumienie różnicy między procesorami audio i ich faktycznymi zastosowaniami to jeden z kluczowych kroków w stawaniu się świadomym realizatorem dźwięku.

Pytanie 16

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 20 Hz – 249 Hz
C. 2 000 Hz – 20 000 Hz
D. 250 Hz – 999 Hz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Sybilanty, czyli głoski takie jak „s”, „sz” czy „ś”, charakteryzują się bardzo wyraźnym, szumiącym brzmieniem, które łatwo wychwycić na spektrogramie właśnie w zakresie wysokich częstotliwości. Z mojego doświadczenia analizując nagrania mowy, sybilanty praktycznie zawsze wypadają powyżej 2 000 Hz, a często pikują nawet powyżej 5 000 Hz – szczególnie w języku polskim „s” potrafi sięgnąć do 8–10 kHz. Dlatego odpowiedź obejmująca przedział 2 000 Hz – 20 000 Hz jest tutaj absolutnie poprawna. To pasmo jest kluczowe przy detekcji i obróbce sybilantów, na przykład kiedy stosujemy de-essery podczas produkcji podcastów czy nagrań lektorskich. Standardy branżowe, np. przy masteringu muzyki czy postprodukcji dźwięku, jasno wskazują, że filtry oraz efekty usuwające sybilanty, takie jak de-esser, koncentrują się właśnie na tych wysokich pasmach. Często nawet w korektorach graficznych i parametrycznych można znaleźć fabryczne presety zaprojektowane specjalnie dla tego zakresu. W praktyce oznacza to, że chcąc poprawić czytelność nagrania, wygasić nieprzyjemne „syczenie” czy nawet podczas syntezy mowy, zawsze zwracamy uwagę na zakres 2 000 Hz i wyżej. Moim zdaniem, świadomość tej charakterystyki bardzo ułatwia skuteczną pracę z nagraniami mowy, bo pozwala szybko zlokalizować i wyeliminować problematyczne dźwięki bez niepotrzebnego naruszania pozostałych elementów sygnału.

Pytanie 17

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. Filtr LP.
B. De-esser.
C. Ekspander.
D. De-noiser.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to bardzo użyteczne narzędzie w obróbce dźwięku, szczególnie gdy mamy do czynienia z nagraniami lektorskimi czy wokalem. Jego główną rolą jest selektywna kompresja pasma częstotliwości, gdzie występują tzw. głoski syczące, czyli głównie „s”, „sz”, „cz” i podobne. Najczęściej są one zlokalizowane gdzieś w zakresie 4–10 kHz, choć wszystko zależy od charakterystyki głosu i mikrofonu. Moim zdaniem, dobrze ustawiony de-esser potrafi zdziałać cuda – usuwa drażniące podbicia sybilantów bez uszczerbku dla reszty nagrania. W praktyce realizatorskiej korzysta się z niego niemal zawsze przy nagraniach głosu, bo nawet bardzo dobre mikrofony studyjne „łapią” czasem zbyt mocne „syczenia”. To urządzenie nie tylko poprawia jakość odsłuchu, ale też sprawia, że głos jest bardziej zrozumiały i mniej męczący dla słuchacza. Poza tym, de-esser często jest wykorzystywany zgodnie z profesjonalnymi workflow w studiach radiowych, podcastowych czy przy produkcji audiobooków. Warto pamiętać, że używanie filtra LP czy de-noisera nie daje takich precyzyjnych efektów, bo one działają szerzej – de-esser skupia się typowo na bardzo wąskim paśmie i reaguje tylko wtedy, gdy poziom sybilantów przekracza ustalone threshold. Z mojego doświadczenia wynika, że regularne stosowanie de-essera to po prostu podstawa nowoczesnego miksu głosu. Warto nauczyć się go dobrze ustawiać, bo wtedy efekty są naprawdę profesjonalne.

Pytanie 18

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. LUFS
B. dBp
C. AU
D. dBFS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 19

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. reverb.
C. ogranicznik.
D. time stretch.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 20

Którą z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 1
B. 100
C. 10
D. 0,1

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wartość dobroci Q filtra to kluczowy parametr opisujący selektywność, czyli zdolność filtra do rozróżniania częstotliwości sygnałów. Wzór jest prosty: Q = f₀/B, gdzie f₀ to częstotliwość środkowa, a B – szerokość pasma. W tym pytaniu podstawiamy: Q = 200 Hz / 20 Hz = 10. Taką wartość często spotyka się w filtrach wykorzystywanych tam, gdzie wymagana jest wąska charakterystyka (np. korektory graficzne, filtry pasmowo-przepustowe w sprzęcie audio, niektóre urządzenia do pomiaru drgań). Z mojego doświadczenia, w inżynierii dźwięku czy automatyce, świadome dobieranie dobroci Q pozwala osiągnąć pożądany kompromis między selektywnością a odpowiedzią czasową układu – wysokie Q daje ostrą selekcję, lecz może prowadzić do podbicia w okolicy f₀, co czasem bywa problematyczne (np. w filtrach aktywnych pojawiają się oscylacje lub niestabilność). W praktyce, np. przy projektowaniu filtrów Butterwortha lub Chebysheva, zawsze warto przeliczać Q, by wiedzieć, jak bardzo "ostry" jest nasz filtr. Standardy branżowe, takie jak normy dotyczące audio, kładą nacisk na dobrą znajomość tego parametru, bo wpływa on bezpośrednio na jakość i efektywność separacji częstotliwości. No i jeszcze taka ciekawostka: czasem Q oznacza się jako tzw. współczynnik rezonansu – im wyższy, tym bardziej "wyczulony" filtr na konkretną częstotliwość. Sam często sprawdzam Q, zanim cokolwiek podłączę, bo nie ma nic gorszego niż źle dobrany filtr w praktycznym zastosowaniu.

Pytanie 21

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/3.
B. o 1/2.
C. o 1/6.
D. o 1/4.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 22

Którą z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 1
B. 0,1
C. 10
D. 100

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Prawidłowa odpowiedź to 10, bo wartość dobroci filtra (Q) liczy się według wzoru Q = f₀ / Δf, gdzie f₀ to częstotliwość środkowa, a Δf to szerokość pasma. Podstawiając dane z zadania: 200 Hz / 20 Hz = 10, więc wszystko się zgadza. W praktyce, im wyższy współczynnik Q, tym filtr ma węższą charakterystykę – wybiera tylko wąski zakres częstotliwości i ostro „odcina” inne. Taki filtr jest przydatny tam, gdzie chcemy wyodrębnić bardzo konkretne sygnały i nie dopuścić do mieszania się ich z szumami czy innymi zakłóceniami, np. w układach audio hi-fi do korekcji barwy lub w systemach radiowych do precyzyjnego „łapania” jednej stacji. Z mojego doświadczenia dobrze jest kojarzyć, że filtr o niskim Q jest bardziej „łagodny” – przepuszcza więcej częstotliwości obok tej środkowej, a wysoki Q to jak ostrze brzytwy. Warto pamiętać, że odpowiedni dobór Q zgodnie z normami (np. IEC, ANSI) jest kluczowy, bo wpływa na stabilność i efektywność układu. W elektronice często spotyka się filtry o Q w okolicach 10 przy analizie sygnałów wąskopasmowych. Takie zagadnienia są na porządku dziennym szczególnie przy projektowaniu filtrów aktywnych czy pasywnych – tu bez znajomości tego wzoru ani rusz.

Pytanie 23

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 6 dB/okt.
C. 12 dB/okt.
D. 18 dB/okt.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.

Pytanie 24

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma regionami dźwiękowymi?

A. MERGE
B. CROSSFADE
C. GLUE
D. PASTE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Crossfade to naprawdę podstawowa funkcja w praktycznie każdym nowoczesnym DAW, bez której ciężko sobie wyobrazić wygodną pracę z edycją audio. Chodzi tutaj o takie płynne połączenie dwóch sąsiednich regionów dźwiękowych, żeby nie było żadnego charakterystycznego kliku, przeskoku czy dziwnego przerywania dźwięku. Crossfade sprawia, że końcówka jednego regionu nakłada się z początkiem drugiego, a całość zostaje automatycznie wymiksowana i zblendowana – efekt to naturalnie brzmiąca całość, która nawet przy gwałtownych cięciach nie zdradza, że coś było edytowane. Moim zdaniem, to jedna z tych opcji, które naprawdę ratują skórę przy montażu wokalu czy perkusji, bo przecież w praktyce nagrania rzadko kiedy są idealnie czyste i zawsze trzeba coś pociąć, przestawić, podmienić. W branży muzycznej i postprodukcyjnej crossfade to po prostu standard – znajdziesz go w Cubase, Logic, Pro Tools czy Ableton Live. Dobrą praktyką jest nawet ustawić automatyczny crossfade dla każdego połączenia regionów, żeby nie musieć poprawiać później artefaktów. Jeśli chcesz, żeby Twój montaż był profesjonalny, ta funkcja to absolutna podstawa i warto ją dobrze poznać, bo można nią też kreatywnie manipulować długością i kształtem przejścia – na przykład dla uzyskania efektu morphingu czy delikatnego zanikania. Krótko mówiąc, crossfade to narzędzie, które znacznie podnosi jakość końcowego miksu i jest nieodłącznym elementem workflow każdego realizatora dźwięku.

Pytanie 25

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. VCA
B. AUX
C. MASTER
D. BUS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to absolutny standard jeśli chodzi o wysyłanie sygnału równolegle do efektów, takich jak reverb, delay czy chorus, w większości programów DAW. Główną zaletą AUX-ów jest to, że pozwalają wysłać określoną ilość sygnału z dowolnej ścieżki do efektu, bez wpływania na sygnał główny tej ścieżki — to tzw. wysyłka równoległa. Dzięki temu można np. nałożyć pogłos tylko na wybraną część miksu, kontrolować poziom efektu niezależnie od poziomu ścieżki bazowej i oszczędzać zasoby, bo jeden efekt obsługuje wiele śladów naraz. Praktycznie, kiedy mikser ma pogłos na AUX-ie, to wokal, werbel i gitary mogą korzystać z tego samego efektu, każdy w innej proporcji. Moim zdaniem, to jedna z najważniejszych funkcji, które odróżniają profesjonalny miks od amatorskiego – umiejętne korzystanie z wysyłek na AUX-y pozwala uzyskać spójność przestrzenną i naturalność brzmienia. Warto też pamiętać, że AUX nie wpływa na poziom sumy miksu, bo to tylko dodatkowa ścieżka sygnału. W branży muzycznej uważa się, że efekty typu time-based (jak delay czy reverb) prawie zawsze lepiej wrzucać na AUX niż wstawiać bezpośrednio na ścieżkę, bo mamy wtedy pełną kontrolę nad proporcjami i całość brzmi dużo bardziej profesjonalnie.

Pytanie 26

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zwiększenie częstotliwości próbkowania.
B. Zmniejszenie częstotliwości próbkowania.
C. Zmniejszenie rozdzielczości bitowej.
D. Zwiększenie rozdzielczości bitowej.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmniejszenie rozdzielczości bitowej naprawdę wpływa na rozpiętość dynamiczną nagrania, bo to właśnie głębia bitowa decyduje o tym, jak dokładnie można oddać najcichsze i najgłośniejsze fragmenty sygnału audio. Im mniej bitów, tym zakres dynamiki maleje – czyli różnice między cichymi a głośnymi dźwiękami są coraz bardziej „spłaszczone”. W praktyce np. w profesjonalnych nagraniach studyjnych używa się często 24 bitów, co daje bardzo dużą rozpiętość dynamiczną (aż do około 144 dB). Gdy jednak przejdziemy na 16 bitów (standard CD), to ta wartość spada do około 96 dB. Zmniejszając rozdzielczość bitową jeszcze niżej (na przykład do 8 bitów jak w starych konsolach czy komputerach), dynamika staje się wyraźnie ograniczona – słychać to jako brak subtelności w cichych dźwiękach i bardzo wyraźny szum kwantyzacji. Moim zdaniem, warto pamiętać, że dla materiałów, które mają zachować pełen zakres ekspresji i dynamiki, lepiej unikać zmniejszania głębi bitowej. W postprodukcji czy w miksowaniu często operuje się na 24 bitach i dopiero przy finalnym eksporcie zmniejsza się do 16 (o ile jest to konieczne np. dla CD). Swoją drogą, to często pomijany temat, a bardzo ważny, bo wpływa nie tylko na jakość dźwięku, ale też na komfort słuchania, szczególnie przy bardziej dynamicznej muzyce czy nagraniach koncertowych.

Pytanie 27

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. Comb Filter
B. HPF
C. LPF
D. High Shelf

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 28

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji barwy.
B. Po korekcji dynamiki.
C. Bez korekcji barwy i dynamiki.
D. Po korekcji barwy i dynamiki.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest właśnie to, o co chodzi w profesjonalnej pracy z dźwiękiem. Zapis sygnału na wielośladzie bez żadnej korekcji barwy ani dynamiki to podstawa, bo daje największą elastyczność podczas późniejszej obróbki. Moim zdaniem, to jak zostawiasz sobie otwartą furtkę na etapie miksu: masz czysty, nieprzetworzony surowiec i możesz z nim zrobić wszystko, co tylko przyjdzie Ci do głowy. Branżowa praktyka pokazuje, że wszelkie korekcje – czy to EQ, czy kompresja – wprowadzone zbyt wcześnie często są nieodwracalne. Jak coś przetniesz albo skompresujesz już w trakcie nagrań, potem nie da się tego „cofnąć”, a to utrudnia pracę przy miksowaniu. Standardy studyjne są tutaj jednoznaczne – inżynierowie dźwięku trzymają się zasady, żeby nagrywać sygnał jak najczystszy, bez dodatkowych ingerencji. Oczywiście, są wyjątki, na przykład kiedy chcesz zachować konkretny charakter brzmienia z używanego urządzenia czy efektu – wtedy czasem warto coś dodać przy nagraniu. Ale w większości sytuacji to właśnie nieprzetworzony sygnał daje najwięcej możliwości. Tak robią zawodowcy w studiach nagraniowych, gdzie każdy etap obróbki jest przemyślany i możliwy do dopasowania do końcowej wizji brzmieniowej.

Pytanie 29

Zjawisko maskowania dźwięku polega na

A. generowaniu przez ucho tonów harmonicznych.
B. spadku słyszalności tonów wysokich podczas głośnego słuchania.
C. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
D. zmianie barwy dźwięku w zależności od głośności.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 30

Który z wymienionych procesorów typowo służy do przekształcania przestrzeni w nagraniu dźwiękowym?

A. Reverb.
B. Time stretch.
C. Invert phase.
D. Pitch correction.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Reverb, czyli pogłos, to klasyczny procesor używany do przekształcania przestrzeni w nagraniu dźwiękowym. W praktyce ten efekt symuluje naturalne odbicia fal dźwiękowych, jakie występują w różnych pomieszczeniach – od małych pokojów po ogromne hale koncertowe. Dzięki niemu nagranie może zabrzmieć, jakby zostało wykonane w zupełnie innym miejscu, nawet jeśli wokalista stał w szczelnie wygłuszonym studio. Z mojego doświadczenia, reverb jest jednym z najważniejszych narzędzi do budowania głębi i atmosfery w miksie. W standardowych produkcjach muzycznych praktycznie nie ma śladu wokalu, który byłby kompletnie suchy – zawsze jest chociaż delikatny pogłos. Stosowanie reverbu pozwala też ukryć drobne niedoskonałości, sprawić, że instrumenty się ze sobą lepiej "kleją" i nie brzmią tak martwo. W branży przyjęło się, że to właśnie pogłos odpowiada za wrażenie przestrzeni, bo inne narzędzia, jak chorus czy delay, raczej nadają efektu szerokości czy powtórzeń, ale nie naturalnego odbicia dźwięku od ścian. Trochę trzeba uważać, żeby nie przesadzić, bo za dużo reverbu powoduje, że miks traci selektywność i robi się "zamulony". Fajna sprawa to też kreatywny reverb, na przykład specjalnie ekstremalne pogłosy na wokalu w muzyce ambient czy elektronicznej. Szczerze mówiąc, bez tego efektu trudno sobie wyobrazić współczesną produkcję audio – nawet filmowcy i podcasterzy używają go, żeby nadać nagraniom wiarygodność przestrzenną.

Pytanie 31

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. oktawowe.
B. dwuoktawowe.
C. sekstowe.
D. tercjowe.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź jest prawidłowa, ponieważ korektor dziesięciopunktowy najczęściej dzieli słyszalne pasmo częstotliwości właśnie na pasma oktawowe. W praktyce oznacza to, że każdy z dziesięciu suwaków lub gałek na korektorze odpowiada za regulację natężenia dźwięku w jednym zakresie odpowiadającym jednej oktawie. To bardzo wygodne rozwiązanie, które pozwala użytkownikowi szybko i precyzyjnie kształtować charakterystykę brzmienia. Z mojego doświadczenia wynika, że taki podział jest najczęściej spotykany w sprzęcie audio przeznaczonym zarówno dla amatorów, jak i profesjonalistów, bo dobrze balansuje pomiędzy szczegółowością a prostotą obsługi. Oktawowe pasma są szerokie na tyle, by wychwycić najważniejsze zmiany w brzmieniu, ale nie za szerokie, by gubić detale. Przykładowo – jeśli chcesz podbić bas w nagraniu, manipulujesz suwakiem odpowiadającym oktawie 60-120 Hz. W branży nagraniowej i estradowej uznaje się taki korektor za standard, bo łatwo go ustawić nawet pod presją czasu. Ważne jest, aby wiedzieć, że im więcej punktów korektora, tym węższe pasma – ale dziesięciopunktowy to zazwyczaj właśnie oktawy, jak pokazują najczęściej stosowane modele od firm takich jak Behringer czy Yamaha. Daje to duże możliwości przy jednoczesnej czytelności obsługi.

Pytanie 32

Zastosowanie efektu typu Flanger w nagraniu dźwiękowym powoduje

A. poszerzenie dynamiki sygnału.
B. modulację dźwięku.
C. ograniczenie niskich tonów.
D. przesterowanie sygnału.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Efekt typu Flanger to jeden z najbardziej rozpoznawalnych efektów modulacyjnych wykorzystywanych w produkcji muzycznej, szczególnie w rocku, elektronice i muzyce pop. Działa on na zasadzie mieszania sygnału pierwotnego z jego lekko opóźnioną kopią, gdzie to opóźnienie jest dynamicznie modulowane – zmienia się w czasie, tworząc charakterystyczne przesuwające się brzmienie przypominające dźwięk startującego samolotu albo „fale”. To właśnie modulacja czasu opóźnienia powoduje powstawanie efektu „grzebieniowego” w widmie częstotliwościowym, czyli słyszalne przemieszczanie się dołków oraz wzmocnień w paśmie. Takie zjawisko jest bardzo przydatne do dodania przestrzenności, ruchu lub wręcz psychodelicznego klimatu w nagraniu. Standardowo flanger stosuje się na gitarach, wokalach, a czasem nawet całych ścieżkach perkusyjnych – jednym słowem, wszędzie tam, gdzie potrzebujemy „ożywić” materiał dźwiękowy. Co ciekawe, efekt ten pierwotnie powstał przez ręczne zahamowanie jednej taśmy podczas odtwarzania dwóch identycznych ścieżek, stąd jego nazwa („flange” – kołnierz szpuli taśmy). Dobra praktyka zaleca umiar w stosowaniu flangera, bo przy dużym natężeniu może on zamazać szczegóły i sprawić, że miks stanie się nieczytelny. Moim zdaniem, flanger to świetne narzędzie kreacyjne, jeśli tylko używa się go z głową – można dzięki niemu dodać nowy wymiar nawet bardzo prostym dźwiękom.

Pytanie 33

Jeżeli materiał dźwiękowy ma być odtwarzany w kierunku od jego końca do początku, to należy użyć opcji

A. Phaser
B. Flanger
C. Reverse
D. Invert

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór opcji Reverse do odtwarzania materiału dźwiękowego od końca do początku to dokładnie to, co jest wymagane w tej sytuacji. Reverse po prostu odwraca czasowo całą próbkę audio, więc to, co normalnie byłoby na końcu utworu, w odwróconej wersji pojawia się na początku, i odwrotnie. To jest bardzo charakterystyczny efekt wykorzystywany choćby w muzyce elektronicznej czy rockowej – słychać wtedy nietypowe, „wywrócone na drugą stronę” brzmienia, na przykład odwrócone reverby czy talerze perkusyjne, które zaczynają się nagle, a kończą łagodnie. W programach takich jak Audacity, FL Studio czy Ableton Live ta funkcja jest dostępna jako standardowy edytor czasu. Według mnie Reverse to podstawa jeśli chodzi o typowe narzędzia edycji audio – praktycznie każdy szanujący się DAW to oferuje i to działa zawsze tak samo: po prostu odwraca ścieżkę w osi czasu. Warto wiedzieć, że żadne inne efekty, typu Phaser czy Flanger, nie mają nic wspólnego z odtwarzaniem od tyłu – one bazują na modulacjach fazy lub opóźnieniu, a nie na zmianie kierunku odtwarzania. Odwracanie audio przydaje się też w postprodukcji do specjalnych efektów dźwiękowych, np. w grach komputerowych czy filmach, żeby uzyskać nierealistyczne, „magiczne” brzmienia. Takie podejście jest zgodne z najlepszymi praktykami branżowymi – szybkie i w pełni przewidywalne.

Pytanie 34

Procesor dźwięku, umożliwiający kompresję sygnału audio, zaliczany jest do grupy procesorów przetwarzających

A. dynamikę.
B. intonację.
C. przestrzeń.
D. barwę.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Procesor dźwięku umożliwiający kompresję sygnału audio faktycznie należy do grupy procesorów przetwarzających dynamikę. Chodzi tutaj o urządzenia lub wtyczki, które wpływają na zakres głośności sygnału – czyli na przykład kompresory, limitery, czy ekspandery. Ich głównym zadaniem jest kontrolowanie różnic między najcichszymi a najgłośniejszymi fragmentami nagrania. Moim zdaniem to absolutnie podstawowe narzędzie w pracy z muzyką, zarówno podczas nagrań studyjnych, jak i przy miksowaniu koncertów na żywo. Kompresor pozwala wyrównać poziomy, przez co wokal nie „znika” w miksie albo nie wybija się nagle, co często się zdarza bez odpowiedniej kontroli dynamiki. Zwróć uwagę, że branża audio od lat uznaje kompresję za kluczowy etap produkcji – trudno sobie wyobrazić profesjonalnie brzmiące nagranie bez odpowiednio użytej kompresji. Często początkujący realizatorzy ignorują ten etap, przez co ich produkcje brzmią płasko albo chaotycznie. Warto wiedzieć, że procesory dynamiki mają zastosowanie nawet w radiu i telewizji, gdzie sygnał musi być zrównoważony, żeby nie zaskoczyć odbiorcy. Praktyka pokazuje, że dobre zrozumienie działania kompresji i innych procesorów dynamiki to podstawa pracy każdego realizatora czy producenta.

Pytanie 35

Do ograniczenia poziomu sygnału emitowanego przez instrumenty składowe zestawu perkusyjnego należy zastosować

A. bramkę szumów.
B. de-esser.
C. limiter.
D. expander.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Limiter to urządzenie, które jest absolutnie podstawą w przypadku ograniczania poziomu sygnału w nagraniach perkusji, zwłaszcza kiedy mamy do czynienia z nagłym wzrostem głośności (np. mocne uderzenie w werbel czy talerz crash). Z mojego doświadczenia wynika, że użycie limitera pozwala zabezpieczyć cały miks przed przesterowaniem, a przy okazji chronić sprzęt nagłaśniający przed uszkodzeniem. W praktyce, limiter ustawia się na taki poziom, żeby żaden sygnał nie przekroczył ustalonego progu (threshold), a jego działanie jest bardzo szybkie – praktycznie natychmiastowe, co jest kluczowe przy pracy z instrumentami perkusyjnymi. Branżowy standard mówi, że limiter to ostatni etap na ścieżce sygnałowej, szczególnie w systemach koncertowych i studyjnych, gdzie dynamika perkusji potrafi zaskoczyć nawet doświadczonych realizatorów. Warto dodać, że limiter nie tylko ogranicza szczyty sygnału – jeśli dobrze ustawiony, pozwala zachować naturalną dynamikę gry perkusisty, nie zabijając przy tym charakteru brzmienia. W dużych studiach używa się często limiterów klasy analogowej, bo mają szybką reakcję i nie wprowadzają zniekształceń. Osobiście uważam, że bez limitera nie ma co myśleć o profesjonalnym miksie perkusji, bo to po prostu obowiązkowy element łańcucha dźwiękowego.

Pytanie 36

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Delay
B. Equaliser
C. Compressor
D. Gate

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 37

Procesory efektów do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Output
B. Send
C. Insert
D. Input

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź „Insert” jest najwłaściwsza, bo procesory efektów wykorzystywane do obróbki sygnału w tzw. trybie szeregowym (czyli np. kompresory, EQ, bramki szumów, saturatory itp.) wymagają, by sygnał przechodził przez efekt w całości — od początku do końca toru audio. Gniazdo Insert w mikserze DAW działa dokładnie tak jak w analogowych konsoletach: sygnał wychodzi z kanału, przechodzi przez wtyczkę efektu i wraca na swoje miejsce. Dzięki temu cały dźwięk jest przetwarzany przez efekt, co jest kluczowe choćby przy korekcji czy dynamicznej obróbce ścieżek. W praktyce, jeśli chcesz „pomalować” brzmienie wokalu kompresorem lub całkowicie oczyścić gitarę z niepożądanych częstotliwości, umieszczasz te wtyczki właśnie na insercie — i dokładnie tak samo robi się w profesjonalnych studiach, bo to daje pełną kontrolę nad przetwarzaniem sygnału. Spotkałem się już wielokrotnie z sytuacją, gdy ktoś wrzucał kompresor na Send i potem się dziwił, że miks brzmi dziwnie – tak się po prostu nie robi, szczególnie przy efektach mających zmieniać całą dynamikę bądź barwę, a nie tylko dodawać coś do oryginału. Takie podejście jest zgodne z praktyką inżynierów dźwięku oraz standardami pracy w każdym szanującym się DAW, niezależnie czy mówimy o Cubase, Pro Tools, Ableton czy Studio One.

Pytanie 38

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Solo.
C. Fade out.
D. Mute.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 39

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Solo.
C. Mute.
D. Fade out.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fade out to fachowy termin używany w branży audio, który oznacza stopniowe, płynne wyciszanie dźwięku aż do całkowitej ciszy. W praktyce stosuje się go bardzo często – na przykład na końcu utworów muzycznych, w produkcji reklam, filmów, podcastów czy prezentacji multimedialnych. Dzięki fade out dźwięk nie urywa się nagle, tylko elegancko schodzi do zera, co brzmi naturalniej i po prostu przyjemniej dla ucha. Takie rozwiązanie to już branżowy standard, zwłaszcza w miksie i masteringu. W programach typu DAW (Digital Audio Workstation) ustawia się to bardzo intuicyjnie – wystarczy zazwyczaj przeciągnąć końcówkę ścieżki lub dodać automatyzację głośności. Dobrą praktyką jest stosowanie fade out tam, gdzie naturalne zakończenie utworu jest zbyt gwałtowne – można wtedy zapanować nad nastrojem i nie drażnić słuchacza nagłym brakiem dźwięku. Z mojego doświadczenia wynika, że umiejętność prawidłowego używania fade out przekłada się na lepszą jakość całego projektu dźwiękowego. Warto też pamiętać, że niektórzy producenci lubią używać bardzo długiego fade out, żeby zostawić delikatne echo czy szum na końcu. To już takie „smaczki” branżowe.

Pytanie 40

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Kompresja.
B. Konwersja.
C. Nadpróbkowanie.
D. Filtrowanie.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtrowanie to zdecydowanie najbardziej skuteczna metoda na usunięcie przydźwięku sieci energetycznej, czyli charakterystycznego buczenia o częstotliwości 50 Hz (w Polsce i większości Europy) lub 60 Hz (w USA). W praktyce, w programach DAW najczęściej stosuje się filtr dolnoprzepustowy, górnoprzepustowy albo precyzyjnie ustawiony filtr półkowy lub notch filter (filtr szczelinowy), by celowo wyciąć konkretną częstotliwość i jej harmoniczne, bez wpływania na resztę nagrania. Z mojego doświadczenia, najefektywniejsze są właśnie filtry notch, bo potrafią bardzo wąsko zredukować uciążliwy dźwięk, nie ruszając prawie sygnału muzycznego. W branży audio przyjęło się, że przed dalszą obróbką zawsze najpierw usuwa się takie artefakty – to podstawa workflow, żeby potem nie maskować problemu, tylko faktycznie go eliminować. Warto pamiętać, że filtry można łączyć, np. wycinać 50 Hz i kolejne harmoniczne (100 Hz, 150 Hz itd.), jeśli przydźwięk jest mocny. Bardziej zaawansowane narzędzia, jak np. iZotope RX, mają nawet specjalne presety do tego. Filtrowanie jest więc nie tylko najskuteczniejsze, ale też zgodne ze standardami postprodukcji dźwięku. Moim zdaniem każdy inżynier dźwięku powinien mieć to opanowane do perfekcji – przydźwięk sieciowy to bardzo powszechny problem, a filtry są podstawowym narzędziem w jego zwalczaniu.