Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 10 maja 2026 08:30
  • Data zakończenia: 10 maja 2026 08:35

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Które z urządzeń poszerza zakres dynamiki nagrania?

A. Filtr LP.
B. Filtr HP.
C. Saturator.
D. Ekspander.
Ekspander to narzędzie, które faktycznie poszerza zakres dynamiki nagrania, działając odwrotnie niż kompresor. W praktyce oznacza to, że różnica między najcichszymi a najgłośniejszymi fragmentami sygnału staje się większa. Moim zdaniem ekspander jest często niedoceniany, a potrafi zrobić robotę tam, gdzie miks wydaje się 'spłaszczony' i brakuje mu życia. Używa się go na przykład do wygładzania szumów tła – wszystko poniżej określonego progu zostaje jeszcze bardziej wyciszone, dzięki czemu cisza staje się prawdziwie cicha, a dynamika rośnie. W branży przyjmuje się, że ekspandery mogą być stosowane zarówno kreatywnie, jak i stricte narzędziowo, np. na ślady perkusji, wokalu czy ścieżki ambientowe. To świetny patent przy nagraniach live, gdy mikrofony zbierają dużo niepotrzebnych dźwięków z otoczenia. W przeciwieństwie do filtrów czy saturatora, ekspander nie wpływa bezpośrednio na barwę czy harmoniczne, tylko operuje 'głośnością' w sposób bardziej wyrafinowany niż zwykły fader. Standardy miksowania zakładają, żeby przed zastosowaniem kompresji dobrze przemyśleć, czy przypadkiem nie warto najpierw poszerzyć dynamiki tam, gdzie materiał jest zbyt płaski. Z mojego doświadczenia stosowanie ekspandera to często ostatni szlif, który potrafi dodać nagraniu przestrzeni i świeżości. Dobrze wiedzieć, jak to działa, bo daje ogromne możliwości w pracy przy każdym typie muzyki.

Pytanie 2

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Około pięciokrotny.
B. Mniej niż dwukrotny.
C. Ponad dwudziestokrotny.
D. Około dziesięciokrotny.
Formaty kompresji stratnej, takie jak MP3, AAC czy OGG Vorbis, zostały stworzone właśnie po to, żeby znacząco redukować rozmiary plików audio, a przy tym utrzymać akceptowalną jakość dźwięku. Gdy mamy do czynienia z plikiem WAV (który zazwyczaj jest nieskompresowany i zajmuje sporo miejsca – na przykład typowe 3-minutowe nagranie stereo 44,1 kHz/16 bit to ponad 30 MB), użycie dobrego kodeka stratnego pozwala zejść z rozmiarem do ok. 3 MB. Z mojego doświadczenia – zarówno przy projektach muzycznych, jak i podczas przygotowywania podcastów – stosuje się najczęściej bitrate na poziomie 128-192 kbps, co daje właśnie około dziesięciokrotną redukcję w stosunku do oryginału. Oczywiście, im wyższy bitrate, tym większy plik i lepsza jakość, ale właśnie 10x jest taką sensowną średnią, przy której większość ludzi nie słyszy większej różnicy w typowym sprzęcie. Standardy branżowe, na przykład w streamingach czy archiwizacji nagrań do internetu, bardzo często opierają się na tej proporcji. Praktycznym przykładem jest przesyłanie utworów do serwisów streamingowych – pliki muszą być jak najmniejsze przy zachowaniu jakości, bo to po prostu opłacalne i wygodne. Moim zdaniem, jeśli ktoś zawodowo obrabia dźwięk, to doskonale zna tę zasadę i zawsze balansuje między jakością a optymalnym rozmiarem pliku.

Pytanie 3

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Normalizacja.
B. Szerokopasmowa kompresja.
C. Kluczowanie amplitudy.
D. Edycja panoramy.
Normalizacja to operacja, która wprost podnosi poziom całego nagrania tak, żeby jego wartość szczytowa (czyli najwyższy możliwy pik sygnału) dotarła do ustalonego punktu odniesienia – standardowo jest to 0 dBFS (decibels full scale). W praktyce normalizacja jest stosowana, żeby maksymalnie wykorzystać dostępną rozdzielczość sygnału cyfrowego bez ryzyka przesterowania, które pojawia się powyżej 0 dBFS w systemach cyfrowych. Moim zdaniem, to jedna z podstawowych czynności na etapie przygotowania ścieżki audio do dalszego miksu lub masteringu, bo pozwala zachować kontrolę nad dynamiką i uniknąć problemów przy przekazywaniu plików dalej – np. do wydawcy, klienta czy innego realizatora. W branży muzycznej uważa się, że normalizacja jest neutralna dla brzmienia, bo nie zmienia proporcji głośności między fragmentami nagrania, tylko globalnie przesuwa cały sygnał w górę lub w dół, aż szczyt osiągnie wybrany poziom. Bardzo często korzysta się z niej przy zgrywaniu sesji wielośladowych do wspólnego projektu lub przy finalizowaniu materiału do druku. Ciekawostka: niektórzy inżynierowie używają normalizacji do nieco niższych poziomów, np. -1 dBFS, żeby zostawić minimalny margines bezpieczeństwa dla konwersji czy przesyłu strumieniowego. Warto wiedzieć, że normalizacja nie zastępuje kompresji ani limiterów – to zupełnie inne narzędzia do zarządzania dynamiką.

Pytanie 4

Która z wymienionych operacji umożliwia usunięcie zakłócenia w postaci składowej stałej obecnej w zarejestrowanym materiale dźwiękowym?

A. Normalize RMS
B. Hard Limit
C. Phase Invert
D. DC Offset Removal
Usunięcie zakłócenia w postaci składowej stałej, czyli tzw. offsetu DC (DC Offset), to jeden z podstawowych kroków w profesjonalnej obróbce dźwięku. Funkcja DC Offset Removal została wręcz stworzona specjalnie po to, by wyrównać przebieg sygnału względem osi poziomej, czyli żeby średnia wartość amplitudy była równa zeru. W praktyce przesunięcie DC może powodować różne problemy – od zniekształceń podczas dalszego przetwarzania, przez utrudnienia przy normalizacji głośności, aż po nieprawidłowe zachowanie efektów dynamicznych, takich jak kompresory czy limitery. Często w nagraniach z taniego sprzętu albo przy nie do końca poprawnej konfiguracji interfejsu pojawia się właśnie taki offset i nawet nie każdy go od razu zauważy, ale on potrafi skutecznie popsuć miks. Usunięcie DC offsetu jest dobrą praktyką zalecaną przez inżynierów dźwięku jeszcze przed jakąkolwiek korekcją czy masteringiem. Spotykałem się z opiniami, że niektórzy producenci muzyczni o tym zapominają i potem mają problemy z tłoczeniem winyli albo z nieoczekiwanymi artefaktami na platformach streamingowych. W profesjonalnych DAW-ach ta opcja jest zwykle łatwo dostępna, a jej użycie nie zmienia brzmienia sygnału, tylko stabilizuje jego podstawę. Tak więc, jeśli na śladzie audio widzisz, że całość przesunięta jest ponad lub pod zerem, zawsze warto użyć DC Offset Removal – to taki trochę obowiązkowy etap przygotowania materiału dźwiękowego, szczególnie jeśli zależy Ci na jakości technicznej nagrania.

Pytanie 5

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Scenariusz.
B. Rider techniczny.
C. Lista znaczników.
D. Partytura.
Scenariusz to absolutna podstawa każdej produkcji słuchowiska radiowego. Bez niego nie da się w ogóle ruszyć z miejsca, bo to właśnie tam rozpisuje się dialogi, opisy dźwięków, kolejność scen, a nawet podpowiedzi reżyserskie. Taki dokument pozwala wszystkim członkom ekipy – od reżysera po realizatora dźwięku i aktorów – dokładnie wiedzieć, co mają robić i jak interpretować swoją rolę. Standardem w branży radiowej jest, by scenariusz zawierał nie tylko teksty postaci, ale również wskazówki dotyczące atmosfery, rodzaju efektów dźwiękowych czy nawet sposobu wypowiadania kwestii. Dzięki temu całość brzmi potem profesjonalnie i spójnie. Moim zdaniem, scenariusz jest wręcz sercem całego procesu – bez niego trudno mówić o pracy twórczej na serio. Praktycznie każda duża produkcja radiowa działa według tego schematu, bo to upraszcza komunikację i minimalizuje błędy. Dodatkowo, dobry scenariusz bardzo ułatwia późniejszą postprodukcję, bo dokładnie wiadomo, jakie elementy dźwiękowe muszą być przygotowane. Także nawet jeśli ktoś myśli, że wystarczy improwizacja, to w praktyce wszyscy profesjonaliści polegają właśnie na solidnym, dobrze opisanym scenariuszu.

Pytanie 6

Którego z wymienionych analizatorów używa się standardowo do wzrokowej kontroli poziomu nagrania?

A. Spectrum Analyzer
B. Phase Scope
C. Oscilloscope
D. Level Meter
Level Meter to absolutny standard, jeśli chodzi o wzrokową kontrolę poziomu nagrania w praktyce studyjnej czy podczas nagrań na żywo. Ten analizator jest wręcz podstawowym narzędziem realizatora dźwięku – w zasadzie trudno wyobrazić sobie bez niego poprawne ustawienie gainu czy uniknięcie przesterowania. Level Meter pokazuje poziom sygnału w decybelach (zazwyczaj dBFS w systemach cyfrowych albo dBu/dBV w analogowych), co pozwala szybko ocenić, czy nagranie mieści się w bezpiecznym zakresie, a jednocześnie nie jest za cicho. Najczęściej spotyka się mierniki typu peak (szczytowe) oraz RMS (średnie), a profesjonalne konsole czy interfejsy DAW oferują obie opcje. W teorii powinno się pilnować, by nie przekraczać 0 dBFS w systemie cyfrowym – to już jest granica przesterowania. Moim zdaniem, korzystanie z Level Meter to nie tylko dobra praktyka, ale wręcz konieczność w dzisiejszej produkcji audio. Warto też zwracać uwagę na ballistykę wskaźnika – niektóre metery są wolniejsze, przez co pokazują bardziej uśredniony poziom (np. VU Meter), a inne błyskawicznie pokazują piki. W studiach radiowych czy telewizyjnych Level Metery to podstawa workflow, a w większości DAW-ów są one domyślnie zaimplementowane na każdym kanale. Jeśli chcesz pracować jak zawodowiec, zawsze miej oko na Level Meter – to naprawdę oszczędza wiele nerwów i problemów przy miksie czy masteringu.

Pytanie 7

Aby szybko zlokalizować początki kolejnych utworów zmasterowanych do nagrania w formacie CD-Audio, najlepiej jest wykonać spis

A. znaczników.
B. fade’ów.
C. linków.
D. setów.
Wybranie znaczników jako właściwej odpowiedzi pokazuje zrozumienie, jak rzeczywiście działa profesjonalny mastering i authoring płyt CD-Audio. Znaczniki (ang. track markers lub index markers) to specjalnie umieszczone punkty na ścieżce, które informują odtwarzacz CD o początku każdego kolejnego utworu. Dzięki nim sprzęt audio od razu wie, gdzie zaczyna się dana piosenka i może „przeskoczyć” dokładnie tam, gdzie chcemy. Takie znaczniki umieszcza się już na etapie masteringu, często w oprogramowaniu DAW albo dedykowanych aplikacjach do authoringu CD. Moim zdaniem bez tych znaczników każda płyta brzmi po prostu mniej profesjonalnie, a użytkownik traci wygodę obsługi, bo trzeba przewijać. Standard Red Book (czyli ten, który definiuje CD-Audio) jasno precyzuje, że każda ścieżka musi mieć swój własny początek oznaczony właśnie takim markerem. Warto pamiętać, że przy dużych projektach, gdzie na jednym nośniku mamy kilkanaście czy kilkadziesiąt kawałków, bez tych znaczników nawet najlepszy materiał zwyczajnie się „gubi”. Z mojego doświadczenia praktycznego wynika, że dobrze wstawione znaczniki to podstawa kontroli jakości oraz wygody słuchacza. W branży muzycznej i wszędzie tam, gdzie liczy się precyzja i profesjonalizm, znaczniki są absolutnym must-have. Jeśli ktoś przygotowuje płytę do tłoczenia, to spis znaczników to naprawdę podstawa dokumentacji dla tłoczni.

Pytanie 8

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. SOLO
B. INPUT
C. RECORD
D. MUTE
Funkcja SOLO na ścieżkach w sesji DAW to absolutna podstawa pracy z wieloma kanałami dźwiękowymi. Włączając SOLO na konkretnej ścieżce, powodujesz, że tylko ten tor (lub grupa zaznaczonych ścieżek solo) jest słyszalny w odsłuchu, a cała reszta zostaje automatycznie wyciszona. To bardzo przydatne np. podczas miksowania, kiedy chcesz dokładnie usłyszeć, co się dzieje z dźwiękiem jednej stopy perkusyjnej albo wokalu, bez rozpraszających elementów innych śladów. W każdym poważniejszym DAW – czy to Pro Tools, Cubase, Ableton, Reaper, Studio One – SOLO działa praktycznie identycznie, więc to taki uniwersalny język producentów. Moim zdaniem, bez SOLO nie da się pracować szybko i precyzyjnie, bo wyłuskanie niuansów w gąszczu śladów bez tej funkcji to prawdziwa męka. Często używa się SOLO w połączeniu np. z automatyzacją lub korekcją – bo dopiero na czystym odsłuchu da się „wyłapać” niechciane dźwięki czy precyzyjnie ustawić efekty. Warto pamiętać, że są różne tryby SOLO, np. solo destrukcyjne (mute dla reszty ścieżek) czy solo PFL (pre-fader listen) – to już bardziej zaawansowane, ale w każdym razie, SOLO to kluczowy przyjaciel każdego realizatora.

Pytanie 9

Który ze sposobów opisu osi czasu w sesji oprogramowania DAW odnosi się do jednostek czasu?

A. SAMPLES
B. FRAMES
C. MIN/SEC
D. BARS/BEATS
MIN/SEC to chyba najpopularniejszy sposób opisu osi czasu w DAW, jeśli zależy nam na rzeczywistych jednostkach czasu, a nie stricte muzycznych. W praktyce oznacza to, że cała sesja, klipy lub konkretne zdarzenia są oznaczone właśnie w minutach i sekundach, tak jak w zwykłym zegarze. To rozwiązanie jest nieocenione np. podczas montażu dźwięku do filmu, reklamy czy podcastów – wszędzie tam, gdzie liczy się precyzyjna synchronizacja z obrazem lub narracją, a nie tylko z tempem utworu. Ja często korzystam z MIN/SEC przy produkcji spotów reklamowych, bo klient zawsze pyta „ile sekund trwa dany efekt”, a nie „ile to jest taktów”. W branży profesjonalnej MIN/SEC to absolutny standard przy pracy z materiałami, gdzie czas nominalny jest ważniejszy niż aspekty muzyczne, np. w radiu lub TV. Ciekawostka: niektóre DAWy pozwalają nawet na jednoczesny wyświetlacz MIN/SEC i innych formatów, żeby szybko porównywać synchronizację z tempem. Wielu realizatorów dźwięku przyzwyczaiło się też, że łatwiej jest im planować strukturę sesji pod kątem minut i sekund, zwłaszcza przy masteringu czy cutach do konkretnych ram czasowych. To bardzo praktyczny i uniwersalny wybór w codziennej pracy z dźwiękiem.

Pytanie 10

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. SPLIT
B. CUT
C. DELETE
D. FREEZE
Funkcja SPLIT to absolutny standard w każdym szanującym się programie typu DAW, od prostych edytorów po zaawansowane stacje robocze jak Pro Tools czy Cubase. Z jej pomocą możesz błyskawicznie podzielić jeden plik audio na kilka mniejszych fragmentów, co jest niesamowicie wygodne przy edycji dialogów, cięciu sampli czy przygotowywaniu pętli rytmicznych. Moim zdaniem, to jedna z najczęściej używanych funkcji na ścieżkach audio, bo pozwala zyskać pełną kontrolę nad aranżacją i montażem – nie trzeba kopiować całych plików, ciąć na zewnątrz i ponownie importować do projektu. SPLIT praktycznie zawsze działa w miejscu kursora albo w wybranym zakresie, więc szybko dzielisz materiał dokładnie tam, gdzie tego chcesz. Dodatkowo większość DAW pozwala odwrócić ten podział bez utraty oryginalnych danych, co jest ogromnym plusem przy pracy nieniszczącej. Trochę z doświadczenia – bez SPLIT praca z podcastami czy muzyką elektroniczną byłaby o wiele bardziej uciążliwa. Profesjonaliści branży audio zawsze korzystają z tej funkcji, bo jest szybka, precyzyjna i nie wpływa negatywnie na jakość dźwięku. Warto też wiedzieć, że podział ścieżki przez SPLIT nie powoduje automatycznie usunięcia żadnej jej części, tylko wygodnie je oddziela, żebyś mógł osobno przesuwać, kopiować czy edytować każde z nich. To taki must-have każdej sesji edycyjnej.

Pytanie 11

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Normalizacja.
B. Transpozycja.
C. Korekcja.
D. Kompresja.
Normalizacja to proces, który polega na podniesieniu poziomu całego nagrania w taki sposób, żeby jego najwyższa wartość szczytowa (peak) osiągnęła dokładnie 0 dBFS, czyli maksymalny poziom sygnału cyfrowego bez przesterowania. To jedna z najczęściej wykonywanych operacji podczas pracy z dźwiękiem w studiu czy przy montażu podcastów. Dzięki normalizacji uzyskujemy bardziej równomierny poziom głośności między różnymi nagraniami albo plikami audio, co znacznie ułatwia dalszą obróbkę i miksowanie, zwłaszcza w profesjonalnych workflow. Moim zdaniem, to taka podstawowa „higiena” dźwiękowa — nie poprawia dynamiki jak kompresja, ale daje pewność, że żaden plik nie będzie za cichy lub nieprzewidywalnie głośny. Warto wiedzieć, że normalizacja nie zniekształca proporcji między głośniejszymi i cichszymi fragmentami, bo wszystko podnoszone jest równomiernie, czyli nie ucina transjentów ani nie spłaszcza dynamiki, tylko przesuwa całość w górę. Użycie normalizacji jest szczególnie polecane przed eksportem ścieżek do masteringu albo publikacją materiałów w internecie, gdzie ważne są standardy głośności. W branży muzycznej i radiowej często zwraca się uwagę na to, żeby nie przekraczać 0 dBFS, bo wtedy pojawia się clipping — a normalizacja nam właśnie w tym pomaga. Z doświadczenia wiem, że zbyt częste używanie normalizacji na różnych etapach może prowadzić do zgubienia pierwotnej dynamiki, więc lepiej traktować ją jako jeden z ostatnich kroków w procesie produkcji.

Pytanie 12

Który z wymienionych trybów wyświetlania jednostek na osi czasu w sesji montażowej programu DAW odnosi się do taktów utworu muzycznego?

A. Samples.
B. Seconds.
C. Frames.
D. Bars.
Tryb wyświetlania „Bars” w DAW to właściwie podstawa przy pracy z muzyką opartą na metrumnie, czyli w taktach i uderzeniach. W praktyce, kiedy edytujesz czy komponujesz, korzystając z siatki w trybie Bars, możesz idealnie synchronizować dźwięki, automatyzacje, sample czy nawet efekty z podziałem na takty i bity. To jest mega wygodne podczas aranżacji, bo łatwiej planować wejścia instrumentów, zmiany akordowe czy nawet całą strukturę utworu. Tak robi się w większości profesjonalnych projektów nagraniowych i produkcyjnych – wszędzie, gdzie utwór ma ustalone tempo i rytm, korzystanie z Bars po prostu usprawnia pracę. To trochę jak czytanie nut w cyfrowej wersji – „Bars” pozwalają myśleć muzycznie, nie tylko technicznie. Z mojego doświadczenia praca w tym trybie daje też większą kontrolę nad synchronizacją MIDI, kwantyzacją czy loopowaniem ścieżek. Większość DAW domyślnie ustawia Bars jako główny tryb, bo to standard branżowy przy muzyce współczesnej, elektronicznej i każdej, gdzie timing jest kluczowy. Oczywiście, na etapie miksu czasem przełącza się na sekundy, ale układanie aranżu w Bars to absolutny must-have. Fajnie wiedzieć, że ogarnianie tego trybu przekłada się na szybszą i bardziej kreatywną pracę.

Pytanie 13

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Czterokrotny.
B. Trzykrotny.
C. Dwukrotny.
D. Pięciokrotny.
Zmniejszenie poziomu sygnału o 6 dB powoduje, że moc sygnału spada dokładnie czterokrotnie. Wynika to bezpośrednio ze wzoru na decybele: 10 log(P2/P1), gdzie P2 to moc końcowa, a P1 początkowa. Jeśli mamy spadek o 6 dB, to podstawiając do wzoru: 10 log(P2/P1) = -6, z czego wynika, że P2/P1 = 10^(-6/10) ≈ 0,25, czyli moc końcowa stanowi 1/4 mocy początkowej. Moim zdaniem to jeden z tych tematów, które wydają się trudniejsze niż są w rzeczywistości – wystarczy raz policzyć, aby zrozumieć. W praktyce, zwłaszcza w telekomunikacji czy elektroakustyce, redukcja o 6 dB pojawia się bardzo często, np. przy stosowaniu tłumików sygnału, ocenie strat na kablach albo przy tłumieniu fal radiowych przez przeszkody. Na przykład, jeśli masz nadajnik o mocy 40 W i sygnał zostaje osłabiony o 6 dB, to na wyjściu zostaje 10 W. To bardzo przydatna zależność, bo pozwala szybko ocenić, jak mocno sygnał zostanie osłabiony bez konieczności żmudnych obliczeń. Warto też pamiętać, że spadek o 3 dB daje spadek mocy o połowę, a więc 6 dB to dwa razy po 3 dB, czyli dwa razy po połowie – wychodzi właśnie 1/4, czyli czterokrotnie. To uniwersalna zasada stosowana praktycznie na całym świecie, również w pomiarach i normach międzynarodowych, np. ITU czy EN.

Pytanie 14

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. uzyskania jednorodnej kopii pliku.
B. zmiany nazwy pliku.
C. ograniczenia wielkości pliku.
D. zmiany lokalizacji pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 15

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Dwukrotny.
B. Czterokrotny.
C. Pięciokrotny.
D. Trzykrotny.
Zmniejszenie poziomu sygnału o 6 dB oznacza, że moc sygnału spada dokładnie czterokrotnie. Wynika to z definicji decybela – 1 dB to logarytmiczna jednostka opisująca stosunek dwóch wartości mocy. Wzór na zmianę mocy w decybelach wygląda tak: dB = 10 * log10(P2/P1). Jeśli podstawimy -6 dB, to: -6 = 10 * log10(P2/P1), czyli log10(P2/P1) = -0,6. Po wyliczeniu: P2/P1 = 10^(-0,6) ≈ 0,25, czyli dokładnie 1/4, co oznacza czterokrotny spadek mocy. Takie przeliczenia przydają się np. w systemach nagłośnieniowych, radiokomunikacji, instalacjach antenowych czy nawet prostych testach wzmacniaczy. W praktyce dużo łatwiej jest operować na decybelach niż na zwykłych wartościach liniowych, bo szybciej wychwycisz zmiany – 3 dB to połowa, 6 dB to ćwiartka, 10 dB to już tylko 1/10 pierwotnej mocy. Z mojego doświadczenia, wielu techników korzysta z tego uproszczenia na co dzień, bo pozwala błyskawicznie ocenić skutki tłumienia czy strat na kablu. Standardy branżowe, np. ITU czy zalecenia EBU, też operują tymi wartościami właśnie dlatego, że są wygodne i uniwersalne. Warto sobie to dobrze zapamiętać – i przydaje się nie tylko na egzaminie, ale i w realnej pracy z elektroniką.

Pytanie 16

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 3|4|350
B. 1|2|000
C. 4|2|400
D. 2|3|240
Wskazanie 1|2|000 rzeczywiście oznacza początek drugiej miary w takcie, co jest zgodne z konwencjami stosowanymi praktycznie we wszystkich popularnych DAW-ach, jak Ableton Live, Cubase, czy Pro Tools. Pierwsza liczba (1) to numer taktu, druga (2) – numer miary (czyli beat, czasem nazywany ćwierćnutą w metrum 4/4), a trzecia liczba (000) oznacza początek danego beatu na osi ticków (czyli brak przesunięcia, dokładnie na 'klik'). To bardzo istotne, bo przy edycji MIDI, kwantyzacji czy automatyzacji parametrów precyzyjne wskazanie początku miary pozwala dokładnie synchronizować wydarzenia muzyczne. Często podczas pracy z loopami lub synchronizacją do innych ścieżek musimy ustawić markery właśnie na początku konkretnej miary – wtedy takie oznaczenie jest nieocenione. W praktyce dużo osób myli się i traktuje ticki jako coś mniej ważnego, a to przecież one odpowiadają za mikroskopijną precyzję w ustawianiu nut czy zdarzeń automatyzacji. Moim zdaniem dobrze znać te zapisy, bo pozwala to uniknąć typowych błędów przy aranżacji – na przykład przesunięcia wejścia instrumentu o kilka ticków. Tego typu detale są bardzo ważne, szczególnie przy produkcji elektroniki czy muzyki filmowej, gdzie synchronizacja jest absolutnie kluczowa.

Pytanie 17

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 240 kb/s
B. 320 kb/s
C. 160 kb/s
D. 480 kb/s
320 kb/s to największa stała przepływność bitowa, jaką przewiduje standard MP3 (MPEG-1 Audio Layer III). To właśnie ta wartość jest górnym limitem dla plików MP3 zapisanych w trybie CBR, czyli z niezmienną szybkością przesyłania danych. Z mojego doświadczenia wynika, że jeśli ktoś oczekuje najwyższej możliwej jakości w ramach pliku MP3, to zawsze wybiera właśnie 320 kb/s. To dlatego w profesjonalnych studiach czy podczas cyfrowego archiwizowania muzyki często wybiera się właśnie ten parametr. Wiadomo, że MP3 jest formatem stratnym, więc nawet przy 320 kb/s nie uzyskamy pełnej jakości oryginału, ale dla większości zastosowań – od odtwarzaczy samochodowych po radio internetowe – ta przepływność jest akceptowalnym kompromisem między rozmiarem pliku a jakością dźwięku. Standard ISO/IEC 11172-3 wyraźnie określa, że próbując ustawić wyższą wartość, np. 480 kb/s, nie osiągniemy zamierzonego efektu – takie pliki nie będą kompatybilne z większością odtwarzaczy. Warto pamiętać, że inne formaty audio, jak AAC czy FLAC, mogą obsługiwać inne zakresy przepływności, ale w świecie MP3 320 kb/s to maksimum. Ja zawsze polecam sprawdzać ustawienia eksportu w programach do kodowania muzyki, bo czasem domyślna wartość to 128 lub 192 kb/s, a szkoda tracić na jakości, skoro można lepiej.

Pytanie 18

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 2 000 Hz – 20 000 Hz
C. 20 Hz – 249 Hz
D. 250 Hz – 999 Hz
Sybilanty, czyli głoski takie jak „s”, „sz” czy „ś”, charakteryzują się bardzo wyraźnym, szumiącym brzmieniem, które łatwo wychwycić na spektrogramie właśnie w zakresie wysokich częstotliwości. Z mojego doświadczenia analizując nagrania mowy, sybilanty praktycznie zawsze wypadają powyżej 2 000 Hz, a często pikują nawet powyżej 5 000 Hz – szczególnie w języku polskim „s” potrafi sięgnąć do 8–10 kHz. Dlatego odpowiedź obejmująca przedział 2 000 Hz – 20 000 Hz jest tutaj absolutnie poprawna. To pasmo jest kluczowe przy detekcji i obróbce sybilantów, na przykład kiedy stosujemy de-essery podczas produkcji podcastów czy nagrań lektorskich. Standardy branżowe, np. przy masteringu muzyki czy postprodukcji dźwięku, jasno wskazują, że filtry oraz efekty usuwające sybilanty, takie jak de-esser, koncentrują się właśnie na tych wysokich pasmach. Często nawet w korektorach graficznych i parametrycznych można znaleźć fabryczne presety zaprojektowane specjalnie dla tego zakresu. W praktyce oznacza to, że chcąc poprawić czytelność nagrania, wygasić nieprzyjemne „syczenie” czy nawet podczas syntezy mowy, zawsze zwracamy uwagę na zakres 2 000 Hz i wyżej. Moim zdaniem, świadomość tej charakterystyki bardzo ułatwia skuteczną pracę z nagraniami mowy, bo pozwala szybko zlokalizować i wyeliminować problematyczne dźwięki bez niepotrzebnego naruszania pozostałych elementów sygnału.

Pytanie 19

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 1 ścieżkę.
B. 2 ścieżki.
C. 4 ścieżki.
D. 3 ścieżki.
W przypadku rejestracji chóru z wykorzystaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych, minimalna liczba ścieżek monofonicznych w sesji DAW powinna wynosić cztery. Chodzi o to, że para XY to zawsze dwa osobne mikrofony ustawione blisko siebie pod odpowiednim kątem – każdy z nich wymaga niezależnej ścieżki, żeby zachować możliwość precyzyjnej kontroli panoramy i balansu stereo w miksie. Do tego dochodzą dwa mikrofony podpórkowe (tzw. spot microphones), które najczęściej ustawia się bliżej kluczowych sekcji chóru, aby wyłapać więcej szczegółów lub podkreślić wybrane fragmenty brzmienia. Każdy mikrofon podpórkowy również musi mieć swoją ścieżkę, bo tylko wtedy da się sensownie ustawić proporcje i zrealizować indywidualną korekcję czy kompresję. Z mojego doświadczenia wynika, że rozdzielność tych ścieżek to podstawa profesjonalnego montażu – w praktyce liczy się elastyczność w dalszym miksie, a także bezpieczeństwo: zawsze da się zredukować poziom bądź całkiem wyciszyć niepotrzebne ślady. Takie podejście jest zgodne z typowymi workflow w studiach nagraniowych i pozwala zachować pełną kontrolę nad każdym elementem nagrania. Często nawet w prostszych sesjach stosuje się ten schemat. Można oczywiście dodać więcej ścieżek, jeśli używa się większej liczby mikrofonów, ale w tej konfiguracji cztery to absolutne minimum. Przygotowanie mniejszej ilości ścieżek ograniczyłoby możliwości miksu i mogłoby prowadzić do nieprofesjonalnych rezultatów.

Pytanie 20

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. High Shelf
B. LPF
C. Comb Filter
D. HPF
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 21

Teoretyczna maksymalna dynamika cyfrowego sygnału fonicznego przy 20-bitowej rozdzielczości wynosi

A. 96 dB
B. 192 dB
C. 144 dB
D. 120 dB
Dobra robota, bo właśnie 120 dB to teoretyczna maksymalna dynamika sygnału cyfrowego przy 20-bitowej rozdzielczości. Wynika to z faktu, że każde dodatkowe 1 bit podnosi zakres dynamiki o około 6 dB. Jeśli sobie policzymy: 20 bitów razy 6 dB, wychodzi równo 120 dB. To jest całkiem spora wartość – porównywalna z dynamiką dźwięków od bardzo cichego szeptu po silny hałas w codziennym otoczeniu, jak np. startujący samolot w pobliżu. W praktyce taki zakres dynamiki stosuje się w profesjonalnych systemach nagraniowych czy studyjnych, gdzie ważne jest uchwycenie najdrobniejszych niuansów i detali w nagraniach. Warto też wiedzieć, że popularny standard CD-Audio korzysta z 16 bitów (czyli około 96 dB dynamiki), ale w zastosowaniach audiofilskich czy w produkcji muzyki coraz częściej spotyka się formaty 20-bitowe albo nawet 24-bitowe, które jeszcze bardziej rozszerzają potencjał nagrań. Ja ze swojego doświadczenia mogę powiedzieć, że ta większa dynamika naprawdę robi różnicę, zwłaszcza przy masteringu – można wtedy pracować z naprawdę subtelnymi szczegółami bez strachu o szumy i zniekształcenia. Oczywiście warto pamiętać, że w realnych warunkach szumy sprzętu czy ograniczenia przetworników trochę zawężają tę dynamikę, ale teoretycznie 120 dB dla 20 bitów to już poziom, na którym nawet bardzo wymagające aplikacje audio dostają to, czego potrzebują.

Pytanie 22

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Modulation
B. Distortion
C. Reverbs
D. Dynamics
Ekspander to procesor należący do kategorii procesorów dynamiki, czyli tzw. „Dynamics”. To trochę jak brat kompresora, tylko działa odwrotnie – zamiast ściskać sygnał, rozszerza zakres dynamiki. W praktyce ekspander tłumi ciche dźwięki, sprawiając, że jeszcze bardziej się różnią od głośnych. Używa się go np. do wycinania szumów tła w nagraniach wokalnych albo do oczyszczania ścieżek perkusyjnych, gdy chcemy, żeby werbel czy stopa były mocne i selektywne, a przeszkadzające drobne dźwięki znikały. W branży muzycznej standardowo zaleca się stosować ekspander właśnie w sekcji dynamiki, na etapie miksu czy nawet już przy nagrywaniu. Daje to większą kontrolę nad poziomem głośności i czytelnością śladów. Moim zdaniem, dobrze dobrany ekspander potrafi naprawdę uratować brzmienie, zwłaszcza przy słabej akustyce pomieszczenia lub kiedy nagrywamy wokale w domu i walczymy z hałasami zza ściany. Dużo realizatorów dźwięku korzysta z ekspanderów w połączeniu z innymi efektami, żeby uzyskać profesjonalne, dynamiczne brzmienie. Warto pamiętać, że wszystkie procesory z tej grupy – kompresory, bramki szumów, ekspandery – służą do kontroli dynamiki i często pracują ze sobą na jednej ścieżce. To taki podstawowy workflow w każdym DAW-ie.

Pytanie 23

Do korekcji błędów intonacyjnych nagranego wokalu należy użyć

A. equalizera.
B. autotunera.
C. de-essera.
D. expandera.
Autotuner to narzędzie, które faktycznie służy do korekcji błędów intonacyjnych w nagranym wokalu. Jego głównym zadaniem jest analizowanie wysokości dźwięku ścieżki wokalnej i automatyczne dostosowywanie jej do wybranej tonacji lub skali. Stosowanie autotunera jest już absolutnym standardem w praktycznie każdym studiu nagrań, zarówno w muzyce pop jak i w hip-hopie czy nawet w elektronice. W praktyce, jeśli wokalista zaśpiewa lekko "obok" dźwięku lub nie trafi w tonację, autotuner potrafi szybko i niemal niezauważalnie skorygować takie niedoskonałości – oczywiście wszystko zależy od ustawień, bo przecież nie zawsze chodzi o efekt typu "robot" jak u Cher czy T-Paina. Często używa się subtelnych ustawień, żeby poprawić intonację, a nie zniekształcić głosu. Moim zdaniem, nawet jeśli ktoś nie jest zwolennikiem tego efektu, ciężko sobie dziś wyobrazić profesjonalną produkcję wokalną bez autotunera, chociażby jako narzędzia do lekkiego wyrównania śpiewu. Praktyka pokazuje, że odpowiednio użyty, potrafi uratować niejedno nagranie. Warto też pamiętać, że jest wiele różnych wtyczek do tego celu, jak Antares Auto-Tune, Waves Tune czy Melodyne – każde z nich daje trochę inne możliwości, a zawodowi realizatorzy często dobierają narzędzie do konkretnej sytuacji i efektu, jaki chcą uzyskać.

Pytanie 24

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Read
B. Touch
C. Latch
D. Off
Tryb 'Off' w automatyce DAW to taka trochę oczywista, choć często pomijana opcja. Gdy ustawisz ścieżkę na 'Off', automatyka po prostu nie jest odczytywana ani zapisywana – to tak, jakby jej w ogóle nie było. Moim zdaniem, to świetne rozwiązanie, kiedy chcesz zignorować wcześniejsze automatyczne zmiany parametrów, np. głośności, panoramy czy efektów, i mieć totalną kontrolę ręcznie lub ustawić wszystko od nowa. Praktycznie, jeśli miksujesz utwór i robisz kilka wersji automatyki, możesz tymczasowo wyłączyć jej działanie bez kasowania całej pracy – nie ryzykujesz, że coś się przypadkiem zmieni. W branży, szczególnie przy pracy na żywo albo w dużych projektach studyjnych, używa się 'Off', żeby uniknąć konfliktów między różnymi etapami miksowania lub gdy chcesz słyszeć czysty sygnał ścieżki bez ingerencji automatyki. Często też, porównując wersje miksu, wyłączenie automatyki pozwala ocenić, jak brzmią ślady bez żadnych zmian, co bardzo się przydaje przy masteringu lub robieniu wersji instrumentalnych. Na koniec dodam, że w sumie to trochę niedoceniany tryb, a daje ogromną swobodę w zarządzaniu ścieżkami – nie tylko głośność, ale wszystkie parametry na chwilę przestają być pod kontrolą automatyki, co czasami okazuje się zbawienne.

Pytanie 25

Wybierz z listy maksymalną rozdzielczość plików audio obsługiwaną przez współczesne aplikacje DAW.

A. 32 bity
B. 8 bitów
C. 16 bitów
D. 24 bity
Współczesne aplikacje DAW (Digital Audio Workstation) obsługują nagrywanie, edycję i miksowanie plików audio o rozdzielczości aż do 32 bitów. To naprawdę robi różnicę, zwłaszcza gdy pracujesz na wysokim poziomie profesjonalizmu i zależy Ci na jak najczystszym przetwarzaniu dźwięku. 32-bitowe pliki audio, zwłaszcza w formacie float, pozwalają na ogromny zakres dynamiki—przy miksowaniu praktycznie nie da się 'przesterować' śladu, a ryzyko utraty danych przez clipping czy zaokrąglenia znacznie spada. Praktyka pokazuje, że duża część aktualnych DAW, jak Ableton Live, Cubase czy Pro Tools, domyślnie już przetwarza audio wewnętrznie właśnie w 32 bitach float, nawet jeśli wejściowe nagranie ma niższą precyzję. To trochę jak jazda supernowoczesnym samochodem w mieście – nie zawsze wykorzystasz pełnię możliwości, ale w trudnych i wymagających sytuacjach ta rezerwa jakości naprawdę się przydaje. Moim zdaniem, jeśli aspirujesz do poważnego miksowania czy masteringu, warto korzystać z rozdzielczości 32 bity, zwłaszcza przy pracy z wieloma efektami czy automatyzacją. Trzeba jednak pamiętać, że pliki są wtedy większe, więc nie każdy komputer da radę płynnie je obrabiać. Ale w profesjonalnych studiach to już właściwie standard. No i jeszcze jedno – nawet jeśli końcowy eksport robisz do 24 czy 16 bitów, to rejestracja i obróbka w 32 bitach daje Ci po prostu większy margines bezpieczeństwa i lepszą jakość końcową.

Pytanie 26

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + C
B. Ctrl + V
C. Ctrl + X
D. Ctrl + Z
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 27

Rodzaj kodeka użytego przy konwersji pliku dźwiękowego można rozpoznać

A. po rozszerzeniu nazwy.
B. po nazwie.
C. po rozmiarze.
D. po czasie trwania.
Rozszerzenie nazwy pliku to w praktyce najprostszy i najczęściej spotykany sposób na szybkie rozpoznanie, jaki kodek został użyty do zakodowania danego pliku dźwiękowego. Przykładowo, rozszerzenie .mp3 niemal zawsze oznacza, że plik został zakodowany z użyciem kodeka MPEG-1 Layer III (popularnie znanego jako MP3), natomiast .flac wskazuje na bezstratny kodek FLAC, a .aac to zazwyczaj kodek Advanced Audio Coding. W codziennej pracy technika informatyk czy nawet zwykłego użytkownika, spojrzenie na rozszerzenie pliku pozwala szybko ocenić, jakie programy mogą go odtworzyć lub jakie urządzenia będą z nim kompatybilne. Warto pamiętać, że rozszerzenie nie zawsze jest stuprocentowo pewnym wskaźnikiem - plik można nazwać dowolnie, ale w praktyce większość systemów operacyjnych i programów trzyma się tej konwencji, bo to ułatwia życie. Moim zdaniem rozszerzenia są jednym z podstawowych narzędzi rozpoznawania formatu pliku, zwłaszcza w środowiskach Windows czy Linux, gdzie asocjacje plików są oparte właśnie na nich. W branży multimedialnej to rozszerzenie jest pierwszym miejscem, gdzie zaglądasz, chcąc szybko się dowiedzieć, z czym masz do czynienia. Oczywiście, dla pełnej pewności warto czasem skorzystać z narzędzi typu MediaInfo, które jeszcze dokładniej pokażą, jakim kodekiem plik został zakodowany, ale na co dzień rozszerzenie po prostu wystarcza. Standardy organizacji takich jak ISO/IEC lub ITU rekomendują utrzymywanie spójności rozszerzeń plików, co jeszcze bardziej podkreśla wagę tej metody w praktyce.

Pytanie 28

Nową sesję montażową oprogramowania DAW można utworzyć poprzez menu

A. File
B. View
C. Window
D. Edit
Wybór opcji File w menu DAW to zdecydowanie standard, jeśli chodzi o tworzenie nowej sesji montażowej. W praktycznie każdym szanowanym programie do produkcji muzycznej, czy to Pro Tools, Cubase, Ableton Live, czy Reaper, właśnie tam znajdziesz funkcję 'New Session', 'New Project' lub coś w tym stylu. To swego rodzaju wzorzec interfejsu użytkownika, który się przyjął w oprogramowaniu tego typu. Moim zdaniem, to całkiem logiczne – w końcu wszystkie operacje związane z plikami, takie jak otwieranie, zapisywanie, import czy eksport, są zebrane właśnie pod File. Praktyczne korzystanie z DAW wymaga szybkiego orientowania się, gdzie co jest. Dzięki temu rozwiązaniu – wiadomo od razu, gdzie szukać. Nawet jak zmienisz program, nie zaskoczy Cię układ menu. W branży uważa się, że klarowność interfejsu i trzymanie się przyjętych schematów jest bardzo ważna, bo przyspiesza pracę – a w studiu czas to pieniądz. Można tu dodać, że nową sesję zawsze dobrze jest od razu odpowiednio nazwać i ustawić lokalizację zapisu, żeby potem nie szukać plików po całym dysku. To naprawdę pomaga w zachowaniu porządku, szczególnie jak masz dużo projektów. Krótko mówiąc – File to podstawa przy organizacji pracy w DAW, więc wybór tej opcji to nie tylko poprawna, ale i bardzo praktyczna decyzja.

Pytanie 29

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 4 razy.
B. 3 razy.
C. 6 razy.
D. 2 razy.
Zmniejszenie częstotliwości próbkowania dźwięku dokładnie o połowę skutkuje proporcjonalnym zmniejszeniem ilości danych potrzebnych do zapisu. Wynika to z faktu, że liczba próbek pobieranych na sekundę spada dwukrotnie, więc do przechowania jednej sekundy dźwięku potrzeba dwa razy mniej próbek. Załóżmy, że mamy nagranie stereo o długości jednej minuty, próbkowane z częstotliwością 44,1 kHz i rozdzielczością 16 bitów. Po zmniejszeniu częstotliwości do 22,05 kHz rozmiar pliku również zmaleje dwukrotnie, bo liczba bitów na sekundę zostaje podzielona przez dwa. To podstawowa zasada cyfrowego przetwarzania dźwięku, szeroko opisywana w literaturze, np. w standardach PCM (Pulse Code Modulation). Oczywiście, konsekwencją jest też spadek jakości dźwięku, bo mniejsza częstotliwość próbkowania obniża możliwą do wiernego odtworzenia częstotliwość (prawo Nyquista). W praktyce, jeśli ktoś chce zaoszczędzić miejsce na dysku np. archiwizując nagrania wykładów, czasem świadomie obniża częstotliwość próbkowania, wiedząc, że plik zmaleje dokładnie dwukrotnie. Z mojego doświadczenia to bardzo częsty zabieg np. przy podcastach albo systemach monitoringu audio, gdzie nie zależy aż tak bardzo na jakości, ale na oszczędności miejsca. Warto pamiętać, że na rozmiar pliku wpływają także inne parametry jak liczba kanałów czy głębia bitowa, ale przy niezmienionych pozostałych wartościach zmniejszenie próbkowania o połowę skutkuje dokładnie dwukrotnym zmniejszeniem rozmiaru pliku.

Pytanie 30

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 48 000 Hz, 128 kbps
B. 22 000 Hz, 128 kbps
C. 44 100 Hz, 160 kbps
D. 44 100 Hz, 96 kbps
Wybranie parametrów 44 100 Hz oraz 96 kbps to taki mały trik praktyczny, który bardzo często stosuje się, gdy zależy nam na minimalizacji rozmiaru pliku mp3, ale jednocześnie chcemy zachować akceptowalną jakość dźwięku. 44 100 Hz to standardowa częstotliwość próbkowania używana na płytach CD i w większości plików audio, więc nie ryzykujemy utraty kompatybilności z większością odtwarzaczy czy programów. Z kolei bitrate 96 kbps to już wartość wyraźnie niższa niż popularne 128 kbps, przez co rozmiar pliku spada zauważalnie – szczerze mówiąc, przy muzyce tła albo podcastach różnica w jakości jest często trudna do wychwycenia dla przeciętnego ucha, zwłaszcza w warunkach domowych albo na słuchawkach niższej klasy. Z mojego doświadczenia wynika, że taki kompromis jest idealny np. przy archiwizowaniu dużych ilości nagrań, wysyłaniu plików mailem czy przygotowywaniu materiałów do udostępnienia online, gdzie kluczowe jest ograniczenie rozmiaru. Z punktu widzenia branży, dobrym zwyczajem jest stosowanie jak najniższego bitrate’u, który zapewnia jeszcze użyteczną jakość – a 96 kbps, przy zachowaniu 44 100 Hz, to właśnie taki złoty środek dla zastosowań nieprofesjonalnych. Oczywiście, jeśli ktoś oczekuje najwyższej wierności dźwięku, wybierze coś wyższego, ale w praktyce, do zastosowań codziennych, taka optymalizacja ma duży sens. Myślę, że warto też pamiętać, że pliki mp3, w przeciwieństwie do bezstratnych formatów, zawsze będą pewnym kompromisem – dlatego tak ważne jest umiejętne dobranie parametrów pod swoje potrzeby.

Pytanie 31

Który z wymienionych efektów służy do podwyższania lub obniżania wysokości dźwięku o określony interwał?

A. Classic Phaser
B. HF Exciter
C. Multivoice Chorus
D. Pitch Shifter
Pitch Shifter to właśnie taki efekt, który umożliwia podwyższanie lub obniżanie wysokości dźwięku o wybrany interwał, bez zmiany jego tempa. W praktyce, pitch shifter znajduje zastosowanie w bardzo wielu sytuacjach w produkcji dźwięku – na przykład, kiedy trzeba dopasować ścieżkę wokalną do innej tonacji, stworzyć efekt podwójnego głosu („double tracking”) albo uzyskać charakterystyczne brzmienia typu „chipmunk” czy „monster voice”, które są popularne zarówno w muzyce elektronicznej, jak i w produkcjach filmowych czy reklamowych. Moim zdaniem to jedno z bardziej kreatywnych narzędzi, bo pozwala tchnąć nowe życie w zwykłe nagrania, eksperymentować z harmonią i nawet podratować wokalistę, gdy śpiew trochę „poleciał”. W branży audio, użycie pitch shiftera jest codziennością, ale zawsze warto pamiętać o jakości algorytmu – te lepsze pozwalają uzyskać naturalne i nieposzarpane brzmienie nawet przy znaczących zmianach wysokości. Warto też zauważyć, że pitch shifting to nie to samo co timestretching, bo tu nie zmieniamy długości nagrania. Na większości profesjonalnych DAW-ów (Cubase, Pro Tools, Logic) znajdziesz wbudowane pitch shiftery, a wielu inżynierów dźwięku korzysta także z zewnętrznych pluginów, na przykład od Antares albo Waves, bo dają większą kontrolę. W standardach branżowych, szczególnie w miksie i postprodukcji, umiejętność obsługi pitch shiftera to naprawdę podstawa.

Pytanie 32

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SDXC
B. SDHC
C. SD
D. SD A1
Wybór karty SDXC to strzał w dziesiątkę, jeśli chodzi o największą pojemność. Standard SDXC (Secure Digital eXtended Capacity) to obecnie jeden z najbardziej zaawansowanych formatów kart pamięci SD, jeśli patrzymy pod kątem pojemności, bo obsługuje wartości aż do 2 TB – co, nie ukrywam, robi duże wrażenie nawet na osobach, które na co dzień pracują z dużą ilością danych. Z mojego doświadczenia, karty SDXC najczęściej wykorzystywane są w sprzęcie wymagającym dużych mocy przerobowych i sporej przestrzeni, np. w aparatach do profesjonalnego filmu, nowoczesnych lustrzankach czy rejestratorach wideo 4K. Warto pamiętać, że wybierając SDXC, zyskujesz nie tylko większą pojemność, ale i wsparcie nowocześniejszych systemów plików, jak exFAT – co ułatwia przesyłanie większych plików bez ograniczenia typowego dla FAT32. Branżowe normy jasno określają, że standard SD (do 2 GB), SDHC (do 32 GB), a dopiero SDXC zaczyna się od 32 GB wzwyż. SD A1 to specjalizacja pod kątem wydajności w aplikacjach mobilnych, ale sama pojemność nie różni jej od klasycznych SDHC czy SDXC. W praktyce, jeśli zależy Ci na przechowywaniu długich nagrań wideo, dużych bibliotek zdjęć czy plików RAW, to SDXC jest pewniakiem. Moim zdaniem, obecnie ciężko znaleźć praktyczne zastosowanie, gdzie SDXC byłoby ograniczeniem pod względem pojemności.

Pytanie 33

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. wciągania plików dźwiękowych do sesji montażowej.
B. masteringu nagrania.
C. edycji nagrania.
D. zapisywania pliku wynikowego.
To jest dokładnie ten moment, kiedy podejmujemy decyzję o ostatecznym formacie i parametrach pliku dźwiękowego – podczas zapisywania pliku wynikowego, czyli eksportu. Niezależnie od tego, czy cały projekt był nagrywany i obrabiany w wysokiej rozdzielczości, to właśnie przy eksporcie ustawiasz typ pliku (np. WAV, MP3, FLAC), jego rozdzielczość (np. 44,1 kHz, 16-bit, czy może 24-bit), kompresję, bitrate i inne szczegóły techniczne. W praktyce oznacza to, że możesz pracować przez cały czas na plikach bezstratnych, a dopiero na końcu zdecydować, czy chcesz stworzyć plik na CD, dla streamingu lub do archiwizacji. Tak robią też profesjonaliści – najpierw pracują w jak najlepszej jakości, a potem tworzą różne wersje plików zależnie od przeznaczenia. Szczerze mówiąc, często spotykam się z tym, że ludzie niepotrzebnie martwią się o format na wcześniejszych etapach, a to właśnie eksport jest kluczowy dla końcowego rezultatu. Standardy branżowe (np. Red Book Audio dla CD czy specyfikacje streamingowe) jasno mówią, jakie mają być parametry końcowego pliku. Ważne też, żeby podczas zapisu uważać na niezamierzoną konwersję formatu czy nieprzemyślaną kompresję stratną. Można powiedzieć, że to taki finał pracy – wszystko, co robiłeś wcześniej, ma sens dopiero wtedy, gdy właściwie wybierzesz opcje eksportu.

Pytanie 34

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.ac3
B. *.tiff
C. *.opus
D. *.amr
Rozszerzenie *.tiff w ogóle nie odnosi się do plików dźwiękowych, tylko do plików graficznych, a dokładniej do formatu obrazów rastrowych TIFF (Tagged Image File Format). Jest to bardzo popularny format wykorzystywany w profesjonalnej fotografii, skanowaniu dokumentów czy też w archiwizacji zdjęć wysokiej jakości. Pliki TIFF mogą przechowywać obrazy w bardzo wysokiej rozdzielczości, obsługują głęboką paletę barw i oferują bezstratną kompresję. To powoduje, że są chętnie używane tam, gdzie liczy się jakość grafiki, np. w drukarniach czy studiach graficznych. Moim zdaniem, dobrze kojarzyć to rozszerzenie, bo w praktyce informatyk czy technik często musi szybko rozróżniać rodzaje plików po rozszerzeniu – oszczędza to czas i zapobiega błędom przy np. przesyłaniu lub konwersjach plików. W przeciwieństwie do formatów *.opus, *.amr i *.ac3, które służą do zapisu i odtwarzania dźwięku, TIFF nie ma żadnego związku z audio. Warto też dodać, że niektóre programy mogą próbować 'oszukać' system poprzez zmianę rozszerzenia, ale plik TIFF nigdy nie będzie odtwarzany jako dźwiękowy. To rozszerzenie jest wręcz symbolem branży graficznej, a nie muzycznej czy dźwiękowej.

Pytanie 35

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 5.1
B. 4.0
C. 7.1
D. 9.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 36

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Audio.
B. Aux.
C. Instrument.
D. MIDI.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 37

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 6 razy.
B. 2 razy.
C. 3 razy.
D. 4 razy.
Dobra robota, bo rzeczywiście – jeśli zmniejszymy częstotliwość próbkowania dźwięku o połowę, to dokładnie 2 razy zmniejszy się ilość danych potrzebnych do zapisania tego pliku. Tak działa cyfrowe przetwarzanie sygnału: im niższa częstotliwość próbkowania, tym mniej próbek na sekundę musimy zapisać. Załóżmy, że pierwotnie mieliśmy plik stereo nagrany z częstotliwością 44,1 kHz przy 16 bitach – jak na płycie CD. Jeśli teraz zmniejszymy próbkowanie do 22,05 kHz, to przy tych samych pozostałych parametrach rozmiar pliku spada dokładnie o połowę. Moim zdaniem to jeden z prostszych sposobów na kompresję bez utraty dodatkowych danych – chociaż oczywiście odczujemy wtedy spadek jakości dźwięku, zwłaszcza w wyższych częstotliwościach. W praktyce, na potrzeby np. rejestratorów głosu, podcastów czy archiwizowania rozmów wystarcza często niższe próbkowanie, bo nie zależy nam na pełnym paśmie audio. Najlepsze praktyki branżowe, zwłaszcza w postprodukcji i masteringu, mówią jednak: nie schodź poniżej próbkowania wymaganych przez docelowe medium. Warto też pamiętać, że pozostałe parametry jak liczba bitów próbkowania czy liczba kanałów również wpływają na rozmiar pliku, ale w tym pytaniu skupiamy się tylko na częstotliwości próbkowania. Ważne, żeby takie zależności rozumieć – bo potem łatwo przewidzieć, jak zoptymalizować miejsce na dysku bez zbędnej utraty jakości dźwięku.

Pytanie 38

W sesji programu DAW, w której ustawiono tempo 120 BPM i metrum 4/4, metronom wybija ćwierćnutę co

A. 2 000 ms
B. 1 500 ms
C. 1 000 ms
D. 500 ms
Tempo 120 BPM oznacza, że w ciągu minuty wybijanych jest 120 ćwierćnut. Skoro minuta ma 60 sekund, łatwo policzyć, że jedna ćwierćnuta trwa 0,5 sekundy, czyli dokładnie 500 ms. W praktyce pracy z DAW-ami, takich jak Ableton, Cubase czy FL Studio, ustawienie tempa i metrum jest absolutną podstawą, zwłaszcza przy nagrywaniu z metronomem lub synchronizowaniu różnych ścieżek MIDI. Bardzo często podczas aranżowania kawałków albo produkcji beatów trzeba szybko wyczuć, czy syntezator lub automat perkusyjny zgrywa się z tempem projektu – właśnie wtedy taka wiedza się przydaje. Standardowo, metronom w DAW zawsze wyznacza uderzenie ćwierćnuty w metrum 4/4, czyli tzw. beat, a nie np. ósemki czy półnuty (chyba że ktoś specjalnie przestawi ustawienia). Z mojego doświadczenia wynika, że osoby początkujące często mylą jednostki czasu i liczbę uderzeń na minutę, więc warto zapamiętać ten prosty przelicznik: 60 000 ms (czyli jedna minuta) dzielimy przez liczbę BPM – daje nam to czas trwania jednej ćwierćnuty w milisekundach. Ta zasada obowiązuje praktycznie w każdym programie muzycznym, niezależnie od producenta czy wersji. To uniwersalna wiedza, która potem bardzo się przydaje np. przy automatyzacji efektów rytmicznych.

Pytanie 39

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista regionów.
B. Lista efektów.
C. Lista ścieżek.
D. Lista grup.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 40

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zmniejszenie rozdzielczości bitowej.
B. Zmniejszenie częstotliwości próbkowania.
C. Zwiększenie rozdzielczości bitowej.
D. Zwiększenie częstotliwości próbkowania.
Zmniejszenie rozdzielczości bitowej naprawdę wpływa na rozpiętość dynamiczną nagrania, bo to właśnie głębia bitowa decyduje o tym, jak dokładnie można oddać najcichsze i najgłośniejsze fragmenty sygnału audio. Im mniej bitów, tym zakres dynamiki maleje – czyli różnice między cichymi a głośnymi dźwiękami są coraz bardziej „spłaszczone”. W praktyce np. w profesjonalnych nagraniach studyjnych używa się często 24 bitów, co daje bardzo dużą rozpiętość dynamiczną (aż do około 144 dB). Gdy jednak przejdziemy na 16 bitów (standard CD), to ta wartość spada do około 96 dB. Zmniejszając rozdzielczość bitową jeszcze niżej (na przykład do 8 bitów jak w starych konsolach czy komputerach), dynamika staje się wyraźnie ograniczona – słychać to jako brak subtelności w cichych dźwiękach i bardzo wyraźny szum kwantyzacji. Moim zdaniem, warto pamiętać, że dla materiałów, które mają zachować pełen zakres ekspresji i dynamiki, lepiej unikać zmniejszania głębi bitowej. W postprodukcji czy w miksowaniu często operuje się na 24 bitach i dopiero przy finalnym eksporcie zmniejsza się do 16 (o ile jest to konieczne np. dla CD). Swoją drogą, to często pomijany temat, a bardzo ważny, bo wpływa nie tylko na jakość dźwięku, ale też na komfort słuchania, szczególnie przy bardziej dynamicznej muzyce czy nagraniach koncertowych.