Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 16:18
  • Data zakończenia: 29 kwietnia 2026 16:26

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta DVD
B. Karta SD
C. Dysk SSD
D. Płyta CD
Dysk SSD to naprawdę mistrz, jeśli chodzi o szybki odczyt danych – moim zdaniem to obecnie absolutny standard w komputerach i serwerach, gdzie liczy się czas dostępu. Wynika to z faktu, że SSD, czyli dysk półprzewodnikowy, nie ma żadnych ruchomych części, całe operacje odbywają się elektronicznie. Dzięki temu odczyt danych jest niemal natychmiastowy, a czasy dostępu liczymy w mikrosekundach, a nie milisekundach, jak w starszych rozwiązaniach. W praktyce, gdy porównasz SSD do płyty CD czy nawet karty SD, różnica jest kolosalna – system operacyjny uruchamia się w kilka sekund, a transfery potrafią sięgać nawet kilkuset megabajtów na sekundę (NVMe jeszcze szybciej, nawet powyżej 3000 MB/s). W branży IT przyjęło się już, że do zastosowań profesjonalnych czy gamingowych nie stosuje się starych dysków talerzowych, a już na pewno nie nośników optycznych. Z mojego doświadczenia mogę powiedzieć, że wymiana starego dysku na SSD daje większego „kopa” komputerowi niż upgrade procesora czy RAM-u. Standardy takie jak SATA III czy PCIe NVMe wyznaczają dziś normy prędkości i niezawodności. Branżowo mówi się wręcz, że bez SSD praca na dużych plikach czy obróbka wideo to męczarnia. Wypada dodać, że SSD są też bardziej odporne na wstrząsy, co w laptopach bywa zbawienne. Podsumowując: SSD pod względem szybkości i komfortu użytkowania to prawdziwa rewolucja.

Pytanie 2

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Zwiększenia subiektywnej głośności nagrania.
B. Zmiany barwy poszczególnych instrumentów.
C. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
D. Zmiany barwy wokalu.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 3

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 160 kb/s
B. 320 kb/s
C. 480 kb/s
D. 240 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 4

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Violin
B. Cello
C. Viola
D. Bass
Prawidłowe nazwanie ścieżki jako „Violin” w projekcie DAW to nie tylko kwestia porządku, ale przede wszystkim dobrych praktyk pracy w środowisku studyjnym. Właściwe etykietowanie śladów – tu konkretnie nagrania partii skrzypiec – niesamowicie ułatwia późniejszą edycję, miksowanie czy współpracę z innymi realizatorami i muzykami. Pracując nad rozbudowanym projektem, gdzie często pojawia się kilkadziesiąt ścieżek instrumentów, szybkie zlokalizowanie skrzypiec (Violin) dzięki poprawnej nazwie oszczędza masę czasu i pozwala uniknąć nieporozumień. Z mojego doświadczenia wynika, że nawet jeśli pracujesz solo, po paru dniach wracając do projektu możesz zapomnieć, co kryje się pod „Track 1” – natomiast „Violin” mówi wszystko jasno. Branżowe standardy, zwłaszcza w większych studiach czy przy pracy z zagranicznymi realizatorami, są wręcz bezlitosne dla chaotycznego nazewnictwa – tu liczy się precyzja i konsekwencja. Warto też zauważyć, że część DAW-ów automatycznie eksportuje nazwy śladów do plików STEM czy sesji AAF/OMF, co jest nieocenione przy dalszym transferze materiału. Oprócz tego, jasne nazewnictwo ścieżek pomaga automatyzować różne procesy, np. routing czy grupowanie w mikserze. Moim zdaniem, to taki prosty nawyk, który po prostu trzeba sobie wyrobić, jeśli chce się być profesjonalistą w tej branży.

Pytanie 5

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.tiff
B. *.opus
C. *.amr
D. *.ac3
Rozszerzenie *.tiff faktycznie nie jest związane z plikami dźwiękowymi, tylko z grafiką rastrową. Format TIFF (Tagged Image File Format) jest szeroko wykorzystywany w profesjonalnej fotografii, druku czy skanowaniu dokumentów, bo umożliwia przechowywanie obrazów wysokiej jakości bez strat. Co ciekawe, TIFF pozwala na zapis wielu warstw oraz kanałów alfa, co daje spore pole do popisu przy edycji zdjęć, archiwizacji czy w pracy z dużymi plikami graficznymi. W odróżnieniu od formatów takich jak *.opus, *.amr czy *.ac3 – które są stricte skojarzone z dźwiękiem, kodowaniem głosu lub dźwięku przestrzennego – TIFF nie przechowuje dźwięku ani metadanych audio. Moim zdaniem, rozpoznawanie takich rozszerzeń to absolutna podstawa w pracy z multimediami, szczególnie gdy zarządzasz dużą ilością różnego typu plików. W praktyce, kiedy widzisz plik z rozszerzeniem .tiff, możesz śmiało założyć, że to albo zdjęcie, albo skan, nie nagranie audio. Branża IT czy grafiki komputerowej mocno stawia na rozdzielenie formatów, żeby uniknąć bałaganu i przypadkowego mieszania treści – to naprawdę się sprawdza. Na co dzień warto mieć tę wiedzę, bo oszczędza sporo czasu przy porządkowaniu zasobów.

Pytanie 6

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Korektor.
B. Kompresor.
C. Crossover.
D. Ekspander.
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 7

Konwersję pliku dźwiękowego wykonuje się w celu

A. zmiany lokalizacji pliku.
B. zmiany parametrów pliku.
C. uzyskania kopii pliku.
D. zmiany nazwy pliku.
Konwersja pliku dźwiękowego to proces zmiany parametrów tego pliku, takich jak format (np. z WAV na MP3), częstotliwość próbkowania, liczba kanałów (mono/stereo), bitrate czy głębokość bitowa. To bardzo przydatna umiejętność – moim zdaniem praktycznie obowiązkowa, jeśli chcesz pracować z dźwiękiem w jakiejkolwiek formie, od podcastu po profesjonalny montaż filmowy. Przykładowo, gdy potrzebujesz wrzucić nagranie do internetu, zazwyczaj musisz je przekonwertować do MP3, bo ten format jest lekki i wszędzie obsługiwany. Z kolei w studiu nagraniowym możesz preferować bezstratne formaty typu FLAC lub WAV dla zachowania najwyższej jakości dźwięku. Branżowe programy, jak Audacity czy Adobe Audition, oferują szeroką gamę opcji konwersji, umożliwiając dostosowanie parametrów do konkretnych potrzeb projektu lub wymagań stawianych przez różne platformy (YouTube, Spotify). Dodatkowo, konwersja może być niezbędna, gdy urządzenie nie obsługuje jakiegoś formatu – wtedy po prostu trzeba dostosować plik. Z mojego doświadczenia, znajomość tych opcji daje dużą swobodę i pozwala oszczędzić sporo czasu, zwłaszcza przy dużych kolekcjach plików. To praktyczna, codzienna czynność, która przekłada się bezpośrednio na komfort pracy z multimediami.

Pytanie 8

Normalizacja do 0 dB pliku o poziomie szczytowym -3 dB spowoduje podniesienie głośności

A. czterokrotnie.
B. o 1/4.
C. o połowę.
D. dwukrotnie.
Prawidłowo, normalizacja do 0 dB pliku o poziomie szczytowym -3 dB faktycznie powoduje podniesienie głośności dwukrotnie. Wynika to z charakterystyki skali decybelowej, która jest logarytmiczna. Każde 3 dB różnicy to w przybliżeniu podwojenie lub o połowę zmniejszenie mocy sygnału. Gdy plik audio ma szczyt na -3 dB, a normalizujemy go do 0 dB, wzmacniamy poziom szczytowy tak, by był dokładnie na granicy maksymalnej wartości bez przesterowania. To bardzo praktyczne, bo pozwala nam bezpiecznie wykorzystać całe dostępne pasmo dynamiki, na przykład przygotowując materiał do masteringu czy publikacji w internecie. W studiu często korzysta się z tej techniki dla zachowania spójności nagrań i uniknięcia sytuacji, w której jeden plik jest wyraźnie cichszy od innych. Warto pamiętać, że wzrost o 3 dB nie oznacza dwukrotnego odbioru głośności przez ucho, bo percepcja ludzka działa specyficznie, ale z technicznego punktu widzenia – energia sygnału rośnie dwukrotnie. Moim zdaniem to jedno z tych podstawowych zagadnień, które każdy realizator dźwięku powinien mieć w małym palcu, bo często się do tego wraca w codziennej pracy. W praktyce – klikając „Normalize to 0 dB” w programie DAW, naprawdę szybko możesz wyrównać poziomy ścieżek.

Pytanie 9

Który z wymienionych nośników charakteryzuje się największą pojemnością?

A. DVD18
B. BD-XL
C. CD-R
D. HD DVD
BD-XL naprawdę robi wrażenie, jeśli chodzi o pojemność. W praktyce ten typ płyty Blu-ray może pomieścić nawet do 128 GB danych w wersji czterowarstwowej, co jest ogromną różnicą w porównaniu do standardowych płyt CD-R (700 MB), DVD18 (około 17 GB) czy nawet HD DVD (do 30 GB). Z mojego doświadczenia wynika, że BD-XL sprawdza się świetnie w zastosowaniach archiwizacyjnych, szczególnie tam, gdzie liczy się długowieczność nośnika i bezpieczeństwo danych. W branży filmowej czy w dużych archiwach cyfrowych coraz częściej można spotkać się z użyciem właśnie takich rozwiązań, bo pozwalają na przechowywanie dużych plików bez konieczności dzielenia ich na mniejsze części. Standard Blu-ray, a szczególnie jego rozszerzenia takie jak BD-XL, powstały właśnie w odpowiedzi na rosnące zapotrzebowanie na większe pojemności przy zachowaniu wymiarów tradycyjnych płyt optycznych. To bardzo praktyczne, gdy trzeba np. zarchiwizować całe sesje zdjęciowe w RAW-ach albo profesjonalne produkcje wideo w 4K i wyższych rozdzielczościach. Trochę szkoda, że te nośniki nie weszły pod strzechy tak jak kiedyś DVD czy CD, bo jednak napędy BD-XL są droższe i mniej powszechne, ale w profesjonalnych zastosowaniach – bez dwóch zdań warto znać tę technologię.

Pytanie 10

Który z podanych impulsów dźwiękowych posiada najmniejszą rozpiętość dynamiczną?

A. Nagrany z poziomem -6 dBFS.
B. Nagrany z poziomem -12 dBFS.
C. Nagrany z poziomem -3 dBFS.
D. Nagrany z poziomem -0,3 dBFS.
Wybranie nagrania z poziomem -12 dBFS jako tego o najmniejszej rozpiętości dynamicznej jest jak najbardziej zgodne z zasadami inżynierii dźwięku. W praktyce, im niższy poziom sygnału rejestrowanego (czyli dalej od 0 dBFS, który oznacza szczyt możliwości zapisu cyfrowego), tym mniejsza szansa na przekraczanie zakresu dynamicznego i nasycanie szczytów. Moim zdaniem często niedoceniany aspekt to to, że niższy poziom zapisu skutkuje mniejszą różnicą pomiędzy najcichszymi a najgłośniejszymi fragmentami danego impulsu. Przy nagrywaniu impulsów testowych – np. do pomiarów pomieszczeń czy kalibracji – właśnie taki ograniczony zakres dynamiczny jest czasami pożądany, bo łatwiej wtedy wychwycić drobne artefakty czy szumy tła. W branży audio przyjmuje się, że rozpiętość dynamiczna to różnica między najcichszym a najgłośniejszym momentem sygnału – a jeśli cały impuls jest nagrany cicho (np. -12 dBFS), to ta różnica jest relatywnie mniejsza. W praktyce masteringowej czy mikserskiej, jeśli zależy nam na bardzo szerokiej rozpiętości dynamicznej, celujemy raczej w wyższe poziomy zapisu, bliżej 0 dBFS, o ile nie przekroczymy progu przesterowania. Natomiast do celów testowych, edukacyjnych albo tam, gdzie ważna jest kontrola nad dynamiką, taki niższy poziom (-12 dBFS) jest super bezpieczny i przewidywalny. To rozwiązanie bym polecał osobom zaczynającym pracę z rejestracją dźwięku.

Pytanie 11

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 3 razy.
B. 2 razy.
C. 4 razy.
D. 6 razy.
Zmniejszenie częstotliwości próbkowania dźwięku dokładnie o połowę skutkuje proporcjonalnym zmniejszeniem ilości danych potrzebnych do zapisu. Wynika to z faktu, że liczba próbek pobieranych na sekundę spada dwukrotnie, więc do przechowania jednej sekundy dźwięku potrzeba dwa razy mniej próbek. Załóżmy, że mamy nagranie stereo o długości jednej minuty, próbkowane z częstotliwością 44,1 kHz i rozdzielczością 16 bitów. Po zmniejszeniu częstotliwości do 22,05 kHz rozmiar pliku również zmaleje dwukrotnie, bo liczba bitów na sekundę zostaje podzielona przez dwa. To podstawowa zasada cyfrowego przetwarzania dźwięku, szeroko opisywana w literaturze, np. w standardach PCM (Pulse Code Modulation). Oczywiście, konsekwencją jest też spadek jakości dźwięku, bo mniejsza częstotliwość próbkowania obniża możliwą do wiernego odtworzenia częstotliwość (prawo Nyquista). W praktyce, jeśli ktoś chce zaoszczędzić miejsce na dysku np. archiwizując nagrania wykładów, czasem świadomie obniża częstotliwość próbkowania, wiedząc, że plik zmaleje dokładnie dwukrotnie. Z mojego doświadczenia to bardzo częsty zabieg np. przy podcastach albo systemach monitoringu audio, gdzie nie zależy aż tak bardzo na jakości, ale na oszczędności miejsca. Warto pamiętać, że na rozmiar pliku wpływają także inne parametry jak liczba kanałów czy głębia bitowa, ale przy niezmienionych pozostałych wartościach zmniejszenie próbkowania o połowę skutkuje dokładnie dwukrotnym zmniejszeniem rozmiaru pliku.

Pytanie 12

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 0,02 ms
B. 2 ms
C. 20 ms
D. 0,2 ms
Odpowiedź 0,02 ms jest prawidłowa, bo przy częstotliwości próbkowania 48 kHz każda próbka pojawia się co dokładnie 1/48000 sekundy. Jeśli przeliczyć to na milisekundy, wychodzi 0,020833... ms – w praktyce zwykle zaokrągla się do 0,02 ms. To bardzo krótki czas, ale pozwala uzyskać wysoką jakość nagrania, bo zgodnie z zasadą Nyquista da się poprawnie zapisać dźwięki o częstotliwościach do połowy tej wartości, czyli do 24 kHz. To wyższa granica niż ludzkie ucho jest w stanie wychwycić, ale taki sampling stosuje się w profesjonalnym audio, produkcji muzyki, nagraniach filmowych czy transmisjach telewizyjnych. Moim zdaniem właśnie to rozróżnia domowe systemy (często 44,1 kHz jak w CD) od zastosowań profesjonalnych, gdzie 48 kHz to taki złoty standard. Sam kiedyś myślałem, że wyższa częstotliwość próbkuje „lepiej”, ale różnice są subtelne – kluczowe jest, żeby próbki były pobierane odpowiednio szybko w stosunku do najwyższych dźwięków, które chcemy zarejestrować. W praktyce, jak miksujesz dźwięk albo przygotowujesz podcast, to 0,02 ms między próbkami daje Ci ogromną precyzję, zwłaszcza przy obróbce czy edycji. Dla porównania, przy 44,1 kHz odstęp to ok. 0,0227 ms – niewiele więcej, ale w broadcastingu te kilka tysięcznych też ma znaczenie. Warto o tym pamiętać, bo w pracy z cyfrowym audio taka matematyka bardzo się przydaje.

Pytanie 13

Który z wymienionych trybów wyświetlania jednostek na osi czasu w sesji montażowej programu DAW odnosi się do taktów utworu muzycznego?

A. Bars.
B. Frames.
C. Seconds.
D. Samples.
Tryb wyświetlania „Bars” w DAW to właściwie podstawa przy pracy z muzyką opartą na metrumnie, czyli w taktach i uderzeniach. W praktyce, kiedy edytujesz czy komponujesz, korzystając z siatki w trybie Bars, możesz idealnie synchronizować dźwięki, automatyzacje, sample czy nawet efekty z podziałem na takty i bity. To jest mega wygodne podczas aranżacji, bo łatwiej planować wejścia instrumentów, zmiany akordowe czy nawet całą strukturę utworu. Tak robi się w większości profesjonalnych projektów nagraniowych i produkcyjnych – wszędzie, gdzie utwór ma ustalone tempo i rytm, korzystanie z Bars po prostu usprawnia pracę. To trochę jak czytanie nut w cyfrowej wersji – „Bars” pozwalają myśleć muzycznie, nie tylko technicznie. Z mojego doświadczenia praca w tym trybie daje też większą kontrolę nad synchronizacją MIDI, kwantyzacją czy loopowaniem ścieżek. Większość DAW domyślnie ustawia Bars jako główny tryb, bo to standard branżowy przy muzyce współczesnej, elektronicznej i każdej, gdzie timing jest kluczowy. Oczywiście, na etapie miksu czasem przełącza się na sekundy, ale układanie aranżu w Bars to absolutny must-have. Fajnie wiedzieć, że ogarnianie tego trybu przekłada się na szybszą i bardziej kreatywną pracę.

Pytanie 14

Który z wymienionych filtrów umożliwia usunięcie niskoczęstotliwościowych zakłóceń pojawiających się w nagraniu plenerowym na skutek podmuchów wiatru na mikrofon?

A. High Shelf Filter.
B. Comb Filter.
C. High-Pass Filter.
D. Low-Pass Filter.
High-Pass Filter to absolutny standard w eliminowaniu niskoczęstotliwościowych zakłóceń, takich jak podmuchy wiatru rejestrowane przez mikrofon w terenie. Działa to w taki sposób, że filtr po prostu „odcina” wszystko, co jest poniżej ustalonej częstotliwości granicznej – najczęściej w okolicach 80–120 Hz w przypadku nagrań terenowych i pracy z głosem. Dzięki temu pozbywamy się niepożądanych dźwięków, np. dudnień, buczenia czy właśnie tych męczących uderzeń powietrza w mikrofon. To rozwiązanie spotkasz zarówno w sprzęcie studyjnym, jak i w polowych rejestratorach dźwięku, a nawet wtyczkach DAW. Moim zdaniem, jeśli ktoś planuje nagrywać na zewnątrz, to korzystanie z high-pass filtra jest trochę jak zapięcie pasów w aucie – po prostu warto. W branży zaleca się, by taki filtr był wręcz aktywowany „na stałe” przy nagrywaniu mowy lub wokalu na zewnątrz, oczywiście z zachowaniem ostrożności, żeby nie wyciąć zbyt dużo z naturalnego brzmienia. To proste narzędzie, ale jego wpływ na czystość i czytelność nagrań jest ogromny. W praktyce często wystarczy jeden klik i nagle nagranie staje się o wiele bardziej profesjonalne i przyjemne w odsłuchu. Warto też pamiętać, że niektóre mikrofony mają takie filtry wbudowane fizycznie, co jeszcze bardziej ułatwia pracę.

Pytanie 15

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. MIDI EDITOR
B. SCORE EDITOR
C. EDIT
D. MIX
Score Editor to narzędzie, które według mnie jest totalnym must-have dla każdego, kto chce pracować z muzyką na poziomie kompozytorskim w DAW-ach. Chodzi o to, że w Score Editorze można edytować zapis nutowy – to jest graficzna reprezentacja muzyki, gdzie każda nuta, pauza czy artykulacja są pokazane tak, jak w tradycyjnych partyturach. W praktyce to ogromne ułatwienie nie tylko dla kompozytorów muzyki klasycznej, ale także dla osób, które potrzebują tworzyć aranżacje na różne instrumenty albo chcą przekazać utwór muzykom czy wydrukować partyturę. W większości popularnych DAW-ów, jak Cubase, Logic Pro czy Studio One, Score Editor pozwala nie tylko zobaczyć, ale i edytować nuty – możesz zmieniać wysokość dźwięków, długość, dodawać oznaczenia dynamiki czy inne detale, które są niezbędne dla wykonawcy. Moim zdaniem, jeśli ktoś poważnie myśli o aranżacji albo o pracy z tradycyjnym zapisem nutowym, powinien opanować Score Editora, bo to daje zupełnie inny poziom kontroli nad muzyką niż standardowy edytor MIDI. Zresztą, standard przemysłu muzycznego jest taki, że nuty są „uniwersalnym językiem” muzyków, więc Score Editor to trochę takie okno na świat profesjonalnego pisania muzyki. Często też używa się go do generowania gotowych do druku partytur, co jest po prostu wygodne i oszczędza masę czasu.

Pytanie 16

Który z wymienionych parametrów odpowiada za próg zadziałania funkcji Strip Silence?

A. Post-Release
B. Minimum Time
C. Threshold
D. Pre-Attack
Threshold w funkcji Strip Silence to kluczowy parametr, który decyduje o tym, od jakiego poziomu głośności dany fragment zostaje uznany za "dźwiękowy" i nie jest wycinany. Cała magia Strip Silence polega właśnie na tym, że automatycznie wykrywa ciszę na ścieżce audio i usuwa ją, zostawiając tylko to, co faktycznie gra. Threshold działa trochę jak bramkarz – jeśli sygnał przekroczy ustawiony próg, zostaje wpuszczony, a jeśli jest zbyt cichy, traktowany jest jako cisza. Z mojego doświadczenia warto eksperymentować z jego wartością, bo czasem w nagraniach pojawiają się ciche szumy albo oddechy, które też chcesz usunąć. Branżowe standardy sugerują, żeby zacząć od wartości nieco powyżej tła szumowego i dopasowywać próg do konkretnego materiału. W praktyce – jeśli pracujesz nad wokalami, perkusją czy podcastem, dobrze ustawiony threshold pozwala szybko i czysto oczyścić ścieżkę ze zbędnych fragmentów. Ułatwia to późniejszą edycję i miks, nie musisz ręcznie wycinać każdego milisekundowego szumu. Warto dodać, że dobór thresholdu często zależy od dynamiki nagrania – im większa rozpiętość, tym ostrożniej trzeba ustawić próg, żeby nie wycinać cichych, ale istotnych dźwięków. To trochę taki kompromis między precyzją a wygodą. Moim zdaniem – jak przy każdej automatyzacji – warto na koniec przesłuchać fragmenty, żeby mieć pewność, że nic ważnego nie zostało przypadkowo wyciszone.

Pytanie 17

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. DIN
B. TOSLINK
C. BNC
D. TDIF
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 18

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. HPF
B. Comb Filter
C. LPF
D. High Shelf
Można się łatwo pomylić przy wyborze rodzaju filtra, bo każdy z wymienionych pełni w audio swoje bardzo specyficzne zadania. LPF, czyli filtr dolnoprzepustowy, działa dokładnie odwrotnie niż HPF – przepuszcza niskie częstotliwości, a wycina wysokie. To zupełnie nieprzydatne, jeśli naszym problemem są niskoczęstotliwościowe popsy pochodzące z wybuchowych spółgłosek. W praktyce LPF stosuje się, by „zmiękczyć” sybilanty, szelesty lub zbytnie „szumy” w wysokich partiach, ale nigdy nie do eliminacji dudnień czy popów. High Shelf z kolei jest narzędziem bardziej subtelnym – to rodzaj korektora półkowego, którym można „podbić” lub „ściąć” całe pasmo powyżej (albo poniżej) jakiegoś progu, ale bez takiego jednolitego tłumienia jak w przypadku HPF czy LPF. Najczęściej używa się go przy masteringowej korekcji barwy głosu – na przykład, by dodać powietrza na górze lub pozbyć się nadmiernego basu, ale raczej w szerokim zakresie, nie punktowo. Comb Filter natomiast to zupełnie inna bajka – to filtr stosowany do uzyskania efektów specjalnych, np. efektu „robotycznego” dźwięku czy eliminacji konkretnych częstotliwości harmonicznych. Nie nadaje się do walki z popami czy dudnieniami. Z mojego doświadczenia najczęstszym błędem jest myślenie, że wystarczy „coś obciąć” w EQ i problem zniknie, podczas gdy tylko HPF daje precyzyjną kontrolę nad dolnym zakresem częstotliwości, eliminując to, co naprawdę przeszkadza. W literaturze i kursach produkcji dźwięku zawsze podkreśla się, że usuwając niskoczęstotliwościowe zakłócenia w nagraniach głosu, należy zaczynać od HPF – to po prostu najlepsza praktyka i pierwszy krok przed dalszą korekcją. Każdy inny wybór może skutkować niepotrzebną utratą czytelności lub niezamierzonym zniekształceniem barwy.

Pytanie 19

Pojemność jednowarstwowej płyty Blu-ray umożliwia nagranie materiałów dźwiękowych o maksymalnym rozmiarze

A. 8,5 GB
B. 25 GB
C. 4,7 GB
D. 50 GB
Płyta Blu-ray w wersji jednowarstwowej to obecnie jeden z najpopularniejszych nośników do przechowywania dużych ilości danych – zwłaszcza tam, gdzie zależy nam na jakości, a niekoniecznie na wielokrotnym nagrywaniu. Jej pojemność wynosi właśnie 25 GB, co czyni ją kilkukrotnie bardziej pojemną od standardowych płyt DVD czy nawet dwuwarstwowych DVD. To, moim zdaniem, naprawdę sporo jak na potrzeby domowego archiwizowania muzyki czy nawet bardziej rozbudowanych projektów dźwiękowych. W praktyce można tam zmieścić tysiące plików audio w wysokiej jakości lub nawet kilka godzin nieskompresowanego materiału dźwiękowego PCM, co zresztą wykorzystywały kiedyś płyty Blu-ray Audio. Warto pamiętać, że technologia Blu-ray to nie tylko filmy w wysokiej rozdzielczości. W branży muzycznej również znalazła swoje miejsce, choć raczej jako nośnik premium. Standardy Blu-ray określają jasno pojemności – 25 GB dla jednowarstwowej i 50 GB dla dwuwarstwowej, a nawet więcej dla wersji BD-XL, ale te są już rzadziej używane w konsumenckich zastosowaniach. Z mojego doświadczenia, korzystanie z jednowarstwowych płyt Blu-ray to dobra praktyka, bo łatwiej je odczytać w większości napędów, a ryzyko błędów przy nagrywaniu jest niższe niż w przypadku bardziej upakowanych nośników. I jeszcze ciekawostka – pliki w formacie FLAC lub WAV bez problemu się tam pomieszczą, a jak ktoś lubi eksperymentować z dźwiękiem przestrzennym, to Blu-ray daje naprawdę spore pole do popisu.

Pytanie 20

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Normalizacja.
B. Limiting.
C. Kompresja.
D. Ekspansja.
Normalizacja faktycznie nie wpływa na rozpiętość dynamiczną nagrania, czyli różnicę pomiędzy najcichszym a najgłośniejszym sygnałem w ścieżce audio. To taki trochę trik stosowany głównie po to, żeby wyrównać poziom głośności całego materiału do określonego maksimum, najczęściej do 0 dBFS, nie zmieniając przy tym relacji między poszczególnymi fragmentami. W praktyce, jak weźmiesz nagranie i zastosujesz normalizację, to po prostu najgłośniejszy moment zostaje podciągnięty do wybranego poziomu, a cała reszta idzie proporcjonalnie w górę – żadne ściski, żadne „rozpychanie” czy zawężanie dynamiki nie ma miejsca. To się przydaje np. jak miksujesz pliki z różnych źródeł, gdzie jeden utwór jest wyraźnie cichszy od innego – normalizacja pozwala szybko wyrównać te poziomy, żeby potem łatwiej można było porównywać lub montować. W branży to podstawa przy eksporcie czy masteringu, ale nikt nie traktuje tego narzędzia jako proces kształtujący dynamikę. Dla odmiany, limiter, kompresor czy ekspander ingerują już w relacje między głośnymi a cichymi fragmentami – dlatego właśnie tylko normalizacja jest tutaj poprawną odpowiedzią. Moim zdaniem, dobrze znać takie różnice, bo potem bez problemu można przewidzieć skutki każdego używanego narzędzia i nie robić przypadkiem bałaganu w miksie.

Pytanie 21

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. LEAD
B. ORG
C. VOX
D. RHYTHM
W branży muzycznej, zwłaszcza podczas realizacji nagrań w studiu, określenie "LEAD" na liście montażowej odnosi się do instrumentu prowadzącego, czyli w tym przypadku gitary prowadzącej. To właśnie ten ślad odpowiada za partie solowe, riffy i różnego rodzaju melodie, które wysuwają się na pierwszy plan miksu. Moim zdaniem, znajomość tego typu oznaczeń jest absolutnie podstawowa, bo pozwala sprawnie komunikować się w zespole realizatorskim i nie pogubić się podczas pracy na sesjach wielośladowych. W praktyce, kiedy inżynier dźwięku dostaje sesję nagraniową, od razu wie, że ślad "LEAD" to właśnie gitara, która gra solówki czy partie charakterystyczne, a nie na przykład rytmikę czy akordy pod wokalem. Standardy takie funkcjonują nie tylko w muzyce rozrywkowej, ale i w innych gatunkach – lead guitar, lead vocal to po prostu utarte, uniwersalne określenia. Dobrą praktyką jest zawsze stosowanie takich jasnych, krótkich oznaczeń w dokumentacji oraz w DAW, bo to skraca czas edycji i miksu. Z mojego doświadczenia wynika, że błędne oznaczenie śladów potrafi zdezorganizować całą pracę. LEAD zawsze oznacza ślad przewodni, przyciągający uwagę słuchacza.

Pytanie 22

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Karta SDHC
B. Mini Disc
C. Dysk SSD
D. Kaseta DAT
Mini Disc to ciekawy przykład technologii, która łączy świat magnetyczny z optycznym. Nośniki tego typu, wprowadzone przez Sony w latach 90., wykorzystują zapis magnetooptyczny – dane są zapisywane poprzez nagrzanie warstwy magnetycznej wiązką lasera, a następnie zmianę kierunku namagnesowania za pomocą pola magnetycznego. Takie podejście zapewnia dość wysoką trwałość zapisu oraz odporność na uszkodzenia mechaniczne, przynajmniej w porównaniu do klasycznych kaset czy płyt CD. W praktyce Mini Diski przez wiele lat wykorzystywane były w branży audio, zwłaszcza przez dziennikarzy i muzyków – bardzo ceniono je za możliwość wielokrotnego zapisu bez utraty jakości. Moim zdaniem to w ogóle było fajne rozwiązanie, bo łączyło zalety magnetycznych kaset (możliwość kasowania i ponownego nagrywania) z bardziej nowoczesnymi funkcjami optycznych płyt (szybki dostęp do utworów, cyfrowa jakość dźwięku). Dzięki temu Mini Disc wyprzedzał nieco swoje czasy, a obecnie jest ciekawostką technologiczną, z której można wyciągnąć sporo inspiracji przy analizie różnych metod przechowywania danych. W branżowych standardach zapis magnetooptyczny pojawia się jeszcze np. w droższych rozwiązaniach archiwizacyjnych dla firm, ale dla zwykłego użytkownika Mini Disc był najbardziej znanym nośnikiem tego typu.

Pytanie 23

Jaka powinna być minimalna liczba ścieżek materiału dźwiękowego w edytorze audio, pozwalająca na kontrolę każdego z instrumentów kwintetu smyczkowego?

A. 5 ścieżek.
B. 3 ścieżki.
C. 4 ścieżki.
D. 2 ścieżki.
Kwintet smyczkowy to zespół, w którym gra pięciu instrumentalistów: zwykle dwóch skrzypków, altowiolista, wiolonczelista i kontrabasista (czasem drugi wiolonczelista zamiast kontrabasisty – szczegóły zależą od repertuaru, ale zawsze pięć osób). Każdy instrument ma swoją unikalną barwę i funkcję w utworze, dlatego w profesjonalnej pracy studyjnej przyjęło się nagrywać lub przynajmniej oddzielnie edytować każdą partię. Jeśli chcesz mieć pełną kontrolę nad miksem – czyli panoramą, poziomem głośności, efektami czy automatyzacją – każda partia powinna mieć osobną ścieżkę. Tak się to robi w każdym porządnym studiu nagraniowym, bo miksowanie instrumentów razem ogranicza możliwości korekty i kreatywnej obróbki. Moim zdaniem to nie tylko wygoda, ale i duża oszczędność czasu, gdy chcesz np. wyciszyć samą wiolonczelę albo podkreślić altówkę. Dodatkowo, praca na pięciu ścieżkach pozwala np. na precyzyjne usuwanie szumów, stosowanie efektów przestrzennych albo automatyzację dynamiki – to już branżowy standard. Oczywiście, istnieją zespoły, które grają „na żywo” do jednej ścieżki stereo, ale w edytorze audio, gdy masz wybór, zawsze lepiej rozdzielać instrumenty. Przy kwintecie smyczkowym minimum to pięć ścieżek, jeśli zależy ci na jakości i profesjonalnym brzmieniu. W sumie, to taki techniczny kompromis między wygodą a kontrolą – im mniej ścieżek, tym mniej swobody. Dlatego 5 ścieżek to podstawa.

Pytanie 24

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. ramkę.
B. sekundę.
C. minutę.
D. godzinę.
Druga para cyfr w zapisie kodu czasowego SMPTE faktycznie odpowiada za minuty. To jest bardzo istotne, szczególnie gdy zajmujemy się montażem wideo albo nagraniami audio, gdzie precyzja synchronizacji jest kluczowa. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) definiuje czteroelementowy format: HH:MM:SS:FF, gdzie właśnie ta druga para cyfr (MM) wskazuje liczbę minut. Moim zdaniem, dobrze rozumieć tę strukturę, bo potem łatwiej jest nawigować w profesjonalnych programach do edycji, takich jak Adobe Premiere, DaVinci Resolve czy Avid. Tam nie ma miejsca na domysły – każde pole odpowiada za konkretną jednostkę czasu, co pozwala np. bardzo szybko znaleźć określony fragment materiału. W praktyce, przy przekładaniu notatek z planu: „akcja zaczyna się w 12:07:15:17”, od razu wiadomo, że „07” to siódma minuta drugiej godziny. To trochę jak czytanie zegarka cyfrowego, tylko z dokładnością do pojedynczej klatki filmu. Z mojego doświadczenia osoby, które dobrze rozumieją ten zapis, dużo mniej się mylą przy przygotowywaniu list montażowych (EDL) albo przy synchronizacji dźwięku z obrazem. Ma to też znaczenie w broadcastingu, gdzie precyzja odliczania minut przekłada się na ramówkę telewizyjną. W skrócie – praktyczna i bardzo istotna wiedza w świecie zawodowego wideo i audio.

Pytanie 25

Aplikacje DAW mogą odtwarzać pliki

A. tylko w formatach kompresji stratnej.
B. audio oraz MIDI.
C. tylko typu <i>interleaved</i>.
D. o różnej rozdzielczości i różnej częstotliwości.
Aplikacje DAW, czyli Digital Audio Workstation, zostały zaprojektowane z myślą o wszechstronnej obsłudze zarówno plików audio, jak i danych MIDI. To jest praktycznie standard w branży – nie wyobrażam sobie pracy bez tej funkcjonalności, bo przecież producenci, realizatorzy i muzycy na co dzień korzystają z obu tych typów danych. Przykładowo, nagrywając wokal czy gitarę, pracujemy na ścieżkach audio, natomiast cały świat instrumentów wirtualnych, automatów perkusyjnych czy sterowania syntezatorami opiera się właśnie na MIDI. To właśnie elastyczność DAW-ów sprawia, że w jednym projekcie możesz miksować sample audio z partiami dogrywanymi na klawiaturze MIDI i automatyzować je bez żadnej dodatkowej konwersji. Standardy takie jak MIDI 1.0 czy najnowszy MIDI 2.0 są wspierane przez praktycznie każde poważne DAW: od Abletona przez Cubase po Logic Pro. Z mojego doświadczenia wynika, że umiejętność obsługi obu typów plików to dziś absolutna podstawa – pozwala nie tylko na swobodę twórczą, ale też na współpracę z innymi muzykami i producentami na całym świecie. Obsługa plików audio oraz MIDI to nie tylko wygoda, ale wręcz fundament pracy z każdym nowoczesnym DAW-em, bez względu na to, jaki gatunek muzyczny tworzysz.

Pytanie 26

Który ze sposobów opisu osi czasu w sesji oprogramowania DAW odnosi się do jednostek czasu?

A. SAMPLES
B. BARS/BEATS
C. FRAMES
D. MIN/SEC
MIN/SEC to chyba najpopularniejszy sposób opisu osi czasu w DAW, jeśli zależy nam na rzeczywistych jednostkach czasu, a nie stricte muzycznych. W praktyce oznacza to, że cała sesja, klipy lub konkretne zdarzenia są oznaczone właśnie w minutach i sekundach, tak jak w zwykłym zegarze. To rozwiązanie jest nieocenione np. podczas montażu dźwięku do filmu, reklamy czy podcastów – wszędzie tam, gdzie liczy się precyzyjna synchronizacja z obrazem lub narracją, a nie tylko z tempem utworu. Ja często korzystam z MIN/SEC przy produkcji spotów reklamowych, bo klient zawsze pyta „ile sekund trwa dany efekt”, a nie „ile to jest taktów”. W branży profesjonalnej MIN/SEC to absolutny standard przy pracy z materiałami, gdzie czas nominalny jest ważniejszy niż aspekty muzyczne, np. w radiu lub TV. Ciekawostka: niektóre DAWy pozwalają nawet na jednoczesny wyświetlacz MIN/SEC i innych formatów, żeby szybko porównywać synchronizację z tempem. Wielu realizatorów dźwięku przyzwyczaiło się też, że łatwiej jest im planować strukturę sesji pod kątem minut i sekund, zwłaszcza przy masteringu czy cutach do konkretnych ram czasowych. To bardzo praktyczny i uniwersalny wybór w codziennej pracy z dźwiękiem.

Pytanie 27

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. kompresora.
B. ekspandera.
C. filtru dolnoprzepustowego.
D. bramki szumów.
Redukcja podmuchów wiatru na nagraniu to jedna z typowych bolączek w pracy z dźwiękiem, zwłaszcza przy nagraniach terenowych. Niestety, wiele osób ma tendencję do sięgania po narzędzia, które wydają się uniwersalne, ale w tym konkretnym przypadku nie przynoszą oczekiwanych rezultatów. Ekspander, którego głównym zadaniem jest zwiększanie kontrastu dynamicznego – czyli pogłębianie różnicy między cichymi a głośnymi fragmentami – nie potrafi selektywnie eliminować niskoczęstotliwościowych zakłóceń powodowanych przez wiatr. Stosowany jest raczej do ograniczania szumów tła w przerwach, ale nie radzi sobie z ciągłymi niskimi dźwiękami, które występują jednocześnie z mową. Z kolei kompresor działa niejako odwrotnie – ściska dynamikę, przez co nagłe podmuchy mogą wręcz stać się bardziej słyszalne, bo poziom głośniejszych fragmentów zostanie zbliżony do normalnych, a to zupełnie nie pomaga w uzyskaniu czystego nagrania. Bramki szumów, choć czasami użyteczne przy eliminacji szumu tła, bazują na ustawieniu progu czułości i wyciszaniu wszystkiego poniżej niego. W przypadku podmuchów wiatru, które są często głośne i bardzo niskie, bramka może po prostu nie zadziałać lub wręcz wycinać fragmenty mowy, robiąc więcej szkody niż pożytku. Moim zdaniem, błędne jest przekonanie, że każde narzędzie do dynamiki czy szumów jest uniwersalne – praktyka uczy, że skuteczność uzyskuje się tylko przez właściwe dopasowanie rozwiązania do problemu. Dobrym nawykiem jest uważne analizowanie widma dźwięku i stosowanie narzędzi częstotliwościowych, takich jak filtr dolnoprzepustowy, które naprawdę są dedykowane do walki z niskimi, mechanicznymi zakłóceniami.

Pytanie 28

Które z wymienionych określeń definiuje cyfrowy plik audio na osi czasu?

A. Rozdzielczość.
B. Głębia bitowa.
C. Długość słowa cyfrowego.
D. Częstotliwość próbkowania.
Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.

Pytanie 29

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Bit Resolution
B. Channels
C. Sample Rate
D. Audio File Type
Częstotliwość próbkowania, czyli Sample Rate, to absolutnie kluczowy parametr każdego pliku audio, szczególnie w kontekście pracy w DAW-ach. To właśnie ona określa, ile próbek dźwięku jest pobieranych w ciągu jednej sekundy, a więc jak „precyzyjnie” odwzorowany jest sygnał analogowy w cyfrowym świecie. Standardowo w muzyce stosuje się 44,1 kHz, bo taka jest częstotliwość wykorzystywana na płytach CD, ale w studiach coraz częściej trafia się na 48 kHz, 96 kHz, czy nawet wyżej, zwłaszcza przy nagraniach na potrzeby filmu i profesjonalnych sesjach. Z mojego doświadczenia wynika, że odpowiednie dobranie Sample Rate już na etapie rejestracji ma ogromny wpływ na jakość końcową miksu i masteringu, a potem trudno już coś z tym zrobić bez utraty jakości. Sample Rate nie tylko wpływa na pasmo przenoszenia, ale też na kompatybilność między różnymi urządzeniami i programami. Dobrą praktyką jest, by cała sesja DAW miała jednolitą częstotliwość próbkowania, bo konwersje mogą powodować artefakty albo dziwne zniekształcenia. Moim zdaniem każdy realizator dźwięku powinien umieć dobrać Sample Rate do konkretnego projektu – czasem lepsza będzie wyższa częstotliwość, ale i większe pliki, a czasem trzeba świadomie wybrać kompromis. Tak czy siak, to Sample Rate odpowiada za częstotliwość próbkowania i nie ma tu żadnej wątpliwości.

Pytanie 30

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 4 razy.
B. 2 razy.
C. 3 razy.
D. 6 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 31

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 14 MB
B. 8 MB
C. 11 MB
D. 17 MB
Prawidłowo, bo dokładne obliczenie rozmiaru pliku dźwiękowego o parametrach 48 kHz, 24 bity, stereo (czyli dwa kanały), i długości 1 minuty daje wynik bardzo zbliżony do 17 MB. Zasada jest prosta: najpierw obliczamy liczbę próbek na sekundę (48 000), potem mnożymy przez liczbę bitów na próbkę (24), a potem jeszcze przez liczbę kanałów (2, bo stereo). Całość jeszcze przez 60 sekund, żeby dostać sumę bitów dla całej minuty. Później dzielimy przez 8, żeby zamienić bity na bajty, i jeszcze przez 1 048 576 (czyli 1024x1024), żeby dostać wynik w megabajtach. Wychodzi w praktyce 16,5 MB, a biorąc pod uwagę zaokrąglenia i niewielki zapas, przyjęcie 17 MB to bardzo poprawny wybór zgodny z praktyką branżową. W profesjonalnych studiach i przy pracy z urządzeniami audio, zawsze warto zostawić trochę dodatkowej przestrzeni, bo czasem metadane lub nagłówki plików lekko zwiększają rozmiar. Moim zdaniem, znajomość tego typu wyliczeń jest kluczowa przy projektowaniu infrastruktury do archiwizacji i obróbki dźwięku, żeby potem nie było zaskoczenia, że nagle zabrakło miejsca na dysku. Dobrą praktyką jest też stosowanie formatów bezstratnych (jak WAV czy FLAC), a one często trzymają się właśnie tych szacunkowych rozmiarów. Takie podejście przydaje się nie tylko w studiu, ale i w radiu, telewizji czy wszędzie tam, gdzie ważna jest jakość i przewidywalność zapotrzebowania na przestrzeń dyskową.

Pytanie 32

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 2 ścieżki.
D. 3 ścieżki.
W przypadku rejestracji chóru z wykorzystaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych, minimalna liczba ścieżek monofonicznych w sesji DAW powinna wynosić cztery. Chodzi o to, że para XY to zawsze dwa osobne mikrofony ustawione blisko siebie pod odpowiednim kątem – każdy z nich wymaga niezależnej ścieżki, żeby zachować możliwość precyzyjnej kontroli panoramy i balansu stereo w miksie. Do tego dochodzą dwa mikrofony podpórkowe (tzw. spot microphones), które najczęściej ustawia się bliżej kluczowych sekcji chóru, aby wyłapać więcej szczegółów lub podkreślić wybrane fragmenty brzmienia. Każdy mikrofon podpórkowy również musi mieć swoją ścieżkę, bo tylko wtedy da się sensownie ustawić proporcje i zrealizować indywidualną korekcję czy kompresję. Z mojego doświadczenia wynika, że rozdzielność tych ścieżek to podstawa profesjonalnego montażu – w praktyce liczy się elastyczność w dalszym miksie, a także bezpieczeństwo: zawsze da się zredukować poziom bądź całkiem wyciszyć niepotrzebne ślady. Takie podejście jest zgodne z typowymi workflow w studiach nagraniowych i pozwala zachować pełną kontrolę nad każdym elementem nagrania. Często nawet w prostszych sesjach stosuje się ten schemat. Można oczywiście dodać więcej ścieżek, jeśli używa się większej liczby mikrofonów, ale w tej konfiguracji cztery to absolutne minimum. Przygotowanie mniejszej ilości ścieżek ograniczyłoby możliwości miksu i mogłoby prowadzić do nieprofesjonalnych rezultatów.

Pytanie 33

Który z podanych nośników umożliwia magnetooptyczny zapis dźwięku?

A. Dysk SSD
B. Płyta DVD
C. Płyta CD
D. Dysk MD
Dysk MD, czyli MiniDisc, to ciekawy przykład nośnika, który wykorzystuje technikę magnetooptyczną do zapisu i odczytu dźwięku. Zasada działania opiera się na połączeniu technologii magnetycznej oraz optycznej. W praktyce wygląda to tak, że podczas zapisu laser nagrzewa mikroskopijny obszar na powierzchni dysku, przez co staje się on podatny na zmiany namagnesowania – wtedy specjalna głowica magnetyczna zapisuje dane dźwiękowe. Przy odczycie laser po prostu odczytuje te zmiany, bez kontaktu mechanicznego, co znacząco wpływa na żywotność nośnika. Moim zdaniem MiniDisce były świetnym rozwiązaniem na przełomie lat 90. i 2000., zwłaszcza dla muzyków czy dziennikarzy, którzy potrzebowali niezawodnej, przenośnej formy zapisu audio. Pod kątem standardów branżowych MiniDisc przez pewien czas był nawet uważany za profesjonalny sprzęt reporterski, bo w przeciwieństwie do kaset magnetofonowych oferował lepszą jakość i szybki dostęp do ścieżek. To też przykład tego, jak technologia magnetooptyczna znalazła zastosowanie praktyczne w codziennym użytkowaniu, zanim rynek całkowicie zdominowały płyty CD czy pamięci flash. Dla osób interesujących się historią nośników danych, MiniDisc to naprawdę fajny temat, bo łączy innowacyjną technologię z praktycznym zastosowaniem w rejestracji i przetwarzaniu dźwięku.

Pytanie 34

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 96 000 Hz
B. 48 000 Hz
C. 44 100 Hz
D. 32 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 35

Aby ustawić maksymalny poziom sygnału materiału muzycznego bez ingerencji w jego dynamikę, należy użyć w edytorach dźwięku funkcji

A. solo.
B. range.
C. split.
D. normalizacja.
Normalizacja to naprawdę podstawowa i bardzo przydatna funkcja w edytorach dźwięku – i to nie tylko dla kogoś, kto robi miks na szybko, ale też dla osób, które chcą dbać o jakość dźwięku według najlepszych branżowych standardów. Polega na takim podniesieniu poziomu całego materiału muzycznego, żeby najwyższy szczyt sygnału sięgał ustalonego maksimum (najczęściej to 0 dBFS w systemach cyfrowych). Super sprawa jest taka, że ten proces nie zmienia relacji dynamicznych w utworze – to znaczy, wszystkie ciche i głośne fragmenty pozostają względem siebie takie same. Moim zdaniem normalizacja to prawdziwy ratunek wtedy, kiedy nagrany materiał jest za cichy, ale nie chcemy niszczyć jego naturalnej dynamiki. Przykładowo, jak nagrasz wokal, który ma dobre proporcje, ale jest ogólnie za cicho, normalizacja załatwi sprawę. Profesjonaliści używają tej funkcji m.in. przy przygotowywaniu plików pod mastering albo do wyrównania poziomów różnych ścieżek przed miksowaniem. Warto też pamiętać, że nadmierne stosowanie normalizacji może podbijać także szumy, ale jeśli materiał wyjściowy jest czysty, to jest to jedna z najbezpieczniejszych metod podnoszenia poziomu sygnału bez ryzyka przesterowania czy spłaszczenia dynamiki. W praktyce to bardzo szybka i łatwa metoda na zoptymalizowanie głośności bez używania kompresora czy limitera.

Pytanie 36

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. sekundę.
B. godzinę.
C. minutę.
D. ramkę.
Druga para cyfr w zapisie kodu czasowego SMPTE rzeczywiście odnosi się do minut. To bardzo ważne, bo przy pracy z materiałem wideo czy audio nieprecyzyjne zarządzanie czasem może prowadzić do błędów zsynchronizowania, szczególnie przy montażu wielościeżkowym. W standardzie SMPTE timecode zapisuje się w formacie HH:MM:SS:FF (godzina:minuta:sekunda:ramka). Przykładowo, jeśli na taśmie mamy fragment oznaczony 01:23:45:12, to oznacza to dokładnie pierwszą godzinę, 23. minutę, 45. sekundę i 12. klatkę. Moim zdaniem świadomość tego układu pozwala dużo szybciej orientować się w timeline’ach podczas montażu albo synchronizacji obrazu z dźwiękiem. W praktyce operatorzy i montażyści bardzo często posługują się oznaczeniami minut, by sprawnie zaznaczać punkty cięcia lub synchronizacji, szczególnie przy dłuższych formach, gdzie sekundy i ramki nie są tak istotne, a przesunięcie np. jednej minuty mogłoby całkowicie rozjechać całą strukturę montażową. Standard SMPTE jest szeroko przyjęty na całym świecie w branży filmowej, telewizyjnej i postprodukcyjnej, więc rozumienie co oznacza każda para cyfr pomaga też przy współpracy zespołowej – każdy wie, gdzie szukać określonego momentu. W różnych programach do edycji (np. Adobe Premiere, AVID) też zawsze ta druga para to minuty, więc nie sposób tego przegapić.

Pytanie 37

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. 5.1
B. 6.1
C. Mono
D. Stereo
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 38

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .wav
B. .mp3
C. .m4a
D. .aac
Format pliku .wav to chyba najbardziej popularny wybór, jeśli zależy komuś na maksymalnej jakości i zachowaniu wszystkich szczegółów dźwięku. W praktyce .wav jest formatem bezstratnym, co oznacza, że nie kompresuje on danych audio tak, jak robią to np. .mp3 czy .aac. Dzięki temu żadne informacje dźwiękowe nie są usuwane czy upraszczane – nagranie zachowuje oryginalną jakość, jaką udało się zarejestrować podczas nagrywania czy miksowania. Często w studiach nagraniowych, przy obróbce dźwięku do filmów czy podcastów, pliki .wav są uznawane za standard, bo pozwalają na dalszą edycję bez strat jakości. Moim zdaniem, jeśli masz choćby cień wątpliwości, którą ścieżkę wybrać do archiwizacji albo profesjonalnej produkcji, to zawsze .wav będzie pewniakiem. To oczywiście wiąże się z większymi rozmiarami plików, ale w wielu sytuacjach nie ma to aż takiego znaczenia – ważniejsze jest, aby nie tracić żadnych detali. Warto też pamiętać, że wiele systemów multimedialnych, DAW-ów (Digital Audio Workstation) czy nawet starszych konsol lepiej radzi sobie właśnie z .wav. Tak po ludzku: tam, gdzie liczy się czysta jakość i pełna informacja, nie kombinuj, tylko wybierz .wav.

Pytanie 39

Aby zapętlić odtwarzanie fragmentu dźwięku na ścieżce w sesji oprogramowania DAW, należy użyć polecenia

A. loop.
B. snap.
C. freeze.
D. merge.
Funkcja 'loop' to jedna z podstawowych i najczęściej używanych opcji w każdym szanującym się DAW-ie. Dzięki niej możesz powtarzać wybrany fragment ścieżki tyle razy, ile tylko chcesz – to mega wygodne podczas miksowania, aranżacji, czy nawet samego nagrywania. W praktyce wygląda to tak: zaznaczasz sobie konkretny zakres na timeline, włączasz tryb loop i możesz bez końca słuchać tego samego fragmentu, co jest genialne np. przy edycji bitu, dogrywaniu wokali czy testowaniu efektów. Moim zdaniem to narzędzie absolutnie niezbędne dla każdego, kto chce pracować szybko i sprawnie, bez ciągłego przewijania czy ręcznego odpalania tego samego miejsca. To jest też standard w workflow – praktycznie każda sesja produkcyjna, jaką widziałem, korzysta z loopowania, choćby przy pracy nad sekcją perkusyjną. Warto też pamiętać, że funkcja loop w DAW-ach często jest powiązana z innymi opcjami, np. automatyzacją czy quantizacją, dzięki czemu można łatwo testować różne rozwiązania bez rozwalania całej aranżacji. Trochę zabawne, ile razy widziałem, jak ktoś zapomina o tej funkcji i męczy się z ręcznym odtwarzaniem fragmentów – szkoda czasu, naprawdę. Dobrą praktyką jest też ustawianie loopa na krótkie fragmenty przy dokładnym montażu lub korekcji błędów w nagraniu. No i na koniec: praktycznie wszystkie popularne DAW-y mają przycisk lub skrót klawiszowy do loopowania, więc warto się tego nauczyć na pamięć, bo to sporo usprawnia pracę.

Pytanie 40

Jaką nazwę nosi dokument zawierający „szkielet” fabuły filmu?

A. Drabinka scenariuszowa.
B. Spis efektów.
C. Lista znaczników.
D. Playlista.
Drabinka scenariuszowa to jeden z tych dokumentów, bez których trudno sobie wyobrazić proces przygotowania filmu – szczególnie w profesjonalnych warunkach. Zawiera ona rozpisaną w punktach całą strukturę fabuły, od ogólnych zdarzeń aż po konkretne sceny. Moim zdaniem, to taki swoisty „szkielet”, na którym dopiero buduje się szczegóły – dialogi, opis miejsca akcji, przebieg wydarzeń. Praktycznie każda większa produkcja, czy to fabularna, czy dokumentalna, korzysta z drabinki, żeby zachować porządek w opowieści i nie pogubić się podczas dalszego rozpisywania scenariusza. W branży filmowej to jest taki etap, kiedy scenarzysta lub cały zespół twórczy może jeszcze łatwo wprowadzać zmiany w logice fabularnej – zanim przejdzie się do szczegółowego scenariusza. Często spotyka się sytuację, gdzie na warsztatach filmowych prowadzący wymaga najpierw dobrze przemyślanej drabinki, zanim dopuści do pisania scenariusza – to już taki standard. Dzięki drabince łatwiej też współpracować z reżyserem, producentem czy nawet z inwestorami, bo już na tym etapie widać jaka będzie dynamika historii, gdzie są kulminacje i zwroty akcji. Z mojego doświadczenia, kto pominie drabinkę, ten potem nieraz żałuje – bo poprawianie gotowego scenariusza jest dużo trudniejsze niż zmienienie kolejności czy treści scen w drabince. No i niestety, bez niej trudno dobrze rozplanować rytm filmu.