Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 3 maja 2026 09:53
  • Data zakończenia: 3 maja 2026 09:59

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. koloru ścieżek w sesji.
C. częstotliwości próbkowania sygnału w sesji.
D. kształtu fade in i fade out w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 2

Które z poniższych parametrów wskazują na plik o najlepszej jakości?

A. 48 kHz, 24 bity
B. 48 kHz, 16 bitów
C. 96 kHz, 8 bitów
D. 44.1 kHz, 24 bity
Parametry 48 kHz oraz 24 bity to zestawienie, które w świecie dźwięku uznaje się za naprawdę wysoką jakość, szczególnie w produkcji muzycznej czy postprodukcji audio do filmu. Częstotliwość próbkowania 48 kHz jest standardem w profesjonalnych zastosowaniach – na przykład w telewizji, filmie, czy nagraniach na potrzeby internetu. 24 bity natomiast dają bardzo szeroki zakres dynamiki, pozwalając na nagranie zarówno bardzo cichych, jak i bardzo głośnych dźwięków bez tracenia szczegółów. Moim zdaniem, korzystanie z takich parametrów to trochę jak robienie zdjęcia bardzo dobrą lustrzanką – zapisuje się więcej informacji, co potem przekłada się na lepszą jakość końcową. W praktyce pliki audio o parametrach 48 kHz / 24 bitów są bardzo elastyczne w obróbce: inżynierowie dźwięku mają większy zapas do edycji, miksowania czy masteringu, bez ryzyka utraty detali. To też swoisty kompromis między rozmiarem pliku, a jakością – bo wprawdzie 96 kHz wydaje się wyższe, ale przy 8 bitach już totalnie się nie opłaca. Warto wiedzieć, że większość profesjonalnych studiów korzysta właśnie z 48 kHz / 24 bity, bo to daje najlepszy stosunek jakości do ciężaru pliku. Często mówi się: „lepiej więcej bitów niż tylko wyższa częstotliwość próbkowania”, bo zakres dynamiki jest kluczowy dla naturalnego brzmienia. Także – bardzo słuszny wybór, zgodny z realiami branży.

Pytanie 3

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
B. degradację wyłącznie wysokich częstotliwości.
C. sukcesywny spadek dynamiki nagrania.
D. obniżanie poziomu nagrania.
To jest właśnie ta kluczowa rzecz związana z kopiowaniem analogowych nagrań – fizyka nie daje tutaj taryfy ulgowej. Przy każdym kolejnym kopiowaniu nagrania analogowego zawsze pojawia się pogorszenie jakości. Przede wszystkim dochodzi do ograniczenia pasma przenoszenia, czyli oryginalnie szeroki zakres częstotliwości zaczyna się zawężać. Głównie ucierpią wysokie tony, ale nie tylko – ogólnie całe spektrum robi się jakby bardziej 'ściśnięte'. Co ważne, z każdym kolejnym kopiowaniem szumy własne urządzenia rosną. Czyli po prostu – powstaje coraz więcej niechcianych dźwięków, które nie były częścią oryginalnego materiału. Właśnie dlatego w profesjonalnych studiach dźwiękowych od zawsze tak pilnowano ilości generacji taśm – im mniej pośrednich kopii, tym lepiej. Moim zdaniem to jeden z głównych powodów, dla których branża tak mocno przeskoczyła na cyfrowe systemy – tam kopiowanie nie wpływa na jakość. W praktyce, jeśli zdarzyło Ci się słuchać starej kasety kopiowanej kilka razy, wiesz o co chodzi – dźwięk robi się matowy i szumiący, a czasami nie da się już tego słuchać. Branżowe normy (np. IEC, AES) jasno podkreślają, że kopiowanie analogowe zawsze naraża sygnał na degradację. Staraj się więc – jeśli już musisz kopiować analogowo – ograniczać ilość takich operacji do minimum lub korzystać z wysokiej klasy urządzeń, żeby te straty były jak najmniejsze.

Pytanie 4

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. Mono
B. 6.1
C. 5.1
D. Stereo
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 5

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 96 kHz
B. 44,1 kHz
C. 88,2 kHz
D. 48 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 6

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.ldm
B. *.fls
C. *.oem
D. *.edl
Pliki o rozszerzeniu *.edl (Edit Decision List) to absolutny standard, jeśli chodzi o zapisywanie decyzji montażowych w postprodukcji filmowej. Z mojego doświadczenia wynika, że EDL jest wręcz niezbędny do sprawnej współpracy między montażystą a działem dźwięku czy korekcji barwnej. Taki plik to tekstowy zapis wszystkich kluczowych informacji o cięciach, przejściach oraz źródłach materiału – w praktyce zawiera szczegółową listę użytych fragmentów klipów, czasów wejścia i wyjścia, a także typów przejść. Dzięki temu można bezproblemowo przenosić projekt pomiędzy różnymi systemami montażowymi, na przykład z Avid Media Composer do DaVinci Resolve czy Adobe Premiere Pro. Co ważne, EDL jest formatem otwartym i bardzo czytelnym – fachowcy mówią, że to taki pomost między różnymi etapami postprodukcji. Branża filmowa od lat korzysta z EDL, bo to po prostu działa i nie ma tutaj większej filozofii. Warto też pamiętać, że pliki EDL obsługują głównie podstawowe informacje montażowe, a do bardziej zaawansowanych danych (np. ruchów kamery, efektów) stosuje się nowsze formaty jak XML czy AAF. Ale do podstawowej wymiany decyzji edycyjnych *.edl jest po prostu najpraktyczniejszy.

Pytanie 7

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 2 ścieżki.
D. 3 ścieżki.
Prawidłowa odpowiedź to 4 ścieżki, bo właśnie tyle potrzeba do zarejestrowania wielościeżkowego nagrania gitary przy użyciu dwóch mikrofonów podpórkowych (close mików) oraz pary mikrofonów ogólnych ustawionych w systemie XY. Każdy mikrofon powinien mieć swoją oddzielną ścieżkę w sesji DAW – to podstawa profesjonalnej rejestracji, bo tylko wtedy masz pełną kontrolę nad edycją, panoramą, EQ czy efektami na każdym z nich. Takie podejście pozwala potem swobodnie miksować – na przykład przesunąć mikrofony XY szerzej w panoramie, dodać inny pogłos na close mikach albo nawet wyciąć niechciany szum tylko z jednej ścieżki. Moim zdaniem, w praktyce studyjnej to absolutny standard i nie znam realizatora, który by wrzucał dwa mikrofony na jedną ścieżkę – później nie da się tego sensownie rozdzielić. Co ciekawe, taka konfiguracja przydaje się nie tylko przy gitarze, bo identyczna logika działa przy nagrywaniu perkusji, fortepianu czy chórów – osobne ścieżki dla każdego mikrofonu! Warto o tym pamiętać, bo potem przy miksie można wyciągnąć z tych nagrań znacznie więcej. A jeszcze na marginesie – zawsze dobrze jest opisać ścieżki w projekcie, bo przy czterech mikrofonach łatwo się pomylić, gdzie jest XY lewy, a gdzie prawy. To drobiazg, ale bardzo pomaga w kolejnych etapach produkcji.

Pytanie 8

Jaka jest maksymalna pojemność karty RS-MMC?

A. 2 GB
B. 16 GB
C. 128 GB
D. 64 GB
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 9

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/24 bity
B. 44100 Hz/16 bitów
C. 48000 Hz/16 bitów
D. 48000 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 10

Czym jest normalizacja nagrania (peak normalization)?

A. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
B. Obniżeniem średniego poziomu nagrania o 3 dB
C. Obniżeniem szczytowego poziomu nagrania o 3 dB
D. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
Normalizacja szczytowa (ang. peak normalization) polega na zwiększeniu poziomu sygnału tak, żeby najwyższy punkt (czyli szczyt) nagrania osiągnął określony poziom — najczęściej 0 dBFS w przypadku pracy ze ścieżkami cyfrowymi. To jest standard w audio, szczególnie jeśli chcemy wycisnąć maksimum z głośności materiału, ale nie dopuścić do przesteru. Taki zabieg nie zmienia proporcji między cichszymi a głośniejszymi fragmentami nagrania, więc charakterystyka dynamiczna pozostaje nietknięta. Moim zdaniem to właśnie czyni normalizację szczytową bardzo bezpieczną i przewidywalną — nie ma tu zagrożenia, że nagle środek utworu zrobi się za głośny albo cisza w tle zniknie. W praktyce stosuje się ją np. przed masteringiem albo przygotowując pliki do publikacji, żeby uniknąć niepotrzebnych niespodzianek z poziomami między różnymi utworami. Trzeba mieć na uwadze, że 0 dBFS to granica w świecie cyfrowym — wyżej już się po prostu nie da, bo pojawi się clipping. Warto jeszcze dodać, że normalizacja szczytowa bywa często mylona z normalizacją RMS (średnią), która zmienia całościową głośność odbieraną przez ucho, jednak w branży audio peak normalization to taki 'must-have', szczególnie przy zgrywaniu miksu na master track.

Pytanie 11

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 9 dB
B. o 6 dB
C. o 12 dB
D. o 3 dB
Redukcja mocy sygnału o połowę to temat, który często przewija się podczas pracy z dźwiękiem – czy to w miksowaniu, czy w projektowaniu systemów nagłośnieniowych. Odpowiedź o stłumienie o 3 dB jest jak najbardziej trafiona, bo właśnie tyle wynosi różnica, gdy moc spada dwukrotnie. To taki branżowy standard – 3 dB to „wzorcowa połowa mocy”. Wynika to z matematyki decybeli: stosunek mocy wyrażamy jako 10 log(P2/P1). Jeśli P2 to połowa P1, to 10 log(0,5) ≈ -3 dB. Co ciekawe, w przypadku napięcia (lub amplitudy), żeby uzyskać połowę mocy, nie tłumimy sygnału o połowę napięcia, a o około 0,707 (czyli -3 dB napięciowo). W praktyce — jak siedzisz przy DAW-ie i ściszysz ścieżkę o 3 dB, moc naprawdę spada o połowę, choć subiektywnie nie jest to takie oczywiste, bo nasze ucho reaguje logarytmicznie. W branży często mówi się: „Minus 3 dB to połowa mocy, minus 6 dB to połowa napięcia” – warto to zapamiętać, bo często się przydaje przy liczeniu headroomu czy przy projektowaniu torów audio. Moim zdaniem to jedna z najważniejszych liczb do ogarnięcia w audio – pozwala unikać błędów przy ustawianiu poziomów, zwłaszcza grając z sygnałami na pograniczu przesterowania. Wspominasz o DAW: każdy szanujący się program pokazuje wartości tłumienia w dB, więc można łatwo to wypróbować w praktyce, eksperymentując z miernikami RMS lub VU.

Pytanie 12

Ile kanałów zawiera sygnał stereofoniczny nagrany w technice mikrofonowej X/Y?

A. 6 kanałów.
B. 2 kanały.
C. 4 kanały.
D. 8 kanałów.
Sygnał stereofoniczny nagrany w technice mikrofonowej X/Y to klasyczny przykład, gdzie mamy do czynienia dokładnie z dwoma kanałami: lewym i prawym. Tak to się przyjęło właściwie wszędzie – od domowych nagrań, przez studia nagraniowe aż po transmisje radiowe i telewizyjne. Technika X/Y polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej (najczęściej) pod kątem 90° lub 120° względem siebie, membranami praktycznie w tym samym punkcie. Dzięki temu uzyskujemy wierne odwzorowanie panoramy stereo bez problemów z przesunięciem fazy. Dwa kanały pozwalają odtwarzać dźwięk w taki sposób, że słuchacz zyskuje poczucie przestrzeni – słychać skąd dany instrument czy głos dochodzi. Właśnie w ten sposób rejestruje się koncerty na żywo, nagrania ambientowe czy próby zespołów, jeśli zależy nam na autentycznym obrazie dźwiękowym. W branży audio to taki złoty standard – większość sprzętu, od mikserów po rejestratory, jest domyślnie przygotowana pod dwa kanały stereo. Moim zdaniem, jeśli ktoś planuje swoją przygodę z rejestracją dźwięku, powinien zacząć właśnie od opanowania techniki X/Y i zrozumienia, jak działa stereofonia na bazie dwóch kanałów – to fundament przy dalszych eksperymentach z dźwiękiem przestrzennym.

Pytanie 13

Wskaż optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych.

A. Temperatura 6°C ÷ 15°C, wilgotność 30% ÷ 40%
B. Temperatura 18°C ÷ 24°C, wilgotność 10% ÷ 20%
C. Temperatura 24°C ÷ 30°C, wilgotność 10% ÷ 20%
D. Temperatura 15°C ÷ 18°C, wilgotność 30% ÷ 40%
Wybrałeś optymalne parametry przechowywania archiwalnych taśm i dysków magnetycznych. Temperatura w zakresie 15°C do 18°C oraz wilgotność względna 30% do 40% to wartości zalecane przez producentów nośników oraz normy branżowe, chociażby ISO 18923. Tak ustawione warunki powietrza utrudniają rozwój pleśni i korozji, a jednocześnie nie powodują wysychania lub deformacji warstw magnetycznych. Z mojej praktyki wynika, że zwłaszcza w większych archiwach, gdzie nośniki są przechowywane latami, nawet niewielkie odchylenia od tych parametrów zaczynają prowadzić do przyspieszonego starzenia, rozmagnesowania lub mechanicznych uszkodzeń taśm. Przy wilgotności powyżej 40% sprzęt i opakowania mogą zacząć pochłaniać wilgoć, co sprzyja korozji. Z kolei zbyt niska temperatura nie daje większej ochrony – wręcz przeciwnie, sprzyja kondensacji po wyjęciu taśmy na zewnątrz. Branżowe archiwa i biblioteki cyfrowe, takie jak Naczelna Dyrekcja Archiwów Państwowych czy duże centra danych, stosują właśnie takie ustawienia klimatyzacji i kontroli wilgotności – nie bez powodu. Moim zdaniem, warto jeszcze pamiętać, że ważna jest też stabilność tych parametrów – skoki temperatury i wilgotności szkodzą bardziej niż drobne odchylenia. Jeśli chodzi o praktykę, to nawet w domowych warunkach, dla cennych taśm czy dysków lepiej wygospodarować chłodne, zacienione pomieszczenie niż trzymać je w piwnicy czy gorącym strychu. Wiedza o takich warunkach to podstawa w pracy archiwisty cyfrowego.

Pytanie 14

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Spis efektów.
B. Playlista.
C. Scenariusz.
D. Partytura.
Partytura to podstawowy dokument wykorzystywany w świecie muzyki, szczególnie w profesjonalnych produkcjach i podczas pracy zespołów muzycznych, orkiestr czy chóru. Jest to zapis nutowy całego utworu, gdzie każda linia odpowiada innemu instrumentowi lub głosowi. Dzięki temu dyrygent, kompozytor czy realizator dźwięku może dokładnie zobaczyć, co i kiedy ma być zagrane przez dany instrument. W praktyce partytura jest niezbędna nie tylko podczas prób, ale także w trakcie nagrań studyjnych czy koncertów na żywo, bo pozwala zachować pełną kontrolę nad wykonaniem utworu. Moim zdaniem, dobrze przygotowana partytura jest dowodem profesjonalizmu – każda licząca się sesja nagraniowa czy spektakl muzyczny opiera się właśnie na niej. Co ciekawe, obecnie coraz częściej korzysta się z cyfrowych partytur, które można łatwo edytować i przesyłać, co znacznie ułatwia pracę całego zespołu produkcyjnego. W branży muzycznej standardem jest, by każda osoba biorąca udział w wykonaniu miała dostęp do swojej własnej linii partytury bądź do całości, w zależności od potrzeb. To naprawdę ułatwia życie i pozwala uniknąć wielu nieporozumień na etapie realizacji projektu.

Pytanie 15

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. zmienną przepływność bitów.
B. stałą przepływność bitów.
C. dostępną przepływność bitów.
D. średnią przepływność bitów.
Użycie trybu CBR podczas konwersji do formatu MP3 to jedna z najbardziej klasycznych praktyk w kompresji audio – CBR, czyli Constant Bit Rate, oznacza dosłownie stałą przepływność bitów przez cały plik. W praktyce przekłada się to na to, że każda sekunda nagrania zajmuje dokładnie tyle samo miejsca bez względu na złożoność dźwięku. To jest przydatne na przykład, gdy przygotowujesz pliki MP3 do transmisji strumieniowej w sieciach o ograniczonej lub niestabilnej przepustowości, bo łatwo przewidzieć, ile danych trzeba przesłać w danym czasie. W radio internetowym czy podcastach wręcz często zaleca się CBR, żeby uniknąć niespodzianek przy odtwarzaniu na różnych urządzeniach. Warto zauważyć, że organizacje jak MPEG czy nawet zalecenia serwisów streamingowych wskazują CBR jako opcję zgodną z najstarszymi, najbardziej uniwersalnymi odtwarzaczami – niektóre stare urządzenia nie radzą sobie z plikami kodowanymi VBR. Swoją drogą, moim zdaniem, to dobry wybór, jeśli zależy nam na maksymalnej kompatybilności i przewidywalności rozmiaru pliku. Jasne, czasem CBR będzie mniej efektywny jakościowo niż inne tryby, ale jego prostota i stabilność to spora zaleta w wielu zastosowaniach praktycznych. Dobrze wiedzieć też, że CBR jest domyślnym trybem w większości klasycznych programów do kodowania MP3, a jego ustawienie (np. 128 kbps czy 192 kbps) pozwala szybko dobrać kompromis między jakością a rozmiarem pliku.

Pytanie 16

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. godzinę.
B. ramkę.
C. sekundę.
D. minutę.
Kod SMPTE to taki trochę uniwersalny zegar dla świata audio-wideo, bez którego montaż czy synchronizacja byłaby totalnym chaosem. Druga para cyfr, czyli te dwie środkowe w zapisie np. 01:23:45:17, to właśnie minuty. Moim zdaniem, to kluczowa informacja, bo właśnie minuty są takim mostem między godzinami a sekundami – pozwalają szybko lokalizować dłuższe fragmenty materiału. Praktycznie – jeśli montujesz dłuższy program telewizyjny lub film i masz podane SMPTE 00:07:32:15, od razu wiesz, że chodzi o siódmą minutę, nie musisz liczyć ramek czy sekund. To się naprawdę przydaje, szczególnie przy pracy zespołowej, bo każdy, kto zna standard SMPTE, błyskawicznie odczyta czas. W branży obowiązuje zasada zapisu godzin:minut:sekund:ramek, zgodnie z normą SMPTE 12M oraz EBU Tech 3097-E. Z mojego doświadczenia wynika, że bardzo wielu techników trochę lekceważy znaczenie tej kolejności, a potem mają zamieszanie przy synchronizacji dźwięku z obrazem. Ciekawostka – są też wersje kodu SMPTE z drobnymi różnicami (np. drop-frame w NTSC), ale układ minut zawsze jest w tej samej, drugiej pozycji. Im szybciej opanujesz czytanie kodu SMPTE, tym łatwiej radzić sobie z timecode’em na co dzień – niezależnie czy siedzisz w reżyserce czy przy edycji.

Pytanie 17

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Karta SDHC
B. Dysk SSD
C. Kaseta DAT
D. Mini Disc
Mini Disc to ciekawy przykład technologii, która łączy świat magnetyczny z optycznym. Nośniki tego typu, wprowadzone przez Sony w latach 90., wykorzystują zapis magnetooptyczny – dane są zapisywane poprzez nagrzanie warstwy magnetycznej wiązką lasera, a następnie zmianę kierunku namagnesowania za pomocą pola magnetycznego. Takie podejście zapewnia dość wysoką trwałość zapisu oraz odporność na uszkodzenia mechaniczne, przynajmniej w porównaniu do klasycznych kaset czy płyt CD. W praktyce Mini Diski przez wiele lat wykorzystywane były w branży audio, zwłaszcza przez dziennikarzy i muzyków – bardzo ceniono je za możliwość wielokrotnego zapisu bez utraty jakości. Moim zdaniem to w ogóle było fajne rozwiązanie, bo łączyło zalety magnetycznych kaset (możliwość kasowania i ponownego nagrywania) z bardziej nowoczesnymi funkcjami optycznych płyt (szybki dostęp do utworów, cyfrowa jakość dźwięku). Dzięki temu Mini Disc wyprzedzał nieco swoje czasy, a obecnie jest ciekawostką technologiczną, z której można wyciągnąć sporo inspiracji przy analizie różnych metod przechowywania danych. W branżowych standardach zapis magnetooptyczny pojawia się jeszcze np. w droższych rozwiązaniach archiwizacyjnych dla firm, ale dla zwykłego użytkownika Mini Disc był najbardziej znanym nośnikiem tego typu.

Pytanie 18

Który z wymienionych sposobów opisu osi czasu w sesji programu DAW oznacza, że oś wyskalowana jest w próbkach?

A. Seconds
B. Samples
C. Bars
D. Frames
Odpowiedź „Samples” to faktycznie właściwy wybór, bo w profesjonalnych programach DAW (czyli Digital Audio Workstation) oś czasu skalowana właśnie w próbkach daje najdokładniejszą kontrolę nad nagraniem czy edycją dźwięku. Próbka (sample) to najmniejszy fragment cyfrowego dźwięku – taka pojedyncza wartość amplitudy zapisana w bardzo krótkim odstępie czasu, zależnie od częstotliwości próbkowania. Dla przykładu, przy typowych ustawieniach 44,1 kHz (standard w muzyce), każda sekunda dźwięku to aż 44 100 próbek! W praktyce praca na osi „Samples” przydaje się zwłaszcza tam, gdzie liczy się chirurgiczna precyzja: np. przy edycji transjentów, usuwaniu klików, automatyzacji efektów typu glitch czy nawet synchronizacji różnych ścieżek z dokładnością co do pojedynczej próbki. Warto wiedzieć, że edytowanie w tej skali pozwala uniknąć artefaktów, które mogłyby powstać przy mniej precyzyjnym ustawieniu siatki. Branżowe standardy, zwłaszcza w masteringu i przy pracy z materiałem do broadcastu czy filmu, często wymagają pracy właśnie w próbce, gdy czas lub „frame” nie wystarczą do uzyskania pełnej kontroli. Z mojego doświadczenia wynika, że osoby początkujące rzadko korzystają z tego trybu, ale im bardziej zaawansowana produkcja, tym częściej się do tego wraca. Nawet drobna przesunięcie ścieżki o kilka próbek potrafi całkiem zmienić brzmienie miksu. Dobrą praktyką w studiu jest zawsze sprawdzać, czy precyzja edytora odpowiada wymaganiom projektu – bez świadomości co to są sample, trudno robić naprawdę profesjonalny dźwięk.

Pytanie 19

Która z wymienionych operacji umożliwia zmianę czasu trwania regionu na ścieżce w sesji programu DAW, bez przycinania go?

A. Time Stretch
B. Quantize
C. Bounce
D. Pitch Shift
Time Stretch to absolutnie podstawowa funkcja w większości współczesnych DAW-ów, jeśli chodzi o modyfikowanie długości regionu audio bez wpływu na jego zawartość dźwiękową, czyli bez przycinania czy usuwania fragmentu nagrania. Mechanizm ten pozwala wydłużyć lub skrócić czas trwania klipu, jednocześnie zachowując całą oryginalną treść – po prostu dźwięki rozciągamy albo ściskamy w czasie. Bardzo często Time Stretch wykorzystywany jest do dopasowania tempa pętli perkusyjnych, sampli wokalnych lub całych fraz instrumentalnych do tempa projektu, szczególnie, gdy pracujemy na materiałach z różnych źródeł albo remiksujemy coś po swojemu. W praktyce, dzięki tej operacji, można z łatwością miksować elementy z różnych temp i uzyskiwać kreatywne efekty, np. zwolnienie partii wokalnej na refrenie bez utraty jakości brzmienia (oczywiście w granicach rozsądku). Co ciekawe, większość nowoczesnych DAW-ów, takich jak Ableton Live, FL Studio czy Logic Pro, oferuje zaawansowane algorytmy Time Stretch, które starają się minimalizować artefakty dźwiękowe i zachowywać jak największą naturalność brzmienia. Z mojego doświadczenia, użycie tej funkcji to właściwie chleb powszedni w produkcji muzyki elektronicznej, ale nie tylko – nawet w projektach lektorskich czy montażu podcastów Time Stretch daje mega fajne możliwości synchronizacji ścieżek. Ważne jest, żeby nie mylić tej funkcji z przycinaniem (Trim) czy kopiowaniem – Time Stretch nie usuwa żadnych danych, tylko rozkłada je w czasie.

Pytanie 20

W którym z wymienionych programów nie można wykonać montażu dźwięku równolegle z obrazem?

A. Audition.
B. Pro Tools.
C. Audacity.
D. Logic Pro X.
Audacity to popularny, darmowy edytor audio, ale nie jest to program do montażu dźwięku w połączeniu z obrazem. W praktyce, jeżeli pracujemy przy produkcji wideo, nawet na prostym poziomie – np. montując filmy do internetu, relacje czy krótkie reklamy – to narzędzia takie jak Adobe Audition, Pro Tools albo Logic Pro X pozwalają zsynchronizować dźwięk bezpośrednio z materiałem wideo, obserwując obraz i ścieżkę dźwiękową jednocześnie. Audacity niestety nie obsługuje podglądu wideo ani importu plików filmowych, co bardzo ogranicza jego zastosowanie w profesjonalnym postprodukcji. Moim zdaniem to dość poważne ograniczenie – bo nawet jeśli ktoś potrafi w Audacity świetnie ciąć czy poprawiać dźwięk, to nie zrobi synchronizacji z obrazem, a to podstawa w filmie, reklamie czy animacji. Przemysł filmowy i telewizyjny od lat bazuje na programach DAW z funkcją importu wideo i dokładnego, klatkowego dopasowania dźwięku. Co ciekawe, nawet amatorskie DAWy powoli wprowadzają obsługę plików wideo, bo zapotrzebowanie na produkcję treści multimedialnych jest coraz większe. Audacity świetnie się sprawdza do prostych obróbek audio, podcastów, digitalizacji kaset czy czyszczenia nagrań, ale do pracy synchronicznej z obrazem po prostu się nie nada. Szkoda, ale taka jest specyfika tego softu.

Pytanie 21

Wskaż nazwę procesora lub procesu programowego umożliwiającego usuwanie przesłuchów z sąsiednich instrumentów w sygnale audio.

A. Normalize
B. Noise Gate
C. Reverse
D. Invert
Noise Gate to bardzo przydatne narzędzie w inżynierii dźwięku, szczególnie podczas miksowania nagrań wielośladowych – na przykład bębnów na scenie lub w studio. Zasadniczo bramka szumów działa jak swego rodzaju „strażnik” – przepuszcza sygnał tylko wtedy, kiedy jego poziom przekracza określony próg. Dzięki temu można skutecznie wyeliminować niepożądane dźwięki, takie jak przesłuchy z innych instrumentów, które pojawiają się na mikrofonie, kiedy właściwy instrument milczy. Przykładowo: na śladzie werbla często słychać stopy, blachy czy tomy. Ustawiając odpowiednio Noise Gate, ogranicza się ten problem, bo mikrofon „otwiera się” tylko na mocny impuls – uderzenie pałki. Moim zdaniem to prawdziwy must-have w każdym sensownym miksie perkusji, ale też np. przy obróbce śladów wokalnych, jeśli w tle słychać szumy lub pogłosy z innych źródeł. Warto pamiętać, że profesjonalne bramki szumów pozwalają ustawić parametry takie jak czas otwarcia, zamknięcia i długość podtrzymania bramki (attack, release, hold), co daje dużą kontrolę nad końcowym efektem. W praktyce trzeba trochę poeksperymentować, bo za agresywne ustawienia mogą „ucinać” naturalne wybrzmienie instrumentu. W świecie realizacji dźwięku Noise Gate to standardowy procesor, polecany przez większość realizatorów i producentów, a jego obsługa to podstawa warsztatu technika dźwięku.

Pytanie 22

Ile w przybliżeniu miejsca na twardym dysku zajmie dziesięć 3-minutowych stereofonicznych plików dźwiękowych, o parametrach odpowiadających standardowi CD-Audio?

A. 900 MB
B. 100 MB
C. 600 MB
D. 300 MB
Prawidłowa odpowiedź wynika ze specyfikacji formatu CD-Audio, który jest już od lat pewnym wzorcem, jeśli chodzi o bezstratne nagrania audio. Standard CD-Audio to 44,1 kHz próbkowania, 16 bitów na próbkę i dźwięk stereo, czyli osobny kanał na każde ucho. Robiąc szybki rachunek: 44100 próbek na sekundę × 16 bitów × 2 kanały daje nam 1 411 200 bitów na sekundę, czyli mniej więcej 1,4 megabita. Po przeliczeniu na bajty (dzieląc przez 8) wychodzi około 176 kB na sekundę, czyli 10,5 MB na minutę muzyki. Dla jednego 3-minutowego utworu to będzie ok. 31,5 MB, a zatem 10 takich plików zajmie ok. 315 MB. Wielu ludzi zaokrągla do 300 MB, co jest już powszechną praktyką przy szacowaniu miejsca na dysku – nikt nie liczy tu przecież każdego bajta, szczególnie przy planowaniu przestrzeni na muzykę. Takie szacunki przydają się przy archiwizacji nagrań studyjnych, pracy z płytami master CD czy przygotowywaniu backupów do miksów audio. Moim zdaniem, znajomość tych parametrów jest kluczowa – szczególnie, jeśli ktoś pracuje przy produkcji muzycznej czy nawet po prostu zgrywa własne kolekcje płyt. Warto pamiętać, że pliki w formacie WAV czy AIFF, zgodne ze standardem CD, zawsze są znacznie większe niż popularne kompresowane MP3. Jednak tylko takie formaty trzymają pełnię jakości. Co ciekawe, to jeden z powodów, dla których płyty CD mogły pomieścić zazwyczaj ok. 74-80 minut muzyki – więcej się po prostu nie mieściło. Tu widać, czemu dobrze znać realne rozmiary takich plików.

Pytanie 23

Które dane zawarte w dokumentacji montażowej przedstawia kod czasowy M:B:T zobrazowany przez licznik 00:00:000?

A. takty : ćwierćnuty : ósemki
B. minuty : sekundy : milisekundy
C. takty : ćwierćnuty : tiki
D. minuty : sekundy : ramki
Kod czasowy M:B:T, gdzie M to takty, B to ćwierćnuty, a T to tiki, jest standardem w dokumentacji montażowej, zwłaszcza w środowisku produkcji muzycznej, MIDI oraz w programach DAW (Digital Audio Workstation). Taki zapis umożliwia precyzyjne określenie pozycji dźwięków, nut czy zdarzeń w utworze – nie tylko w odniesieniu do rzeczywistego czasu (sekundy czy minuty), ale przede wszystkim w ramach struktury muzycznej. Tiki to najmniejsze jednostki podziału taktu, dużo dokładniejsze niż ósemki czy szesnastki, szczególnie ważne przy edycji groove'u i kwantyzacji. Moim zdaniem praca z takim kodem czasowym bardzo ułatwia synchronizację zdarzeń MIDI z nagraniami audio, a także pomaga w dopasowywaniu efektów czy automatyzacji do konkretnych miejsc w aranżacji. W praktyce, w Cubase, Pro Tools czy Logic Pro znajdziesz właśnie licznik M:B:T, który pozwala bardzo precyzyjnie ustawić np. wejście werbla dokładnie na trzecim takcie, drugiej ćwierćnucie i dwudziestym tiku. W pracy studyjnej to podstawa, zwłaszcza, kiedy zależy Ci na idealnej synchronizacji instrumentów i efektów oraz chcesz wprowadzać detale dynamiczne z dokładnością do jednej tysięcznej taktu. Takie podejście jest też zgodne z zasadami rzetelnej dokumentacji projektowej w branży muzycznej i dźwiękowej.

Pytanie 24

Który tryb edycyjny w sesji programu DAW umożliwia przyciąganie regionu przesuwanego po ścieżce do siatki metro-rytmicznej?

A. Grid
B. Spot
C. Slip
D. Shuffle
Tryb Grid zdecydowanie jest jednym z najważniejszych narzędzi podczas edycji w DAW, jeśli chodzi o precyzyjne ustawianie regionów w odniesieniu do siatki czasowej. W praktyce – kiedy pracujesz nad projektem i chcesz, żeby sample, klipy MIDI czy inne regiony idealnie wpisywały się w rytmikę utworu, to właśnie Grid pozwala na tzw. "przyciąganie" (ang. snap) do podziałów taktu, np. do ćwierćnuty, ósemki albo nawet do szesnastek, jeśli masz tak drobno ustawioną siatkę. To spora wygoda, bo nie musisz ręcznie szukać idealnego miejsca – DAW sam dba o idealną synchronizację z tempem utworu. Moim zdaniem, to wręcz podstawa, jeśli chodzi o workflow w każdej profesjonalnej produkcji, bo pozwala nie tylko zaoszczędzić czas, ale też uniknąć drobnych przesunięć, które mogłyby popsuć groove. Warto pamiętać, że większość współczesnych DAW-ów jak Ableton Live, Cubase czy Logic Pro czy nawet Pro Tools mają rozbudowane opcje tej siatki i można ją bardzo elastycznie konfigurować do swoich potrzeb – np. ustawić swing, wyłączyć snap tylko na chwilę albo zmienić rozdzielczość grida dla różnych ścieżek. Grid to nie jest żaden „automatyczny gorset”, tylko praktyczne narzędzie, które po prostu pomaga trzymać wszystko w ryzach rytmicznych, co doceni każdy, kto kiedykolwiek próbował zsynchronizować np. stopę i werbel w mocno tempowym numerze. Jeszcze taka moja uwaga – w profesjonalnych studiach praktycznie nie wyobrażam sobie pracy nad muzyką elektroniczną, popem czy hip-hopem bez aktywnego trybu Grid. To taki dobry nawyk, który daje lepszy efekt końcowy.

Pytanie 25

Poprzez zastosowanie filtra High Pass można

A. usunąć zakłócenia niskotonowe.
B. usunąć szumy wysokotonowe.
C. kształtować dynamikę nagrania.
D. dodać basu do nagrania.
Filtr High Pass, czyli filtr górnoprzepustowy, jest jednym z podstawowych narzędzi stosowanych w obróbce dźwięku, zwłaszcza podczas miksowania i masteringu nagrań. Jego główne zadanie to eliminacja niechcianych niskich częstotliwości, takich jak buczenie, szumy czy przydźwięki wynikające np. z podmuchów powietrza, stuków w mikrofon czy rezonansów pomieszczenia. Z mojego doświadczenia, High Pass filtr to must-have w przypadku nagrań wokalu, gitar czy overheadów perkusyjnych – praktycznie zawsze usuwam niepotrzebne tony poniżej 60-120 Hz, żeby dźwięk był czystszy i bardziej selektywny. Warto też wiedzieć, że branżowym standardem jest używanie High Passa na niemal każdej ścieżce, gdzie niskie częstotliwości nie są pożądane, co pomaga uniknąć „zamulania” miksu. Odpowiednie ustawienie częstotliwości odcięcia jest kluczowe – nie chodzi o to, żeby wyciąć za dużo i pozbawić brzmienia naturalnej masy, tylko subtelnie oczyścić ścieżki. Moim zdaniem, zbyt rzadko zwraca się uwagę na to, że High Pass nie służy do kształtowania dynamiki czy podbijania basu – to typowa pułapka dla początkujących. W praktyce, umiejętne stosowanie High Passa pozwala uzyskać bardziej przejrzyste, profesjonalnie brzmiące produkcje, a operatorzy dźwięku w radiu czy telewizji traktują ten filtr jako absolutną podstawę higieny dźwiękowej.

Pytanie 26

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 1,4:1
B. 2:1
C. ∞:1
D. 6:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest nie dopuszczać do przekroczenia określonego poziomu sygnału – na przykład po to, by uniknąć przesterowania w nagraniu lub transmisji na żywo. Charakterystyczną cechą limitera jest właśnie nieskończony, czyli teoretyczny stopień kompresji: ∞:1. Oznacza to, że każda amplituda sygnału przekraczająca ustawiony threshold (próg) zostaje natychmiast „ścięta” – po prostu limiter nie pozwala, aby poziom sygnału był wyższy od ustalonego limitu. W praktyce, to się objawia bardzo twardym i szybkim działaniem, idealnym do ochrony sprzętu nagłaśniającego albo zapobiegania klipowaniu podczas masteringu. Moim zdaniem limiter to taki ostatni bastion bezpieczeństwa w torze sygnałowym – jeśli wszystko inne zawiedzie, on zadba o to, by sygnał nie wyszedł poza dopuszczalny zakres. W technikach studyjnych często stosuje się limity właśnie o stopniu ∞:1 (albo bardzo bliskim tej wartości), zwłaszcza na wyjściu całego miksu. Co ciekawe, w wielu sytuacjach limiter bywa mylony z kompresorem, ale różnica polega właśnie na tej ekstremalnej wartości ratio i błyskawicznym czasie reakcji. Warto o tym pamiętać projektując własne łańcuchy efektów – limiter to nie tylko narzędzie do „głośności”, ale też do ochrony i kontroli sygnału.

Pytanie 27

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Samplitude.
B. Audacity.
C. Music Player.
D. Windows Media Player.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 28

Do ograniczenia poziomu sygnału emitowanego przez instrumenty składowe zestawu perkusyjnego należy zastosować

A. bramkę szumów.
B. limiter.
C. expander.
D. de-esser.
Limiter to urządzenie, które jest absolutnie podstawą w przypadku ograniczania poziomu sygnału w nagraniach perkusji, zwłaszcza kiedy mamy do czynienia z nagłym wzrostem głośności (np. mocne uderzenie w werbel czy talerz crash). Z mojego doświadczenia wynika, że użycie limitera pozwala zabezpieczyć cały miks przed przesterowaniem, a przy okazji chronić sprzęt nagłaśniający przed uszkodzeniem. W praktyce, limiter ustawia się na taki poziom, żeby żaden sygnał nie przekroczył ustalonego progu (threshold), a jego działanie jest bardzo szybkie – praktycznie natychmiastowe, co jest kluczowe przy pracy z instrumentami perkusyjnymi. Branżowy standard mówi, że limiter to ostatni etap na ścieżce sygnałowej, szczególnie w systemach koncertowych i studyjnych, gdzie dynamika perkusji potrafi zaskoczyć nawet doświadczonych realizatorów. Warto dodać, że limiter nie tylko ogranicza szczyty sygnału – jeśli dobrze ustawiony, pozwala zachować naturalną dynamikę gry perkusisty, nie zabijając przy tym charakteru brzmienia. W dużych studiach używa się często limiterów klasy analogowej, bo mają szybką reakcję i nie wprowadzają zniekształceń. Osobiście uważam, że bez limitera nie ma co myśleć o profesjonalnym miksie perkusji, bo to po prostu obowiązkowy element łańcucha dźwiękowego.

Pytanie 29

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Declicker.
B. Delay.
C. Ducker.
D. Expander.
Delay to jeden z podstawowych efektów w produkcji dźwięku, który polega na powtarzaniu sygnału audio po określonym czasie. Dzięki temu można uzyskać efekt echa, ale – co ważniejsze w kontekście pytania – umożliwia także tworzenie zapętleń, czyli tzw. looperów. W praktyce ustawiając delay na bardzo krótki czas i dużą liczbę powtórzeń, uzyskujemy efekt ciągłego powtarzania fragmentu dźwięku, co jest wykorzystywane np. w muzyce elektronicznej czy podczas live actów. Loopery bazują właśnie na zasadzie działania delay'a, tylko są bardziej rozbudowane – pozwalają nagrywać i wielokrotnie odtwarzać fragmenty na żywo. W branży często stosuje się delay do kreatywnego budowania przestrzeni czy rytmicznych faktur, nie tylko do prostego echa. Moim zdaniem delay to taki wstęp do zabawy z loopingiem, bo jeśli zrozumiesz, jak działa delay, to potem łatwiej ogarnąć bardziej zaawansowane narzędzia do zapętlania. Często też delay bywa stosowany do eksperymentowania z teksturami dźwiękowymi. W standardach produkcji muzycznej oraz postprodukcji dźwięku delay jest wręcz niezbędny do kontroli powtarzalności, przestrzeni i efektów specjalnych. Warto wiedzieć, że dobrze ustawiony delay może zastąpić nawet proste loopery w wielu zastosowaniach. Z mojego doświadczenia to narzędzie, którego nie da się przecenić w pracy z dźwiękiem.

Pytanie 30

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. oktawowe.
B. tercjowe.
C. sekstowe.
D. dwuoktawowe.
Korektor dziesięciopunktowy rzeczywiście dzieli zakres słyszalnych częstotliwości na pasma oktawowe – i to jest bardzo praktyczne podejście, które chyba najczęściej spotyka się w sprzęcie audio przeznaczonym do profesjonalnego i domowego użytku. W skrócie: każda gałka (czy suwak) odpowiada za wzmocnienie albo tłumienie określonego przedziału częstotliwości, przy czym te pasma mają szerokość jednej oktawy. To znaczy, że np. jeśli jedno pasmo obejmuje 100–200 Hz, to następne już 200–400 Hz i tak dalej, każde kolejne dwa razy szersze w sensie wartości liczbowych, ale dla ludzkiego ucha to brzmi naturalnie, bo słyszymy skale logarytmiczne. W branży nagłośnieniowej, studyjnej czy nawet w zaawansowanym sprzęcie car audio taki podział jest bardzo wygodny – pozwala szybko korygować balans dźwięku bez ryzyka, że zmiany będą nienaturalne. Moim zdaniem to też dobre rozwiązanie, bo większość muzyki i dźwięków w praktyce da się sensownie korygować w takich szerokich pasmach. Oczywiście, jeśli ktoś potrzebuje bardziej szczegółowej korekcji, są jeszcze korektory tercjowe czy parametryczne, ale w większości standardowych aplikacji dziesięciopunktowy korektor oktawowy po prostu się sprawdza. To w sumie taki złoty środek między prostotą a skutecznością.

Pytanie 31

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 45 MB
C. 15 MB
D. 35 MB
To jest bardzo dobra odpowiedź, bo dokładnie trafia w praktyczne obliczenia związane z plikami audio wysokiej jakości. Stereofoniczny plik .wav przy 96 kHz, 24 bitach i długości 1 minuty zajmuje około 33 MB – zwykle zaokrągla się to do 35 MB, bo często sumuje się kilka dodatkowych kilobajtów metadanych czy nagłówka WAV. Wynika to z prostego wzoru: częstotliwość próbkowania × liczba bitów × liczba kanałów × czas (w sekundach), czyli 96 000 × 24 × 2 × 60 = 276 480 000 bitów, co po przeliczeniu daje 33 177 600 bajtów (~33 MB). Przy produkcji muzycznej czy nagraniach studyjnych takie parametry są standardem, bo gwarantują bardzo wysoką jakość dźwięku. W praktyce branżowej pliki WAV są bezstratne, więc często używa się ich właśnie do masteringu, archiwizacji czy obróbki audio, zanim zostaną skonwertowane do lżejszych formatów. Często ktoś pyta, dlaczego pliki WAV są takie duże – no, odpowiedź jest prosta: żadnej kompresji, wszystkie próbki są zachowywane w pełnej rozdzielczości. Warto wiedzieć, że różne DAWy czy sprzęty mogą mieć jeszcze swoje specyficzne nagłówki, ale podstawa matematyczna zawsze zostaje ta sama. Takie wiedza bardzo przydaje się, jeśli planujesz kupować dyski do studia albo archiwizować duże sesje nagraniowe. Szczerze mówiąc, moim zdaniem, kto raz to policzy, już nigdy nie zapomina, że dźwięk wysokiej klasy po prostu waży swoje.

Pytanie 32

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. CD Text.
B. ISRC CD Code.
C. mp3 CD.
D. CD Burn.
Rozszerzenie CD Text jest dokładnie tym, co pozwala na zapisanie dodatkowych informacji tekstowych na płycie CD-Audio. Chodzi tu głównie o dane takie jak tytuły utworów, nazwy wykonawców, albumów czy nawet krótkie opisy. Standard CD Text został wprowadzony przez Sony i Philips w latach 90., a jego obsługa pojawiła się najpierw w lepszych odtwarzaczach stacjonarnych i wieżach stereo. Co ciekawe, większość nagrywarek komputerowych też potrafi już dodać te dane podczas tworzenia płyty, ale nie każdy program do nagrywania oferuje tę opcję – warto na to zwracać uwagę w ustawieniach. Z praktycznego punktu widzenia, CD Text jest bardzo przydatny na przykład w samochodowych radioodtwarzaczach – od razu wiadomo, co leci, bez potrzeby zgadywania. Co ciekawe, informacje z CD Text są przechowywane w specjalnych sektorach płyty (tzw. subkanał Q), nie wpływając na samą jakość audio. Z mojego doświadczenia, jeśli ktoś chce profesjonalnie przygotować płytę demo lub prezentacyjną, zdecydowanie warto zadbać o ten dodatek – ułatwia to identyfikację i podnosi walory użytkowe nośnika. Szkoda tylko, że starsze odtwarzacze nie zawsze rozpoznają te dane, ale wymagania branżowe wciąż promują stosowanie CD Text przy wydawaniu fizycznych nośników muzycznych.

Pytanie 33

Który z podanych nośników umożliwia magnetooptyczny zapis dźwięku?

A. Dysk SSD
B. Płyta DVD
C. Płyta CD
D. Dysk MD
Dysk MD, czyli MiniDisc, to bardzo ciekawy nośnik, który wykorzystywał technologię magnetooptyczną do zapisu i odczytu dźwięku. Co to właściwie znaczy? Zapis na MD polegał na kombinacji działania lasera i pola magnetycznego – dane audio były zapisywane poprzez miejscowe podgrzewanie powierzchni dysku laserem, a następnie zmienianie jej właściwości magnetycznych. To pozwalało na wielokrotny zapis i kasowanie, co w tamtych czasach, szczególnie pod koniec lat 90., było sporą innowacją dla użytkowników sprzętu audio. W praktyce MiniDiski wykorzystywano głównie w profesjonalnych i półprofesjonalnych nagraniach audio, np. przez dziennikarzy radiowych czy muzyków do tworzenia tzw. masterów. Moim zdaniem, pod tym względem MD był jakby prekursorem późniejszych rozwiązań cyfrowych, bo dawał wygodę wielokrotnego zapisu bez utraty jakości, czego nie oferowały tradycyjne kasety magnetofonowe. Warto też wspomnieć, że standard MD był rozwijany przez Sony i zastosował kompresję ATRAC, co było zgodne z ówczesnymi trendami optymalizowania nośników audio. W branży często chwalono MD za trwałość zapisu i odporność na zakłócenia mechaniczne, co sprawia, że do dziś kolekcjonerzy sprzętu audio uznają go za wartościowy kawałek historii.

Pytanie 34

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Crossfade
B. Gain
C. Invert
D. Cut
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 35

Zastosowanie opcji Multi Mono podczas zapisu miksu sesji spowoduje zapis

A. kanałów lewego i prawego jako niezależne pliki audio.
B. kanałów lewego i prawego w postaci dwóch odrębnych ścieżek stereo.
C. do jednego pliku stereo.
D. kanałów lewego i prawego do jednego pliku mono.
Opcja Multi Mono podczas zapisu miksu sesji to bardzo praktyczne narzędzie, szczególnie jeśli pracuje się w środowisku profesjonalnym, gdzie wymagana jest późniejsza edycja każdego kanału osobno. Kiedy wybierzesz Multi Mono, DAW (np. Pro Tools) zapisuje kanał lewy i prawy jako dwa oddzielne pliki mono. To nie jest zwykły eksport stereo, tylko rozdzielenie każdego kanału, dzięki czemu masz pełną kontrolę nad każdym z nich w kolejnych etapach pracy – na przykład podczas masteringu lub przekazywania miksów do postprodukcji filmowej czy telewizyjnej. W branży audio jest to taka trochę codzienna praktyka, bo bardzo często klient lub realizator dźwięku chce mieć dostęp właśnie do pojedynczych kanałów, żeby samemu ustalić balans lub zrobić jakieś nietypowe processingi. Z moich doświadczeń wynika, że Multi Mono ratuje skórę, jak trzeba potem komuś wysłać materiał w formie, którą łatwo zaimportować do innych systemów – nie każdy DAW radzi sobie dobrze z plikami wielokanałowymi, a mono jest najbardziej uniwersalne. Warto pamiętać, że to nie to samo, co renderowanie do stereo – tu nie ma sumowania kanałów, tylko czysta separacja, zgodnie z dobrymi praktykami archiwizacji i transferów materiałów audio. Podsumowując, Multi Mono daje elastyczność i bezpieczeństwo dalszej obróbki – dlatego w profesjonalnych studiach to jeden z częstszych wyborów.

Pytanie 36

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ćwierćnucie.
B. ramce.
C. milisekundzie.
D. sekundzie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 37

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 99
B. 127
C. 55
D. 255
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.

Pytanie 38

Który z wymienionych trybów wyświetlania jednostek na osi czasu w sesji montażowej programu DAW odnosi się do taktów utworu muzycznego?

A. Frames.
B. Seconds.
C. Bars.
D. Samples.
Tryb wyświetlania „Bars” w DAW to właściwie podstawa przy pracy z muzyką opartą na metrumnie, czyli w taktach i uderzeniach. W praktyce, kiedy edytujesz czy komponujesz, korzystając z siatki w trybie Bars, możesz idealnie synchronizować dźwięki, automatyzacje, sample czy nawet efekty z podziałem na takty i bity. To jest mega wygodne podczas aranżacji, bo łatwiej planować wejścia instrumentów, zmiany akordowe czy nawet całą strukturę utworu. Tak robi się w większości profesjonalnych projektów nagraniowych i produkcyjnych – wszędzie, gdzie utwór ma ustalone tempo i rytm, korzystanie z Bars po prostu usprawnia pracę. To trochę jak czytanie nut w cyfrowej wersji – „Bars” pozwalają myśleć muzycznie, nie tylko technicznie. Z mojego doświadczenia praca w tym trybie daje też większą kontrolę nad synchronizacją MIDI, kwantyzacją czy loopowaniem ścieżek. Większość DAW domyślnie ustawia Bars jako główny tryb, bo to standard branżowy przy muzyce współczesnej, elektronicznej i każdej, gdzie timing jest kluczowy. Oczywiście, na etapie miksu czasem przełącza się na sekundy, ale układanie aranżu w Bars to absolutny must-have. Fajnie wiedzieć, że ogarnianie tego trybu przekłada się na szybszą i bardziej kreatywną pracę.

Pytanie 39

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 32 kHz
B. 16 kHz
C. 48 kHz
D. 96 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 40

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 144 dB
B. 64 dB
C. 96 dB
D. 128 dB
Maksymalna teoretyczna dynamika dźwięku możliwa do uzyskania przy rozdzielczości 24-bitowej to właśnie 144 dB. Wynika to z tego, że każdy pojedynczy bit rozdzielczości daje nam około 6 dB zakresu dynamicznego – czyli różnicy między najcichszym a najgłośniejszym możliwym sygnałem, który system potrafi obsłużyć bez zniekształceń. Przy 24 bitach to 24 x 6 dB, co daje właśnie 144 dB. Takie wartości są wykorzystywane zwłaszcza w profesjonalnych środowiskach audio, gdzie miksowanie, mastering albo nagrywanie na żywo wymaga jak najczystszego sygnału i jak największego zapasu ('headroomu'). Oczywiście, w praktyce większość urządzeń audio nie osiąga aż tak wysokiej dynamiki ze względu na szumy elektroniki oraz ograniczenia przetworników, ale właśnie format 24-bitowy jest wykorzystywany wszędzie tam, gdzie chodzi o jakość, na przykład w studiach nagraniowych czy podczas produkcji muzyki filmowej. Moim zdaniem zawsze warto pamiętać, że duża rozdzielczość bitowa to nie tylko lepsza jakość, ale i większa swoboda podczas cyfrowej obróbki dźwięku – łatwiej uniknąć niechcianych przesterów i artefaktów. Branżowy standard DAW-ów czy profesjonalnych kart dźwiękowych to już praktycznie zawsze 24 bity, bo to daje możliwość uzyskania właśnie takiego szerokiego zakresu dynamiki.