Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 12 maja 2026 14:18
  • Data zakończenia: 12 maja 2026 14:22

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Strip Silence.
B. Fade Out.
C. Noise Gate.
D. Fade In.
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 2

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. WAV
C. ALAC
D. AAC
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.

Pytanie 3

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Recent Session
B. Create Empty Session
C. Create Session from Template
D. Open Last Session
Odpowiedź „Create Session from Template” jest zdecydowanie tą właściwą i praktyczną opcją w kontekście codziennej pracy z oprogramowaniem DAW. Pozwala na szybkie rozpoczęcie nowego projektu na podstawie przygotowanego wcześniej szablonu. Dzięki temu można od razu mieć pod ręką ustawione ścieżki, routing, efekty, a nawet strukturę aranżacyjną—zamiast zaczynać wszystko od zera. Szablony sesji to niesamowicie praktyczna funkcja, szczególnie jeśli regularnie pracujesz nad podobnymi typami projektów, np. podcastami, nagraniami live czy miksami do muzyki elektronicznej. W wielu profesjonalnych studiach korzystanie z szablonów to standardowa procedura, bo pozwala zaoszczędzić sporo czasu i zminimalizować powtarzalne czynności. Z mojego doświadczenia wynika, że dobrze przygotowany szablon potrafi uratować niejedną sesję, szczególnie gdy czas goni albo klient już czeka w drzwiach. Warto pamiętać, że szablony można modyfikować i rozwijać, co pozwala stopniowo udoskonalać własny workflow. Co ciekawe, większość popularnych DAW, jak Pro Tools, Cubase czy Studio One, zachęca do pracy z szablonami, bo to po prostu się opłaca – mniej frustracji, więcej muzyki. Szczerze, kiedyś sam nie doceniałem tej opcji, a dziś trudno mi sobie wyobrazić pracę bez szablonów.

Pytanie 4

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .ogg
B. .aiff
C. .aac
D. .mp3
Format .aiff to rzeczywiście złoty standard, jeśli chodzi o jakość zapisu dźwięku – szczególnie w środowisku profesjonalnym. AIFF (Audio Interchange File Format) to format nieskompresowany i bezstratny, opracowany przez Apple, bardzo często wykorzystywany w studiach nagraniowych, postprodukcji filmowej i profesjonalnej obróbce audio. Dzięki temu, że przechowuje dane w formie nieskompresowanej, żaden fragment oryginalnego dźwięku nie zostaje utracony – a to daje pełną kontrolę nad detalami. Pliki .aiff są wprawdzie „ciężkie”, bo zajmują sporo miejsca, ale do celów archiwizacji, masteringu lub wymagającej edycji to nie jest problem, a wręcz zaleta. Moim zdaniem, jeśli ktoś planuje poważną pracę z dźwiękiem – miksowanie, mastering, czy archiwizację nagrań koncertowych – lepiej trzymać się właśnie takich formatów jak AIFF czy WAV. W praktyce, te formaty są kompatybilne z większością profesjonalnych DAW-ów (Digital Audio Workstation), takich jak Logic Pro czy Pro Tools. Ciekawa sprawa: AIFF zapisuje dźwięk z rozdzielczością 16 lub 24 bity i częstotliwościami próbkowania 44,1 kHz lub nawet wyższymi – identycznie jak płyty CD lub sprzęt studyjny. To wszystko sprawia, że jakość jest najwyższa z możliwych, bez żadnych strat, które pojawiają się w formatach kompresowanych (np. mp3, aac czy ogg). No i – co ciekawe – wiele bibliotek muzycznych przechowuje surowe ścieżki właśnie w AIFF, by potem eksportować końcowe wersje do bardziej „lekkich” formatów. To po prostu dobry, sprawdzony wybór w branży.

Pytanie 5

Na jakiej wartości osi czasowej należy ustawić region, jeżeli w dokumentacji jego docelowa lokalizacja jest zapisana w formacie SMPTE w następujący sposób: 00:00:00:16?

A. Na szesnastej sekundzie.
B. Na szesnastej klatce.
C. Na pierwszej nucie szesnastkowej.
D. Na szesnastej próbie.
Odpowiedź jest trafiona, bo format SMPTE (Society of Motion Picture and Television Engineers) dokładnie wskazuje pozycję czasową podając: godziny, minuty, sekundy oraz klatki. Wygląda to tak: hh:mm:ss:ff, gdzie każde „f” to jedna klatka filmu lub materiału wideo. W zapisie 00:00:00:16 liczba 16 odnosi się do szesnastej klatki w pierwszej sekundzie materiału – ważne, żeby pamiętać, że numerowanie klatek zwykle zaczyna się od zera, więc 00:00:00:00 to pierwsza klatka, 00:00:00:01 druga itd. W praktyce, kiedy w dokumentacji widzisz taki zapis, od razu wiesz, gdzie dokładnie na osi czasowej powinien pojawić się region czy dany element montażowy. W montażu telewizyjnym, dźwiękowym czy filmowym to podstawowa umiejętność – bo dzięki temu, niezależnie od platformy czy programu, wszyscy pracują na tej samej siatce czasowej, eliminując nieporozumienia. Moim zdaniem docenienie precyzji SMPTE bardzo ułatwia współpracę, bo standard jest uniwersalny i nie ma tu miejsca na niedomówienia. Dla przykładu: jeśli montujesz efekty dźwiękowe i masz podany kod 00:00:00:16, dokładnie wiesz, że chodzi o szesnastą klatkę, a nie o próbkę czy sekundę dźwiękową. To potem znacząco wpływa na synchroniczność oraz jakość całego projektu.

Pytanie 6

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +R DL
B. DVD +RW
C. DVD +R
D. DVD –R
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych, co w praktyce oznacza, że na jednej stronie płyty można zapisać daną ilość danych, a po jej odwróceniu, na drugiej stronie – kolejną. Z mojego doświadczenia wynika, że takie rozwiązania są naprawdę przydatne, szczególnie przy archiwizacji dużych plików, chociaż dzisiaj coraz rzadziej spotyka się użytkowników korzystających z fizycznych nośników. Warto wiedzieć, że standard DVD +R DL (czyli Double Layer) pozwala na zapis dwóch warstw na jednej stronie płyty, a istnieją również płyty DVD o oznaczeniu DS (Double Side), które dają możliwość fizycznego odwrócenia płyty i zapisania danych po obu stronach, jednak najczęściej w kontekście testów i egzaminów mówi się o płytach dwuwarstwowych, zwanych często mylnie dwustronnymi – stąd mogą pojawiać się nieścisłości. W praktyce płyty DVD +R DL używa się tam, gdzie trzeba zmieścić do 8,5 GB danych, czyli na przykład dłuższe filmy w wysokiej jakości lub duże archiwa. Branża długo trzymała się tego rozwiązania, bo dawało większą elastyczność, a komputery i odtwarzacze obsługujące standard +R DL były dość powszechne. Warto też pamiętać, że aby w pełni wykorzystać możliwości takiej płyty, trzeba mieć odpowiedni napęd obsługujący zapis i odczyt na warstwie double layer – to takie typowe ograniczenie sprzętowe, o którym łatwo zapomnieć. Generalnie – DVD +R DL to praktyczne, czasem niedoceniane rozwiązanie, które pokazuje, jak rozwijały się fizyczne nośniki danych.

Pytanie 7

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Samplitude.
B. Windows Media Player.
C. Music Player.
D. Audacity.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 8

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. CDA
B. WAV
C. RIFF
D. MP3
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 9

Metoda dogrania fragmentu dźwięku w miejsce innego określana jest mianem

A. Punch in/out.
B. Fade in/out.
C. Trim in/out.
D. Crop in/out.
Odpowiedź punch in/out to zdecydowanie najtrafniejsze określenie w tym kontekście. W branży audio, zwłaszcza przy nagraniach wielośladowych, punch in/out to technika, która pozwala precyzyjnie nagrać konkretny fragment ścieżki dźwiękowej – tak, by zastąpić wcześniejszy fragment nowym nagraniem bez konieczności powtarzania całego utworu czy danej partii. Stosuje się ją, gdy np. wokalista popełni drobny błąd w środku utworu – wtedy inżynier dźwięku ustawia punkty wejścia (punch in) i wyjścia (punch out), a następnie dogrywany jest tylko ten właściwy fragment. W praktyce nie tylko oszczędza się czas, ale też pozwala na zachowanie naturalnego flow utworu oraz pierwotnej energii nagrania. Tę metodę od lat stosuje się zarówno w analogowych studiach (np. na magnetofonach wielośladowych), jak i we współczesnych DAW-ach, gdzie punch in/out realizuje się często dosłownie jednym kliknięciem. Warto przy okazji zauważyć, że poprawne ustawienie punktów wejścia i wyjścia to klucz do uzyskania niemal niewidocznego (a raczej niesłyszalnego!) łączenia. Z mojego doświadczenia w studiu – dobrze opanowany punch in/out to po prostu podstawa profesjonalnej pracy z nagraniami. Często nawet zawodowcy nie próbują nagrać całej partii od początku, tylko korzystają z tej techniki. To także zgodne z dobrymi praktykami produkcji muzycznej, gdzie elastyczność pracy i oszczędność czasu są bardzo ważne.

Pytanie 10

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Partytura.
B. Playlista.
C. Spis efektów.
D. Scenariusz.
Partytura to właśnie ten dokument, który pozwala muzykom oraz dyrygentom dokładnie zorientować się, jak przebiega utwór muzyczny. Całość jest rozpisana w taki sposób, że każda linia przypisana jest do konkretnego instrumentu lub głosu, a zapis nutowy uwzględnia wszelkie niuanse, takie jak dynamika, artykulacja czy tempo. Moim zdaniem bez partytury trudno byłoby sobie wyobrazić współpracę większego zespołu, orkiestry czy chóru – daje ona pełną kontrolę nad przebiegiem muzyki. W profesjonalnych środowiskach przyjęło się, że partytura to absolutna podstawa przygotowania i wykonania utworu, szczególnie jeśli chodzi o utwory klasyczne, filmowe czy szeroko pojętą muzykę rozrywkową z elementami aranżacyjnymi. Często partytura powstaje jako pierwsza, a dopiero na jej podstawie tworzy się głosy poszczególnych muzyków. Tak naprawdę, nawet w studiach nagraniowych, muzycy studyjni oczekują dostępu do profesjonalnie przygotowanej partytury – dzięki temu nagranie przebiega sprawnie i bez nieporozumień. Według mnie, znajomość tego typu dokumentacji muzycznej to absolutny must-have dla każdego, kto myśli o pracy w branży muzycznej na poważnie.

Pytanie 11

Którą z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 0,1
B. 100
C. 10
D. 1
Wartość dobroci Q filtra to kluczowy parametr opisujący selektywność, czyli zdolność filtra do rozróżniania częstotliwości sygnałów. Wzór jest prosty: Q = f₀/B, gdzie f₀ to częstotliwość środkowa, a B – szerokość pasma. W tym pytaniu podstawiamy: Q = 200 Hz / 20 Hz = 10. Taką wartość często spotyka się w filtrach wykorzystywanych tam, gdzie wymagana jest wąska charakterystyka (np. korektory graficzne, filtry pasmowo-przepustowe w sprzęcie audio, niektóre urządzenia do pomiaru drgań). Z mojego doświadczenia, w inżynierii dźwięku czy automatyce, świadome dobieranie dobroci Q pozwala osiągnąć pożądany kompromis między selektywnością a odpowiedzią czasową układu – wysokie Q daje ostrą selekcję, lecz może prowadzić do podbicia w okolicy f₀, co czasem bywa problematyczne (np. w filtrach aktywnych pojawiają się oscylacje lub niestabilność). W praktyce, np. przy projektowaniu filtrów Butterwortha lub Chebysheva, zawsze warto przeliczać Q, by wiedzieć, jak bardzo "ostry" jest nasz filtr. Standardy branżowe, takie jak normy dotyczące audio, kładą nacisk na dobrą znajomość tego parametru, bo wpływa on bezpośrednio na jakość i efektywność separacji częstotliwości. No i jeszcze taka ciekawostka: czasem Q oznacza się jako tzw. współczynnik rezonansu – im wyższy, tym bardziej "wyczulony" filtr na konkretną częstotliwość. Sam często sprawdzam Q, zanim cokolwiek podłączę, bo nie ma nic gorszego niż źle dobrany filtr w praktycznym zastosowaniu.

Pytanie 12

Który z wymienionych typów plików dźwiękowych nie zapewnia możliwości zastosowania zmiennej przepływności bitowej (VBR)?

A. WAV
B. OGG
C. AAC
D. MP3
Format WAV to trochę taki dinozaur wśród plików dźwiękowych – prosty, ale przez to też mocno ograniczony, jeśli chodzi o nowoczesne funkcje kompresji. Pliki WAV są typowo nieskompresowane albo zawierają bardzo prostą kompresję typu PCM, która nie wykorzystuje żadnych zaawansowanych technik kodowania czy zarządzania jakością dźwięku. No i właśnie – WAV nie obsługuje zmiennej przepływności bitowej (VBR), bo format ten zakłada stały bitrate, przez co każdy fragment audio zajmuje dokładnie tyle samo miejsca, niezależnie od liczby detali czy złożoności dźwięku. Ma to swoje plusy przy profesjonalnym nagrywaniu i produkcji muzyki, bo dostajesz czysty, surowy materiał, który łatwo potem edytować bez strat jakości. Ale w codziennym zastosowaniu, np. gdy chcesz zaoszczędzić miejsce na telefonie albo szybciej przesłać pliki – WAV raczej się nie sprawdza. Inne formaty jak MP3, OGG czy AAC pozwalają na użycie VBR, dzięki czemu możesz dynamicznie dopasować ilość danych do jakości, co w praktyce daje mniejsze pliki i często lepszą jakość przy tym samym rozmiarze. Moim zdaniem, jeśli chcesz mieć pełną kontrolę nad rozmiarem i jakością pliku audio, to WAV jest raczej do archiwizacji albo montażu, a nie na co dzień. Warto też pamiętać, że WAV jest szeroko wspierany przez programy DAW i sprzęt studyjny, ale właśnie ze względu na brak VBR nie nadaje się do zastosowań, gdzie liczy się kompresja i elastyczność przesyłania.

Pytanie 13

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Karta SDHC
B. Dysk SSD
C. Kaseta DAT
D. Mini Disc
Mini Disc to naprawdę ciekawy przykład nośnika, który wykorzystuje technologię magnetooptyczną. Chodzi o to, że zapis i odczyt danych odbywa się tutaj dwoma metodami naraz – magnetyczną i optyczną, co daje unikalne właściwości, takie jak odporność na pole magnetyczne i dość dużą trwałość zapisu. Nośnik ten działa w ten sposób, że laser lokalnie rozgrzewa wybrany fragment dysku, a zmienne pole magnetyczne modyfikuje orientację domen magnetycznych tylko w tym rozgrzanym miejscu. Przy czytaniu laser odczytuje zmiany polaryzacji światła odbitego, które zależą właśnie od tych zmian magnetycznych. Z mojego doświadczenia z branży audio, Mini Diski przez długi czas były cenione właśnie za połączenie zalet zapisu cyfrowego z fizyczną ochroną danych – można je było bezpiecznie przenosić, kopiować i kasować, co w tamtych czasach nie było takie oczywiste. W praktyce używano ich głównie w sprzęcie audio, zwłaszcza przenośnych rejestratorach i odtwarzaczach, ale spotykało się je także w studiach nagraniowych i profesjonalnych zastosowaniach reporterskich. Magnetooptyka przetrwała dzięki swojej niezawodności w archiwizacji – niektórzy stosują podobne rozwiązania nawet dziś, choć technologia została wyparta przez pendrive'y czy SSD. No i taka ciekawostka: Mini Disc pozwalał na kasowanie i ponowny zapis, co było nieosiągalne dla zwykłych płyt CD-Audio – tutaj naprawdę widać przewagę tej technologii. Jeśli chodzi o normy – Mini Disc był zgodny ze standardami Sony dotyczącymi formatu ATRAC, a sama technologia magnetooptyczna była stosowana też w większych systemach archiwizacyjnych, więc to rozwiązanie naprawdę miało szerokie zastosowanie.

Pytanie 14

W celu wykonania montażu równoległego realizator powinien w edytorze dźwięku wgrać fragmenty muzyczne na

A. osobne ścieżki od tego samego punktu czasowego.
B. tę samą ścieżkę jeden za drugim zgodnie z chronologią czasową.
C. tę samą ścieżkę nie zachowując chronologii czasowej.
D. tę samą ścieżkę w kolejności czasu ich trwania.
Montaż równoległy w edytorze dźwięku polega właśnie na tym, że kilka fragmentów muzycznych odtwarzanych jest jednocześnie, a nie po kolei. Z technicznego punktu widzenia, żeby to osiągnąć, trzeba umieścić te fragmenty na osobnych ścieżkach, startujących od tego samego miejsca na osi czasu projektu. To daje pełną kontrolę nad każdym fragmentem – osobno możesz ustawić głośność, panoramę, efekty i precyzyjnie miksować całość. To standardowa praktyka nie tylko w produkcji muzycznej, ale też w postprodukcji filmowej czy radiowej, gdzie często nakłada się kilka dźwięków naraz: muzykę, efekty, dialogi. Osobne ścieżki to podstawa workflow w takich programach jak Cubase, Pro Tools czy nawet Audacity. Nawet jak się kiedyś pracowało na sprzęcie analogowym, to myślenie ścieżkami już wtedy było istotne – dzisiaj po prostu jest to łatwiejsze i dokładniejsze. Moim zdaniem warto od razu wyrobić sobie nawyk pracy na wielu ścieżkach, bo to bardzo ułatwia późniejszą edycję i oszczędza mnóstwo czasu przy bardziej złożonych projektach. Dzięki temu każdy element miksu masz pod kontrolą i możesz go zmieniać nie wpływając na pozostałe fragmenty. To taki absolutny fundament branżowy – nie znam chyba nikogo, kto profesjonalnie pracuje inaczej.

Pytanie 15

Który z plików posiada najlepszą jakość?

A. 320 kb/s, 16bit
B. 256 kb/s, 24 bit
C. 256 kb/s, 16 bit
D. 320 kb/s, 24 bit
Wybór pliku 320 kb/s, 24 bit to rzeczywiście najbardziej jakościowa opcja z podanych. Przede wszystkim bitrate 320 kb/s oznacza bardzo wysoką przepływność danych przy kompresji stratnej (na przykład MP3), co w praktyce daje bardzo mało słyszalnych artefaktów i zachowuje niemal całość oryginalnego brzmienia. 24 bity głębi próbkowania to kolejny ważny aspekt – oznacza to znacznie większy zakres dynamiki niż standardowe 16 bitów. W realnych warunkach nagrań, szczególnie studyjnych, 24 bity pozwalają na uchwycenie dużo subtelniejszych niuansów dźwiękowych, np. cichych pogłosów czy miękkich przejść między instrumentami. Takie parametry są wykorzystywane przy profesjonalnej produkcji muzyki i masteringu – czasem wręcz wymagane przez wytwórnie czy platformy streamingowe o wysokim standardzie (np. Tidal Masters albo systemy Hi-Res Audio). Moim zdaniem, jeśli ktoś pracuje z dźwiękiem lub zwyczajnie ceni wysoką jakość odsłuchu – to właśnie 320 kb/s w połączeniu z 24-bitową głębią daje najlepsze efekty, szczególnie przy słuchaniu na dobrym sprzęcie. Warto zauważyć, że 16 bitów to wciąż niezły standard (CD Audio), ale te 24 bity, szczególnie przy dobrym bitrate’cie, dają już naprawdę profesjonalny poziom. W praktyce – jeśli robisz miks, master albo po prostu lubisz słyszeć detale, nie idź na kompromisy!

Pytanie 16

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. częstotliwości próbkowania sygnału w sesji.
B. koloru ścieżek w sesji.
C. liczby grup ścieżek w sesji.
D. kształtu fade in i fade out w sesji.
Częstotliwość próbkowania sygnału w sesji to absolutnie kluczowy parametr, który ustalamy na samym początku, przy tworzeniu nowej sesji w DAW. To od niej zależy, jak szczegółowo dźwięki będą zapisywane i odtwarzane – im wyższa wartość, tym więcej informacji o sygnale jest przechowywane i tym lepsza jakość dźwięku (a przynajmniej w teorii, bo w praktyce czasem bywa różnie). Najczęściej spotykane częstotliwości to 44,1 kHz (standard CD), 48 kHz (audio do wideo) oraz wyższe, np. 96 kHz czy nawet 192 kHz w zastosowaniach profesjonalnych. Wybranie odpowiedniej wartości od razu jest mega ważne, bo późniejsza zmiana podczas pracy nad projektem może prowadzić do problemów z konwersją materiału, stratą jakości albo komplikacjami z kompatybilnością. Moim zdaniem najlepiej od razu wiedzieć, do czego będzie używana sesja – jeśli nagrywasz muzykę na streaming lub płytę CD, spokojnie wystarczy 44,1 kHz. Ale jeśli pracujesz z filmem albo bardzo złożonymi realizacjami, warto rozważyć 48 kHz lub więcej. Profesjonaliści zawsze planują to z wyprzedzeniem, bo późniejsze kombinacje z konwersją mogą być uciążliwe i niepotrzebnie komplikować życie. Wybór częstotliwości próbkowania na starcie jest zgodny z dobrą praktyką branżową i praktycznie każdy poważny DAW pyta o to przy zakładaniu nowej sesji. Także to jest naprawdę podstawowy parametr i trzeba o nim pamiętać zawsze!

Pytanie 17

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 2 GB
B. 8 GB
C. 4 GB
D. 1 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 18

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 48 kHz
C. 96 kHz
D. 44,1 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 19

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. zmiany lokalizacji pliku.
B. zmiany nazwy pliku.
C. ograniczenia wielkości pliku.
D. uzyskania jednorodnej kopii pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 20

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. LSF
B. LPF
C. HPF
D. HSF
Filtr dolnoprzepustowy (LPF – Low Pass Filter) to naprawdę jedno z podstawowych narzędzi w obróbce dźwięku. Stosuje się go wtedy, gdy chcemy zachować sygnały poniżej określonej częstotliwości granicznej, a wszystko, co jest powyżej tej częstotliwości, po prostu tłumimy lub całkiem usuwamy. Moim zdaniem w praktyce LPF najczęściej przydaje się podczas miksowania – chociażby przy czyszczeniu ścieżek z niepotrzebnych szumów wysokoczęstotliwościowych albo do kształtowania barwy instrumentów (np. wygładzanie ostrych dźwięków hi-hatu albo usuwanie niepożądanych syknięć w wokalu). W pracy w studiu, ale też przy projektowaniu urządzeń audio czy nawet w instalacjach nagłośnieniowych, LPF pozwala ograniczyć zakłócenia i poprawić selektywność dźwięku. Branżowe standardy, na przykład w akustyce budowlanej czy w transmisji sygnałów, zalecają stosowanie filtrów dolnoprzepustowych do eliminowania aliasingu lub ograniczania pasma sygnału. Ciekawostka: większość przenośnych głośników Bluetooth „tnie” wysokie częstotliwości właśnie przez filtr LPF, żeby mały przetwornik nie dostawał sygnału, którego nie da rady odtworzyć. W sumie LPF to taki niewidzialny strażnik porządku w sygnale audio – jak się go dobrze użyje, to dźwięk od razu robi się przyjemniejszy w odbiorze.

Pytanie 21

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 44 100 Hz
B. 48 000 Hz
C. 96 000 Hz
D. 32 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 22

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-RW
B. DVD-R
C. DVD+R DL
D. DVD+R
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 23

Ile kanałów zawiera sygnał stereofoniczny nagrany w technice mikrofonowej X/Y?

A. 4 kanały.
B. 8 kanałów.
C. 2 kanały.
D. 6 kanałów.
Sygnał stereofoniczny nagrany w technice mikrofonowej X/Y to klasyczny przykład, gdzie mamy do czynienia dokładnie z dwoma kanałami: lewym i prawym. Tak to się przyjęło właściwie wszędzie – od domowych nagrań, przez studia nagraniowe aż po transmisje radiowe i telewizyjne. Technika X/Y polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej (najczęściej) pod kątem 90° lub 120° względem siebie, membranami praktycznie w tym samym punkcie. Dzięki temu uzyskujemy wierne odwzorowanie panoramy stereo bez problemów z przesunięciem fazy. Dwa kanały pozwalają odtwarzać dźwięk w taki sposób, że słuchacz zyskuje poczucie przestrzeni – słychać skąd dany instrument czy głos dochodzi. Właśnie w ten sposób rejestruje się koncerty na żywo, nagrania ambientowe czy próby zespołów, jeśli zależy nam na autentycznym obrazie dźwiękowym. W branży audio to taki złoty standard – większość sprzętu, od mikserów po rejestratory, jest domyślnie przygotowana pod dwa kanały stereo. Moim zdaniem, jeśli ktoś planuje swoją przygodę z rejestracją dźwięku, powinien zacząć właśnie od opanowania techniki X/Y i zrozumienia, jak działa stereofonia na bazie dwóch kanałów – to fundament przy dalszych eksperymentach z dźwiękiem przestrzennym.

Pytanie 24

Tłocznia płyt wymaga dostarczenia obrazu nośnika CD lub DVD w formacie

A. ZIP
B. ISO
C. DMG
D. DDP 2.0
DDP 2.0 to taki trochę skarb w branży tłoczenia płyt – jeśli ktoś poważnie podchodzi do przygotowania profesjonalnych wydawnictw CD czy DVD, nie ma chyba lepszej opcji. Ten format został opracowany specjalnie z myślą o tłoczniach, bo zawiera nie tylko obraz ścieżek audio lub danych, ale też wszystkie niezbędne informacje o strukturze płyty. To oznacza, że w DDP mamy zapisane nie tylko audio, ale i indeksy, kody PQ, ISRC, CD-Text, a nawet sumy kontrolne, więc błędy przy tłoczeniu praktycznie nie wchodzą w grę. Co ciekawe, większość nowoczesnych programów do masteringu, jak np. HOFA CD-Burn, WaveLab czy nawet Sequoia, umożliwia wygenerowanie obrazu DDP, bo płyty przesyłane do tłoczni jako zwykłe ISO czy ZIP mogą nie przechowywać wszystkich tych metadanych. Z mojego doświadczenia wynika, że większość profesjonalnych tłoczni wręcz nie przyjmuje już fizycznych płyt-matek, tylko właśnie żąda paczki DDP – przesłanej przez FTP czy przez chmurę. Też warto wiedzieć, że DDP wyeliminowało masę problemów ze zgodnością i błędami, które zdarzały się, gdy wykorzystywano inne formaty. To taki dobry przykład, jak branża audio wypracowała sobie własny, bardzo konkretny standard dla zapewnienia jakości.

Pytanie 25

W celu osiągnięcia maksymalnej wydajności oprogramowania DAW podczas prac montażowych i miksu rozmiar bufora programowego powinien zostać ustawiony na wartość

A. 256 próbek.
B. 512 próbek.
C. 1 024 próbek.
D. 32 próbek.
Ustawienie rozmiaru bufora programowego na 1024 próbki to rozwiązanie, które zdecydowanie zwiększa wydajność systemu DAW podczas montażu i miksu. Przy tak wysokim buforze komputer ma więcej czasu na przetworzenie sygnału audio, dlatego minimalizuje się ryzyko zacięć, pykania czy innych artefaktów dźwiękowych. Z mojego doświadczenia wynika, że większość profesjonalnych realizatorów, kiedy już mają nagrany materiał i przechodzą do miksowania, pracuje właśnie na dużych buforach, często 1024, a nawet 2048 próbek. To jest zgodne z zaleceniami producentów oprogramowania DAW, takich jak Steinberg, Avid czy Ableton. W praktyce, gdy zależy nam na niskiej latencji (np. podczas nagrywania na żywo), schodzimy z buforem niżej, ale przy miksie liczy się przede wszystkim płynność działania, możliwość użycia wielu wtyczek, automatyzacji czy efektów. To pozwala na swobodną pracę bez zrywających się ścieżek lub błędów przetwarzania. Spotkałem się też z opiniami, że niektóre starsze komputery wręcz wymagają większego bufora, żeby w ogóle dało się pracować z bardziej rozbudowanymi projektami. Trochę może przesadzam, ale lepiej mieć ten zapas niż potem borykać się z nieprzewidzianymi problemami. Generalnie, dla miksu i edycji lepiej mieć większy bufor, niż walczyć z brakami wydajności.

Pytanie 26

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 98 000 Hz
C. 48 000 Hz
D. 44 100 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 27

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta DVD
B. Płyta CD
C. Dysk SSD
D. Karta SD
Dysk SSD to naprawdę mistrz, jeśli chodzi o szybki odczyt danych – moim zdaniem to obecnie absolutny standard w komputerach i serwerach, gdzie liczy się czas dostępu. Wynika to z faktu, że SSD, czyli dysk półprzewodnikowy, nie ma żadnych ruchomych części, całe operacje odbywają się elektronicznie. Dzięki temu odczyt danych jest niemal natychmiastowy, a czasy dostępu liczymy w mikrosekundach, a nie milisekundach, jak w starszych rozwiązaniach. W praktyce, gdy porównasz SSD do płyty CD czy nawet karty SD, różnica jest kolosalna – system operacyjny uruchamia się w kilka sekund, a transfery potrafią sięgać nawet kilkuset megabajtów na sekundę (NVMe jeszcze szybciej, nawet powyżej 3000 MB/s). W branży IT przyjęło się już, że do zastosowań profesjonalnych czy gamingowych nie stosuje się starych dysków talerzowych, a już na pewno nie nośników optycznych. Z mojego doświadczenia mogę powiedzieć, że wymiana starego dysku na SSD daje większego „kopa” komputerowi niż upgrade procesora czy RAM-u. Standardy takie jak SATA III czy PCIe NVMe wyznaczają dziś normy prędkości i niezawodności. Branżowo mówi się wręcz, że bez SSD praca na dużych plikach czy obróbka wideo to męczarnia. Wypada dodać, że SSD są też bardziej odporne na wstrząsy, co w laptopach bywa zbawienne. Podsumowując: SSD pod względem szybkości i komfortu użytkowania to prawdziwa rewolucja.

Pytanie 28

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 44100 Hz/24 bity
C. 44100 Hz/16 bitów
D. 48000 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 29

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 192 kHz, 8 bitów.
B. .aiff, 96 kHz, 16 bitów.
C. .wav, 96 kHz, 8 bitów.
D. .aiff, 48 kHz, 16 bitów.
To właśnie odpowiedź .aiff, 96 kHz, 16 bitów najlepiej oddaje, jak poprawnie przeprowadzić konwersję analogowego dźwięku do cyfrowej postaci z zachowaniem wysokiej wierności. Format AIFF jest nieskompresowany i bezstratny, co oznacza, że żadne dane audio nie są tracone podczas zapisu. Próbkowanie na poziomie 96 kHz daje bardzo gęste „odwzorowanie” sygnału – to sporo powyżej standardowego CD (44,1 kHz), co jest wręcz wymagane przy nagraniach profesjonalnych, masteringu audio czy pracy w studiu. Wartość 16 bitów z kolei oznacza 65 536 poziomów kwantyzacji, co w praktyce daje szeroki zakres dynamiki oraz minimalizuje zniekształcenia kwantyzacyjne. To właśnie tego typu parametry wybiera się w sytuacjach, gdy priorytetem jest zachowanie maksymalnej jakości dźwięku, np. w archiwizacji nagrań, miksie czy przy masteringu materiałów muzycznych. Moim zdaniem, jeżeli zależy komuś na audiofilskiej jakości i nie ogranicza go pojemność dysku, to takie ustawienia są naturalnym wyborem. Przy pracy z materiałem do dalszej obróbki jest to wręcz standard – można potem ew. konwertować do niższych parametrów na potrzeby publikacji, ale zawsze warto zaczynać od jak najlepszego materiału źródłowego. Spotyka się to praktycznie w każdym profesjonalnym studiu nagraniowym.

Pytanie 30

Której komendy oprogramowania DAW należy użyć w celu przywrócenia stanu sesji audio do ostatnio zapisanej wersji?

A. Revert to Saved
B. Save As
C. Save
D. Save Copy In
Komenda „Revert to Saved” to naprawdę nieocenione narzędzie w codziennej pracy z DAW-em. Pozwala ona przywrócić projekt dokładnie do ostatniego zapisanego stanu, dosłownie kasując wszystkie zmiany, które zostały wprowadzone po ostatnim zapisie. Przydaje się to szczególnie wtedy, gdy eksperymentujesz z edycją, dodajesz efekty, automatyzacje czy nawet przypadkiem coś usuniesz i nie chcesz cofać każdej czynności po kolei. Wiele osób, zwłaszcza początkujących, czasem nieświadomie nadpisuje projekt, po czym żałuje, że nie mogą wrócić do wcześniejszego układu – właśnie wtedy ta opcja ratuje sytuację. Stosowanie „Revert to Saved” uznaje się za dobrą praktykę w przypadku testowania nowych pomysłów na miks czy aranżację, bo pozwala bezstresowo eksperymentować. Moim zdaniem, warto pamiętać, że ta opcja działa trochę jak „twardy reset” sesji, więc zawsze upewnij się, że nie stracisz w ten sposób czegoś wartościowego. Współczesne DAWy, takie jak Pro Tools, Cubase czy Logic, mają tę funkcjonalność, bo profesjonalne workflow wymaga czasem szybkiego powrotu do zapisanej bazy projektu. Dobrze jest też znać różnicę pomiędzy „Revert” a cofnięciem zmian – ta pierwsza nie patrzy, co się działo wcześniej, po prostu otwiera projekt z ostatniego save’a. Takie podejście jest polecane przez doświadczonych realizatorów i producentów, zwłaszcza w dużych projektach sesyjnych, gdzie każdy błąd potrafi zablokować kreatywność.

Pytanie 31

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Zwiększenia subiektywnej głośności nagrania.
B. Zmiany barwy wokalu.
C. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
D. Zmiany barwy poszczególnych instrumentów.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 32

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 17 MB
B. 11 MB
C. 14 MB
D. 8 MB
To jest właśnie poprawna odpowiedź – około 17 MB to rzeczywiście prawidłowa wartość dla pliku stereo o takich parametrach. Wynika to bezpośrednio z prostych obliczeń: mamy dwie ścieżki (stereo), każda próbkowana z częstotliwością 48 000 Hz i rozdzielczością 24 bity, co daje 48 000 x 24 bity x 2 kanały x 60 sekund = 138 240 000 bitów na minutę. Po przeliczeniu na bajty i megabajty wychodzi około 16,5 MB (1 bajt = 8 bitów, 1 MB = 1 048 576 bajtów). W praktyce pliki WAV i inne formaty nieskompresowane nie mają żadnej kompresji, więc ich objętość łatwo przewidzieć. Moim zdaniem to bardzo ważna umiejętność dla każdego, kto pracuje z audio – zarówno w studiu, jak i podczas przygotowywania materiałów do archiwizacji lub transmisji. Dzięki temu można dobrze zaplanować pojemność nośników czy serwerów. Często spotyka się błędne zaokrąglenia w obliczeniach, ale profesjonalista zawsze uwzględnia rzeczywistą rozdzielczość i liczbę kanałów. To też pokazuje, dlaczego produkcja dźwięku w wysokiej jakości wymaga sporo miejsca – nie tylko jeśli chodzi o miksowanie, ale nawet przy prostym nagrywaniu. Z mojego doświadczenia widać, że wiele osób nie docenia, jak szybko rosną wymagania na dysku przy pracy z wysoką jakością audio. Warto to mieć na uwadze, planując budżet czy infrastrukturę IT w studiu nagraniowym.

Pytanie 33

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Time Stretching
B. Resample
C. Pitch Shifting
D. Invert Phase
Resample to w DAW-ach taka funkcja, którą wykorzystuje się, gdy trzeba zmienić częstotliwość próbkowania sygnału – na przykład z 44,1 kHz na 48 kHz. Właściwie, moim zdaniem, to jedna z kluczowych operacji, zwłaszcza jeśli pracujesz z różnymi formatami audio albo przygotowujesz pliki do masteringu pod różne platformy (np. streaming czy CD). Jak to wygląda w praktyce? Jeśli nagrasz coś w 44,1 kHz, a potem chcesz to dodać do projektu, gdzie wszystko jest na 48 kHz, to wtedy właśnie z pomocą przychodzi opcja Resample. Oprogramowanie musi wtedy matematycznie przeliczyć punkty próbkowania, żeby nowy plik zachował oryginalną prędkość i wysokość dźwięku, ale pasował do projektu. Warto wiedzieć, że dobre DAWy (np. Cubase, Pro Tools, Reaper) oferują różne algorytmy resamplingu – im lepszy, tym mniej artefaktów, typu aliasing. Branżowy standard to stosowanie wysokiej jakości algorytmów, takich jak SRC lub iZotope SRC, właśnie po to, aby nie tracić szczegółów czy nie wprowadzać niechcianych szumów. Z mojego doświadczenia lepiej zrobić resampling jeszcze przed końcowym eksportem, bo wtedy masz większą kontrolę nad jakością. Ogólnie, Resample to podstawa przy pracy z projektami, gdzie miksujemy pliki o różnych parametrach.

Pytanie 34

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 12 dB/okt.
B. 6 dB/okt.
C. 24 dB/okt.
D. 18 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 35

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zmniejszenie częstotliwości próbkowania.
B. Zwiększenie rozdzielczości bitowej.
C. Zmniejszenie rozdzielczości bitowej.
D. Zwiększenie częstotliwości próbkowania.
Zmniejszenie rozdzielczości bitowej naprawdę wpływa na rozpiętość dynamiczną nagrania, bo to właśnie głębia bitowa decyduje o tym, jak dokładnie można oddać najcichsze i najgłośniejsze fragmenty sygnału audio. Im mniej bitów, tym zakres dynamiki maleje – czyli różnice między cichymi a głośnymi dźwiękami są coraz bardziej „spłaszczone”. W praktyce np. w profesjonalnych nagraniach studyjnych używa się często 24 bitów, co daje bardzo dużą rozpiętość dynamiczną (aż do około 144 dB). Gdy jednak przejdziemy na 16 bitów (standard CD), to ta wartość spada do około 96 dB. Zmniejszając rozdzielczość bitową jeszcze niżej (na przykład do 8 bitów jak w starych konsolach czy komputerach), dynamika staje się wyraźnie ograniczona – słychać to jako brak subtelności w cichych dźwiękach i bardzo wyraźny szum kwantyzacji. Moim zdaniem, warto pamiętać, że dla materiałów, które mają zachować pełen zakres ekspresji i dynamiki, lepiej unikać zmniejszania głębi bitowej. W postprodukcji czy w miksowaniu często operuje się na 24 bitach i dopiero przy finalnym eksporcie zmniejsza się do 16 (o ile jest to konieczne np. dla CD). Swoją drogą, to często pomijany temat, a bardzo ważny, bo wpływa nie tylko na jakość dźwięku, ale też na komfort słuchania, szczególnie przy bardziej dynamicznej muzyce czy nagraniach koncertowych.

Pytanie 36

Który z podanych typów dodatkowej informacji tekstowej jest właściwy dla plików WAVE / BWF?

A. Broadcast Audio Extension
B. Document Properties
C. JPEG Comment
D. APE tag
Broadcast Audio Extension, czyli tzw. BWF (Broadcast Wave Format), to rozszerzenie formatu WAVE stworzone właśnie po to, żeby do zwykłego pliku audio można było dorzucić dodatkowe dane tekstowe – na przykład opis nagrania, informacje o autorze, copyright czy nawet kody czasowe do synchro z obrazem. Co fajne, BWF jest szeroko wykorzystywany w profesjonalnym audio, szczególnie w telewizji, radio, postprodukcji filmowej albo wszędzie tam, gdzie trzeba zachować ład i porządek w plikach. W praktyce wygląda to tak, że taki plik nadal ma rozszerzenie .wav, ale w środku, w tzw. chunkach, siedzą dodatkowe metadane. Najważniejszy z nich to właśnie „bext” chunk – tu lądują te wszystkie opisy czy numery wersji. Moim zdaniem to rozwiązanie jest dużo lepsze niż dorabianie jakichś zewnętrznych plików tekstowych czy kombinowanie z tagami innych formatów. Co ciekawe, większość dobrych programów DAW (np. Pro Tools, Nuendo) czy rejestratorów terenowych obsługuje BWF bez zająknięcia, czyli wszystko jest zgodne ze standardami branżowymi (EBU Tech 3285). No i nie musisz się martwić o kompatybilność, bo jak nie „czyta” tych metadanych, to plik nadal działa jak zwykły WAV. W branży to już takie trochę must-have, zwłaszcza jak się pracuje z archiwami albo dużą ilością materiału. Z mojego doświadczenia wynika, że osoby, które ogarniają BWF, są po prostu skuteczniejsze w pracy z audio profesjonalnym.

Pytanie 37

Którym skrótem oznacza się zmienną przepływność bitową sygnału cyfrowego?

A. CBR
B. MBR
C. VBR
D. ABR
Oznaczenie VBR pochodzi od angielskiego terminu Variable Bit Rate, czyli zmienna przepływność bitowa. To właśnie tym skrótem w telekomunikacji, informatyce czy przy kodowaniu multimediów określa się sygnał, którego ilość przesyłanych bitów na sekundę zmienia się dynamicznie, w zależności od zawartości danych i poziomu kompresji. Moim zdaniem to bardzo praktyczne podejście, bo pozwala na optymalizację rozmiaru plików przy zachowaniu dobrej jakości, szczególnie np. w plikach audio MP3 lub wideo MPEG-4. W branży jest to standard wykorzystywany w transmisji strumieniowej, nagraniach studyjnych, a nawet w nowoczesnych systemach CCTV. Przykładowo, jeśli w pewnym fragmencie filmu jest dużo ruchu, algorytm przydziela więcej bitów, a gdy obraz jest statyczny – mniej. Dzięki temu oszczędza się pasmo i miejsce na dysku. Warto też wiedzieć, że alternatywą bywa CBR (stała przepływność), która sprawdza się lepiej tam, gdzie wymagana jest przewidywalność zużycia łącza, np. w transmisjach satelitarnych. VBR natomiast daje większą elastyczność i często lepszą wydajność przy ograniczonych zasobach. Z mojego doświadczenia, jeśli zależy Ci na jakości przy ograniczonym transferze, warto korzystać właśnie z VBR.

Pytanie 38

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W skrypcie.
B. W komentarzu reżyserskim.
C. W znacznikach.
D. W harmonogramie produkcji.
Informacje o docelowych nazwach eksportowanych plików dźwiękowych powinny znajdować się właśnie w skrypcie projektu multimedialnego. To trochę taki fundament całego procesu, bo skrypt pełni rolę głównego dokumentu sterującego, gdzie opisuje się nie tylko, co ma być nagrane i w jakiej kolejności, ale też precyzuje szczegóły techniczne – na przykład, jakie będą nazwy plików po eksporcie czy do jakich folderów mają trafić. Z mojego doświadczenia, dobrze przygotowany skrypt pozwala uniknąć masy nieporozumień między dźwiękowcem, montażystą a resztą zespołu. W środowiskach profesjonalnych bardzo często stosuje się wzorce takie jak EBU Tech 3281 czy zalecenia SMPTE, które wręcz wymagają precyzyjnego opisu plików w dokumentacji projektowej. Dzięki temu łatwiej potem zapanować nad plikami, szczególnie przy dużych produkcjach, gdzie liczba materiałów potrafi przyprawić o zawrót głowy. W praktyce – jeśli brakuje jasnych nazw w skrypcie, to potem zaczyna się szukanie, kombinowanie i niepotrzebny bałagan. Dlatego branżową normą jest ustalanie wszystkiego z góry właśnie w skrypcie, zanim powstanie pierwszy plik dźwiękowy. To naprawdę oszczędza czas i nerwy całego zespołu.

Pytanie 39

Który z wymienionych nośników jest nośnikiem analogowym?

A. Płyta CD
B. Kaseta CC
C. Kaseta DAT
D. Płyta DVD
Kaseta CC, czyli Compact Cassette, to klasyczny przykład nośnika analogowego, który był bardzo popularny w XX wieku. Moim zdaniem warto wiedzieć, że taśmy magnetyczne zapisują sygnał w formie ciągłej, nie cyfrowej, co oznacza, że dźwięk jest przechowywany jako zmiany pola magnetycznego na taśmie. Dzięki temu każda zmiana natężenia dźwięku czy częstotliwości jest odwzorowana płynnie, a nie skokowo – to jest właśnie cała magia analogowego zapisu. W praktyce, kasety CC były wykorzystywane do nagrywania muzyki, audycji radiowych, a nawet danych komputerowych (choć z tym było już trochę kombinowania). Branża muzyczna przez dekady polegała na tej technologii i mimo że dziś dominuje cyfrowy zapis, w niektórych niszach – np. produkcja lo-fi czy archiwizacja starych nagrań – kasety wciąż mają swoich zwolenników. Według standardów branżowych, nośniki analogowe są bardziej podatne na zużycie i zakłócenia typu szum taśmy, ale za to mają swój niepowtarzalny, ciepły charakter dźwięku, który trudno podrobić cyfrowo. Moim zdaniem warto rozumieć różnice – bo to podstawa w pracy z dowolnymi archiwami lub przy digitalizacji starych nagrań. Warto też pamiętać, że kasety CC nie musiały posiadać żadnych złożonych mechanizmów korekcji błędów, bo zapis analogowy tolerował drobne zakłócenia bez dramatycznej utraty jakości.

Pytanie 40

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Konwersja.
B. Filtrowanie.
C. Kompresja.
D. Nadpróbkowanie.
Filtrowanie to absolutnie podstawowe narzędzie w każdym programie typu DAW, jeśli chodzi o usuwanie przydźwięków, takich jak charakterystyczny szum 50 Hz (albo 60 Hz w USA), który wynika właśnie z zakłóceń sieci elektrycznej. W praktyce stosuje się najczęściej tzw. filtry wąskopasmowe – notch lub band-stop, które pozwalają wyciąć konkretną częstotliwość bez naruszania reszty sygnału. W wielu DAW-ach są nawet gotowe presety „hum remover” albo „de-hum”. Często użytkownicy korzystają z narzędzi typu EQ parametryczny, gdzie można ręcznie ustawić wycięcie dokładnie na częstotliwości przydźwięku i jej harmonicznych (np. 50, 100, 150 Hz itd.). Z mojego doświadczenia, to rozwiązanie jest dużo bardziej profesjonalne niż próby różnych sztuczek z kompresją czy konwersją, bo filtr działa selektywnie i nie zniekształca reszty nagrania. Filtrowanie jest zgodne z dobrymi praktykami branżowymi – praktycznie każdy realizator dźwięku w studiu czy na scenie sięga w pierwszej kolejności właśnie po filtry, żeby pozbyć się tego typu zakłóceń, zanim zacznie cokolwiek innego robić z materiałem. Dobrze dobrany filtr to podstawa czystego brzmienia – warto się tego nauczyć i nie bać się eksperymentować z ustawieniami, bo czasem nawet minimalna zmiana szerokości filtra robi dużą różnicę w jakości.