Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 9 maja 2026 18:33
  • Data zakończenia: 9 maja 2026 18:44

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 8 MB
B. 11 MB
C. 17 MB
D. 14 MB
To jest właśnie poprawna odpowiedź – około 17 MB to rzeczywiście prawidłowa wartość dla pliku stereo o takich parametrach. Wynika to bezpośrednio z prostych obliczeń: mamy dwie ścieżki (stereo), każda próbkowana z częstotliwością 48 000 Hz i rozdzielczością 24 bity, co daje 48 000 x 24 bity x 2 kanały x 60 sekund = 138 240 000 bitów na minutę. Po przeliczeniu na bajty i megabajty wychodzi około 16,5 MB (1 bajt = 8 bitów, 1 MB = 1 048 576 bajtów). W praktyce pliki WAV i inne formaty nieskompresowane nie mają żadnej kompresji, więc ich objętość łatwo przewidzieć. Moim zdaniem to bardzo ważna umiejętność dla każdego, kto pracuje z audio – zarówno w studiu, jak i podczas przygotowywania materiałów do archiwizacji lub transmisji. Dzięki temu można dobrze zaplanować pojemność nośników czy serwerów. Często spotyka się błędne zaokrąglenia w obliczeniach, ale profesjonalista zawsze uwzględnia rzeczywistą rozdzielczość i liczbę kanałów. To też pokazuje, dlaczego produkcja dźwięku w wysokiej jakości wymaga sporo miejsca – nie tylko jeśli chodzi o miksowanie, ale nawet przy prostym nagrywaniu. Z mojego doświadczenia widać, że wiele osób nie docenia, jak szybko rosną wymagania na dysku przy pracy z wysoką jakością audio. Warto to mieć na uwadze, planując budżet czy infrastrukturę IT w studiu nagraniowym.

Pytanie 2

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 60 s
B. 10 s
C. 120 s
D. 1 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 3

Procesor dźwięku realizujący efekt echo wpływa na

A. dynamikę przetwarzanego sygnału.
B. pasmo częstotliwości przetwarzanego sygnału.
C. wysokość przetwarzanych dźwięków.
D. przestrzenność materiału muzycznego.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 4

Który dokument zawiera spis sygnałów wejściowych nagrania wielośladowego?

A. Playlista.
B. Rider.
C. Layers.
D. Input List.
Dokument nazywany Input List to absolutna podstawa przy każdej poważniejszej realizacji nagrania wielośladowego, zwłaszcza na koncertach czy podczas sesji studyjnych, gdzie liczba źródeł dźwięku i kanałów wejściowych potrafi sięgnąć naprawdę sporych wartości. Input List to po prostu lista wszystkich sygnałów, które muszą trafić do miksera lub rejestratora – na przykład mikrofonów, DI-boxów czy innych źródeł. Każdy kanał jest precyzyjnie opisany: np. „Kick IN”, „Snare Top”, „Gitara L”, a często też z numerem wejścia, rodzajem mikrofonu, ewentualnie informacją o phantomie czy specjalnych wymaganiach. Z mojego doświadczenia przygotowanie solidnego Input Listu naprawdę oszczędza nerwów na etapie patchowania sceny i rozstawiania sprzętu – dokładnie wiadomo, co, gdzie i jak ma być podpięte. To trochę taki must-have w branży live i studyjnej, bo nie ma profesjonalisty, który podchodzi do pracy bez tego typu rozpiski. Co ciekawe, bardzo często Input List jest częścią ridera technicznego, ale zawsze jest oddzielnym, szczegółowym dokumentem. Dobrą praktyką jest także aktualizacja tego dokumentu w miarę zmian setupu, bo każda niespodzianka na etapie soundchecku potrafi wywrócić całą realizację do góry nogami. Warto o tym pamiętać, bo Input List to gwarancja porządku i przewidywalności w pracy dźwiękowca.

Pytanie 5

Aby ustawić maksymalny poziom sygnału materiału muzycznego bez ingerencji w jego dynamikę, należy użyć w edytorach dźwięku funkcji

A. split.
B. range.
C. normalizacja.
D. solo.
Normalizacja to naprawdę podstawowa i bardzo przydatna funkcja w edytorach dźwięku – i to nie tylko dla kogoś, kto robi miks na szybko, ale też dla osób, które chcą dbać o jakość dźwięku według najlepszych branżowych standardów. Polega na takim podniesieniu poziomu całego materiału muzycznego, żeby najwyższy szczyt sygnału sięgał ustalonego maksimum (najczęściej to 0 dBFS w systemach cyfrowych). Super sprawa jest taka, że ten proces nie zmienia relacji dynamicznych w utworze – to znaczy, wszystkie ciche i głośne fragmenty pozostają względem siebie takie same. Moim zdaniem normalizacja to prawdziwy ratunek wtedy, kiedy nagrany materiał jest za cichy, ale nie chcemy niszczyć jego naturalnej dynamiki. Przykładowo, jak nagrasz wokal, który ma dobre proporcje, ale jest ogólnie za cicho, normalizacja załatwi sprawę. Profesjonaliści używają tej funkcji m.in. przy przygotowywaniu plików pod mastering albo do wyrównania poziomów różnych ścieżek przed miksowaniem. Warto też pamiętać, że nadmierne stosowanie normalizacji może podbijać także szumy, ale jeśli materiał wyjściowy jest czysty, to jest to jedna z najbezpieczniejszych metod podnoszenia poziomu sygnału bez ryzyka przesterowania czy spłaszczenia dynamiki. W praktyce to bardzo szybka i łatwa metoda na zoptymalizowanie głośności bez używania kompresora czy limitera.

Pytanie 6

Która wartość rozdzielczości bitowej nie jest dostępna w standardzie DVD-Audio?

A. 16
B. 20
C. 24
D. 8
Odpowiedź 8 bitów jako niedostępna rozdzielczość w standardzie DVD-Audio jest jak najbardziej słuszna. W praktyce format DVD-Audio został opracowany tak, żeby zapewniać znacznie wyższą jakość dźwięku niż klasyczne płyty CD. Standard definiuje trzy główne poziomy rozdzielczości bitowej: 16, 20 oraz 24 bity na próbkę. Dzięki większej liczbie bitów mamy możliwość uzyskania znacznie szerszego zakresu dynamiki dźwięku (to jest wyraźnie słyszalne przy odtwarzaniu muzyki klasycznej czy jazzowej, gdzie delikatne niuanse są istotne). 8 bitów po prostu nie daje takiej jakości – to rozdzielczość spotykana raczej w archaicznych systemach komputerowych czy bardzo prostych układach elektronicznych, gdzie jakość dźwięku nie jest najważniejsza (np. stare gry komputerowe, niektóre dzwonki w telefonach). W środowisku profesjonalnego audio 8 bitów to zdecydowanie za mało. Moim zdaniem, dobrze jest pamiętać, że dla audiofilów każdy dodatkowy bit to większa precyzja zapisu – dlatego DVD-Audio stawia na wysokie rozdzielczości, nawet kosztem objętości danych. To też pokazuje, jak bardzo branża audio dąży do jakości i wierności dźwięku. Płyty DVD-Audio z 24-bitowym kodowaniem są wykorzystywane w studiach nagraniowych czy do produkcji hi-fi, a 8-bitową rozdzielczość można w zasadzie uznać za nieprzydatną we współczesnej, ambitnej produkcji dźwięku.

Pytanie 7

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 8 bitów.
B. 16 bitów.
C. 24 bity.
D. 20 bitów.
24-bitowa rozdzielczość bitowa to dziś taki złoty standard w profesjonalnych zastosowaniach dźwiękowych i nie ma w tym przypadku. Im więcej bitów w próbkowaniu sygnału audio, tym mniejszy poziom szumów kwantyzacji – to po prostu matematyka. Szum kwantyzacji wynika z ograniczonej liczby poziomów, na które dzielimy amplitudę sygnału. Przy 8-bitach tych poziomów jest raptem 256, przy 16 już 65 536, a przy 24 bitach aż ponad 16 milionów. Przekłada się to na bardzo dużą dokładność odtworzenia każdego cichego niuansu nagrania, szczególnie jeśli chodzi o dynamikę, np. w muzyce klasycznej czy przy masteringu nagrań. Profesjonalne studia nagraniowe korzystają z 24 bitów właśnie po to, by zachować jak największą szczegółowość i minimalizować artefakty kwantyzacji. Co ciekawe, standardy dystrybucji muzyki, jak CD-Audio, zatrzymały się na 16 bitach, ale w praktyce podczas nagrywania i produkcji używa się 24, a czasem nawet więcej – potem przy eksporcie się to redukuje. Moim zdaniem, jak ktoś poważnie myśli o pracy z dźwiękiem, powinien znać tę zależność. Z mojego doświadczenia różnica najbardziej słyszalna jest przy obróbce wielokrotnej, bo szumy łatwo się kumulują. Minimum 24 bity to już taka solidna podstawa przy profesjonalnej pracy z dźwiękiem, jak i w zastosowaniach audiofilskich.

Pytanie 8

W sesji programu DAW, w której ustawiono tempo 120 BPM i metrum 4/4, metronom wybija ćwierćnutę co

A. 2 000 ms
B. 1 000 ms
C. 1 500 ms
D. 500 ms
Tempo 120 BPM oznacza, że w ciągu minuty wybijanych jest 120 ćwierćnut. Skoro minuta ma 60 sekund, łatwo policzyć, że jedna ćwierćnuta trwa 0,5 sekundy, czyli dokładnie 500 ms. W praktyce pracy z DAW-ami, takich jak Ableton, Cubase czy FL Studio, ustawienie tempa i metrum jest absolutną podstawą, zwłaszcza przy nagrywaniu z metronomem lub synchronizowaniu różnych ścieżek MIDI. Bardzo często podczas aranżowania kawałków albo produkcji beatów trzeba szybko wyczuć, czy syntezator lub automat perkusyjny zgrywa się z tempem projektu – właśnie wtedy taka wiedza się przydaje. Standardowo, metronom w DAW zawsze wyznacza uderzenie ćwierćnuty w metrum 4/4, czyli tzw. beat, a nie np. ósemki czy półnuty (chyba że ktoś specjalnie przestawi ustawienia). Z mojego doświadczenia wynika, że osoby początkujące często mylą jednostki czasu i liczbę uderzeń na minutę, więc warto zapamiętać ten prosty przelicznik: 60 000 ms (czyli jedna minuta) dzielimy przez liczbę BPM – daje nam to czas trwania jednej ćwierćnuty w milisekundach. Ta zasada obowiązuje praktycznie w każdym programie muzycznym, niezależnie od producenta czy wersji. To uniwersalna wiedza, która potem bardzo się przydaje np. przy automatyzacji efektów rytmicznych.

Pytanie 9

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .alac
B. .omf
C. .ogg
D. .wav
Format pliku .ogg jest związany z kodekiem stratnym, najczęściej wykorzystującym kompresję Vorbis. Ogg Vorbis to uznany w środowisku branżowym sposób na redukcję wielkości plików audio przy zachowaniu stosunkowo wysokiej jakości dźwięku. Moim zdaniem to jeden z najlepszych wyborów, jeśli zależy komuś na bezpłatnym i otwartym standardzie, bez ograniczeń patentowych jak w przypadku MP3. Praktycznie każdy gracz, radio internetowe czy podcast korzystał kiedyś z OGG właśnie po to, by zoptymalizować transfer bez wyraźnej utraty wierności odsłuchu. Co ciekawe, format ten jest popularny w środowisku open source, zwłaszcza w grach komputerowych i aplikacjach linuksowych, bo tam nikt nie chce płacić za MP3. Pliki OGG są też wygodne do strumieniowania, co znacznie odciąża serwery, a użytkownicy nie narzekają na jakość dźwięku. Warto ogarniać różnice pomiędzy stratnymi a bezstratnymi kodekami – jeśli ktoś archiwizuje lub miksuje muzykę, to raczej nie korzysta z OGG, ale do codziennego słuchania, podcastów czy dystrybucji online – ten format naprawdę daje radę. Eksperci zwracają uwagę, że dobór kodeka powinien zależeć od przeznaczenia pliku, a OGG to świetna opcja do multimediów na co dzień.

Pytanie 10

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. ALAC
C. AAC
D. WAV
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.

Pytanie 11

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. ogranicznik.
C. time stretch.
D. reverb.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 12

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .aiff, 48 kHz, 16 bitów.
B. .wav, 96 kHz, 8 bitów.
C. .wav, 192 kHz, 8 bitów.
D. .aiff, 96 kHz, 16 bitów.
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 13

Której funkcji programu do konwersji plików dźwiękowych należy użyć, aby zwiększyć dokładność obróbki cyfrowego materiału audio?

A. Kompresji.
B. Nadpróbkowania.
C. Normalizacji.
D. Transpozycji.
Nadpróbkowanie to funkcja, która w praktyce potrafi podnieść dokładność obróbki cyfrowego audio, szczególnie kiedy pracujemy ze ścieżkami dźwiękowymi wymagającymi dalszych edycji, np. miksu czy masteringu. W skrócie – polega to na tym, że zwiększamy liczbę próbek na sekundę (czyli tzw. częstotliwość próbkowania), co pozwala uzyskać więcej szczegółów i precyzji podczas późniejszych operacji. Branżowe standardy, jak np. produkcja muzyczna czy postprodukcja filmowa, bardzo często polegają na nadpróbkowaniu, by uniknąć artefaktów, takich jak aliasing albo zniekształcenia, które mogą pojawić się podczas stosowania efektów cyfrowych. Moim zdaniem, jeśli ktoś chce osiągnąć wysoką jakość i zachować pełną kontrolę nad materiałem, nadpróbkowanie jest wręcz obowiązkowe, zwłaszcza przy bardziej zaawansowanych procesach – chociażby korekcji czy syntezie dźwięku. Warto też pamiętać, że potem można wrócić do niższej częstotliwości próbkowania, ale ten etap pośredni daje nam po prostu większy margines bezpieczeństwa i swobody w pracy. Przykładowo, lepiej brzmiące przesterowania czy bardziej naturalne filtry to właśnie zasługa nadpróbkowania. W sumie to taka branżowa sztuczka, bez której ciężko dziś o naprawdę profesjonalnie brzmiący materiał audio.

Pytanie 14

Która z wymienionych nazw ścieżek utworzonych w sesji programu DAW oznacza, że na ścieżce tej znajduje się nagranie werbla w zestawie perkusyjnym?

A. TOM
B. SNARE
C. FLOOR
D. CRASH
SNARE to po angielsku werbel – podstawowy instrument w zestawie perkusyjnym, który w miksie jest odpowiedzialny za wyraźny akcent rytmiczny. W branży muzycznej, szczególnie podczas pracy w DAW (Digital Audio Workstation), powszechnie stosuje się angielskie nazwy instrumentów do oznaczania ścieżek. To ułatwia komunikację i pozwala od razu zorientować się, z czym mamy do czynienia, nawet jeśli pracujemy na międzynarodowym projekcie. Ścieżka podpisana jako SNARE zawiera zwykle nagranie tylko tego bębna, często rejestrowane z kilku mikrofonów jednocześnie (od góry, od spodu, czasem nawet z boku), ale potem miksowane na jeden kanał. Dobrze jest trzymać się tej konwencji, bo daje to przejrzystość projektu i ułatwia późniejszy montaż czy edycję. Sam werbel jest też bardzo często przetwarzany oddzielnie, np. przez kompresję albo pogłos, bo to on nadaje groove i charakter całemu utworowi. Z mojego doświadczenia wynika, że konsekwentne nazywanie ścieżek zgodnie z przyjętymi standardami naprawdę oszczędza nerwów – szczególnie gdy wraca się do sesji po kilku tygodniach albo przekazuje ją komuś innemu do miksu. Drobna rzecz, a robi różnicę.

Pytanie 15

Wskaż optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych.

A. Temperatura 18°C ÷ 24°C, wilgotność 10% ÷ 20%
B. Temperatura 15°C ÷ 18°C, wilgotność 30% ÷ 40%
C. Temperatura 6°C ÷ 15°C, wilgotność 30% ÷ 40%
D. Temperatura 24°C ÷ 30°C, wilgotność 10% ÷ 20%
Wybrałeś optymalne parametry przechowywania archiwalnych taśm i dysków magnetycznych. Temperatura w zakresie 15°C do 18°C oraz wilgotność względna 30% do 40% to wartości zalecane przez producentów nośników oraz normy branżowe, chociażby ISO 18923. Tak ustawione warunki powietrza utrudniają rozwój pleśni i korozji, a jednocześnie nie powodują wysychania lub deformacji warstw magnetycznych. Z mojej praktyki wynika, że zwłaszcza w większych archiwach, gdzie nośniki są przechowywane latami, nawet niewielkie odchylenia od tych parametrów zaczynają prowadzić do przyspieszonego starzenia, rozmagnesowania lub mechanicznych uszkodzeń taśm. Przy wilgotności powyżej 40% sprzęt i opakowania mogą zacząć pochłaniać wilgoć, co sprzyja korozji. Z kolei zbyt niska temperatura nie daje większej ochrony – wręcz przeciwnie, sprzyja kondensacji po wyjęciu taśmy na zewnątrz. Branżowe archiwa i biblioteki cyfrowe, takie jak Naczelna Dyrekcja Archiwów Państwowych czy duże centra danych, stosują właśnie takie ustawienia klimatyzacji i kontroli wilgotności – nie bez powodu. Moim zdaniem, warto jeszcze pamiętać, że ważna jest też stabilność tych parametrów – skoki temperatury i wilgotności szkodzą bardziej niż drobne odchylenia. Jeśli chodzi o praktykę, to nawet w domowych warunkach, dla cennych taśm czy dysków lepiej wygospodarować chłodne, zacienione pomieszczenie niż trzymać je w piwnicy czy gorącym strychu. Wiedza o takich warunkach to podstawa w pracy archiwisty cyfrowego.

Pytanie 16

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. grup.
B. regionów.
C. znaczników.
D. ścieżek.
Wiele osób, szczególnie na początku swojej przygody z DAW-em, myli pojęcia takie jak grupy, ścieżki, regiony czy nawet znaczniki, bo wydają się podobne albo używane zamiennie. Jednak każde z nich spełnia zupełnie inną funkcję w kontekście zarządzania sesją audio. Grupy służą bardziej do wspólnej kontroli parametrów kilku ścieżek – na przykład żeby razem podgłośnić perkusję albo całą sekcję wokalną, ale nie mają żadnego powiązania z szybkim lokalizowaniem miejsc cięcia na osi czasu. Ścieżki to po prostu linie na timeline, na których osadzamy różne źródła dźwięku – wokal, gitarę, bębny – ale one same z siebie nie pozwalają wskazać konkretnych punktów edycyjnych. Regiony natomiast to fragmenty nagrań, które można przesuwać, kopiować czy dzielić, ale nawet jeśli coś pocięliśmy, to bez dodatkowego oznaczenia możemy łatwo się pogubić, zwłaszcza w gęstych projektach. Typowym błędem jest przekonanie, że skoro region jest odcięty, to DAW zapamięta, gdzie go przycięliśmy – niestety, nie; żeby do tego miejsca wrócić, trzeba użyć znacznika. To właśnie znaczniki są stworzone po to, by natychmiastowo skakać do wcześniej wyznaczonych lokalizacji, bez żmudnego przewijania czy wyszukiwania na ślepo. Moim zdaniem, jeśli ktoś polega na samych ścieżkach lub regionach w większych projektach, bardzo szybko zacznie tracić orientację. W standardach branżowych jasno się mówi: porządna sesja oznaczona markerami to nie tylko oszczędność czasu, ale też gwarancja, że cała ekipa produkcyjna będzie wiedziała, gdzie co się dzieje – nawet po kilku tygodniach wracania do projektu.

Pytanie 17

Który z wymienionych sposobów opisu osi czasu w sesji programu DAW oznacza, że oś wyskalowana jest w próbkach?

A. Samples
B. Frames
C. Seconds
D. Bars
Odpowiedź „Samples” to faktycznie właściwy wybór, bo w profesjonalnych programach DAW (czyli Digital Audio Workstation) oś czasu skalowana właśnie w próbkach daje najdokładniejszą kontrolę nad nagraniem czy edycją dźwięku. Próbka (sample) to najmniejszy fragment cyfrowego dźwięku – taka pojedyncza wartość amplitudy zapisana w bardzo krótkim odstępie czasu, zależnie od częstotliwości próbkowania. Dla przykładu, przy typowych ustawieniach 44,1 kHz (standard w muzyce), każda sekunda dźwięku to aż 44 100 próbek! W praktyce praca na osi „Samples” przydaje się zwłaszcza tam, gdzie liczy się chirurgiczna precyzja: np. przy edycji transjentów, usuwaniu klików, automatyzacji efektów typu glitch czy nawet synchronizacji różnych ścieżek z dokładnością co do pojedynczej próbki. Warto wiedzieć, że edytowanie w tej skali pozwala uniknąć artefaktów, które mogłyby powstać przy mniej precyzyjnym ustawieniu siatki. Branżowe standardy, zwłaszcza w masteringu i przy pracy z materiałem do broadcastu czy filmu, często wymagają pracy właśnie w próbce, gdy czas lub „frame” nie wystarczą do uzyskania pełnej kontroli. Z mojego doświadczenia wynika, że osoby początkujące rzadko korzystają z tego trybu, ale im bardziej zaawansowana produkcja, tym częściej się do tego wraca. Nawet drobna przesunięcie ścieżki o kilka próbek potrafi całkiem zmienić brzmienie miksu. Dobrą praktyką w studiu jest zawsze sprawdzać, czy precyzja edytora odpowiada wymaganiom projektu – bez świadomości co to są sample, trudno robić naprawdę profesjonalny dźwięk.

Pytanie 18

Tryb automatyki na ścieżce w sesji programu DAW pozwalający na odtwarzanie uprzednio zapisanej krzywej automatyki określany jest mianem

A. Touch.
B. Write.
C. Latch.
D. Read.
Tryb Read w automatyce ścieżek w DAW to taki trochę fundament, jeśli chodzi o zarządzanie wcześniej zapisanymi ruchami automatyki. Cały bajer polega na tym, że kiedy wybierzesz Read, DAW po prostu odtwarza to, co już zostało nagrane – regulacje głośności, panoramy, parametry wtyczek i inne zmiany, które sobie wcześniej zapisałeś na ścieżce. Nie ma tu ryzyka, że przypadkiem coś nadpiszesz, bo wszystko idzie zgodnie z przygotowaną krzywą, a Ty możesz spokojnie słuchać efektów swoich ustawień. Moim zdaniem to absolutna podstawa profesjonalnej pracy z automatyką – praktycznie każdy poważniejszy projekt prędzej czy później wymaga dokładnego odsłuchania i sprawdzenia, czy te wszystkie wyciszenia, podbicia, czy inne automatyczne zmiany brzmią tak, jak chciałeś. W branży muzycznej to też taki niepisany standard – inżynierowie dźwięku pracują w trybie Read nie tylko po to, żeby się nie pogubić w swoich automatyzacjach, ale też po to, żeby mieć pełną kontrolę nad finalnym brzmieniem utworu. Z mojego doświadczenia wynika, że używając Read, łatwiej wychwycić ewentualne błędy albo sytuacje, gdzie automatyka nie działa zgodnie z zamierzeniem. Najlepsze jest to, że możesz skupić się na słuchaniu, a nie na pilnowaniu, czy czegoś przypadkiem nie zmieniasz. To bardzo praktyczne, zwłaszcza w większych projektach, gdzie automatyki jest od groma i człowiek łatwo może coś przegapić. Co ciekawe, większość DAW-ów oferuje ten tryb właśnie jako domyślny sposób odtwarzania automatyki, więc to nie jest tylko wymysł jednej firmy – to już taki branżowy klasyk.

Pytanie 19

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .cpr
B. .mid
C. .song
D. .omf
Rozszerzenie .omf to naprawdę bardzo ważny standard w pracy z różnymi programami DAW. OMF, czyli Open Media Framework, został stworzony właśnie po to, żeby umożliwić wymianę sesji audio pomiędzy odmiennymi środowiskami – na przykład przenosząc projekt z Cubase do Pro Tools albo z Logic do Nuendo. Moim zdaniem, jeśli ktoś poważnie myśli o współpracy z różnymi studiami czy producentami, to musi znać OMF, bo często to jedyny sposób na zachowanie struktury sesji, ścieżek, markerów, a nawet podstawowych automatyzacji. Przykładowo, jeśli ktoś dostaje zlecenie masteringu czy miksu, bardzo często klient przesyła właśnie plik .omf – dzięki temu nie trzeba eksportować każdej ścieżki osobno i ręcznie ustawiać ich w nowym DAW. W praktyce, OMF nie przenosi wszystkich ustawień wtyczek czy parametrów miksu, ale zachowuje układ ścieżek i przejścia audio, co w większości przypadków bardzo usprawnia pracę. Warto też wiedzieć, że OMF to branżowy standard, z którego korzysta się nawet w produkcjach filmowych, gdzie synchronizacja materiałów z różnych źródeł jest kluczowa. Pewnie, że formaty typu AAF zaczynają wypierać OMF, ale wciąż mnóstwo studiów korzysta z tego rozwiązania, bo jest po prostu sprawdzone i przewidywalne. Moim zdaniem, znajomość OMF to taki must-have każdego, kto działa z DAW-ami na poważnie.

Pytanie 20

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 10 MB
C. Około 20 MB
D. Około 1 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 21

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 32 000 Hz
B. 96 000 Hz
C. 48 000 Hz
D. 44 100 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 22

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista grup.
B. Lista efektów.
C. Lista regionów.
D. Lista ścieżek.
Lista regionów powinna być codziennym narzędziem każdego realizatora czy producenta pracującego w DAW. Regiony to tak naprawdę wycinki materiału dźwiękowego – mogą to być fragmenty audio, MIDI lub nawet automatyki, które zostały podzielone, przemieszczone lub skopiowane w trakcie pracy nad projektem. W praktyce, podczas montażu utworu czy podcastu, najpierw przecina się ścieżkę na mniejsze kawałki, żeby potem łatwo móc przesuwać je, kopiować, wyciszać lub nakładać efekty tylko na wybrane fragmenty. Moim zdaniem właśnie to rozróżnienie regionów daje ogromną elastyczność w montażu i miksie. W większości profesjonalnych DAW, takich jak Pro Tools, Logic Pro czy Cubase, istnieje specjalny panel lub lista regionów, która pozwala szybko odnaleźć i zarządzać wszystkimi fragmentami, które pojawiły się w sesji. To ułatwia kontrolę nad projektem, zapewnia przejrzystość oraz pozwala uniknąć chaosu podczas pracy z dużą liczbą śladów i cięć. Z mojego doświadczenia wynika, że dobre opanowanie pracy z regionami to podstawa szybkiego i wydajnego montażu – nie tylko w studiu, ale nawet w domowych warunkach. W branży powszechnie przyjmuje się, że korzystanie z listy regionów to jedna z dobrych praktyk produkcji dźwięku – bo pozwala na precyzyjne zarządzanie materiałem, bez potrzeby przekopywania się przez całą sesję na timeline. Jeśli ktoś planuje zajmować się edycją audio zawodowo, zdecydowanie powinien nauczyć się wykorzystywać ten element DAW praktycznie na pamięć.

Pytanie 23

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Freeze.
C. Mute.
D. Solo.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 24

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 300 ms
B. 200 ms
C. 400 ms
D. 500 ms
Dobrze, że wybrałeś 500 ms – to właśnie tyle trwa jedna ćwierćnuta w takcie o metrum 4/4 przy tempie 120 BPM. Wynika to z prostego przeliczenia: 120 BPM oznacza, że w ciągu jednej minuty mamy 120 ćwierćnut, czyli każda ćwierćnuta trwa dokładnie pół sekundy. W praktyce przydaje się to nie tylko przy graniu na instrumencie, ale też podczas pracy z DAW-em, kiedy ustawiamy tempo projektu. Na przykład, jeśli chcesz zsynchronizować automat perkusyjny z resztą ścieżek, musisz wiedzieć jak długo trwa każdy ćwierćnutowy impuls – i właśnie te 500 ms jest kluczowe. W branży muzycznej powszechnie korzysta się z tego typu obliczeń, bo pozwalają one idealnie dopasować efekty, takty czy nawet pętle. Moim zdaniem, znajomość takich podstawowych przeliczeń bardzo się przydaje, zwłaszcza gdy zaczynasz eksperymentować z bardziej zaawansowanymi technikami produkcji czy aranżowania. Często widuję, że profesjonaliści od razu liczą wartości w milisekundach, żeby ustawiać czasy pogłosów, delayów czy nawet automatyzować parametry syntezatorów. Niby prosta sprawa, ale oszczędza sporo nerwów na etapie miksowania. Jeszcze jedna rzecz – w nutach metrum 4/4 jest najczęstsze, więc to przeliczanie na 500 ms naprawdę się często przewija w praktyce.

Pytanie 25

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. AU
B. LUFS
C. dBp
D. dBFS
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 26

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 10
B. 2
C. 5
D. 1
Wartość dobroci filtru, czyli tzw. Q (quality factor), bezpośrednio wpływa na szerokość pasma działania korektora. Im wyższa dobroć (Q), tym bardziej filtr selektywnie działa, a więc obejmuje węższy zakres częstotliwości. Ale uwaga, w pytaniu zostało sprytnie zapytane o najszerszy zakres częstotliwości objęty działaniem korektora, czyli chodzi o najniższą dobroć. W standardach audio i elektroniki ogólnie przyjmuje się, że filtry z niską dobrocią (np. Q=1) mają szerokie pasmo - korygują dużą część spektrum, trochę jakby grzebień o szerokich zębach. Natomiast wysokie wartości Q, na przykład 10 jak w tej odpowiedzi, oznaczają, że korektor wpływa bardzo selektywnie na bardzo wąską część widma – wręcz precyzyjnie "wycina" lub podbija daną częstotliwość. To jest przydatne, gdy chcemy wyeliminować np. pojedynczy, uciążliwy rezonans albo dzwonienie w miksie audio. Z doświadczenia powiem, że w praktycznych aplikacjach audiofilskich czy studyjnych, wysokie Q pozwala na chirurgiczne kształtowanie brzmienia, ale nie nadaje się do szerokich korekt. Można to porównać do precyzyjnej igły zamiast pędzla. Dla szerokiego wpływu na pasmo wykorzystuje się niskie dobroci, a wysokie Q przy precyzyjnych zabiegach. Warto o tym pamiętać, bo wiele osób odruchowo myli szerokość pasma z wartością Q – to taka klasyczna pułapka początkujących. Moim zdaniem, zrozumienie tego mechanizmu bardzo pomaga przy projektowaniu filtrów i korektorów w praktyce.

Pytanie 27

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. FADE IN
B. PAN
C. FADE OUT
D. TEMPO
Fade in to jedna z tych funkcji, które są naprawdę podstawowe, ale często niedoceniane, zwłaszcza jak ktoś dopiero zaczyna zabawę w DAW-ach. Z technicznego punktu widzenia fade in to stopniowe zwiększenie głośności dźwięku od ciszy do pełnej wartości – czyli dźwięk nie pojawia się nagle, tylko płynnie wchodzi, bez żadnych trzasków czy nagłych przeskoków. W praktyce często wykorzystuje się fade in na początku ścieżki audio, żeby wprowadzić słuchacza w nagranie płynnie – nie tylko w muzyce, ale też np. w podcastach, produkcji reklam, czy nawet w filmie, gdzie zależy nam na subtelnym rozpoczęciu sceny dźwiękowej. W branży to taki must-have, szczególnie przy masteringu i miksie utworów, bo pozwala uniknąć nieestetycznych artefaktów i sprawia, że całość brzmi profesjonalnie. Warto pamiętać, że fade in można stosować nie tylko ręcznie, rysując automatyzację głośności, ale wiele DAW-ów ma dedykowaną funkcję do naniesienia fade in na klipie, co przyspiesza pracę. Z mojego doświadczenia, dobrze wykonany fade in robi ogromną różnicę w odbiorze nagrania, bo pozwala zbudować napięcie albo wprowadzić klimat. To jedno z tych narzędzi, bez których ciężko sobie wyobrazić poprawny workflow w każdej poważniejszej produkcji dźwiękowej.

Pytanie 28

Które z wymienionych określeń oznacza proces redukcji częstotliwości próbkowania sygnału?

A. Normalization.
B. Distortion.
C. Downsampling.
D. Bitcrushing.
Downsampling to pojęcie typowe dla cyfrowego przetwarzania sygnałów, szczególnie w kontekście audio, obrazu czy danych telemetrycznych. Chodzi tu o celowe zmniejszenie liczby próbek na sekundę, czyli obniżenie częstotliwości próbkowania, co pozwala np. na oszczędność miejsca czy mocy obliczeniowej. W realnych zastosowaniach, takich jak produkcja muzyczna czy transmisja danych, downsampling umożliwia konwersję sygnału do niższej jakości w celu dostosowania go do wymagań urządzenia końcowego albo ograniczeń transferu. Spotyka się to np. przy kodowaniu plików mp3 do niższego bitrate albo przy obróbce zdjęć na potrzeby internetu. Co ciekawe, w profesjonalnych narzędziach audio oraz DSP, przed downsamplingiem stosuje się zazwyczaj filtr dolnoprzepustowy (antyaliasingowy), żeby uniknąć powstawania artefaktów aliasingu – taki filtr to podstawa, serio, bez niego sygnał może być kompletnie zniszczony. Często myli się ten proces z degradacją jakości (jak np. bitcrushing), ale tu chodzi stricte o zmianę liczby próbek, a nie rozdzielczość bitową. Z mojego doświadczenia, dobrze przeprowadzony downsampling jest praktycznie niezauważalny, jeśli zachowane są wszystkie reguły sztuki. To całkiem przydatna umiejętność, szczególnie jeśli chcesz tworzyć własne syntezatory, efekty czy nawet aplikacje do streamingu audio.

Pytanie 29

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. degradację wyłącznie wysokich częstotliwości.
B. sukcesywny spadek dynamiki nagrania.
C. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
D. obniżanie poziomu nagrania.
To jest właśnie ta kluczowa rzecz związana z kopiowaniem analogowych nagrań – fizyka nie daje tutaj taryfy ulgowej. Przy każdym kolejnym kopiowaniu nagrania analogowego zawsze pojawia się pogorszenie jakości. Przede wszystkim dochodzi do ograniczenia pasma przenoszenia, czyli oryginalnie szeroki zakres częstotliwości zaczyna się zawężać. Głównie ucierpią wysokie tony, ale nie tylko – ogólnie całe spektrum robi się jakby bardziej 'ściśnięte'. Co ważne, z każdym kolejnym kopiowaniem szumy własne urządzenia rosną. Czyli po prostu – powstaje coraz więcej niechcianych dźwięków, które nie były częścią oryginalnego materiału. Właśnie dlatego w profesjonalnych studiach dźwiękowych od zawsze tak pilnowano ilości generacji taśm – im mniej pośrednich kopii, tym lepiej. Moim zdaniem to jeden z głównych powodów, dla których branża tak mocno przeskoczyła na cyfrowe systemy – tam kopiowanie nie wpływa na jakość. W praktyce, jeśli zdarzyło Ci się słuchać starej kasety kopiowanej kilka razy, wiesz o co chodzi – dźwięk robi się matowy i szumiący, a czasami nie da się już tego słuchać. Branżowe normy (np. IEC, AES) jasno podkreślają, że kopiowanie analogowe zawsze naraża sygnał na degradację. Staraj się więc – jeśli już musisz kopiować analogowo – ograniczać ilość takich operacji do minimum lub korzystać z wysokiej klasy urządzeń, żeby te straty były jak najmniejsze.

Pytanie 30

Zastosowanie opcji Stereo Split w oprogramowaniu DAW podczas zgrywania sesji spowoduje zapis kanału lewego i kanału prawego do

A. dwóch odrębnych plików mono.
B. jednego pliku mono.
C. dwóch odrębnych plików stereo.
D. jednego pliku stereo.
Opcja <i>Stereo Split</i> w programach DAW, takich jak Cubase, Logic czy Pro Tools, to bardzo przydatna funkcja, szczególnie jeśli pracujesz przy dużych projektach albo musisz później miksować dźwięk na innym sprzęcie. Zaznaczenie tej opcji podczas eksportowania ścieżki stereo powoduje, że DAW rozdziela sygnał na dwa osobne pliki mono – jeden z nich zawiera wyłącznie kanał lewy, a drugi tylko prawy. To jest zgodne ze standardami produkcji audio, zwłaszcza przy współpracy międzystanowiskowej lub kiedy ścieżki mają być poddane dalszej obróbce w innym programie. Z mojego doświadczenia, takie rozwiązanie daje większą elastyczność, bo możesz np. niezależnie zapanować nad panoramą czy poziomem lewego i prawego kanału już na etapie miksu końcowego. Co ciekawe, w profesjonalnych studiach bardzo często wymaga się dostarczania właśnie splitowanych plików mono, bo przy masteringu czy opracowywaniu ścieżek do filmów czy reklam jest to dużo wygodniejsze i bardziej przewidywalne. Warto też dodać, że dwa pliki mono są kompatybilne praktycznie z każdym oprogramowaniem czy sprzętem audio, nawet starszymi konsolami czy systemami broadcastowymi. Tak więc, jeśli zależy Ci na profesjonalizmie i kompatybilności materiału dźwiękowego, zdecydowanie warto znać i korzystać z tej opcji. Zresztą, ja sam nieraz miałem sytuację, że tylko dzięki splitowi mogłem sprawnie poprawić miks bez ponownego eksportowania całej sesji.

Pytanie 31

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 1
B. 100
C. 0,1
D. 10
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 32

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Karta SDHC
C. Dysk SSD
D. Mini Disc
Mini Disc to naprawdę ciekawy przykład nośnika, który wykorzystuje technologię magnetooptyczną. Chodzi o to, że zapis i odczyt danych odbywa się tutaj dwoma metodami naraz – magnetyczną i optyczną, co daje unikalne właściwości, takie jak odporność na pole magnetyczne i dość dużą trwałość zapisu. Nośnik ten działa w ten sposób, że laser lokalnie rozgrzewa wybrany fragment dysku, a zmienne pole magnetyczne modyfikuje orientację domen magnetycznych tylko w tym rozgrzanym miejscu. Przy czytaniu laser odczytuje zmiany polaryzacji światła odbitego, które zależą właśnie od tych zmian magnetycznych. Z mojego doświadczenia z branży audio, Mini Diski przez długi czas były cenione właśnie za połączenie zalet zapisu cyfrowego z fizyczną ochroną danych – można je było bezpiecznie przenosić, kopiować i kasować, co w tamtych czasach nie było takie oczywiste. W praktyce używano ich głównie w sprzęcie audio, zwłaszcza przenośnych rejestratorach i odtwarzaczach, ale spotykało się je także w studiach nagraniowych i profesjonalnych zastosowaniach reporterskich. Magnetooptyka przetrwała dzięki swojej niezawodności w archiwizacji – niektórzy stosują podobne rozwiązania nawet dziś, choć technologia została wyparta przez pendrive'y czy SSD. No i taka ciekawostka: Mini Disc pozwalał na kasowanie i ponowny zapis, co było nieosiągalne dla zwykłych płyt CD-Audio – tutaj naprawdę widać przewagę tej technologii. Jeśli chodzi o normy – Mini Disc był zgodny ze standardami Sony dotyczącymi formatu ATRAC, a sama technologia magnetooptyczna była stosowana też w większych systemach archiwizacyjnych, więc to rozwiązanie naprawdę miało szerokie zastosowanie.

Pytanie 33

W jakim formacie plików występują znaczniki ID3?

A. .bwf
B. .aiff
C. .mp3
D. .wav
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.

Pytanie 34

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Reverbs
B. Distortion
C. Modulation
D. Dynamics
Ekspander to typowy przedstawiciel procesorów z kategorii dynamiki. Jego głównym zadaniem jest kontrolowanie zakresu głośności sygnału audio, ale robi to odwrotnie niż kompresor – zamiast ograniczać różnice głośności, zwiększa je, sprawiając, że cichsze fragmenty stają się jeszcze cichsze. W praktyce, ekspandery stosuje się na przykład do redukowania szumów tła lub niepożądanych dźwięków pomiędzy frazami wokalnymi, czyli tzw. „brudów”, których kompresor nie byłby w stanie wyeliminować bez wpływania na główny sygnał. Moim zdaniem ekspander bywa nieoceniony przy nagraniach perkusji – pozwala wydobyć atak werbla czy stopy, eliminując jednocześnie przesłuchy z innych mikrofonów. Branżowe standardy nagraniowe wręcz zalecają używanie procesorów dynamiki, takich jak kompresory, bramki szumów i właśnie ekspandery, do precyzyjnej kontroli nad sygnałem. W odróżnieniu od efektów typu reverb czy distortion, ekspander nie zmienia charakteru dźwięku, tylko zarządza jego głośnością w bardzo specyficzny sposób. Wielu realizatorów dźwięku uznaje ekspandery za absolutną podstawę, jeśli zależy nam na czystym, klarownym miksie. Szczerze mówiąc, czasem ludzie zapominają o ich istnieniu, a szkoda – bo dobrze użyty ekspander może uratować nawet problematyczne nagranie.

Pytanie 35

Wybierz z listy maksymalną rozdzielczość plików audio obsługiwaną przez współczesne aplikacje DAW.

A. 24 bity
B. 16 bitów
C. 8 bitów
D. 32 bity
Współczesne aplikacje DAW (Digital Audio Workstation) obsługują nagrywanie, edycję i miksowanie plików audio o rozdzielczości aż do 32 bitów. To naprawdę robi różnicę, zwłaszcza gdy pracujesz na wysokim poziomie profesjonalizmu i zależy Ci na jak najczystszym przetwarzaniu dźwięku. 32-bitowe pliki audio, zwłaszcza w formacie float, pozwalają na ogromny zakres dynamiki—przy miksowaniu praktycznie nie da się 'przesterować' śladu, a ryzyko utraty danych przez clipping czy zaokrąglenia znacznie spada. Praktyka pokazuje, że duża część aktualnych DAW, jak Ableton Live, Cubase czy Pro Tools, domyślnie już przetwarza audio wewnętrznie właśnie w 32 bitach float, nawet jeśli wejściowe nagranie ma niższą precyzję. To trochę jak jazda supernowoczesnym samochodem w mieście – nie zawsze wykorzystasz pełnię możliwości, ale w trudnych i wymagających sytuacjach ta rezerwa jakości naprawdę się przydaje. Moim zdaniem, jeśli aspirujesz do poważnego miksowania czy masteringu, warto korzystać z rozdzielczości 32 bity, zwłaszcza przy pracy z wieloma efektami czy automatyzacją. Trzeba jednak pamiętać, że pliki są wtedy większe, więc nie każdy komputer da radę płynnie je obrabiać. Ale w profesjonalnych studiach to już właściwie standard. No i jeszcze jedno – nawet jeśli końcowy eksport robisz do 24 czy 16 bitów, to rejestracja i obróbka w 32 bitach daje Ci po prostu większy margines bezpieczeństwa i lepszą jakość końcową.

Pytanie 36

Co najmniej ilu płyt CD-R należy użyć do zarejestrowania 3-godzinnego nagrania w standardzie CD-Audio?

A. 5 płyt.
B. 3 płyt.
C. 2 płyt.
D. 4 płyt.
Wybranie odpowiedzi „3 płyt” jest w pełni zgodne z technicznymi ograniczeniami standardu CD-Audio. Standardowa płyta CD-R w formacie audio mieści około 80 minut nagrania (czyli 700 MB danych przy próbkowaniu 44,1 kHz, 16 bitów, stereo). Trzy godziny nagrania to 180 minut, co łatwo podzielić: 180 minut / 80 minut ≈ 2,25, ale że nie można zapisać części płyty, to trzeba zaokrąglić w górę – wychodzi 3 płyty. W praktyce oznacza to, że żadna pojedyncza płyta CD-R nie pomieści więcej niż tych 80 minut audio, nawet jeśli używamy płyt dobrej jakości czy próbujemy na siłę coś upchnąć – ograniczenie wynika ze specyfikacji Red Book. Często w pracy z dźwiękiem spotyka się sytuacje, gdzie trzeba dzielić długie nagrania na kilka fizycznych nośników – moim zdaniem, to bardzo ważne umieć szacować takie rzeczy „na oko”, bo zdarza się, że ktoś planuje archiwizację nagrania czy materiał z koncertu i potem jest zdziwiony, że jedna płyta nie wystarczy. Takie rozumowanie przydaje się nie tylko przy CD, ale także przy DVD czy innych nośnikach, bo zawsze trzeba mieć „z tyłu głowy” maksymalną pojemność i ograniczenia formatu. W branży muzycznej i radiowej bardzo często korzysta się właśnie z takich podstawowych kalkulacji pojemności – nie tylko, żeby dobrać liczbę płyt, ale też żeby właściwie podzielić utwory czy segmenty nagrań na części nieprzekraczające limitów nośnika. To naprawdę praktyczna umiejętność, szczególnie przy produkcji płyt demo i archiwizacji.

Pytanie 37

Metoda dogrania fragmentu dźwięku w miejsce innego określana jest mianem

A. Fade in/out.
B. Crop in/out.
C. Trim in/out.
D. Punch in/out.
Odpowiedź punch in/out to zdecydowanie najtrafniejsze określenie w tym kontekście. W branży audio, zwłaszcza przy nagraniach wielośladowych, punch in/out to technika, która pozwala precyzyjnie nagrać konkretny fragment ścieżki dźwiękowej – tak, by zastąpić wcześniejszy fragment nowym nagraniem bez konieczności powtarzania całego utworu czy danej partii. Stosuje się ją, gdy np. wokalista popełni drobny błąd w środku utworu – wtedy inżynier dźwięku ustawia punkty wejścia (punch in) i wyjścia (punch out), a następnie dogrywany jest tylko ten właściwy fragment. W praktyce nie tylko oszczędza się czas, ale też pozwala na zachowanie naturalnego flow utworu oraz pierwotnej energii nagrania. Tę metodę od lat stosuje się zarówno w analogowych studiach (np. na magnetofonach wielośladowych), jak i we współczesnych DAW-ach, gdzie punch in/out realizuje się często dosłownie jednym kliknięciem. Warto przy okazji zauważyć, że poprawne ustawienie punktów wejścia i wyjścia to klucz do uzyskania niemal niewidocznego (a raczej niesłyszalnego!) łączenia. Z mojego doświadczenia w studiu – dobrze opanowany punch in/out to po prostu podstawa profesjonalnej pracy z nagraniami. Często nawet zawodowcy nie próbują nagrać całej partii od początku, tylko korzystają z tej techniki. To także zgodne z dobrymi praktykami produkcji muzycznej, gdzie elastyczność pracy i oszczędność czasu są bardzo ważne.

Pytanie 38

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|2|000
B. 1|1|000
C. 1|3|000
D. 2|1|000
Wybrałeś liczbę 1|3|000 i to właśnie ona pokazuje, gdzie jesteśmy po 2 sekundach od startu sesji w DAW przy tempie 120 bpm i metrum 4/4. W praktyce, jeśli tempo wynosi 120 uderzeń na minutę, to każda ćwierćnuta trwa pół sekundy. Metrum 4/4 oznacza, że w takcie są cztery ćwierćnuty, czyli jeden pełny takt trwa 2 sekundy. Po 2 sekundach od początku utworu znajdziesz się dokładnie na pierwszej ćwierćnucie trzeciego taktu (czyli 1|3|000). Warto zwrócić uwagę, że w DAW (jak np. Cubase, Pro Tools czy FL Studio) oznaczenie 1|3|000 odnosi się do pierwszej ćwiartki trzeciego taktu — bardzo przydaje się to przy ustawianiu punktów cięcia, automatyzacji albo loopów, szczególnie gdy pracujesz nad aranżacją i musisz precyzyjnie ustalić wejścia czy zakończenia fraz. Z doświadczenia powiem, że zrozumienie tych zależności między czasem rzeczywistym a oznaczeniami muzycznymi bardzo ułatwia współpracę z innymi muzykami i realizatorami, bo wszyscy mówią jednym językiem. Standardowo w branży liczy się właśnie w taktach i uderzeniach, a nie sekundach, więc taka matematyka pozwala lepiej planować przejścia czy zmiany tempa. W codziennej pracy z DAW bardzo często przeliczam sobie sekundy na takty, żeby sprawdzić, gdzie np. ma wejść break albo zmiana dynamiki.

Pytanie 39

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta w stosunku 48:44,1.
B. Wysokość spada dwukrotnie.
C. Wysokość wzrasta dwukrotnie.
D. Nie ma wpływu.
Zmiana częstotliwości próbkowania z 44,1 kHz na 48 kHz sama w sobie nie ma żadnego wpływu na odbieraną słuchem wysokość dźwięku, pod warunkiem, że próbki są odtwarzane z tą samą częstotliwością, z jaką były zarejestrowane. To jest bardzo istotny szczegół techniczny. Wysokość dźwięku zależy bezpośrednio od częstotliwości drgań fali akustycznej, a nie od parametrów cyfrowego zapisu. Częstotliwość próbkowania definiuje jedynie, jak często podczas sekundy pobierane są próbki sygnału analogowego, co wpływa na jakość i maksymalną częstotliwość rejestrowanego dźwięku (wynika to z twierdzenia Kotielnikowa-Shannona). Moim zdaniem, takie zamieszanie powstaje często przy konwersji plików lub zmianie platform, jednak jeśli podczas odtwarzania ustawimy tę samą częstotliwość próbkowania co przy nagraniu, żaden słuchacz nie usłyszy zmiany wysokości – to wciąż będzie ten sam dźwięk. W branży muzycznej i postprodukcji audio bardzo często spotyka się te dwie wartości (44,1 kHz – standard CD, 48 kHz – standard wideo), jednak muzycy, reżyserzy dźwięku czy montażystki nie przejmują się wysokością – bo ta zależy od źródła, nie od próbkowania. W praktyce, zmiana częstotliwości próbkowania może wpłynąć na zakres słyszalnych wysokich tonów (np. górne pasmo przenoszenia), ale nie na to, czy dźwięk jest wyższy czy niższy. Dobrą praktyką jest zawsze dbać o zgodność częstotliwości próbkowania w całym torze produkcyjnym – to zapobiega nieprzyjemnym artefaktom i kłopotom z kompatybilnością.

Pytanie 40

Aby szybko zlokalizować początki kolejnych utworów zmasterowanych do nagrania w formacie CD-Audio, najlepiej jest wykonać spis

A. fade’ów.
B. linków.
C. znaczników.
D. setów.
Wybranie znaczników jako właściwej odpowiedzi pokazuje zrozumienie, jak rzeczywiście działa profesjonalny mastering i authoring płyt CD-Audio. Znaczniki (ang. track markers lub index markers) to specjalnie umieszczone punkty na ścieżce, które informują odtwarzacz CD o początku każdego kolejnego utworu. Dzięki nim sprzęt audio od razu wie, gdzie zaczyna się dana piosenka i może „przeskoczyć” dokładnie tam, gdzie chcemy. Takie znaczniki umieszcza się już na etapie masteringu, często w oprogramowaniu DAW albo dedykowanych aplikacjach do authoringu CD. Moim zdaniem bez tych znaczników każda płyta brzmi po prostu mniej profesjonalnie, a użytkownik traci wygodę obsługi, bo trzeba przewijać. Standard Red Book (czyli ten, który definiuje CD-Audio) jasno precyzuje, że każda ścieżka musi mieć swój własny początek oznaczony właśnie takim markerem. Warto pamiętać, że przy dużych projektach, gdzie na jednym nośniku mamy kilkanaście czy kilkadziesiąt kawałków, bez tych znaczników nawet najlepszy materiał zwyczajnie się „gubi”. Z mojego doświadczenia praktycznego wynika, że dobrze wstawione znaczniki to podstawa kontroli jakości oraz wygody słuchacza. W branży muzycznej i wszędzie tam, gdzie liczy się precyzja i profesjonalizm, znaczniki są absolutnym must-have. Jeśli ktoś przygotowuje płytę do tłoczenia, to spis znaczników to naprawdę podstawa dokumentacji dla tłoczni.