Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 17:22
  • Data zakończenia: 30 kwietnia 2026 17:27

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Możliwość wprowadzania zmian w materiałach zapożyczonych należy potwierdzić umową

A. dzierżawy.
B. leasingową.
C. zamiany.
D. licencyjną.
Umowa licencyjna to podstawowy dokument w obrocie prawami autorskimi, szczególnie kiedy w grę wchodzi korzystanie z cudzych materiałów – czy to tekstów, grafik, muzyki, czy oprogramowania. W praktyce to właśnie licencja określa, na jakich zasadach możemy korzystać z danego utworu. To ona pozwala (lub nie) wprowadzać zmiany, modyfikować materiał, przetwarzać, kompilować czy udostępniać dalej. Z mojego doświadczenia wynika, że bez wyraźnych zapisów w licencji, nawet najdrobniejsza modyfikacja może być naruszeniem prawa autorskiego i prowadzić do nieprzyjemnych konsekwencji, zwłaszcza w pracy zawodowej. Branżowe dobre praktyki, np. te promowane przez Stowarzyszenie Twórców Grafiki Użytkowej czy organizacje zarządzające prawami autorskimi, zawsze podkreślają konieczność jasnej, pisemnej licencji na wszelkie działania wykraczające poza tzw. dozwolony użytek osobisty. Przykład z życia: jeśli kupujesz zdjęcie lub grafikę do projektu reklamowego i chcesz coś w nim zmienić (np. kolorystykę), musisz mieć to wyraźnie zapisane w licencji. W innym przypadku – lepiej nie ryzykować. Słowem, licencja to podstawa wszelkiej legalnej adaptacji cudzych materiałów, nie tylko w informatyce, ale też muzyce, filmie czy literaturze.

Pytanie 2

Jaki jest przybliżony rozmiar nieskompresowanego stereofonicznego pliku dźwiękowego o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów?

A. Około 5 MB
B. Około 20 MB
C. Około 10 MB
D. Około 30 MB
W tej sytuacji wybrano rozmiar około 20 MB i to jest właśnie poprawne podejście – wszystko wynika z prostych obliczeń i trochę znajomości branżowych standardów. Plik audio o parametrach: 44,1 kHz, 16 bitów, stereo, to tak naprawdę klasyczne ustawienie dla jakości płyt CD Audio, no i w ogóle bardzo często spotykane w produkcji muzyki albo podcastów. Liczysz to w ten sposób: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały × 120 sekund. Szybko wychodzi: 44 100 × 2 × 2 × 120 = 21 168 000 bajtów, czyli mniej więcej 21 MB (przy zamianie na megabajty dzielisz przez 1 048 576). Owszem, czasami ktoś zaokrągla do 20 MB, bo nie liczy nagłówków pliku WAV czy AIFF, ale do praktycznych zastosowań to wystarcza. Takie pliki WAV są często używane przy obróbce dźwięku, bo nie tracą nic na jakości w przeciwieństwie do MP3, no i każdy program do montażu czy rejestrator spokojnie sobie z nimi radzi. Moim zdaniem, warto pamiętać takie wyliczenia, bo potem łatwiej dobrać miejsce na dysku, zwłaszcza jak się nagrywa dłuższe projekty. W branży IT i audio przyjęło się, że 44,1 kHz/16 bitów stereo to taki trochę złoty środek między jakością a rozmiarem – choć dziś już można używać większych parametrów, to do codziennej pracy to w zupełności wystarcza.

Pytanie 3

Jaka powinna być minimalna liczba ścieżek materiału dźwiękowego w edytorze audio, pozwalająca na kontrolę każdego z instrumentów kwintetu smyczkowego?

A. 4 ścieżki.
B. 5 ścieżek.
C. 2 ścieżki.
D. 3 ścieżki.
Kwintet smyczkowy to zespół, w którym gra pięciu instrumentalistów: zwykle dwóch skrzypków, altowiolista, wiolonczelista i kontrabasista (czasem drugi wiolonczelista zamiast kontrabasisty – szczegóły zależą od repertuaru, ale zawsze pięć osób). Każdy instrument ma swoją unikalną barwę i funkcję w utworze, dlatego w profesjonalnej pracy studyjnej przyjęło się nagrywać lub przynajmniej oddzielnie edytować każdą partię. Jeśli chcesz mieć pełną kontrolę nad miksem – czyli panoramą, poziomem głośności, efektami czy automatyzacją – każda partia powinna mieć osobną ścieżkę. Tak się to robi w każdym porządnym studiu nagraniowym, bo miksowanie instrumentów razem ogranicza możliwości korekty i kreatywnej obróbki. Moim zdaniem to nie tylko wygoda, ale i duża oszczędność czasu, gdy chcesz np. wyciszyć samą wiolonczelę albo podkreślić altówkę. Dodatkowo, praca na pięciu ścieżkach pozwala np. na precyzyjne usuwanie szumów, stosowanie efektów przestrzennych albo automatyzację dynamiki – to już branżowy standard. Oczywiście, istnieją zespoły, które grają „na żywo” do jednej ścieżki stereo, ale w edytorze audio, gdy masz wybór, zawsze lepiej rozdzielać instrumenty. Przy kwintecie smyczkowym minimum to pięć ścieżek, jeśli zależy ci na jakości i profesjonalnym brzmieniu. W sumie, to taki techniczny kompromis między wygodą a kontrolą – im mniej ścieżek, tym mniej swobody. Dlatego 5 ścieżek to podstawa.

Pytanie 4

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Konwersja.
C. Kompresja.
D. Filtrowanie.
Filtrowanie to absolutnie podstawowe narzędzie w każdym programie typu DAW, jeśli chodzi o usuwanie przydźwięków, takich jak charakterystyczny szum 50 Hz (albo 60 Hz w USA), który wynika właśnie z zakłóceń sieci elektrycznej. W praktyce stosuje się najczęściej tzw. filtry wąskopasmowe – notch lub band-stop, które pozwalają wyciąć konkretną częstotliwość bez naruszania reszty sygnału. W wielu DAW-ach są nawet gotowe presety „hum remover” albo „de-hum”. Często użytkownicy korzystają z narzędzi typu EQ parametryczny, gdzie można ręcznie ustawić wycięcie dokładnie na częstotliwości przydźwięku i jej harmonicznych (np. 50, 100, 150 Hz itd.). Z mojego doświadczenia, to rozwiązanie jest dużo bardziej profesjonalne niż próby różnych sztuczek z kompresją czy konwersją, bo filtr działa selektywnie i nie zniekształca reszty nagrania. Filtrowanie jest zgodne z dobrymi praktykami branżowymi – praktycznie każdy realizator dźwięku w studiu czy na scenie sięga w pierwszej kolejności właśnie po filtry, żeby pozbyć się tego typu zakłóceń, zanim zacznie cokolwiek innego robić z materiałem. Dobrze dobrany filtr to podstawa czystego brzmienia – warto się tego nauczyć i nie bać się eksperymentować z ustawieniami, bo czasem nawet minimalna zmiana szerokości filtra robi dużą różnicę w jakości.

Pytanie 5

Kompresja równoległa polega na

A. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
B. jednoczesnej kompresji wszystkich ścieżek wokalnych.
C. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
D. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 6

Normalizacja do 0 dB pliku o poziomie szczytowym -3 dB spowoduje podniesienie głośności

A. czterokrotnie.
B. o połowę.
C. o 1/4.
D. dwukrotnie.
Wiele osób myli się, sądząc, że różnica 3 dB to zaledwie niewielka zmiana, na przykład jedna czwarta czy połowa głośności, jednak sprawa jest trochę bardziej złożona przez skalę logarytmiczną, na jakiej operują decybele. Zwiększenie poziomu szczytowego z -3 dB do 0 dB oznacza wzrost amplitudy sygnału o czynnik około 1,41, ale jeśli chodzi o moc, podnosimy ją dokładnie dwukrotnie, bo taka jest definicja zmiany o 3 dB. To częsty błąd, że przelicza się wartości decybeli liniowo, a tak naprawdę 3 dB to podwojenie mocy sygnału, a nie jego połowa czy ćwierć. Zdarza się też, że ludzie myślą, że czterokrotne zwiększenie mocy to 3 dB, ale to już wynosi 6 dB. Często myli się też pojęcie głośności odczuwanej z poziomem sygnału – ucho ludzkie nie reaguje liniowo, więc dla nas różnica może wydawać się mniejsza, ale technicznie jest to precyzyjnie zdefiniowane. W praktyce, jeśli normalizujesz plik do 0 dB, mający wcześniej -3 dB szczytu, uzyskasz dwukrotnie większą moc sygnału, nie tylko subtelny wzrost. To istotne szczególnie przy przygotowywaniu materiałów do masteringu, gdzie każdy decybel może zrobić różnicę między przejrzystym a przesterowanym brzmieniem. Moim zdaniem, warto dobrze zrozumieć te zależności, by unikać błędów w ustawieniach poziomów audio, co potem potrafi popsuć cały miks.

Pytanie 7

Która z funkcji programu DAW typowo umożliwia płynne przejście między dwoma sąsiadującymi plikami dźwiękowymi umieszczonymi na ścieżce w sesji montażowej?

A. Select.
B. Split.
C. Crossfade.
D. Group.
Crossfade to naprawdę podstawowa, a zarazem niesamowicie przydatna funkcja każdego sensownego DAW-a. Chodzi w niej o to, żeby połączyć dwa sąsiadujące pliki dźwiękowe (czyli tzw. klipy lub regiony) w taki sposób, by przejście było płynne i praktycznie niezauważalne dla słuchacza. Dzięki crossfade’om znikają charakterystyczne kliknięcia, trzaski czy „szwy”, które pojawiają się, gdy dwa nagrania zaczynają się lub kończą w nie do końca przewidzianym miejscu. W praktyce wystarczy nałożyć na siebie dwa końce plików i zastosować crossfade – DAW automatycznie wygeneruje krzywe głośności (fade out na końcówce jednego pliku i fade in na początku drugiego). Efekt to łagodne, profesjonalne przejście. Stosuje się to niemal w każdym gatunku muzycznym, ale też w postprodukcji dźwięku do filmu czy podcastów. Moim zdaniem, jeśli ktoś chce montować dźwięk na poziomie, bez crossfade’ów ani rusz, bo to absolutny standard pracy. W sumie każda aplikacja DAW, od Pro Tools, przez Cubase, aż po Reapera, ma podobną funkcję i wszyscy z niej korzystają, zwłaszcza przy montażach wokali, gitar, dialogów w filmach. Fajnie też wiedzieć, że dobry crossfade często ratuje materiał kiepsko nagrany lub źle ucięty – po prostu wygładza brzmienie bez potrzeby zabawy w ręczną edycję na poziomie sample-by-sample. To taki mały ratunek na co dzień, szczególnie gdy montujesz coś w pośpiechu.

Pytanie 8

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 16 MB
B. 10 MB
C. 5 MB
D. 24 MB
Nagranie w formacie CD-Audio (standard Red Book) zapisuje dźwięk stereo z parametrami 44,1 kHz próbkowania i 16 bitów na próbkę dla każdego z dwóch kanałów. To daje 16 bitów × 2 kanały × 44 100 próbek na sekundę = 1 411 200 bitów na sekundę, czyli 176 400 bajtów na sekundę (bo 1 bajt to 8 bitów). Dla czasu trwania 1 minuta i 30 sekund, czyli 90 sekund, całkowity rozmiar pliku wynosi 176 400 × 90 = 15 876 000 bajtów. W praktyce to prawie 16 MB (jeżeli 1 MB przyjmiemy jako 1 048 576 bajtów, bo tak jest najczęściej w informatyce). Warto wiedzieć, że formaty nieskompresowane, takie jak WAV bez kompresji albo właśnie CD-Audio, szybko generują duże pliki, dlatego w nagraniach studyjnych czy archiwizowaniu materiału audio zawsze trzeba przewidzieć dużo miejsca na dysku lub płytach. Spotkałem się z sytuacją, że ktoś zaskoczony był rozmiarem zrzutów z płyt CD – z tego właśnie powodu. W branży multimedialnej standardy takie jak Red Book są podstawą, a szybkie wyliczenie rozmiaru pliku to przydatna umiejętność w codziennej pracy z audio. Moim zdaniem warto to umieć, bo często pozwala to lepiej planować zgrywanie, archiwizację czy transport plików między urządzeniami.

Pytanie 9

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Modulation
B. Dynamics
C. Distortion
D. Reverbs
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 10

Która z wymienionych wartości częstotliwości próbkowania zapewnia najszersze pasmo próbkowanego dźwięku?

A. 384 kHz
B. 96 kHz
C. 192 kHz
D. 48 kHz
Wybór częstotliwości próbkowania 384 kHz zdecydowanie daje najszersze możliwe pasmo dla próbkowanego dźwięku spośród dostępnych opcji. To wynika bezpośrednio z twierdzenia Nyquista, które mówi, że maksymalna częstotliwość sygnału, którą da się odtworzyć bez zniekształceń, to połowa częstotliwości próbkowania. Czyli przy 384 kHz górna granica dla pasma sygnału audio to aż 192 kHz. W praktyce to o wiele więcej niż potrzeba dla ludzkiego ucha (zwykle słyszymy max do 20 kHz), ale w zastosowaniach profesjonalnych – np. archiwizacji nagrań, masteringu audio lub podczas zaawansowanej obróbki cyfrowej – tak ogromne pasmo pozwala zminimalizować zniekształcenia kwantyzacyjne, artefakty aliasingu i daje dużo większą swobodę przy procesach edycji. Moim zdaniem, trochę to przerost formy nad treścią dla zwykłego słuchacza, ale studia nagraniowe i inżynierowie dźwięku często pracują w takich rozdzielczościach, bo potem mogą wyeksportować materiał do niższych formatów bez utraty jakości. Warto wiedzieć, że mimo iż standardy branżowe jak CD-Audio wymagają tylko 44,1 kHz, to przy zaawansowanej produkcji muzycznej czy nagrywaniu próbkowanie 384 kHz jest coraz częściej spotykane. Z mojego doświadczenia – jeśli zależy ci na absolutnym braku kompromisów w jakości materiału źródłowego, to wyższa częstotliwość próbkowania naprawdę robi różnicę, nawet jeśli potem nie wszystko słychać bezpośrednio – szczególnie przy wielokrotnym przetwarzaniu sygnału.

Pytanie 11

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 128 próbek.
B. 64 próbki.
C. 256 próbek.
D. 32 próbki.
Wybierając bufor o wielkości 32 próbek, faktycznie osiągasz najniższą możliwą latencję w trakcie nagrywania dźwięku w DAW – tak przynajmniej jest w teorii i przy dobrze skonfigurowanym sprzęcie. To rozwiązanie pozwala praktycznie na natychmiastowe usłyszenie efektów swojej gry czy wokalu bez wyczuwalnego opóźnienia. Szczególnie przy pracy z wirtualnymi instrumentami czy podczas monitoringu na żywo taka minimalizacja latencji robi ogromną różnicę, bo komfort nagrania jest wtedy zdecydowanie wyższy. Standardy branżowe wskazują, że mniejsze bufory to lepsza responsywność, choć oczywiście pojawia się ryzyko większego obciążenia procesora. Dla profesjonalnych sesji studyjnych, gdzie kluczowa jest natychmiastowa reakcja, właśnie ten zakres (32 próbki) jest często stosowany, o ile tylko komputer i interfejs audio wytrzymują takie ustawienie bez trzasków czy dropów. Moim zdaniem warto eksperymentować z małymi buforami podczas nagrań, a potem do miksu i masteringu wracać do wyższych wartości dla stabilności pracy. To taki kompromis między wydajnością a wygodą – ale przy nagrywaniu wokali czy gitar na żywo 32 próbki to często game changer.

Pytanie 12

Który z wymienionych nośników standardowo wykorzystuje zapis dźwięku w formacie ATRAC?

A. CD-Audio
B. ADAT
C. Mini-Cassette
D. MiniDisc
Format ATRAC (Adaptive Transform Acoustic Coding) to autorski kodek Sony, stworzony specjalnie do kompresji dźwięku przy zachowaniu możliwie najlepszej jakości. To właśnie MiniDisc od początku swojego istnienia był projektowany pod kątem wykorzystania ATRAC jako domyślnego formatu zapisu audio. Moim zdaniem to dość ciekawe, bo znaczna część osób kojarzy MiniDisc tylko z nowoczesnym (jak na lata 90.) nośnikiem, a mało kto zwraca uwagę na aspekt samej kompresji – to właśnie dzięki ATRAC MiniDisc pozwalał na dłuższe nagrania przy bardzo zbliżonej do CD jakości. W praktyce, w świecie studiów nagraniowych czy nawet domowego audio ATRAC miał spore znaczenie, bo z jednej strony pozwalał zaoszczędzić miejsce, a z drugiej zachować kompromis pomiędzy jakością a wielkością pliku. Sam MiniDisc, choć nie przebił się tak mocno jak CD czy MP3, był wykorzystywany w reportażach radiowych, przez dziennikarzy terenowych czy nawet DJ-ów do szybkiego przygotowywania miksów. Zresztą niektóre przenośne odtwarzacze MiniDisc do dziś uchodzą za bardzo wytrzymałe i praktyczne, szczególnie jeśli chodzi o nagrywanie z wejścia liniowego. Dobrą praktyką przy pracy z MiniDiscami zawsze było uwzględnienie stratności kodeka ATRAC przy archiwizacji materiałów, ale mimo to ten system przez lata sprawdzał się w terenie dużo lepiej niż klasyczne kasety czy nawet pierwsze odtwarzacze MP3. Pewnie dziś ATRAC i MiniDisc to ciekawostka, ale kiedyś był to naprawdę solidny standard.

Pytanie 13

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. ADAT
B. CC
C. SACD
D. DCC
Super, trafiłeś w sedno. SACD, czyli Super Audio CD, to standard zapisu dźwięku, który faktycznie wykorzystuje nośniki optyczne – w tym przypadku specjalnie przygotowane płyty podobne do klasycznych CD, ale o zdecydowanie większych możliwościach. SACD powstało głównie po to, żeby zapewnić słuchaczom lepszą jakość dźwięku niż tradycyjne płyty kompaktowe. W praktyce zapis na SACD odbywa się w technologii DSD (Direct Stream Digital), która pozwala osiągnąć bardzo szerokie pasmo przenoszenia i niski poziom zakłóceń. Co ciekawsze, nośniki SACD są odporne na wiele typowych uszkodzeń, a sama płyta potrafi zawierać zarówno warstwę kompatybilną ze zwykłymi odtwarzaczami CD, jak i warstwę wysokiej rozdzielczości, czy to stereo, czy nawet wielokanałową. Z mojego doświadczenia, chociaż obecnie standard SACD nie jest już aż tak popularny jak kiedyś (przez streaming i pliki cyfrowe), to w studiach nagraniowych i wśród audiofilów wciąż budzi spore zainteresowanie. W branży uznaje się SACD za przykład standardu, który świetnie wykorzystał możliwości nośnika optycznego do przenoszenia bardzo wysokiej klasy dźwięku bez strat, co kiedyś miało naprawdę ogromne znaczenie przy archiwizacji muzyki czy produkcji audio o najwyższej jakości.

Pytanie 14

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade In.
B. Fade Out.
C. Strip Silence.
D. Noise Gate.
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 15

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Dwukrotny.
B. Pięciokrotny.
C. Trzykrotny.
D. Czterokrotny.
Zwiększenie poziomu sygnału o 10 dB odbieramy jako dwukrotny wzrost głośności – to taka ciekawostka, bo dB to skala logarytmiczna i nasze ucho też działa, powiedzmy, nieliniowo. Stąd właśnie różnica między tym, co pokazuje miernik, a tym, co faktycznie słyszymy. Jeśli np. podczas pracy przy konsoletach mikserskich sygnał wzrośnie o 10 dB, to w praktyce subiektywnie poczujesz, że muzyka jest mniej więcej dwa razy głośniejsza – można to naprawdę łatwo przetestować na słuchawkach czy kolumnach. W branży nagłośnieniowej często zakłada się, że każdy wzrost o 10 dB to taki właśnie „podwójny” subiektywny przyrost głośności. To też ważne przy projektowaniu systemów nagłośnienia, doborze kolumn czy planowaniu tłumień akustycznych – nie musisz dążyć do ekstremalnych poziomów dB, bo efekt dla słuchacza nie jest liniowy. Moim zdaniem to bardzo praktyczna wiedza, bo często spotykam się z sytuacją, gdzie ktoś podkręca poziom sygnału o 3-4 dB i myśli, że to już ogromna różnica, a tymczasem 10 dB to dopiero takie „wow”. Warto pamiętać, że ta zasada 2x dotyczy wrażeń słuchowych i trochę się różni od czysto technicznego wzrostu mocy (tam podwojenie mocy to tylko 3 dB). To jest taki klasyczny przykład, jak teoria łączy się z praktyką i naprawdę pomaga w codziennej pracy z dźwiękiem.

Pytanie 16

Które z zamieszczonych określeń odnosi się do procesu wykorzystywanego przy redukcji rozdzielczości bitowej dźwięku cyfrowego, mającego na celu zminimalizowanie cyfrowych zniekształceń sygnału?

A. Downsampling.
B. Authoring.
C. Decimating.
D. Dithering.
Dithering to w rzeczywistości bardzo sprytna i powszechnie stosowana technika w inżynierii dźwięku cyfrowego, szczególnie przy obniżaniu rozdzielczości bitowej, na przykład z 24 do 16 bitów podczas przygotowania do masteringu płyt CD. Zamiast po prostu obcinać najmniej znaczące bity (co prowadziłoby do nieprzyjemnych zniekształceń kwantyzacyjnych, potocznie nazywanych „cyfrowym szumem” lub artefaktami), do sygnału dodaje się losowy szum o bardzo niskim poziomie. Ten szum, czyli dither, niejako „maskuje” powstawanie tych niepożądanych artefaktów. Efekt? Dźwięk po obniżaniu rozdzielczości wciąż brzmi naturalnie, a zamiast ostrych cyfrowych zniekształceń mamy przyjemny, subtelny szum na bardzo niskim poziomie, który jest praktycznie niesłyszalny. Takie rozwiązanie ma mocne podstawy w teorii przetwarzania sygnałów – znajdziesz je w podręcznikach do cyfrowego audio i w standardach branżowych, np. AES. Moim zdaniem, bez ditheringu mastering muzyki czy produkcja podcastów byłaby znacznie gorsza jakościowo. W praktyce, praktycznie każdy profesjonalny DAW (Digital Audio Workstation), taki jak Pro Tools, Cubase czy Reaper, oferuje możliwość zastosowania ditheringu podczas eksportu plików audio. To taka trochę niedoceniana, a szalenie ważna funkcja – szczególnie jak komuś zależy na szczegółach w cichych fragmentach nagrania czy zachowaniu dynamiki. Fajnie też rozumieć, że dithering jest zgodny z dobrymi praktykami inżynierii dźwięku i szeroko zalecany przez doświadczonych realizatorów dźwięku. Warto zgłębiać ten temat, bo to jedna z tych rzeczy, które odróżniają amatorskie projekty od naprawdę dobrze brzmiących produkcji.

Pytanie 17

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 4 razy.
B. 6 razy.
C. 2 razy.
D. 8 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 18

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 6:1
B. ∞:1
C. 1,4:1
D. 2:1
Limiter, w odróżnieniu od zwykłych kompresorów, charakteryzuje się nieskończonym, czyli teoretycznie ∞:1 stopniem kompresji. To oznacza, że gdy sygnał przekroczy ustawiony próg (threshold), nie jest on wcale przepuszczany dalej, a poziom wyjściowy nie może wzrosnąć powyżej tego progu. W praktyce oznacza to bardzo agresywną ochronę przed przesterowaniem – żadna wartość powyżej thresholdu się nie przebije. Branżowe standardy, np. w nagłośnieniu koncertowym czy przy masteringu, jednoznacznie przypisują limiterom właśnie ten typ działania. Przykładowo, w miksie nagrań radiowych limiter ustawia się na końcu łańcucha, by nie dopuścić do przekroczenia 0 dBFS i uniknąć zniekształceń cyfrowych. Niektóre nowoczesne limitery oferują dodatkowe funkcje – look-ahead, soft clipping, czy programowane krzywe ataku i release – ale zawsze sednem jest ta nieskończona kompresja. Moim zdaniem, znając ten parametr, łatwiej świadomie korzystać z narzędzi do obróbki dynamiki i lepiej chronić materiał audio przed niechcianym przesterem. Warto pamiętać, że zwykłe kompresory (o stopniach np. 2:1 czy 6:1) stosuje się do subtelniejszego kształtowania dynamiki, a nie twardej ochrony poziomów sygnału.

Pytanie 19

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. średnią przepływność bitów.
B. zmienną przepływność bitów.
C. stałą przepływność bitów.
D. dostępną przepływność bitów.
Użycie trybu CBR podczas konwersji do formatu MP3 to jedna z najbardziej klasycznych praktyk w kompresji audio – CBR, czyli Constant Bit Rate, oznacza dosłownie stałą przepływność bitów przez cały plik. W praktyce przekłada się to na to, że każda sekunda nagrania zajmuje dokładnie tyle samo miejsca bez względu na złożoność dźwięku. To jest przydatne na przykład, gdy przygotowujesz pliki MP3 do transmisji strumieniowej w sieciach o ograniczonej lub niestabilnej przepustowości, bo łatwo przewidzieć, ile danych trzeba przesłać w danym czasie. W radio internetowym czy podcastach wręcz często zaleca się CBR, żeby uniknąć niespodzianek przy odtwarzaniu na różnych urządzeniach. Warto zauważyć, że organizacje jak MPEG czy nawet zalecenia serwisów streamingowych wskazują CBR jako opcję zgodną z najstarszymi, najbardziej uniwersalnymi odtwarzaczami – niektóre stare urządzenia nie radzą sobie z plikami kodowanymi VBR. Swoją drogą, moim zdaniem, to dobry wybór, jeśli zależy nam na maksymalnej kompatybilności i przewidywalności rozmiaru pliku. Jasne, czasem CBR będzie mniej efektywny jakościowo niż inne tryby, ale jego prostota i stabilność to spora zaleta w wielu zastosowaniach praktycznych. Dobrze wiedzieć też, że CBR jest domyślnym trybem w większości klasycznych programów do kodowania MP3, a jego ustawienie (np. 128 kbps czy 192 kbps) pozwala szybko dobrać kompromis między jakością a rozmiarem pliku.

Pytanie 20

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Płyta DVD.
B. Kaseta CC.
C. Dysk M.O.
D. Kaseta DAT.
Płyta DVD jest tutaj najrozsądniejszym wyborem, jeśli chodzi o przechowywanie danych w środowisku, gdzie występuje silne pole magnetyczne. Dlaczego? Nośniki optyczne, takie jak DVD, zapisują dane poprzez fizyczną zmianę struktury materiału pod wpływem lasera – nie mają żadnych elementów magnetycznych, które mogłyby ulec rozmagnesowaniu. W praktyce, nawet bardzo silne pole magnetyczne nie ma praktycznie żadnego wpływu na zapisane na DVD informacje. W branży IT, szczególnie przy archiwizacji długoterminowej, często stosuje się właśnie nośniki optyczne tam, gdzie istnieje ryzyko wystąpienia zakłóceń elektromagnetycznych. To podejście jest zgodne z rekomendacjami np. normy ISO/IEC 27040 dotyczącej bezpieczeństwa przechowywania danych. Co ciekawe, w instytucjach takich jak archiwa państwowe albo większe biblioteki cyfrowe, nośniki optyczne są nadal używane do przechowywania kluczowych danych właśnie ze względu na ich odporność na oddziaływanie pól magnetycznych i wysoką trwałość – oczywiście, pod warunkiem przechowywania w odpowiednich warunkach. Moim zdaniem, jeśli ktoś szuka niezawodności przeciwko wpływowi magnesów czy nagłych impulsów elektromagnetycznych, zdecydowanie powinien postawić na nośniki optyczne. To taka trochę stara, ale niezawodna szkoła. Warto przy tym pamiętać, że choć DVD są odporne na pole magnetyczne, nie są wieczne – zabezpieczenie przed zarysowaniami i światłem UV też jest istotne, o czym sporo się mówi na kursach z archiwizacji cyfrowej.

Pytanie 21

Jaką opcję należy zastosować do szybkiego powielenia regionu audio w 16 kopiach umieszczonych jedna za drugą?

A. Repeat.
B. Consolidate.
C. Duplicate.
D. Separate.
Opcja „Repeat” to zdecydowanie najpraktyczniejsze narzędzie do szybkiego powielania regionu audio w określonej liczbie kopii, szczególnie gdy chodzi o umieszczenie ich jedna za drugą na tej samej ścieżce. W większości programów DAW, funkcja ta pozwala błyskawicznie wykonać wiele powtórzeń danego fragmentu – wystarczy podać żądaną liczbę kopii, jak w tym przypadku 16, a całość zostanie elegancko rozłożona w linii czasowej projektu, bez żadnych przerw czy przesunięć. Z mojego doświadczenia praca z „Repeat” oszczędza mnóstwo czasu – nie musisz ręcznie kopiować i przesuwać regionów, co łatwo prowadzi do bałaganu na ścieżce albo niezamierzonych błędów rytmicznych. Jest to zgodne z dobrą praktyką produkcyjną, bo zachowujesz porządek i rytmikę projektu. Dodatkowo, korzystanie z tej opcji sprzyja zachowaniu spójności aranżacji – każdy region rozmieszczony jest równo, idealnie „na siatce”, co przy dużych ilościach powtórzeń jest wręcz niezbędne. Szczerze mówiąc, nie wyobrażam sobie pracy nad np. pętlami perkusyjnymi czy efektami bez tej funkcji – to taki DAW-owy chleb powszedni. Moim zdaniem, warto też pamiętać, że „Repeat” działa nie tylko na pojedynczych regionach, ale też na wybranych grupach – co jeszcze bardziej przyspiesza workflow. Krótko mówiąc – wybór tej opcji to świadome korzystanie z narzędzi, które branża muzyczna uznaje za podstawowe i nieodzowne podczas aranżacji materiału audio.

Pytanie 22

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Viola
B. Violin
C. Bass
D. Cello
Prawidłowe nazwanie ścieżki jako „Violin” w projekcie DAW to nie tylko kwestia porządku, ale przede wszystkim dobrych praktyk pracy w środowisku studyjnym. Właściwe etykietowanie śladów – tu konkretnie nagrania partii skrzypiec – niesamowicie ułatwia późniejszą edycję, miksowanie czy współpracę z innymi realizatorami i muzykami. Pracując nad rozbudowanym projektem, gdzie często pojawia się kilkadziesiąt ścieżek instrumentów, szybkie zlokalizowanie skrzypiec (Violin) dzięki poprawnej nazwie oszczędza masę czasu i pozwala uniknąć nieporozumień. Z mojego doświadczenia wynika, że nawet jeśli pracujesz solo, po paru dniach wracając do projektu możesz zapomnieć, co kryje się pod „Track 1” – natomiast „Violin” mówi wszystko jasno. Branżowe standardy, zwłaszcza w większych studiach czy przy pracy z zagranicznymi realizatorami, są wręcz bezlitosne dla chaotycznego nazewnictwa – tu liczy się precyzja i konsekwencja. Warto też zauważyć, że część DAW-ów automatycznie eksportuje nazwy śladów do plików STEM czy sesji AAF/OMF, co jest nieocenione przy dalszym transferze materiału. Oprócz tego, jasne nazewnictwo ścieżek pomaga automatyzować różne procesy, np. routing czy grupowanie w mikserze. Moim zdaniem, to taki prosty nawyk, który po prostu trzeba sobie wyrobić, jeśli chce się być profesjonalistą w tej branży.

Pytanie 23

Który z wymienionych formatów plików audio stanowi najczęstszą podstawę do pracy montażowej w sesji oprogramowania DAW?

A. .ogg
B. .m4a
C. .wav
D. .mp3
Format .wav jest zdecydowanie najczęściej wykorzystywany w pracy montażowej w DAW (Digital Audio Workstation). To taki branżowy standard i w sumie nie ma się co dziwić, bo pliki wav są nieskompresowane, czyli dźwięk jest w nich zapisany bez żadnych strat jakości. Można je dowolnie edytować, ciąć, nakładać efekty i miksować bez obawy, że coś się popsuje w brzmieniu. DAW-y najchętniej pracują właśnie z tym formatem, bo są one szybkie w odczycie i nie wymagają dodatkowego dekodowania podczas pracy. Z własnego doświadczenia wiem, że gdy dostajesz sesję od innego realizatora lub pracujesz nad projektem na różnych komputerach, .wav po prostu zawsze działa. Jest też bardzo elastyczny – można ustalić różne częstotliwości próbkowania (44.1 kHz, 48 kHz, nawet wyżej) i ilość bitów, w zależności od potrzeb projektu. Co ważne, większość wtyczek, narzędzi masteringowych czy nawet prostych edytorów audio, obsługuje wav bez żadnych problemów. W wielu studiach nagraniowych przyjęło się też, że eksportuje się wszystkie ścieżki w wav, bo potem łatwiej je przesłać do miksu lub masteringu. Inne formaty, jak mp3 czy m4a, raczej nie nadają się do profesjonalnej obróbki, bo są stratne. A .ogg, chociaż czasem spotykany, nie jest popularnym wyborem w produkcji muzycznej. Generalnie, moim zdaniem, jak wchodzisz w temat miksowania czy profesjonalnej produkcji muzyki, wav to podstawa i warto od razu się do tego przyzwyczaić.

Pytanie 24

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 60 minut.
B. 80 minut.
C. 90 minut.
D. 70 minut.
Płyta CD-Audio o pojemności 700 MB pozwala na zapis materiału dźwiękowego do 80 minut i to jest taka wartość, która praktycznie stała się standardem branżowym dla tego typu nośników. Chociaż na pierwszy rzut oka pojemność 700 MB może wydawać się spora i sugerować możliwość zapisania jeszcze więcej muzyki, to trzeba pamiętać, że format CD-Audio nie korzysta z kompresji danych (jak np. MP3), tylko zapisuje bezstratnie dźwięk w standardzie PCM o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na kanał stereo. To oznacza spory strumień danych – ok. 10 MB na każdą minutę muzyki stereo. Stąd właśnie ta liczba – 80 minut to maksimum, ile da się zmieścić na 700 MB przy zachowaniu jakości wymaganej przez standard Red Book, który określa parametry płyt CD-Audio. Moim zdaniem to całkiem uczciwy kompromis pomiędzy jakością a czasem trwania materiału. W praktyce większość albumów muzycznych mieściła się w tym limicie i nie trzeba było ciąć kawałków. Często w produkcji płyt płyty 80-minutowe były wykorzystywane do albumów kompilacyjnych czy koncertowych, gdzie każda minuta była na wagę złota. Warto pamiętać, że jak już wykraczasz poza te 80 minut, napędy CD mogą mieć problem z odczytem albo płyta w ogóle nie będzie zgodna ze starszym sprzętem. To kolejny przykład, jak ważne jest trzymanie się branżowych norm.

Pytanie 25

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. 6:1
C. ∞:1
D. 1,4:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest absolutne ograniczenie poziomu sygnału powyżej określonego progu. Stopień kompresji dla limitera teoretycznie wynosi nieskończoność do jednego (∞:1). Co to znaczy w praktyce? Po prostu – niezależnie o ile głośniejszy będzie sygnał wejściowy niż ustawiony threshold, na wyjściu nie będzie on nigdy wyższy od tej wartości. To taka ostatnia linia obrony przed przesterowaniem i klipowaniem, szczególnie przy masteringu, radiu czy streamingu. W branży muzycznej oraz postprodukcji audio, limiter jest wręcz obowiązkowym narzędziem końcowym na sumie miksu albo na pojedynczych ścieżkach – na przykład wokalu. Standardy emisji radiowej i telewizyjnej wymagają ścisłego trzymania się określonego poziomu sygnału (np. -1 dBFS). Wystarczy raz nie użyć limitera na końcu i gotowe – przester lub poważne naruszenie norm loudnessowych. Z mojego doświadczenia nie ma skuteczniejszego sposobu na ochronę sygnału przed zbyt dużą amplitudą niż limiter właśnie. Warto też pamiętać, że w praktyce limitery często posiadają dodatkowe funkcje, takie jak lookahead czy soft clipping, ale kluczowa cecha pozostaje: kompresja z proporcją ∞:1. To właśnie to odróżnia limiter od klasycznych kompresorów nawet tych z wysokimi ratio.

Pytanie 26

Które z urządzeń poszerza zakres dynamiki nagrania?

A. Saturator.
B. Filtr LP.
C. Filtr HP.
D. Ekspander.
Ekspander to narzędzie, które faktycznie poszerza zakres dynamiki sygnału audio. W praktyce oznacza to, że różnica między najcichszymi a najgłośniejszymi fragmentami nagrania staje się większa. Ekspander działa trochę odwrotnie niż kompresor – zamiast ściskać dynamikę, rozciąga ją. Najczęściej używa się go do walki z niechcianym szumem tła, wyciszając ciche fragmenty jeszcze bardziej, przez co te głośne są jeszcze wyraźniej odseparowane. Na przykład w studiu nagraniowym, kiedy mamy nagrania wokalu z delikatnym szumem w tle, ekspander może bardzo skutecznie pomóc wyeliminować te niepożądane elementy bez ingerowania w główny sygnał. Z mojego doświadczenia, dobry ekspander potrafi uratować track, który wydawał się już nie do odratowania pod względem czytelności. Warto pamiętać, że w broadcastingu czy podczas masteringu ekspander jest też używany do celów artystycznych, żeby dodać nagraniu większej wyrazistości i naturalności. Z technicznego punktu widzenia, ekspandery należą do podstawowego arsenału inżyniera dźwięku, szczególnie tam, gdzie wymagane są duże kontrasty dynamiczne. W porównaniu do filtrów czy saturatorów, ekspander rzeczywiście realnie wpływa na zakres dynamiki, co jest zgodne z ogólnymi standardami pracy z sygnałem audio.

Pytanie 27

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 320 kb/s
B. 240 kb/s
C. 480 kb/s
D. 160 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 28

Format pliku dźwiękowego, który zawiera listę komend dla modułu brzmieniowego, to

A. .mod
B. .flac
C. .wav
D. .mid
Wiele osób myli rozszerzenia plików audio, bo tak szczerze, niektóre z nich są do siebie bardzo podobne z nazwy, a zupełnie różnią się funkcjonowaniem. Na przykład .wav to format nieskompresowanego dźwięku, gdzie zapisuje się rzeczywiste próbki audio, czyli – mówiąc prosto – to, co mikrofon nagrał albo komputer wygenerował. Z tego powodu .wav jest popularny w profesjonalnej produkcji muzyki, bo daje wysoką jakość, ale kompletnie nie nadaje się do przesyłania poleceń do modułu brzmieniowego. Podobnie .flac, tylko że tu mamy już kompresję bezstratną – znowu chodzi wyłącznie o przechowywanie dźwięku, a nie instrukcji dla syntezatorów czy instrumentów. Co do pliku .mod, to jest to trochę pułapka – bo chociaż format ten był popularny na komputerach Amiga i bazuje na idei zlecania brzmień do odtwarzacza, to jednak zawiera również próbki dźwiękowe, z których buduje muzykę. MOD łączy sample i sekwencje nut, ale nie jest to zestaw suchych poleceń jak w MIDI, bo do odtworzenia potrzebny jest konkretny „silnik” odczytujący dane sample. Często spotykam się z tym, że ludzie myślą, że każdy format muzyczny automatycznie obsługuje sterowanie sprzętem – co nie jest prawdą. Tylko MIDI, czyli .mid, powstało typowo jako język komunikacji między urządzeniami muzycznymi. Tam nie ma ani kawałka dźwięku, tylko cała lista instrukcji, które mogą być wysyłane na żywo do syntezatora lub innych urządzeń. W praktyce wybierając inne formaty, jak .wav, .flac czy .mod, nie uzyskamy efektu sterowania brzmieniem zewnętrznych modułów czy elastycznego edytowania nut – a to przecież kluczowe w profesjonalnej pracy muzycznej czy programowaniu dźwięku. Warto o tym pamiętać, bo błędny wybór formatu może popsuć cały proces produkcji lub współpracy między sprzętem.

Pytanie 29

Która z wymienionych kart charakteryzuje się największą pojemnością maksymalną?

A. SDXC
B. SDHC
C. SD
D. SD A1
SDXC to obecnie najnowocześniejszy i najbardziej pojemny standard kart pamięci z rodziny Secure Digital. Co ciekawe, SDXC (czyli Secure Digital eXtended Capacity) pozwala na przechowywanie danych o pojemności od 32 GB do aż 2 TB, co jest ogromną różnicą w porównaniu do starszych rozwiązań takich jak SD czy SDHC. Moim zdaniem, praktyczne zastosowania SDXC są już wszędzie – od nowoczesnych kamer 4K, przez profesjonalne aparaty fotograficzne, aż do laptopów i konsol do gier. W branży multimedialnej to właściwie standard, bo duże pliki wideo, wysokiej rozdzielczości zdjęcia czy nawet gry potrzebują takiej pojemności. Warto też pamiętać, że SDXC wykorzystuje system plików exFAT, który nie ma ograniczeń co do rozmiaru pojedynczego pliku, w przeciwieństwie do FAT32 używanego w SDHC. W praktyce oznacza to, że można wrzucać pliki większe niż 4 GB bez żadnych kombinacji. Dobrą praktyką jest sprawdzanie, czy sprzęt obsługuje ten standard – starsze urządzenia często nie rozpoznają SDXC, bo wymagają nowszego firmware’u albo są po prostu ograniczone do SD lub SDHC. Z mojego doświadczenia wynika, że inwestycja w SDXC to rozsądny wybór na przyszłość, szczególnie jeśli ktoś planuje rozbudowę aparatu czy kamery, żeby nie martwić się o brak miejsca. Tak w skrócie, to właśnie dlatego SDXC wygrywa pod kątem maksymalnej pojemności.

Pytanie 30

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp3
B. *.mp4
C. *.m4p
D. *.m4a
Rozszerzenie *.mp4 to zdecydowanie najbardziej uniwersalny i powszechnie stosowany format do przechowywania zarówno ścieżek audio, jak i video. Format MP4 (MPEG-4 Part 14) bazuje na standardzie MPEG-4 i jest wspierany praktycznie we wszystkich nowoczesnych urządzeniach – od komputerów, przez smartfony, aż po telewizory Smart TV czy konsole do gier. Co ciekawe, *.mp4 pozwala nie tylko na zapis obrazu i dźwięku, ale też napisów czy metadanych, co przydaje się szczególnie przy produkcji filmów, klipów czy prezentacji multimedialnych. Z mojego doświadczenia, gdy klient prosi o plik zawierający zarówno wideo, jak i audio, to zawsze wybieram MP4 – praktycznie nie ma z nim problemów z kompatybilnością, nawet na starszych sprzętach. Standard ten jest szeroko rekomendowany przez organizacje branżowe, m.in. Moving Picture Experts Group. Czasem spotyka się pliki .avi czy .mkv, ale to MP4 faktycznie stał się złotym standardem dzięki kompresji, jakości i wszechstronności. W codziennej pracy z plikami multimedialnymi osobiście często korzystam z tego formatu, bo nie trzeba się bawić w konwersje i kombinować z kodekami. Moim zdaniem, jeśli ktoś chce mieć pewność, że jego wideo zadziała wszędzie – wybór jest oczywisty. Warto też pamiętać, że MP4 obsługuje różne kodeki (np. H.264, AAC), więc można uzyskać świetną jakość przy relatywnie małym rozmiarze pliku. Dla osób, które myślą o publikacji materiałów w internecie, MP4 to już praktycznie wymóg branżowy.

Pytanie 31

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. MIDI
B. INSTRUMENTS
C. AUDIO
D. AUX
Ścieżka AUX w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, jest od lat podstawą do obsługi efektów typu send/return, zwłaszcza pogłosów czy delayów. Wysyłka sygnału na AUX oznacza, że nie musisz instancjonować efektu pogłosowego osobno na każdej ścieżce – wystarczy jedna instancja pogłosu na AUX, a poszczególne kanały wysyłają do niej sygnał przez sendy. To nie tylko ułatwia miksowanie, ale też znacznie oszczędza zasoby komputera, bo nie kopiujesz tego samego efektu kilka razy. Bardzo często ustawia się tam też kompresory równoległe czy efekty modulacyjne, zależnie od potrzeb miksu. Moim zdaniem, to absolutna podstawa workflow w miksie – praktycznie każdy szanujący się realizator pracuje z AUX-ami. Daje to spójną przestrzeń pogłosową dla wszystkich ścieżek, co brzmi znacznie bardziej naturalnie. Warto też wiedzieć, że w nomenklaturze niektórych DAW AUX może być nazywany jako Bus lub Return, ale funkcja pozostaje ta sama. Dobrą praktyką branżową jest też zostawianie sobie kilku AUX-ów na różne typy pogłosów (np. krótszy na wokal, dłuższy na instrumenty). Taki routing pozwala mieć pełną kontrolę nad ilością efektu na każdej ścieżce i daje mega swobodę kreatywną w miksie.

Pytanie 32

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. VCA
B. BUS
C. AUX
D. MASTER
Wiele osób myli pojęcia BUS, VCA, AUX i MASTER, bo w teorii wszystkie wiążą się z przepływem sygnału w mikserze DAW. Jednak każda z tych szyn ma zupełnie inne zadanie. BUS kojarzy się z przesyłaniem sygnału, ale w praktyce to bardziej grupa, do której sumuje się sygnały z kilku ścieżek – typowo po to, żeby np. kontrolować całość bębnów jednym suwakiem lub poddać je wspólnej kompresji. Nie służy zwykle do wysyłania równoległego sygnału na efekty, tylko do zbiorczej obróbki grupowej. Z kolei VCA to zupełnie inna bajka – to rodzaj „wirtualnego” kontrolera głośności dla grupy ścieżek, ale nie jest fizycznym miejscem, gdzie sygnał się sumuje czy przechodzi. To tylko sterowanie poziomem, bez możliwości nakładania efektów na całą grupę przez wysyłkę. MASTER zaś to końcowa szyna sumująca, do której trafia cały miks, i tam raczej nie wysyła się sygnału na efekty równoległe, bo grozi to sprzężeniami czy zamieszaniem w miksie. Typowym błędem jest zakładanie, że do wszystkiego używa się BUS-ów, przez co czasem nakłada się efekty „w insertach” zamiast przez wysyłkę AUX, tracąc kontrolę nad proporcjami sygnałów i zużywając niepotrzebnie moc procesora. Z mojego doświadczenia wynika, że poprawne rozróżnienie tych szyn i stosowanie AUX-ów do efektów równoległych to podstawa profesjonalnego miksu. Pozwala to nie tylko lepiej kontrolować miks, ale też ułatwia późniejsze poprawki i automatyzacje. Dla większości efektów typu reverb czy delay AUX jest wręcz niezastąpiony, bo tylko tak można łatwo ustalić, ile tego efektu ma trafić z każdej ścieżki, bez ryzyka rozjechania się poziomów czy fazy.

Pytanie 33

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kluczowanie amplitudy.
B. Edycja panoramy.
C. Normalizacja.
D. Szerokopasmowa kompresja.
Normalizacja to w sumie bardzo praktyczna sprawa, zwłaszcza jeśli chodzi o obróbkę dźwięku w studiu czy nawet w domowych warunkach. Chodzi tutaj o to, żeby tak podnieść poziom nagrania, żeby jego najwyższy szczyt, czyli tzw. peak, osiągnął 0 dBFS (pełną skalę cyfrową). Normalizacja nie zmienia proporcji głośności między różnymi fragmentami nagrania, po prostu przesuwa całość do góry, aż najwyższy punkt zetknie się z maksymalnym dopuszczalnym poziomem w systemie cyfrowym. To jest szalenie ważne np. przy masteringu, żeby nagranie miało odpowiednią głośność, ale nie przesterowało. Moim zdaniem to taka trochę „podstawowa higiena” w pracy z audio. Często używa się tej operacji przed wysyłką utworu do streamingów albo do radia, bo wtedy mamy pewność, że nie przekroczymy zakresu dynamicznego systemu cyfrowego i nie powstaną brzydkie przestery. Warto pamiętać, że normalizacja nie zastępuje kompresji – ona po prostu podnosi całość, nie ściska dynamiki. Jeszcze taka ciekawostka – niektóre DAWy pozwalają wybrać, czy normalizujemy do peaku, czy do wartości RMS, ale w pytaniu chodziło właśnie o szczytowy poziom 0 dBFS, więc tu normalizacja jest jedyną poprawną opcją.

Pytanie 34

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|3|000
B. 1|1|000
C. 2|1|000
D. 1|2|000
Wybrałeś liczbę 1|3|000 i to właśnie ona pokazuje, gdzie jesteśmy po 2 sekundach od startu sesji w DAW przy tempie 120 bpm i metrum 4/4. W praktyce, jeśli tempo wynosi 120 uderzeń na minutę, to każda ćwierćnuta trwa pół sekundy. Metrum 4/4 oznacza, że w takcie są cztery ćwierćnuty, czyli jeden pełny takt trwa 2 sekundy. Po 2 sekundach od początku utworu znajdziesz się dokładnie na pierwszej ćwierćnucie trzeciego taktu (czyli 1|3|000). Warto zwrócić uwagę, że w DAW (jak np. Cubase, Pro Tools czy FL Studio) oznaczenie 1|3|000 odnosi się do pierwszej ćwiartki trzeciego taktu — bardzo przydaje się to przy ustawianiu punktów cięcia, automatyzacji albo loopów, szczególnie gdy pracujesz nad aranżacją i musisz precyzyjnie ustalić wejścia czy zakończenia fraz. Z doświadczenia powiem, że zrozumienie tych zależności między czasem rzeczywistym a oznaczeniami muzycznymi bardzo ułatwia współpracę z innymi muzykami i realizatorami, bo wszyscy mówią jednym językiem. Standardowo w branży liczy się właśnie w taktach i uderzeniach, a nie sekundach, więc taka matematyka pozwala lepiej planować przejścia czy zmiany tempa. W codziennej pracy z DAW bardzo często przeliczam sobie sekundy na takty, żeby sprawdzić, gdzie np. ma wejść break albo zmiana dynamiki.

Pytanie 35

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Freeze.
C. Fade out.
D. Mute.
Fade out to pojęcie szeroko wykorzystywane w branży muzycznej, filmowej i dźwiękowej, które oznacza stopniowe wyciszanie dźwięku aż do całkowitej ciszy. Moim zdaniem to bardzo przydatna technika zarówno w miksie audio, jak i w montażu wideo, bo pozwala płynnie zakończyć utwór lub fragment nagrania, nie pozostawiając słuchacza z nagłym urwaniem. Z mojego doświadczenia wynika, że fade out wykorzystuje się często przy końcówkach piosenek, kiedy nie planuje się konkretnej kulminacji, tylko dyskretny koniec. W programach typu DAW (Digital Audio Workstation), takich jak Ableton Live, Pro Tools czy Cubase, standardem jest, by ścieżki audio kończyć właśnie fade outem, zamiast brutalnego cięcia. Z perspektywy słuchacza daje to poczucie profesjonalizmu i dbałości o szczegóły. Dobre praktyki branżowe sugerują, żeby fade out był odpowiednio długi – przeważnie od kilku do nawet kilkunastu sekund, w zależności od gatunku i charakteru utworu. Ciekawe jest to, że fade out może być liniowy (stała prędkość wyciszania) lub wykorzystywać krzywe logarytmiczne, co pozwala uzyskać bardziej naturalny, „ludzki” efekt. Warto wiedzieć, że fade out stosuje się też w efektach dźwiękowych do filmów, by nie było nienaturalnych „kliknięć” przy nagłych ucięciach dźwięku. Jest to technika, której nie da się przecenić w pracy z dźwiękiem – osobiście uważam ją za obowiązkową praktykę w większości projektów audio.

Pytanie 36

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-RW
B. DVD+R DL
C. DVD+R
D. DVD-R
Płyta DVD-RW to rzeczywiście nośnik wielokrotnego zapisu, czyli taki, na którym można zapisywać i kasować dane naprawdę wiele razy, dopóki się płyta fizycznie nie zużyje. W praktyce oznacza to, że można na niej nagrać film, potem go usunąć i wgrać coś zupełnie innego – trochę jak z pamięcią USB, tylko oczywiście wolniej i mniej wygodnie. W branży informatycznej DVD-RW często bywały wykorzystywane do testowania kopii zapasowych lub do przenoszenia dużych plików pomiędzy komputerami w czasach, gdy dyski twarde były jeszcze dość małe, a pendrive’y dopiero raczkowały. Nośniki RW (czyli ReWritable) są zgodne z odpowiednimi standardami DVD Forum, a oznaczenie „RW” zawsze sugeruje możliwość wielokrotnego wykorzystania. Fajną sprawą jest to, że takie płyty przydają się np. przy archiwizacji danych firmowych, gdzie co tydzień nadpisuje się backup. Moim zdaniem znajomość różnic pomiędzy DVD-R, DVD+R i DVD-RW to absolutna podstawa dla każdego, kto kiedykolwiek miał do czynienia z nośnikami optycznymi w praktyce – szczególnie, że na pierwszy rzut oka wyglądają identycznie. Branżowo, warto wiedzieć: do archiwów lepiej wykorzystać DVD-R lub DVD+R, a do testów czy transportu – właśnie DVD-RW. Reasumując: DVD-RW daje swobodę wielokrotnego użycia, co znacząco różni ją od wersji jednokrotnego zapisu.

Pytanie 37

Która z funkcji dostępnych w sesji montażowej programu DAW umożliwia efekt płynnego przejścia między dwoma fragmentami nagrania ułożonymi na tej samej ścieżce?

A. Detect transient.
B. Overlap.
C. Slide.
D. Cross-fade.
Właśnie o to chodzi w cross-fade! Ta funkcja jest jednym z najczęściej używanych narzędzi podczas montażu audio w DAW-ach, takich jak Ableton Live, Cubase czy Pro Tools. Cross-fade polega na równoczesnym wygaszaniu końcówki pierwszego fragmentu i narastaniu początku drugiego, co pozwala na uzyskanie płynnego, niemalże niewyczuwalnego przejścia między dwoma nagraniami na tej samej ścieżce. Dzięki temu unikamy charakterystycznych kliknięć, nagłych skoków głośności albo nienaturalnych zmian brzmienia, które mogą powstać przy zwykłym sklejeniu plików. Z mojego doświadczenia przy obróbce wokali czy gitar cross-fade jest absolutnie nie do przecenienia – pozwala zatuszować wszelkie drobne nierówności albo pokryć przejścia, które bez tego byłyby po prostu słyszalne jako cięcia. Branżowym standardem jest zawsze stosować cross-fady tam, gdzie łączymy dwa fragmenty tej samej partii – to nie tylko wygoda, ale i profesjonalizm, bo słuchacz nie ma prawa zauważyć, że cokolwiek było edytowane. Warto wspomnieć, że DAW-y często pozwalają regulować kształt krzywej cross-fade (np. liniowa, logarytmiczna, S-curve), co dodatkowo daje kontrolę nad charakterem przejścia. Takie narzędzie to podstawa warsztatu montażysty audio, niezależnie od stylu muzycznego czy poziomu zaawansowania.

Pytanie 38

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Unloop Region.
B. Split Clip.
C. Loop Region.
D. Clip Group.
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 39

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. ORG
B. LEAD
C. VOX
D. RHYTHM
W branży muzycznej, zwłaszcza podczas realizacji nagrań w studiu, określenie "LEAD" na liście montażowej odnosi się do instrumentu prowadzącego, czyli w tym przypadku gitary prowadzącej. To właśnie ten ślad odpowiada za partie solowe, riffy i różnego rodzaju melodie, które wysuwają się na pierwszy plan miksu. Moim zdaniem, znajomość tego typu oznaczeń jest absolutnie podstawowa, bo pozwala sprawnie komunikować się w zespole realizatorskim i nie pogubić się podczas pracy na sesjach wielośladowych. W praktyce, kiedy inżynier dźwięku dostaje sesję nagraniową, od razu wie, że ślad "LEAD" to właśnie gitara, która gra solówki czy partie charakterystyczne, a nie na przykład rytmikę czy akordy pod wokalem. Standardy takie funkcjonują nie tylko w muzyce rozrywkowej, ale i w innych gatunkach – lead guitar, lead vocal to po prostu utarte, uniwersalne określenia. Dobrą praktyką jest zawsze stosowanie takich jasnych, krótkich oznaczeń w dokumentacji oraz w DAW, bo to skraca czas edycji i miksu. Z mojego doświadczenia wynika, że błędne oznaczenie śladów potrafi zdezorganizować całą pracę. LEAD zawsze oznacza ślad przewodni, przyciągający uwagę słuchacza.

Pytanie 40

W którym z formatów należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .mpeg
B. .aup
C. .rmvb
D. .omf
Format .omf (Open Media Framework) to taki trochę złoty standard, jeśli chodzi o przenoszenie projektów między różnymi programami DAW – czyli Digital Audio Workstation. W praktyce oznacza to, że sesję, którą np. zaczniesz w Pro Tools, możesz potem otworzyć w Cubase czy Nuendo, o ile oba programy wspierają OMF. Z mojego doświadczenia to mega przyspiesza współpracę między studiem dźwiękowym a montażystą filmowym albo producentem muzycznym, bo nie musisz eksportować każdego śladu osobno i ręcznie synchronizować wszystkiego od zera. OMF umożliwia przeniesienie nie tylko samych plików audio, ale również podstawowych ustawień ścieżek czy cięć, co w pracy zawodowej bywa wręcz zbawienne. Moim zdaniem, każdy, kto planuje zawodowo zajmować się produkcją audio czy postprodukcją, powinien znać ten format i umieć z niego korzystać. To jest taka dobra praktyka branżowa, żeby zawsze mieć kopię sesji w OMF, bo nigdy nie wiadomo, na czym przyjdzie Ci pracować albo komu będzie trzeba przesłać projekt. Warto też wiedzieć, że są nowsze formaty jak AAF, ale OMF dalej jest bardzo powszechny i każdy szanujący się DAW go obsługuje – przynajmniej w wersji podstawowej.