Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 11 marca 2026 08:34
  • Data zakończenia: 11 marca 2026 08:50

Egzamin niezdany

Wynik: 17/40 punktów (42,5%)

Wymagane minimum: 20 punktów (50%)

Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Które z wymienionych określeń oznacza proces ustalania proporcji głośności dźwięku pomiędzy poszczególnymi ścieżkami w wielośladowej sesji montażowej programu DAW?

A. Recording.
B. Mixing.
C. Fading.
D. Overdubbing.
Każde z tych określeń dotyczy innego etapu produkcji dźwiękowej i łatwo się tu pomylić, bo z pozoru wszystkie brzmią "profesjonalnie". Recording to po prostu nagrywanie dźwięku – chwytanie sygnału z mikrofonu czy instrumentu do ścieżki w DAW, bez żadnej ingerencji w proporcje głośności innych śladów. To taki fundament, ale jeszcze nie etap, gdzie decyduje się o relacjach między elementami miksu. Overdubbing z kolei to technika dogrywania nowych partii na już istniejące ścieżki – typowe przy produkcji muzycznej, ale to raczej "dodawanie warstw" niż mieszanie ich głośności. Fading natomiast dotyczy regulowania narastania lub wygaszania dźwięku w czasie – jest stosowany raczej punktowo, np. przy końcówkach utworów, a nie do całościowego ustalania proporcji. Z mojego doświadczenia wielu początkujących skupia się na pojedynczych ścieżkach, zamiast spojrzeć szerzej na całą sesję i właśnie dlatego mylą mixing z np. recordingiem. Faktycznie, często spotykam się z przekonaniem, że samo nagranie dobrego wokalu czy dogranie kilku partii wystarczy, by utwór zabrzmiał dobrze – a to właśnie miksowanie nadaje całości ostateczny kształt. Branżowe standardy jasno rozdzielają te etapy: najpierw nagrania i overdubbingi, potem faza mixing, a na końcu mastering. Dobre praktyki wskazują, żeby nie pomijać żadnego z nich, ale kluczowe dla pytania jest rozumienie, że tylko mixing polega na świadomym ustawianiu proporcji głośności między ścieżkami. Jeśli się o tym zapomni, to nawet najlepsze nagranie zabrzmi po prostu "płasko" albo chaotycznie.

Pytanie 2

Która z wymienionych funkcji w sesji oprogramowania DAW służy do skokowego wyciszenia dźwięku na ścieżce?

A. SOLO
B. ON
C. MUTE
D. FADE IN
MUTE to absolutna podstawa w każdej sesji DAW, jeżeli chodzi o szybkie i skuteczne wyciszanie ścieżek. Przycisk ten działa praktycznie natychmiastowo – po jego naciśnięciu dźwięk z danej ścieżki znika z miksu bez żadnego stopniowego ściszania czy jakiegoś efektu przejścia. W praktyce realizatorskiej bardzo często korzysta się z MUTE, żeby na przykład sprawdzić, jak dany element utworu (np. wokal, perkusja albo konkretna gitara) wpływa na całość miksu. To też niezastąpione rozwiązanie, kiedy trzeba na moment usunąć problematyczną ścieżkę, którą chcemy naprawić albo z edytować bez jej odsłuchu. Co ciekawe, w profesjonalnych studiach i podczas pracy live MUTE bywa używany nawet automatycznie, na przykład za pomocą automatyki w DAW, żeby „wycinać” ścieżki w określonych miejscach aranżu – bardzo wygodne przy bardziej złożonych produkcjach. Z mojego doświadczenia, szybkie opanowanie korzystania z MUTE pozwala naprawdę sprawniej zarządzać złożonym projektem, bo nie musisz grzebać w poziomach głośności czy automatyce dla prostej czynności wyciszenia. Warto pamiętać, że to rozwiązanie jest uniwersalne – znajdziesz je praktycznie w każdej cyfrowej stacji roboczej, od prostych programów po profesjonalne platformy studyjne. Moim zdaniem to jeden z najważniejszych i najbardziej oczywistych przycisków w całym DAW, bez którego trudno sobie wyobrazić płynną pracę.

Pytanie 3

Tryb Snap to frames powoduje przyciąganie przesuwanego regionu na ścieżce w sesji programu DAW do siatki

A. taktów.
B. klatek.
C. próbek.
D. sekund.
Snap to frames w programach DAW często bywa mylony ze snapowaniem do innych jednostek czasu, jak sekundy, próbki czy takty. To całkiem powszechna pomyłka, bo na pierwszy rzut oka wszystko wydaje się być kwestią podziału czasu, ale w praktyce każda z tych opcji służy trochę innym celom. Sekundy jako siatka czasowa są dość uniwersalne, ale przy montażu audio-wideo rzadko używa się ich bezpośrednio do precyzyjnego ustawiania regionów – synchronizacja do sekundy nie pozwoli na dokładne dopasowanie do obrazu, bo większość wideo ma podział na 24, 25 lub 30 klatek na sekundę, a przesunięcia poniżej sekundy są wtedy krytyczne. Próbki (samples) to już bardzo precyzyjna jednostka – szczególnie ważna dla inżynierów dźwięku podczas masteringu czy edycji mikrodetali, jak kliknięcia lub faza sygnału, ale w pracy z filmem próbki są zbyt szczegółowe i mogą prowadzić do rozjazdu synchronizacji z obrazem, bo te dwie domeny często mają zupełnie inne siatki czasowe (audio to np. 44100 próbek na sekundę, a wideo – 25 klatek). Takty (bars) natomiast sprawdzają się w muzyce, szczególnie gdy chodzi o aranżację utworu, loopowanie czy edycję w stylu elektronicznym, ale kompletnie nie przystają do pracy z montażem filmowym, bo tempo muzyki i podział taktowy nie mają nic wspólnego z klatkami w obrazie. W mojej opinii to takie właśnie przełączanie snapowania – bez przemyślenia, czy faktycznie pasuje ono do kontekstu projektu – prowadzi do większości błędów synchronizacyjnych i frustracji na późniejszych etapach pracy. Dlatego do synchronizacji wideo kluczowe jest ustawienie snapowania na klatki (frames), żeby przesuwane elementy na ścieżce DAW zawsze wskakiwały dokładnie do granic klatek filmu. To jest standard branżowy, praktykowany w każdym profesjonalnym studiu zajmującym się postprodukcją filmową czy sound designem. Warto o tym pamiętać i zawsze weryfikować, z jaką siatką czasową aktualnie pracujemy.

Pytanie 4

Którego z wymienionych analizatorów używa się standardowo do wzrokowej kontroli poziomu nagrania?

A. Level Meter
B. Oscilloscope
C. Spectrum Analyzer
D. Phase Scope
Level Meter to absolutny standard, jeśli chodzi o wzrokową kontrolę poziomu nagrania w praktyce studyjnej czy podczas nagrań na żywo. Ten analizator jest wręcz podstawowym narzędziem realizatora dźwięku – w zasadzie trudno wyobrazić sobie bez niego poprawne ustawienie gainu czy uniknięcie przesterowania. Level Meter pokazuje poziom sygnału w decybelach (zazwyczaj dBFS w systemach cyfrowych albo dBu/dBV w analogowych), co pozwala szybko ocenić, czy nagranie mieści się w bezpiecznym zakresie, a jednocześnie nie jest za cicho. Najczęściej spotyka się mierniki typu peak (szczytowe) oraz RMS (średnie), a profesjonalne konsole czy interfejsy DAW oferują obie opcje. W teorii powinno się pilnować, by nie przekraczać 0 dBFS w systemie cyfrowym – to już jest granica przesterowania. Moim zdaniem, korzystanie z Level Meter to nie tylko dobra praktyka, ale wręcz konieczność w dzisiejszej produkcji audio. Warto też zwracać uwagę na ballistykę wskaźnika – niektóre metery są wolniejsze, przez co pokazują bardziej uśredniony poziom (np. VU Meter), a inne błyskawicznie pokazują piki. W studiach radiowych czy telewizyjnych Level Metery to podstawa workflow, a w większości DAW-ów są one domyślnie zaimplementowane na każdym kanale. Jeśli chcesz pracować jak zawodowiec, zawsze miej oko na Level Meter – to naprawdę oszczędza wiele nerwów i problemów przy miksie czy masteringu.

Pytanie 5

Do zmiany szybkości zadziałania kompresji w procesorze dynamiki służy parametr

A. ratio.
B. threshold.
C. knee.
D. attack.
Parametr attack w kompresorze dynamiki to absolutny fundament, jeśli chodzi o szybką reakcję urządzenia na przekroczenie ustalonego progu sygnału, czyli threshold. Mówiąc po ludzku, attack decyduje o tym, jak szybko kompresor zacznie ściszać sygnał od momentu, gdy jego poziom przekroczy threshold. To kluczowe w praktyce – na przykład przy nagrywaniu perkusji czy wokalu. Jeśli ustawisz bardzo krótki czas attack (np. 1 ms), kompresor niemal natychmiast zareaguje na transient, czyli te szybkie piki głośności, wygładzając je, ale jednocześnie może spłaszczyć naturalną dynamikę czy wręcz „zabić” punch instrumentu. Zbyt długi attack spowoduje, że pierwsza faza sygnału przedostanie się przez kompresor bez większego tłumienia – czasem to się przydaje, np. żeby zachować energię bębna, ale w innych sytuacjach może zostawiać za dużo niekontrolowanych skoków. W praktyce, dobór odpowiedniego attack to zawsze balans między zachowaniem naturalności a kontrolą nad miksem. Warto eksperymentować i sprawdzać, jak reagują różne źródła dźwięku. W branży przyjmuje się, że ustawienie attack w przedziale od kilku do kilkudziesięciu milisekund daje największą kontrolę i zachowuje charakter instrumentu. Moim zdaniem, umiejętność właściwego wykorzystania attack to jedna z najważniejszych rzeczy przy pracy z kompresją i naprawdę warto się nad tym pochylić solidnie.

Pytanie 6

Zastosowanie opcji Interleaved w sesji spowoduje zapis

A. do jednego pliku kanałów na ścieżkach stereo.
B. kanału lewego i prawego miksu do niezależnych plików.
C. do niezależnych plików kanałów lewego i prawego ścieżki stereo.
D. kanałów lewego i prawego ścieżki stereo do pliku mono.
Często można spotkać się z nieporozumieniem dotyczącym zapisu ścieżek stereo i opcji Interleaved. Zapis kanałów lewego i prawego ścieżki stereo do pliku mono pozbawia utwór przestrzenności – mix staje się płaski, a wszystkie efekty panoramowania czy szerokość stereo po prostu znikają. To błąd na poziomie zrozumienia działania miksu, bo mono to pojedynczy kanał – jeśli wrzucisz tam oba kanały stereo, tracisz cały efekt stereo. Równie błędne jest założenie, że Interleaved powoduje zapis każdego kanału miksu do osobnych plików – to właściwie odwrotność tej funkcji. Taki sposób pracy, znany jako 'Split', generuje dwa pliki: jeden dla kanału lewego, drugi dla prawego. Z mojego doświadczenia wynika, że to potrafi narobić problemów przy późniejszym imporcie, bo nie każda aplikacja poprawnie rozpozna, która ścieżka jest lewa, a która prawa – szczególnie jak zmieni się nazewnictwo plików. Jeszcze inny błąd to wyobrażenie, że Interleaved oznacza zapis całkowicie niezależnych plików dla każdego kanału – to już kompletny brak zrozumienia, bo wtedy wracamy do archaicznych metod pracy, które obecnie są praktycznie niespotykane w profesjonalnym środowisku, gdzie liczy się szybkość działania i spójność danych. Moim zdaniem, takie błędy wynikają najczęściej z braku praktyki przy eksporcie projektów lub niewiedzy na temat formatów plików audio, co niestety później prowadzi do problemów z kompatybilnością i stratą czasu na poprawki. Warto więc pamiętać, że Interleaved to po prostu zapis stereo w jednym pliku – to nie tylko standard branżowy, ale i zdrowy rozsądek w codziennej pracy z dźwiękiem.

Pytanie 7

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podkówkowych?

A. 4 ścieżki.
B. 3 ścieżki.
C. 2 ścieżki.
D. 1 ścieżkę.
Właściwe przygotowanie sesji w DAW pod kątem liczby ścieżek monofonicznych wynika bezpośrednio z liczby użytych mikrofonów i zastosowanej techniki rejestracji. W tym przypadku technika XY oznacza dwa mikrofony, każdy zbiera sygnał monofoniczny, a razem pozwalają uzyskać obraz stereo. Często błędnie zakłada się, że taki układ powinien być traktowany jako jedna ścieżka stereo, co może prowadzić do utraty kontroli nad poszczególnymi kanałami, a w konsekwencji do ograniczenia możliwości podczas miksu. Podobny błąd pojawia się przy założeniu, że dwa mikrofony podkówkowe wystarczy zsumować do jednej ścieżki, ale w praktyce każda kapsuła mikrofonu powinna mieć swój osobny tor nagraniowy w DAW, żeby móc niezależnie obrabiać ich sygnały. Ograniczenie się do jednej, dwóch czy nawet trzech ścieżek wynika z przekonania, że mniej ścieżek to prostszy montaż, lecz jest to droga na skróty, która w rzeczywistości komplikuje sprawę na późniejszym etapie obróbki dźwięku. Odpowiednia separacja sygnałów pozwala nie tylko na precyzyjne ustawienie panoramy czy poziomów, ale też umożliwia stosowanie różnych efektów, korekcji czy automatyki głośności dla każdego mikrofonu osobno. Przeważnie spotyka się, że w profesjonalnych warunkach każda linia mikrofonowa trafia na własną ścieżkę w DAW – to ułatwia zarówno montaż, jak i ewentualne poprawki czy edycję. Typowym błędem jest też myślenie, że miksy stereo czy sumowanie ścieżek powinno odbywać się już na etapie nagrania – jednak standardy branżowe wskazują, że to montaż w DAW jest optymalnym miejscem na takie decyzje. Z mojego punktu widzenia to po prostu kwestia profesjonalizmu i wygody – osobne ścieżki dla każdego mikrofonu są podstawą sensownego workflow w pracy z nagraniami chóralnymi i w każdej poważnej realizacji audio.

Pytanie 8

W produkcji dźwiękowej pod obraz, synchronizacja dźwięku i obrazu jest realizowana za pomocą kodu

A. MTC
B. MIDI Clock
C. LTC
D. SMPTE
Kod SMPTE to w praktyce absolutny fundament, jeśli chodzi o profesjonalną synchronizację dźwięku i obrazu w produkcjach filmowych czy telewizyjnych. Pozwala on na precyzyjne określenie czasu w formacie godzina:minuta:sekunda:klatka, co jest po prostu nie do zastąpienia, gdy trzeba zgrać ścieżki dźwiękowe z poszczególnymi ujęciami wideo. W branży praktycznie wszystko opiera się na SMPTE, bo to właśnie ten standard jest rozpoznawalny przez oprogramowanie do montażu, miksery, rejestratory, a nawet sprzęt do efektów specjalnych. Co ciekawe, SMPTE występuje zarówno jako zapis cyfrowy, jak i analogowy (np. jako sygnał audio na jednej ze ścieżek taśmy), więc daje sporo elastyczności. Można powiedzieć, że bez SMPTE nie byłoby możliwe powtarzalne, profesjonalne łączenie audio i wideo, bo inne systemy są po prostu mniej dokładne albo służą do czegoś zupełnie innego. Z mojego doświadczenia wynika, że jeśli ktoś poważnie podchodzi do postprodukcji, to kod SMPTE zna i rozumie bardzo dobrze – bo to podstawa workflow. Przykład z życia: podczas montażu filmu nawet niewielkie przesunięcie dźwięku względem obrazu psuje cały efekt, więc kod SMPTE gwarantuje spokój ducha i techniczną pewność, że wszystko się zgadza co do klatki.

Pytanie 9

Maksymalna częstotliwość próbkowania obsługiwana przez współczesne interfejsy audio to

A. 192 kHz
B. 48 kHz
C. 384 kHz
D. 96 kHz
Wiele osób uważa, że zakresy 48 kHz, 96 kHz czy nawet 192 kHz to maksimum, jakie da się wycisnąć z nowoczesnych interfejsów audio, bo są to wartości bardzo często spotykane w codziennej pracy z dźwiękiem. Jednak branża rozwija się bardzo szybko i coraz częściej na rynku pojawiają się interfejsy, które obsługują próbkowanie aż do 384 kHz. Myślę, że częsty błąd to utożsamianie standardów używanych w studiu (np. 48 kHz w produkcji wideo albo 44,1 kHz na CD) z faktycznymi możliwościami sprzętu – a przecież interfejsy często oferują dużo wyższe wartości, żeby zapewnić rezerwę jakościową, szczególnie w kontekście profesjonalnej rejestracji czy zaawansowanej postprodukcji. Warto pamiętać, że wyższa częstotliwość próbkowania nie zawsze oznacza lepsze brzmienie dla ludzkiego ucha, bo po przekroczeniu pewnej granicy różnice są minimalne lub wręcz niesłyszalne, ale chodzi tu o techniczne możliwości i elastyczność pracy. Osobiście spotkałem się z przekonaniem, że 192 kHz to już „kosmos” i nikt więcej nie potrzebuje, ale coraz więcej interfejsów, szczególnie tych przeznaczonych dla wymagających użytkowników, pozwala na 384 kHz. To nie jest jeszcze nowy standard rynkowy, tylko raczej opcja dla tych, którzy chcą nagrywać w najwyższej możliwej rozdzielczości – np. do archiwizacji materiałów albo eksperymentów dźwiękowych. Takie wartości są już w normach AES i innych organizacji branżowych, choć w praktyce wystarczają mniejsze próbkowania. Chociaż więc 48, 96 i 192 kHz są najbardziej wykorzystywane, to nie odpowiadają współczesnym możliwościom sprzętu na najwyższym poziomie. Sugerowanie się tylko najpopularniejszymi ustawieniami prowadzi do błędnego przekonania o ograniczeniach technologicznych, które w rzeczywistości są znacznie szersze.

Pytanie 10

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kompresja.
B. Korekcja.
C. Transpozycja.
D. Normalizacja.
Każda z wymienionych operacji ma swoje konkretne zastosowanie w pracy z dźwiękiem, ale tylko jedna z nich faktycznie ustawia maksymalny poziom nagrania do 0 dBFS. Korekcja kojarzy się głównie z equalizacją, czyli zmianą charakterystyki częstotliwościowej – polega na podbijaniu lub tłumieniu wybranych pasm, ale absolutnie nie wpływa na szczytowy poziom całego nagrania jako takiego. Często można spotkać się z błędnym przekonaniem, że wystarczy „poprawić korekcję”, żeby nagranie było głośniejsze, ale to tak nie działa – zmieniamy wtedy tylko barwę, a nie ogólny poziom sygnału. Kompresja natomiast to narzędzie służące do kontrolowania dynamiki – jej zadaniem jest zmniejszanie różnicy między najcichszymi i najgłośniejszymi fragmentami, przez co nagranie może się wydawać głośniejsze w odbiorze, ale nie gwarantuje osiągnięcia 0 dBFS na szczycie. W praktyce kompresor nie podnosi automatycznie całości nagrania, a raczej „ściska” wybrane fragmenty powyżej progu ustawionego przez realizatora dźwięku. Łatwo tu popełnić błąd i myśleć, że kompresja to to samo co normalizacja, bo oba procesy mogą wpływać na subiektywną głośność, ale technicznie to zupełnie coś innego. Transpozycja natomiast dotyczy zmiany wysokości dźwięku, czyli przesuwania go w górę lub dół o określone interwały – ten zabieg nie ma żadnego wpływu na wartości szczytowe poziomu sygnału, a jedynie na tonację i charakter brzmieniowy. Wydaje mi się, że czasami można się pogubić z tymi terminami, bo dużo narzędzi w DAW-ach oferuje je „tuż obok siebie”, ale każde z nich służy kompletnie innemu celowi. W branży audio bardzo ważne jest, żeby rozumieć te subtelne różnice, bo tylko wtedy da się świadomie panować nad produktem finalnym. W skrócie: korekcja zmienia barwę, kompresja kontroluje dynamikę, transpozycja zmienia tonację, a tylko normalizacja precyzyjnie ustawia poziom szczytowy na 0 dBFS.

Pytanie 11

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Crossfade
B. Cut
C. Invert
D. Gain
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 12

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. Noise Reduction
B. Downsampling
C. De-crackle
D. De-click
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 13

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. MUTE
B. SOLO
C. INPUT
D. RECORD
Wybór innych opcji niż SOLO może wynikać z pewnych niejasności dotyczących funkcjonalności ścieżek w DAW, co zresztą jest dość częste podczas nauki obsługi takich programów. Przykładowo, MUTE wydaje się na pierwszy rzut oka podobny, bo w końcu wycisza dźwięk – ale robi to odwrotnie niż SOLO, czyli zamiast skupić się na jednej ścieżce, wyłącza ją, zostawiając resztę miksu bez niej. To typowy błąd myślowy: można uznać, że odcięcie jednej ścieżki pozwoli się skupić na pozostałych, lecz to nie odpowiada na potrzebę skoncentrowania się na pojedynczym brzmieniu. INPUT natomiast dotyczy monitorowania sygnału wejściowego, czyli pozwala usłyszeć to, co wpada do ścieżki z mikrofonu lub instrumentu w czasie rzeczywistym, ale nie służy do odtwarzania nagranego już materiału – to rozwiązanie bardziej dla nagrywających, nie miksujących. RECORD aktywuje nagrywanie ścieżki, co jest niezbędne przy rejestracji nowych dźwięków, natomiast nie ma żadnego wpływu na odsłuchanie istniejącego materiału. To też częsty błąd: zakłada się, że klikając RECORD, jakoś "podsłuchamy" ścieżkę, a to po prostu przygotowuje ją do zapisu. W praktyce, gdy celem jest szybkie wyizolowanie pojedynczej ścieżki i jej dokładne przeanalizowanie, tylko funkcja SOLO realizuje to zadanie zgodnie ze standardami pracy w studiu. Nieumiejętne korzystanie z innych opcji często prowadzi do bałaganu w miksie lub niepotrzebnych frustracji. Z mojego doświadczenia warto od razu przyswoić sobie różnice między tymi funkcjami, bo oszczędza to sporo czasu i nerwów na dalszym etapie produkcji.

Pytanie 14

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 250 Hz – 999 Hz
B. 1 000 Hz – 1 999 Hz
C. 2 000 Hz – 20 000 Hz
D. 20 Hz – 249 Hz
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 15

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Edycja panoramy.
B. Kluczowanie amplitudy.
C. Szerokopasmowa kompresja.
D. Normalizacja.
Moim zdaniem, łatwo się pomylić przy tego typu pytaniach, bo nazwy narzędzi w audio często brzmią podobnie, a ich funkcje mocno się różnią. Edycja panoramy polega na rozkładaniu dźwięku w przestrzeni stereo – przesuwamy źródło dźwięku w lewo lub prawo, ale nie wpływa to zupełnie na poziom głośności sygnału czy jego wartości szczytowe. Jeśli ktoś myśli, że panorama coś zmienia w peaku, to chyba przez skojarzenie, że coś „przesuwamy” – ale dotyczy to przestrzeni, nie amplitudy. Kluczowanie amplitudy (czyli użycie tzw. „gatingu” lub bardziej zaawansowanych technik keyingu) służy do wycinania niechcianych fragmentów sygnału, najczęściej tych o niskiej głośności. To narzędzie do kontroli tego, które fragmenty dźwięku będą przepuszczane dalej, a nie do podnoszenia całego nagrania pod względem poziomu szczytowego. Z kolei szerokopasmowa kompresja to zupełnie inna bajka – kompresor zmniejsza zakres dynamiki sygnału, czyli ściska różnice między najcichszymi i najgłośniejszymi fragmentami, ale nie gwarantuje, że szczyt osiągnie dokładnie 0 dBFS. Kompresor wręcz często wymaga dodatkowego podbicia gainu (tzw. make-up gain), żeby po kompresji uzyskać wyższy poziom, ale to nie to samo, co automatyczne ustawienie peaku na maksimum. Z mojego doświadczenia, sporo osób myli te procesy, bo wszystkie jakoś „wpływają” na sygnał, ale klucz tkwi w szczegółach – tylko normalizacja robi to precyzyjnie pod kątem szczytu 0 dBFS i nie zmienia relacji dynamicznych wewnątrz nagrania. Warto to sobie raz wyjaśnić i mieć uporządkowane, bo takie pomyłki przy miksie czy masteringu prowadzą potem do różnych niespodzianek z głośnością nagrania.

Pytanie 16

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 22 000 Hz, 128 kbps
B. 44 100 Hz, 160 kbps
C. 44 100 Hz, 96 kbps
D. 48 000 Hz, 128 kbps
Wybór parametrów 44 100 Hz i 96 kbps to bardzo rozsądna opcja, jeśli zależy Ci na minimalnym rozmiarze pliku mp3. Kluczowe jest tutaj zrozumienie dwóch rzeczy: częstotliwości próbkowania (czyli 44 100 Hz, co jest standardem dla płyt CD) oraz przepływności bitowej – w tym przypadku 96 kbps. To właśnie bitrate, czyli ilość kilobitów na sekundę, najbardziej wpływa na wagę końcowego pliku. Im niższy bitrate, tym mniej danych jest zapisywanych na sekundę dźwięku, więc sam plik jest mniejszy. Przy 44 100 Hz zachowujemy przyzwoitą jakość dźwięku, a 96 kbps to już taki dość niski bitrate – stosowany często w podcastach albo tam, gdzie liczy się objętość pliku. Z mojego doświadczenia, jeśli komuś zależy na bardzo małym pliku (np. do wysyłki e-mailem albo na starą mp3-kę z małą kartą pamięci), to właśnie taka kombinacja jest najczęściej wybierana. Branżowo rzecz biorąc, przy 44 100 Hz/96 kbps dźwięk jest już wyraźnie skompresowany, ale wciąż nadaje się do słuchania w tle, a pliki są naprawdę lekkie. Warto pamiętać, że jeszcze niższe parametry mocno psują jakość i raczej nie są zalecane. Generalnie, jeśli ktoś pyta o najmniejszy rozmiar mp3, to zawsze trzeba patrzeć przede wszystkim na bitrate – a tutaj 96 kbps wygrywa z pozostałymi opcjami.

Pytanie 17

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Distortion
C. Modulation
D. Reverbs
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 18

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 96 kHz, 8 bitów.
B. .wav, 192 kHz, 8 bitów.
C. .aiff, 96 kHz, 16 bitów.
D. .aiff, 48 kHz, 16 bitów.
Wybierając parametry pliku do cyfrowego zapisu dźwięku, łatwo wpaść w pułapkę myślenia, że dowolny wzrost jednej wartości (np. częstotliwości próbkowania) zawsze skutkuje lepszą jakością, a format pliku jest mniej istotny. Jednak to nie do końca tak działa. Plik .wav z próbkowaniem 96 kHz, ale tylko 8 bitów, może wyglądać atrakcyjnie na pierwszy rzut oka, bo 96 kHz to już poziom profesjonalny, tyle że 8 bitów to bardzo niska rozdzielczość. Efekt? Drastycznie ograniczona dynamika sygnału (tylko 256 poziomów kwantyzacji), co w praktyce daje dźwięk mocno zniekształcony i ziarnisty, kompletnie nieprzydatny w zastosowaniach studyjnych czy archiwizacyjnych. Z kolei pliki .aiff lub .wav z nawet ekstremalnie wysokim próbkowaniem (jak 192 kHz), ale również tylko 8 bitami, będą miały ten sam problem – szerokie pasmo, ale tragicznie niską jakość odwzorowania amplitudy. 16 bitów to absolutne minimum dla profesjonalnego dźwięku, a 8 bitów sprawdza się co najwyżej w bardzo prostych zastosowaniach, np. do generowania efektów dźwiękowych w retro grach czy urządzeniach o bardzo ograniczonych zasobach. Z kolei opcja 48 kHz przy 16 bitach (w .aiff) to już standard stosowany np. w produkcji wideo czy sprzęcie broadcastowym, ale nie daje aż takiej szczegółowości jak 96 kHz, która jest oczekiwana przy pracy z materiałem do masteringu czy archiwizacji. Trzeba mieć na uwadze, że dobry format (nieskompresowany, bezstratny), wysoka częstotliwość próbkowania oraz odpowiednia głębia bitowa muszą iść ze sobą w parze – nie wystarczy tylko wybrać jeden z tych parametrów na wysokim poziomie. Moim zdaniem najczęstszy błąd to niedocenianie znaczenia bitów, bo to od nich zależy naturalność i głębia dźwięku – nawet genialnie wysokie próbkowanie nie uratuje kiepskiej rozdzielczości bitowej.

Pytanie 19

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii wiolonczeli?

A. Basso
B. Cello
C. Viola
D. Violin
Nazewnictwo ścieżek w sesji programu DAW to niby prosta rzecz, a jednak często prowadzi do zamieszania, jeśli nie stosujemy się do sprawdzonych zasad. Wybór takich nazw jak „Violin”, „Viola” czy nawet „Basso” zamiast „Cello” może wynikać moim zdaniem z pewnego zamieszania wokół rodziny instrumentów smyczkowych. Skrzypce (Violin) i altówka (Viola) to zupełnie inne instrumenty niż wiolonczela, zarówno pod względem brzmienia, zakresu częstotliwości, jak i zastosowania w aranżacji. Jeżeli na ścieżce masz nagraną partię wiolonczeli, to nazwanie jej „Violin” łatwo wprowadzi w błąd Ciebie lub innych realizatorów, szczególnie przy współpracy w większych projektach. Z kolei „Basso” to określenie bardzo ogólne i nieprecyzyjne – może odnosić się do linii basowej, kontrabasu czy nawet sekcji instrumentów o niskim rejestrze. Taka etykieta nie pozwala jednoznacznie zidentyfikować, jaki instrument gra w danej ścieżce, co jest niezgodne z dobrą praktyką branżową. Z mojego doświadczenia, jeśli ktoś podpisuje ścieżki w sposób nieprecyzyjny, to potem pojawiają się problemy z edycją, miksowaniem czy eksportem, bo nie wiadomo, do jakiego materiału się odnosi dana ścieżka. W studiu czy przy pracy zdalnej to szczególnie istotne – standardy międzynarodowe i workflow w DAW-ach wymagają jasności i jednoznaczności. Wybieranie nazw, które nie odpowiadają realnie nagranemu instrumentowi, to pułapka, w którą wpadają często początkujący realizatorzy, bo teoretycznie brzmi podobnie albo kojarzy się z sekcją smyczkową. Jednak prawidłowo, żeby zachować porządek i czytelną strukturę projektu, trzeba używać dokładnych nazw instrumentów – w tym przypadku po prostu „Cello”. To nie jest tylko formalność, ale praktyczny wymóg, który później oszczędza masę czasu i nieporozumień.

Pytanie 20

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 20 GB danych.
B. 10 GB danych.
C. 25 GB danych.
D. 15 GB danych.
Na rynku nośników optycznych dość łatwo można się pomylić, bo wartości pojemności różnych płyt często są do siebie zbliżone i brzmią podobnie, ale technicznie różnią się znacząco. Odpowiadając, że jednowarstwowy Blu-ray mieści 10, 15 czy 20 GB, można się zasugerować danymi dotyczącymi starszych technologii, takich jak DVD, albo po prostu zaokrąglić wartości w dół, by wydawały się bezpieczniejsze. Standardowa płyta DVD, taka typowa, ma pojemność właśnie ok. 4,7 GB (dla jednowarstwowej) lub 8,5 GB (dwuwarstwowej), więc można sobie pomyśleć, że Blu-ray to następny krok i „na oko” te 10 czy 15 GB powinny wystarczyć. Nic bardziej mylnego, bo w przypadku Blu-ray zastosowano zupełnie inną technologię zapisu. Przede wszystkim, wykorzystuje się tutaj laser o krótszej fali niż w DVD, co pozwala zapisać więcej danych na mniejszej powierzchni. W wersji jednowarstwowej jest to dokładnie 25 GB – to wartość potwierdzona przez organizacje standaryzujące ten format i podawana przez wszystkich renomowanych producentów sprzętu oraz nośników. W praktyce płyty o pojemności 10, 15 czy 20 GB w technologii Blu-ray po prostu nie występują, to liczby, które nie mają odzwierciedlenia w realnych specyfikacjach sprzętu. Z mojego doświadczenia wynika, że błędne szacowanie pojemności prowadzi potem do problemów przy archiwizacji lub kopiowaniu dużych plików – można się niemile zdziwić, jeśli założymy, że płyta zmieści mniej niż faktycznie może. W branży IT i multimediach precyzyjna znajomość tych parametrów to właściwie podstawa. Jeśli gdzieś zobaczysz inne liczby – warto sprawdzić, czy nie dotyczą przypadkiem płyt DVD albo dwuwarstwowych Blu-ray, gdzie pojemność sięga 50 GB, a nawet więcej w przypadku wersji wielowarstwowych. Takie nieścisłości powtarzają się dość często w materiałach promocyjnych lub podczas rozmów z klientami, dlatego zawsze warto wracać do oficjalnych specyfikacji i nie opierać się na domysłach. Ostatecznie, żeby bezproblemowo pracować z archiwizacją czy dystrybucją cyfrowych danych, dobrze znać te wartości na pamięć.

Pytanie 21

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|3|000
B. 1|2|000
C. 1|1|000
D. 2|1|000
Wiele osób, szczególnie na początku pracy z DAW, myśli, że wskazania typu 1|1|000 albo 2|1|000 odnoszą się bezpośrednio do upływających sekund, co jest dość mylące. Przy tempie 120 bpm każda ćwierćnuta trwa dokładnie 0,5 sekundy, czyli pełny takt w metrum 4/4 to 2 sekundy. To oznacza, że po 2 sekundach jesteśmy na początku trzeciego taktu, a nie na początku drugiego czy pierwszego. Wskazanie 1|1|000 zawsze oznacza absolutny początek utworu – 'start sesji', więc nie może być punktem po 2 sekundach. Wybierając 1|2|000, można założyć, że to druga ćwierćnuta pierwszego taktu, ale to tylko 0,5 sekundy od startu, więc znacznie za wcześnie. Z kolei 2|1|000 kusi, bo sugeruje drugi takt, ale to jest dokładnie po 4 sekundach (czyli dwa takty po 2 sekundy każdy). Spotkałem się już z sytuacjami, gdzie realizatorzy w stresie montują automaty albo efekty na złych pozycjach, bo mylą oznaczenia BARS/BEATS z czasem rzeczywistym. To dość typowy błąd, zwłaszcza przy szybkim tempie pracy, gdzie liczy się każda sekunda. Moim zdaniem, zanim zacznie się ingerować w aranżację czy automatyzację w DAW, warto naprawdę dobrze opanować konwersję między czasem a siatką taktów i uderzeń – to pozwala uniknąć niepotrzebnych przesunięć i chaosu. Licznik BARS/BEATS jest tu po to, by precyzyjnie określić lokalizację w projekcie, a jego poprawne czytanie stanowi fundament sprawnej pracy z każdym profesjonalnym oprogramowaniem typu DAW. Jeśli więc wybierzesz inną niż 1|3|000 opcję, to znaczy, że warto jeszcze raz prześledzić, jak tempo i metrum wpływają na położenie kursora względem czasu i siatki muzycznej.

Pytanie 22

Zastosowanie procesora Upward Expander wpływa na

A. poszerzenie dynamiki.
B. zmniejszenie dynamiki.
C. usunięcie przydźwięku sieci.
D. ograniczenie niskich tonów.
Sprawa z procesorem Upward Expander bywa myląca, bo wielu osobom automatycznie kojarzy się z klasyczną bramką szumów, kompresorem czy innymi narzędziami do obróbki sygnału. Jednak należy odróżnić jego funkcję od procesorów redukujących dynamikę lub wpływających na barwę dźwięku. Przede wszystkim, Upward Expander nie służy do zmniejszania dynamiki, wręcz przeciwnie – działa odwrotnie niż kompresor i zamiast "spłaszczać" zakres głośności, on go rozszerza, czyli sprawia, że różnica między cichymi a głośnymi fragmentami staje się większa. Często można spotkać się z przekonaniem, że expander działa podobnie jak limiter czy de-esser, ale to zupełnie inna para kaloszy. Ograniczenie niskich tonów – to domena filtrów dolnozaporowych, ewentualnie equalizerów, a expander nie ma wpływu na samo pasmo częstotliwościowe, tylko na amplitudę sygnału w zależności od progu ustawionego przez operatora. Z kolei usunięcie przydźwięku sieci, czyli popularnego "brumu" 50 Hz, osiąga się filtrami typu notch lub dedykowanymi eliminatorami zakłóceń, a nie ekspanderem; czasem kombinacją bramki szumów, ale to inny przypadek. Można się pomylić, bo w niektórych sytuacjach expander może marginalnie pomóc w redukcji tła, ale nie jest to jego podstawowe zadanie. Typowym błędem jest myślenie, że każdy procesor dynamiki działa na tej samej zasadzie – tymczasem upw. expander to narzędzie specyficzne, mające swoje miejsce w arsenale realizatora, gdy zaistnieje potrzeba podkreślenia kontrastów dynamicznych w materiale audio. Stosowanie go zgodnie z dobrymi praktykami pozwala uzyskać bardziej naturalne i przestrzenne brzmienie, ale nie zastąpi innych narzędzi do redukcji szumów, filtracji czy korekcji barwy.

Pytanie 23

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 99
B. 127
C. 255
D. 55
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.

Pytanie 24

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 7.1
B. 9.1
C. 5.1
D. 4.0
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 25

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 256 próbek.
B. 64 próbki.
C. 32 próbki.
D. 128 próbek.
Wybór większego bufora – 64, 128 czy nawet 256 próbek – to dość częsty wybór wśród początkujących, bo wydaje się, że stabilność systemu jest ważniejsza niż latencja. Jednak w praktyce wygląda to trochę inaczej. Zwiększenie bufora faktycznie wpływa pozytywnie na stabilność pracy komputera i zmniejsza ryzyko trzasków czy zawieszania się programu, szczególnie jeżeli projekt jest już rozbudowany i wykorzystuje wiele wtyczek czy instrumentów wirtualnych. Jednak kosztem takiej decyzji jest wyraźnie wyższa latencja, czyli opóźnienie między zagraniem dźwięku a jego usłyszeniem w odsłuchu. W nagraniach na żywo, przy monitoringu, nawet niewielkie opóźnienia potrafią mocno przeszkadzać wykonawcom i psuć całą dynamikę pracy. Często spotykam się z przekonaniem, że bufor 128 lub 256 próbek to „złoty środek”, ale to raczej kompromis wykorzystywany podczas miksowania lub pracy na słabszych komputerach. Tak naprawdę, zgodnie z dobrymi praktykami branżowymi, minimalną latencję zapewnia najniższa wartość bufora, czyli 32 próbki, o ile tylko sprzęt na to pozwala. Przestawianie bufora na wyższe wartości ma sens dopiero wtedy, gdy komputer nie radzi sobie z obciążeniem lub pojawiają się artefakty dźwiękowe. Często osoby początkujące nie zauważają, jak bardzo latencja wpływa na komfort nagrywania – czasem nawet kilka milisekund potrafi rozbić cały groove i utrudnić synchronizację muzyków. Z mojego doświadczenia wynika, że zbyt duży bufor podczas nagrań to jeden z najczęstszych błędów, który potem mści się na efekcie końcowym. Dlatego jeśli mówimy o minimalnej latencji w sesji DAW i nagrywaniu, to tylko najniższy rozmiar bufora – 32 próbki – spełni to zadanie.

Pytanie 26

Gdzie jest optymalne miejsce do montażu ścieżki dźwiękowej?

A. W miejscu maksymalnej energii dźwięku.
B. Na wybrzmieniu dźwięku.
C. W miejscu wzrostu energii dźwięku.
D. W ciszy pomiędzy dźwiękami.
Bardzo często spotyka się mylne założenie, że najlepiej wprowadzić ścieżkę dźwiękową tam, gdzie wybrzmiewa dźwięk, rośnie energia lub osiąga ona maksimum. Niestety, takie podejście prowadzi do różnych problemów z czytelnością i odbiorem całego materiału. Zacznijmy od montowania na wybrzmieniu dźwięku – to dość powszechny błąd, bo wydaje się, że jak coś się kończy, to można od razu wprowadzić muzykę. W rzeczywistości, jeśli ścieżka wchodzi na wybrzmienie, powstaje efekt "nakładki". Dźwięki się przenikają i odbiorca nie jest w stanie wychwycić wszystkich niuansów, a dialogi czy efekty mogą być zagłuszane. Kolejny przypadek to wprowadzanie muzyki w miejscu wzrostu energii dźwięku. Tu z kolei łatwo o przeładowanie – nagłe wejście nowej warstwy podczas narastania głośności potrafi zniekształcić emocjonalny wydźwięk sceny i zaburzyć naturalną dynamikę. Moim zdaniem takie praktyki prowadzą do utraty przejrzystości i mogą nawet drażnić ucho słuchacza. Podobnie, montaż w punkcie maksymalnej energii dźwięku często powoduje efekt "przebicia" – wszystko naraz, zero przestrzeni i w efekcie widz czuje się przytłoczony. To jest bardzo częsta pułapka początkujących montażystów, którzy myślą, że więcej znaczy lepiej. Branżowe standardy (np. zalecenia EBU czy praktyki z kursów montaży filmowych) wyraźnie wskazują, że najczytelniejszy rezultat osiąga się właśnie w ciszy, czyli w naturalnej przerwie. Dzięki temu materiał audio nabiera profesjonalnego charakteru, a każda warstwa dźwięku ma swoje miejsce i nie konkuruje z innymi. Sztuka montażu to nie tylko technika, ale też wyczucie momentu – warto zaufać sprawdzonym rozwiązaniom, żeby efekt końcowy był klarowny i przyjemny dla odbiorcy.

Pytanie 27

Jakiej długości będzie materiał stereofoniczny w formacie CD-Audio o rozmiarze 30 MB?

A. 100 s
B. 10 s
C. 180 s
D. 120 s
Dokładnie tak, trzy minuty, czyli 180 sekund, to właściwy wynik dla materiału stereofonicznego w formacie CD-Audio o rozmiarze 30 MB. Chodzi tutaj o zrozumienie, jak działa standard CD-Audio – mamy do czynienia z dwoma kanałami (stereo), próbkowanie 44,1 kHz oraz rozdzielczość 16 bitów na próbkę. W praktyce wygląda to tak: (44100 próbek/s) × (2 kanały) × (16 bitów) = 1 411 200 bitów na sekundę, czyli mniej więcej 176,4 kB/s. Dzieląc 30 MB przez tę wartość, wychodzi właśnie około 170–180 sekund. Takie przeliczanie przydaje się nie tylko przy archiwizacji muzyki, ale też w planowaniu przestrzeni na płycie CD czy ocenie jakości kompresji audio. Sam nieraz spotkałem się z sytuacją, gdzie trzeba było „na oko” określić, czy na płytę wejdzie dany kawałek czy dwie piosenki. Warto pamiętać, że format CD to ciągły, bezstratny zapis – nie ma tu kompresji, wszystko „pożera” dużo miejsca. Dlatego branżowo często podkreśla się wagę właściwego planowania przy produkcji muzycznej i masteringu, żeby potem nie okazało się, że materiału zwyczajnie nie da się zmieścić na nośniku. Przy okazji można zauważyć, że standard CD-Audio jest zaskakująco „ciężki” w porównaniu do plików MP3 czy AAC o tej samej długości, co zresztą wpływa na wybory nośników w różnych zastosowaniach.

Pytanie 28

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zmniejszy się 2-krotnie.
B. Zwiększy się 4-krotnie.
C. Zwiększy się 6-krotnie.
D. Zmniejszy się 3-krotnie.
Wielu osobom wydaje się, że rozmiar pliku audio zmienia się liniowo tylko z jednym parametrem, np. częstotliwością próbkowania, ale w rzeczywistości oba parametry – częstotliwość próbkowania i rozdzielczość bitowa – oddziałują na siebie i decydują łącznie o końcowym rozmiarze. W praktyce, rozmiar nieskompresowanego pliku dźwiękowego (np. PCM WAV) oblicza się według wzoru: rozmiar = liczba próbek na sekundę x liczba bitów na próbkę x liczba kanałów x czas trwania (w sekundach). Jeśli zmniejszamy częstotliwość próbkowania z 96 kHz do 48 kHz, to liczba próbek spada o połowę. Redukcja rozdzielczości z 24 do 16 bitów to zmiana o 1/3 w dół, bo 24 bity to 3 bajty, a 16 bitów to 2 bajty. Typowym błędem jest sumowanie tych zmian lub nieuwzględnienie obu naraz – np. ktoś myśli, że skoro mamy 2 parametry, oba dzielimy przez 2, więc razem 4-krotnie. Ale to nie tak działa: rozmiar zmniejszy się o połowę z jednego powodu i o 1/3 z drugiego, co daje w sumie 3-krotną redukcję (2 x 1,5 = 3). Tak samo mylące jest uważanie, że rozmiar wzrośnie, bo oba parametry się zmieniają 'w dół', więc plik będzie większy – to nie ma sensu z perspektywy technicznej. Branżowe standardy, np. przy masteringu do CD, jasno określają 16 bitów i 44,1 kHz, właśnie po to, żeby optymalizować zarówno jakość, jak i wagę plików. W codziennej pracy z audio ważne jest, żeby nie pomylić proporcji i nie przeszacować zysku lub straty miejsca. Najczęściej spotykanym błędem jest patrzenie tylko na jeden parametr, a potem zdziwienie, że plik nie waży tyle, ile przewidywaliśmy. Takie myślenie prowadzi do nieoptymalnych decyzji przy archiwizacji, konwersji czy przesyłaniu nagrań.

Pytanie 29

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 0|0|000
B. 1|0|000
C. 0|1|000
D. 1|1|000
Format BARS/BEATS, czyli sposób oznaczania pozycji na osi czasu w sesjach DAW, opiera się na kolejności: takt|ćwierćnuta|subpodział (zazwyczaj wyrażony w tysięcznych lub setnych). Wiele osób błędnie zakłada, że projekt muzyczny zaczyna się od 0|0|000 lub 0|1|000, bo w elektronice często numeruje się od zera. Jednak w zapisie muzycznym, zarówno w nutach jak i w środowiskach DAW, nie istnieje coś takiego jak „takt zerowy”. Podobnie, 0|1|000 sugerowałoby pierwszy beat w nieistniejącym zerowym takcie, co nie jest logiczne ani niezgodne ze standardami branży muzycznej. Oznaczenie 1|0|000 również jest nieprawidłowe, ponieważ nie ma „zerowego beatu” – beaty zaczynają się zawsze od 1. Często spotykam się z tym, że osoby zaczynające pracę z DAW-ami próbują analogicznie podchodzić do numeracji jak w programowaniu lub matematyce, ale branża audio trzyma się konwencji muzycznej, gdzie wszystko startuje od pierwszego taktu, pierwszego beatu i pierwszego subpodziału, czyli dokładnie 1|1|000. To bardzo ułatwia orientację w projekcie, synchronizację automatyzacji, pętli czy wstawianie markerów. Trzymanie się innej numeracji skutkuje bałaganem i może prowadzić do nieporozumień między realizatorami czy muzykami, którzy są przyzwyczajeni do tradycyjnego odczytu pozycji. Taki błąd wynika najczęściej z braku znajomości tych branżowych reguł lub z mylnego przekonania, że DAW działa jak komputerowe systemy liczenia od zera – niestety tutaj to nie przechodzi. Jeśli więc zobaczysz 0|0|000 lub 0|1|000, możesz być pewien, że to po prostu nieprawidłowy odczyt początku sesji. W praktyce, najlepszą metodą jest zawsze ustawianie początku projektu właśnie na 1|1|000, bo to ułatwia kontrolę nad całą aranżacją i zgodność z resztą zespołu czy producentów.

Pytanie 30

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta dwukrotnie.
B. Wysokość spada dwukrotnie.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Nie ma wpływu.
To bardzo dobra odpowiedź, bo faktycznie sama zmiana częstotliwości próbkowania, bez żadnej dodatkowej ingerencji w próbki czy zmianę tempa odtwarzania, nie wpływa w żaden sposób na wysokość słyszanego dźwięku. W praktyce – jeśli mamy plik audio w 44,1 kHz i przekonwertujemy go na 48 kHz, ale zachowamy te same dane audio oraz odtwarzamy z odpowiednio ustawioną prędkością (czyli sprzęt i oprogramowanie wie, jaka jest nowa częstotliwość próbkowania), to ludzkie ucho nie zauważy żadnej zmiany wysokości. Tak działają standardy w branży muzycznej – na przykład płyty CD korzystają z 44,1 kHz, a dźwięk do wideo, radia czy telewizji cyfrowej to zazwyczaj 48 kHz. Konwersja następuje praktycznie cały czas, ale nie ma to wpływu na percepcję tonacji głosu czy instrumentów. Oczywiście, jeśli ktoś by "oszukał" odtwarzacz i kazał mu odtworzyć plik nagrany w 44,1 kHz jako 48 kHz (lub odwrotnie), wtedy rzeczywiście wysokość by się zmieniła – ale to już nie jest prawidłowa konwersja, tylko błąd techniczny. Branża korzysta z wysokiej jakości algorytmów resamplingu, które są projektowane tak, żeby zachować oryginalną barwę i wysokość dźwięku. W praktyce, użytkownik nie powinien martwić się o takie rzeczy, bo sprzęt i oprogramowanie załatwiają to w tle.

Pytanie 31

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. WAV
B. FLAC
C. RIFF
D. MP3
Format MP3 to chyba najpowszechniejszy przykład kodowania stratnego w świecie plików audio. Cała idea polega na tym, że dane dźwiękowe są kompresowane w taki sposób, by plik był dużo mniejszy niż oryginał, a dla przeciętnego słuchacza jakość brzmiała prawie identycznie z oryginałem – szczególnie przy wyższych bitrate'ach. Kluczowe jest tutaj to, że MP3 wykorzystuje psychoakustykę, czyli usuwa te fragmenty dźwięku, których ludzki słuch i tak najprawdopodobniej by nie wychwycił. To sprawia, że pliki MP3 są idealne do przechowywania muzyki na urządzeniach mobilnych, wysyłania przez internet czy wykorzystywania w serwisach streamingowych. Standard ISO/IEC 11172-3 dokładnie opisuje, jak ta kompresja ma wyglądać, by zachować jak najlepszą równowagę między wielkością pliku a jakością dźwięku. Z mojego doświadczenia w pracy z dźwiękiem mogę powiedzieć, że MP3 to nie jest format dla audiofilów, ale do codziennego słuchania sprawdza się znakomicie. W praktyce nadal ma ogromne zastosowanie, chociaż coraz częściej wypierany jest przez nowsze rozwiązania jak AAC czy Ogg Vorbis, które dają lepszą jakość przy podobnym rozmiarze pliku. Warto pamiętać, że kodowanie stratne jest kluczowe w sytuacjach, gdzie zależy nam na oszczędności miejsca lub szybkości transmisji – na przykład przy podcastach, muzyce w serwisach internetowych czy dzwonkach telefonicznych.

Pytanie 32

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 35 MB
B. 25 MB
C. 15 MB
D. 45 MB
Temat szacowania rozmiaru plików audio .wav, szczególnie o wysokiej częstotliwości próbkowania i głębi bitowej, bywa mylący – łatwo tu o błędne założenia. Wiele osób zakłada, że wyższa jakość oznacza tylko nieco większy rozmiar, jednak skala rośnie bardzo szybko. Często spotykam się z myśleniem, że wartości typu 15 MB lub 25 MB wystarczą na minutę nagrania stereo w wysokiej rozdzielczości – niestety to typowy błąd wynikający z porównania do plików skompresowanych, np. MP3 czy AAC. WAV nie używa kompresji, więc przechowuje absolutnie wszystkie próbki każdego kanału, co mocno odbija się na wielkości pliku. Przyjęcie wartości 45 MB to z kolei przesada, która może wynikać z machinalnego przeszacowania albo pomylenia parametrów (np. zakładając 32 bity zamiast 24, albo myląc minuty z godzinami). W praktyce, jeśli chodzi o audio studyjne, standardowe wzory zawsze dotyczą: częstotliwości próbkowania razy głębia bitowa razy liczba kanałów razy liczba sekund, a potem dzielimy przez 8, żeby uzyskać bajty, i przez 1024 dwa razy – żeby mieć megabajty. To nie jest aż tak trudne, ale rzeczywiście łatwo przeoczyć, jak szybko objętość rośnie. W codziennej pracy studyjnej często trzeba szacować miejsce na dysku przed dużą sesją nagraniową – błędna ocena sprawia, że kończy się na braku miejsca albo niepotrzebnym przepłacaniu za zbyt wielkie nośniki. Warto też pamiętać, że popularne konwertery audio i programy DAW podają rozmiary plików już podczas eksportu – to podpowiedź, z której warto korzystać. Osobiście uważam, że znajomość tych zależności bardzo pomaga ogarnąć logistykę pracy z dźwiękiem na wysokim poziomie.

Pytanie 33

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. PASTE
B. COPY
C. MUTE
D. CUT
Funkcja CUT w oprogramowaniu typu DAW (Digital Audio Workstation) jest podstawowym narzędziem edycyjnym, które pozwala na szybkie wycięcie wybranego fragmentu sygnału audio lub MIDI na ścieżce. Trzeba pamiętać, że wykonując tę operację w DAW, najczęściej nie usuwamy nagranego materiału na stałe z dysku – po prostu dany fragment znika z aranżacji, ale plik źródłowy nadal pozostaje nienaruszony w folderze projektu. W praktyce, jeżeli przypadkiem wytniesz coś za dużo, zawsze możesz użyć opcji cofnij lub wstawić wycięty fragment w inne miejsce, korzystając z PASTE. Szczerze mówiąc, to bardzo wygodne rozwiązanie, bo pozwala eksperymentować bez stresu, że coś przepadnie na zawsze – to trochę jak praca z kopiami warstw w programach graficznych. Branżowe standardy, takie jak nieniszcząca edycja, są fundamentem pracy z dźwiękiem i dzięki temu możesz spokojnie testować różne pomysły na aranżację, nie bojąc się o oryginalny materiał. Wielu realizatorów dźwięku ceni sobie CUT właśnie za elastyczność i możliwość błyskawicznego reagowania na potrzeby projektu, a jednocześnie zachowanie porządku w sesji. Warto jeszcze wspomnieć, że niektóre DAWy dają możliwość podglądu historii edycji, więc nawet po serii skomplikowanych cięć można bez problemu wrócić do wcześniejszej wersji projektu. W codziennej pracy taka funkcjonalność po prostu ratuje skórę, zwłaszcza przy dużych projektach lub pracy pod presją czasu.

Pytanie 34

Typowo stosowaną jednostką przepływności bitowej cyfrowego dźwięku zapisanego w pliku .mp3 jest

A. kB/s
B. kB/ms
C. MB/s
D. kb/s
W kontekście cyfrowego dźwięku, zwłaszcza gdy mówimy o plikach .mp3, łatwo pomylić jednostki przepływności bitowej. Częstym błędem jest wybór kB/s zamiast kb/s – tu decyduje nie tylko wielkość litery, ale przede wszystkim fakt, czy mówimy o bajtach, czy o bitach. Dźwięk cyfrowy koduje się na poziomie bitów, bo to one bezpośrednio opisują zakodowaną informację dźwiękową; bajty raczej pojawiają się już na poziomie zapisu pliku na dysku, a nie w samym strumieniu danych audio. Z mojego doświadczenia widzę, że dużo osób myli te pojęcia, bo są przyzwyczajeni do bajtów przy pobieraniu plików z internetu – tam rzeczywiście operuje się na MB/s czy kB/s. Jednak w świecie audio i w branżowych specyfikacjach (np. standardy MPEG Layer 3) zawsze podaje się przepływność w kb/s. Jeszcze mniej sensownym wyborem jest kB/ms – taka jednostka praktycznie w ogóle nie występuje w inżynierii dźwięku, bo nie odzwierciedla żadnego istotnego aspektu transmisji czy kompresji sygnału. MB/s natomiast sugeruje bardzo wysokie wartości przepływności, które odpowiadają raczej nieskompresowanym strumieniom wideo albo ultraszybkim dyskom SSD, a nie skompresowanemu plikowi audio, który ma mieć niewielki rozmiar. Tu według mnie największy błąd polega na zamianie wielkości – mylenie bitów z bajtami – bo komputerowo to zupełnie dwa różne światy. W praktyce, jeśli w opisie pliku .mp3 widzisz 256 kb/s, to oznacza, że każda sekunda dźwięku zakodowana jest przez 256 000 bitów, a nie bajtów. Tak się przyjęło od lat i wszystkie programy do kodowania czy odtwarzacze właśnie tym się posługują. Jeśli więc zobaczysz kiedyś wartości podane w bajtach na sekundę przy audio, warto się dwa razy zastanowić, czy to nie pomyłka.

Pytanie 35

Jeżeli materiał dźwiękowy ma być odtwarzany od jego końca do początku, to należy użyć opcji

A. Phaser
B. Flanger
C. Invert
D. Reverse
Wiele osób myli pojęcia związane z przetwarzaniem sygnału audio – i nic dziwnego, bo nazwy różnych efektów bywają podobne lub mylące, szczególnie jeśli ktoś jest na początku swojej przygody z muzyką czy obróbką dźwięku. Efekt 'Invert' to w praktyce odwrócenie fazy sygnału – czyli zmiana znaku wszystkich próbek audio, co powoduje, że faza jest przesunięta o 180 stopni. Taki zabieg przydaje się na przykład przy eliminowaniu przesłuchów lub zwalczaniu problemów z sumowaniem sygnałów w miksie stereo, ale absolutnie nie powoduje odtwarzania nagrania od końca. 'Phaser' i 'Flanger' to z kolei efekty modulacyjne – oba bazują na przesunięciach fazy i mieszaniu przetworzonego sygnału z oryginałem, ale ich głównym zastosowaniem jest wprowadzanie charakterystycznych, pulsujących lub „kosmicznych” efektów w brzmieniu, typowych dla gitar czy syntezatorów. Ani phaser, ani flanger nie zmieniają kolejności odtwarzania próbki w czasie – to zabiegi typowo barwowe. Typowym błędem jest sądzenie, że skoro coś brzmi „dziwnie” po nałożeniu tych efektów, to może nagranie jest puszczane od tyłu – otóż nie, to tylko filtracja i zmiany fazowe. Z mojego doświadczenia wynika, że wiele osób próbuje rozwiązywać zadania typu „cofnij dźwięk” właśnie przez inwersję fazy, zapominając, że to zupełnie inny proces. Standardy przemysłowe jasno określają: jeśli zależy nam na odtwarzaniu od końca do początku, sięgamy po funkcję 'Reverse'. Wszystkie inne wymienione opcje służą do czegoś kompletnie innego i nie powinny być mylone z przetwarzaniem kierunku odtwarzania materiału audio.

Pytanie 36

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby Digital EX
B. Dolby AC3
C. Dolby Digital
D. Dolby TrueHD
Wiele osób myli różne formaty Dolby, bo ich nazwy są do siebie podobne, a przecież mają one zupełnie inne zastosowania i właściwości techniczne. Na przykład Dolby Digital (czyli popularny AC3) to format stratnej kompresji, bardzo często używany w telewizji, DVD i niektórych transmisjach cyfrowych, ale nie gwarantuje zachowania pełnej jakości oryginalnego nagrania – zawsze jest jakiś kompromis między jakością a rozmiarem pliku. Dolby Digital EX to po prostu rozszerzenie tego standardu, dodające kanał tylny centralny dla większego efektu przestrzennego, ale nadal korzysta ze stratnej kompresji. Jeszcze większe zamieszanie potrafi się zrobić z nazwami – niektórzy sądzą, że Dolby AC3 to osobny format, a to przecież po prostu techniczna nazwa Dolby Digital. Z mojego doświadczenia dość często spotyka się ten błąd nawet u ludzi pracujących w branży audiowizualnej. Niestety, żaden z tych formatów nie oferuje bezstratnej kompresji. W praktyce oznacza to, że jeśli ktoś jest audiofilem albo montuje materiały, gdzie liczy się studyjna jakość dźwięku, to wybór AC3 albo Dolby Digital EX nie spełni oczekiwań. Z kolei Dolby TrueHD został zaprojektowany właśnie do zachowania pełnej jakości dźwięku i współpracuje z nowoczesnymi systemami kina domowego poprzez HDMI. Warto to zapamiętać, bo różnice nie są tylko teoretyczne – mają spory wpływ na końcowe wrażenia z odsłuchu. Dobre praktyki branżowe mówią wyraźnie: jeśli zależy nam na jakości, warto sięgać po formaty bezstratne jak Dolby TrueHD, a nie te stratne, nawet jeśli są bardzo popularne.

Pytanie 37

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 96 dB
B. 192 dB
C. 48 dB
D. 144 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 38

Jaka jest maksymalna pojemność karty RS-MMC?

A. 128 GB
B. 64 GB
C. 16 GB
D. 2 GB
Temat pojemności kart RS-MMC często bywa mylony z możliwościami nowszych standardów, takich jak microSDHC czy SDXC. Wiele osób zakłada, że jeżeli nowe karty pamięci potrafią pomieścić dziesiątki czy nawet setki gigabajtów danych, to stare typy kart również mogłyby to umożliwiać – niestety to nie jest prawda. RS-MMC, mimo swojego podobieństwa do kart MMC czy SD pod względem wyglądu i sposobu działania, mają bardzo ograniczone możliwości, głównie przez specyfikację techniczną i projekt kontrolerów stosowanych w tych kartach. W praktyce karty o pojemności wyższej niż 2 GB po prostu nie będą współpracować z większością sprzętu, który je obsługuje. Pojemności 16 GB, 64 GB czy 128 GB są charakterystyczne dla dużo nowszych rozwiązań – to już domena kart microSDHC i microSDXC, które mają zupełnie inną architekturę, inny protokół komunikacyjny i wymagają nowszych kontrolerów w urządzeniach. Często błędne założenie wynika z tego, że użytkownicy traktują wszystkie karty pamięci jako zamienne, sugerując się samym kształtem bądź rozmiarem, bez uwzględnienia faktycznych ograniczeń standardu. Dobrym nawykiem jest zawsze sprawdzanie oficjalnej specyfikacji urządzenia oraz karty – w przypadku RS-MMC pojemność kończy się na 2 GB i niestety nie da się tego przeskoczyć, nawet jeśli fizycznie karta większa wchodzi do slotu. Warto pamiętać, że gwałtowny rozwój technologii pamięci przenośnej to również ciągłe zmiany w standardach, a starsze urządzenia nie są w stanie korzystać z dobrodziejstw nowych pojemności.

Pytanie 39

Jaka jest długość efektu dźwiękowego w przeliczeniu na ramki, jeżeli trwa on 5,5 sekundy, a w kodzie czasowym w sesji ustawiono wartość 30 fps?

A. 170 ramek.
B. 165 ramek.
C. 155 ramek.
D. 180 ramek.
Prawidłowo obliczona liczba klatek przy długości efektu 5,5 sekundy i ustawieniu 30 fps wynosi właśnie 165. Wynika to z prostego, ale często wykorzystywanego w postprodukcji przelicznika: liczba sekund mnożona przez ilość klatek na sekundę daje łączną liczbę ramek (frames). Czyli 5,5 x 30 = 165. Tak się to zawsze liczy w standardowych projektach video czy audio, gdzie kluczowe jest zachowanie synchronizacji obrazu i dźwięku. W praktyce, jeśli edytujesz dźwięk do obrazu w programach typu Pro Tools, Adobe Premiere czy DaVinci Resolve, musisz te przeliczniki znać na pamięć, bo od tego zależy precyzja montażu. Moim zdaniem umiejętność szybkiego przeliczenia sekund na ramki to coś, co bardzo przydaje się przy pracy na planie, na przykład gdy reżyser mówi: „Potrzebuję 3 sekundy dłużej tego efektu!” – wtedy błyskawicznie wiesz, że musisz dodać 90 klatek przy 30 fps. Warto pamiętać, że różne standardy (np. 25 fps w Europie, 24 fps w kinie) mogą wymagać innych przeliczeń. Jednak zasada zawsze jest ta sama: sekundy x fps = liczba ramek. Rzetelność takiej kalkulacji pozwala uniknąć rozjazdów między warstwą wizualną a dźwiękową – co jest jednym z najczęstszych problemów w miksie filmowym.

Pytanie 40

Który z wymienionych filtrów umożliwia usunięcie niskoczęstotliwościowych zakłóceń pojawiających się w nagraniu plenerowym na skutek podmuchów wiatru na mikrofon?

A. High Shelf Filter.
B. High-Pass Filter.
C. Low-Pass Filter.
D. Comb Filter.
Wiele osób kieruje się intuicją wybierając inne filtry, gdy pojawiają się problemy z niskoczęstotliwościowym hałasem – w końcu, na pierwszy rzut oka, filtry typu comb, low-pass czy high shelf brzmią dość „zaawansowanie”. Jednak każdy z nich jest projektowany z zupełnie innym przeznaczeniem. Comb Filter, znany jako filtr grzebieniowy, tworzy specyficzne „wycięcia” w paśmie, przez co nadaje się raczej do kształtowania barwy lub eksperymentalnych efektów, niż do eliminowania typowego buczenia czy podmuchów. Jego największym zastosowaniem są korekty fazowe, usuwanie flangerów, ewentualnie „wyłuskiwanie” harmonicznych, a nie walka z hałasem na dole pasma. Z kolei Low-Pass Filter działa na zasadzie odwrotnej – przepuszcza częstotliwości niskie, a wycina wysokie. To absolutnie nie sprawdzi się tam, gdzie chcemy pozbyć się szumu od wiatru, bo ten właśnie znajduje się w paśmie niskim. Użycie tego filtra doprowadzi wręcz do jeszcze bardziej mulistego dźwięku, bo wytnie sybilanty i klarowność, a nie to, co przeszkadza. High Shelf Filter zaś stosuje się najczęściej do subtelnego lub mocniejszego podbijania albo tłumienia wysokich częstotliwości, na przykład żeby dodać „powietrza” wokalowi, albo trochę stonować sybilanty. Nie jest on jednak przeznaczony do precyzyjnego wycięcia wyłącznie dolnych częstotliwości, a już na pewno nie radzi sobie z typowym hałasem od wiatru. W praktyce, błędem jest myślenie, że każdy filtr korekcyjny poradzi sobie z dowolnym problemem – branżowe standardy wyraźnie mówią o stosowaniu konkretnych filtrów do konkretnych zadań. Najlepiej od razu nauczyć się rozpoznawać, który filtr radzi sobie z jakim zakresem częstotliwości, żeby nie marnować czasu na przypadkowe próby i nie zniszczyć materiału dźwiękowego niepotrzebnie. Dlatego tylko high-pass filter daje oczekiwany efekt przy podmuchach wiatru na mikrofonie.