Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 5 maja 2026 09:04
  • Data zakończenia: 5 maja 2026 09:09

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jaką maksymalną liczbę utworów rozdzielonych znacznikami można zapisać na płycie CD-Audio?

A. 32 utwory.
B. 127 utworów.
C. 64 utwory.
D. 99 utworów.
Maksymalna liczba utworów, którą można zapisać na płycie CD-Audio, to dokładnie 99 – tak wynika ze specyfikacji standardu Red Book, który od lat 80. definiuje, jak wygląda klasyczny Compact Disc Digital Audio. To ograniczenie nie wynika z przypadkowego wyboru – ma ono swoje korzenie w sposobie, w jaki na płycie zapisywane są informacje o tzw. ścieżkach (czyli utworach) w obszarze TOC (Table of Contents). Wszystko po to, by zapewnić zgodność praktycznie wszystkich odtwarzaczy na rynku. W praktyce to oznacza, że jeśli tworzysz własną kompilację CD-Audio, np. w programach takich jak Nero czy ImgBurn, nie uda się dodać więcej niż 99 utworów – program po prostu nie pozwoli na taki zabieg. Co ciekawe, bezpośrednio nie jest ograniczona długość pojedynczego utworu, więc teoretycznie możesz mieć jedną ścieżkę trwającą nawet 74 czy 80 minut, ale ścieżek jako osobnych „tracków” nigdy nie będzie więcej niż 99. Moim zdaniem warto też pamiętać, że niektóre płyty mają ukryte tracki (tzw. hidden tracks), ale i one liczą się do limitu. W codziennej pracy z nagrywaniem płyt to ograniczenie raczej nie przeszkadza, ale jeśli ktoś chciałby zrobić np. audiobooka podzielonego na bardzo krótkie fragmenty, to tutaj trzeba już uważać. Takie niuanse techniczne mają spore znaczenie przy profesjonalnej produkcji nośników audio.

Pytanie 2

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 98 000 Hz
B. 48 000 Hz
C. 196 000 Hz
D. 44 100 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 3

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. FLAC
B. WMA
C. AC-4
D. AAC
FLAC to kodek audio, który został specjalnie zaprojektowany do bezstratnej kompresji dźwięku. To znaczy, że po dekompresji otrzymujemy dokładnie taki sam sygnał audio jak oryginał – nie tracimy ani jednego szczegółu. Moim zdaniem to bardzo ważne np. przy archiwizacji muzyki czy masteringu, gdzie liczy się jakość bez jakichkolwiek strat. Standard FLAC jest powszechnie wykorzystywany przez audiofilów, inżynierów dźwięku, a nawet w bibliotekach muzycznych i serwisach takich jak Bandcamp czy HDtracks, gdzie sprzedaje się nagrania „hi-res”. Pliki FLAC są zazwyczaj o około 30–60% mniejsze od nieskompresowanego WAV, ale nie widać żadnej różnicy w jakości. To jest szczególnie przydatne przy dużych zbiorach muzyki, bo oszczędza się miejsce na dysku. Warto wiedzieć, że FLAC jest otwartym standardem – to ważne, bo nie ma problemów z licencjami i praktycznie każdy nowoczesny odtwarzacz obsługuje te pliki bez żadnych dodatkowych kodeków. Z mojego doświadczenia, jeśli ktoś naprawdę dba o dźwięk i chce mieć „kopię zapasową” muzyki w najlepszej możliwej jakości, to FLAC jest po prostu oczywistym wyborem.

Pytanie 4

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. godzinę.
B. ramkę.
C. sekundę.
D. minutę.
Druga para cyfr w zapisie kodu czasowego SMPTE faktycznie odpowiada za minuty. To jest bardzo istotne, szczególnie gdy zajmujemy się montażem wideo albo nagraniami audio, gdzie precyzja synchronizacji jest kluczowa. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) definiuje czteroelementowy format: HH:MM:SS:FF, gdzie właśnie ta druga para cyfr (MM) wskazuje liczbę minut. Moim zdaniem, dobrze rozumieć tę strukturę, bo potem łatwiej jest nawigować w profesjonalnych programach do edycji, takich jak Adobe Premiere, DaVinci Resolve czy Avid. Tam nie ma miejsca na domysły – każde pole odpowiada za konkretną jednostkę czasu, co pozwala np. bardzo szybko znaleźć określony fragment materiału. W praktyce, przy przekładaniu notatek z planu: „akcja zaczyna się w 12:07:15:17”, od razu wiadomo, że „07” to siódma minuta drugiej godziny. To trochę jak czytanie zegarka cyfrowego, tylko z dokładnością do pojedynczej klatki filmu. Z mojego doświadczenia osoby, które dobrze rozumieją ten zapis, dużo mniej się mylą przy przygotowywaniu list montażowych (EDL) albo przy synchronizacji dźwięku z obrazem. Ma to też znaczenie w broadcastingu, gdzie precyzja odliczania minut przekłada się na ramówkę telewizyjną. W skrócie – praktyczna i bardzo istotna wiedza w świecie zawodowego wideo i audio.

Pytanie 5

Normalizacja poziomu szczytowego nagrania (peak normalization) to

A. obniżenie średniego poziomu nagrania o 3 dB
B. obniżenie szczytowego poziomu nagrania o 3 dB
C. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
D. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
Normalizacja poziomu szczytowego nagrania, czyli tzw. peak normalization, to taki proces, w którym podnosi się poziom całego nagrania tak, żeby najwyższa wartość szczytowa (czyli ten największy pojedynczy impuls w sygnale) sięgnęła dokładnie 0 dBFS. Oczywiście, w praktyce czasem zostawia się minimalny margines, np. do -0,1 dBFS, żeby uniknąć ewentualnych przesterowań przy dalszym przetwarzaniu, ale główny mechanizm polega właśnie na tym jednym – znajdź najwyższy pik i przesuń wszystko w górę tak, żeby był na samym szczycie skali cyfrowej. To bardzo prosty i szybki sposób na wyrównanie głośności różnych plików albo przygotowanie materiału do dalszego masteringu. Spotyka się to właściwie w każdym DAW-ie i nawet podstawowe programy do montażu audio mają taką funkcję. Z mojego doświadczenia bywa to bardzo przydatne, zwłaszcza jak ktoś dostaje miks z różnych źródeł i chce, żeby od razu było równo pod względem potencjału głośności, zanim zacznie głębsze zmiany. Warto pamiętać, że peak normalization nie zmienia relacji między cichymi a głośnymi fragmentami – nie jest to kompresja ani normalizacja RMS/średnia. Z punktu widzenia standardów, to absolutna podstawa i wręcz obowiązkowy krok w wielu workflow, choć na etapie końcowym w radiu czy streamingach częściej używa się normalizacji według LUFS (średniego poziomu głośności), ale peak normalization dalej ma swoje miejsce, zwłaszcza przy przygotowaniu surowych plików.

Pytanie 6

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. INPUT
B. MUTE
C. RECORD
D. SOLO
Wybranie opcji SOLO na ścieżce w DAW to taki trochę klasyk pracy w studiu – każdy, kto choć raz miksował, wie, jak często sięga się po ten przycisk. SOLO pozwala na odsłuchanie tylko konkretnej ścieżki, bez przeszkadzania ze strony pozostałych. To wręcz niezbędne, gdy chcesz się skupić na detalach, np. sprawdzić precyzyjnie czy wokal nie ma niechcianych szumów albo czy syntezator dobrze siedzi w miksie. W praktyce bardzo często używa się SOLO podczas ustawiania poziomów, korekcji czy efektów na pojedynczym instrumencie. Standardowe workflow w studiach – i tych domowych, i profesjonalnych – zakłada, że podczas miksowania regularnie korzysta się z tej funkcji, żeby nie pogubić się w gąszczu dźwięków. Moim zdaniem bez SOLO można by się mocno zamotać, zwłaszcza przy większych projektach. Dobrze wiedzieć, że opcja SOLO nie usuwa dźwięków innych ścieżek, tylko je tymczasowo wycisza, więc nie trzeba się martwić o utratę ustawień. To takie narzędzie podglądu – pozwala wyłapać niuanse i dopracować ślady zanim wrócą do pełnego miksu. Branża przyjmuje to jako absolutny standard, a korzystanie z SOLO jest zalecane przez większość instruktorów i producentów. Warto też pamiętać, że niektóre DAWy mają kilka trybów SOLO, np. SOLO in place albo pre/post fader, więc można dopasować działanie do własnych potrzeb. Dla mnie to podstawa pracy z dźwiękiem i coś, bez czego trudno sobie wyobrazić profesjonalny proces produkcji.

Pytanie 7

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. PASTE
B. UNDO
C. COPY
D. REDO
Funkcja UNDO jest podstawowym narzędziem w każdym programie DAW (Digital Audio Workstation), które pozwala na cofnięcie ostatnio wykonanej operacji edycyjnej. To trochę jak zabezpieczenie przed pomyłkami – wystarczy jedno skrócenie klawiszowe, najczęściej Ctrl+Z, i ostatnia czynność znika, a projekt wraca do wcześniejszego stanu. Ja sam ciągle z tego korzystam, zwłaszcza podczas szybkiej edycji ścieżek, kiedy łatwo coś przypadkiem usunąć lub przesunąć. UNDO działa praktycznie wszędzie – czy to cięcie klipu, przesuwanie nut w MIDI, czy nawet zmiana parametrów efektów. W większości DAW można też wielokrotnie cofać kolejne kroki, a historia edycji pozwala szybko naprawić dłuższą serię błędów. To jest taki must-have, bez którego praca nad muzyką byłaby dużo bardziej stresująca i czasochłonna. Swoją drogą, w profesjonalnych workflow zawsze poleca się korzystanie z UNDO zamiast ręcznego poprawiania, bo to nie tylko szybciej, ale i bezpieczniej. Warto też pamiętać, że cofnięcie operacji często działa nie tylko dla edycji dźwięku, ale też dla zmian w automatyce, aranżacji czy nawet we wtyczkach. No i przy dużych projektach UNDO ratuje skórę, gdy przez przypadek zamkniesz sobie pół aranżu. Tak po ludzku – lepiej kilka razy za dużo kliknąć UNDO, niż potem żałować straconej pracy.

Pytanie 8

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
D. wyciszenie dźwięku, trwające 1/10 sekundy.
Fade In to taki proces, w którym dźwięk startuje od ciszy i stopniowo narasta do pełnej głośności – dokładnie tak, jak przy otwieraniu drzwi do głośnego pokoju. Parametr „100 ms” oznacza, że całe to przejście trwa 1/10 sekundy, czyli bardzo krótko, ale w praktyce wystarczająco, by uniknąć charakterystycznego kliku czy nieprzyjemnego przesterowania na początku pliku dźwiękowego. W profesjonalnych programach do edycji audio jak Pro Tools czy Cubase, fade in ustawiamy właśnie po to, żeby wejście dźwięku było płynne i naturalne, a nie nagłe i szarpane. Takie wstawianie fade’ów to nie tylko kwestia wygładzenia, ale też standard w branży dźwiękowej, zwłaszcza przy montażu dialogów, efektów czy muzyki do filmu. Moim zdaniem, nawet w amatorskich produkcjach nie powinno się zostawiać ostrych wejść, bo to później słychać – i to dość wyraźnie. Dobrą praktyką jest testowanie różnych długości fade in, lecz przy szybkim materiale 100 ms najczęściej sprawdza się świetnie, bo nie psuje dynamiki, a jednak zabezpiecza przed zniekształceniami. Z mojego doświadczenia, im krótszy fade in, tym bardziej subtelny efekt – ale zawsze zostaje ten miły efekt wygładzenia początku dźwięku, co jest szczególnie ważne przy miksowaniu na żywo czy masteringu. Pamiętaj, że fade in to nie tylko efekt „estetyczny”, ale wręcz fundament przy obróbce audio, bez którego trudno osiągnąć profesjonalne brzmienie.

Pytanie 9

Aplikacje DAW mogą odtwarzać pliki

A. o różnej rozdzielczości i różnej częstotliwości.
B. tylko w formatach kompresji stratnej.
C. tylko typu <i>interleaved</i>.
D. audio oraz MIDI.
Aplikacje DAW, czyli Digital Audio Workstation, zostały zaprojektowane z myślą o wszechstronnej obsłudze zarówno plików audio, jak i danych MIDI. To jest praktycznie standard w branży – nie wyobrażam sobie pracy bez tej funkcjonalności, bo przecież producenci, realizatorzy i muzycy na co dzień korzystają z obu tych typów danych. Przykładowo, nagrywając wokal czy gitarę, pracujemy na ścieżkach audio, natomiast cały świat instrumentów wirtualnych, automatów perkusyjnych czy sterowania syntezatorami opiera się właśnie na MIDI. To właśnie elastyczność DAW-ów sprawia, że w jednym projekcie możesz miksować sample audio z partiami dogrywanymi na klawiaturze MIDI i automatyzować je bez żadnej dodatkowej konwersji. Standardy takie jak MIDI 1.0 czy najnowszy MIDI 2.0 są wspierane przez praktycznie każde poważne DAW: od Abletona przez Cubase po Logic Pro. Z mojego doświadczenia wynika, że umiejętność obsługi obu typów plików to dziś absolutna podstawa – pozwala nie tylko na swobodę twórczą, ale też na współpracę z innymi muzykami i producentami na całym świecie. Obsługa plików audio oraz MIDI to nie tylko wygoda, ale wręcz fundament pracy z każdym nowoczesnym DAW-em, bez względu na to, jaki gatunek muzyczny tworzysz.

Pytanie 10

Zastosowanie procesora Upward Expander wpływa na

A. zmniejszenie dynamiki.
B. ograniczenie niskich tonów.
C. usunięcie przydźwięku sieci.
D. poszerzenie dynamiki.
Procesor typu Upward Expander to zdecydowanie ciekawe narzędzie w realizacji dźwięku, zwłaszcza w kontekście obróbki dynamiki. Jego głównym zadaniem jest poszerzenie zakresu dynamiki sygnału audio – co oznacza, że cichsze fragmenty stają się jeszcze cichsze względem głośnych. To zupełnie odwrotnie niż w przypadku kompresora, który "ściska" dynamikę poprzez wyrównywanie poziomów. W praktyce, zastosowanie upw. expandera przydaje się wtedy, gdy nagranie wydaje się zbyt "spłaszczone", na przykład po wcześniejszym mocnym skompresowaniu lub przy słabych nagraniach z dużą ilością szumów w tle. Upraszczając, expander pomaga przywrócić naturalność i przestrzeń nagrania, przez co miks staje się bardziej przejrzysty. Przykład z mojego doświadczenia – czasem, kiedy wokal jest za bardzo wyciśnięty przez kompresję, expander potrafi dodać mu życia, podkreślając subtelności, które były zbyt ukryte. W branży dźwiękowej stosuje się expander w broadcastingu, postprodukcji filmowej czy w masteringu, gdzie ważne jest zachowanie rozpiętości dynamicznej. Zgodnie z praktykami AES i standardami broadcastu, ekspander powinien być stosowany z wyczuciem, aby nie przesadzić i nie spowodować przesadnej utraty detali. Niektórzy realizatorzy stosują też expandery selektywnie, np. tylko na ścieżkach perkusji, by podkreślić atak i naturalność. W skrócie, upward expander poszerza dynamikę – to jego najważniejsza cecha i cel stosowania.

Pytanie 11

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Split
B. Copy
C. Lock
D. Mute
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 12

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. ADAT
B. SACD
C. CC
D. DCC
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 13

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. COPY
B. PASTE
C. MUTE
D. CUT
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 14

Kompresor dynamiki do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Matrix
B. Insert
C. Master Output
D. Aux
Podłączenie kompresora dynamiki w torze Insert to absolutny standard w obróbce szeregowej sygnału audio w środowisku DAW. Chodzi o to, że Insert dosłownie wstawia urządzenie (czyli w tym przypadku plugin-kompresor) bezpośrednio w ścieżce sygnałowej konkretnego kanału. Dzięki temu cały sygnał jest przetwarzany – nie omija kompresora żaden fragment ścieżki. To właśnie sprawia, że możemy uzyskać pełną kontrolę nad dynamiką danej ścieżki, np. wokalu czy gitary. Tak robią wszyscy realizatorzy – od studiów domowych po największe produkcje, bo Insert pozwala na precyzyjne i szybkie reagowanie na zmiany sygnału. Oczywiście, w miksie często łączy się Insert z innymi technikami (np. równoległą kompresją na Auxach), ale dla podstawowych zastosowań typowy kompresor zawsze ląduje na Insert. Warto pamiętać, że w DAW Insert działa dokładnie tak samo jak na analogowych konsoletach – jest to wirtualny odpowiednik gniazda insertowego, gdzie można 'wpiąć' dowolny efekt przetwarzający całość sygnału. Moim zdaniem to jeden z fundamentów miksu, którego nie można pomijać, bo daje największą przewidywalność i powtarzalność efektów.

Pytanie 15

Który z wymienionych sposobów opisu osi czasu w sesji programu DAW oznacza, że oś wyskalowana jest w próbkach?

A. Samples
B. Frames
C. Bars
D. Seconds
Odpowiedź „Samples” to faktycznie właściwy wybór, bo w profesjonalnych programach DAW (czyli Digital Audio Workstation) oś czasu skalowana właśnie w próbkach daje najdokładniejszą kontrolę nad nagraniem czy edycją dźwięku. Próbka (sample) to najmniejszy fragment cyfrowego dźwięku – taka pojedyncza wartość amplitudy zapisana w bardzo krótkim odstępie czasu, zależnie od częstotliwości próbkowania. Dla przykładu, przy typowych ustawieniach 44,1 kHz (standard w muzyce), każda sekunda dźwięku to aż 44 100 próbek! W praktyce praca na osi „Samples” przydaje się zwłaszcza tam, gdzie liczy się chirurgiczna precyzja: np. przy edycji transjentów, usuwaniu klików, automatyzacji efektów typu glitch czy nawet synchronizacji różnych ścieżek z dokładnością co do pojedynczej próbki. Warto wiedzieć, że edytowanie w tej skali pozwala uniknąć artefaktów, które mogłyby powstać przy mniej precyzyjnym ustawieniu siatki. Branżowe standardy, zwłaszcza w masteringu i przy pracy z materiałem do broadcastu czy filmu, często wymagają pracy właśnie w próbce, gdy czas lub „frame” nie wystarczą do uzyskania pełnej kontroli. Z mojego doświadczenia wynika, że osoby początkujące rzadko korzystają z tego trybu, ale im bardziej zaawansowana produkcja, tym częściej się do tego wraca. Nawet drobna przesunięcie ścieżki o kilka próbek potrafi całkiem zmienić brzmienie miksu. Dobrą praktyką w studiu jest zawsze sprawdzać, czy precyzja edytora odpowiada wymaganiom projektu – bez świadomości co to są sample, trudno robić naprawdę profesjonalny dźwięk.

Pytanie 16

Które z wymienionych oprogramowań DAW umożliwia zaawansowaną edycję ścieżek dźwiękowych, bez możliwości łączenia ich ze ścieżkami MIDI?

A. Wavelab
B. Logic Pro
C. Cubase
D. Sonar
Odpowiedź Wavelab jest tutaj najbardziej trafna, bo to oprogramowanie stricte do edycji i masteringu audio – bez pełnego wsparcia warstwy MIDI, której na przykład nie obsłużysz tutaj nawet gdybyś chciał. Wavelab od lat jest wykorzystywany głównie przez inżynierów dźwięku, realizatorów i producentów do pracy z materiałem dźwiękowym typu stereo lub wielokanałowym, ale tylko w formie audio. Moim zdaniem, jeśli ktoś zamierza skupić się na masteringu, restauracji nagrań albo precyzyjnej edycji ścieżek dźwiękowych, Wavelab jest jednym z takich branżowych standardów, które rzeczywiście się do tego nadają. Fajne jest to, że masz mnóstwo narzędzi do korekcji, kompresji, cięcia, nakładania efektów czy mierzenia parametrów audio, ale żadnej możliwości sekwencjonowania czy aranżowania MIDI. To spora różnica w porównaniu do klasycznych DAW-ów typu Cubase czy Logic Pro, gdzie MIDI to podstawa. Z mojego doświadczenia wynika, że osoby pracujące typowo z dźwiękiem, np. przy postprodukcji do filmów czy radiu, bardzo często wybierają właśnie WaveLaba, bo tam MIDI po prostu jest zbędne. To dobrze pokazuje różnicę między narzędziami typowo do obróbki audio a typowymi „pełnymi” DAW-ami, które obsługują zarówno ścieżki audio, jak i MIDI.

Pytanie 17

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 1,4:1
B. ∞:1
C. 2:1
D. 6:1
Limiter, w odróżnieniu od zwykłych kompresorów, charakteryzuje się nieskończonym, czyli teoretycznie ∞:1 stopniem kompresji. To oznacza, że gdy sygnał przekroczy ustawiony próg (threshold), nie jest on wcale przepuszczany dalej, a poziom wyjściowy nie może wzrosnąć powyżej tego progu. W praktyce oznacza to bardzo agresywną ochronę przed przesterowaniem – żadna wartość powyżej thresholdu się nie przebije. Branżowe standardy, np. w nagłośnieniu koncertowym czy przy masteringu, jednoznacznie przypisują limiterom właśnie ten typ działania. Przykładowo, w miksie nagrań radiowych limiter ustawia się na końcu łańcucha, by nie dopuścić do przekroczenia 0 dBFS i uniknąć zniekształceń cyfrowych. Niektóre nowoczesne limitery oferują dodatkowe funkcje – look-ahead, soft clipping, czy programowane krzywe ataku i release – ale zawsze sednem jest ta nieskończona kompresja. Moim zdaniem, znając ten parametr, łatwiej świadomie korzystać z narzędzi do obróbki dynamiki i lepiej chronić materiał audio przed niechcianym przesterem. Warto pamiętać, że zwykłe kompresory (o stopniach np. 2:1 czy 6:1) stosuje się do subtelniejszego kształtowania dynamiki, a nie twardej ochrony poziomów sygnału.

Pytanie 18

Przy porównaniu cyfrowych plików dźwiękowych o tej samej rozdzielczości bitowej, teoretycznie najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie, którego poziom szczytowy osiąga

A. -6 dBFS
B. -12 dBFS
C. -3 dBFS
D. -0,3 dBFS
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje charakterystykę rozpiętości dynamicznej w plikach cyfrowych. Chodzi o to, że jeśli nagranie osiąga poziom szczytowy „tylko” -12 dBFS, to całość sygnału jest znacznie ciszej względem maksymalnego możliwego poziomu, który wynosi 0 dBFS w systemach cyfrowych. W praktyce oznacza to, że nie wykorzystujesz pełni dostępnego zakresu dynamiki konwertera A/C lub pliku, przez co sygnał „leży” daleko od maksimum i spada nam stosunek sygnału do szumu, a przez to efektywna rozpiętość dynamiczna staje się mniejsza. W studiach nagraniowych i w masteringach zaleca się, żeby szczyty trafiały blisko 0 dBFS (np. do -1 dBFS dla bezpieczeństwa), bo wtedy najlepiej używamy całego „okna” dostępnego w cyfrowym audio. Ograniczając się do -12 dBFS, z praktycznego punktu widzenia, „marnujemy” 12 dB dynamiki, co może wydawać się dużo – szczególnie przy nagraniach wymagających szerokiej palety dynamicznej, jak muzyka klasyczna czy ścieżki filmowe. Często początkujący inżynierowie dźwięku zostawiają za duży margines bezpieczeństwa, a potem się dziwią, że nagranie brzmi płasko i cicho. Moim zdaniem warto pamiętać, żeby trzymać szczyty jak najbliżej limitu, ale nie doprowadzać do przesteru – to taka złota zasada w cyfrowym audio.

Pytanie 19

Normalizacja nagrania (peak normalization) to

A. obniżenie średniego poziomu nagrania o 3 dB.
B. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS.
C. obniżenie szczytowego poziomu nagrania o 3 dB.
D. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
Normalizacja szczytowa (peak normalization) to podstawa podczas pracy z dźwiękiem, zwłaszcza gdy zależy nam na zachowaniu integralności materiału i ułatwieniu sobie dalszej obróbki. W praktyce chodzi o to, żeby cały plik audio został wzmocniony lub osłabiony tak, by jego najgłośniejszy fragment, czyli tzw. szczyt (peak), osiągnął określony poziom – najczęściej 0 dBFS, czyli maksymalny możliwy poziom w cyfrowym systemie audio bez przesterowania. To istotne, bo dzięki temu możemy mieć pewność, że dźwięk wykorzysta pełen zakres dynamiki dostępnej w systemie, a jednocześnie nie przekroczy granicy, po której zacznie się zniekształcać. Z mojego doświadczenia, normalizacja szczytowa jest często wykorzystywana np. przed masteringiem czy podczas przygotowywania ścieżek do miksu, żeby każdy utwór miał podobny poziom głośności początkowej. Warto pamiętać, że normalizacja peakowa nie wpływa na relacje między cichszymi i głośniejszymi fragmentami, nie zmienia kompresji czy dynamiki – po prostu przesuwa cały sygnał w górę lub w dół. W branży to taki codzienny chleb – szybki sposób na wyrównanie poziomów. Oczywiście, w niektórych sytuacjach bardziej zależy nam na normalizacji średniej (RMS), ale to już zupełnie inna bajka. Tutaj, jeśli zależy nam na tym, żeby nie przekraczać 0 dBFS, a jednocześnie korzystać z pełnej głębi bitowej, peak normalization to najlepsza opcja.

Pytanie 20

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .omf
B. .alac
C. .ogg
D. .wav
Format pliku .ogg jest związany z kodekiem stratnym, najczęściej wykorzystującym kompresję Vorbis. Ogg Vorbis to uznany w środowisku branżowym sposób na redukcję wielkości plików audio przy zachowaniu stosunkowo wysokiej jakości dźwięku. Moim zdaniem to jeden z najlepszych wyborów, jeśli zależy komuś na bezpłatnym i otwartym standardzie, bez ograniczeń patentowych jak w przypadku MP3. Praktycznie każdy gracz, radio internetowe czy podcast korzystał kiedyś z OGG właśnie po to, by zoptymalizować transfer bez wyraźnej utraty wierności odsłuchu. Co ciekawe, format ten jest popularny w środowisku open source, zwłaszcza w grach komputerowych i aplikacjach linuksowych, bo tam nikt nie chce płacić za MP3. Pliki OGG są też wygodne do strumieniowania, co znacznie odciąża serwery, a użytkownicy nie narzekają na jakość dźwięku. Warto ogarniać różnice pomiędzy stratnymi a bezstratnymi kodekami – jeśli ktoś archiwizuje lub miksuje muzykę, to raczej nie korzysta z OGG, ale do codziennego słuchania, podcastów czy dystrybucji online – ten format naprawdę daje radę. Eksperci zwracają uwagę, że dobór kodeka powinien zależeć od przeznaczenia pliku, a OGG to świetna opcja do multimediów na co dzień.

Pytanie 21

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD – R DL
B. DVD + R SL
C. DVD – R DL
D. CD + R SL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 22

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 15 Gb/s
B. 480 Mb/s
C. 33 Gb/s
D. 12 Mb/s
Maksymalna prędkość transmisji danych dla standardu USB 2.0 wynosi właśnie 480 Mb/s (megabitów na sekundę). To była swego czasu ogromna zmiana na rynku, bo wcześniejszy standard USB 1.1 oferował zaledwie 12 Mb/s – różnica jest więc naprawdę kolosalna w codziennym użytkowaniu. USB 2.0, znane też jako High-Speed USB, umożliwiło komfortowe podłączanie zewnętrznych dysków, drukarek czy kamer, które wcześniej po prostu działałyby bardzo wolno. Na przykład kopiowanie pliku o wielkości 1 GB przez USB 2.0 trwało zdecydowanie krócej niż przez starsze porty. Moim zdaniem warto pamiętać, że 480 Mb/s to wartość teoretyczna, w praktyce rzeczywiste transfery są niższe, bo zależą jeszcze od jakości kabla, sprzętu czy nawet systemu operacyjnego. Branża IT przyjęła ten standard na długie lata i do dziś wiele urządzeń, zwłaszcza tańszych, korzysta właśnie z USB 2.0. Dla porównania – nowsze wersje USB, jak 3.0 czy 3.1, podnoszą poprzeczkę nawet do kilku gigabitów na sekundę, ale to już inna bajka. Najważniejsze, żeby rozpoznawać, do jakich zastosowań wystarcza USB 2.0, a kiedy warto sięgnąć po coś szybszego – np. do przesyłania dużych plików wideo. Tak czy inaczej, 480 Mb/s to kluczowa liczba, która powinna się każdemu technikowi od razu kojarzyć właśnie z USB 2.0.

Pytanie 23

Procesor dźwięku, umożliwiający kompresję sygnału audio, zaliczany jest do grupy procesorów przetwarzających

A. intonację.
B. przestrzeń.
C. dynamikę.
D. barwę.
Procesor dźwięku umożliwiający kompresję sygnału audio faktycznie należy do grupy procesorów przetwarzających dynamikę. Chodzi tutaj o urządzenia lub wtyczki, które wpływają na zakres głośności sygnału – czyli na przykład kompresory, limitery, czy ekspandery. Ich głównym zadaniem jest kontrolowanie różnic między najcichszymi a najgłośniejszymi fragmentami nagrania. Moim zdaniem to absolutnie podstawowe narzędzie w pracy z muzyką, zarówno podczas nagrań studyjnych, jak i przy miksowaniu koncertów na żywo. Kompresor pozwala wyrównać poziomy, przez co wokal nie „znika” w miksie albo nie wybija się nagle, co często się zdarza bez odpowiedniej kontroli dynamiki. Zwróć uwagę, że branża audio od lat uznaje kompresję za kluczowy etap produkcji – trudno sobie wyobrazić profesjonalnie brzmiące nagranie bez odpowiednio użytej kompresji. Często początkujący realizatorzy ignorują ten etap, przez co ich produkcje brzmią płasko albo chaotycznie. Warto wiedzieć, że procesory dynamiki mają zastosowanie nawet w radiu i telewizji, gdzie sygnał musi być zrównoważony, żeby nie zaskoczyć odbiorcy. Praktyka pokazuje, że dobre zrozumienie działania kompresji i innych procesorów dynamiki to podstawa pracy każdego realizatora czy producenta.

Pytanie 24

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 0|0|000
B. 1|1|000
C. 1|0|000
D. 0|1|000
Wskazanie 1|1|000 na liczniku BARS/BEATS w DAW faktycznie oznacza miejsce początku sesji. To dlatego, że większość programów DAW – takich jak Ableton Live, Cubase, Pro Tools czy FL Studio – przyjęła właśnie taki standard przedstawiania lokalizacji na osi czasu: pierwszy numer wskazuje takt, drugi uderzenie (beat), a trzeci tzw. tick (czyli drobna jednostka podziału taktu, czasem nazywana też sub-beatem). W praktyce, w DAW nigdy nie zobaczysz pozycji 0|0|000, bo nie istnieje taki „zerowy” takt – muzyka zawsze zaczyna się od pierwszego taktu i pierwszego uderzenia, czyli 1|1|000. To bardzo ważne przy ustawianiu markerów, punktów startu loopów, eksportu czy automatyzacji – wszystko synchronizuje się właśnie do tej pozycji. Wiesz, czasem początkujący próbują ustawić coś na „zerowym” takcie, ale wtedy DAWy po prostu nie pozwalają lub przesuwają wszystko na 1|1|000. To też miejsce, gdzie zwykle zaczynam importować ślady lub ustawiać pierwsze wejście MIDI, bo wtedy wszystko jest równo z siatką i nie ma potem problemów z przesuwaniem. Jest to też bardzo wygodne w kontekście pracy zespołowej – jeżeli ktoś wyśle Ci projekt, to możesz być pewien, że początek sesji zawsze jest w 1|1|000. Przyzwyczajenie się do tego ułatwia komunikację w branży, a także sprawia, że praca idzie sprawniej. Tak jest po prostu czytelniej i żaden szanujący się DAW nie robi tego inaczej – to taki branżowy standard, który po prostu warto znać i stosować.

Pytanie 25

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. PASTE
B. MERGE
C. GLUE
D. CROSSFADE
Crossfade to jedna z tych funkcji, bez których trudno wyobrazić sobie profesjonalną pracę w DAW-ie, zwłaszcza kiedy obrabia się pliki audio i zależy nam na płynnym przejściu pomiędzy dwoma ścieżkami. Efekt crossfade polega na jednoczesnym wyciszaniu jednej ścieżki dźwiękowej i narastaniu drugiej – dzięki temu nie słychać żadnych klików, nieprzyjemnych przeskoków czy nagłych zmian głośności. Takie rozwiązanie jest standardem nie tylko w muzyce, ale też w postprodukcji filmowej czy radiowej, bo daje bardzo naturalne, „ludzkie” wrażenie płynności. Moim zdaniem, każda osoba, która poważnie myśli o miksowaniu lub edycji dźwięku, powinna ogarnąć temat crossfade’ów jak najszybciej, bo to skraca pracę i pozwala uniknąć żmudnego, ręcznego dopasowywania krzywych głośności. Branżowe DAWy, takie jak Ableton, Cubase, czy Pro Tools, mają opcje crossfade’ów dostępne praktycznie od ręki – często wystarczy po prostu zaznaczyć dwa sąsiadujące klipy audio i kliknąć odpowiednią funkcję. Dobrze wykonany crossfade pozwala nie tylko usunąć trzaski, ale też kreatywnie łączyć różne próbki, np. perkusyjne lub wokalne. Najlepsi realizatorzy dźwięku korzystają z tego codziennie i zwracają uwagę nawet na kształt krzywej crossfade’u (logarytmiczna, liniowa, eksponencjalna), żeby mieć pełną kontrolę nad charakterem przejścia. Warto też pamiętać, że crossfade nie ingeruje w oryginalny materiał, tylko nakłada efekt na styku klipów, co daje sporą swobodę edycyjną.

Pytanie 26

Ile kanałów zawiera sygnał stereofoniczny nagrany w technice mikrofonowej X/Y?

A. 4 kanały.
B. 2 kanały.
C. 6 kanałów.
D. 8 kanałów.
Sygnał stereofoniczny nagrany w technice mikrofonowej X/Y to klasyczny przykład, gdzie mamy do czynienia dokładnie z dwoma kanałami: lewym i prawym. Tak to się przyjęło właściwie wszędzie – od domowych nagrań, przez studia nagraniowe aż po transmisje radiowe i telewizyjne. Technika X/Y polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej (najczęściej) pod kątem 90° lub 120° względem siebie, membranami praktycznie w tym samym punkcie. Dzięki temu uzyskujemy wierne odwzorowanie panoramy stereo bez problemów z przesunięciem fazy. Dwa kanały pozwalają odtwarzać dźwięk w taki sposób, że słuchacz zyskuje poczucie przestrzeni – słychać skąd dany instrument czy głos dochodzi. Właśnie w ten sposób rejestruje się koncerty na żywo, nagrania ambientowe czy próby zespołów, jeśli zależy nam na autentycznym obrazie dźwiękowym. W branży audio to taki złoty standard – większość sprzętu, od mikserów po rejestratory, jest domyślnie przygotowana pod dwa kanały stereo. Moim zdaniem, jeśli ktoś planuje swoją przygodę z rejestracją dźwięku, powinien zacząć właśnie od opanowania techniki X/Y i zrozumienia, jak działa stereofonia na bazie dwóch kanałów – to fundament przy dalszych eksperymentach z dźwiękiem przestrzennym.

Pytanie 27

Której komendy programu DAW należy użyć w celu przywrócenia stanu sesji montażowej do ostatnio zapisanej wersji?

A. Revert to Saved
B. Save As
C. Save
D. Save Copy In
Komenda „Revert to Saved” to taki trochę ratunek, kiedy coś pójdzie nie po naszej myśli podczas pracy w DAW. Jeśli np. przypadkowo usuniesz ścieżkę, nadpiszesz efekt czy po prostu eksperymentujesz i chcesz wrócić do momentu, w którym ostatnio zapisałeś projekt, to właśnie ta opcja pozwala cofnąć całą sesję do ostatniego, zapisanego stanu. Nie zapisuje aktualnych zmian, nie pyta o nic, po prostu wczytuje ostatnią wersję projektu. W praktyce na bieżąco warto używać funkcji Save (albo nawet autosave, jak DAW na to pozwala), żeby minimalizować ewentualne straty, ale jak już się pogubisz lub coś pójdzie nie tak – Revert to Saved to klasyczny „panic button”. W branży muzycznej i postprodukcyjnej to rozwiązanie pozwala zachować porządek i pewność, że możesz wrócić do bezpiecznego punktu w każdej chwili. Moim zdaniem dobre praktyki to regularne zapisywanie, robienie kopii zapasowych (np. Save Copy In przy większych zmianach), a Revert zostawić sobie na sytuacje awaryjne, gdy trzeba naprawdę odkręcić całą sesję. Dla osoby pracującej z dużą ilością ścieżek czy efektów, to oszczędza mnóstwo czasu i stresu – zwłaszcza gdy deadline na karku.

Pytanie 28

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Decay.
B. Diffusion.
C. Type.
D. Predelay.
Predelay w efektach typu Reverb to naprawdę jeden z tych parametrów, które potrafią bardzo mocno wpłynąć na charakterystykę przestrzeni, jaką budujemy w miksie. Pozwala on ustawić czas (w milisekundach) między momentem pojawienia się dźwięku źródłowego a pierwszym słyszalnym odbiciem od „ścian” wirtualnej przestrzeni. To bardzo przydatne, szczególnie gdy chcemy, żeby oryginalny sygnał był bardziej czytelny i nie zlewał się od razu z pogłosem – daje to trochę „oddechu” instrumentom czy wokalom. W praktyce, kiedy miksuję wokal albo gitarę akustyczną, często eksperymentuję z predelay, żeby uzyskać bardziej naturalny efekt i nie zamazać transjentów. Producenci audio i inżynierowie dźwięku od lat zwracają uwagę na ustawienie predelay, szczególnie przy dynamicznych aranżacjach. Branżowe standardy jasno sugerują, żeby predelay dobierać w odniesieniu do tempa utworu – np. 1/16 czy 1/32 nuty, żeby pogłos nie przeszkadzał w groove. Moim zdaniem wiele osób lekceważy ten parametr, a to on decyduje o tym, czy dźwięk jest „z przodu” czy już w głębi miksu. Warto poeksperymentować i przekonać się, jak sporo można uzyskać, dostosowując tylko ten jeden suwak.

Pytanie 29

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 44,1 kHz
C. 48 kHz
D. 96 kHz
44,1 kHz to częstotliwość próbkowania, która od lat jest uznawana za standardową dla formatu CD-Audio. Tak ustalono już w początkach lat 80., kiedy opracowywano technologię CD. Ta wartość nie wzięła się znikąd – była wynikiem kompromisu technicznego. Chodziło o uzyskanie wystarczająco wysokiej jakości dźwięku, a jednocześnie dopasowanie do ówczesnych możliwości sprzętowych oraz istniejących formatów wideo (między innymi NTSC i PAL). 44,1 kHz pozwala wiernie odtworzyć częstotliwości słyszalne przez ludzkie ucho, czyli do ok. 20 kHz, bo – zgodnie z twierdzeniem Nyquista – aby prawidłowo zarejestrować sygnał, trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa częstotliwość sygnału. W praktyce ta wartość do dziś jest obecna nie tylko w płytach CD, ale też w wielu plikach muzycznych (np. WAV, FLAC czy MP3), które są zgrywane z płyt kompaktowych, albo przygotowywane pod wydanie cyfrowe. Z mojego doświadczenia – większość domowych i studyjnych odtwarzaczy oraz sprzętu audio bez problemu radzi sobie z tym standardem, a wyższe częstotliwości próbkowania, choć bywają stosowane w studiach nagrań, to w codziennym odsłuchu nie wnoszą aż tak dużej różnicy dla przeciętnego słuchacza. Tak więc, jeżeli gdzieś natkniesz się na informację o muzyce z CD, praktycznie zawsze będzie to 44,1 kHz i 16 bitów na próbkę.

Pytanie 30

Jaka jest maksymalna pojemność karty RS-MMC?

A. 64 GB
B. 2 GB
C. 16 GB
D. 128 GB
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 31

Kopię bezpieczeństwa materiału dźwiękowego sporządza się

A. z niższą rozdzielczością.
B. z niższą częstotliwością.
C. z wyższą rozdzielczością.
D. w źródłowych parametrach.
Kopia bezpieczeństwa materiału dźwiękowego powinna zawsze być tworzona w tych samych, źródłowych parametrach, co oryginał. To jest taka podstawowa zasada w branży audio, o której czasami niestety się zapomina. Jeśli zapiszesz plik z obniżoną jakością – na przykład zmniejszysz rozdzielczość bitową lub częstotliwość próbkowania – to nie zrobisz prawdziwej kopii bezpieczeństwa, tylko stworzysz nową, gorszą wersję. A w razie awarii nie odzyskasz pełnej jakości oryginału. Moim zdaniem to trochę jakby robić ksero ważnego dokumentu na rozmazanym papierze – formalnie jest kopia, ale po co taka, z której nie da się nic odczytać? Profesjonalne studia nagraniowe, archiwa radiowe i wszyscy, którzy na poważnie zajmują się dźwiękiem, zawsze archiwizują materiał w parametrach źródłowych. Przykładowo, jeśli oryginalny plik to WAV 48kHz/24bit, backup też musi być dokładnie taki sam, bez żadnej kompresji stratnej czy downgrade'u parametrów. Taką praktykę wymuszają też często wymogi prawne i standardy branżowe, np. zalecenia Międzynarodowej Federacji Przemysłu Fonograficznego (IFPI) czy EBU (European Broadcasting Union). Dodatkowo, mając kopię bezpieczeństwa w oryginalnych parametrach, zawsze możesz wrócić do dowolnej edycji, remasteringu lub konwersji bez ryzyka degradacji jakości. Osobiście uważam, że to jest rozwiązanie, które daje spokój ducha i pewność, że chronisz nie tylko dane, ale też ich wartość artystyczną i użytkową.

Pytanie 32

Ile kanałów audio stosowanych jest w reprodukcji techniką 5.1?

A. 7 kanałów.
B. 6 kanałów.
C. 8 kanałów.
D. 12 kanałów.
Technika 5.1 to obecnie jeden z najczęściej stosowanych standardów dźwięku przestrzennego, zwłaszcza w kinie domowym, grach wideo czy transmisjach telewizyjnych. Liczba „5” oznacza pięć pełnopasmowych kanałów audio: front lewy, front prawy, centralny, surround lewy oraz surround prawy. Ta konfiguracja pozwala uzyskać bardzo realistyczne wrażenie przestrzeni, gdzie dźwięki mogą być precyzyjnie przypisane do otoczenia wokół widza. Ten szósty kanał, czyli „.1”, odnosi się do kanału niskich częstotliwości LFE (Low Frequency Effects), dedykowanego subwooferowi. Dzięki temu subwoofer odtwarza głównie efekty specjalne, takie jak wybuchy czy dudnienia, wzmacniając doznania dźwiękowe. Dla mnie, jako fana kina domowego, różnicę między zwykłym stereo a 5.1 słychać od razu – szczególnie przy filmach akcji albo grach wyścigowych. Standard 5.1 został formalnie zdefiniowany przez organizacje takie jak ITU-R BS.775 oraz Dolby Digital i DTS. Warto dodać, że instalacja systemu 5.1 jest dość uniwersalna i nie wymaga bardzo zaawansowanego sprzętu, przez co jest szeroko dostępna. Rozumienie tej konfiguracji to podstawa, jeśli myślisz o pracy z dźwiękiem, bo praktycznie każdy profesjonalny system audio, czy w studio, czy w kinie, potrafi obsłużyć układ 5.1. Z mojego doświadczenia sam podział na 5+1 kanałów znacznie ułatwia miksowanie ścieżek dźwiękowych, bo pozwala lepiej rozplanować brzmienie i efekty, żeby publiczność naprawdę miała poczucie przestrzeni.

Pytanie 33

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Celemony Melodyne.
B. Avid ProTools.
C. Microsoft Windows Media Player.
D. Steiberg Cubase.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 34

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 2 ms
B. 0,02 ms
C. 20 ms
D. 0,2 ms
Odstęp czasowy pomiędzy kolejnymi próbkami dźwięku przy częstotliwości 48 kHz wynosi dokładnie 1/48000 sekundy, czyli około 0,0208 ms. To jest wartość bardzo mała, ale właśnie tak działa współczesna cyfrowa rejestracja dźwięku – im większa częstotliwość próbkowania, tym krótszy czas między próbkami i tym lepsza jakość odwzorowania sygnału analogowego. W praktyce 48 kHz to standard w audio-wideo (np. produkcja filmowa, nagrania do telewizji, profesjonalne rejestratory), bo umożliwia uzyskanie wysokiej jakości dźwięku przy relatywnie niskim ryzyku zniekształceń wynikających z aliasingu. Naprawdę, wiele interfejsów audio ma domyślnie ustawione właśnie 48 kHz, bo to taki złoty środek między jakością a wydajnością systemu. Często można spotkać wyższe częstotliwości jak 96 kHz, ale to już bardziej domena studiów nagrań „audiofilskich”. Moim zdaniem dobrze jest znać ten przelicznik, bo czasami trzeba ręcznie ustawić parametry konwersji – wtedy łatwo się pomylić, jeśli nie rozumie się, skąd się bierze taki krótki czas pomiędzy próbkami. Warto jeszcze dodać, że błędne ustawienie próbkowania prowadzi do utraty wysokich częstotliwości lub do zniekształceń, które są słyszalne nawet dla niewprawionego ucha. To niby mały parametr, a rzutuje na całe brzmienie nagrania.

Pytanie 35

Zapis magnetooptyczny wykorzystywany jest w nośniku typu

A. Dysk SSD
B. Mini Disc
C. Kaseta DAT
D. Karta SDHC
Mini Disc to nośnik, który opiera się na technologii zapisu magnetooptycznego. To dość ciekawa hybryda, bo łączy elementy zapisu magnetycznego i optycznego. Najpierw dane są zapisywane magnetycznie, ale żeby to w ogóle było możliwe, laser nagrzewa odpowiedni fragment dysku do wysokiej temperatury. Dopiero wtedy głowica magnetyczna może zmienić polaryzację tego miejsca. Odczyt też odbywa się optycznie, więc w praktyce Mini Disce używały lasera podobnie jak płyty CD, ale z dodatkowym elementem pola magnetycznego przy zapisie. To rozwiązanie stosowano głównie w sprzęcie audio Sony, np. przenośnych odtwarzaczach i rejestratorach dźwięku, bo dawało możliwość wielokrotnego zapisu i wysokiej trwałości nośnika. Moim zdaniem to fajny przykład na to, jak inżynierowie próbowali pogodzić szybki zapis, dużą pojemność i trwałość – coś jak kompromis pomiędzy klasyczną kasetą a płytą CD-RW. W branży do dziś Mini Disc jest podawany jako przykład nowatorskiego podejścia do przechowywania danych, choć oczywiście obecnie został już wyparty przez nośniki półprzewodnikowe. Ogólnie rzecz biorąc, technologia magnetooptyczna to kawał ciekawej historii – znalazła też zastosowanie np. w stacjonarnych napędach MO używanych w archiwizacji danych w laboratoriach i firmach, gdzie liczy się bezpieczeństwo i trwałość zapisu.

Pytanie 36

Który z przedstawionych sposobów jest najwłaściwszy do zaznaczenia w scenariuszu słuchowiska radiowego efektów dźwiękowych oraz muzyki?

A. Zastosowanie dużo mniejszych liter czcionki w porównaniu z dialogami i opisem akcji.
B. Zastosowanie przypisów dolnych.
C. Zastosowanie odnośników w postaci gwiazdek i odpowiadających im opisów na końcu scenariusza.
D. Zastosowanie nawiasu i dużych liter.
Zaznaczenie efektów dźwiękowych i muzyki w scenariuszu słuchowiska radiowego przy użyciu nawiasów i dużych liter to sposób, który sprawdził się w praktyce już od wielu lat. Taka forma jest od razu czytelna dla realizatorów, reżyserów czy aktorów – dosłownie wyróżnia się na tle tekstu, więc trudno ją przeoczyć. Standardowo wpisuje się wtedy np. (DŹWIĘK DESZCZU) albo (MUZYKA: NAPIĘCIE), dzięki czemu każda osoba pracująca z tekstem wie, kiedy i jaką ścieżkę dźwiękową należy dodać. To działa, moim zdaniem, najlepiej, bo nie wymaga szukania przypisów czy wertowania końca scenariusza. W branży radiowej i przy produkcji audiobooków uznaje się właśnie taką konwencję za bardzo praktyczną – pozwala na szybki podział tekstu na warstwy: dialogi, akcję i instrukcje dźwiękowe. Dodatkowo, jeśli scenariusz trafia później do montażu, wszystko jest jasne nawet dla osób pierwszy raz widzących ten dokument. Warto pamiętać, że duże litery w nawiasie to taka umowna umowa między twórcami – łatwo się tego nauczyć i nie ma ryzyka błędnej interpretacji. Z mojego doświadczenia wynika, że inne formy po prostu spowalniają pracę lub sprawiają, że ktoś coś przeoczy. Niby drobna rzecz, a robi różnicę. Tak więc, stosowanie nawiasów i wersalików to nie tylko wygoda, ale i pewna gwarancja, że dźwięki i muzyka pojawią się w odpowiednim miejscu, dokładnie tak jak zakładał scenarzysta.

Pytanie 37

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 7 kanałów.
B. 8 kanałów.
C. 5 kanałów.
D. 1 kanału.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 38

Który z wymienionych nośników standardowo wykorzystuje zapis dźwięku w formacie ATRAC?

A. ADAT
B. CD-Audio
C. MiniDisc
D. Mini-Cassette
Format ATRAC (Adaptive Transform Acoustic Coding) to autorski kodek Sony, stworzony specjalnie do kompresji dźwięku przy zachowaniu możliwie najlepszej jakości. To właśnie MiniDisc od początku swojego istnienia był projektowany pod kątem wykorzystania ATRAC jako domyślnego formatu zapisu audio. Moim zdaniem to dość ciekawe, bo znaczna część osób kojarzy MiniDisc tylko z nowoczesnym (jak na lata 90.) nośnikiem, a mało kto zwraca uwagę na aspekt samej kompresji – to właśnie dzięki ATRAC MiniDisc pozwalał na dłuższe nagrania przy bardzo zbliżonej do CD jakości. W praktyce, w świecie studiów nagraniowych czy nawet domowego audio ATRAC miał spore znaczenie, bo z jednej strony pozwalał zaoszczędzić miejsce, a z drugiej zachować kompromis pomiędzy jakością a wielkością pliku. Sam MiniDisc, choć nie przebił się tak mocno jak CD czy MP3, był wykorzystywany w reportażach radiowych, przez dziennikarzy terenowych czy nawet DJ-ów do szybkiego przygotowywania miksów. Zresztą niektóre przenośne odtwarzacze MiniDisc do dziś uchodzą za bardzo wytrzymałe i praktyczne, szczególnie jeśli chodzi o nagrywanie z wejścia liniowego. Dobrą praktyką przy pracy z MiniDiscami zawsze było uwzględnienie stratności kodeka ATRAC przy archiwizacji materiałów, ale mimo to ten system przez lata sprawdzał się w terenie dużo lepiej niż klasyczne kasety czy nawet pierwsze odtwarzacze MP3. Pewnie dziś ATRAC i MiniDisc to ciekawostka, ale kiedyś był to naprawdę solidny standard.

Pytanie 39

Która z funkcji programu DAW typowo umożliwia płynne przejście między dwoma sąsiadującymi plikami dźwiękowymi umieszczonymi na ścieżce w sesji montażowej?

A. Select.
B. Split.
C. Crossfade.
D. Group.
Crossfade to bardzo charakterystyczna funkcja spotykana praktycznie w każdym nowoczesnym DAW-ie, która pozwala na zrobienie naprawdę płynnego przejścia między dwoma klipami audio ustawionymi obok siebie na jednej ścieżce. W praktyce polega to na tym, że końcówka wcześniejszego pliku zostaje stopniowo ściszana (fade out), a początek następnego zostaje stopniowo podgłaśniany (fade in). Oba te procesy nakładają się na siebie przez wybrany fragment czasu i dzięki temu nie słychać żadnych trzasków, szumów czy nienaturalnych przerw. Moim zdaniem to wręcz podstawa, jeśli chodzi o montaż muzyczny, podcasty, nagrania lektorskie czy postprodukcję filmową. Branżowe workflow po prostu wymaga korzystania z crossfade'ów, chociażby dlatego, że bez nich bardzo łatwo byłoby o błędy montażowe albo nieprzyjemne artefakty. Warto pamiętać, że różne DAW-y dają sporo opcji kształtowania charakterystyki crossfade'u – można manipulować krzywą wygaszania i narastania, co pozwala dopasować efekt do konkretnych potrzeb. No i jeszcze jedno – crossfade stosuje się nie tylko w edycji audio, ale i przy miksowaniu utworów w DJ-ingu. To takie narzędzie, które jak już raz się opanuje, to trudno sobie potem wyobrazić pracę bez niego.

Pytanie 40

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Expander.
B. Ducker.
C. Delay.
D. Declicker.
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.