Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 22 kwietnia 2026 11:58
  • Data zakończenia: 22 kwietnia 2026 12:45

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Metoda dogrania fragmentu dźwięku w miejsce innego określana jest mianem

A. Fade in/out.
B. Crop in/out.
C. Punch in/out.
D. Trim in/out.
W przypadku pracy z materiałem dźwiękowym łatwo pomylić podobnie brzmiące pojęcia, które jednak oznaczają zupełnie inne techniki edycyjne. Fade in/out kojarzy się głównie z wygładzaniem początków i końców ścieżek – to po prostu stopniowe pojawianie się lub znikanie dźwięku, co pozwala uniknąć nieprzyjemnych trzasków czy gwałtownych cięć. Jest to standardowa metoda stosowana przy montażu, ale nie służy do dogrywania nowych fragmentów w miejsce starych. Trim in/out natomiast odnosi się do przycinania początku lub końca klipu audio, głównie po to, aby usunąć niepotrzebne cisze czy zakłócenia przed właściwym dźwiękiem albo po nim. Tutaj nie zastępujemy żadnej części nowym nagraniem – po prostu skracamy istniejący materiał. Crop in/out to natomiast pojęcie, które o wiele częściej spotyka się w edycji grafiki niż audio – i choć niektóre programy audio używają tego określenia przy wycinaniu fragmentów, to jednak w kontekście nagrań nie jest to metoda pozwalająca dograć nowy dźwięk w miejsce starego. Właśnie to prowadzi do częstych nieporozumień: osoby uczące się edycji audio mogą myśleć, że trim lub fade pozwala na podmianę fragmentu, ale w rzeczywistości są to narzędzia o innym przeznaczeniu. W praktyce dogranie fragmentu, czyli tzw. punch in/out, to zupełnie osobna funkcja, którą znajdziemy w prawie każdym profesjonalnym DAW-ie i która jest niezbędna przy korektach nagrań instrumentalnych czy wokalnych. Z mojej perspektywy solidne rozróżnianie tych pojęć bardzo ułatwia codzienną pracę z dźwiękiem i pozwala unikać wielu typowych błędów początkujących realizatorów.

Pytanie 2

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 8 GB
B. 1 GB
C. 2 GB
D. 4 GB
Ograniczenie maksymalnego rozmiaru pliku w systemie plików FAT32 to temat, który często prowadzi do zamieszania, zwłaszcza gdy użytkownicy próbują zapisać większe materiały na pendrive’ach. Moim zdaniem, wiele osób myli tę wartość z limitami innych systemów plików albo po prostu zakłada, że skoro nośnik ma dużo miejsca, plik dowolnej wielkości się zmieści. W rzeczywistości FAT32 ma ścisły limit – pojedynczy plik nie może przekroczyć 4 GB minus 1 bajt. Skąd się to bierze? FAT32 używa 32-bitowych adresów do przechowywania informacji o plikach, przez co nie jest w stanie zaadresować danych powyżej tej granicy. Wskazane odpowiedzi 1 GB czy 2 GB, chociaż brzmią sensownie, nie mają pokrycia w standardzie FAT32 – są to limity spotykane czasem w starszych lub innych systemach plików, jak FAT16 (gdzie faktycznie było około 2 GB na plik), ale nie w FAT32. Z kolei odpowiedź 8 GB to już typowy błąd myślowy wynikający z intuicyjnego powiązania pojemności nośnika z limitem systemu plików. Często spotykam się z przekonaniem, że skoro karta lub pendrive ma np. 16 GB, to i plik 8 GB powinien przejść. Niestety, w FAT32 to niemożliwe. Mało tego, w branży IT ta wiedza jest istotna, bo ograniczenia systemu plików często wpływają na wybór sprzętu i formatowanie nośników, zwłaszcza gdy chodzi o przechowywanie dużych archiwów, obrazów ISO czy plików wideo. Typowe błędy przy tym zagadnieniu to patrzenie tylko na rozmiar całego nośnika, a nie na ograniczenia narzucone przez system plików. Dlatego, żeby efektywnie korzystać z pamięci przenośnych, warto zawsze wziąć pod uwagę nie tylko iloma gigabajtami dysponujemy, ale też jakie limity narzuca technologia, na której pracujemy.

Pytanie 3

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 1 ścieżkę.
C. 3 ścieżki.
D. 2 ścieżki.
Przygotowanie czterech ścieżek monofonicznych w sesji DAW do montażu kwartetu smyczkowego nagranego techniką MM (czyli mikrofonu monofonicznego na każdy instrument) to absolutny standard, który wynika z charakterystyki samego zespołu. Kwartet smyczkowy składa się z czterech indywidualnych instrumentów: dwóch skrzypiec, altówki i wiolonczeli. Każdy z nich najczęściej nagrywany jest oddzielnie, osobnym mikrofonem, aby uzyskać pełną kontrolę nad brzmieniem każdego głosu w miksie. Takie podejście pozwala na niezależną edycję, panoramowanie, korekcję czy zastosowanie efektów w postprodukcji. Branżowe workflow zakłada, że jedna ścieżka odpowiada jednemu mikrofonowi, a tym samym jednemu instrumentowi – i to jest dobra praktyka, bo daje maksimum możliwości podczas miksowania. Moim zdaniem, jeśli ktoś próbowałby ograniczyć się do jednej czy dwóch ścieżek, to ograniczałby swobodę pracy i detaliczność miksu – po prostu nie da się uzyskać tej samej precyzji. Dodatkowo, jeśli planujesz rozbudować aranżacje czy korzystać z różnych ujęć mikrofonowych w większych składach, taka zasada – jedna ścieżka na każdy głos lub mikrofon – znacznie ułatwia późniejszą organizację sesji. Warto też pamiętać, że przygotowanie odpowiedniej liczby ścieżek już na etapie sesji nagraniowej to domena profesjonalistów i gwarancja sprawnego przebiegu pracy.

Pytanie 4

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 44,1 kHz
B. 48 kHz
C. 88,2 kHz
D. 96 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 5

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik w formacie MP3.
B. plik o parametrach 48 kHz/16 bit.
C. plik w formacie MP3 oraz plik odszumiony.
D. plik o parametrach 44.1 kHz/16 bit.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 6

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 96 kHz
C. 44,1 kHz
D. 48 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 7

Który z wymienionych formatów zapisu dźwięku zapewnia możliwie najmniejszy rozmiar pliku?

A. MP3
B. WAV
C. AIFF
D. FLAC
Format MP3 jest jednym z najpowszechniej używanych standardów kompresji dźwięku, jeśli chodzi o minimalizowanie rozmiaru pliku audio. Moim zdaniem to w ogóle jeden z tych formatów, które zmieniły świat muzyki cyfrowej – głównie przez to, jak bardzo ogranicza zajmowaną przestrzeń na dysku, jednocześnie zachowując jakość dźwięku na akceptowalnym poziomie. MP3 wykorzystuje kompresję stratną, co oznacza, że część informacji dźwiękowych jest po prostu usuwana, ale w taki sposób, aby ludzkie ucho tego nie wychwyciło – to się nazywa psychoakustyka i jest naprawdę sprytne. W praktyce, plik MP3 128 kbps zajmuje często kilka razy mniej miejsca niż plik WAV czy AIFF z tym samym utworem. Taki format bardzo dobrze sprawdza się w streamingu, w publikacjach internetowych albo na nośnikach ograniczonych pojemnością, np. starych odtwarzaczach MP3 czy telefonach. W branży jest to swego rodzaju standard, jeśli dysponujemy małą ilością pamięci albo musimy przesyłać pliki przez wolniejszy internet. To dlatego MP3 wyparło na lata inne formaty tam, gdzie liczył się każdy megabajt. Oczywiście, są nowsze kodeki jak AAC czy OGG, które czasami radzą sobie lepiej przy niskich bitrate’ach, ale MP3 to wciąż najbardziej rozpoznawalny wybór, jeśli chodzi o minimalizację rozmiaru. Warto pamiętać, że niższy rozmiar to jednak zawsze kompromis – coś za coś. Ale jeśli mamy ograniczone miejsce, nie ma lepszej opcji niż dobrze skompresowany MP3.

Pytanie 8

Jednostką przepływności bitowej pliku w formacie .mp3 jest

A. kB/ms
B. MB/s
C. kb/s
D. kB/s
W temacie przepływności bitowej (ang. bitrate) plików audio, a szczególnie formatu .mp3, często pojawiają się nieporozumienia związane z jednostkami. Największy błąd polega na myleniu bitów z bajtami. W standardach kompresji audio, głównie w formacie MPEG-1 Layer III (czyli właśnie mp3), przepływność podaje się wyłącznie w kilobitach na sekundę, czyli w kb/s. To wynika z samego sposobu kodowania i przesyłania danych – bity są jednostką, którą najłatwiej przeliczyć na jakość i szybkość transmisji. Kiedy widzimy jednostki takie jak kB/s, czyli kilobajty na sekundę, to odnosi się to raczej do ogólnego transferu plików czy pobierania danych z internetu, gdzie 1 bajt to 8 bitów. W kontekście plików mp3 taka jednostka nie daje dobrego porównania jakości, bo nie jest używana w standardach kodowania dźwięku. Zdarza się, że ktoś sugeruje się oznaczeniami z menadżerów pobierania plików i przenosi to na świat audio, co prowadzi do błędnych wniosków. Jeszcze bardziej nietypowe są jednostki kB/ms (kilobajty na milisekundę), które praktycznie nie występują ani w dokumentacji technicznej, ani w praktyce inżynierskiej – to kompletnie niestosowana miara. MB/s, czyli megabajty na sekundę, to już zupełnie inna skala, wykorzystywana raczej do oceny wydajności dysków czy łączy internetowych, a nie parametrów jakościowych kompresji audio. Myślę, że większość pomyłek bierze się z nieświadomego przyzwyczajenia do bajtów jako domyślnej jednostki przy transferze danych, ale w audio i video to właśnie bity są kluczowe. Gdy spojrzysz na programy konwertujące pliki audio lub na dane techniczne plików mp3, zawsze pojawią się wartości w kb/s. Warto, moim zdaniem, zapamiętać ten standard, bo pozwala od razu zorientować się, czy plik ma szansę dobrze brzmieć, czy będzie mocno skompresowany. W praktycznym podejściu do pracy z dźwiękiem korzystanie z prawidłowych jednostek jest ważne, żeby uniknąć nieporozumień w komunikacji i przy doborze parametrów konwersji czy przesyłu audio.

Pytanie 9

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Invert
B. Gain
C. Crossfade
D. Cut
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 10

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WMA
B. FLAC
C. WAV
D. MP3
FLAC to naprawdę świetny wybór do archiwizacji dźwięku, bo łączy dwie rzeczy, których normalnie nie da się połączyć: kompresję pliku i zachowanie oryginalnej jakości dźwięku. To jest tzw. kompresja bezstratna, czyli plik jest mniejszy niż WAV, ale nie tracisz nic z jakości – można go potem przywrócić do pierwotnej postaci, bit po bicie identycznej z oryginałem. Stąd FLAC jest polecany np. przez archiwa, radiowe fonoteki czy studia nagraniowe, które muszą mieć pewność co do jakości. Co ciekawe, w domowych warunkach sporo osób, które mają rozbudowane kolekcje muzyczne, też stawia na FLAC zamiast na stratne MP3 – chodzi właśnie o to, żeby nie tracić szczegółów brzmienia. FLAC jest też formatem otwartym, więc nie trzeba się martwić o przyszłą kompatybilność albo licencje – w archiwizacji to bardzo istotne. Takie pliki zajmują mniej miejsca niż WAV, zwykle o połowę albo i więcej, ale w razie potrzeby zawsze można je z powrotem przekonwertować do WAV bez żadnych strat. Z mojego doświadczenia to jest właśnie taki złoty środek: masz porządny backup, a nie zużywasz niepotrzebnie miejsca na dysku. No i większość nowoczesnych odtwarzaczy już spokojnie czyta FLAC, więc nie ma większych problemów z dostępem do takiego archiwum.

Pytanie 11

Której z komend należy użyć w przypadku tworzenia nowego projektu w programie edycyjnym?

A. New.
B. Load.
C. Export.
D. Import.
Komenda „New” to absolutna podstawa w praktycznie każdym programie edycyjnym – niezależnie, czy mówimy o edytorze grafiki, wideo, tekstu czy nawet oprogramowaniu CAD. Jej głównym zadaniem jest utworzenie zupełnie nowego projektu lub dokumentu, czyli czystego miejsca pracy, gdzie użytkownik może rozpocząć swoje zadanie od zera. W większości programów skrót klawiszowy Ctrl+N wywołuje właśnie to polecenie. Moim zdaniem to takie „otwarcie drzwi do pustego pokoju”, gotowego do wypełnienia treścią. Praktycznie rzecz biorąc, bez tej funkcji nie da się zacząć pracy nad czymś zupełnie nowym bez mieszania ze starymi plikami, co jest nieefektywne i niepraktyczne. Warto pamiętać, że branżowe standardy UX przewidują, by funkcja tworzenia nowego projektu była zawsze łatwo dostępna i jednoznacznie opisana – właśnie jako „New”. Dobra praktyka mówi też, żeby przed utworzeniem nowego projektu program pytał o zapisanie bieżących zmian, by nie stracić dotychczasowej pracy. Z mojego doświadczenia, początkujący często mylą „New” z innymi opcjami, przez co tracą czas lub przypadkowo nadpisują ważne dane. Korzystając z „New”, masz pewność, że zaczynasz od czystej kartki i możesz wszystko poukładać dokładnie tak, jak chcesz. To taki techniczny start od zera, bez żadnych „śmieci” z poprzednich projektów.

Pytanie 12

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 20 ms
B. 2 ms
C. 0,2 ms
D. 0,02 ms
Wybierając jeden z dłuższych odstępów czasowych pomiędzy próbkami – takich jak 0,2 ms, 2 ms czy nawet 20 ms – można bardzo łatwo wpaść w pułapkę błędnego wyobrażenia na temat tego, jak szybko działa cyfrowa rejestracja dźwięku. W praktyce, jeśli częstotliwość próbkowania wynosi 48 kHz, to w każdej sekundzie rejestrowanych jest aż 48 tysięcy próbek. To oznacza, że pojedyncza próba przypada dosłownie na ułamek milisekundy – dokładnie na 0,0208 ms, co jest równoznaczne z 0,02 ms po zaokrągleniu. Wybierając np. 0,2 ms, można nieświadomie uznać, że każda próbka pojawia się dziesięć razy rzadziej niż w rzeczywistości, co przekładałoby się na zaledwie 5000 próbek na sekundę, a to już totalnie nie spełnia standardów audio. Idąc jeszcze dalej – jeśli ktoś uważa, że odstęp to 2 ms, to wychodzi na 500 próbek na sekundę, a to już wystarczyłoby co najwyżej do bardzo prostego kodowania mowy, nie do muzyki czy profesjonalnych zastosowań. 20 ms odstępu między próbkami to już zupełna abstrakcja – wtedy mamy tylko 50 próbek na sekundę, a przecież ludzkie ucho już poniżej 8 kHz zaczyna wyczuwać ograniczenia jakości. Takie nieporozumienia biorą się często z mylenia jednostek albo z wyobrażenia, że systemy cyfrowe pracują dużo wolniej, niż w rzeczywistości. Moim zdaniem warto pamiętać, że cała magia cyfrowego dźwięku polega właśnie na tym, że próbki są pobierane błyskawicznie, zdecydowanie szybciej niż większość osób się spodziewa. To, ile trwa odstęp między próbkami, można zawsze policzyć jako odwrotność częstotliwości próbkowania – i to jest bardzo praktyczna rzecz, bo pozwala od razu zrozumieć, dlaczego np. płyty CD mają 44,1 kHz, a sprzęt studyjny często 48 kHz. W sumie, upraszczając, im wyższa częstotliwość próbkowania, tym mniejsze odstępy i większa precyzja, ale przy tym rosną wymagania sprzętowe i objętość plików. Jeśli ktoś chce pracować z dźwiękiem cyfrowym, taka matematyka to absolutna podstawa, bez której trudno dobrze zaplanować czy zrozumieć cały proces nagrywania i przetwarzania audio.

Pytanie 13

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Compressor
B. Gate
C. Delay
D. Equaliser
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 14

Poprzez zastosowanie filtru Low Pass na ścieżce gitary basowej można

A. zmniejszyć szumy.
B. zredukować przydźwięk sieci.
C. kształtować obraz stereo nagrania.
D. usunąć zakłócenia niskotonowe.
Wiele osób myli funkcje filtrów Low Pass z innymi narzędziami do obróbki dźwięku i to w sumie jest dość częsty błąd początkujących realizatorów. Przykład – redukcja przydźwięku sieciowego, czyli popularnego 50 Hz, to raczej zadanie dla filtru Notch albo High Pass, a nie Low Pass. Filtr dolnoprzepustowy puszcza wszystko poniżej ustawionej częstotliwości, więc ten typowy przydźwięk z instalacji elektrycznej i tak przejdzie przez cały tor sygnałowy. W praktyce zarządzanie przydźwiękiem raczej polega na odcięciu najniższych składowych przez High Pass, a nie na przycinaniu góry. Z kolei usuwanie zakłóceń niskotonowych również nie leży w gestii Low Pass – do tego służy High Pass, bo zależy nam na pozbyciu się niepożądanych dudnień czy buczenia poniżej użytecznego zakresu basu. Tego typu zakłócenia mogą pochodzić np. od mikrofonów zbierających hałas z podłogi czy nawet od samego wzmacniacza, ale Low Pass zupełnie na to nie działa. Jeśli chodzi o kształtowanie obrazu stereo nagrania, to tu mówimy o zupełnie innych narzędziach – panoramie, korekcji Mid/Side czy efektach przestrzennych. Filtr Low Pass nie wpływa na rozłożenie dźwięku w panoramie stereo, a jedynie ogranicza pasmo częstotliwości. Można spotkać się z próbą manipulacji szerokością stereo przez różnicowanie pasma w kanałach, ale to już zaawansowane techniki i nie są bezpośrednio związane z typowym zastosowaniem filtru dolnoprzepustowego. Typowym błędem jest też utożsamianie szumów wyłącznie z wysokimi częstotliwościami – czasem szumy są obecne w pełnym paśmie, ale to właśnie wycinanie góry przynosi największą poprawę czytelności basu. W skrócie: Low Pass to narzędzie do walki z niepożądanymi wysokimi tonami i szumami, a nie z niskotonowymi artefaktami czy problemami ze stereofonią.

Pytanie 15

Ile kanałów wirtualnego miksera sesji programu DAW należy użyć do dekodowania nagrania dźwiękowego wykonanego techniką Mid/Side, do formatu stereo?

A. 3 kanały.
B. 5 kanałów.
C. 7 kanałów.
D. 1 kanał.
Wielu początkujących realizatorów dźwięku zakłada, że do dekodowania nagrania w technice Mid/Side wystarczy jeden kanał lub dowolna inna liczba ścieżek, zależnie od wygody. Jednak to jest myślenie życzeniowe i nie do końca oddaje rzeczywistą złożoność procesu. Pojedynczy kanał absolutnie nie wystarcza, bo nie da się w ten sposób zrealizować sumowania i różnicowania sygnałów Mid i Side, które są niezbędne do uzyskania poprawnego obrazu stereo. To typowy błąd – mylenie nagrania monofonicznego z matrycowaniem stereo i ignorowanie potrzeby rozdzielenia sygnałów do osobnych torów. Z kolei pomysł z wykorzystaniem pięciu lub nawet siedmiu kanałów to raczej nadmierna komplikacja, która nie tylko nie daje żadnych audiofilskich korzyści, ale wręcz utrudnia kontrolę nad panoramą i równowagą w miksie. W praktyce spotkałem się z takimi koncepcjami raczej u osób próbujących na siłę rozbić ślad na dodatkowe ścieżki, co wprowadza więcej chaosu niż pożytku – i nie ma żadnego uzasadnienia w praktykach studyjnych czy zaleceniach producentów DAW-ów. Dekodowanie M/S w klasycznej postaci polega na przypisaniu sygnału Mid do jednej ścieżki, a Side do dwóch – lewej (normalnie) i prawej (z odwróconą fazą), co razem daje trzy kanały. Każda inna liczba albo nie pozwala na właściwe rozłożenie informacji przestrzennych, albo generuje niepotrzebne problemy fazowe i mikserskie. Moim zdaniem, dobre zrozumienie tej matrycowej metody to absolutna podstawa dla każdego, kto chce świadomie pracować z przestrzenią stereofoniczną. Warto poeksperymentować z różnymi liczbach ścieżek, ale ostatecznie i tak wraca się do standardu trzech kanałów, bo to najprostsze i najbardziej efektywne rozwiązanie. Tak robią wszyscy doświadczeni realizatorzy – polecam trzymać się tej metody.

Pytanie 16

Który z podanych programów DAW nie przetwarza komunikatów MIDI?

A. Pro Tools.
B. Cubase.
C. Samplitude.
D. Audacity.
Audacity faktycznie nie obsługuje komunikatów MIDI w taki sposób, jak robią to profesjonalne stacje robocze audio (DAW). To narzędzie skupia się głównie na pracy z plikami audio – edycja, nagrywanie, cięcie, zmiana głośności czy nakładanie efektów. Sam, kiedy pierwszy raz go używałem, szukałem opcji do sterowania syntezatorem przez MIDI, ale niestety – Audacity takich funkcji po prostu nie posiada. W branży muzycznej powszechnie przyjmuje się, że dobry DAW powinien bez problemu obsługiwać zarówno ścieżki audio, jak i MIDI, co jest bardzo ważne podczas produkcji muzyki elektronicznej, aranżacji czy obsługi instrumentów wirtualnych. W Cubase, Pro Tools czy Samplitude od razu można zauważyć zaawansowane edytory MIDI do komponowania, kwantyzacji i automatyzacji parametrów instrumentów VST. Audacity natomiast jest świetne do prostych zadań edycyjnych, np. obróbki nagrań podcastów czy cięcia ścieżek wokalnych, ale nie zastąpi pełnoprawnego DAW przy pracy z MIDI. Trochę szkoda, bo czasem przydałoby się takie lekkie narzędzie z obsługą MIDI, ale póki co – takich możliwości po prostu tu nie ma. Jeśli ktoś chce zacząć przygodę z MIDI, to raczej musi sięgnąć po inne oprogramowanie. Warto o tym pamiętać przy wyborze narzędzi do produkcji muzyki.

Pytanie 17

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .mp3
B. .omf
C. .wav
D. .aiff
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 18

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. ścieżek.
B. znaczników.
C. grup.
D. regionów.
Lista znaczników to w mojej opinii jeden z tych elementów DAW, którego naprawdę warto się nauczyć używać od początku pracy z dźwiękiem. Znaczniki na osi czasu pozwalają szybko zaznaczyć istotne miejsca – mogą to być punkty cięcia, wejścia instrumentów, kluczowe fragmenty aranżu albo, najczęściej, te miejsca, gdzie mamy zaplanowane edycje. Kiedy nagranie jest długie lub mamy wiele ścieżek, ręczne szukanie odpowiedniego miejsca zajęłoby mnóstwo czasu i nerwów. Lista znaczników działa trochę jak mapa – po kliknięciu od razu przenosi do wskazanego punktu. Dzięki temu workflow jest o wiele szybszy, a ryzyko pomyłki mniejsze. W branży to standard, aby oznaczać ważne fragmenty markerami, szczególnie przy pracy zespołowej, gdzie ktoś inny może potem kontynuować edycję. Z praktyki wiem, że bez porządnego oznaczenia sesji DAW bardzo łatwo pogubić się przy większych projektach, zwłaszcza w postprodukcji lub miksie. Dobre DAW-y mają nawet możliwość eksportu/importu znaczników, synchronizacji z innymi aplikacjami czy automatycznej numeracji. To narzędzie jest totalnie podstawą w workflow i moim zdaniem bez niego nie ma sensu tracić czasu na żmudne przeszukiwanie całej sesji.

Pytanie 19

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. EDIT
B. MIX
C. SCORE EDITOR
D. MIDI EDITOR
MIX, EDIT, a nawet MIDI EDITOR to nazwy, które często pojawiają się w programach DAW, ale każda z nich pełni zupełnie inną rolę niż Score Editor. Okno oznaczone jako MIX to po prostu mikser, w którym steruje się głośnością, panoramą i efektami, a także ustawia routing sygnałów. To bardzo istotny element podczas końcowej fazy produkcji, lecz nie ma nic wspólnego z edytowaniem nut. Z kolei EDIT to zwykle ogólna przestrzeń edycyjna – czasem audio, czasem MIDI – ale nie jest to miejsce, gdzie możemy zobaczyć zapis nutowy w formie tradycyjnej partytury. Strefa EDIT służy raczej do przesuwania klipów, cięcia, kopiowania, ale nie notacji muzycznej. MIDI EDITOR natomiast to narzędzie do edycji komunikatów MIDI – tu pracuje się na tzw. pianorolce, czyli siatce, gdzie nuty są reprezentowane prostokątami według wysokości i długości, co ułatwia rysowanie melodii czy akordów, szczególnie w muzyce elektronicznej czy popowej. Jednak, co ważne, pianorolka nie prezentuje zapisu nutowego w klasycznym sensie – nie zobaczymy tam pięciolinii, kluczy czy wartości rytmicznych zapisanych w standardzie muzycznym. Z mojego doświadczenia wynika, że sporo osób myli Score Editor z MIDI Editorem, bo oba służą do edycji danych muzycznych, ale mają zupełnie inne zastosowania. Takie pomyłki biorą się najczęściej z pośpiesznego czytania interfejsu DAW albo z braku potrzeby pracy na klasycznej notacji. W praktyce, jeżeli potrzebujemy wygenerować profesjonalną partyturę, podzielić się zapisem z innymi muzykami czy przygotować nuty do druku, tylko Score Editor spełni te wymagania. Pozostałe okna DAW są przydatne, ale zupełnie nie zastępują tej funkcji, bo nie zapewniają odpowiedniej czytelności i standardu muzycznego zapisu.

Pytanie 20

Podczas masteringu materiału dźwiękowego

A. wykonuje się nagranie ścieżki audio w określonym formacie.
B. ma miejsce normalizacja ścieżki audio.
C. montuje się ścieżki audio.
D. dokonuje się wyboru ilości ścieżek dźwiękowych w edytorze dźwięku.
Proces masteringu ma kluczowe znaczenie dla końcowego brzmienia utworu – to na tym etapie inżynier dźwięku dba, żeby całość była odpowiednio głośna, spójna i gotowa do dystrybucji na różnych nośnikach. Jednym z podstawowych działań podczas masteringu jest właśnie normalizacja ścieżki audio, czyli dostosowanie poziomu głośności całego materiału do określonych standardów branżowych. Bez tego nagranie mogłoby wypadać zdecydowanie ciszej lub głośniej niż inne utwory na albumie czy playlistach, co nie wygląda profesjonalnie. W praktyce normalizacja pomaga wyrównać dynamikę i daje słuchaczowi lepsze wrażenia. Często korzysta się z normalizacji do wartości szczytowej lub średniej (np. RMS czy LUFS, które są coraz bardziej popularne, zwłaszcza przy masteringu pod platformy streamingowe). Warto pamiętać, że mastering to nie tylko normalizacja – to także korekcja barwy (equalizacja), kompresja czy limitowanie, ale podniesienie i wyrównanie poziomów głośności jest jednym z tych najważniejszych kroków. Sam kiedyś nie doceniałem normalizacji, dopóki nie miałem okazji porównać kilku masterów – różnica była od razu słyszalna, szczególnie w zestawieniu z innymi komercyjnymi utworami. Z mojego doświadczenia wynika, że właściwa normalizacja potrafi uratować projekt, nadając mu profesjonalny charakter zgodny z oczekiwaniami wydawców czy słuchaczy.

Pytanie 21

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +R DL
B. DVD –R
C. DVD +RW
D. DVD +R
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych, co w praktyce oznacza, że na jednej stronie płyty można zapisać daną ilość danych, a po jej odwróceniu, na drugiej stronie – kolejną. Z mojego doświadczenia wynika, że takie rozwiązania są naprawdę przydatne, szczególnie przy archiwizacji dużych plików, chociaż dzisiaj coraz rzadziej spotyka się użytkowników korzystających z fizycznych nośników. Warto wiedzieć, że standard DVD +R DL (czyli Double Layer) pozwala na zapis dwóch warstw na jednej stronie płyty, a istnieją również płyty DVD o oznaczeniu DS (Double Side), które dają możliwość fizycznego odwrócenia płyty i zapisania danych po obu stronach, jednak najczęściej w kontekście testów i egzaminów mówi się o płytach dwuwarstwowych, zwanych często mylnie dwustronnymi – stąd mogą pojawiać się nieścisłości. W praktyce płyty DVD +R DL używa się tam, gdzie trzeba zmieścić do 8,5 GB danych, czyli na przykład dłuższe filmy w wysokiej jakości lub duże archiwa. Branża długo trzymała się tego rozwiązania, bo dawało większą elastyczność, a komputery i odtwarzacze obsługujące standard +R DL były dość powszechne. Warto też pamiętać, że aby w pełni wykorzystać możliwości takiej płyty, trzeba mieć odpowiedni napęd obsługujący zapis i odczyt na warstwie double layer – to takie typowe ograniczenie sprzętowe, o którym łatwo zapomnieć. Generalnie – DVD +R DL to praktyczne, czasem niedoceniane rozwiązanie, które pokazuje, jak rozwijały się fizyczne nośniki danych.

Pytanie 22

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 128 dB
B. 144 dB
C. 96 dB
D. 64 dB
24-bitowa rozdzielczość to już taki porządny standard jeśli chodzi o audio profesjonalne. Maksymalna teoretyczna dynamika, jaką można wyciągnąć z 24-bitowego zapisu, wynosi właśnie 144 dB. Wynika to z prostego przelicznika – na każdy bit przypada 6 dB (dokładniej 6,02 dB). Czyli 24 bity razy 6 dB daje nam 144 dB. To naprawdę imponująca wartość i znacznie przekracza możliwości percepcyjne człowieka, bo nasze uszy wytrzymują mniej więcej 120 dB różnicy między najcichszym a najgłośniejszym dźwiękiem. W praktyce jednak żaden przetwornik czy tor audio nie osiąga pełnych 144 dB – szumy elektroniki, zakłócenia i ograniczenia sprzętowe trochę tę dynamikę zmniejszają. W studiach nagraniowych i przy miksie wysokiej klasy 24 bity to już standard i daje spory zapas na późniejszą edycję, kompresję czy mastering. Często spotyka się opinie wśród realizatorów, że taka głębokość bitowa daje komfort pracy bez ryzyka przesterowania i zniekształceń, zwłaszcza przy delikatnych instrumentach akustycznych. Tak się przyjęło, że pliki do masteringu czy oryginalne ścieżki z nagrań trzyma się właśnie w 24 bitach – nie bez powodu. Lubię o tym myśleć jak o ogromnym marginesie bezpieczeństwa – nawet jeśli później wszystko i tak ląduje na płycie CD w 16 bitach i 96 dB dynamiki. W audiofilskich rejestracjach klasycznych i ścieżkach filmowych ten zapas dynamiki jest szczególnie cenny i pozwala na zachowanie najdrobniejszych detali. Moim zdaniem warto to wiedzieć, bo rozumienie tej zależności między bitami a dynamiką pozwala lepiej ogarnąć, po co w ogóle są te wszystkie „liczby” na interfejsach dźwiękowych.

Pytanie 23

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Off
B. Latch
C. Touch
D. Read
Wiele osób myli tryby automatyki w DAW z powodu ich nazw – są one dość podobne, ale każdy ma inne zastosowanie i wpływ na dźwięk. Tryby 'Read', 'Latch' i 'Touch' mają wspólną cechę: pozwalają na odtwarzanie lub nagrywanie zmian parametrów takich jak głośność, panorama czy efekty w czasie rzeczywistym. 'Read' to typowy tryb odtwarzania – DAW odczytuje wszystkie wcześniej zapisane dane automatyki i na ich podstawie dynamicznie zmienia np. głośność ścieżki podczas odtwarzania. To bardzo wygodne, kiedy chcemy utrzymać zautomatyzowane przejścia, podbicia czy wyciszenia w miksie – często stosowane w profesjonalnej produkcji audio. Z kolei 'Latch' i 'Touch' to tryby nagrywania automatyki. 'Latch' zaczyna zapisywać zmiany parametru od momentu, gdy go ruszysz, i kontynuuje aż do końca odtwarzania, co pozwala łatwo nadpisać dużą partię automatyki. 'Touch' działa subtelniej – zapisuje tylko wtedy, gdy dotykasz (czyli ruszasz) daną kontrolkę, a gdy ją puścisz, wraca do poprzednich zapisanych wartości. Ten tryb daje więcej precyzji i zabezpiecza przed przypadkowym nadpisaniem automatyki. Błąd często polega na założeniu, że jeśli nie nagrywasz automatyki, to DAW nie będzie jej odtwarzał – to nieprawda, bo właśnie 'Read' odczytuje stare dane i wpływa na głośność. Tylko 'Off' sprawia, że ścieżka nie reaguje na żadne ruchy automatyki – ani stare, ani nowe – więc jeśli szukasz pełnej neutralności i chcesz uniknąć przypadkowych zmian poziomu sygnału, to właśnie ten tryb jest odpowiedni. Moim zdaniem, dobrze jest zapamiętać tę różnicę, bo na dłuższą metę to mocno ułatwia pracę i pozwala uniknąć zamieszania podczas miksowania czy edycji dużych projektów.

Pytanie 24

Którego ze złącz zewnętrznego procesora dźwięku należy użyć, w celu przesłania cyfrowego sygnału audio do montowanej sesji dźwiękowej?

A. MIDI OUT
B. USB TO HOST
C. AES/EBU OUT
D. WORLD CLOCK OUT
W technice audio łatwo się pogubić w gąszczu różnych złącz i protokołów, bo każde z nich ma swoje konkretne zastosowania, a czasem nazwy potrafią być mylące. MIDI OUT, choć często kojarzony ze sprzętem muzycznym, w rzeczywistości służy jedynie do przesyłania komunikatów sterujących, takich jak nuty, kontrola parametrów czy synchronizacja urządzeń – zupełnie nie nadaje się do transmisji sygnału audio, tym bardziej cyfrowego. To typowy błąd początkujących, mylenie MIDI z przesyłem dźwięku; niestety, przez MIDI nie prześlemy ani jednej próbki dźwięku, tylko „rozkazy” dla syntezatorów czy efektów. USB TO HOST z kolei jest bardzo popularnym złączem w nowoczesnych klawiaturach sterujących i niektórych interfejsach audio, ale jego głównym zadaniem jest połączenie urządzenia z komputerem w celu transferu danych (np. MIDI lub cyfrowego audio, zależnie od urządzenia). Co prawda, przez USB można przesyłać dźwięk cyfrowy, ale w kontekście profesjonalnych procesorów dźwięku i montażu sesji w środowisku studyjnym, USB nie daje tej stabilności i kompatybilności, co typowe protokoły studyjne jak AES/EBU czy S/PDIF. USB bywa zawodne przy większych projektach, a czasem ma ograniczenia sprzętowe lub sterownikowe. WORLD CLOCK OUT natomiast to zupełnie inna bajka – to złącze odpowiada tylko za synchronizację zegarów cyfrowych pomiędzy urządzeniami audio, żeby nie było problemów z jitterem czy rozjazdem sygnałów. Przez world clock nie przesyła się żadnego audio, tylko sygnał taktujący. Z mojego punktu widzenia, najczęstszym powodem pomyłek jest założenie, że każde „wyjście cyfrowe” nadaje się do przesyłu audio, a przecież w praktyce każde złącze ma swoje ściśle określone zadanie. Warto wyrobić sobie nawyk sprawdzania, jakie standardy obsługują urządzenia i do czego dane złącze realnie służy – to oszczędzi masy frustracji podczas pracy w studiu.

Pytanie 25

Który z wymienionych procesorów dostępnych w sesji montażowej programu DAW umożliwia usunięcie przesłuchów występujących np. na ścieżce lektora pomiędzy jego wypowiedziami?

A. De-esser
B. Bramka
C. Limiter
D. Exciter
Bramka szumów (ang. gate) to jedno z tych narzędzi w arsenale inżyniera dźwięku, które naprawdę potrafi zmienić jakość nagrania, zwłaszcza jeśli pracujesz z materiałem, gdzie na ścieżkach pojawiają się niechciane dźwięki czy przesłuchy – typowy przykład to wokal z domieszką dźwięków otoczenia czy szumów pomiędzy frazami lektora. Bramka działa w ten sposób, że automatycznie wycisza fragmenty ścieżki, gdy poziom sygnału spada poniżej ustalonego progu – wtedy po prostu nie przepuszcza sygnału na wyjście. Dzięki temu, w przerwach między wypowiedziami, wszelkie szumy tła, echo z innych mikrofonów czy przesłuchy instrumentów znikają niemal całkowicie. Moim zdaniem, przy miksie podcastów, audiobooków czy nawet nagrań wokalnych, użycie bramki to wręcz podstawa, bo pozwala zachować czystość i przejrzystość nagrania – nieprzypadkowo praktycznie każdy profesjonalny DAW ma wbudowany taki procesor. No i warto dodać, że umiejętne ustawienie parametrów (takich jak threshold, attack, release) pozwala uniknąć nieprzyjemnych artefaktów, na przykład nienaturalnego cięcia końcówek słów. To rozwiązanie zgodne z powszechnie stosowanymi praktykami w branży audio, w tym standardami radia czy telewizji, gdzie jakość i czytelność nagrania lektorskiego jest kluczowa. Sam często zauważam, że początkujący realizatorzy nie doceniają tego narzędzia, a to właśnie ono robi robotę w kontekście eliminowania przesłuchów i utrzymania profesjonalnego brzmienia.

Pytanie 26

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.wav
B. *.riff
C. *.aiff
D. *.mp3
Wybierając formaty takie jak *.aiff, *.riff czy *.wav, łatwo pomylić się, bo te rozszerzenia kojarzą się z plikami audio wysokiej jakości, często używanymi w profesjonalnej produkcji muzycznej lub podczas nagrywania materiałów w studiu. AIFF i WAV to formaty nieskompresowane, co oznacza, że zapisują dźwięk w formie „surowej”, bez strat jakości – wykorzystuje się je głównie wtedy, gdy zależy nam na maksymalnej wierności brzmienia, np. przy masteringu czy archiwizacji. Z kolei RIFF to bardziej ogólna struktura kontenera plików, w którym mogą być przechowywane różne dane multimedialne, ale sam ten format nie jest kodekiem audio per se. Typowym błędem jest myślenie, że narzędzia służące do kompresji stratnej (np. LAME) wygenerują również pliki nieskompresowane – to się nie dzieje, bo zadaniem kodeka LAME jest wyłącznie zamiana dźwięku na format MP3, co wiąże się z użyciem algorytmów stratnych, usuwających część informacji, by uzyskać mniejszy rozmiar pliku. W praktyce, gdy ktoś szuka sposobu na konwersję do AIFF, WAV czy RIFF, korzysta raczej z narzędzi, które obsługują bezstratny zapis audio lub po prostu eksportują sesję bez kompresji. Dobrym nawykiem jest rozróżnienie: kodeki jak LAME odpowiadają za specyficzne, skompresowane formaty, a nie za generowanie plików typu WAV czy AIFF. W pracy z dźwiękiem to rozumienie pomaga unikać nieporozumień i nieefektywnych konwersji plików.

Pytanie 27

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Clip Group.
B. Loop Region.
C. Split Clip.
D. Unloop Region.
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 28

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.fls
B. *.edl
C. *.ldm
D. *.oem
Wybór innego formatu niż *.edl w kontekście zapisu informacji o montażu obrazu i dźwięku wskazuje na pewien typowy błąd w rozumieniu, jak są przechowywane decyzje montażowe w postprodukcji filmowej. Przykładowo, plik *.fls kojarzy się raczej z różnymi rodzajami plików tymczasowych lub związanych z innymi programami – na pewno nie z profesjonalnym montażem filmowym. Branża audiowizualna przez lata wypracowała standardy, które pozwalają na łatwą wymianę projektów między systemami, a *.fls po prostu w tym nie uczestniczy. Jeśli chodzi o *.ldm, to moim zdaniem takie rozszerzenie praktycznie nie funkcjonuje w żadnym aspekcie postprodukcji. Często spotykam się z tym, że ludzie szukają skrótów myślowych w nazwach plików i próbują nadawać im logiczne znaczenie, ale w tym przypadku to ślepy zaułek – *.ldm nie służy do przechowywania list montażowych. Z kolei *.oem to najczęściej odniesienie do plików związanych z producentami sprzętu (Original Equipment Manufacturer) i absolutnie nie ma zastosowania w kontekście plików decyzji montażowych. W branży filmowej istotne jest posługiwanie się odpowiednimi, sprawdzonymi formatami wymiany danych, które gwarantują zachowanie wszystkich decyzji artystycznych i technicznych między różnymi systemami – i tu bezkonkurencyjny jest właśnie *.edl. Wydaje mi się, że część osób myli pojęcia i utożsamia pliki montażowe z plikami projektu programu, a to są zupełnie różne rzeczy. Plik EDL jest uniwersalnym „językiem” dla różnych platform montażowych, podczas gdy pozostałe wymienione tu formaty nie mają z tą funkcją nic wspólnego. W praktyce warto nauczyć się rozróżniać branżowe standardy, bo to oszczędza mnóstwo czasu i nerwów podczas pracy nad większymi projektami.

Pytanie 29

Aby zapętlić odtwarzanie fragmentu dźwięku na ścieżce w sesji oprogramowania DAW, należy użyć polecenia

A. loop.
B. snap.
C. freeze.
D. merge.
Funkcja 'loop' to jedna z podstawowych i najczęściej używanych opcji w każdym szanującym się DAW-ie. Dzięki niej możesz powtarzać wybrany fragment ścieżki tyle razy, ile tylko chcesz – to mega wygodne podczas miksowania, aranżacji, czy nawet samego nagrywania. W praktyce wygląda to tak: zaznaczasz sobie konkretny zakres na timeline, włączasz tryb loop i możesz bez końca słuchać tego samego fragmentu, co jest genialne np. przy edycji bitu, dogrywaniu wokali czy testowaniu efektów. Moim zdaniem to narzędzie absolutnie niezbędne dla każdego, kto chce pracować szybko i sprawnie, bez ciągłego przewijania czy ręcznego odpalania tego samego miejsca. To jest też standard w workflow – praktycznie każda sesja produkcyjna, jaką widziałem, korzysta z loopowania, choćby przy pracy nad sekcją perkusyjną. Warto też pamiętać, że funkcja loop w DAW-ach często jest powiązana z innymi opcjami, np. automatyzacją czy quantizacją, dzięki czemu można łatwo testować różne rozwiązania bez rozwalania całej aranżacji. Trochę zabawne, ile razy widziałem, jak ktoś zapomina o tej funkcji i męczy się z ręcznym odtwarzaniem fragmentów – szkoda czasu, naprawdę. Dobrą praktyką jest też ustawianie loopa na krótkie fragmenty przy dokładnym montażu lub korekcji błędów w nagraniu. No i na koniec: praktycznie wszystkie popularne DAW-y mają przycisk lub skrót klawiszowy do loopowania, więc warto się tego nauczyć na pamięć, bo to sporo usprawnia pracę.

Pytanie 30

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. mp3 CD.
B. CD Burn.
C. CD Text.
D. ISRC CD Code.
Rozszerzenie CD Text jest dokładnie tym, co pozwala na zapisanie dodatkowych informacji tekstowych na płycie CD-Audio. Chodzi tu głównie o dane takie jak tytuły utworów, nazwy wykonawców, albumów czy nawet krótkie opisy. Standard CD Text został wprowadzony przez Sony i Philips w latach 90., a jego obsługa pojawiła się najpierw w lepszych odtwarzaczach stacjonarnych i wieżach stereo. Co ciekawe, większość nagrywarek komputerowych też potrafi już dodać te dane podczas tworzenia płyty, ale nie każdy program do nagrywania oferuje tę opcję – warto na to zwracać uwagę w ustawieniach. Z praktycznego punktu widzenia, CD Text jest bardzo przydatny na przykład w samochodowych radioodtwarzaczach – od razu wiadomo, co leci, bez potrzeby zgadywania. Co ciekawe, informacje z CD Text są przechowywane w specjalnych sektorach płyty (tzw. subkanał Q), nie wpływając na samą jakość audio. Z mojego doświadczenia, jeśli ktoś chce profesjonalnie przygotować płytę demo lub prezentacyjną, zdecydowanie warto zadbać o ten dodatek – ułatwia to identyfikację i podnosi walory użytkowe nośnika. Szkoda tylko, że starsze odtwarzacze nie zawsze rozpoznają te dane, ale wymagania branżowe wciąż promują stosowanie CD Text przy wydawaniu fizycznych nośników muzycznych.

Pytanie 31

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .ogg
B. .aac
C. .mp3
D. .aiff
Format .aiff to rzeczywiście złoty standard, jeśli chodzi o jakość zapisu dźwięku – szczególnie w środowisku profesjonalnym. AIFF (Audio Interchange File Format) to format nieskompresowany i bezstratny, opracowany przez Apple, bardzo często wykorzystywany w studiach nagraniowych, postprodukcji filmowej i profesjonalnej obróbce audio. Dzięki temu, że przechowuje dane w formie nieskompresowanej, żaden fragment oryginalnego dźwięku nie zostaje utracony – a to daje pełną kontrolę nad detalami. Pliki .aiff są wprawdzie „ciężkie”, bo zajmują sporo miejsca, ale do celów archiwizacji, masteringu lub wymagającej edycji to nie jest problem, a wręcz zaleta. Moim zdaniem, jeśli ktoś planuje poważną pracę z dźwiękiem – miksowanie, mastering, czy archiwizację nagrań koncertowych – lepiej trzymać się właśnie takich formatów jak AIFF czy WAV. W praktyce, te formaty są kompatybilne z większością profesjonalnych DAW-ów (Digital Audio Workstation), takich jak Logic Pro czy Pro Tools. Ciekawa sprawa: AIFF zapisuje dźwięk z rozdzielczością 16 lub 24 bity i częstotliwościami próbkowania 44,1 kHz lub nawet wyższymi – identycznie jak płyty CD lub sprzęt studyjny. To wszystko sprawia, że jakość jest najwyższa z możliwych, bez żadnych strat, które pojawiają się w formatach kompresowanych (np. mp3, aac czy ogg). No i – co ciekawe – wiele bibliotek muzycznych przechowuje surowe ścieżki właśnie w AIFF, by potem eksportować końcowe wersje do bardziej „lekkich” formatów. To po prostu dobry, sprawdzony wybór w branży.

Pytanie 32

Która komenda oprogramowania DAW służy do zmiany fazy sygnału audio?

A. Invert
B. Gain
C. Crossfade
D. Cut
Komenda „Invert” w DAW to bardzo praktyczna funkcja, która pozwala na odwrócenie fazy sygnału audio o 180 stopni. To może się wydawać na pierwszy rzut oka trochę abstrakcyjne, ale w praktyce jest to szalenie przydatne podczas miksowania. Na przykład – wyobraź sobie, że nagrywasz perkusję kilkoma mikrofonami naraz. Często okazuje się, że niektóre ślady wzajemnie się znoszą, bo ich fale dźwiękowe są w przeciwnej fazie (szczególnie ze stopą i werblem potrafi być zamieszanie). W takich sytuacjach szybkie „Invert” na jednym ze śladów potrafi całkowicie odmienić brzmienie – nagle wszystko staje się pełniejsze, basy wracają na swoje miejsce. To już taka klasyka miksu, zwłaszcza przy nagraniach wielośladowych czy dogrywaniu wokali. Warto pamiętać, że „Invert” nie zmienia głośności, nie ucina ani nie skleja ścieżki, tylko odwraca polaryzację – plus staje się minusem i odwrotnie. W branży to jedna z podstawowych technik sprawdzania kompatybilności fazowej między ścieżkami. Moim zdaniem, nawet jak na początku trudno to usłyszeć, to z czasem ucho zaczyna wyłapywać subtelne różnice. A dobry realizator zawsze pilnuje fazy, bo bez tego nawet najlepsze nagranie zabrzmi płasko i bez energii. Invert jest po prostu niezastąpiony do szybkiego testowania i naprawiania problemów fazowych – to taka codzienna, mała, inżynierska sztuczka.

Pytanie 33

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. długopisu.
B. ostrego rysika.
C. flamastra zawierającego alkohol.
D. flamastra niezawierającego alkoholu.
Wielu osobom wydaje się, że do opisywania płyt CD czy DVD można użyć praktycznie dowolnego narzędzia do pisania, bo przecież płyta wydaje się dość trwała. To niestety bardzo mylące przekonanie. Użycie długopisu kusi – jest zawsze pod ręką, zostawia wyraźny ślad, ale niestety końcówka długopisu jest na tyle twarda, że może uszkodzić cienką, ochronną warstwę poliwęglanu. W skrajnych przypadkach może dojść wręcz do punktowego pęknięcia powierzchni, szczególnie jeśli ktoś mocniej przyciśnie – a wtedy dane z płyty mogą być nieczytelne. Ostry rysik to już w ogóle zły pomysł – nawet nie chodzi tylko o rysowanie, ale o możliwość fizycznego naruszenia warstw, w których zapisane są dane. Płyty optyczne nie są tak odporne, jak się wydaje; ich powierzchnia jest podatna na mikrouszkodzenia, które potem mogą prowadzić do błędów odczytu. Markery alkoholowe także wydają się z pozoru praktyczne; piszą niemalże na każdej powierzchni, ale niestety ich składniki chemiczne – głównie alkohole i inne rozpuszczalniki – mogą wnikać przez lakier ochronny i uszkadzać warstwę zapisu. Z perspektywy praktyka, wystarczy kilka miesięcy, żeby pojawiły się przebarwienia lub nawet mikropęknięcia na płycie. Często bagatelizuje się te zalecenia, bo wydaje się, że to przesada producentów, ale fakty są takie, że takie błędy prowadzą do szybkiej degradacji nośnika. Najlepszą praktyką, zgodnie z zaleceniami branżowymi i doświadczeniem ludzi zajmujących się archiwizacją danych, jest stosowanie specjalnych markerów bezalkoholowych – są przeznaczone właśnie do tego celu i zapewniają, że opisywanie nie wpłynie negatywnie na trwałość płyty. Ostatecznie, to niewielki koszt w porównaniu z potencjalną utratą ważnych danych.

Pytanie 34

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 98 000 Hz
B. 48 000 Hz
C. 44 100 Hz
D. 196 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 35

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 4 razy.
B. 8 razy.
C. 6 razy.
D. 2 razy.
Zwiększenie poziomu sygnału o 6 dB często bywa błędnie kojarzone z większymi przyrostami amplitudy, niż jest w rzeczywistości. To wynika głównie z nieporozumień dotyczących definicji decybela oraz różnic pomiędzy analizą mocy a napięcia czy prądu. Decybel jest miarą logarytmiczną i różnie interpretuje się go w zależności od tego, czy mówimy o mocy czy o amplitudzie sygnału. W przypadku mocy, 3 dB oznacza dwukrotność mocy, natomiast dla napięcia, czyli właśnie amplitudy, potrzeba już 6 dB, aby uzyskać podwojenie. Zdarza się, że pod wpływem długiego doświadczenia z urządzeniami, gdzie decybele odnoszą się głównie do poziomów mocy, można automatycznie przenosić te same wartości na amplitudy – a to prowadzi do błędnych założeń. Przykładowo, wzrost o 4 lub 8 razy sugeruje, że 6 dB to dużo większa zmiana niż w rzeczywistości – tymczasem każda dodatkowa szóstka decybeli to kolejne podwojenie amplitudy (np. 12 dB to 4 razy, 18 dB to 8 razy itd.). To, moim zdaniem, jest jeden z najczęstszych błędów w praktyce, zwłaszcza przy doborze wzmacniaczy lub analizie sygnałów w systemach audio czy radiowych. Dobrą praktyką jest szybkie przeliczanie dB na rzeczywiste wartości amplitudy, bazując na wzorze 20*log10(A2/A1), co pozwala uniknąć interpretacyjnych pułapek. Jeśli te zasady się opanuje, to praca z poziomami sygnałów staje się znacznie prostsza i bardziej przewidywalna – a o to przecież w życiu technika chodzi.

Pytanie 36

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -0,3 dB.
B. Nagrany z maksymalnym poziomem -12 dB.
C. Nagrany z maksymalnym poziomem -3 dB.
D. Nagrany z maksymalnym poziomem -6 dB.
Można się spotkać z przekonaniem, że nagrywanie na niższych poziomach, typu -6 dB czy nawet -12 dBFS, daje sygnał „bezpieczniejszy” lub że zapewnia lepszą rozpiętość dynamiczną, ale to jest nieporozumienie wynikające z mylenia bezpieczeństwa od przesterowania z wykorzystaniem dynamiki. W rzeczywistości, im niżej ustawisz maksymalny poziom sygnału podczas nagrania, tym bardziej ograniczasz rzeczywistą rozpiętość dynamiczną. Każdy decybel poniżej 0 dBFS to utracona przestrzeń, która zostaje „oddana” szumom konwertera AD lub tła w torze nagraniowym. Wprawdzie zostawienie odrobiny marginesu – np. tych 0,3 dB czy nawet 1 dB – jest dobrą praktyką, by uniknąć przypadkowego clippingu przy niespodziewanych transjentach, ale już zapas rzędu 6 czy 12 dB robi się bezsensowny, zwłaszcza w nowoczesnym cyfrowym torze nagraniowym. Często początkujący realizatorzy wychodzą z założenia, że „ciszej to bezpieczniej” i przez to nagrania wychodzą później matowe, mniej wyraziste, z gorszym stosunkiem sygnału do szumu – co może być problematyczne przy dalszej obróbce lub masteringu. Praktyka studyjna oraz standardy branżowe (np. AES, EBU) jasno wskazują, że optymalny poziom końcowy nagrania powinien być możliwie blisko 0 dBFS, ale bez przekraczania tej granicy – dlatego właśnie nagranie z poziomem -0,3 dB zapewnia największą możliwą rozpiętość dynamiczną i najlepszą jakość. Warto o tym pamiętać przy każdej sesji nagraniowej, bo to jeden z tych technicznych szczegółów, które realnie przekładają się na profesjonalny efekt końcowy.

Pytanie 37

Jaką nazwę nosi standard zapisu znaczników informujących na przykład o artyście czy tytule utworu w plikach MP3?

A. CD-Text
B. RIFF Tags
C. ID3
D. Vorbis comment
Standard ID3 to coś, co zdecydowanie warto znać, jeśli pracuje się z plikami MP3 – zarówno jako zwykły użytkownik, jak i ktoś, kto trochę grzebie przy tagowaniu muzyki. ID3 to taki specjalny „dodatek” do pliku MP3, który trzyma informacje tekstowe, jak tytuł utworu, nazwa artysty, album, rok, a nawet okładkę. Najczęściej spotyka się dwie wersje – ID3v1 i ID3v2. Ta druga jest nowsza i pozwala zapisać znacznie więcej informacji, w dużo bardziej elastyczny sposób. Moim zdaniem każdy, kto miał do czynienia z biblioteką muzyczną i chciał, żeby wszystko ładnie wyświetlało się np. w telefonie albo Spotify, wie, że bez poprawnych tagów ID3 robi się niezły bałagan. Co ciekawe, sporo programów do edycji muzyki (np. foobar2000, Mp3tag) korzysta właśnie z tego standardu, bo jest on de facto branżowym standardem dla MP3. W praktyce, jeśli na przykład przerzucasz pliki MP3 między różnymi odtwarzaczami czy aplikacjami, to dzięki ID3 nie gubią się podstawowe informacje o utworze. Z mojego doświadczenia, kiedy ktoś zapomina o ID3, to potem się dziwi, że ma same „Unknown Artist” w swojej playliście – serio, widziałem takie przypadki. Dobrą praktyką jest regularne aktualizowanie/uzupełnianie tagów ID3, szczególnie gdy masz dużą kolekcję. To znacznie podnosi komfort korzystania z muzyki, a przy okazji ułatwia zarządzanie danymi.

Pytanie 38

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 90 minut.
B. 70 minut.
C. 80 minut.
D. 60 minut.
Zastanawiając się nad maksymalnym czasem nagrania na płycie CD-Audio o pojemności 700 MB, łatwo wpaść w pułapkę myślenia, że można tam zmieścić więcej lub mniej minut muzyki niż wynika to ze standardu. Wiele osób sądzi, że 60 minut to maksimum – być może przez przyzwyczajenie do starszych płyt o pojemności 650 MB, które rzeczywiście mieściły około godziny muzyki. To już jednak przeszłość – obecnie najpopularniejsze są płyty 700 MB, zwane czasem „CD-80”, bo właśnie tyle minut można na nich nagrać. Wskazanie 70 minut jako granicy to z kolei efekt zaokrągleń lub nieaktualnych danych, bo część starych programów nagrywających pokazywała domyślnie bezpieczny czas, aby mieć margines na ewentualne błędy. Jeszcze innym błędem jest myśleć, że da się na CD-Audio zmieścić aż 90 minut – dostępne są co prawda płyty typu „CD-90” czy „CD-99”, ale one nie spełniają specyfikacji Red Book i nie działają na wszystkich odtwarzaczach, a ich użycie to ryzyko utraty kompatybilności. W praktyce, standardowy zapis nieskompresowanego dźwięku stereo o parametrach 44,1 kHz/16 bit to około 10 MB na minutę, więc łatwo policzyć, że 700 MB daje właśnie 80 minut. To jest wartość, na której opierają się praktycznie wszystkie sprzęty audio – zarówno starsze, jak i nowe. Niedocenienie lub przecenianie tej pojemności prowadzi potem do rozczarowań, kiedy płyta nie działa w samochodzie czy stacjonarnym odtwarzaczu. Moim zdaniem, warto zawsze trzymać się standardów, bo nie tylko zapewnia to pełną kompatybilność, ale i ułatwia planowanie archiwizacji czy wydawania muzyki. Te liczby nie wzięły się z przypadku – są efektem technicznych ograniczeń formatu i potrzeb branży muzycznej sprzed kilku dekad, które zresztą wciąż pozostają aktualne.

Pytanie 39

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Noise gate.
B. Peak Master.
C. Phaser.
D. Equalizer.
Phaser to urządzenie, które działa na zasadzie przesuwania fazy sygnału w określonym paśmie częstotliwości. W praktyce polega to na tym, że sygnał audio przechodzi przez szereg filtrów all-pass, które opóźniają fazę określonych częstotliwości, a potem miesza się ten sygnał z oryginałem. Efektem tego są charakterystyczne, płynnie zmieniające się „dziury” (ang. notches) w widmie, co daje ten specyficzny, ruchomy efekt dźwiękowy kojarzony na przykład z gitarami elektrycznymi czy syntezatorami. W branży muzycznej phasery ceni się za to, że nadają głębi i ruchu dźwiękom, przy czym są często używane zgodnie z dobrymi praktykami produkcji, np. do wzbogacania partii instrumentów w miksie. Osobiście, uważam, że takie modulowanie fazy to świetny sposób na wydobycie ciekawszego brzmienia, szczególnie przy nagrywaniu gitar lub niektórych wokali. Warto wiedzieć, że nie każdy efekt modulowany to phaser – chorusy czy flangery też korzystają z przesunięcia fazy, ale robią to trochę inaczej. Phaser jest bardzo rozpoznawalny, jeśli chodzi o efekt przestrzenny i specyficzny charakter brzmienia, a jego działanie wynika bezpośrednio z zastosowania modulacji fazy, co jest zgodne z teorią przetwarzania sygnałów i standardami inżynierii dźwięku.

Pytanie 40

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zmniejszy się 2-krotnie.
B. Zmniejszy się 3-krotnie.
C. Zwiększy się 4-krotnie.
D. Zwiększy się 6-krotnie.
Wielu osobom wydaje się, że rozmiar pliku audio zmienia się liniowo tylko z jednym parametrem, np. częstotliwością próbkowania, ale w rzeczywistości oba parametry – częstotliwość próbkowania i rozdzielczość bitowa – oddziałują na siebie i decydują łącznie o końcowym rozmiarze. W praktyce, rozmiar nieskompresowanego pliku dźwiękowego (np. PCM WAV) oblicza się według wzoru: rozmiar = liczba próbek na sekundę x liczba bitów na próbkę x liczba kanałów x czas trwania (w sekundach). Jeśli zmniejszamy częstotliwość próbkowania z 96 kHz do 48 kHz, to liczba próbek spada o połowę. Redukcja rozdzielczości z 24 do 16 bitów to zmiana o 1/3 w dół, bo 24 bity to 3 bajty, a 16 bitów to 2 bajty. Typowym błędem jest sumowanie tych zmian lub nieuwzględnienie obu naraz – np. ktoś myśli, że skoro mamy 2 parametry, oba dzielimy przez 2, więc razem 4-krotnie. Ale to nie tak działa: rozmiar zmniejszy się o połowę z jednego powodu i o 1/3 z drugiego, co daje w sumie 3-krotną redukcję (2 x 1,5 = 3). Tak samo mylące jest uważanie, że rozmiar wzrośnie, bo oba parametry się zmieniają 'w dół', więc plik będzie większy – to nie ma sensu z perspektywy technicznej. Branżowe standardy, np. przy masteringu do CD, jasno określają 16 bitów i 44,1 kHz, właśnie po to, żeby optymalizować zarówno jakość, jak i wagę plików. W codziennej pracy z audio ważne jest, żeby nie pomylić proporcji i nie przeszacować zysku lub straty miejsca. Najczęściej spotykanym błędem jest patrzenie tylko na jeden parametr, a potem zdziwienie, że plik nie waży tyle, ile przewidywaliśmy. Takie myślenie prowadzi do nieoptymalnych decyzji przy archiwizacji, konwersji czy przesyłaniu nagrań.