Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 10:05
  • Data zakończenia: 29 kwietnia 2026 10:16

Egzamin niezdany

Wynik: 19/40 punktów (47,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .ldm
B. .edl
C. .cmx
D. .fla
W świecie postprodukcji audiowizualnej nietrudno natknąć się na pliki o różnych rozszerzeniach, które na pierwszy rzut oka mogą wydawać się powiązane z montażem. Jednak cyfrową listą montażową określa się tylko format .edl, czyli Edit Decision List. Przykładowo, plik .cmx kojarzy się niektórym z formatami graficznymi (Corel Presentation Exchange), ale nie ma on nic wspólnego z montażem filmowym – jest bardziej używany w kontekście grafiki wektorowej. Z kolei .fla to format roboczy programu Adobe Animate (dawniej Flash Professional), który służy do przechowywania animacji, grafiki i kodu ActionScript – totalnie inne środowisko i zastosowanie. Bardzo łatwo tutaj popełnić błąd rozumowania, bo .fla, podobnie jak montaż, odnosi się do pracy z multimediami, ale w praktyce nie ma żadnego wpływu na cyfrowe listy montażowe, bo nie gromadzi danych o cięciach czy kolejności klipów w kontekście montażu nieliniowego. Jeśli chodzi o .ldm, to nie jest to uznany format w środowisku postprodukcji i raczej nie spotyka się go w żadnych poważnych workflow. Często takie odpowiedzi wynikają z mylnego założenia, że końcówka nazwy pliku kojarzy się z 'listą' lub 'montażem', ale w praktyce branżowej liczą się tylko formaty zaakceptowane przez środowisko zawodowe, takie jak EDL, AAF czy XML. Moim zdaniem najczęstszy błąd logiczny przy takich pytaniach to utożsamianie rozszerzenia pliku z jego funkcją tylko na podstawie skojarzeń, bez znajomości faktycznych standardów branżowych. W realnej pracy profesjonalista zawsze wybierze .edl, gdy chce przekazać podstawową strukturę montażu między różnymi systemami montażowymi, bo jest to niezawodny, sprawdzony i bardzo powszechny sposób zapisu decyzji montażowych.

Pytanie 2

Który z podanych typów dodatkowej informacji tekstowej jest właściwy dla plików WAVE / BWF?

A. Document Properties
B. JPEG Comment
C. Broadcast Audio Extension
D. APE tag
Broadcast Audio Extension, czyli tzw. BWF (Broadcast Wave Format), to rozszerzenie formatu WAVE stworzone właśnie po to, żeby do zwykłego pliku audio można było dorzucić dodatkowe dane tekstowe – na przykład opis nagrania, informacje o autorze, copyright czy nawet kody czasowe do synchro z obrazem. Co fajne, BWF jest szeroko wykorzystywany w profesjonalnym audio, szczególnie w telewizji, radio, postprodukcji filmowej albo wszędzie tam, gdzie trzeba zachować ład i porządek w plikach. W praktyce wygląda to tak, że taki plik nadal ma rozszerzenie .wav, ale w środku, w tzw. chunkach, siedzą dodatkowe metadane. Najważniejszy z nich to właśnie „bext” chunk – tu lądują te wszystkie opisy czy numery wersji. Moim zdaniem to rozwiązanie jest dużo lepsze niż dorabianie jakichś zewnętrznych plików tekstowych czy kombinowanie z tagami innych formatów. Co ciekawe, większość dobrych programów DAW (np. Pro Tools, Nuendo) czy rejestratorów terenowych obsługuje BWF bez zająknięcia, czyli wszystko jest zgodne ze standardami branżowymi (EBU Tech 3285). No i nie musisz się martwić o kompatybilność, bo jak nie „czyta” tych metadanych, to plik nadal działa jak zwykły WAV. W branży to już takie trochę must-have, zwłaszcza jak się pracuje z archiwami albo dużą ilością materiału. Z mojego doświadczenia wynika, że osoby, które ogarniają BWF, są po prostu skuteczniejsze w pracy z audio profesjonalnym.

Pytanie 3

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 24 bity
B. 16 bitów
C. 8 bitów
D. 12 bitów
Wybór rozdzielczości bitowej podczas nagrywania audio to nie jest tylko kwestia liczby — tu chodzi o realne odwzorowanie dynamiki, czyli różnicy między najcichszym a najgłośniejszym fragmentem dźwięku, bez ryzyka pojawienia się zniekształceń czy artefaktów cyfrowych. Często spotykam się z myśleniem, że 8 lub 12 bitów wystarczy, bo przecież „kiedyś tak się robiło” albo „do mowy się nada”. Niestety, tak niska rozdzielczość oznacza zakres dynamiczny odpowiednio ok. 48 dB dla 8 bitów i 72 dB dla 12 bitów, a to zdecydowanie za mało do realistycznego nagrania muzyki o dynamice 100 dB. Przy takiej rozdzielczości słychać cyfrowe szumy i typowe „trzaski” wynikające z błędów kwantyzacji, co zupełnie nie przystaje do dzisiejszych standardów. Nawet 16 bitów, które przez długie lata były wyznacznikiem jakości (np. płyty CD), zapewniają dynamiczny zakres około 96 dB — teoretycznie blisko wymaganego minimum, ale w praktyce podczas edycji i obróbki audio ten zapas szybko się kurczy. W profesjonalnych zastosowaniach, żeby mieć komfort bezpiecznej pracy i nie martwić się o zniekształcenia, 24 bity stały się praktycznie koniecznością. Typowym błędem jest myślenie, że wyższa rozdzielczość to tylko niepotrzebna „przesada” — w rzeczywistości daje ona większą swobodę w miksie, minimalizuje szumy i pozwala zachować pełnię dynamiki nawet po wielu etapach przetwarzania dźwięku. Standardy branżowe wprost wskazują na 24 bity jako optymalne rozwiązanie do materiałów wymagających szerokiego zakresu dynamicznego, dlatego niższe wartości po prostu nie spełniają wymagań współczesnego nagrania profesjonalnego.

Pytanie 4

Ile w przybliżeniu miejsca na twardym dysku zajmie dziesięć 3-minutowych stereofonicznych plików dźwiękowych, o parametrach odpowiadających standardowi CD-Audio?

A. 100 MB
B. 600 MB
C. 300 MB
D. 900 MB
Obliczając ilość miejsca potrzebnego na nagranie audio zgodne ze standardem CD-Audio, łatwo można się pomylić, jeśli nie uwzględnimy dokładnych parametrów technicznych. Częstym błędem jest mylenie plików skompresowanych (jak MP3) ze ścieżkami w jakości CD; w przypadku CD-Audio mamy do czynienia z formatem nieskompresowanym: 44,1 kHz, 16 bitów, stereo. To daje bardzo dużą przepływność – znacznie większą niż w popularnych plikach do słuchania na telefonie czy streamingu. Zakładając 3 minuty dźwięku, pojedynczy plik WAV zgodny ze standardem CD to ponad 30 MB. Dziesięć takich plików to już ponad 300 MB. Przeszacowanie do wartości takich jak 600 MB czy 900 MB bierze się zazwyczaj z nieporozumienia – czasem ludzie myślą o plikach o jeszcze wyższych parametrach (np. 24 bity czy większa częstotliwość), ale wtedy już nie mówimy o standardzie CD. Z kolei niedoszacowanie do 100 MB najczęściej wynika z przyzwyczajenia do rozmiarów plików MP3, gdzie 3-minutowy utwór zajmuje kilka megabajtów, jednak jest to format stratny i nie spełnia wymagań CD-Audio. Dobrą praktyką przy szacowaniu miejsca na dysku pod pliki wysokiej jakości jest zawsze bazowanie na wzorze: częstotliwość × ilość bitów × liczba kanałów, przeliczone na bajty i pomnożone przez czas trwania. Takie podejście pozwala uniknąć pomyłek i lepiej zarządzać przestrzenią dyskową, szczególnie przy pracy z profesjonalnym audio czy kopiowaniu oryginalnych płyt CD. Moim zdaniem, świadomość tych różnic jest bardzo przydatna, bo pozwala lepiej planować archiwizację i nie zaskoczyć się brakiem miejsca na dysku w najmniej odpowiednim momencie.

Pytanie 5

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 8 MB
B. 11 MB
C. 17 MB
D. 14 MB
To jest właśnie poprawna odpowiedź – około 17 MB to rzeczywiście prawidłowa wartość dla pliku stereo o takich parametrach. Wynika to bezpośrednio z prostych obliczeń: mamy dwie ścieżki (stereo), każda próbkowana z częstotliwością 48 000 Hz i rozdzielczością 24 bity, co daje 48 000 x 24 bity x 2 kanały x 60 sekund = 138 240 000 bitów na minutę. Po przeliczeniu na bajty i megabajty wychodzi około 16,5 MB (1 bajt = 8 bitów, 1 MB = 1 048 576 bajtów). W praktyce pliki WAV i inne formaty nieskompresowane nie mają żadnej kompresji, więc ich objętość łatwo przewidzieć. Moim zdaniem to bardzo ważna umiejętność dla każdego, kto pracuje z audio – zarówno w studiu, jak i podczas przygotowywania materiałów do archiwizacji lub transmisji. Dzięki temu można dobrze zaplanować pojemność nośników czy serwerów. Często spotyka się błędne zaokrąglenia w obliczeniach, ale profesjonalista zawsze uwzględnia rzeczywistą rozdzielczość i liczbę kanałów. To też pokazuje, dlaczego produkcja dźwięku w wysokiej jakości wymaga sporo miejsca – nie tylko jeśli chodzi o miksowanie, ale nawet przy prostym nagrywaniu. Z mojego doświadczenia widać, że wiele osób nie docenia, jak szybko rosną wymagania na dysku przy pracy z wysoką jakością audio. Warto to mieć na uwadze, planując budżet czy infrastrukturę IT w studiu nagraniowym.

Pytanie 6

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 16 bitów.
B. Do 32 bitów.
C. Do 8 bitów.
D. Do 24 bitów.
Wiele osób myli rozdzielczość bitową, myśląc, że im więcej bitów, tym lepiej – albo wręcz przeciwnie, ogranicza się ją za bardzo, zupełnie niepotrzebnie. Ograniczenie do 8 bitów na próbkę to praktyka, którą spotykało się w bardzo starych komputerach czy wczesnych syntezatorach dźwięku, gdzie liczyła się każda oszczędność miejsca i mocy obliczeniowej. Niestety, 8 bitów to zaledwie 256 możliwych poziomów sygnału – tak niska rozdzielczość powodowałaby słyszalne szumy kwantyzacyjne i bardzo ograniczony zakres dynamiki, co w muzyce zupełnie się nie sprawdza. Inny, dość częsty błąd to przypisywanie płycie CD-Audio dźwięku 24- lub nawet 32-bitowego. To prawda, że profesjonalne nagrania studyjne są dziś bardzo często realizowane w wyższych rozdzielczościach – 24 bity to nowoczesny standard pracy z dźwiękiem w studiach, a czasem nawet 32 bity wykorzystuje się przy przetwarzaniu sygnału (najczęściej w trybie „float” przy miksie cyfrowym). Jednak na płycie CD, zgodnie ze standardem Red Book, zapis można wykonać wyłącznie w 16-bitach. To wynika nie tylko z ograniczeń technologicznych czasów powstania formatu CD (lata 80.), ale też z dobrze przemyślanego kompromisu między jakością a pojemnością nośnika. Z mojego doświadczenia wynika, że czasem ludzie mylą możliwości odtwarzaczy nowej generacji (np. w komputerach czy odtwarzaczach plików) z możliwościami samych płyt – ale te rzeczy trzeba rozdzielać. Trzymanie się standardu 16 bitów w przypadku CD-Audio zapewnia pełną kompatybilność i przewidywalną jakość na każdym urządzeniu, które potrafi czytać płyty CD. Podsumowując, zarówno zbyt niska, jak i zbyt wysoka rozdzielczość bitowa nie mają uzasadnienia przy masteringu CD-Audio, bo jedynie 16 bitów spełnia wymagania tego formatu i zapewnia oczekiwane rezultaty dźwiękowe.

Pytanie 7

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. CBR
C. MBR
D. VBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 8

W którym formacie należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .wav
B. .aiff
C. .omf
D. .caf
Wiele osób podczas pierwszego kontaktu z DAWami może pomyśleć, że popularne formaty plików audio jak .wav, .aiff czy .caf wystarczą do przeniesienia całej sesji do innego programu. Niestety, to nie działa w ten sposób. Te rozszerzenia dotyczą wyłącznie pojedynczych plików audio, czyli samych śladów – nie przechowują informacji o aranżacji, położeniu klipów na osi czasu, punktach cięć czy automatyzacjach, które są niezbędne do odtworzenia złożonej struktury projektu w innym DAW. Praktyka pokazuje, że eksportowanie sesji tylko w formie ścieżek audio prowadzi do sytuacji, gdzie trzeba wszystko ręcznie układać od nowa, co jest nie tylko czasochłonne, ale i mocno narażone na błędy. .caf i .aiff są wykorzystywane jako wysokiej jakości formaty audio, szczególnie na platformach Apple, .wav to klasyk w świecie Windows i pro audio, jednak żaden z nich nie pełni roli kontenera projektowego. Typowym błędem jest myślenie, że skoro dany DAW obsługuje np. .wav, to wystarczy przenieść wszystkie pliki i gotowe. Niestety, do przeniesienia kompletnej sesji, z całą jej strukturą, potrzebny jest specjalny format wymiany, taki jak .omf. Przemysł muzyczny już dawno przyjął OMF jako standard do migracji projektów między DAWami, bo pozwala na zachowanie kluczowych informacji o aranżacji i synchronizacji ścieżek. Warto o tym pamiętać, żeby uniknąć niepotrzebnej frustracji i nieporozumień przy współpracy z innymi realizatorami czy podczas zmiany środowiska pracy. Dobrym nawykiem jest zawsze sprawdzić, czy dany DAW umożliwia eksport do OMF lub – ewentualnie – do nowszego formatu AAF, który także bywa stosowany w profesjonalnych studiach.

Pytanie 9

Jednostronna, jednowarstwowa płyta DVD, charakteryzuje się maksymalną pojemnością

A. 1,7 GB
B. 4,7 GB
C. 8,7 GB
D. 2,7 GB
Jednostronna, jednowarstwowa płyta DVD to taki najbardziej typowy nośnik, który przez lata był wręcz podstawą w przechowywaniu filmów, gier czy kopii zapasowych. Jej maksymalna pojemność to właśnie 4,7 GB i to warto zapamiętać, bo ta liczba pojawia się często nawet w specyfikacjach nagrywarek albo przy wyborze nośników do archiwizacji. Z tego, co zauważyłem, branża trzyma się tego standardu już od lat 90. – nawet jeśli dzisiaj korzysta się częściej z pendrive’ów albo chmur, te 4,7 GB to był taki złoty środek między kosztami a pojemnością. Płyty DVD tego typu (czyli DVD-5, tak się je fachowo oznacza) są jednowarstwowe i dane są zapisywane po jednej stronie, więc nie trzeba obracać płyty, żeby je odczytać. W praktyce to wystarczało na mniej więcej dwa filmy w jakości SD albo całkiem sporą ilość zdjęć albo dokumentów – kiedyś używało się tego nawet do instalatorów systemów operacyjnych. Warto też pamiętać, że większą pojemność uzyskuje się dopiero przy płytach dwuwarstwowych (DVD-9) lub dwustronnych, ale wtedy zmienia się już technologia produkcji i cena takiej płyty. Moim zdaniem, jeśli ktoś pracuje z archiwizacją albo starszym sprzętem, znajomość tej wartości to wciąż podstawa, bo czasami spotyka się jeszcze sprzęty, które tego wymagają.

Pytanie 10

Jaka jest maksymalna pojemność karty RS-MMC?

A. 2 GB
B. 64 GB
C. 128 GB
D. 16 GB
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 11

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 44 100 Hz
C. 48 000 Hz
D. 98 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 12

Które z poniższych parametrów wskazują na plik o najlepszej jakości?

A. 48 kHz, 16 bitów
B. 96 kHz, 8 bitów
C. 48 kHz, 24 bity
D. 44.1 kHz, 24 bity
Wiele osób uważa, że im wyższa częstotliwość próbkowania, tym lepsza jakość dźwięku – i trochę w tym racji, ale tylko jeśli pozostałe parametry są równie solidne. Przykład z 96 kHz i 8 bitów świetnie to pokazuje: 96 kHz to bardzo wysoka częstotliwość próbkowania, lecz 8-bitowa rozdzielczość jest kompletnie niewystarczająca do wiernej rejestracji dźwięku. W praktyce oznacza to, że sygnał jest zapisywany bardzo często, ale z tragiczną dokładnością – zakres dynamiki jest śmiesznie niski, co daje wyraźny szum i artefakty, zwłaszcza przy cichych fragmentach. Branża audio już dawno uznała 8 bitów za nieużyteczne w profesjonalnych zastosowaniach. Z kolei opcje 44.1 kHz i 24 bity oraz 48 kHz i 16 bitów to standardy stosowane odpowiednio w muzyce (CD Audio) i prostszych nagraniach, ale każda z tych kombinacji ma swoje ograniczenia. 16 bitów to wprawdzie wystarczające minimum do większości zastosowań konsumenckich, lecz przy profesjonalnej obróbce brakuje zapasu na tzw. headroom – łatwo tu o przesterowania czy utratę szczegółów przy cichych dźwiękach. 44.1 kHz to częstotliwość typowa dla płyt CD i mp3, ale już w studiach nagraniowych czy przy pracy z filmem bardziej się przydaje 48 kHz, bo łatwiej potem synchronizować ścieżki dźwiękowe z obrazem w standardach telewizyjnych. Myślenie o jakości pliku tylko przez pryzmat jednej liczby to typowa pułapka – liczy się optymalna kombinacja częstotliwości próbkowania i głębi bitowej. Dobry plik audio to taki, który daje zarówno wysoką rozdzielczość czasową (czyli częstotliwość), jak i szeroki zakres dynamiki (czyli bity). Z mojego doświadczenia, praktycznie zawsze lepiej wybrać 24 bity nawet przy nieco niższym próbkowaniu, niż stawiać tylko na setki kiloherców z bardzo ubogą rozdzielczością. Takie podejście wynika z realnych potrzeb miksowania, masteringu i archiwizacji – tam każda strata informacji może się potem odbić na finalnym słuchaniu.

Pytanie 13

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 96 kHz
B. 44,1 kHz
C. 192 kHz
D. 48 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 14

Kopię sesji o parametrach: 48 kHz, 24 bity, należy sporządzić jako kopię o następujących parametrach:

A. 96 kHz, 24 bity.
B. 48 kHz, 16 bitów.
C. 48 kHz, 24 bity.
D. 96 kHz, 16 bitów.
Wybrałeś parametry 48 kHz oraz 24 bity – i bardzo dobrze! To jest właśnie kluczowa sprawa, jeśli chodzi o kopiowanie sesji audio z zachowaniem jakości i kompatybilności. W branży dźwiękowej przyjęło się, że archiwalna lub robocza kopia powinna być wykonywana dokładnie w tych samych parametrach, w jakich była sesja oryginalna. Dzięki temu unikasz niepotrzebnych konwersji, które mogłyby niepotrzebnie pogorszyć jakość nagrania lub wprowadzić dodatkowe artefakty. Przykładowo, jeśli pracujesz w studiu nagrań i sesja została przygotowana w 48 kHz/24 bity, to każda kopia na archiwizację, dalszy montaż czy wysyłkę do innego realizatora powinna mieć te same ustawienia. Tak robią profesjonaliści, bo to gwarantuje pełną zgodność oraz bezpieczeństwo danych. Przeskakiwanie między różnymi częstotliwościami próbkowania czy głębiami bitowymi zwykle nie ma sensu, chyba że jest jakiś bardzo konkretny powód, np. przygotowanie masteru do CD (44.1 kHz/16 bitów), ale to już zupełnie inna sprawa. Z mojego doświadczenia wynika, że konsekwencja w zachowywaniu parametrów to po prostu mniej problemów na każdym etapie produkcji. Warto też wspomnieć, że 48 kHz/24 bity to obecnie taki branżowy standard dla audio w filmie, reklamie czy grach. Zawsze lepiej mieć za dużo jakości niż za mało, a niepotrzebne obniżanie parametrów po prostu się nie opłaca.

Pytanie 15

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. DIN
B. TOSLINK
C. TDIF
D. BNC
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 16

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 96 kHz
B. 44,1 kHz
C. 192 kHz
D. 88,2 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 17

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Digital
B. Dolby TrueHD
C. Dolby Digital Live
D. Dolby Stereo
Dolby TrueHD to obecnie jeden z najbardziej zaawansowanych formatów dźwięku wielokanałowego dostępnych na domowych nośnikach takich jak Blu-ray Disc. Jego największą zaletą jest bezstratne kodowanie, czyli zapisywanie i odtwarzanie dźwięku w jakości identycznej z oryginałem studyjnym. To właśnie pozwala na zapisanie aż 8 kanałów dźwięku (konfiguracja 7.1), co jest standardem w kinie domowym. Sam miałem okazję porównać ścieżki Dolby Digital i Dolby TrueHD na tym samym zestawie – różnica w szczegółowości i dynamice jest bardzo wyraźna, zwłaszcza przy odsłuchu na dobrym amplitunerze i kolumnach. Dolby TrueHD jest zgodny ze specyfikacją Blu-ray, co pozwala producentom filmów na oferowanie nawet bardzo wymagających, kinowych ścieżek dźwiękowych, zgodnych z oczekiwaniami audiofilów i entuzjastów kina. W praktyce, jeśli zależy komuś na pełnym wykorzystaniu możliwości zestawu 7.1, to właśnie ten kodek jest najlepszym wyborem, bo nie traci się żadnych detali, nawet w bardzo dynamicznych scenach. Często też w ustawieniach odtwarzacza lub amplitunera można przełączyć tryb odtwarzania między Dolby Digital a Dolby TrueHD i warto wtedy posłuchać tej różnicy. Z mojego doświadczenia wynika, że Dolby TrueHD to nie tylko marketing – faktycznie słychać zupełnie inny poziom realizmu dźwięku, zwłaszcza przy koncertach czy filmach akcji. W branży uznaje się, że jeżeli zależy Ci na perfekcyjnej reprodukcji dźwięku z Blu-ray, to TrueHD jest pewnym standardem i warto wiedzieć, jak rozpoznać ten format na opakowaniu czy w specyfikacji sprzętu.

Pytanie 18

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 255
B. 127
C. 55
D. 99
W pytaniu o maksymalną liczbę znaczników na płycie CD Digital Audio łatwo się pomylić, bo temat wydaje się prostszy, niż jest w rzeczywistości. Niektórzy zakładają, że skoro pojemność płyty jest określana w minutach (np. 74 lub 80 minut), to liczba utworów może być niemal dowolna – stąd czasem pojawiają się odpowiedzi typu 127 czy 255. To jednak jest błędne myślenie, bo liczba ścieżek audio (czyli znaczników na płycie) jest narzucona nie przez pojemność, ale przez standard techniczny, tzw. Red Book. To precyzyjny dokument opisujący, jak mają wyglądać płyty CD Audio, by były czytelne dla wszystkich zgodnych odtwarzaczy. W Red Booku zapisano, że TOC (Table of Contents) może zawierać maksymalnie 99 wpisów – i to właśnie ogranicza liczbę utworów. Większe liczby, takie jak 127 czy 255, to wynik mylenia z innymi standardami nośników danych, np. z płytą CD-ROM albo formatami komputerowymi (gdzie spotyka się limity bazujące na 8-bitowych bajtach). Z kolei 55 to liczba znacznie zaniżona, może wynikać z doświadczeń z płytami, które po prostu zapełniono do połowy lub zmyliła kogoś liczba ścieżek na typowych kompilacjach. Tak naprawdę w praktyce na płycie audio rzadko wykorzystuje się tak wysoki limit jak 99, bo nawet na długich płytach mieści się zaledwie kilkanaście do kilkudziesięciu utworów, ale standard pozostaje niezmienny od dekad. Ważna sprawa: przekroczenie tej liczby nie jest możliwe, bo odtwarzacze nie są w stanie poprawnie zinterpretować płyty z większą ilością ścieżek – cała struktura TOC jest projektowana dokładnie pod 99 wpisów. Warto pamiętać o tej technicznej granicy, szczególnie przy digitalizacji czy tłoczeniu płyt, by nie napotkać problemów ze zgodnością i odtwarzaniem.

Pytanie 19

Która z wymienionych kaset umożliwia zapis sygnału fonicznego w postaci cyfrowej?

A. DAT
B. Microcassette
C. CC
D. 8-track
DAT, czyli Digital Audio Tape, to naprawdę kawał ciekawej technologii. Ona jako jedna z pierwszych kaset pozwalała na zapis sygnału fonicznego w pełni cyfrowej postaci, a nie – jak w klasycznych kasetach – w formie analogowej. Moim zdaniem to był spory przeskok jakościowy, bo DAT dawał możliwość uzyskania bardzo czystego dźwięku, praktycznie bez szumów czy zniekształceń typowych dla taśm magnetycznych. Stosowano to rozwiązanie w profesjonalnych studiach nagraniowych, radiofonii, a nawet w archiwizacji ważnych nagrań, bo była to technologia niezawodna. Z moich obserwacji wynika, że DAT wprowadził nowe standardy bezpieczeństwa danych audio – chociaż na domowy rynek nigdy się nie przebił tak mocno jak CD czy MiniDisc. Praktycznie rzecz biorąc, tam gdzie liczyła się precyzja i jakość cyfrowego zapisu, DAT był wybierany przez inżynierów dźwięku czy realizatorów. Nawet dziś, chociaż już dosyć rzadko się go spotyka, kasety DAT są jeszcze wykorzystywane do digitalizacji starych nagrań. Warto wiedzieć, że format DAT korzysta z technologii podobnej do tej w magnetowidach – głowice obracają się i zapisują dane w postaci cyfrowej na wąskiej taśmie. Także, jeśli chodzi o cyfrowy zapis audio na kasetach, DAT to taki klasyk i pionier.

Pytanie 20

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic IIz
B. Pro Logic II
C. Pro Logic
D. Pro Logic IIx
Pro Logic IIx to technologia Dolby, która właśnie wyróżnia się możliwością obsługi systemów 7.1, co w praktyce oznacza rozdzielenie sygnału na siedem kanałów efektowych oraz subwoofer. W praktyce instalacje domowego kina, które bazują na amplitunerach obsługujących Dolby Pro Logic IIx, pozwalają na uzyskanie pełniejszego wrażenia przestrzenności – szczególnie podczas oglądania filmów akcji lub koncertów nagranych w wielokanałowym formacie. Moim zdaniem ten standard to taki złoty środek między prostszymi dekoderami (Pro Logic, II) a już zaawansowanymi technologiami typu Dolby TrueHD czy Atmos. Co ciekawe, Pro Logic IIx pozwala nawet na przekształcenie sygnału stereo lub 5.1 w 6.1 lub 7.1, więc daje dużą elastyczność przy korzystaniu ze starszych nagrań czy gier. Przestrzenność jest tu naprawdę odczuwalna – efekty dźwiękowe zaczynają „chodzić” po pokoju. Z mojego doświadczenia, przy dobrze rozmieszczonych głośnikach, można uzyskać bardzo realistyczny pejzaż dźwiękowy. Warto też pamiętać, że standard ten był długo wykorzystywany w amplitunerach średniej i wyższej klasy, zanim upowszechnił się Dolby Atmos. W porównaniu do wcześniejszych generacji, takich jak Pro Logic II, „ix” to nie tylko więcej kanałów, ale i lepsza separacja sygnału. Zdecydowanie warto znać ten standard, jeśli ktoś interesuje się profesjonalnym nagłośnieniem lub domowymi systemami audio.

Pytanie 21

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 10 MB
B. Około 5 MB
C. Około 1 MB
D. Około 20 MB
Wiele osób odruchowo szacuje objętość pliku audio, nie biorąc pod uwagę wszystkich parametrów technicznych. Często spotykam się z przekonaniem, że plik muzyczny o długości minuty to jakieś „mega dwa” czy nawet poniżej 1 MB – takie uproszczenia wynikają najczęściej z przyzwyczajenia do mocno skompresowanych formatów, jak MP3 czy AAC, gdzie rzeczywiście objętość pliku potrafi spaść nawet dziesięciokrotnie względem oryginału. Jednak w pytaniu chodziło o plik bez kompresji (np. WAV, PCM), w dodatku stereo, z pełną jakością CD: 44,1 kHz i 16 bitów. Tu matematyka jest nieubłagana: każda sekunda dźwięku to aż 44 100 próbek na kanał, każda próbka po 2 bajty, do tego dwa kanały. W efekcie jedna minuta to aż około 10,1 MB. Założenie, że plik zajmie około 1 MB czy 5 MB, wynika z mylenia pojęć – te wartości dotyczą raczej stratnych formatów albo monofonicznych, niższej jakości nagrań. W drugą stronę, szacując 20 MB, można przeszarżować, niepotrzebnie zawyżając wymagania sprzętowe – tak duży rozmiar pojawiłby się raczej przy 24-bitowych nagraniach lub wyższych częstotliwościach próbkowania (np. 96 kHz). W praktyce, w branży muzycznej i inżynierii dźwięku, świadomość tych liczb jest bardzo ważna do planowania dysków, backupu czy transferu plików. Staraj się więc zawsze dokładnie przeliczać objętość, uwzględniając liczbę kanałów, próbkowanie, rozdzielczość bitową i czas trwania – to podstawa rzetelnej pracy z dźwiękiem.

Pytanie 22

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 17 MB
B. 8 MB
C. 14 MB
D. 11 MB
Odpowiedź 17 MB jest trafiona, ponieważ wynika z zastosowania prostego wzoru do obliczania rozmiaru pliku audio w formacie nieskompresowanym PCM. Przy takich parametrach jak 48 kHz i 24 bity na próbkę, a do tego dźwięk stereofoniczny (czyli dwa kanały), sprawa wygląda następująco: liczba próbek na sekundę razy liczba bitów na próbkę, dalej razy liczba kanałów i wreszcie razy liczba sekund. Dla jednej minuty (60 sekund) mamy: 48000 próbek/s × 24 bity × 2 kanały × 60 s = 138 240 000 bitów/s × 60 = 8 294 400 000 bitów. Teraz dzielimy przez 8, żeby uzyskać bajty, czyli mamy 1 036 800 000 bajtów. Dzielimy przez 1 048 576 (czyli liczba bajtów w 1 MB) i wychodzi nam ok. 17 MB. Takie rozmiary plików to codzienność w studiu nagraniowym i wszędzie tam, gdzie mamy do czynienia z profesjonalnym dźwiękiem nieskompresowanym – na przykład przy produkcji muzyki czy postprodukcji filmowej. Moim zdaniem warto pamiętać, że zapisywanie dźwięku w wysokiej jakości wymaga dużo miejsca na dysku – dlatego w branży często inwestuje się w szybkie i pojemne dyski SSD. Często spotyka się praktykę archiwizowania takich plików bez kompresji, właśnie dla zachowania maksymalnej jakości. Również różne DAWy i systemy miksujące domyślnie używają takich parametrów, bo pozwalają na wygodną dalszą edycję bez strat jakości. Dla porównania, plik mp3 o tej samej długości zajmowałby nieporównywalnie mniej, ale wtedy tracimy na jakości, co w zastosowaniach profesjonalnych jest nieakceptowalne.

Pytanie 23

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. powstanie dodatkowych harmonicznych.
B. nieznaczne podbicie środkowej części pasma.
C. dodanie do dźwięku szumu kwantyzacji.
D. odtworzenie sygnału identycznego jak oryginał.
Trzeba dobrze rozróżnić, czym jest kompresja bezstratna, a czym stratna, bo właśnie tu wkradają się najczęstsze nieporozumienia. Sygnał poddany kompresji bezstratnej i potem dekompresji nie zyskuje żadnych dodatkowych szumów ani zniekształceń – nie dodaje szumu kwantyzacji, nie wprowadza nowych harmonicznych, ani nie zmienia charakterystyki częstotliwościowej. Te efekty są typowe dla innych procesów: na przykład szum kwantyzacji pojawia się przy konwersji analog-cyfra lub przy zmianie rozdzielczości bitowej, a kompresja stratna (jak MP3) może powodować artefakty takie jak utrata drobnych detali czy powstawanie nieprzyjemnych zniekształceń, ale nie kompresja bezstratna. Dodatkowe harmoniczne to zjawisko związane z nieliniowymi zniekształceniami, najczęściej w torze analogowym albo przy przesterowaniu sygnału, a nie w procesach cyfrowych i bezstratnych. Podbicie pasma też raczej kojarzy się z korekcją barwy, nie z kompresją plików. Często mylimy pojęcia, bo codziennie używamy formatów stratnych i wtedy rzeczywiście jakość ucieka – ale to właśnie przewaga bezstratnych metod: zachowują oryginalną postać sygnału co do bita, co jest zapisane, to odtworzone. W praktyce, jeśli plik FLAC czy ALAC zostanie poprawnie zdekodowany, nie da się technicznie odróżnić go od oryginału, co jest zgodne z wymaganiami archiwizacji w branży muzycznej i radiowej. Warto pamiętać, że wszelkie modyfikacje czy degradacje pojawiają się dopiero wtedy, gdy korzystamy z formatów stratnych lub zmieniamy parametry konwersji, ale nie w przypadku bezstratnej kompresji i dekompresji.

Pytanie 24

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. WAV
B. AAC
C. ALAC
D. AIFF
Rozważając zagadnienie kodowania dźwięku, łatwo jest się pomylić, bo na pierwszy rzut oka większość popularnych formatów wydaje się być podobna, a różnice techniczne nie zawsze są oczywiste. AIFF oraz WAV to formaty, które zostały zaprojektowane z myślą o przechowywaniu dźwięku w postaci nieskompresowanej lub, w niektórych wariantach, z kompresją bezstratną. W praktyce pliki AIFF najczęściej spotyka się na komputerach Apple, a WAV z kolei dominuje na platformach Windows – oba zapewniają bardzo wysoką jakość dźwięku, ale ich rozmiar potrafi być naprawdę ogromny. To właśnie dlatego nie nadają się zbyt dobrze do przesyłania przez internet czy przechowywania dużych bibliotek muzycznych na urządzeniach mobilnych. ALAC, czyli Apple Lossless Audio Codec, jak sama nazwa wskazuje, stosuje kompresję bezstratną, co oznacza, że po dekompresji otrzymujemy dokładnie ten sam sygnał audio, który został zakodowany, bez utraty żadnych danych. W branży muzycznej ALAC jest wykorzystywany głównie przez osoby, które chcą archiwizować swoje kolekcje w najwyższej możliwej jakości, albo przez entuzjastów dobrego brzmienia. Z mojego punktu widzenia, częsty błąd polega na tym, że przyjmuje się wszystkie cyfrowe formaty za potencjalnie stratne, tylko dlatego, że są popularne. Tymczasem to właśnie AAC wprowadza stratne kodowanie, usuwając fragmenty sygnału, które są uznane za mniej istotne z punktu widzenia percepcji ludzkiego ucha. Dla profesjonalnych zastosowań studyjnych lub archiwizacji lepiej wybrać formaty bezstratne jak AIFF, WAV czy ALAC, natomiast jeśli chodzi o codzienne słuchanie muzyki na słuchawkach czy przez głośnik Bluetooth, to kodowanie stratne, takie jak AAC, jest całkiem rozsądne. Wydaje mi się, że wiele osób po prostu nie docenia, jak duże znaczenie ma wybór odpowiedniego formatu w zależności od zastosowania i jakie to może mieć przełożenie na wygodę użytkowania oraz jakość dźwięku.

Pytanie 25

Proces zmiany częstotliwości próbkowania dźwięku to

A. korekcja.
B. konwersja.
C. kompresja.
D. kompensacja.
Proces zmiany częstotliwości próbkowania dźwięku fachowo nazywamy konwersją, a konkretnie – konwersją częstotliwości próbkowania, po angielsku sample rate conversion. To jest bardzo ważne w obróbce audio, zwłaszcza jeśli nagrania z różnych źródeł mają być zintegrowane w jednym projekcie czy miksie. Na przykład, jeśli masz plik nagrany w 44,1 kHz, a chcesz go użyć w projekcie, który bazuje na 48 kHz – musisz wykonać konwersję. W profesjonalnych programach DAW (Digital Audio Workstation) są do tego wyspecjalizowane algorytmy. Warto podkreślić, że dobrze przeprowadzona konwersja zachowuje maksymalną jakość sygnału i nie wprowadza zniekształceń typu aliasing. W branży audio stosuje się do tego np. algorytmy sinc interpolation lub asynchroniczne konwertery SRC. Warto pamiętać, że konwersja próbkowania nie jest tym samym co kompresja, bo tu nie chodzi o zmniejszenie rozmiaru pliku, tylko o dostosowanie parametrów technicznych sygnału do wymagań sprzętu lub projektu. Z mojego doświadczenia, bardzo ważne jest, żeby nie robić tego „byle czym”, bo słabe algorytmy potrafią bardzo zepsuć brzmienie – profesjonalne narzędzia od iZotope czy r8brain są tu w czołówce. Takie podejście jest zgodne z najlepszymi praktykami produkcji audio i masteringu.

Pytanie 26

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z próbkowaniem na potrzeby płyty DVD-Audio.
B. z próbkowaniem na potrzeby płyty CD-Audio.
C. z próbkowaniem dla transmisji zakresu mowy.
D. z niską rozdzielczością procesu próbkowania.
Dość często spotyka się błędne skojarzenia częstotliwości próbkowania 96 kHz z niską rozdzielczością lub zastosowaniami typowo konsumenckimi. W rzeczywistości jest zupełnie odwrotnie – 96 kHz to jeden z wyższych standardów w przechwytywaniu dźwięku, szczególnie w profesjonalnych i półprofesjonalnych środowiskach. Próbkowanie na poziomie 8 kHz czy 16 kHz to zakres typowy dla transmisji mowy, na przykład w telefonii analogowej lub cyfrowej, gdzie odtwarzanie pełnego pasma dźwięku nie jest konieczne, bo wystarczy zrozumiałość przekazu. Takie częstotliwości są dalekie od możliwości wysokiej jakości systemów audio i nie mają nic wspólnego z rozbudowanymi formatami muzycznymi. Jeżeli chodzi o płyty CD-Audio, obowiązujący od lat standard to dokładnie 44,1 kHz – to była przemyślana kompromisowa wartość, pozwalająca na zapis pasma do około 20 kHz, czyli górnej granicy słyszalności człowieka. Mylenie tej wartości z 96 kHz wynika najpewniej z braku znajomości specyfikacji różnych nośników lub wyniesionych z praktyki skojarzeń z „większą liczbą = lepsza jakość”. Tymczasem 96 kHz to domena nowocześniejszych formatów, takich jak właśnie DVD-Audio czy profesjonalne nagrania studyjne. Tego typu rozdzielczość pozwala nie tylko na lepszą jakość odsłuchu, ale też na bardziej bezstratną edycję w procesach obróbki audio. Wybierając odpowiednie próbkowanie, zawsze należy kierować się wymaganiami końcowego zastosowania – i moim zdaniem bardzo łatwo tutaj popełnić pomyłkę, jeśli nie zna się podstaw standardów branżowych. Dlatego warto mieć zakodowane, że 96 kHz to typowe rozwiązanie dla formatów o podwyższonej jakości, a nie dla podstawowych zastosowań transmisyjnych czy płyt CD.

Pytanie 27

ID3v2 umożliwia dodanie do pliku mp3 metadanych w formie

A. znaków w systemie szesnastkowym.
B. wyłącznie znaków ASCII.
C. tekstu i grafiki.
D. wyłącznie grafiki.
Często spotykam się z przekonaniem, że ID3v2 służy tylko do załączania obrazków albo, że ogranicza się wyłącznie do tekstu w formacie ASCII. Nic bardziej mylnego. Standard ID3v2 został właśnie po to opracowany, by umożliwić bogate opisywanie plików MP3 – a to obejmuje zarówno tekstowe informacje (np. tytuł, wykonawcę, album, tekst utworu czy nawet komentarze), jak i możliwość dołączenia elementów graficznych, takich jak okładki albumów. Ograniczanie się tylko do grafiki nie oddaje pełnych możliwości standardu – sama grafika bez tekstu praktycznie nie ma sensu dla większości odtwarzaczy i katalogerów muzyki. Z kolei mylenie ID3v2 tylko z kodowaniem ASCII wynika chyba z czasów, gdy starsze wersje tagów (ID3v1) faktycznie korzystały z mocno ograniczonych znaków. Nowoczesny ID3v2 pozwala na zapis nawet w Unicode, dzięki czemu można zapisywać polskie znaki i inne znaki diakrytyczne – super sprawa, jeśli pracujemy z międzynarodowym repertuarem. Pomysł, że tagi są zapisane „w systemie szesnastkowym”, to chyba efekt mylenia sposobu fizycznego zapisu danych w pliku z tym, co możemy zapisać w tagu – użytkownik widzi tylko sformatowany tekst i grafikę, bez względu na to, jak dane są reprezentowane binarnie. Moim zdaniem takie uproszczone podejście wynika z braku praktycznego doświadczenia z narzędziami do edycji tagów albo z nieczytania dokumentacji, a to akurat w branży muzycznej bardzo się przydaje. Warto po prostu sięgać do oficjalnych specyfikacji ID3v2 – tam czarno na białym jest, co można do pliku dodać i jak to potem wygląda w praktyce. Dobrze jest znać te niuanse, bo potem łatwo uniknąć takich drobnych, ale znaczących pomyłek.

Pytanie 28

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 70 minut.
B. 90 minut.
C. 60 minut.
D. 80 minut.
Błędne odpowiedzi na temat pojemności czasowej płyt CD-Audio wynikają zazwyczaj z niezrozumienia, jak działa standard zapisu dźwięku na tych nośnikach. Często ktoś patrzy na 700 MB i porównuje to bezpośrednio do plików MP3 czy innych formatów skompresowanych, myśląc, że da się tam upchnąć 90 czy nawet 70 minut muzyki dobrej jakości. Nic bardziej mylnego, bo CD-Audio wykorzystuje nieskompresowany, liniowy zapis PCM o wysokich parametrach – 44,1 kHz, 16 bitów, stereo, co generuje naprawdę duże ilości danych. W praktyce przekroczenie 80 minut nie jest możliwe w ramach standardu Red Book: płyty 90-minutowe niby istnieją, ale są niezgodne ze specyfikacją i mogą sprawiać problemy z odtwarzaniem na typowych odtwarzaczach CD – moim zdaniem to tylko sztuczka producentów niektórych tanich nośników i nie ma sensu kierować się takimi wartościami. Z kolei odpowiedzi 70 czy 60 minut są typowym efektem mylenia pojemności starszych płyt 650 MB (gdzie faktycznie standard przewidywał ok. 74 minuty) z nowszymi nośnikami. Obecnie 700 MB, czyli 80 minut, to najbardziej rozpowszechniony standard. Trzeba też uważać na praktyki, w których błędnie przelicza się minuty na MB bez uwzględnienia realnego strumienia danych PCM – to jeden z najczęstszych problemów, z którymi spotkałem się w pracy z płytami audio. Takie pomyłki niestety skutkują niedziałającymi płytami lub niekompatybilnością z popularnym sprzętem. Rzetelne trzymanie się standardu i zrozumienie, dlaczego tak to działa, pozwala uniknąć wielu frustracji – szczególnie przy produkcji własnych kompilacji czy masteringu albumów.

Pytanie 29

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. flamastra zawierającego alkohol.
B. flamastra niezawierającego alkoholu.
C. długopisu.
D. ostrego rysika.
Wielu osobom wydaje się, że do opisywania płyt CD czy DVD można użyć praktycznie dowolnego narzędzia do pisania, bo przecież płyta wydaje się dość trwała. To niestety bardzo mylące przekonanie. Użycie długopisu kusi – jest zawsze pod ręką, zostawia wyraźny ślad, ale niestety końcówka długopisu jest na tyle twarda, że może uszkodzić cienką, ochronną warstwę poliwęglanu. W skrajnych przypadkach może dojść wręcz do punktowego pęknięcia powierzchni, szczególnie jeśli ktoś mocniej przyciśnie – a wtedy dane z płyty mogą być nieczytelne. Ostry rysik to już w ogóle zły pomysł – nawet nie chodzi tylko o rysowanie, ale o możliwość fizycznego naruszenia warstw, w których zapisane są dane. Płyty optyczne nie są tak odporne, jak się wydaje; ich powierzchnia jest podatna na mikrouszkodzenia, które potem mogą prowadzić do błędów odczytu. Markery alkoholowe także wydają się z pozoru praktyczne; piszą niemalże na każdej powierzchni, ale niestety ich składniki chemiczne – głównie alkohole i inne rozpuszczalniki – mogą wnikać przez lakier ochronny i uszkadzać warstwę zapisu. Z perspektywy praktyka, wystarczy kilka miesięcy, żeby pojawiły się przebarwienia lub nawet mikropęknięcia na płycie. Często bagatelizuje się te zalecenia, bo wydaje się, że to przesada producentów, ale fakty są takie, że takie błędy prowadzą do szybkiej degradacji nośnika. Najlepszą praktyką, zgodnie z zaleceniami branżowymi i doświadczeniem ludzi zajmujących się archiwizacją danych, jest stosowanie specjalnych markerów bezalkoholowych – są przeznaczone właśnie do tego celu i zapewniają, że opisywanie nie wpłynie negatywnie na trwałość płyty. Ostatecznie, to niewielki koszt w porównaniu z potencjalną utratą ważnych danych.

Pytanie 30

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 3 razy.
B. 4 razy.
C. 6 razy.
D. 2 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 31

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 20 bitów.
B. 8 bitów.
C. 16 bitów.
D. 24 bity.
24 bity to standard, który w praktyce gwarantuje bardzo niski poziom szumów kwantyzacji w sygnale fonicznym – praktycznie nie do odróżnienia dla ludzkiego ucha, nawet przy bardzo cichych fragmentach. Z mojego doświadczenia, w profesjonalnych studiach nagraniowych oraz przy produkcji muzyki używa się właśnie 24-bitowej rozdzielczości, bo pozwala zachować ogromny zakres dynamiki (ponad 140 dB!), co jest kluczowe, gdy miksuje się wiele ścieżek lub wielokrotnie modyfikuje nagranie. Im wyższa głębia bitowa, tym dokładniej można odwzorować ciche i głośne fragmenty – a szum kwantyzacji praktycznie zanika. To dlatego mastering audio, produkcja filmowa czy sample banki opierają się o 24 bity. Dla porównania, płyta CD wykorzystuje 16 bitów, co też daje bardzo dobrą jakość, ale już mniej miejsca na subtelności, zwłaszcza przy obróbce materiału. Oczywiście, wyższa bitowość wymaga większej pojemności dysku i mocniejszego sprzętu, ale w dzisiejszych czasach to już nie problem. Moim zdaniem, kto raz nagrywał w 24 bitach, ten nie chce wracać do niższych rozdzielczości. Jeśli zależy ci na naprawdę czystym, profesjonalnym dźwięku bez cyfrowych artefaktów, 24 bity to po prostu właściwy wybór.

Pytanie 32

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 44 100 Hz, 96 kbps
B. 22 000 Hz, 128 kbps
C. 44 100 Hz, 160 kbps
D. 48 000 Hz, 128 kbps
Wybierając parametry 44 100 Hz oraz 96 kbps, faktycznie dążysz do minimalizacji rozmiaru pliku mp3. Najważniejsze jest tutaj zrozumienie, jak te dwa wskaźniki wpływają na wagę i jakość dźwięku. Próbkowanie 44 100 Hz to tzw. standard audio dla płyt CD – wystarczające do zachowania przyzwoitej jakości muzyki, nawet po kompresji. Natomiast bitrate 96 kbps jest już mocno oszczędny, jeśli chodzi o ilość przesyłanych danych na sekundę. Im niższy bitrate, tym mniej miejsca zajmuje mp3, ale oczywiście kosztem jakości dźwięku. Z mojego doświadczenia 96 kbps to jest taka granica, gdzie plik jest naprawdę mały, a jakość jeszcze jako tako znośna do słuchania na prostych sprzętach. W praktyce np. przy archiwizowaniu dźwięków do podcastów czy na pamiątkowe nagrania rozmów, taki bitrate w zupełności wystarcza. Większość profesjonalnych programów do masteringu czy konwerterów plików oferuje właśnie 44,1 kHz jako domyślny standard, bo to daje dobrą kompatybilność ze sprzętem i oprogramowaniem. Z drugiej strony, gdy zależy nam tylko na rozmiarze, 96 kbps wygrywa z wyższymi wartościami. Warto pamiętać, że w przypadku plików mp3 zawsze musimy iść na kompromis między jakością a wagą pliku. Do zastosowań, gdzie najważniejsze jest oszczędzanie miejsca – to rozwiązanie jest najrozsądniejsze.

Pytanie 33

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. pendrive.
B. chmura dyskowa.
C. karta SD.
D. dysk twardy.
Odpowiedzi, które wskazują na pendrive, dysk twardy lub chmurę dyskową jako popularny nośnik do zapisu sygnałów fonicznych w przenośnych urządzeniach, wynikają często z mylenia codziennego użycia nośników danych z ich realnymi zastosowaniami w sprzęcie mobilnym. Pendrive, choć bardzo popularny przy przenoszeniu plików między komputerami, nie jest stosowany w rejestratorach dźwięku czy kamerach – przede wszystkim z powodu rozmiaru, poboru energii i słabej odporności na uszkodzenia mechaniczne. Nie widziałem jeszcze porządnego, kompaktowego dyktafonu czy rejestratora, który by miał port USB-A do włożenia pendrive'a, bo to po prostu zupełnie niepraktyczne w urządzeniach przenośnych. Dysk twardy tym bardziej nie nadaje się do takiego sprzętu – jest za duży, podatny na wstrząsy, a do tego wymaga zasilania, którego małe urządzenia po prostu nie mają. Dla dużych archiwów audio, jasne, dysk twardy jest świetny – ale nie do zapisu na bieżąco w grach terenowych czy na wywiadzie ulicznym. Chmura dyskowa to już zupełnie inna bajka – to przestrzeń online, dostępna przez internet, więc nie nadaje się jako fizyczny nośnik w urządzeniu, które musi działać niezależnie od sieci (i nie zawsze mamy stały dostęp do internetu). Częsty błąd myślowy polega tu na utożsamianiu "popularnych" nośników z tymi, które faktycznie da się stosować w sprzęcie mobilnym – a przecież w praktyce liczą się jeszcze kwestie rozmiaru, niezawodności, poboru energii i łatwej wymiany. Dlatego właśnie to karta SD – dzięki swoim właściwościom i powszechnemu wsparciu branżowemu – jest najlepszym i standardowym wyborem w przenośnym sprzęcie do nagrywania dźwięku.

Pytanie 34

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Dysk SSD
B. Płyta DVD
C. Karta SD
D. Płyta CD
Wiele osób myśli, że nośniki takie jak płyty CD czy DVD, ze względu na swoją popularność sprzed lat, mogą konkurować z nowoczesnymi rozwiązaniami. Jednak w praktyce nośniki optyczne, mimo prostoty i niskiego kosztu produkcji, są naprawdę powolne – prędkości odczytu oscylują na poziomie kilku, maksymalnie kilkunastu megabajtów na sekundę (najczęściej jednak bliżej 5-10 MB/s w warunkach domowych). Co więcej, czas dostępu do danych na płycie optycznej jest bardzo długi, ponieważ mechanika musi odnaleźć odpowiednie miejsce na krążku i dopiero wtedy można zacząć odczyt. Karty SD, choć szybsze niż płyty optyczne, też mają swoje ograniczenia. Przede wszystkim zależą od klasy prędkości (np. Class 10, UHS-I/UHS-II), ale nawet najlepsze modele rzadko przekraczają 300 MB/s w odczycie, a w praktyce transfery często są dużo niższe. Karty SD świetnie sprawdzają się w aparatach czy kamerach, jednak daleko im do osiągów profesjonalnych dysków SSD. Typowym błędem jest zakładanie, że jeśli coś działa dobrze w małych urządzeniach przenośnych, to nada się też do zastosowań wymagających bardzo szybkiego dostępu, np. przy pracy z dużymi bazami danych czy montażu wideo. W branży powszechnie przyjęło się, że dyski SSD pod SATA III czy PCIe górują nad wszystkimi pozostałymi nośnikami konsumenckimi, oferując nieporównywalnie krótszy czas dostępu i większą stabilność transferu. Płyty DVD, choć mają większą pojemność niż CD, wcale nie są szybsze – odczyt danych rzadko przekracza 15 MB/s, a do tego są podatne na zarysowania i upływ czasu. Podsumowując, jeśli naprawdę zależy Ci na błyskawicznym odczycie danych, płyty optyczne i karty pamięci odpadają w przedbiegach. To właśnie półprzewodnikowe SSD zmieniły zasady gry zarówno w komputerach osobistych, jak i profesjonalnych rozwiązaniach IT.

Pytanie 35

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 15 GB danych.
B. 20 GB danych.
C. 10 GB danych.
D. 25 GB danych.
W branży IT oraz w praktycznym użytkowaniu nośników optycznych łatwo pomylić pojemności różnych typów płyt, bo na rynku przez lata przewijały się różne standardy: CD, DVD, Blu-ray, a każda z nich oferuje inne parametry zapisu. Błędne są przekonania, że jednowarstwowy Blu-ray mieści tylko 10 GB albo 15 GB – te wartości bardziej pasują do niektórych wersji starszych płyt DVD, szczególnie w przypadku płyt dwuwarstwowych lub niskopojemnościowych, które wciąż można spotkać np. w starych laptopach czy konsolach. Wskazanie 20 GB jako maksymalnej pojemności wynika często z uproszczeń lub mylenia różnych wersji płyt, bo faktyczny standard Blu-ray przewiduje 25 GB dla jednej warstwy i 50 GB dla dwóch warstw. W praktyce, jeśli próbujesz nagrać na jednowarstwowej płycie Blu-ray większą ilość danych, po prostu nie zmieścisz ich i program do nagrywania zgłosi błąd. Warto wiedzieć, że w sferze profesjonalnej, np. w archiwizacji danych czy dystrybucji filmów HD, korzysta się właśnie z tych standardowych wartości – i są one mocno respektowane przez producentów sprzętu, oprogramowania i całe środowisko IT. Typowym błędem myślowym bywa też założenie, że większa liczba GB oznacza nowszą technologię, ale to nie do końca tak działa – pojemność zależy od gęstości zapisu i konstrukcji płyty. Jeżeli spotykasz się z innymi liczbami dotyczącymi Blu-ray, najprawdopodobniej chodzi o specjalne wersje płyt lub mylone są warstwy czy typy nośników. Dobrą praktyką jest zawsze sprawdzać specyfikację producenta, żeby uniknąć problemów z kompatybilnością czy stratą danych.

Pytanie 36

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Avid ProTools.
B. Steiberg Cubase.
C. Celemony Melodyne.
D. Microsoft Windows Media Player.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 37

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Stereo
B. Dolby TrueHD
C. Dolby Digital Live
D. Dolby Digital
Patrząc na dostępne opcje dźwięku, łatwo pomylić się, bo wszystkie mają w nazwie „Dolby”, ale ich zastosowanie i możliwości są zupełnie różne. Dolby Stereo to stary standard – dziś raczej historyczny. Oferuje tylko dwa kanały (stereo lub matrixowe 4 kanały w kinach), więc nie nadaje się do zapisania ani odtwarzania wielokanałowego dźwięku 7.1. W domowych warunkach często myli się go z prostym stereo, ale to raczej ciekawostka, a nie realny wybór. Dolby Digital, choć bardzo popularny (praktycznie każdy film na DVD czy w telewizji kablowej korzysta z tego kodeka), jest formatem stratnym i obsługuje maksymalnie 5.1 kanałów przy kompresji stratnej, więc także odpada przy wymaganiach 8 kanałów bez utraty jakości. Dolby Digital Live to z kolei technologia zaprojektowana głównie do przesyłania wielokanałowego dźwięku na żywo (np. przez S/PDIF), najczęściej w grach komputerowych, i również bazuje na kompresji stratnej. Moim zdaniem często błędnie zakłada się, że obecność słowa „Dolby” gwarantuje najwyższą jakość czy liczbę kanałów, ale w rzeczywistości to tylko część prawdy – kluczowy jest typ kompresji i liczba wspieranych kanałów. W praktyce na Blu-ray Disc tylko Dolby TrueHD lub konkurencyjny DTS-HD Master Audio umożliwiają zapis dźwięku 7.1 bez strat. Typowym błędem jest też myślenie, że nowsze wersje Dolby Digital (np. Plus) to już bezstratne kodeki – niestety nie, one jedynie poprawiają efektywność kompresji. Warto pamiętać o tych niuansach, bo bez znajomości szczegółów łatwo się pomylić przy wyborze właściwego formatu audio, zwłaszcza jeśli zależy nam na najwyższej jakości i pełnym wykorzystaniu systemu 7.1 na Blu-ray.

Pytanie 38

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/24 bity
B. 48000 Hz/16 bitów
C. 44100 Hz/24 bity
D. 44100 Hz/16 bitów
Częstym błędem przy ustawianiu parametrów sesji w DAW jest wybieranie częstotliwości próbkowania lub rozdzielczości bitowej, która wydaje się lepsza „bo większa”, bez zastanowienia się nad rzeczywistymi wymaganiami docelowego formatu. W przypadku CD-Audio standard jest niezmienny od dekad: 44100 Hz częstotliwości próbkowania i 16 bitów rozdzielczości. Niestety, wybierając 44100 Hz/24 bity, łatwo się pomylić – niby częstotliwość zgadza się z CD, ale 24 bity to rozdzielczość stosowana głównie w studiach nagraniowych na etapie masteringu, nie na płycie CD. To samo dotyczy parametrów opartych na 48000 Hz (zarówno 16, jak i 24 bity). 48000 Hz to typowa wartość używana w materiałach wideo, telewizji czy filmie, gdzie wymagane są inne standardy ze względu na synchronizację obrazu i dźwięku. Wydaje się, że wybór wyższej rozdzielczości bitowej albo częstotliwości próbkowania powinien skutkować lepszą jakością, ale w praktyce po konwersji do formatu CD-Audio i tak wszystko zostanie przeskalowane do 44,1 kHz/16 bitów, czasami generując niepożądane artefakty czy zniekształcenia. Dodatkowo, takie ustawienia mogą prowadzić do niepotrzebnych komplikacji przy eksporcie i authoringu płyt CD. Moim zdaniem, warto trzymać się sztywnych wytycznych branżowych, bo one wynikają nie tylko z tradycji, ale i z technicznych ograniczeń sprzętu odtwarzającego. Każdy inny wybór niż 44100 Hz/16 bitów sprawia, że finalny produkt może nie być kompatybilny z klasycznymi odtwarzaczami CD, co w praktyce przekreśla sens takiego eksportu. Warto o tym pamiętać, bo czasami przez takie „drobiazgi” końcowy efekt mocno na tym cierpi.

Pytanie 39

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R
B. DVD+R DL
C. DVD-RW
D. DVD-R
Wiele osób myli się, zakładając, że wszystkie płyty DVD z literą „R” w nazwie nadają się do wielokrotnego zapisu – to niestety dosyć powszechna iluzja, która bierze się stąd, że skrót „R” kojarzy się czasem z angielskim „rewrite”. Tymczasem w rzeczywistości „R” oznacza „Recordable” (czyli możliwość nagrania danych), ale tylko jednokrotnie. Czy to będzie DVD-R, DVD+R czy nawet DVD+R DL, każda z tych płyt pozwala na zapisanie danych tylko raz. Jeśli coś pójdzie nie tak podczas nagrywania, albo zechcesz po czasie zmienić zawartość, niestety nie da się już tego zrobić – nie ma opcji skasowania i ponownego nagrania. Wersja DVD+R DL (DL – Dual Layer) oferuje co prawda większą pojemność dysku dzięki dwóm warstwom, jednak jej funkcjonalność nadal ogranicza się do zapisu jednokrotnego. To samo dotyczy zwykłych DVD-R i DVD+R – są dobre do archiwizacji lub jednorazowego przenoszenia ważnych danych, ale nie wybaczają pomyłek. W technicznej praktyce wymogi backupów czy testowych zrzutów danych sprawiają, że potrzebne są nośniki, które można wielokrotnie zapisywać i kasować. Tu właśnie wchodzi DVD-RW, z angielskiego „ReWritable”, czyli rzeczywiście wielokrotnego zapisu. Mylenie tych standardów wynika często z podobieństw nazw i nieintuicyjnych skrótów. Moim zdaniem warto zawsze sprawdzić na opakowaniu lub specyfikacji, czy dana płyta to RW, bo tylko wtedy można liczyć na swobodę zapisu i kasowania. Podsumowując, DVD-R, DVD+R i DVD+R DL to nośniki jednokrotnego zapisu, a tylko DVD-RW umożliwia prawdziwie wielokrotną pracę na tym samym dysku – to kluczowa różnica, która w praktyce bywa decydująca.

Pytanie 40

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .wma
B. .aif
C. .mp4
D. .mp3
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.