Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 10:12
  • Data zakończenia: 29 kwietnia 2026 10:19

Egzamin niezdany

Wynik: 12/40 punktów (30,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.riff
B. *.wav
C. *.aiff
D. *.mp3
Wybierając inne odpowiedzi niż MP3, łatwo pomylić pojęcie formatu pliku z kwestią kodeka, co jest dość częstym błędem. AIFF i WAV to formaty tzw. bezstratne, w których dźwięk przechowywany jest najczęściej bez kompresji lub z minimalną kompresją, zachowując pełną jakość oryginalnego materiału. Warto podkreślić, że te formaty są używane głównie do obróbki i archiwizacji nagrań audio, kiedy nie chcemy stracić nawet odrobiny jakości. Jednak kodek LAME w ogóle nie obsługuje tych rozszerzeń jako wyjściowych – on zajmuje się wyłącznie kompresją do MP3, czyli do formatu stratnego, idealnego do dystrybucji i przechowywania muzyki tam, gdzie liczy się oszczędność miejsca. Format RIFF z kolei jest raczej strukturą pliku (kontenerem), a nie samodzielnym formatem audio – to taka rama dla różnych typów danych multimedialnych, najczęściej spotykana właśnie w plikach WAV czy AVI. To, że plik ma rozszerzenie WAV czy AIFF, nie oznacza, że LAME potrafi go bezpośrednio wygenerować – kodek ten przyjmuje WAV lub AIFF jako źródło i produkuje MP3 jako wynik. Z mojego doświadczenia, wielu początkujących myli pojęcie kodeka z formatem pliku i zakłada, że kodek audio może "zrobić" dowolny format. W praktyce każda technologia ma swoją specjalizację, a LAME jest jednoznacznie kojarzony z MP3. Warto więc zawsze sięgnąć do dokumentacji lub po prostu sprawdzić, jakie formaty wyjściowe obsługuje dany kodek, zanim zaczniemy eksperymentować z konwersją. Dobrą praktyką w branży jest też rozróżnianie: format pliku to jedna sprawa, a użyty kodek – druga. W przypadku LAME: tylko MP3.

Pytanie 2

Która z nazw oznacza płytę DVD o pojemności 9,4 GB?

A. DVD5
B. DVD10
C. DVD9
D. DVD18
Wydaje się, że nazewnictwo płyt DVD bywa mylące, bo z pozoru wyższy numer nie musi oznaczać większej pojemności. Przykładowo, DVD5 to najpopularniejsza wersja, która mieści tylko 4,7 GB – to pojedyncza warstwa zapisana po jednej stronie, używana powszechnie na filmy czy gry jeszcze do niedawna. DVD9 natomiast, to już płyta jednostronna, ale z dwoma warstwami, co pozwala na zapisanie 8,5 GB danych. Tu bywa często błąd logiczny – wiele osób kojarzy większą liczbę z większą pojemnością, ale nie zwraca uwagi na istotę rozwiązania technicznego: DVD9 nie ma dwóch stron, tylko dwie warstwy po jednej stronie. W przypadku DVD10 chodzi o coś innego – to dwie strony, każda z jedną warstwą, razem dając 9,4 GB (po 4,7 GB na każdą stronę, z których korzysta się przez fizyczne odwrócenie płyty). DVD18 z kolei to już kompletny potworek, bo łączy dwie strony z podwójną warstwą na każdej, czyli do 17 GB, ale takich płyt praktycznie się nie spotyka – głównie teoria lub rzadkie zastosowania profesjonalne. W praktyce, gdy ktoś wybiera niepoprawną odpowiedź, często kieruje się przekonaniem, że wyższa liczba po „DVD” oddaje bezpośrednio większą pojemność, a nie sposób zapisu danych – i tu pojawia się pułapka. Warto przyjąć zasadę, że DVD5 i DVD9 to warianty jednostronne, a DVD10 i DVD18 to dwustronne, dodatkowo każda warstwa zwiększa pojemność. To kluczowe, jeśli pracujesz np. z archiwizacją lub digitalizacją starych danych – dobrze znać te niuanse, bo w branży IT czasem trzeba dobrać odpowiedni nośnik pod wymagania sprzętowe czy aplikacyjne. Z mojego doświadczenia to pomaga uniknąć wielu nieporozumień, szczególnie podczas identyfikacji nośników w starszych zbiorach firmowych.

Pytanie 3

Który z wymienionych nośników charakteryzuje się największą pojemnością?

A. HD DVD
B. BD-XL
C. CD-R
D. DVD18
Wybierając pomiędzy CD-R, DVD18, HD DVD a BD-XL, warto dobrze zrozumieć, czym różnią się te nośniki pod względem pojemności i zastosowań. CD-R to jedna z najstarszych technologii z tej listy – jej pojemność wynosi jedynie 700 MB, co dziś jest wartością praktycznie pomijalną, szczególnie w kontekście archiwizacji zdjęć, filmów czy dużych baz danych. DVD18, czyli dwustronny, dwuwarstwowy dysk DVD, pozwala przechować do około 17 GB danych, co w swoim czasie było sporym krokiem naprzód, ale dziś też już nie robi wrażenia. Częstym błędem jest myślenie, że HD DVD było konkurencyjne wobec Blu-ray, jednak nawet jego największe wersje oferowały maksymalnie 30 GB (wersje trójwarstwowe, bardzo rzadko spotykane, osiągały 51 GB, ale praktycznie nigdy nie trafiły do powszechnej produkcji masowej). Problem z DVD18 czy HD DVD jest też taki, że nie stały się one powszechnym standardem na dłużej – technologia została wyparta przez Blu-ray, a potem przez jego rozszerzenia takie jak BD-XL. Moim zdaniem, wielu użytkowników sugeruje się znanymi skrótami lub myli, że 'HD' na pewno oznacza największą możliwą pojemność, ale to nie zawsze się zgadza – tu warto patrzeć na faktyczne dane techniczne i standardy. Z kolei BD-XL, którego można nawet nie znać na co dzień, pozwala na zapis do 128 GB na jednej płycie i bije wszystkie inne wymienione technologie na głowę. Jeżeli zależy komuś na nowoczesnym i naprawdę pojemnym nośniku optycznym, to właśnie w tym kierunku powinien patrzeć, nawet jeśli dostępność takich napędów i płyt wciąż nie jest superpowszechna. W praktyce, opieranie się na starszych rozwiązaniach prowadzi do konieczności dzielenia plików lub użycia wielu nośników, co jest nieefektywne i utrudnia zarządzanie danymi. Tak więc, wybierając optymalne rozwiązanie pod kątem pojemności, BD-XL to obecnie bezdyskusyjny lider spośród wymienionych opcji.

Pytanie 4

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 8 bitów.
B. Do 16 bitów.
C. Do 24 bitów.
D. Do 32 bitów.
Wiele osób myli rozdzielczość bitową, myśląc, że im więcej bitów, tym lepiej – albo wręcz przeciwnie, ogranicza się ją za bardzo, zupełnie niepotrzebnie. Ograniczenie do 8 bitów na próbkę to praktyka, którą spotykało się w bardzo starych komputerach czy wczesnych syntezatorach dźwięku, gdzie liczyła się każda oszczędność miejsca i mocy obliczeniowej. Niestety, 8 bitów to zaledwie 256 możliwych poziomów sygnału – tak niska rozdzielczość powodowałaby słyszalne szumy kwantyzacyjne i bardzo ograniczony zakres dynamiki, co w muzyce zupełnie się nie sprawdza. Inny, dość częsty błąd to przypisywanie płycie CD-Audio dźwięku 24- lub nawet 32-bitowego. To prawda, że profesjonalne nagrania studyjne są dziś bardzo często realizowane w wyższych rozdzielczościach – 24 bity to nowoczesny standard pracy z dźwiękiem w studiach, a czasem nawet 32 bity wykorzystuje się przy przetwarzaniu sygnału (najczęściej w trybie „float” przy miksie cyfrowym). Jednak na płycie CD, zgodnie ze standardem Red Book, zapis można wykonać wyłącznie w 16-bitach. To wynika nie tylko z ograniczeń technologicznych czasów powstania formatu CD (lata 80.), ale też z dobrze przemyślanego kompromisu między jakością a pojemnością nośnika. Z mojego doświadczenia wynika, że czasem ludzie mylą możliwości odtwarzaczy nowej generacji (np. w komputerach czy odtwarzaczach plików) z możliwościami samych płyt – ale te rzeczy trzeba rozdzielać. Trzymanie się standardu 16 bitów w przypadku CD-Audio zapewnia pełną kompatybilność i przewidywalną jakość na każdym urządzeniu, które potrafi czytać płyty CD. Podsumowując, zarówno zbyt niska, jak i zbyt wysoka rozdzielczość bitowa nie mają uzasadnienia przy masteringu CD-Audio, bo jedynie 16 bitów spełnia wymagania tego formatu i zapewnia oczekiwane rezultaty dźwiękowe.

Pytanie 5

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 192 kHz
B. 88,2 kHz
C. 44,1 kHz
D. 96 kHz
Odpowiedzi, które wskazują inne częstotliwości próbkowania niż 88,2 kHz, wynikają najczęściej z niezrozumienia podstawowych zasad nadpróbkowania oraz relacji między standardowymi formatami audio. CD-Audio zawsze ma 44,1 kHz, więc dwukrotne nadpróbkowanie daje dokładnie 88,2 kHz. Często spotykam się z przekonaniem, że 96 kHz albo 192 kHz to zawsze „lepsza” opcja, bo są wyższymi wartościami i uchodzą za standardy hi-res audio. To jednak błąd logiczny – nie chodzi tu o samą wielkość częstotliwości, tylko o jej zgodność z oryginalnym materiałem. Wybór 96 kHz albo 192 kHz wymagałby resamplingu z niepełną wielokrotnością, co prowadzi do pojawienia się artefaktów lub strat jakości, właściwie niepotrzebnie komplikując proces. 44,1 kHz z kolei to dokładnie tyle, ile CD-Audio, czyli nie zachodzi nadpróbkowanie – nie powstaje dodatkowa informacja, która mogłaby ułatwić przetwarzanie audio. Moim zdaniem to częsty błąd początkujących, bo łatwo się zasugerować, że większa liczba to automatycznie wyższa jakość. Tymczasem w profesjonalnych środowiskach dźwiękowych przyjmuje się zasadę pracy na wielokrotnościach oryginalnej częstotliwości pliku bazowego. Takie podejście zapewnia najlepszą kompatybilność z pluginami, minimalizuje straty podczas resamplingu i pozwala zachować integralność oryginalnego sygnału. Pomijanie tej zasady może prowadzić do pogorszenia jakości materiału, szczególnie gdy zamierzamy później wrócić do standardu CD. Dlatego dobrze jest pamiętać, że klucz tkwi nie w „większej” częstotliwości, tylko w odpowiedniej relacji matematycznej między próbkowaniami.

Pytanie 6

Który parametr pliku dźwiękowego wskazuje sposób kompresji danych audio?

A. Liczba kanałów.
B. Częstotliwość próbkowania.
C. Rodzaj kodowania.
D. Rozmiar.
Rzeczywiście, to właśnie rodzaj kodowania decyduje o sposobie, w jaki dźwięk zostaje zapisany i skompresowany w pliku audio. Mówiąc prościej, „rodzaj kodowania” to nic innego jak wybrany algorytm lub format, według którego dane audio są kompresowane i potem zapisywane na dysku. Przykładowo, mamy formaty takie jak MP3, AAC, FLAC czy WAV – każdy z nich używa innego sposobu kodowania, co przekłada się na to, czy plik jest stratny czy bezstratny, ile zajmuje miejsca, a także jak brzmi po odtworzeniu. W branży muzycznej czy radiowej dobór właściwego kodowania ma kolosalne znaczenie – czasami chodzi o minimalizację rozmiaru pliku (np. streaming online), a innym razem o zachowanie maksymalnej jakości (produkcja studyjna, archiwizacja). W praktyce, gdy chcesz na przykład przekonwertować płytę CD do pliku, program do ripowania pyta właśnie o rodzaj kodowania, a nie np. o rozmiar czy liczbę kanałów. Moim zdaniem warto znać nie tylko nazwy tych formatów, ale i ich cechy, bo daje to dużą swobodę w wyborze najlepszego rozwiązania do danego zastosowania. Ważne jest też, żeby rozumieć, że standardy takie jak ISO/IEC 11172-3 (dla MP3) czy FLAC (Free Lossless Audio Codec) są powszechnie uznawane i stosowane w profesjonalnych systemach. To nie tylko teoria, ale bardzo praktyczna wiedza przy produkcji, edycji lub nawet prostym słuchaniu muzyki na różnych urządzeniach.

Pytanie 7

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 4 razy.
B. 3 razy.
C. 6 razy.
D. 2 razy.
Wielu osobom wydaje się, że zmiana częstotliwości próbkowania wpływa na rozmiar pliku w bardziej złożony sposób, niż jest w rzeczywistości. Często pojawia się mylne przekonanie, że może ona zmniejszyć rozmiar aż trzykrotnie, czterokrotnie, a nawet sześciokrotnie, co jednak nie znajduje potwierdzenia w praktyce inżynierskiej. Jeżeli zmieniamy tylko jeden parametr – tutaj częstotliwość próbkowania – przy wszystkich pozostałych niezmienionych (czyli liczbie bitów na próbkę i liczbie kanałów), to rozmiar pliku zmienia się proporcjonalnie właśnie do tej częstotliwości. Wybierając odpowiedzi większe niż 2, można wywnioskować, że ktoś pomylił pojęcia albo nie do końca rozumie, jak przeliczana jest ilość danych w pliku audio. Czasami myli się to z kompresją stratną, gdzie rzeczywiście redukcja wielkości pliku może być dużo wyższa, ale to zupełnie inny mechanizm niż proste zmniejszenie częstotliwości próbkowania. Moim zdaniem często powodem takich błędnych odpowiedzi jest brak praktycznego doświadczenia z edytorami dźwięku albo niezrozumienie matematycznej zależności między częstotliwością próbkowania a ilością danych. Przykładowo, jeśli plik o próbkowaniu 44,1 kHz i rozmiarze 100 MB zamienimy na 22,05 kHz, to dostaniemy plik ok. 50 MB – i tyle. Nie ma żadnych ukrytych mnożników, bo jakość każdej próbki pozostaje taka sama, tylko jest ich połowa. Zmiany czterokrotne lub sześciokrotne miałyby miejsce, gdybyśmy łączyli kilka czynników naraz, np. zmniejszali również głębię bitową albo liczbę kanałów – ale takie założenia nie wynikają z treści pytania. Dlatego przy projektowaniu systemów nagrań lub archiwizacji audio warto zawsze analizować, które parametry pliku audio rzeczywiście wpływają na rozmiar danych, żeby nie popełniać kosztownych błędów podczas planowania przestrzeni na nośnikach.

Pytanie 8

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z niską rozdzielczością procesu próbkowania.
B. z próbkowaniem na potrzeby płyty DVD-Audio.
C. z próbkowaniem na potrzeby płyty CD-Audio.
D. z próbkowaniem dla transmisji zakresu mowy.
Dość często spotyka się błędne skojarzenia częstotliwości próbkowania 96 kHz z niską rozdzielczością lub zastosowaniami typowo konsumenckimi. W rzeczywistości jest zupełnie odwrotnie – 96 kHz to jeden z wyższych standardów w przechwytywaniu dźwięku, szczególnie w profesjonalnych i półprofesjonalnych środowiskach. Próbkowanie na poziomie 8 kHz czy 16 kHz to zakres typowy dla transmisji mowy, na przykład w telefonii analogowej lub cyfrowej, gdzie odtwarzanie pełnego pasma dźwięku nie jest konieczne, bo wystarczy zrozumiałość przekazu. Takie częstotliwości są dalekie od możliwości wysokiej jakości systemów audio i nie mają nic wspólnego z rozbudowanymi formatami muzycznymi. Jeżeli chodzi o płyty CD-Audio, obowiązujący od lat standard to dokładnie 44,1 kHz – to była przemyślana kompromisowa wartość, pozwalająca na zapis pasma do około 20 kHz, czyli górnej granicy słyszalności człowieka. Mylenie tej wartości z 96 kHz wynika najpewniej z braku znajomości specyfikacji różnych nośników lub wyniesionych z praktyki skojarzeń z „większą liczbą = lepsza jakość”. Tymczasem 96 kHz to domena nowocześniejszych formatów, takich jak właśnie DVD-Audio czy profesjonalne nagrania studyjne. Tego typu rozdzielczość pozwala nie tylko na lepszą jakość odsłuchu, ale też na bardziej bezstratną edycję w procesach obróbki audio. Wybierając odpowiednie próbkowanie, zawsze należy kierować się wymaganiami końcowego zastosowania – i moim zdaniem bardzo łatwo tutaj popełnić pomyłkę, jeśli nie zna się podstaw standardów branżowych. Dlatego warto mieć zakodowane, że 96 kHz to typowe rozwiązanie dla formatów o podwyższonej jakości, a nie dla podstawowych zastosowań transmisyjnych czy płyt CD.

Pytanie 9

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .ldm
B. .fla
C. .edl
D. .cmx
Rozszerzenia plików takie jak .cmx, .fla czy .ldm mogą wydawać się powiązane z mediami cyfrowymi, ale nie służą do zapisu cyfrowych list montażowych w rozumieniu branżowym. Często można się pomylić, bo skróty bywają mylące – przykładowo, .cmx dawniej używany był jako format plików dla aplikacji CorelDRAW, jednak nie ma żadnego związku z montażem wideo czy edycją timeline’u. Z kolei .fla to format natywny Adobe Animate (dawniej Flash), czyli plik „źródłowy” animacji wektorowych, multimediów i interaktywnych prezentacji – ten format kompletnie nie nadaje się do zarządzania kolejnością ujęć filmowych ani nie przechowuje informacji o cięciach czy timecode’ach. Jeśli chodzi o .ldm, to szczerze mówiąc, w branży nie kojarzę żadnego powszechnego standardu montażowego z takim rozszerzeniem. To raczej nie jest format używany przez profesjonalne narzędzia montażowe. Typowym błędem jest kierowanie się samym skrótem lub pierwszym skojarzeniem z daną aplikacją, a nie rzeczywistą funkcją pliku. W praktyce produkcyjnej, kiedy trzeba szybko przekazać listę cięć do korekty barwnej lub innych działów, kluczowe jest używanie standardu uznanego przez większość programów – a takim właśnie jest .edl (Edit Decision List). Nowsze rozwiązania, jak XML czy AAF, faktycznie rozszerzają możliwości, ale nadal .edl jest podstawą, zwłaszcza w kontekście wymiany projektów pomiędzy różnymi platformami montażowymi. W przyszłości warto zwracać uwagę na to, jakie formaty są uznawane jako standardy branżowe, bo to one zapewniają kompatybilność i sprawny przepływ pracy w środowisku postprodukcyjnym.

Pytanie 10

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 2 GB
B. 4 GB
C. 1 GB
D. 8 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 11

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. uzyskania jednorodnej kopii pliku.
B. zmiany lokalizacji pliku.
C. zmiany nazwy pliku.
D. ograniczenia wielkości pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 12

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Mini Disc
B. Kaseta DAT
C. Dysk SSD
D. Karta SDHC
Wbrew pozorom odpowiedzi typu dysk SSD, kaseta DAT czy karta SDHC nie są powiązane z technologią zapisu magnetooptycznego. I wydaje mi się, że tu najczęściej pojawia się pewne zamieszanie, bo te nośniki są dość powszechne i przez to niektórzy zakładają, że skoro są „nowoczesne” albo mają w nazwie coś związanego z zapisem, to na pewno wykorzystują nowatorskie technologie jak właśnie magnetooptyka. Tymczasem dysk SSD to typowy nośnik półprzewodnikowy – dane przechowywane są w komórkach pamięci flash, gdzie nie ma ani lasera, ani pola magnetycznego, tylko tranzystory sterowane napięciem. SSD-ki cechują się dużą prędkością i brakiem ruchomych części, co odróżnia je zupełnie od starych technologii. Kaseta DAT (Digital Audio Tape) to z kolei czysto magnetyczny sposób zapisu – głowica zapisuje i odczytuje impulsy magnetyczne z taśmy, podobnie jak w klasycznych kasetach VHS czy audio, tylko w postaci cyfrowej. Działa to bez udziału światła czy lasera, więc nie ma mowy o magnetooptyce. Karta SDHC to już całkowicie inna bajka – pamięć flash, czyli znowu oparta na półprzewodnikach, bardzo trwała, mała i szybka, zupełnie nie korzysta z pola magnetycznego czy optyki. Moim zdaniem sporo osób myli tu pojęcia, bo po prostu te wszystkie nośniki służą do zapisu i odczytu danych, ale mechanizmy działania są zupełnie inne. Przykład Mini Disc pokazuje, że hybrydowe technologie potrafią być nietypowe i przez to trudniejsze do rozpoznania. Warto zawsze sprawdzić, jak działa dany nośnik pod maską, zamiast kierować się jego nazwą czy popularnością, bo to pomaga unikać typowych błędów myślowych przy klasyfikacji technologii przechowywania danych.

Pytanie 13

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów na sekundę w transmisji danych.
B. próbek na sekundę w transmisji danych.
C. bitów dostępnych do opisu każdej próbki sygnału.
D. próbek opisanych jednym bitem.
Rozdzielczość bitowa sygnału cyfrowego jest często mylona z innymi parametrami transmisji lub przetwarzania danych, co prowadzi do nieporozumień. Przede wszystkim, rozdzielczość bitowa nie określa liczby próbek opisanych jednym bitem. Gdyby tak było, każdy pomiar sygnału mógłby mieć tylko dwa poziomy, co skutkowałoby bardzo ubogą jakością odwzorowania – to typowy błąd, mylić rozdzielczość z liczbą próbek. Kolejne nieporozumienie pojawia się przy utożsamianiu rozdzielczości bitowej z ilością bitów na sekundę transmisji (przepływnością). To są dwie różne rzeczy – przepływność faktycznie zależy od rozdzielczości, ale to nie to samo. Można sobie pomyśleć, że jeśli sygnał ma wyższą rozdzielczość, to automatycznie rośnie liczba przesyłanych bitów na sekundę, ale sama definicja rozdzielczości tego nie obejmuje. Podobnie nie można utożsamiać rozdzielczości bitowej z liczbą próbek przesyłanych lub pobieranych w jednostce czasu – to już jest częstotliwość próbkowania, inny kluczowy parametr opisujący cyfrowy sygnał. Typowym błędem jest mieszanie pojęć, przez co łatwo pogubić się w specyfikacjach urządzeń audio czy pomiarowych. Z praktyki branżowej wiem, że nieprecyzyjne rozumienie tych terminów prowadzi do złych wyborów sprzętu lub niepoprawnego projektowania torów sygnałowych. Właściwa rozdzielczość bitowa zawsze odnosi się do tego, ile bitów jest przeznaczonych na opis pojedynczej próbki sygnału. To ona decyduje o szczegółowości odwzorowania wartości analogowej w świecie cyfrowym, a nie liczba próbek czy szybkość transmisji. Jeśli więc chcesz uzyskać wysoką jakość dźwięku, obrazu czy jakiegokolwiek sygnału cyfrowego – patrz nie tylko na częstotliwość próbkowania, ale i na rozdzielczość bitową, bo to są zupełnie różne kwestie, choć oba parametry są bardzo ważne. Standardy branżowe, jak PCM, zawsze podają rozdzielczość bitową jako liczbę bitów potrzebnych do zakodowania jednej próbki.

Pytanie 14

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp3
B. *.m4a
C. *.m4p
D. *.mp4
Rozszerzenie *.mp4 to zdecydowanie najbardziej uniwersalny i powszechnie stosowany format do przechowywania zarówno ścieżek audio, jak i video. Format MP4 (MPEG-4 Part 14) bazuje na standardzie MPEG-4 i jest wspierany praktycznie we wszystkich nowoczesnych urządzeniach – od komputerów, przez smartfony, aż po telewizory Smart TV czy konsole do gier. Co ciekawe, *.mp4 pozwala nie tylko na zapis obrazu i dźwięku, ale też napisów czy metadanych, co przydaje się szczególnie przy produkcji filmów, klipów czy prezentacji multimedialnych. Z mojego doświadczenia, gdy klient prosi o plik zawierający zarówno wideo, jak i audio, to zawsze wybieram MP4 – praktycznie nie ma z nim problemów z kompatybilnością, nawet na starszych sprzętach. Standard ten jest szeroko rekomendowany przez organizacje branżowe, m.in. Moving Picture Experts Group. Czasem spotyka się pliki .avi czy .mkv, ale to MP4 faktycznie stał się złotym standardem dzięki kompresji, jakości i wszechstronności. W codziennej pracy z plikami multimedialnymi osobiście często korzystam z tego formatu, bo nie trzeba się bawić w konwersje i kombinować z kodekami. Moim zdaniem, jeśli ktoś chce mieć pewność, że jego wideo zadziała wszędzie – wybór jest oczywisty. Warto też pamiętać, że MP4 obsługuje różne kodeki (np. H.264, AAC), więc można uzyskać świetną jakość przy relatywnie małym rozmiarze pliku. Dla osób, które myślą o publikacji materiałów w internecie, MP4 to już praktycznie wymóg branżowy.

Pytanie 15

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. CC
B. SACD
C. ADAT
D. DCC
Temat różnych standardów zapisu dźwięku potrafi być zdradliwy, bo wiele z nich łączy się na poziomie technologii, ale rozdziela na szczegółach konstrukcyjnych. Sporo osób myli DCC lub ADAT z formatami opartymi na nośnikach optycznych przez to, że są typowe dla profesjonalnych zastosowań i często brzmią „poważnie”. Tymczasem DCC, czyli Digital Compact Cassette, pomimo swej nazwy i pokrewieństwa z kompaktowym kasetami magnetofonowymi, wykorzystuje klasyczne taśmy magnetyczne, tyle że zapis cyfrowy. Ten format próbował zastąpić analogowe kasety, jednak nigdy nie korzystał z nośników optycznych. ADAT natomiast to system oparty na taśmach S-VHS, więc całkowicie bazuje na magnetycznym zapisie sygnału cyfrowego – był bardzo popularny w studiach nagraniowych, ale z optycznymi płytami nie miał nic wspólnego. Jeśli chodzi o CC, to jest to po prostu klasyczna kaseta kompaktowa, czysto analogowa technologia, praktycznie już przeżytek w profesjonalnym audio. Wydaje mi się, że głównym błędem myślowym jest tu utożsamianie nowocześnie brzmiących nazw z technologią optyczną. W rzeczywistości tylko SACD został specjalnie zaprojektowany do pracy z płytami typu CD/DVD, wykorzystując laser do odczytu danych audio o bardzo wysokiej jakości. W branży dobra praktyka to umiejętne rozróżnianie standardów pod kątem fizycznej postaci nośnika, bo to fundamentalnie wpływa na zastosowania, trwałość i jakość dźwięku. Warto zawsze sprawdzać, czy dany format działa na taśmach, płytach optycznych czy może na zupełnie innych mediach – to kluczowa wiedza przy wyborze sprzętu czy archiwizacji materiałów dźwiękowych.

Pytanie 16

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R DL
B. DVD-R
C. DVD-RW
D. DVD+R
Wiele osób myli pojęcia dotyczące rodzajów płyt DVD, zwłaszcza gdy chodzi o możliwości zapisu i kasowania danych. DVD-R oraz DVD+R to płyty jednokrotnego zapisu – „R” oznacza „Recordable”, czyli możliwość jednorazowego nagrania danych. Po zapisaniu nie ma żadnej opcji, żeby coś poprawić lub usunąć – no, chyba że chcemy potraktować płytę markerem i napisać inny tytuł, ale wtedy to już tylko zmiana etykiety, a nie zawartości. DVD+R DL z kolei to płyta dwuwarstwowa, pozwalająca na zapis większej ilości danych (ponad 8 GB), ale również tylko jeden raz. Można tu wpaść w pułapkę myślenia, że „DL” (Dual Layer) daje jakieś magiczne możliwości wielokrotnego użycia, ale to tylko ilość miejsca na pliki, nic więcej. W praktyce, jeśli ktoś chce mieć nośnik do wielokrotnego zapisu, czyli taki, który można kasować i nagrywać ponownie, to jedynym sensownym wyborem w tej grupie jest DVD-RW. W branży IT i elektronice użytkowej znane są przypadki, gdzie przez nieuwagę użytkownicy kupowali płyty „R” z myślą o wielokrotnym użyciu, a potem niemiło się rozczarowywali, bo nie dało się ich sformatować ponownie. Typowym błędem myślowym jest przekonanie, że wszystkie DVD wyglądają tak samo i oferują identyczną funkcjonalność – niestety tak nie jest. Standardy branżowe jasno określają właściwości każdej odmiany: DVD-R i DVD+R do jednokrotnego zapisu, DVD-RW i DVD+RW do wielokrotnego, a „DL” oznacza tylko zwiększoną pojemność bez wpływu na możliwość kasowania. Warto zwracać uwagę na oznaczenia na opakowaniu – to często ratuje przed niepotrzebnymi kosztami i stratą czasu. W codziennej pracy technicznej czy nawet przy domowych archiwizacjach znajomość tych różnic jest naprawdę przydatna i pozwala uniknąć niepotrzebnych frustracji.

Pytanie 17

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .ogg
B. .wav
C. .acc
D. .mlp
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 18

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/24 bity
B. 44100 Hz/24 bity
C. 48000 Hz/16 bitów
D. 44100 Hz/16 bitów
Częstym błędem przy ustawianiu parametrów sesji w DAW jest wybieranie częstotliwości próbkowania lub rozdzielczości bitowej, która wydaje się lepsza „bo większa”, bez zastanowienia się nad rzeczywistymi wymaganiami docelowego formatu. W przypadku CD-Audio standard jest niezmienny od dekad: 44100 Hz częstotliwości próbkowania i 16 bitów rozdzielczości. Niestety, wybierając 44100 Hz/24 bity, łatwo się pomylić – niby częstotliwość zgadza się z CD, ale 24 bity to rozdzielczość stosowana głównie w studiach nagraniowych na etapie masteringu, nie na płycie CD. To samo dotyczy parametrów opartych na 48000 Hz (zarówno 16, jak i 24 bity). 48000 Hz to typowa wartość używana w materiałach wideo, telewizji czy filmie, gdzie wymagane są inne standardy ze względu na synchronizację obrazu i dźwięku. Wydaje się, że wybór wyższej rozdzielczości bitowej albo częstotliwości próbkowania powinien skutkować lepszą jakością, ale w praktyce po konwersji do formatu CD-Audio i tak wszystko zostanie przeskalowane do 44,1 kHz/16 bitów, czasami generując niepożądane artefakty czy zniekształcenia. Dodatkowo, takie ustawienia mogą prowadzić do niepotrzebnych komplikacji przy eksporcie i authoringu płyt CD. Moim zdaniem, warto trzymać się sztywnych wytycznych branżowych, bo one wynikają nie tylko z tradycji, ale i z technicznych ograniczeń sprzętu odtwarzającego. Każdy inny wybór niż 44100 Hz/16 bitów sprawia, że finalny produkt może nie być kompatybilny z klasycznymi odtwarzaczami CD, co w praktyce przekreśla sens takiego eksportu. Warto o tym pamiętać, bo czasami przez takie „drobiazgi” końcowy efekt mocno na tym cierpi.

Pytanie 19

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ptx
B. *.wmv
C. *.ppt
D. *.wmf
Rozszerzenie *.ptx to bezpośrednie odniesienie do plików sesji montażowej tworzonych w programie Pro Tools, który jest jednym z najczęściej używanych programów DAW (Digital Audio Workstation) w profesjonalnych studiach nagrań na całym świecie. Pliki te przechowują wszelkie informacje o projekcie muzycznym – ułożenie ścieżek, automatyzację, ustawienia wtyczek, routing sygnału, a nawet szczegóły dotyczące edycji i miksu. Dzięki temu, że Pro Tools od lat stanowi swego rodzaju standard branżowy w audio postprodukcji, znajomość rozszerzenia *.ptx może być kluczowa, jeśli ktoś planuje pracować przy nagraniach muzycznych, montażu dźwięku do filmów czy reklam. Co ciekawe, starsze wersje Pro Tools używały rozszerzenia *.ptf, więc warto wiedzieć, że nowsze projekty są zapisywane jako *.ptx. Sama obsługa takich plików pozwala na płynny transfer sesji pomiędzy różnymi stanowiskami pracy, co jest bardzo praktyczne zwłaszcza przy dużych produkcjach. Moim zdaniem, nawet jeśli ktoś woli inne DAWy, spotkanie się z plikami *.ptx jest tylko kwestią czasu w branży. Dodatkowo, takie pliki nie zawierają samych plików audio, tylko odwołania do nich oraz całą strukturę projektu, dlatego dobre praktyki nakazują zawsze dołączać katalog audio przy przenoszeniu sesji. Z mojego doświadczenia, nieznajomość tych szczegółów potrafi zrobić bałagan na etapie współpracy z innymi realizatorami dźwięku.

Pytanie 20

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby Digital
B. Dolby Digital EX
C. Dolby TrueHD
D. Dolby AC3
Wiele osób myli różne formaty Dolby, bo ich nazwy są do siebie podobne, a przecież mają one zupełnie inne zastosowania i właściwości techniczne. Na przykład Dolby Digital (czyli popularny AC3) to format stratnej kompresji, bardzo często używany w telewizji, DVD i niektórych transmisjach cyfrowych, ale nie gwarantuje zachowania pełnej jakości oryginalnego nagrania – zawsze jest jakiś kompromis między jakością a rozmiarem pliku. Dolby Digital EX to po prostu rozszerzenie tego standardu, dodające kanał tylny centralny dla większego efektu przestrzennego, ale nadal korzysta ze stratnej kompresji. Jeszcze większe zamieszanie potrafi się zrobić z nazwami – niektórzy sądzą, że Dolby AC3 to osobny format, a to przecież po prostu techniczna nazwa Dolby Digital. Z mojego doświadczenia dość często spotyka się ten błąd nawet u ludzi pracujących w branży audiowizualnej. Niestety, żaden z tych formatów nie oferuje bezstratnej kompresji. W praktyce oznacza to, że jeśli ktoś jest audiofilem albo montuje materiały, gdzie liczy się studyjna jakość dźwięku, to wybór AC3 albo Dolby Digital EX nie spełni oczekiwań. Z kolei Dolby TrueHD został zaprojektowany właśnie do zachowania pełnej jakości dźwięku i współpracuje z nowoczesnymi systemami kina domowego poprzez HDMI. Warto to zapamiętać, bo różnice nie są tylko teoretyczne – mają spory wpływ na końcowe wrażenia z odsłuchu. Dobre praktyki branżowe mówią wyraźnie: jeśli zależy nam na jakości, warto sięgać po formaty bezstratne jak Dolby TrueHD, a nie te stratne, nawet jeśli są bardzo popularne.

Pytanie 21

Który z wymienionych nośników jest nośnikiem analogowym?

A. Kaseta CC
B. Kaseta DAT
C. Płyta DVD
D. Płyta CD
Dość często można się pomylić przy rozróżnianiu nośników analogowych i cyfrowych, zwłaszcza gdy wiele osób kojarzy płyty CD czy DVD z „namacalnym” nośnikiem, podczas gdy ich technologia jest zupełnie inna niż na przykład w kasecie CC. Płyty CD i DVD to nośniki cyfrowe – informacje są na nich zapisywane w postaci binarnej, przez mikroskopijne wgłębienia i pola na powierzchni płyty, które są odczytywane laserem. To podejście zupełnie różni się od analogowej taśmy magnetycznej, gdzie sygnał zapisywany jest jako zmienne namagnesowanie odpowiadające bezpośrednio przebiegowi fal dźwiękowych. Współcześnie, brak świadomości tej różnicy prowadzi często do mylnego przekonania, że każda „fizyczna rzecz” do nagrywania dźwięku jest analogowa. Nic bardziej mylnego – cyfrowy zapis pozwala na bezstratną wielokrotną kopię, kodowanie, kompresję i różnego rodzaju zabezpieczenia, co w ogóle nie występowało w technologii analogowej. Kaseta DAT to też pułapka – wygląda niemal identycznie jak zwykła kaseta magnetofonowa, ale działa zupełnie inaczej, bo zapisuje dane w formie cyfrowej. Z mojego doświadczenia wynika, że wiele osób wrzuca wszystkie „kasety” do jednego worka, a to błąd techniczny: DAT była stosowana głównie w profesjonalnych studiach do archiwizacji cyfrowego dźwięku, bo oferowała wyższą jakość i dłuższą żywotność niż kaseta analogowa. Praktyka branżowa od lat 90-tych wyraźnie rozdzielała już technologie analogowe i cyfrowe, właśnie ze względu na sposób zapisu – w nośnikach cyfrowych zawsze chodzi o operacje na zerach i jedynkach, a nie o odtworzenie przebiegu sygnału. Mylenie tych pojęć prowadzi do błędnych wniosków przy wyborze sprzętu, archiwizacji i odtwarzania danych. Warto zwrócić uwagę na to, że umiejętność rozpoznania typu nośnika jest kluczowa przy pracy w branży informatycznej, dźwiękowej czy nawet przy domowym porządkowaniu archiwów, gdzie trzeba wiedzieć jak odtworzyć lub przenieść dane między różnymi standardami. Takie drobne techniczne detale pokazują, jak ważna jest precyzyjna wiedza o technologiach przechowywania informacji.

Pytanie 22

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. dodanie do dźwięku szumu kwantyzacji.
B. odtworzenie sygnału identycznego jak oryginał.
C. powstanie dodatkowych harmonicznych.
D. nieznaczne podbicie środkowej części pasma.
Kompresja sygnału cyfrowego do formatu bezstratnego, a potem jego dekompresja, to proces, który – jeśli jest poprawnie przeprowadzony – daje sygnał dokładnie taki sam, jak oryginał. Chodzi tu o takie algorytmy jak FLAC, ALAC czy np. ZIP dla danych ogólnych. One zachowują każdą informację bit po bicie, nic nie ginie po drodze. Właśnie na tym polega różnica między kompresją bezstratną a stratną, gdzie ta druga (jak MP3 czy AAC) już bezpowrotnie usuwa część danych, żeby zmniejszyć plik. W standardach branżowych, przy archiwizacji dźwięku, zawsze zaleca się stosowanie formatów bezstratnych, jeśli chcemy mieć pewność, że po latach dostaniemy identyczny sygnał – to jest takie archiwalne „zero kompromisów”. No i jak się czasem zdarza komuś, że nieopatrznie przekonwertuje plik do stratnego i potem chce wrócić do oryginału, to już się nie da. Przy bezstratnym nie ma takich problemów, wszystko wraca do stanu wyjściowego. Moim zdaniem to ważne nie tylko dla purystów audiofilskich, ale po prostu dla każdego, kto pracuje z dźwiękiem poważniej, czy to w studiu, czy z materiałami historycznymi. Kompresja bezstratna jest jak sejf: zamykasz, otwierasz i zawsze masz wszystko co było – ani bit mniej, ani więcej.

Pytanie 23

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 15 GB danych.
B. 10 GB danych.
C. 20 GB danych.
D. 25 GB danych.
Na rynku nośników optycznych dość łatwo można się pomylić, bo wartości pojemności różnych płyt często są do siebie zbliżone i brzmią podobnie, ale technicznie różnią się znacząco. Odpowiadając, że jednowarstwowy Blu-ray mieści 10, 15 czy 20 GB, można się zasugerować danymi dotyczącymi starszych technologii, takich jak DVD, albo po prostu zaokrąglić wartości w dół, by wydawały się bezpieczniejsze. Standardowa płyta DVD, taka typowa, ma pojemność właśnie ok. 4,7 GB (dla jednowarstwowej) lub 8,5 GB (dwuwarstwowej), więc można sobie pomyśleć, że Blu-ray to następny krok i „na oko” te 10 czy 15 GB powinny wystarczyć. Nic bardziej mylnego, bo w przypadku Blu-ray zastosowano zupełnie inną technologię zapisu. Przede wszystkim, wykorzystuje się tutaj laser o krótszej fali niż w DVD, co pozwala zapisać więcej danych na mniejszej powierzchni. W wersji jednowarstwowej jest to dokładnie 25 GB – to wartość potwierdzona przez organizacje standaryzujące ten format i podawana przez wszystkich renomowanych producentów sprzętu oraz nośników. W praktyce płyty o pojemności 10, 15 czy 20 GB w technologii Blu-ray po prostu nie występują, to liczby, które nie mają odzwierciedlenia w realnych specyfikacjach sprzętu. Z mojego doświadczenia wynika, że błędne szacowanie pojemności prowadzi potem do problemów przy archiwizacji lub kopiowaniu dużych plików – można się niemile zdziwić, jeśli założymy, że płyta zmieści mniej niż faktycznie może. W branży IT i multimediach precyzyjna znajomość tych parametrów to właściwie podstawa. Jeśli gdzieś zobaczysz inne liczby – warto sprawdzić, czy nie dotyczą przypadkiem płyt DVD albo dwuwarstwowych Blu-ray, gdzie pojemność sięga 50 GB, a nawet więcej w przypadku wersji wielowarstwowych. Takie nieścisłości powtarzają się dość często w materiałach promocyjnych lub podczas rozmów z klientami, dlatego zawsze warto wracać do oficjalnych specyfikacji i nie opierać się na domysłach. Ostatecznie, żeby bezproblemowo pracować z archiwizacją czy dystrybucją cyfrowych danych, dobrze znać te wartości na pamięć.

Pytanie 24

Jaką maksymalną ilość danych można zapisać na płycie CD-Audio?

A. 50 GB
B. 716800 kB
C. 900 MB
D. 7000000 kB
Wybór innej odpowiedzi niż 716 800 kB to dość częsty błąd wynikający z mylenia różnych formatów płyt oraz nieprecyzyjnego rozumienia jednostek pojemności. Z jednej strony, pojawia się myślenie: skoro technologia idzie do przodu, to i płyty CD muszą mieć ogromną pojemność, np. 50 GB – ale to typowy parametr nowoczesnych nośników Blu-ray, a nie klasycznego CD-Audio. Nawet DVD, które pojawiło się po płytach CD, mieści maksymalnie 4,7 GB, więc wartości rzędu 50 GB na płycie kompaktowej są czysto teoretyczne i nie mają zastosowania w praktyce. Z kolei 900 MB wydaje się logiczne, bo niektórzy producenci faktycznie eksperymentowali z tak zwanymi overburningami, czyli płytami CD-R o zwiększonej pojemności, ale to nie jest oficjalny standard audio i takie płyty nie zawsze są kompatybilne z tradycyjnymi odtwarzaczami. Co do 7 000 000 kB, tę wartość można czasem spotkać przy próbach porównywania nośników, ale jest ona zdecydowanie za duża jak na standardowy CD – to już niemal 7 GB, czyli zakres płyt DVD, a nie CD-Audio. W praktyce, mylenie jednostek, zaokrągleń i różnych formatów płyt prowadzi do przekłamań. Branża od lat trzyma się standardu Red Book, w którym 716 800 kB, czyli 700 MB, to maksymalna pojemność płyty CD-Audio. Wszystko powyżej tej wartości to już inne technologie nośników lub eksperymenty, które nie są objęte gwarancją poprawnego odczytu w sprzęcie audio. Warto pamiętać, że płyty CD-Audio mają swoje ograniczenia, a przekraczanie ich często kończy się problemami z kompatybilnością i trwałością danych. Takie niuanse są naprawdę ważne przy projektowaniu systemów archiwizacji czy nawet przy domowym kopiowaniu muzyki.

Pytanie 25

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.amr
B. *.opus
C. *.tiff
D. *.ac3
W branży IT bardzo często spotykamy się z różnymi rozszerzeniami plików i, szczerze mówiąc, łatwo się pomylić bez znajomości podstawowych standardów. Rozszerzenia *.opus, *.amr i *.ac3 to przykłady formatów plików audio stosowanych w różnych środowiskach. OPUS to nowoczesny kodek opracowany z myślą o wysokiej jakości dźwięku przy niskim bitrate, szeroko wykorzystywany w transmisjach strumieniowych VoIP, np. w Discordzie czy Zoomie. AMR (Adaptive Multi-Rate) najczęściej spotkamy w zapisie nagrań telefonicznych lub prostych plikach głosowych z urządzeń mobilnych – bardzo często w starszych telefonach. AC3 natomiast to kodek Dolby Digital, powszechnie używany w branży filmowej, telewizyjnej i na płytach DVD do zapisywania wielokanałowego dźwięku przestrzennego. Wszystkie te formaty spełniają jednoznacznie funkcje związane z zapisem lub odtwarzaniem dźwięku. Natomiast plik z rozszerzeniem *.tiff dotyczy zupełnie innej kategorii – to format graficzny, stosowany przede wszystkim do przechowywania obrazów wysokiej jakości. Mylenie tych rozszerzeń wynika najczęściej z pobieżnego przeglądania listy plików lub kojarzenia końcówek z innymi popularnymi formatami. W praktyce dobrze jest pamiętać, że rozszerzenie *.tiff nie tylko nie odtworzy się w żadnym odtwarzaczu muzyki, ale nawet programy audio nie będą próbowały go otworzyć jako ścieżki dźwiękowej. Warto wyrobić sobie nawyk sprawdzania rozszerzeń i, jeśli jest taka możliwość, zawsze upewniać się, że pracujemy na właściwym typie pliku, bo pomyłki mogą prowadzić do poważnych strat czasu lub nawet utraty danych, jeśli np. niewłaściwie przekonwertujemy archiwalne obrazy na format audio lub odwrotnie. Z mojego doświadczenia wynika, że praktyczna znajomość rozszerzeń często ratuje skórę przy pracy z większymi zbiorami danych.

Pytanie 26

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 16 MB
B. 24 MB
C. 5 MB
D. 10 MB
Ocena rozmiaru pliku audio w formacie CD-Audio wymaga zrozumienia kilku fundamentalnych założeń technicznych. Typowym błędem jest przecenianie lub niedoszacowanie rozmiaru przez nieuwzględnienie wszystkich parametrów kodowania. Format CD-Audio zgodnie z Red Book zakłada dwa kanały (stereo), 44,1 kHz próbkowania oraz 16 bitów na próbkę. To daje przepływność 1 411 200 bitów na sekundę, czyli 176 400 bajtów na sekundę. Gdy długość nagrania wynosi 90 sekund (czyli dokładnie 1 minuta 30 sekund), trzeba tę wartość pomnożyć przez czas trwania: 176 400 × 90 = 15 876 000 bajtów, co prawie równa się 16 MB (przyjmując 1 MB = 1024 × 1024 bajtów). Wiele osób sugeruje się rozmiarami plików MP3 lub innymi formatami stratnymi, które przy podobnej długości mogą zajmować 5 czy 10 MB – to jest właśnie pułapka. CD-Audio nie stosuje kompresji i każda sekunda zajmuje tyle samo przestrzeni, niezależnie od treści. Przeszacowania do 24 MB wynikają z przyjęcia błędnych założeń, np. liczenia danych jako 24 bity/kanał lub zaokrąglania na niekorzyść, co nie ma odzwierciedlenia w praktyce dla podstawowego formatu audio CD. W praktyce warto pamiętać, że rozmiar pliku audio nieskompresowanego jest zawsze przewidywalny i ściśle zależny od parametrów technicznych, nie od samej zawartości dźwiękowej. Z mojego doświadczenia wiele błędów w takich wyliczeniach bierze się z mieszania jednostek (bity vs. bajty, megabity vs. megabajty) oraz braku uwzględnienia kanałów stereo. Dlatego warto poświęcić chwilę na dokładne przeliczenie – to podstawowa umiejętność dla każdego, kto planuje pracę z profesjonalnym dźwiękiem.

Pytanie 27

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Dysk SSD
C. Mini Disc
D. Karta SDHC
Analizując technologie używane w wymienionych nośnikach, warto zauważyć, że tylko jeden z nich wykorzystuje rzeczywiście zapis magnetooptyczny. Dysk SSD oraz karta SDHC działają na zupełnie innych zasadach – one bazują na pamięciach półprzewodnikowych, a więc danych nie zapisuje się tu w ogóle przy pomocy lasera czy pola magnetycznego. SSD to pamięć typu NAND Flash, stosowana dziś powszechnie w laptopach czy komputerach stacjonarnych. Z kolei karta SDHC to rozwinięcie standardu Secure Digital (SD), bardzo popularnego w aparatach i telefonach, ale tutaj cały zapis odbywa się poprzez zmiany ładunku elektrycznego w komórkach pamięci. Z mojego doświadczenia wiele osób myli te nośniki, bo są małe i przenośne, ale technologia pod spodem jest totalnie inna niż magnetooptyczna. Kaseta DAT (Digital Audio Tape) także nie ma nic wspólnego z laserem – to typowo magnetyczny nośnik, gdzie dane są zapisywane liniowo na taśmie, podobnie jak na zwykłych kasetach magnetofonowych, tylko w postaci cyfrowej. Często spotykałem się z przekonaniem, że każde cyfrowe nagranie oznacza optykę, ale to błąd – forma zapisu (cyfrowa lub analogowa) to nie to samo, co technologia nośnika. Standardy branżowe jasno rozdzielają te kategorie: magnetooptyczne nośniki łączą laser z polem magnetycznym i są relatywnie rzadkie, głównie stosowane w profesjonalnych archiwach. W praktyce tylko Mini Disc spośród wymienionych urządzeń faktycznie korzysta z tego rozwiązania. Takie nieporozumienia wynikają często z braku rozróżniania między rodzajem zapisu a rodzajem danych – warto zawsze patrzeć na to, jak dokładnie nośnik działa od strony fizycznej, a nie tylko na format plików czy wygląd urządzenia.

Pytanie 28

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.1
B. 2.0
C. 2.2
D. 1.1
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 29

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 6 razy.
B. 2 razy.
C. 4 razy.
D. 3 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 30

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zwiększy się 6-krotnie.
B. Zmniejszy się 2-krotnie.
C. Zwiększy się 4-krotnie.
D. Zmniejszy się 3-krotnie.
Wielu osobom wydaje się, że rozmiar pliku audio zmienia się liniowo tylko z jednym parametrem, np. częstotliwością próbkowania, ale w rzeczywistości oba parametry – częstotliwość próbkowania i rozdzielczość bitowa – oddziałują na siebie i decydują łącznie o końcowym rozmiarze. W praktyce, rozmiar nieskompresowanego pliku dźwiękowego (np. PCM WAV) oblicza się według wzoru: rozmiar = liczba próbek na sekundę x liczba bitów na próbkę x liczba kanałów x czas trwania (w sekundach). Jeśli zmniejszamy częstotliwość próbkowania z 96 kHz do 48 kHz, to liczba próbek spada o połowę. Redukcja rozdzielczości z 24 do 16 bitów to zmiana o 1/3 w dół, bo 24 bity to 3 bajty, a 16 bitów to 2 bajty. Typowym błędem jest sumowanie tych zmian lub nieuwzględnienie obu naraz – np. ktoś myśli, że skoro mamy 2 parametry, oba dzielimy przez 2, więc razem 4-krotnie. Ale to nie tak działa: rozmiar zmniejszy się o połowę z jednego powodu i o 1/3 z drugiego, co daje w sumie 3-krotną redukcję (2 x 1,5 = 3). Tak samo mylące jest uważanie, że rozmiar wzrośnie, bo oba parametry się zmieniają 'w dół', więc plik będzie większy – to nie ma sensu z perspektywy technicznej. Branżowe standardy, np. przy masteringu do CD, jasno określają 16 bitów i 44,1 kHz, właśnie po to, żeby optymalizować zarówno jakość, jak i wagę plików. W codziennej pracy z audio ważne jest, żeby nie pomylić proporcji i nie przeszacować zysku lub straty miejsca. Najczęściej spotykanym błędem jest patrzenie tylko na jeden parametr, a potem zdziwienie, że plik nie waży tyle, ile przewidywaliśmy. Takie myślenie prowadzi do nieoptymalnych decyzji przy archiwizacji, konwersji czy przesyłaniu nagrań.

Pytanie 31

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .mid
B. .song
C. .cpr
D. .omf
W branży muzycznej i produkcyjnej bardzo łatwo pomylić różne rozszerzenia plików, zwłaszcza jeśli ktoś dopiero zaczyna przygodę z DAW-ami. Często myśli się, że pliki takie jak .cpr, .mid czy .song nadają się do przenoszenia sesji między DAW-ami, bo brzmią znajomo lub są powiązane z muzyką. Jednak to są formaty specyficzne dla konkretnych programów. Plik .cpr to natywna sesja Cubase, która nie otworzy się nigdzie indziej bez tej samej wersji programu. Podobnie .song to własny format PreSonus Studio One – nie przeniesiesz go do Logica czy Pro Toolsa bez eksportu. .mid, czyli MIDI, jest co prawda uniwersalny, ale przechowuje tylko informacje o nutach, kontrolerach i ewentualnie tempie, bez żadnych danych audio, automatyzacji czy struktury sesji. Moim zdaniem, największym błędem jest założenie, że MIDI ogarnie cały projekt – to tylko dane „co i kiedy zagrać”, żadnych sampli, efektów, czy układu aranżacyjnego. Profesjonaliści, którzy pracują w różnych środowiskach, polegają na formatach typu OMF właśnie dlatego, że przenoszą one układ sesji, audio i podstawowe dane projektowe w sposób, który różne DAW-y potrafią odczytać. Dobrym nawykiem jest zawsze sprawdzać, czy dany format otworzy się poza natywnym DAW-em, bo ostatecznie chodzi o płynność współpracy i minimalizację straconego czasu na ręcznej rekonstrukcji projektu. W praktyce, tylko OMF (a coraz częściej też AAF) są uznawane za branżowe standardy do swobodnej wymiany sesji między programami.

Pytanie 32

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitów.
B. zmienną przepływność bitów.
C. średnią przepływność bitów.
D. dostępną przepływność bitów.
Pojęcia dotyczące sposobu kodowania plików MP3 bywają mylące, ale warto zrozumieć, czym tak naprawdę różni się CBR od innych metod konwersji audio. Przepływność bitów w trybie CBR (Constant Bit Rate) pozostaje zawsze stała – to znaczy, że każda sekunda zakodowanego dźwięku zajmuje tę samą ilość miejsca bez względu na to, czy w danej części utworu występuje cisza, czy intensywny dźwięk. Przeciwieństwem tego rozwiązania jest VBR (Variable Bit Rate), gdzie przepływność bitów dynamicznie się zmienia w zależności od złożoności dźwięku – jeśli fragment jest prosty, kodowanie zużywa mniej bitów, jeśli skomplikowany – więcej. Stąd twierdzenie o "zmiennej" lub "średniej" przepływności bitów nie pasuje do definicji CBR – takie określenia odnoszą się właśnie do trybu VBR i czasem ABR (Average Bit Rate), który jest czymś pomiędzy – ustalana jest średnia przepływność, ale w praktyce bitrate potrafi się zmieniać. Z mojego doświadczenia, sporo osób myli te tryby, bo podczas kompresji można wybrać np. 128 kbps i mylnie zakładać, że to zawsze średnia – tymczasem CBR to zawsze stała liczba. Wybór typu "dostępna przepływność" nie odnosi się do żadnego oficjalnego trybu kodowania, a raczej brzmi jak luźny opis. Typowym błędem jest też przekonanie, że CBR automatycznie zapewnia najlepszą jakość lub najmniejszy plik – to nie zawsze prawda, bo często VBR pozwala uzyskać wyższą jakość przy tym samym rozmiarze, ale kosztem mniejszej przewidywalności rozmiaru końcowego pliku. W praktyce, do archiwizacji czy profesjonalnych zastosowań, często wybiera się VBR, ale do transmisji strumieniowej lub tam, gdzie kompatybilność ma największe znaczenie, lepiej sprawdza się właśnie CBR. Warto więc nauczyć się rozpoznawać te skróty i dokładnie dobierać metodę kodowania do konkretnego zastosowania, a nie sugerować się tylko nazwą czy uproszczonym opisem.

Pytanie 33

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .riff
B. .aiff
C. .wav
D. .mp3
Wiele osób myli pojęcie formatów plików audio z kodekami, co prowadzi do błędnych przekonań na temat tego, które narzędzia generują jakie typy plików. Na przykład AIFF oraz WAV to tzw. formaty nieskompresowane, wykorzystywane głównie do przechowywania dźwięku w jakości studyjnej – często w produkcji muzycznej, montażu czy archiwizacji. RIFF, natomiast, to struktura kontenera używana przez niektóre formaty, na przykład WAV, ale sam w sobie nie jest popularnym rozszerzeniem pliku audio. LAME nie jest przeznaczony do tworzenia plików WAV czy AIFF, bo te nie wymagają stratnej kompresji – to są formaty, które zachowują pełną jakość dźwięku i raczej się ich nie kompresuje przy użyciu kodeków MP3. Najczęstszym błędem jest założenie, że skoro narzędzie obsługuje dźwięk, to może zapisać dowolny format – a to nie jest prawda. Kodek LAME, zgodnie ze standardami branżowymi i dokumentacją, służy wyłącznie do kodowania plików audio do stratnego formatu MP3. Dokładnie z tego powodu profesjonalne oprogramowanie do konwersji audio daje wybór kodeka pod konkretny format pliku – nie da się na przykład skonwertować pliku WAV do WAV za pomocą LAME, bo ten kodek nie posiada odpowiedniej funkcjonalności. Po prostu, jeśli ktoś próbuje przy jego użyciu uzyskać plik .wav, to trochę tak, jakby próbował młotkiem przykręcić śrubę – narzędzie nie do tego celu. W praktyce, jeśli zależy nam na pliku wysokiej jakości, wybieramy WAV lub AIFF, a jeśli na rozmiarze i szerokiej kompatybilności – wybieramy MP3 i właśnie wtedy korzystamy z LAME. Warto się nauczyć rozróżniać formaty nieskompresowane od stratnych – to podstawa pracy z dźwiękiem i niezbędna wiedza przy wyborze narzędzi w produkcji audio.

Pytanie 34

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Avid ProTools.
B. Celemony Melodyne.
C. Steiberg Cubase.
D. Microsoft Windows Media Player.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 35

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów na sekundę w transmisji danych.
B. próbek opisanych jednym bitem.
C. próbek na sekundę w transmisji danych.
D. bitów dostępnych do opisu każdej próbki sygnału.
Często spotyka się pewne nieporozumienia wokół pojęcia rozdzielczości bitowej, zwłaszcza w kontekście sygnałów cyfrowych. Wiele osób myli ją z innymi parametrami, takimi jak liczba próbek na sekundę (częstotliwość próbkowania) czy przepływność (bity na sekundę), które odnoszą się do zupełnie innych aspektów transmisji i przetwarzania sygnałów. Rozdzielczość bitowa nie opisuje liczby próbek, ani tego, ile bitów przesyłamy w ciągu sekundy, lecz mówi o tym, ile bitów przeznaczamy na zapis jednej próbki sygnału. To kluczowe, bo decyduje o tym, jak dokładnie możemy odwzorować poziomy sygnału analogowego w postaci cyfrowej. W praktyce, ograniczenie rozdzielczości bitowej skutkuje większym błędem kwantyzacji, czyli tzw. szumem kwantyzacji – co szczególnie słychać np. w niskiej jakości nagraniach dźwiękowych lub w obrazach z małą głębią kolorów. Przepływność (bity na sekundę) jest ważna w transmisji danych, bo określa, ile informacji przesyłamy w jednostce czasu, ale to nie to samo co rozdzielczość próbki. Z kolei liczba próbek na sekundę, czyli częstotliwość próbkowania, decyduje, z jaką szczegółowością czasową rejestrujemy sygnał – ale nie mówi nic o tym, jak precyzyjnie odwzorowujemy wartości amplitudy każdej próbki. Moim zdaniem, błędne utożsamianie tych pojęć wynika najczęściej z pobieżnego podejścia do tematu lub zbyt ogólnych informacji w źródłach popularnonaukowych. W praktycznych zastosowaniach, np. przy konfiguracji sprzętu audio czy doborze przetworników analogowo-cyfrowych, takie nieporozumienia mogą prowadzić do złych wyborów sprzętowych, co potem przekłada się na jakość końcową systemu. Dlatego warto dokładnie wiedzieć, co znaczy rozdzielczość bitowa i jakie ma ona znaczenie w cyfrowym przetwarzaniu sygnałów.

Pytanie 36

Które z poniższych parametrów wskazują na plik o najlepszej jakości?

A. 96 kHz, 8 bitów
B. 48 kHz, 24 bity
C. 48 kHz, 16 bitów
D. 44.1 kHz, 24 bity
Parametry 48 kHz oraz 24 bity to zestawienie, które w świecie dźwięku uznaje się za naprawdę wysoką jakość, szczególnie w produkcji muzycznej czy postprodukcji audio do filmu. Częstotliwość próbkowania 48 kHz jest standardem w profesjonalnych zastosowaniach – na przykład w telewizji, filmie, czy nagraniach na potrzeby internetu. 24 bity natomiast dają bardzo szeroki zakres dynamiki, pozwalając na nagranie zarówno bardzo cichych, jak i bardzo głośnych dźwięków bez tracenia szczegółów. Moim zdaniem, korzystanie z takich parametrów to trochę jak robienie zdjęcia bardzo dobrą lustrzanką – zapisuje się więcej informacji, co potem przekłada się na lepszą jakość końcową. W praktyce pliki audio o parametrach 48 kHz / 24 bitów są bardzo elastyczne w obróbce: inżynierowie dźwięku mają większy zapas do edycji, miksowania czy masteringu, bez ryzyka utraty detali. To też swoisty kompromis między rozmiarem pliku, a jakością – bo wprawdzie 96 kHz wydaje się wyższe, ale przy 8 bitach już totalnie się nie opłaca. Warto wiedzieć, że większość profesjonalnych studiów korzysta właśnie z 48 kHz / 24 bity, bo to daje najlepszy stosunek jakości do ciężaru pliku. Często mówi się: „lepiej więcej bitów niż tylko wyższa częstotliwość próbkowania”, bo zakres dynamiki jest kluczowy dla naturalnego brzmienia. Także – bardzo słuszny wybór, zgodny z realiami branży.

Pytanie 37

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 48 kHz
C. 192 kHz
D. 96 kHz
Wiele osób myli częstotliwości próbkowania charakterystyczne dla różnych zastosowań, co prowadzi do błędnych przekonań. 48 kHz to standard znany przede wszystkim ze świata produkcji wideo i telewizji – jest szeroko stosowany w filmach, telewizji czy materiałach broadcastowych, ale dla formatu CD-Audio nie jest odpowiedni. 96 kHz i 192 kHz to wartości wykorzystywane w profesjonalnej rejestracji i masteringach o wysokiej rozdzielczości, gdzie ważna jest bardzo szczegółowa analiza sygnału lub dalsza obróbka, jednak nie mają one związku ze standardami obowiązującymi na płytach CD. Często spotykam się z opinią, że „im wyższa częstotliwość, tym lepsza jakość” – to tylko częściowo prawda, bo w praktyce dla przeciętnego słuchacza i typowych produkcji muzycznych te wyższe wartości nie są ani konieczne, ani nawet wykorzystywane w końcowym produkcie. Format CD został zaprojektowany z myślą o optymalnym wykorzystaniu ograniczonego miejsca na płycie i możliwościach sprzętu konsumenckiego – 44,1 kHz zapewnia pasmo przenoszenia do 20 kHz i jest zgodne z teoretycznym minimum wyznaczonym przez twierdzenie Nyquista-Shannona. Próba zastosowania wyższej częstotliwości na CD-Audio nie tylko byłaby niezgodna ze standardem Red Book, ale mogłaby prowadzić do problemów z kompatybilnością. Z mojego punktu widzenia to typowy błąd wynikający z nieznajomości specyfiki różnych formatów audio – dlatego zawsze warto sprawdzać, do jakiego medium odnosi się dany parametr. W przypadku CD-Audio niezmiennie od lat wybór pada na 44,1 kHz, inne wartości stosuje się świadomie tam, gdzie tego wymaga standard lub konkretne zastosowanie, np. produkcja wideo czy archiwizacja materiałów w najwyższej dostępnej jakości.

Pytanie 38

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 160 kb/s
B. 240 kb/s
C. 480 kb/s
D. 320 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 39

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WAV
B. MP3
C. WMA
D. FLAC
Wybór formatu do archiwizacji materiału dźwiękowego często bywa mylący, bo intuicja podpowiada sięgnięcie po popularne i powszechnie używane rozszerzenia, takie jak MP3 czy WMA. Jednak oba te formaty polegają na kompresji stratnej, co oznacza, że podczas procesu kodowania część danych audio jest nieodwracalnie usuwana. To prowadzi do mniejszego rozmiaru pliku, ale też – nawet przy wysokich bitrate'ach – do utraty detali, spłaszczenia przestrzeni dźwięku i powstawania artefaktów, które mogą być słyszalne na lepszym sprzęcie. MP3 to świetny wybór na odtwarzacze przenośne czy publikowanie w internecie, ale w archiwum, gdzie chodzi o zachowanie oryginału, zupełnie się nie sprawdza. Z kolei WMA, choć czasem reklamowany jako bardziej wydajny niż MP3, również stosuje algorytmy stratne (jest też wersja bezstratna, ale nie jest ona powszechnie wspierana i jest zamknięta). WAV z kolei to absolutny standard, jeśli chodzi o przechowywanie nagrań bez żadnej kompresji. Plik WAV zawiera pełną, nieskompresowaną informację dźwiękową, ale przez to zajmuje bardzo dużo miejsca – dla jednej godziny dźwięku stereo w jakości CD trzeba liczyć się z ponad 600 MB. W praktyce to generuje niepotrzebny problem z przestrzenią, zwłaszcza przy archiwizowaniu dużych zbiorów. Typowym błędem jest utożsamianie jakości z popularnością formatu albo myślenie, że najpopularniejsze pliki audio są równocześnie najlepsze do archiwizacji. W branży za standard uznaje się obecnie formaty bezstratnej kompresji, takie jak FLAC, które redukują rozmiar bez żadnych kompromisów w jakości i są rekomendowane przez specjalistów ds. digitalizacji oraz archiwistów. Warto na to zwracać uwagę, bo wybór formatu to inwestycja w trwałość i jakość archiwum na długie lata.

Pytanie 40

Ile minut muzyki można maksymalnie zapisać na płycie CD-Audio?

A. 70 minut.
B. 90 minut.
C. 100 minut.
D. 80 minut.
Dość często spotyka się przekonanie, że na płycie CD-Audio można zmieścić na przykład 70, 90 czy nawet 100 minut muzyki, ale to jest pewna pułapka myślowa wynikająca z mylenia różnych formatów płyt i standardów nagrywania. 70 minut było standardem w pierwszych płytach CD, bo stosowano wtedy nośniki o pojemności 650 MB, jednak później branża przeszła na format 700 MB, co umożliwiło zapisanie do 80 minut muzyki w jakości 16 bitów, 44,1 kHz, stereo, czyli dokładnie tyle, ile przewiduje specyfikacja Red Book. Często spotykam się też z przekonaniem, że skoro płyta CD-R może mieć większą pojemność w trybie danych komputerowych (CD-ROM), to i muzyki da się więcej wcisnąć – niestety nie, bo CD-Audio rządzi się swoimi prawami i nie pozwala na kompresję czy nagranie w niższej jakości dźwięku, jak to się dzieje np. w przypadku plików MP3 na płytach typu MP3-CD. Odpowiedzi sugerujące 90 czy 100 minut wynikają raczej z zamieszania związanego z tzw. płytami 'overburned' lub egzotycznymi nośnikami, ale to nie są oficjalne standardy i większość odtwarzaczy ich po prostu nie obsługuje – moim zdaniem lepiej w ogóle nie brać tego pod uwagę w codziennej pracy. Prawda jest taka, że jeśli zależy nam na uniwersalności i kompatybilności, 80 minut to absolutny maks – gdy próbujemy nagrać więcej, ryzykujemy błędy odczytu, zacinanie się utworów albo nawet niemożność odtworzenia całości. Warto też pamiętać, że w studiach nagraniowych i produkcji muzycznej trzyma się ściśle tej granicy, żeby nie narazić swoich klientów na przyszłe problemy z odtwarzaniem. Dlatego każda inna wartość niż 80 minut to po prostu nieporozumienie w kontekście standardowego CD-Audio – wiedza ta jest fundamentem dla każdego, kto zamierza pracować z cyfrową muzyką na fizycznych nośnikach.