Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 2 maja 2026 21:05
  • Data zakończenia: 2 maja 2026 21:13

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z parametrów pliku audio wskazuje rodzaj użytego kodeka?

A. Przepływność.
B. Rozszerzenie.
C. Rozmiar.
D. Nazwa.
W praktyce spotykam się często z sytuacją, gdy osoby zaczynające przygodę z plikami audio mylą parametry takie jak nazwa, rozmiar czy przepływność z faktycznym typem kodeka. Nazwa pliku, choć czasami bywa opisowa (np. "piosenka_mp3"), nie daje gwarancji co do użytego kodeka – można ją dowolnie ustawić i nie ma ona żadnego technicznego związku z formatem zakodowania dźwięku. Rozmiar pliku natomiast zależy od wielu czynników: długości nagrania, wybranej przepływności, ilości kanałów (mono/stereo), a nawet obecności dodatkowych danych, jak okładka czy tagi ID3. To zdecydowanie nie jest parametr wskazujący rodzaj użytego kodeka, bo np. plik MP3 o wysokiej jakości może być większy niż plik FLAC o krótkim czasie trwania. Przepływność (ang. bitrate) to ważna cecha wpływająca na jakość i rozmiar pliku, ale różne kodeki mogą pracować przy tej samej przepływności – np. zarówno MP3, jak i AAC mogą mieć ustawione 128 kbps, a jednak są zakodowane zupełnie inną technologią. Typowy błąd myślowy polega tutaj na zbyt powierzchownym rozumieniu parametrów – łatwo założyć, że to, co widać na pierwszy rzut oka (nazwa, wielkość, bitrate), sugeruje nam wszystko o pliku, podczas gdy tylko rozszerzenie faktycznie jest bezpośrednio powiązane z typem kodeka. Warto w praktyce zwracać uwagę na ten detal, bo poprawna identyfikacja kodeka ma kluczowe znaczenie przy konwersjach, odtwarzaniu i archiwizacji materiałów dźwiękowych. Prawidłowe rozpoznanie kodeka pozwala uniknąć problemów z kompatybilnością i nieporozumień przy pracy z oprogramowaniem audio. W branży zawsze kładzie się nacisk na stosowanie plików z poprawnym rozszerzeniem i weryfikowanie tego parametru, szczególnie w środowiskach profesjonalnych.

Pytanie 2

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R
B. DVD+R DL
C. DVD-R
D. DVD-RW
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 3

Który z wymienionych nośników jest nośnikiem analogowym?

A. Płyta DVD
B. Płyta CD
C. Kaseta DAT
D. Kaseta CC
Wybór nośników takich jak płyta CD, płyta DVD czy kaseta DAT jako nośników analogowych wynika często z mylnego utożsamiania starych technologii z technologiami analogowymi. Jednak każda z tych technologii opiera się na cyfrowym zapisie informacji. Płyta CD oraz DVD wykorzystują laser do odczytu i zapisu danych w postaci binarnej, co oznacza, że sygnał jest zapisywany i odczytywany w formie zer i jedynek – to esencja zapisu cyfrowego. Pomimo tego, że dźwięk zapisany na płycie CD może brzmieć bardzo naturalnie, jest on przetwarzany przez przetwornik analogowo-cyfrowy i zapisany w postaci próbek cyfrowych według standardu Red Book (Audio CD) lub innych, zaawansowanych formatów na DVD. Kaseta DAT (Digital Audio Tape) pomimo podobieństwa wizualnego do klasycznych nośników taśmowych, również bazuje na zapisie cyfrowym – dźwięk jest zamieniany na ciągi bitów, co pozwala na większą odporność na zakłócenia i łatwiejszą obróbkę materiału. Typowym błędem jest sądzenie, że wszystkie nośniki z lat 80. i 90. są analogowe – w rzeczywistości przełom cyfrowy nastąpił właśnie w tym czasie i większość nowych formatów powstałych po tradycyjnej kasecie CC to już nośniki cyfrowe. Praktyka branżowa jasno rozróżnia oba typy: analogowy zapis polega na ciągłej zmianie fizycznego parametru medium (np. pola magnetycznego na taśmie), podczas gdy zapis cyfrowy to operacje na dyskretnych wartościach, które można łatwo kopiować i przetwarzać bez utraty jakości. Rozumienie tej różnicy ma kluczowe znaczenie przy pracy z archiwami, digitalizacją i konserwacją mediów – niewłaściwe rozpoznanie typu nośnika może prowadzić do zastosowania nieodpowiednich technik odczytu lub konserwacji.

Pytanie 4

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .mlp
B. .wav
C. .acc
D. .ogg
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 5

Największą zgodność ze standardem CD-Audio zapewni archiwizacja nagrań dźwiękowych w formie

A. pliku o parametrach 44.1 kHz/16 bit stereo.
B. pliku w formacie MP3 oraz pliku odszumionego.
C. pliku o parametrach 48 kHz/16 bit stereo.
D. pliku w formacie MP3.
Standard CD-Audio, czyli Compact Disc Digital Audio, od początku został zaprojektowany z bardzo precyzyjnymi parametrami: 44,1 kHz próbkowania i 16 bitów rozdzielczości na kanał, stereo. Te wartości nie są przypadkowe – zostały wybrane tak, aby umożliwić wierne odwzorowanie zakresu słyszalnego dla człowieka z minimalnymi zakłóceniami jakości. W praktyce każda próba archiwizacji nagrań przeznaczonych do zgodności z nośnikami CD powinna dokładnie trzymać się tego ustawienia. Nawet jeśli masz do dyspozycji sprzęt nagrywający dźwięk w wyższej rozdzielczości (np. 48 kHz, 24 bity), to i tak końcowy materiał na potrzeby audio CD musi przejść konwersję do 44,1 kHz/16 bitów. Moim zdaniem, jeśli zależy komuś na pełnej kompatybilności z odtwarzaczami i dobrych praktykach archiwizacyjnych, nie ma sensu trzymać plików w innym formacie niż dokładnie taki – żadnych MP3, żadnych innych częstotliwości czy głębokości bitowych. Warto pamiętać, że wiele archiwów cyfrowych i profesjonalnych studiów nagraniowych stosuje te parametry jako domyślny punkt odniesienia dla materiałów, które mają być dostępne szerokiej publiczności lub wydane na CD. Osobiście często spotykałem się z sytuacją, gdzie konwersja z innych formatów powodowała nieprzewidziane problemy z kompatybilnością. To taka trochę „złota zasada” w branży muzycznej.

Pytanie 6

Przy porównaniu cyfrowych plików dźwiękowych o tej samej rozdzielczości bitowej, teoretycznie najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie, którego poziom szczytowy osiąga

A. -6 dBFS
B. -3 dBFS
C. -12 dBFS
D. -0,3 dBFS
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje charakterystykę rozpiętości dynamicznej w plikach cyfrowych. Chodzi o to, że jeśli nagranie osiąga poziom szczytowy „tylko” -12 dBFS, to całość sygnału jest znacznie ciszej względem maksymalnego możliwego poziomu, który wynosi 0 dBFS w systemach cyfrowych. W praktyce oznacza to, że nie wykorzystujesz pełni dostępnego zakresu dynamiki konwertera A/C lub pliku, przez co sygnał „leży” daleko od maksimum i spada nam stosunek sygnału do szumu, a przez to efektywna rozpiętość dynamiczna staje się mniejsza. W studiach nagraniowych i w masteringach zaleca się, żeby szczyty trafiały blisko 0 dBFS (np. do -1 dBFS dla bezpieczeństwa), bo wtedy najlepiej używamy całego „okna” dostępnego w cyfrowym audio. Ograniczając się do -12 dBFS, z praktycznego punktu widzenia, „marnujemy” 12 dB dynamiki, co może wydawać się dużo – szczególnie przy nagraniach wymagających szerokiej palety dynamicznej, jak muzyka klasyczna czy ścieżki filmowe. Często początkujący inżynierowie dźwięku zostawiają za duży margines bezpieczeństwa, a potem się dziwią, że nagranie brzmi płasko i cicho. Moim zdaniem warto pamiętać, żeby trzymać szczyty jak najbliżej limitu, ale nie doprowadzać do przesteru – to taka złota zasada w cyfrowym audio.

Pytanie 7

Aby wprowadzić plik audio z dysku twardego komputera do wielościeżkowego edytora dźwięku, należy użyć funkcji

A. import.
B. save.
C. play.
D. eksport.
Wybrałeś import i to jest dokładnie to, co powinno się zrobić, kiedy chcemy przenieść plik audio z dysku do projektu w edytorze wielościeżkowym. Funkcja „import” jest jednym z podstawowych narzędzi w każdym profesjonalnym oprogramowaniu do obróbki dźwięku, takim jak Cubase, Audacity, Reaper czy Pro Tools. Pozwala ona wprowadzić do projektu istniejące pliki – najczęściej WAV, MP3, AIFF, FLAC, OGG i inne formaty audio. Z mojego doświadczenia wynika, że korzystanie z importu gwarantuje, że plik zostanie poprawnie załadowany, z zachowaniem parametrów takich jak częstotliwość próbkowania czy długość trwania. Co więcej, funkcja importu często umożliwia wybór ścieżki docelowej, konwersję formatu albo automatyczne dopasowanie pliku do projektu. To zdecydowanie najbezpieczniejszy sposób na rozpoczęcie pracy z zewnętrznymi materiałami dźwiękowymi. W branży muzycznej i postprodukcyjnej stosuje się tę funkcję niemal codziennie, bo pozwala ona na szybkie rozszerzanie sesji o nowe elementy – sample, nagrania lektorskie, ścieżki instrumentalne. Po prostu, bez importu nie da rady sensownie pracować na kilku ścieżkach z różnymi źródłami dźwięku. Takie podejście jest absolutnym standardem w świecie cyfrowej obróbki audio.

Pytanie 8

Który z wymienionych nośników cyfrowych zapewnia najdłuższy okres przechowywania danych bez pojawienia się błędów?

A. Mini CD-RW
B. DVD DL (DVD Dual Layer)
C. M-Disc (Millennial Disc)
D. CD-R
M-Disc, czyli Millennial Disc, to nośnik stworzony specjalnie z myślą o bardzo długim okresie przechowywania danych. W odróżnieniu od tradycyjnych płyt CD-R czy DVD, które bazują na barwnikach organicznych i są podatne na degradację pod wpływem promieniowania UV, wilgoci czy zmian temperatury, M-Disc wykorzystuje warstwę zapisywalną z materiału zbliżonego do ceramiki. Dzięki temu dane są odporne na typowe zjawiska starzenia się nośników optycznych. Z moich obserwacji i tego, co można znaleźć w literaturze branżowej, M-Disc potrafi wytrzymać nawet kilkaset lat, stąd ten marketingowy przydomek 'millennial'. To nie jest tylko teoria – testy prowadzone przez amerykański Departament Obrony czy Instytut Informatyki i Automatyki potwierdzają, że M-Disc zachowuje czytelność danych w warunkach, które szybko powodują nierozpoznawalność zwykłych płyt. W praktyce często sięga się po M-Disc do archiwizacji danych medycznych, urzędowych czy rodzinnych archiwów fotograficznych – wszędzie tam, gdzie liczy się niezawodność przez dekady. Oczywiście, warto pamiętać, że do nagrania M-Disc potrzebna jest specjalna nagrywarka, ale potem można je już odczytywać w większości zwykłych czytników Blu-ray czy DVD. To rozwiązanie zgodne z dobrymi praktykami archiwizacji cyfrowej, gdzie kluczowe jest minimalizowanie ryzyka utraty danych na przestrzeni wielu lat.

Pytanie 9

Który z podanych formatów oferuje wyłącznie bezstratną kompresję cyfrowych danych dźwiękowych?

A. MP3
B. ALAC
C. WMA
D. AAC
Wiele osób myli formaty kompresji stratnej i bezstratnej, bo na pierwszy rzut oka nie zawsze widać różnicę, zwłaszcza na słabszym sprzęcie lub przy gorszych słuchawkach. MP3 to najpopularniejszy format kompresji stratnej – świetny na potrzeby streamingu i codziennego słuchania muzyki, ale przy konwersji zawsze tracisz część danych, przez co jakość dźwięku jest już nie do odzyskania. To samo dotyczy AAC, czyli Advanced Audio Codec, który bardzo często stosuje się w serwisach takich jak YouTube czy Apple Music – kodek efektywniejszy niż MP3, bo przy mniejszym rozmiarze pliku osiąga podobną lub lepszą jakość brzmienia, ale wciąż jest stratny. WMA, czyli Windows Media Audio, też występuje głównie w wersji stratnej; istnieje co prawda jego bezstratna odmiana (WMA Lossless), ale w praktyce, mówiąc WMA, większość ludzi ma na myśli format stratny, stosowany głównie w środowisku Windows. Typowy błąd to zakładanie, że znane formaty, które oferują dobrą jakość przy małych plikach, muszą być bezstratne – tymczasem taka kompresja działa zupełnie inaczej. Bezstratny kodek to taki, który pozwala na odzyskanie oryginalnego sygnału audio bez żadnych zmian, co jest niezbędne np. w pracy studyjnej, archiwizacji lub profesjonalnych zastosowaniach. W praktyce tylko ALAC z wymienionej listy gwarantuje taki poziom bezpieczeństwa danych dźwiękowych, bo zachowuje wszystkie detale oryginału. Warto o tym pamiętać, wybierając format do przechowywania ważnych nagrań czy materiałów muzycznych, bo raz utraconych danych nie sposób odzyskać poprzez konwersję w drugą stronę.

Pytanie 10

Kopię sesji o parametrach: 48 kHz, 24 bity, należy sporządzić jako kopię o następujących parametrach:

A. 96 kHz, 24 bity.
B. 96 kHz, 16 bitów.
C. 48 kHz, 24 bity.
D. 48 kHz, 16 bitów.
Wybrałeś parametry 48 kHz oraz 24 bity – i bardzo dobrze! To jest właśnie kluczowa sprawa, jeśli chodzi o kopiowanie sesji audio z zachowaniem jakości i kompatybilności. W branży dźwiękowej przyjęło się, że archiwalna lub robocza kopia powinna być wykonywana dokładnie w tych samych parametrach, w jakich była sesja oryginalna. Dzięki temu unikasz niepotrzebnych konwersji, które mogłyby niepotrzebnie pogorszyć jakość nagrania lub wprowadzić dodatkowe artefakty. Przykładowo, jeśli pracujesz w studiu nagrań i sesja została przygotowana w 48 kHz/24 bity, to każda kopia na archiwizację, dalszy montaż czy wysyłkę do innego realizatora powinna mieć te same ustawienia. Tak robią profesjonaliści, bo to gwarantuje pełną zgodność oraz bezpieczeństwo danych. Przeskakiwanie między różnymi częstotliwościami próbkowania czy głębiami bitowymi zwykle nie ma sensu, chyba że jest jakiś bardzo konkretny powód, np. przygotowanie masteru do CD (44.1 kHz/16 bitów), ale to już zupełnie inna sprawa. Z mojego doświadczenia wynika, że konsekwencja w zachowywaniu parametrów to po prostu mniej problemów na każdym etapie produkcji. Warto też wspomnieć, że 48 kHz/24 bity to obecnie taki branżowy standard dla audio w filmie, reklamie czy grach. Zawsze lepiej mieć za dużo jakości niż za mało, a niepotrzebne obniżanie parametrów po prostu się nie opłaca.

Pytanie 11

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. Free Lossless Audio Codec
B. MPEG Layer 3
C. Meridian Lossless Packing
D. Open Media Format
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 12

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 15 GB danych.
B. 25 GB danych.
C. 10 GB danych.
D. 20 GB danych.
Jednowarstwowy nośnik Blu-ray rzeczywiście pozwala na zapis do 25 GB danych, co stanowi obecnie branżowy standard dla tej technologii. Wynika to z konstrukcji samego nośnika optycznego – płyty Blu-ray wykorzystują krótszą falę lasera niebieskiego (405 nm), przez co są w stanie zapisywać dane o wiele gęściej niż tradycyjne płyty DVD czy CD. Dzięki temu na jednej warstwie mieści się nawet kilka godzin materiału Full HD lub spora liczba plików, np. całe archiwa zdjęć, filmów czy kopie zapasowe dysków SSD z laptopów. Branża filmowa i gamingowa od lat korzysta z tej możliwości – gry na PlayStation 4 czy filmy na Blu-ray to najlepszy przykład. 25 GB to też rozwiązanie stosowane w profesjonalnych archiwizacjach, gdzie liczy się nie tylko pojemność, ale też trwałość zapisu. Moim zdaniem to całkiem dużo, patrząc na fizyczne rozmiary płyty! Warto jeszcze wiedzieć, że są też płyty Blu-ray dwuwarstwowe (50 GB), a nawet czterowarstwowe (100 GB i więcej), ale te już wychodzą poza zwykłe zastosowania domowe. Z mojego doświadczenia – jeśli chcesz zarchiwizować dane na długie lata, to Blu-ray wciąż jest dobrą alternatywą np. dla pendrive'ów, bo mniej podatny na uszkodzenia elektromagnetyczne.

Pytanie 13

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 2 razy.
B. 6 razy.
C. 3 razy.
D. 4 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 14

Jaką maksymalną ilość danych można zapisać na płycie CD-Audio?

A. 7000000 kB
B. 900 MB
C. 50 GB
D. 716800 kB
Wybór innej odpowiedzi niż 716 800 kB to dość częsty błąd wynikający z mylenia różnych formatów płyt oraz nieprecyzyjnego rozumienia jednostek pojemności. Z jednej strony, pojawia się myślenie: skoro technologia idzie do przodu, to i płyty CD muszą mieć ogromną pojemność, np. 50 GB – ale to typowy parametr nowoczesnych nośników Blu-ray, a nie klasycznego CD-Audio. Nawet DVD, które pojawiło się po płytach CD, mieści maksymalnie 4,7 GB, więc wartości rzędu 50 GB na płycie kompaktowej są czysto teoretyczne i nie mają zastosowania w praktyce. Z kolei 900 MB wydaje się logiczne, bo niektórzy producenci faktycznie eksperymentowali z tak zwanymi overburningami, czyli płytami CD-R o zwiększonej pojemności, ale to nie jest oficjalny standard audio i takie płyty nie zawsze są kompatybilne z tradycyjnymi odtwarzaczami. Co do 7 000 000 kB, tę wartość można czasem spotkać przy próbach porównywania nośników, ale jest ona zdecydowanie za duża jak na standardowy CD – to już niemal 7 GB, czyli zakres płyt DVD, a nie CD-Audio. W praktyce, mylenie jednostek, zaokrągleń i różnych formatów płyt prowadzi do przekłamań. Branża od lat trzyma się standardu Red Book, w którym 716 800 kB, czyli 700 MB, to maksymalna pojemność płyty CD-Audio. Wszystko powyżej tej wartości to już inne technologie nośników lub eksperymenty, które nie są objęte gwarancją poprawnego odczytu w sprzęcie audio. Warto pamiętać, że płyty CD-Audio mają swoje ograniczenia, a przekraczanie ich często kończy się problemami z kompatybilnością i trwałością danych. Takie niuanse są naprawdę ważne przy projektowaniu systemów archiwizacji czy nawet przy domowym kopiowaniu muzyki.

Pytanie 15

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 16 bitów
B. 12 bitów
C. 24 bity
D. 8 bitów
Wybranie rozdzielczości 24 bity do nagrania materiału dźwiękowego o dynamice 100 dB to bardzo trafna decyzja — to jest standard stosowany w profesjonalnych studiach nagraniowych, szczególnie przy nagrywaniu muzyki na wysokim poziomie. Każdy bit rozdzielczości przybliżeniu odpowiada ok. 6 dB zakresu dynamicznego, więc z prostego rachunku: 16 bitów daje około 96 dB, a 24 bity sięgają aż do ok. 144 dB, co zostawia naprawdę solidny zapas i eliminuje ryzyko zniekształceń związanych z kwantyzacją. Moim zdaniem warto też zwrócić uwagę, że 24 bity zapewniają nie tylko odwzorowanie szerokiej dynamiki, ale również większą odporność na szumy i lepszą jakość edycji w postprocessingu. Nawet jeśli finalnie plik audio ląduje w pliku 16-bitowym (tak jak na płytach CD), to w trakcie miksowania czy masteringu ten wyższy zapas dynamiki jest bardzo pożądany. W branży audiofilskiej czy realizatorskiej 24 bity to dziś właściwie standard, a nagrania o bardziej wymagającej dynamice, np. orkiestra symfoniczna czy muzyka filmowa, wręcz wymagają takiej rozdzielczości. Swoją drogą, coraz częściej nawet domowe interfejsy audio bez problemu oferują tryb 24-bitowy. Z mojego doświadczenia: lepiej mieć trochę za dużo „headroomu” niż za mało — wtedy nie musisz drżeć o trzaski i cyfrowe szumy.

Pytanie 16

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 192 kHz
C. 44,1 kHz
D. 96 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 17

Zapis magnetooptyczny wykorzystywany jest w nośniku typu

A. Kaseta DAT
B. Mini Disc
C. Karta SDHC
D. Dysk SSD
Mini Disc to nośnik, który opiera się na technologii zapisu magnetooptycznego. To dość ciekawa hybryda, bo łączy elementy zapisu magnetycznego i optycznego. Najpierw dane są zapisywane magnetycznie, ale żeby to w ogóle było możliwe, laser nagrzewa odpowiedni fragment dysku do wysokiej temperatury. Dopiero wtedy głowica magnetyczna może zmienić polaryzację tego miejsca. Odczyt też odbywa się optycznie, więc w praktyce Mini Disce używały lasera podobnie jak płyty CD, ale z dodatkowym elementem pola magnetycznego przy zapisie. To rozwiązanie stosowano głównie w sprzęcie audio Sony, np. przenośnych odtwarzaczach i rejestratorach dźwięku, bo dawało możliwość wielokrotnego zapisu i wysokiej trwałości nośnika. Moim zdaniem to fajny przykład na to, jak inżynierowie próbowali pogodzić szybki zapis, dużą pojemność i trwałość – coś jak kompromis pomiędzy klasyczną kasetą a płytą CD-RW. W branży do dziś Mini Disc jest podawany jako przykład nowatorskiego podejścia do przechowywania danych, choć oczywiście obecnie został już wyparty przez nośniki półprzewodnikowe. Ogólnie rzecz biorąc, technologia magnetooptyczna to kawał ciekawej historii – znalazła też zastosowanie np. w stacjonarnych napędach MO używanych w archiwizacji danych w laboratoriach i firmach, gdzie liczy się bezpieczeństwo i trwałość zapisu.

Pytanie 18

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. MBR
C. VBR
D. CBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 19

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/24 bity
B. 48000 Hz/24 bity
C. 44100 Hz/16 bitów
D. 48000 Hz/16 bitów
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 20

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 70 minut.
B. 60 minut.
C. 80 minut.
D. 90 minut.
Błędne odpowiedzi na temat pojemności czasowej płyt CD-Audio wynikają zazwyczaj z niezrozumienia, jak działa standard zapisu dźwięku na tych nośnikach. Często ktoś patrzy na 700 MB i porównuje to bezpośrednio do plików MP3 czy innych formatów skompresowanych, myśląc, że da się tam upchnąć 90 czy nawet 70 minut muzyki dobrej jakości. Nic bardziej mylnego, bo CD-Audio wykorzystuje nieskompresowany, liniowy zapis PCM o wysokich parametrach – 44,1 kHz, 16 bitów, stereo, co generuje naprawdę duże ilości danych. W praktyce przekroczenie 80 minut nie jest możliwe w ramach standardu Red Book: płyty 90-minutowe niby istnieją, ale są niezgodne ze specyfikacją i mogą sprawiać problemy z odtwarzaniem na typowych odtwarzaczach CD – moim zdaniem to tylko sztuczka producentów niektórych tanich nośników i nie ma sensu kierować się takimi wartościami. Z kolei odpowiedzi 70 czy 60 minut są typowym efektem mylenia pojemności starszych płyt 650 MB (gdzie faktycznie standard przewidywał ok. 74 minuty) z nowszymi nośnikami. Obecnie 700 MB, czyli 80 minut, to najbardziej rozpowszechniony standard. Trzeba też uważać na praktyki, w których błędnie przelicza się minuty na MB bez uwzględnienia realnego strumienia danych PCM – to jeden z najczęstszych problemów, z którymi spotkałem się w pracy z płytami audio. Takie pomyłki niestety skutkują niedziałającymi płytami lub niekompatybilnością z popularnym sprzętem. Rzetelne trzymanie się standardu i zrozumienie, dlaczego tak to działa, pozwala uniknąć wielu frustracji – szczególnie przy produkcji własnych kompilacji czy masteringu albumów.

Pytanie 21

Jednostronna, jednowarstwowa płyta DVD, charakteryzuje się maksymalną pojemnością

A. 4,7 GB
B. 8,7 GB
C. 1,7 GB
D. 2,7 GB
Jednostronna, jednowarstwowa płyta DVD to taki najbardziej typowy nośnik, który przez lata był wręcz podstawą w przechowywaniu filmów, gier czy kopii zapasowych. Jej maksymalna pojemność to właśnie 4,7 GB i to warto zapamiętać, bo ta liczba pojawia się często nawet w specyfikacjach nagrywarek albo przy wyborze nośników do archiwizacji. Z tego, co zauważyłem, branża trzyma się tego standardu już od lat 90. – nawet jeśli dzisiaj korzysta się częściej z pendrive’ów albo chmur, te 4,7 GB to był taki złoty środek między kosztami a pojemnością. Płyty DVD tego typu (czyli DVD-5, tak się je fachowo oznacza) są jednowarstwowe i dane są zapisywane po jednej stronie, więc nie trzeba obracać płyty, żeby je odczytać. W praktyce to wystarczało na mniej więcej dwa filmy w jakości SD albo całkiem sporą ilość zdjęć albo dokumentów – kiedyś używało się tego nawet do instalatorów systemów operacyjnych. Warto też pamiętać, że większą pojemność uzyskuje się dopiero przy płytach dwuwarstwowych (DVD-9) lub dwustronnych, ale wtedy zmienia się już technologia produkcji i cena takiej płyty. Moim zdaniem, jeśli ktoś pracuje z archiwizacją albo starszym sprzętem, znajomość tej wartości to wciąż podstawa, bo czasami spotyka się jeszcze sprzęty, które tego wymagają.

Pytanie 22

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 20 MB
C. Około 10 MB
D. Około 1 MB
To właśnie jest ta wartość, której się spodziewa większość osób znających temat audio i standardów zapisu dźwięku. Jeżeli mamy stereofoniczny plik dźwiękowy (czyli dwa kanały), o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na próbkę, to jest to dokładnie taki sam format jak klasyczny plik WAV z płyty CD-Audio. Obliczenie rozmiaru takiego pliku polega na pomnożeniu liczby kanałów (2) przez częstotliwość próbkowania (44 100 próbek na sekundę), przez liczbę bitów na próbkę (16), przez czas trwania (60 sekund), a potem podzielenie przez 8 (żeby zamienić bity na bajty) i przez 1 048 576 (MB). To daje około 10,1 MB, co jest zgodne z odpowiedzią. W praktyce, studia nagraniowe, radia czy nawet osoby pracujące przy montażu wideo bardzo często korzystają z takiego właśnie formatu. Jest nie tylko powszechnie akceptowany, ale i zapewnia bardzo dobrą jakość dźwięku. Moim zdaniem, dobrze znać tę wartość „na oko”, bo w branży muzycznej i IT często na szybko szacuje się, ile danych zajmie godzina nagrania czy ile miejsca trzeba zarezerwować na dysku twardym. Co ciekawe, jeśli kiedyś będziesz konwertował muzykę do formatu MP3, od razu zauważysz, jak bardzo kompresja zmniejsza rozmiar pliku względem bezstratnego WAV – i to jest właśnie ta praktyczna wiedza, która potem procentuje.

Pytanie 23

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 88,2 kHz
B. 48 kHz
C. 96 kHz
D. 44,1 kHz
W pytaniu chodziło o to, przy której częstotliwości próbkowania pojedyncza próbka trwa najkrócej. Często można się tutaj pomylić, zakładając, że niższa częstotliwość próbkowania (np. 44,1 kHz czy 48 kHz) oznacza lepszą jakość lub krótszy czas próbki, bo są to popularne standardy stosowane w codziennym sprzęcie audio – choćby w płytach CD czy w systemach filmowych. Jednak trzeba zrozumieć, że im wyższa częstotliwość próbkowania, tym więcej próbek przypada na jedną sekundę dźwięku, a co za tym idzie – czas trwania pojedynczej próbki maleje. To chyba najczęściej spotykany błąd myślowy: ktoś widzi dużą liczbę i myśli, że oznacza ona coś większego, tymczasem tu działa to odwrotnie. Wyższe częstotliwości, jak 88,2 kHz czy 96 kHz, stosuje się w profesjonalnych zastosowaniach, gdzie precyzja odwzorowania sygnału jest kluczowa – każda próbka trwa tam wyjątkowo krótko, co umożliwia bardzo precyzyjne zarejestrowanie nawet bardzo szybkich zmian dźwięku. Warto pamiętać, że standardy takie jak 44,1 kHz powstały głównie z ograniczeń technicznych (np. architektura płyt CD), natomiast w branży studyjnej i produkcji audio coraz częściej stosuje się nagrywanie w 96 kHz lub nawet wyżej. Gdy wybierzesz niższą częstotliwość, to każda próbka obejmuje dłuższy fragment czasu – więc nie zarejestrujesz tyle szczegółów, ile pozwoliłaby wyższa częstotliwość. Moim zdaniem, zrozumienie tego mechanizmu jest kluczowe dla każdego, kto chce świadomie pracować z dźwiękiem. Zdecydowanie warto zapamiętać: im większa częstotliwość próbkowania, tym krócej trwa pojedyncza próbka, a więc mamy dokładniejszą reprezentację sygnału w dziedzinie czasu.

Pytanie 24

Który z formatów plików audio nie używa kodowania stratnego?

A. .ra
B. .ogg
C. .rm
D. .wav
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 25

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. WAV
B. AIFF
C. ALAC
D. AAC
Format AAC to faktycznie przykład kodowania stratnego, czyli takiego, gdzie podczas kompresji część danych dźwiękowych jest bezpowrotnie usuwana. Szczerze mówiąc, w codziennym użyciu rzadko się o tym myśli, ale to właśnie dzięki temu pliki AAC są dużo mniejsze niż np. WAV czy AIFF, a mimo to brzmią całkiem nieźle. AAC jest standardem w takich serwisach jak YouTube, Apple Music czy Spotify – to nie przypadek, bo wyciśnięto z niego maksimum efektywności. Co ciekawe, wiele smartfonów i odtwarzaczy multimedialnych domyślnie wspiera odtwarzanie AAC, co znacznie ułatwia przenoszenie muzyki między urządzeniami. Moim zdaniem, jeśli komuś zależy na szybkim transferze i niezłej jakości dźwięku – ten format wypada wręcz znakomicie. Trzeba pamiętać, że stratność polega na celowym usuwaniu tych fragmentów sygnału, których ucho ludzkie najczęściej nie wychwytuje. W praktyce – różnica między AAC a WAV jest prawie nieodczuwalna na standardowym sprzęcie audio, a zyskujemy sporo miejsca na dysku. Warto znać ten format, bo to dziś branżowy standard w przypadku streamingu multimediów. ALAC, WAV i AIFF nie mają kompresji stratnej – to też warto zapamiętać, bo czasem różnice jakościowe mają znaczenie np. w pracy studyjnej.

Pytanie 26

W którym z formatów należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .aup
B. .mpeg
C. .omf
D. .rmvb
Format .omf (Open Media Framework) to taki trochę złoty standard, jeśli chodzi o przenoszenie projektów między różnymi programami DAW – czyli Digital Audio Workstation. W praktyce oznacza to, że sesję, którą np. zaczniesz w Pro Tools, możesz potem otworzyć w Cubase czy Nuendo, o ile oba programy wspierają OMF. Z mojego doświadczenia to mega przyspiesza współpracę między studiem dźwiękowym a montażystą filmowym albo producentem muzycznym, bo nie musisz eksportować każdego śladu osobno i ręcznie synchronizować wszystkiego od zera. OMF umożliwia przeniesienie nie tylko samych plików audio, ale również podstawowych ustawień ścieżek czy cięć, co w pracy zawodowej bywa wręcz zbawienne. Moim zdaniem, każdy, kto planuje zawodowo zajmować się produkcją audio czy postprodukcją, powinien znać ten format i umieć z niego korzystać. To jest taka dobra praktyka branżowa, żeby zawsze mieć kopię sesji w OMF, bo nigdy nie wiadomo, na czym przyjdzie Ci pracować albo komu będzie trzeba przesłać projekt. Warto też wiedzieć, że są nowsze formaty jak AAF, ale OMF dalej jest bardzo powszechny i każdy szanujący się DAW go obsługuje – przynajmniej w wersji podstawowej.

Pytanie 27

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wfm
B. .mid
C. .wav
D. .ptx
Zdarza się, że wybór pada na pliki .ptx – spotykane w środowisku Pro Tools, ale są one używane głównie jako pliki sesji, zapisujące strukturę całego projektu: ścieżki, ustawienia miksera, automatyki i rozmieszczenie regionów audio. Nie przechowują one jednak graficznych obwiedni ani samych przebiegów falowych audio. To raczej metaopis projektu. Z kolei .mid to zupełnie inna bajka – to standard wymiany danych muzycznych oparty na komunikatach MIDI, czyli nuty, velocity, kontrolery – ale nie zawiera w ogóle nagrań audio, a tym bardziej wizualizacji przebiegów tych nagrań. Taki plik jest po prostu „zapisem nut”, nie ma w nim żadnej informacji o kształcie fali dźwiękowej. Jeśli chodzi o .wav, ten format kojarzy się od razu z plikami audio najwyższej jakości, bo rzeczywiście to popularny kontener nieskompresowanych nagrań. Jednak .wav przechowuje tylko sam dźwięk, bez żadnych informacji wizualnych typu obwiednia czy przebieg – te dane generowane są dopiero przez DAW w postaci osobnych plików pomocniczych. Częsty błąd to zakładanie, że wszystko, co widzimy na ekranie, siedzi w .wav, choć w praktyce DAW generuje z pliku .wav obrazki do podglądu i przechowuje je właśnie w formacie .wfm (albo innym, zależnie od programu). Moim zdaniem to ważne, by rozróżniać pliki z danymi audio od tych, które odpowiadają tylko za wygodę pracy i podgląd – to ułatwia zarządzanie projektami i rozwiązywanie problemów z wydajnością czy synchronizacją sesji. W praktyce: jeśli przesyłasz komuś projekt DAW, żeby mógł od razu widzieć przebiegi falowe, nie zawsze wystarczy mu sam plik .wav czy .ptx – konieczne mogą być właśnie te dodatkowe pliki .wfm. To szczegół, ale jednak bardzo istotny w codziennej pracy z dźwiękiem cyfrowym.

Pytanie 28

Popularny nośnik danych, podłączany do portu USB komputera, to

A. Memory Stick.
B. karta SD.
C. karta CF.
D. pendrive.
Pendrive to zdecydowanie najpopularniejszy nośnik danych, który podłączamy bezpośrednio do portu USB w komputerze. Często spotyka się go w szkołach, biurach, a nawet na uczelniach, gdzie szybko można przenosić pliki między różnymi urządzeniami. Od strony technicznej pendrive’y działają w oparciu o standard USB (najczęściej USB 2.0, ale coraz częściej także 3.0 i 3.1, które są jeszcze szybsze). Zaletą jest to, że nie wymagają żadnych dodatkowych adapterów, instalowania sterowników czy zewnętrznego zasilania – praktycznie każdy komputer z portem USB po prostu je wykrywa. Moim zdaniem trudno dziś wyobrazić sobie szybką wymianę danych bez pendrive’a, zwłaszcza w sytuacjach, gdy chmura nie wchodzi w grę (np. brak internetu, ograniczenia bezpieczeństwa). Warto pamiętać, że pendrive nie tylko służy do przenoszenia dokumentów czy zdjęć – można z niego uruchomić system (bootowalny pendrive), a nawet zainstalować oprogramowanie naprawcze do komputerów. W branży IT uznaje się, że to jedno z najprostszych i najbardziej niezawodnych narzędzi do transferu danych w fizycznej formie. Oczywiście, bezpieczeństwo danych tu też jest kluczowe, bo łatwo go zgubić – warto rozważyć szyfrowanie informacji na pendrive’ach, co jest coraz częściej stosowaną praktyką w firmach. Z mojego doświadczenia wynika, że pendrive’y są niezastąpione tam, gdzie liczy się czas i wygoda, a przy tym są wyjątkowo uniwersalne – komputery, telewizory, a nawet radia samochodowe potrafią je obsłużyć.

Pytanie 29

Typowo stosowaną jednostką przepływności bitowej cyfrowego dźwięku zapisanego w pliku .mp3 jest

A. kb/s
B. kB/s
C. kB/ms
D. MB/s
Prawidłową jednostką przepływności bitowej w przypadku plików .mp3 jest właśnie kb/s, czyli kilobity na sekundę. Moim zdaniem to dość logiczne – format .mp3 służy kompresji dźwięku cyfrowego, a to, jak szybko przesyłane są bity, decyduje o jakości i wielkości pliku. Im większa przepływność wyrażona właśnie w kb/s (na przykład 128 kb/s, 192 kb/s czy 320 kb/s), tym teoretycznie lepsza jakość dźwięku, ale i większy plik. Producenci sprzętu audio, programów odtwarzających muzykę i serwisów streamingowych wszędzie stosują ten sam zapis – kb/s. Co ciekawe, to jest standard nie tylko dla .mp3, ale też dla ogółu formatów audio, które kompresują dane, jak AAC czy OGG. Branżowo prawie nikt nie używa tu bajtów na sekundę, bo tu się wszystko kręci wokół bitów – to one są podstawą przy kodowaniu i kompresji sygnału audio. W praktyce, gdy np. wybierasz jakość muzyki do pobrania ze Spotify czy innego serwisu, zawsze zobaczysz wartości typu 96 kb/s, 160 kb/s – właśnie te liczby opisują przepływność bitową. Tak się już utarło w całym świecie IT i multimediów.

Pytanie 30

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik w formacie MP3.
B. plik w formacie MP3 oraz plik odszumiony.
C. plik o parametrach 44.1 kHz/16 bit.
D. plik o parametrach 48 kHz/16 bit.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 31

Ile w przybliżeniu miejsca na twardym dysku zajmie dziesięć 3-minutowych stereofonicznych plików dźwiękowych, o parametrach odpowiadających standardowi CD-Audio?

A. 300 MB
B. 900 MB
C. 600 MB
D. 100 MB
Prawidłowa odpowiedź wynika ze specyfikacji formatu CD-Audio, który jest już od lat pewnym wzorcem, jeśli chodzi o bezstratne nagrania audio. Standard CD-Audio to 44,1 kHz próbkowania, 16 bitów na próbkę i dźwięk stereo, czyli osobny kanał na każde ucho. Robiąc szybki rachunek: 44100 próbek na sekundę × 16 bitów × 2 kanały daje nam 1 411 200 bitów na sekundę, czyli mniej więcej 1,4 megabita. Po przeliczeniu na bajty (dzieląc przez 8) wychodzi około 176 kB na sekundę, czyli 10,5 MB na minutę muzyki. Dla jednego 3-minutowego utworu to będzie ok. 31,5 MB, a zatem 10 takich plików zajmie ok. 315 MB. Wielu ludzi zaokrągla do 300 MB, co jest już powszechną praktyką przy szacowaniu miejsca na dysku – nikt nie liczy tu przecież każdego bajta, szczególnie przy planowaniu przestrzeni na muzykę. Takie szacunki przydają się przy archiwizacji nagrań studyjnych, pracy z płytami master CD czy przygotowywaniu backupów do miksów audio. Moim zdaniem, znajomość tych parametrów jest kluczowa – szczególnie, jeśli ktoś pracuje przy produkcji muzycznej czy nawet po prostu zgrywa własne kolekcje płyt. Warto pamiętać, że pliki w formacie WAV czy AIFF, zgodne ze standardem CD, zawsze są znacznie większe niż popularne kompresowane MP3. Jednak tylko takie formaty trzymają pełnię jakości. Co ciekawe, to jeden z powodów, dla których płyty CD mogły pomieścić zazwyczaj ok. 74-80 minut muzyki – więcej się po prostu nie mieściło. Tu widać, czemu dobrze znać realne rozmiary takich plików.

Pytanie 32

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów na sekundę w transmisji danych.
B. próbek na sekundę w transmisji danych.
C. próbek opisanych jednym bitem.
D. bitów dostępnych do opisu każdej próbki sygnału.
Często spotyka się pewne nieporozumienia wokół pojęcia rozdzielczości bitowej, zwłaszcza w kontekście sygnałów cyfrowych. Wiele osób myli ją z innymi parametrami, takimi jak liczba próbek na sekundę (częstotliwość próbkowania) czy przepływność (bity na sekundę), które odnoszą się do zupełnie innych aspektów transmisji i przetwarzania sygnałów. Rozdzielczość bitowa nie opisuje liczby próbek, ani tego, ile bitów przesyłamy w ciągu sekundy, lecz mówi o tym, ile bitów przeznaczamy na zapis jednej próbki sygnału. To kluczowe, bo decyduje o tym, jak dokładnie możemy odwzorować poziomy sygnału analogowego w postaci cyfrowej. W praktyce, ograniczenie rozdzielczości bitowej skutkuje większym błędem kwantyzacji, czyli tzw. szumem kwantyzacji – co szczególnie słychać np. w niskiej jakości nagraniach dźwiękowych lub w obrazach z małą głębią kolorów. Przepływność (bity na sekundę) jest ważna w transmisji danych, bo określa, ile informacji przesyłamy w jednostce czasu, ale to nie to samo co rozdzielczość próbki. Z kolei liczba próbek na sekundę, czyli częstotliwość próbkowania, decyduje, z jaką szczegółowością czasową rejestrujemy sygnał – ale nie mówi nic o tym, jak precyzyjnie odwzorowujemy wartości amplitudy każdej próbki. Moim zdaniem, błędne utożsamianie tych pojęć wynika najczęściej z pobieżnego podejścia do tematu lub zbyt ogólnych informacji w źródłach popularnonaukowych. W praktycznych zastosowaniach, np. przy konfiguracji sprzętu audio czy doborze przetworników analogowo-cyfrowych, takie nieporozumienia mogą prowadzić do złych wyborów sprzętowych, co potem przekłada się na jakość końcową systemu. Dlatego warto dokładnie wiedzieć, co znaczy rozdzielczość bitowa i jakie ma ona znaczenie w cyfrowym przetwarzaniu sygnałów.

Pytanie 33

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 35 MB
C. 15 MB
D. 45 MB
To jest bardzo dobra odpowiedź, bo dokładnie trafia w praktyczne obliczenia związane z plikami audio wysokiej jakości. Stereofoniczny plik .wav przy 96 kHz, 24 bitach i długości 1 minuty zajmuje około 33 MB – zwykle zaokrągla się to do 35 MB, bo często sumuje się kilka dodatkowych kilobajtów metadanych czy nagłówka WAV. Wynika to z prostego wzoru: częstotliwość próbkowania × liczba bitów × liczba kanałów × czas (w sekundach), czyli 96 000 × 24 × 2 × 60 = 276 480 000 bitów, co po przeliczeniu daje 33 177 600 bajtów (~33 MB). Przy produkcji muzycznej czy nagraniach studyjnych takie parametry są standardem, bo gwarantują bardzo wysoką jakość dźwięku. W praktyce branżowej pliki WAV są bezstratne, więc często używa się ich właśnie do masteringu, archiwizacji czy obróbki audio, zanim zostaną skonwertowane do lżejszych formatów. Często ktoś pyta, dlaczego pliki WAV są takie duże – no, odpowiedź jest prosta: żadnej kompresji, wszystkie próbki są zachowywane w pełnej rozdzielczości. Warto wiedzieć, że różne DAWy czy sprzęty mogą mieć jeszcze swoje specyficzne nagłówki, ale podstawa matematyczna zawsze zostaje ta sama. Takie wiedza bardzo przydaje się, jeśli planujesz kupować dyski do studia albo archiwizować duże sesje nagraniowe. Szczerze mówiąc, moim zdaniem, kto raz to policzy, już nigdy nie zapomina, że dźwięk wysokiej klasy po prostu waży swoje.

Pytanie 34

Na płycie DVD zawierającej materiał dźwiękowy nagrany w formacie 5.1 należy umieścić opis

A. Dolby Stereo.
B. Dolby Digital EX.
C. Dolby Surround.
D. Dolby Digital.
Odpowiedź Dolby Digital jest jak najbardziej trafiona, bo właśnie ten format od dawna jest standardem w przypadku zapisu dźwięku wielokanałowego 5.1 na płytach DVD. Takie rozwiązanie umożliwia zapis sześciu niezależnych kanałów audio – chodzi o lewy, prawy, centralny, dwa tylne (surround) i subwoofer (Low Frequency Effects, czyli .1). Moim zdaniem, w branży rozrywkowej i filmowej nie znajdziesz bardziej popularnego standardu, jeśli idzie o DVD. W praktyce, kiedy kupujesz film na DVD z nagraniem w systemie 5.1, na pudełku czy w opisie zawsze będzie właśnie oznaczenie Dolby Digital. To jest wymóg licencyjny i taka informacja dla użytkownika, bo pozwala od razu rozpoznać, jakiego sprzętu potrzebujesz, żeby w pełni wykorzystać potencjał ścieżki dźwiękowej. Warto dodać, że Dolby Digital jest też elastyczne – pozwala na kodowanie zarówno prostych ścieżek stereo, jak i zaawansowanych konfiguracji kinowych. Podobne rozwiązania stosuje się w telewizji cyfrowej czy streamingu, ale na DVD to właśnie Dolby Digital dominuje. Taka standaryzacja daje pewność kompatybilności z amplitunerami kina domowego i innymi urządzeniami audio. Dla branży to po prostu dobry kompromis między jakością a rozmiarem pliku i dostępnością dla użytkownika. Fajnie też wiedzieć, że Dolby Digital powstało w latach 90., a do dziś pozostaje jednym z najważniejszych formatów dla dźwięku przestrzennego na różnych nośnikach optycznych.

Pytanie 35

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 98 000 Hz
B. 44 100 Hz
C. 48 000 Hz
D. 196 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 36

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. RIFF
B. MP3
C. WAV
D. CDA
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 37

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. ABR
B. MBR
C. VBR
D. CBR
CBR, czyli Constant Bit Rate, to skrót, który faktycznie oznacza stałą przepływność bitową sygnału cyfrowego. W praktyce, gdy coś jest kodowane z użyciem CBR, ilość danych przesyłanych lub zapisywanych na sekundę jest zawsze taka sama. To bywa bardzo przydatne, zwłaszcza gdy mamy do czynienia z transmisją na żywo, streamingiem albo sieciami o ograniczonej lub przewidywalnej przepustowości, np. radioliniami czy łączami satelitarnymi. Moim zdaniem to jedno z częściej spotykanych ustawień w profesjonalnych systemach nadawczych – pozwala łatwiej przewidzieć obciążenie sieci. Standardy takie jak MPEG-2, MPEG-4 czy H.264 rekomendują stosowanie CBR w sytuacjach, gdy wymagana jest powtarzalność i stabilność przesyłu. Warto też wiedzieć, że CBR jest wykorzystywany np. przy nagrywaniu na płytach DVD lub w telewizji cyfrowej, bo wtedy dużo łatwiej zaplanować miejsce na nośniku czy pasmo transmisji. Z mojego doświadczenia – CBR nie zawsze daje najlepszą jakość przy tej samej objętości pliku, ale za to jest przewidywalny, co w infrastrukturze sieciowej potrafi być kluczowe. Chociaż czasami można usłyszeć, że jest to rozwiązanie „mało elastyczne”, to jednak jego prostota ma ogromną wartość właśnie tam, gdzie nie ma miejsca na skoki bitrate’u.

Pytanie 38

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 20 bitów.
B. 24 bity.
C. 16 bitów.
D. 8 bitów.
24-bitowa rozdzielczość bitowa to dziś taki złoty standard w profesjonalnych zastosowaniach dźwiękowych i nie ma w tym przypadku. Im więcej bitów w próbkowaniu sygnału audio, tym mniejszy poziom szumów kwantyzacji – to po prostu matematyka. Szum kwantyzacji wynika z ograniczonej liczby poziomów, na które dzielimy amplitudę sygnału. Przy 8-bitach tych poziomów jest raptem 256, przy 16 już 65 536, a przy 24 bitach aż ponad 16 milionów. Przekłada się to na bardzo dużą dokładność odtworzenia każdego cichego niuansu nagrania, szczególnie jeśli chodzi o dynamikę, np. w muzyce klasycznej czy przy masteringu nagrań. Profesjonalne studia nagraniowe korzystają z 24 bitów właśnie po to, by zachować jak największą szczegółowość i minimalizować artefakty kwantyzacji. Co ciekawe, standardy dystrybucji muzyki, jak CD-Audio, zatrzymały się na 16 bitach, ale w praktyce podczas nagrywania i produkcji używa się 24, a czasem nawet więcej – potem przy eksporcie się to redukuje. Moim zdaniem, jak ktoś poważnie myśli o pracy z dźwiękiem, powinien znać tę zależność. Z mojego doświadczenia różnica najbardziej słyszalna jest przy obróbce wielokrotnej, bo szumy łatwo się kumulują. Minimum 24 bity to już taka solidna podstawa przy profesjonalnej pracy z dźwiękiem, jak i w zastosowaniach audiofilskich.

Pytanie 39

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 255
B. 99
C. 127
D. 55
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.

Pytanie 40

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Stereo
B. Dolby TrueHD
C. Dolby Digital Live
D. Dolby Digital
Dolby TrueHD to obecnie jeden z najbardziej zaawansowanych formatów dźwięku wielokanałowego dostępnych na domowych nośnikach takich jak Blu-ray Disc. Jego największą zaletą jest bezstratne kodowanie, czyli zapisywanie i odtwarzanie dźwięku w jakości identycznej z oryginałem studyjnym. To właśnie pozwala na zapisanie aż 8 kanałów dźwięku (konfiguracja 7.1), co jest standardem w kinie domowym. Sam miałem okazję porównać ścieżki Dolby Digital i Dolby TrueHD na tym samym zestawie – różnica w szczegółowości i dynamice jest bardzo wyraźna, zwłaszcza przy odsłuchu na dobrym amplitunerze i kolumnach. Dolby TrueHD jest zgodny ze specyfikacją Blu-ray, co pozwala producentom filmów na oferowanie nawet bardzo wymagających, kinowych ścieżek dźwiękowych, zgodnych z oczekiwaniami audiofilów i entuzjastów kina. W praktyce, jeśli zależy komuś na pełnym wykorzystaniu możliwości zestawu 7.1, to właśnie ten kodek jest najlepszym wyborem, bo nie traci się żadnych detali, nawet w bardzo dynamicznych scenach. Często też w ustawieniach odtwarzacza lub amplitunera można przełączyć tryb odtwarzania między Dolby Digital a Dolby TrueHD i warto wtedy posłuchać tej różnicy. Z mojego doświadczenia wynika, że Dolby TrueHD to nie tylko marketing – faktycznie słychać zupełnie inny poziom realizmu dźwięku, zwłaszcza przy koncertach czy filmach akcji. W branży uznaje się, że jeżeli zależy Ci na perfekcyjnej reprodukcji dźwięku z Blu-ray, to TrueHD jest pewnym standardem i warto wiedzieć, jak rozpoznać ten format na opakowaniu czy w specyfikacji sprzętu.