Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 18 kwietnia 2026 14:57
  • Data zakończenia: 18 kwietnia 2026 14:58

Egzamin niezdany

Wynik: 2/40 punktów (5,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Jednostką przepływności bitowej pliku w formacie .mp3 jest

A. kB/s
B. MB/s
C. kb/s
D. kB/ms
Jednostką przepływności bitowej dla plików w formacie .mp3 faktycznie jest kb/s, czyli kilobity na sekundę. To się nazywa „bitrate” i określa, ile tysięcy bitów danych jest przesyłane w ciągu jednej sekundy odtwarzania. Moim zdaniem praktycznie każdy, kto miał kiedyś kontakt z edycją lub konwersją plików audio, zetknął się z tym pojęciem – zawsze przy zapisie czy konwersji mp3 wybierasz np. 128 kb/s, 192 kb/s czy 320 kb/s. Im wyższy bitrate, tym lepsza jakość dźwięku, ale i większy rozmiar pliku. W branży muzycznej oraz podczas kompresji dźwięku, właśnie ta jednostka pozwala ocenić jakość nagrania. Standardy mp3 jasno określają stosowanie kilobitów na sekundę jako podstawowej jednostki – to nawet w dokumentacji MPEG jest tak opisane. W praktyce nie spotyka się wartości podanych w kB/s (kilobajtach na sekundę), bo wtedy łatwo się pomylić (1 bajt to 8 bitów). Dla porównania – streaming muzyki w serwisach typu Spotify czy YouTube Music bardzo często podaje bitrate w kb/s, bo to od razu określa, czy dźwięk jest bardziej „skompresowany” czy raczej zbliżony do oryginału. Widać to w programach do odtwarzania muzyki, gdzie np. Winamp czy Foobar informują, że plik .mp3 ma bitrate 192 kb/s. To jest taka branżowa norma, że aż dziwnie by było spotkać coś innego. Przy projektowaniu systemów przesyłania audio, np. przez internet, zawsze stosuje się właśnie te jednostki. W praktyce – wartość bitrate'u decyduje o tym, ile danych zużyjemy słuchając muzyki i jaka będzie jakość. Także bardzo dobrze, że wskazałeś właśnie kb/s.

Pytanie 2

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Dysk SSD
B. Płyta CD
C. Karta SD
D. Płyta DVD
Dysk SSD to naprawdę mistrz, jeśli chodzi o szybki odczyt danych – moim zdaniem to obecnie absolutny standard w komputerach i serwerach, gdzie liczy się czas dostępu. Wynika to z faktu, że SSD, czyli dysk półprzewodnikowy, nie ma żadnych ruchomych części, całe operacje odbywają się elektronicznie. Dzięki temu odczyt danych jest niemal natychmiastowy, a czasy dostępu liczymy w mikrosekundach, a nie milisekundach, jak w starszych rozwiązaniach. W praktyce, gdy porównasz SSD do płyty CD czy nawet karty SD, różnica jest kolosalna – system operacyjny uruchamia się w kilka sekund, a transfery potrafią sięgać nawet kilkuset megabajtów na sekundę (NVMe jeszcze szybciej, nawet powyżej 3000 MB/s). W branży IT przyjęło się już, że do zastosowań profesjonalnych czy gamingowych nie stosuje się starych dysków talerzowych, a już na pewno nie nośników optycznych. Z mojego doświadczenia mogę powiedzieć, że wymiana starego dysku na SSD daje większego „kopa” komputerowi niż upgrade procesora czy RAM-u. Standardy takie jak SATA III czy PCIe NVMe wyznaczają dziś normy prędkości i niezawodności. Branżowo mówi się wręcz, że bez SSD praca na dużych plikach czy obróbka wideo to męczarnia. Wypada dodać, że SSD są też bardziej odporne na wstrząsy, co w laptopach bywa zbawienne. Podsumowując: SSD pod względem szybkości i komfortu użytkowania to prawdziwa rewolucja.

Pytanie 3

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 16 bitów.
B. 8 bitów.
C. 24 bity.
D. 32 bity.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 4

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.wav
B. *.mp3
C. *.aiff
D. *.riff

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kodek LAME jest bardzo popularny w środowisku audio, szczególnie jeśli chodzi o tworzenie plików w formacie MP3. To właśnie LAME odpowiada za kodowanie dźwięku do tego formatu, wykorzystując kompresję stratną, czyli umożliwiając znaczne zmniejszenie rozmiaru pliku przy minimalnej utracie jakości (oczywiście zależy też od ustawionych parametrów bitrate). MP3 to obecnie jeden z najbardziej rozpoznawalnych i najczęściej używanych formatów audio na całym świecie – spotykamy go zarówno w odtwarzaczach muzycznych, telefonach, jak i radiu internetowym. LAME jest otwartoźródłowym kodekiem i często jest wykorzystywany przez różne aplikacje do konwersji plików audio z formatu WAV czy AIFF właśnie do plików MP3. W branży muzycznej, szczególnie przy przygotowywaniu podkładów lub dystrybucji muzyki w sieci, konwersja do MP3 jest standardową praktyką – pozwala to na szybkie udostępnianie utworów bez zajmowania zbyt dużo miejsca na serwerze lub dysku użytkownika. Z mojego doświadczenia warto pamiętać, że LAME pozwala na wybór różnych ustawień kompresji, a więc można balansować pomiędzy jakością dźwięku a wielkością pliku. W praktyce, jeśli ktoś ma do czynienia z montażem lub produkcją audio, LAME staje się nieodzownym narzędziem, właśnie ze względu na wsparcie dla plików .mp3. Żaden z pozostałych wymienionych formatów nie jest docelowym wyjściem dla LAME – to właśnie MP3 jest tym, co wyróżnia ten kodek na tle innych.

Pytanie 5

Częstotliwość próbkowania 48 kHz jest wykorzystywana na potrzeby

A. produkcji dźwięku w telewizji.
B. płyt mp3.
C. transmisji zakresu mowy.
D. płyt CD-Audio.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Częstotliwość próbkowania 48 kHz to taki trochę złoty standard właśnie w telewizji i ogólnie w branży związanej z produkcją wideo. Stosuje się ją w większości profesjonalnych środowisk audio-wideo, głównie ze względu na to, jak jest ustawiona infrastruktura broadcastowa i sprzęt studyjny. W praktyce, praktycznie wszystkie kamery, rejestratory dźwięku, miksery czy systemy montażowe pracują domyślnie na 48 kHz. To wynika z faktu, że ta wartość daje bardzo dobrą jakość dźwięku, znacznie przewyższającą ludzkie potrzeby percepcyjne (słyszymy do ok. 20 kHz), ale jednocześnie nie generuje zbyt dużych plików jak wyższe częstotliwości. Jest to kompromis między jakością a wydajnością – przetwarzanie dźwięku w tej rozdzielczości jest szybkie i nie obciąża tak mocno sprzętu. Moim zdaniem, dobrze wiedzieć, że różne branże mają różne standardy: np. płyty CD zawsze trzymają się 44,1 kHz, a telewizja twardo 48 kHz. Dodatkowo, jeśli kiedykolwiek trzeba będzie synchronizować dźwięk z obrazem w filmie czy reklamie, trzymanie się 48 kHz ułatwi współpracę z resztą ekipy. Naprawdę warto to zapamiętać – w telewizji i filmie 48 kHz to praktycznie obowiązek. Tak jako ciekawostka: nawet nagrania do podcastów czy YouTube coraz częściej robi się w tej jakości, żeby potem nie mieć problemów z eksportem do wideo.

Pytanie 6

W jakim formacie plików występują znaczniki ID3?

A. .wav
B. .mp3
C. .bwf
D. .aiff

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.

Pytanie 7

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .wav, 192 kHz, 8 bitów.
B. .wav, 96 kHz, 8 bitów.
C. .aiff, 48 kHz, 16 bitów.
D. .aiff, 96 kHz, 16 bitów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 8

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Kaseta DAT.
B. Dysk M.O.
C. Płyta DVD.
D. Kaseta CC.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Płyta DVD jest tutaj najrozsądniejszym wyborem, jeśli chodzi o przechowywanie danych w środowisku, gdzie występuje silne pole magnetyczne. Dlaczego? Nośniki optyczne, takie jak DVD, zapisują dane poprzez fizyczną zmianę struktury materiału pod wpływem lasera – nie mają żadnych elementów magnetycznych, które mogłyby ulec rozmagnesowaniu. W praktyce, nawet bardzo silne pole magnetyczne nie ma praktycznie żadnego wpływu na zapisane na DVD informacje. W branży IT, szczególnie przy archiwizacji długoterminowej, często stosuje się właśnie nośniki optyczne tam, gdzie istnieje ryzyko wystąpienia zakłóceń elektromagnetycznych. To podejście jest zgodne z rekomendacjami np. normy ISO/IEC 27040 dotyczącej bezpieczeństwa przechowywania danych. Co ciekawe, w instytucjach takich jak archiwa państwowe albo większe biblioteki cyfrowe, nośniki optyczne są nadal używane do przechowywania kluczowych danych właśnie ze względu na ich odporność na oddziaływanie pól magnetycznych i wysoką trwałość – oczywiście, pod warunkiem przechowywania w odpowiednich warunkach. Moim zdaniem, jeśli ktoś szuka niezawodności przeciwko wpływowi magnesów czy nagłych impulsów elektromagnetycznych, zdecydowanie powinien postawić na nośniki optyczne. To taka trochę stara, ale niezawodna szkoła. Warto przy tym pamiętać, że choć DVD są odporne na pole magnetyczne, nie są wieczne – zabezpieczenie przed zarysowaniami i światłem UV też jest istotne, o czym sporo się mówi na kursach z archiwizacji cyfrowej.

Pytanie 9

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. TOSLINK
B. DIN
C. TDIF
D. BNC

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 10

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. wolniejszych i o lepszej jakości.
B. wolniejszych i o słabszej jakości.
C. szybszych i o lepszej jakości.
D. szybszych i o słabszej jakości.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 11

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 5 MB
B. 10 MB
C. 24 MB
D. 16 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Właśnie o to chodziło – dla nagrania stereo o długości 1 minuty i 30 sekund (czyli 00:01:30:00 w SMPTE) zapisanej w formacie CD-Audio, rozmiar 16 MB jest najbardziej trafny. W praktyce CD-Audio korzysta z próbkowania 44,1 kHz i 16-bitowej głębi dla każdego z dwóch kanałów. To oznacza 44100 próbek na sekundę * 16 bitów (czyli 2 bajty) * 2 kanały = 176400 bajtów na sekundę. Przemnażając to przez czas nagrania (90 sekund), dostajemy 15 876 000 bajtów, co po przeliczeniu na megabajty (dzielimy przez 1 048 576) daje około 15,1 MB. Jednak w praktyce zaokrągla się to do 16 MB ze względu na nadmiarowość sektorów CD lub uproszczone kalkulacje w branży. Tak się to robi w studiach nagraniowych i przy masteringu płyt – warto znać takie przeliczniki i umieć je wykorzystać, bo planowanie przestrzeni na nośniku to wciąż ważny temat. Moim zdaniem fajnie jest pamiętać, że dźwięk nieskompresowany potrafi szybko zajmować dużo miejsca, co tłumaczy popularność kompresji w codziennym użytku. Standard CD-Audio (Red Book) od lat pozostaje wzorem przy archiwizacji i profesjonalnym przygotowaniu ścieżek dźwiękowych. Właśnie dlatego, jeśli ktoś pyta o rozmiar takiego nagrania, 16 MB to najbardziej rzetelna odpowiedź zgodna z praktyką branżową.

Pytanie 12

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. ALAC
B. WAV
C. AAC
D. AIFF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format AAC to przykład kodowania stratnego, które jest na co dzień wykorzystywane w usługach streamingowych, takich jak Spotify, YouTube czy Apple Music. W przeciwieństwie do formatów bezstratnych, takich jak ALAC czy WAV, AAC kompresuje dźwięk, usuwając część informacji uznanych za mniej istotne dla ludzkiego ucha. Najważniejsze jest to, że całość procesu opiera się na psychoakustycznych modelach percepcji dźwięku – algorytm stara się zredukować dane, których i tak nie usłyszymy. Moim zdaniem, w praktyce bardzo często nie odróżniamy dobrej jakości plików AAC od oryginału, szczególnie gdy słuchamy w słuchawkach bluetooth albo w aucie. Technologia AAC jest następcą MP3, oferując lepszą jakość przy mniejszym rozmiarze pliku, co jest ogromną zaletą np. przy przesyłaniu muzyki przez sieć lub przechowywaniu dużych bibliotek na telefonie. Standard ten jest szeroko wspierany przez urządzenia mobilne, konsole do gier i smart TV. Warto wiedzieć, że format AAC został zaimplementowany jako domyślny kodek audio w standardzie MPEG-4. To rozwiązanie jest rekomendowane w branży, kiedy zależy nam na kompromisie między jakością a objętością danych – do podcastów, audiobooków czy transmisji na żywo. Nie bez powodu Apple używa AAC w swoim całym ekosystemie. I szczerze, jeśli ktoś korzysta z internetu mobilnego, to kompresja stratna jest po prostu praktyczniejsza.

Pytanie 13

Jaka jest maksymalna pojemność karty RS-MMC?

A. 16 GB
B. 64 GB
C. 128 GB
D. 2 GB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 14

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. 6.1
B. Mono
C. Stereo
D. 5.1

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 15

Wskaż nośnik, który można przechowywać w pobliżu głośników, bez obaw o utratę danych.

A. Płyta Blu-ray.
B. Taśma magnetofonowa.
C. MiniDisc.
D. Kaseta VHS.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Płyta Blu-ray to nośnik optyczny, co oznacza, że do zapisu i odczytu danych wykorzystuje światło lasera, a nie pole magnetyczne. Z tego względu nie jest podatna na wpływ pola magnetycznego, jakie wytwarzają głośniki czy inne urządzenia elektroniczne. W praktyce, w branży IT i w zastosowaniach domowych, płyty Blu-ray, podobnie jak DVD czy płyty CD, można spokojnie przechowywać nawet w pobliżu silnych głośników, bez ryzyka utraty danych czy uszkodzenia zawartości. To ogromna przewaga nad nośnikami magnetycznymi, gdzie ryzyko rozmagnesowania i utraty informacji jest całkiem realne. Sam kiedyś przechowywałem filmy na Blu-ray zaraz obok kolumn i nigdy nie miałem z tym problemu. To trochę taki standard branżowy – optyczne nośniki są odporne na pole magnetyczne, co czyni je dużo bezpieczniejszym wyborem w tego typu lokalizacjach. Dodatkowa zaleta to długowieczność – prawidłowo przechowywane płyty Blu-ray mogą przetrwać kilkanaście czy nawet kilkadziesiąt lat, o ile nie porysują się mechanicznie. Warto jednak pamiętać, żeby unikać ekstremalnych temperatur czy ekspozycji na światło słoneczne, bo to rzeczywiście może już im zaszkodzić. W sumie, przechowywanie Blu-ray przy głośnikach nie niesie za sobą żadnego ryzyka związanego z ich konstrukcją i technologią zapisu.

Pytanie 16

LTC, VITC, MTC to niektóre z formatów

A. plików dźwiękowych bez kompresji.
B. kodeka MPEG.
C. kodu czasowego.
D. plików projektu DAW.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
LTC, VITC i MTC to trzy najważniejsze formaty kodu czasowego wykorzystywane w profesjonalnych zastosowaniach audio-wideo. To właśnie za ich pomocą synchronizuje się różne urządzenia – na przykład magnetofony wielośladowe, miksery cyfrowe, rekordery czy systemy montażowe w studiu filmowym. Każdy z tych formatów ma swoje konkretne zastosowania: LTC (Linear Time Code) to kod czasowy zapisany liniowo jako sygnał analogowy, często wykorzystywany na taśmach magnetycznych lub przesyłany kablem. VITC (Vertical Interval Time Code) wpisywany jest bezpośrednio w niewidoczną część sygnału wizyjnego, co umożliwia odczyt nawet przy bardzo niskich prędkościach odtwarzania. MTC (MIDI Time Code) bazuje na protokole MIDI i służy głównie w środowiskach muzycznych oraz DAW-ach do synchronizacji programów i urządzeń. Moim zdaniem zrozumienie różnic pomiędzy tymi trzema kodami czasowymi to absolutna podstawa dla każdego, kto chce profesjonalnie zajmować się dźwiękiem lub postprodukcją wideo. W praktyce, jeżeli np. synchronizujesz nagrania z kilku kamer albo chcesz, żeby automat do efektów światła chodził równo z dźwiękiem, kod czasowy to jedyne sensowne rozwiązanie. W branży stosuje się te standardy od dekad – bez nich trudno wyobrazić sobie profesjonalne studio czy plan filmowy.

Pytanie 17

Który z podanych formatów cyfrowej archiwizacji nagrań oferuje wysoką jakość dźwięku przy oszczędności miejsca na dysku?

A. .wav
B. .wma
C. .flac
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format .flac to naprawdę świetny wybór, jeśli chodzi o cyfrową archiwizację nagrań. Praktyka pokazuje, że FLAC, czyli Free Lossless Audio Codec, umożliwia bezstratną kompresję dźwięku. Oznacza to, że plik .flac jest lżejszy od surowego .wav, ale nie traci przy tym nic na jakości. To trochę jak kompresja pliku ZIP, tylko że dla muzyki – nie gubisz żadnych danych, a oszczędzasz miejsce. W branży archiwizacyjnej i studyjnej to praktycznie standard, bo daje pewność, że nagranie będzie mogło być w przyszłości odtworzone w jakości identycznej z oryginałem, a jednocześnie łatwiej nim zarządzać dzięki mniejszemu rozmiarowi. U mnie w pracy często spotykam się z tym, że archiwa cyfrowe dużych rozgłośni czy bibliotek dźwiękowych są właśnie w FLAC-u. To też bardzo przyszłościowe rozwiązanie, bo FLAC jest szeroko wspierany i otwarty – nie ma tu problemów z patentami. W porównaniu do stratnych formatów, jak MP3 czy WMA, nie ma degradacji jakości, a w odróżnieniu od WAV nie zabiera tyle miejsca – czasem nawet dwa razy mniej. Jeśli ktoś myśli o trwałej archiwizacji albo pracy studyjnej, FLAC to naprawdę dobry ruch.

Pytanie 18

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. FLAC
B. MP3
C. RIFF
D. WAV

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format MP3 to chyba najbardziej znany przykład kodowania stratnego dźwięku. W praktyce oznacza to, że podczas kompresji pliku MP3 pewne fragmenty oryginalnego sygnału są trwale usuwane, najczęściej te, które według psychoakustyki są dla ludzkiego ucha najmniej słyszalne. Dzięki temu pliki są dużo mniejsze, a jakość – przy właściwie dobranych ustawieniach – dalej stoi na niezłym poziomie. Moim zdaniem MP3 zrewolucjonizowało sposób przechowywania i przesyłania muzyki, bo wcześniej na dyskach czy w internecie pliki audio były olbrzymie i niepraktyczne. Stosowanie kodowania stratnego w MP3 stało się standardem w branży, zwłaszcza tam, gdzie liczy się oszczędność miejsca i przepustowości, np. w serwisach streamingowych czy przenośnych odtwarzaczach. Kodowanie stratne ma też swoje minusy – przy niskich bitrate’ach da się wyłapać artefakty kompresji, ale dla „zwykłego” słuchania na słuchawkach czy w samochodzie MP3 dalej daje radę. Ciekawostka: oryginalny standard MPEG-1 Audio Layer III (stąd skrót MP3) opracowano już w latach 90., a mimo postępu technologii ten format ciągle jest żywy. Oczywiście, dla archiwizacji czy profesjonalnego audio lepiej stosować bezstratne formaty (jak FLAC), ale w codziennym zastosowaniu MP3 to szybki, praktyczny wybór.

Pytanie 19

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.opus
B. *.tiff
C. *.amr
D. *.ac3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie *.tiff faktycznie nie jest związane z plikami dźwiękowymi, tylko z grafiką rastrową. Format TIFF (Tagged Image File Format) jest szeroko wykorzystywany w profesjonalnej fotografii, druku czy skanowaniu dokumentów, bo umożliwia przechowywanie obrazów wysokiej jakości bez strat. Co ciekawe, TIFF pozwala na zapis wielu warstw oraz kanałów alfa, co daje spore pole do popisu przy edycji zdjęć, archiwizacji czy w pracy z dużymi plikami graficznymi. W odróżnieniu od formatów takich jak *.opus, *.amr czy *.ac3 – które są stricte skojarzone z dźwiękiem, kodowaniem głosu lub dźwięku przestrzennego – TIFF nie przechowuje dźwięku ani metadanych audio. Moim zdaniem, rozpoznawanie takich rozszerzeń to absolutna podstawa w pracy z multimediami, szczególnie gdy zarządzasz dużą ilością różnego typu plików. W praktyce, kiedy widzisz plik z rozszerzeniem .tiff, możesz śmiało założyć, że to albo zdjęcie, albo skan, nie nagranie audio. Branża IT czy grafiki komputerowej mocno stawia na rozdzielenie formatów, żeby uniknąć bałaganu i przypadkowego mieszania treści – to naprawdę się sprawdza. Na co dzień warto mieć tę wiedzę, bo oszczędza sporo czasu przy porządkowaniu zasobów.

Pytanie 20

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 2 ms
B. 0,02 ms
C. 20 ms
D. 0,2 ms

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tutaj kluczowa jest znajomość czym jest częstotliwość próbkowania – 48 kHz oznacza, że w ciągu jednej sekundy pobieranych jest 48 tysięcy próbek sygnału dźwiękowego. Odstęp między kolejnymi próbkami to po prostu odwrotność tej częstotliwości. Licząc: 1 / 48000 = 0,00002083 sekundy, co daje właśnie 0,02 milisekundy (ms). To niesamowicie krótki czas, ale w audio cyfrowym to już branżowy standard, zwłaszcza jeśli chodzi o profesjonalne studio lub transmisję radiową. Z mojego punktu widzenia, bardzo ważna jest świadomość, że im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, bo mniej informacji nam „ucieka”. W praktyce, 48 kHz wykorzystuje się na co dzień w telewizji, filmie czy nagrywaniu podcastów, bo daje to dobrą jakość bez ogromnych wymagań dla sprzętu. Takie parametry pozwalają wiernie zarejestrować nawet szybkie zmiany w dźwięku, dlatego mikrofony, interfejsy audio czy rejestratory często mają domyślnie ustawione właśnie 48 kHz. Fajnie to też pokazuje, jak świat cyfrowy radzi sobie z czymś tak płynnym jak dźwięk – po prostu dzieli go na bardzo krótkie „kawałki”, z których później składa się całość. Ta wiedza przydaje się nie tylko w informatyce, ale też w elektronice czy produkcji muzyki.

Pytanie 21

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. wciągania plików dźwiękowych do sesji montażowej.
B. masteringu nagrania.
C. zapisywania pliku wynikowego.
D. edycji nagrania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór ostatecznego formatu i parametrów pliku dźwiękowego to, moim zdaniem, jeden z najważniejszych momentów w całym procesie pracy z dźwiękiem. To właśnie podczas zapisywania pliku wynikowego decydujesz, czy Twój utwór będzie w formacie WAV, MP3, FLAC, a może jeszcze innym. Wtedy ustawiasz też takie rzeczy jak częstotliwość próbkowania (na przykład 44,1 kHz lub 48 kHz), głębię bitową (16 bitów, 24 bity), ewentualną kompresję i wiele innych detali. Dlatego branżowym standardem jest, żeby na tym etapie być bardzo uważnym – nie raz już widziałem, jak nawet świetne miksy traciły na jakości przez nieprzemyślany eksport. Przykładowo, jeśli nagrywasz muzykę na CD, musisz wyeksportować plik do WAV 16 bitów 44,1 kHz, bo taki jest wymóg płyty. Z kolei do serwisów streamingowych często zaleca się eksport 24 bity i 48 kHz, nawet jeśli finalnie pliki zostaną przekonwertowane, bo zachowuje się wtedy lepszą jakość źródłową. Dobrym zwyczajem jest też przygotowanie kilku wersji pliku: osobno do masteringu, osobno na streaming i osobno do archiwum – to bardzo pomaga uniknąć późniejszych problemów z kompatybilnością. Ustawienia te nie są wybierane automatycznie ani w trakcie montażu, ani podczas masteringu – zawsze musisz świadomie podjąć decyzję tuż przed eksportem. No i pamiętaj: formaty stratne (MP3, AAC) zawsze pogorszą jakość względem bezstratnych (WAV, FLAC), więc jeśli nie musisz, lepiej używaj bezstratnych. W mojej opinii, to właśnie kontrola nad eksportem decyduje o końcowej jakości pliku.

Pytanie 22

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW, możliwy do prawidłowego odczytania w różnych programach DAW?

A. .caf
B. .wav
C. .omf
D. .aiff

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie .omf oznacza plik Open Media Framework, który faktycznie jest szeroko wykorzystywany w branży muzycznej i postprodukcyjnej do przenoszenia projektów pomiędzy różnymi programami DAW, czyli Digital Audio Workstation. Z mojego doświadczenia wynika, że OMF to taki uniwersalny format „most”, dzięki któremu możesz przenieść całą sesję – wraz z pozycjonowaniem ścieżek, fade’ami, a czasem nawet podstawowymi informacjami o automatyzacji – z jednego środowiska do drugiego. Szczególnie przy większych projektach, gdzie pracują ze sobą osoby korzystające z różnych DAW, OMF jest niemalże standardem. Przykładowo, jeżeli ktoś zaczyna miks w Cubase, a potem całość ma być dokończona w Pro Tools, to OMF bardzo ułatwia życie, bo nie trzeba eksportować każdej ścieżki osobno jako audio. Oczywiście, nie jest to format doskonały – nie wszystkie efekty czy wtyczki się przeniosą, ale podstawowe elementy struktury projektu zostaną zachowane. Warto jeszcze wspomnieć, że OMF jest wspierany przez takie programy jak Pro Tools, Logic Pro, Cubase czy Nuendo. W odróżnieniu od typowych formatów audio (WAV, AIFF), OMF nie zawiera tylko dźwięku, ale też informacje o aranżacji sesji. To zupełnie inny poziom wymiany danych niż zwykłe pliki audio, więc na rynku pracy w branży muzycznej czy filmowej to naprawdę przydatna wiedza. Moim zdaniem, znajomość OMF-a i jego ograniczeń to podstawa dla każdego technika czy realizatora nagrań, który chce działać profesjonalnie.

Pytanie 23

Który z plików został skompresowany bezstratnie?

A. .wma
B. .oga
C. .mlp
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Plik z rozszerzeniem .mlp to Meridian Lossless Packing, czyli format kompresji bezstratnej dźwięku, stosowany m.in. w płytach DVD-Audio oraz systemach profesjonalnych. Bezstratna kompresja dźwięku polega na tym, że po dekompresji otrzymujemy dokładnie taki sam sygnał audio, jaki był początkowo – nie tracimy żadnych informacji. To sprawia, że .mlp idealnie nadaje się do zastosowań archiwizacyjnych lub studia nagraniowego, gdzie istotna jest najwyższa jakość i zachowanie oryginalnych parametrów sygnału. Spotyka się go rzadziej w codziennym użyciu niż np. FLAC, ale w branży muzycznej ma swoje miejsce, szczególnie przy masteringu lub archiwizacji materiału źródłowego. Moim zdaniem, znajomość formatów bezstratnych, takich jak .mlp, to trochę taka tajna broń audiofila czy technika z dźwięku – pozwala nie tylko prawidłowo wybrać narzędzie do zadania (czyli np. archiwizacja kontra streaming), ale też rozumieć, dlaczego niektóre pliki audio brzmią lepiej niż inne. W wielu profesjonalnych workflow, np. przy pracy z muzyką do filmu czy przy masteringu, bezstratność jest kluczowa, bo pozwala potem robić kolejne kopie, edycje i remixy bez degradacji jakości. No, a jeśli ktoś się interesuje branżą audio, warto znać nie tylko popularne skróty, ale też te mniej oczywiste jak MLP. W sumie, to taki standard branżowy dla kogoś, kto chce pracować na poważnie z dźwiękiem.

Pytanie 24

Rodzaj kodeka użytego przy konwersji pliku dźwiękowego można rozpoznać

A. po nazwie.
B. po czasie trwania.
C. po rozmiarze.
D. po rozszerzeniu nazwy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie nazwy pliku to w praktyce najprostszy i najczęściej spotykany sposób na szybkie rozpoznanie, jaki kodek został użyty do zakodowania danego pliku dźwiękowego. Przykładowo, rozszerzenie .mp3 niemal zawsze oznacza, że plik został zakodowany z użyciem kodeka MPEG-1 Layer III (popularnie znanego jako MP3), natomiast .flac wskazuje na bezstratny kodek FLAC, a .aac to zazwyczaj kodek Advanced Audio Coding. W codziennej pracy technika informatyk czy nawet zwykłego użytkownika, spojrzenie na rozszerzenie pliku pozwala szybko ocenić, jakie programy mogą go odtworzyć lub jakie urządzenia będą z nim kompatybilne. Warto pamiętać, że rozszerzenie nie zawsze jest stuprocentowo pewnym wskaźnikiem - plik można nazwać dowolnie, ale w praktyce większość systemów operacyjnych i programów trzyma się tej konwencji, bo to ułatwia życie. Moim zdaniem rozszerzenia są jednym z podstawowych narzędzi rozpoznawania formatu pliku, zwłaszcza w środowiskach Windows czy Linux, gdzie asocjacje plików są oparte właśnie na nich. W branży multimedialnej to rozszerzenie jest pierwszym miejscem, gdzie zaglądasz, chcąc szybko się dowiedzieć, z czym masz do czynienia. Oczywiście, dla pełnej pewności warto czasem skorzystać z narzędzi typu MediaInfo, które jeszcze dokładniej pokażą, jakim kodekiem plik został zakodowany, ale na co dzień rozszerzenie po prostu wystarcza. Standardy organizacji takich jak ISO/IEC lub ITU rekomendują utrzymywanie spójności rozszerzeń plików, co jeszcze bardziej podkreśla wagę tej metody w praktyce.

Pytanie 25

Jaki jest przybliżony rozmiar nieskompresowanego stereofonicznego pliku dźwiękowego o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów?

A. Około 20 MB
B. Około 30 MB
C. Około 5 MB
D. Około 10 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W tej sytuacji wybrano rozmiar około 20 MB i to jest właśnie poprawne podejście – wszystko wynika z prostych obliczeń i trochę znajomości branżowych standardów. Plik audio o parametrach: 44,1 kHz, 16 bitów, stereo, to tak naprawdę klasyczne ustawienie dla jakości płyt CD Audio, no i w ogóle bardzo często spotykane w produkcji muzyki albo podcastów. Liczysz to w ten sposób: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały × 120 sekund. Szybko wychodzi: 44 100 × 2 × 2 × 120 = 21 168 000 bajtów, czyli mniej więcej 21 MB (przy zamianie na megabajty dzielisz przez 1 048 576). Owszem, czasami ktoś zaokrągla do 20 MB, bo nie liczy nagłówków pliku WAV czy AIFF, ale do praktycznych zastosowań to wystarcza. Takie pliki WAV są często używane przy obróbce dźwięku, bo nie tracą nic na jakości w przeciwieństwie do MP3, no i każdy program do montażu czy rejestrator spokojnie sobie z nimi radzi. Moim zdaniem, warto pamiętać takie wyliczenia, bo potem łatwiej dobrać miejsce na dysku, zwłaszcza jak się nagrywa dłuższe projekty. W branży IT i audio przyjęło się, że 44,1 kHz/16 bitów stereo to taki trochę złoty środek między jakością a rozmiarem – choć dziś już można używać większych parametrów, to do codziennej pracy to w zupełności wystarcza.

Pytanie 26

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. dysk twardy.
B. pendrive.
C. płytę CD-R.
D. pamięć Memory Stick.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dokładnie, płyta CD-R to klasyczny nośnik wykorzystywany przy optycznej metodzie zapisu danych, w tym materiałów muzycznych. W praktyce polega to na tym, że dane są zapisywane za pomocą lasera na powierzchni płyty, która działa jak swoista "matryca" odbijająca światło w różny sposób, w zależności od tego, czy dany fragment został zapisany czy nie. To rozwiązanie przez długie lata było standardem – nie tylko w branży muzycznej, ale też w archiwizacji danych czy dystrybucji oprogramowania. Co ciekawe, profesjonalne tłoczenie płyt wykorzystuje podobną zasadę, chociaż jest to już bardziej skomplikowany proces przemysłowy. W warunkach domowych lub studyjnych nagranie na CD-R pozwala zachować wysoką jakość dźwięku (format Audio CD, 44,1 kHz/16 bitów), a dodatkowo nośnik ten jest od razu gotowy do odczytu przez zdecydowaną większość sprzętu audio. W branży produkcji muzycznej płyty CD-R często służą do tworzenia tzw. "masterów" lub wersji demonstracyjnych gotowych do dalszej produkcji czy promowania utworów. Sam nie raz przygotowywałem taką płytę na potrzeby przesłuchań czy weryfikacji miksu. Moim zdaniem nadal warto znać tę technologię, bo mimo popularności cyfrowych plików, w niektórych przypadkach CD-R jest wciąż niezastąpiony, zwłaszcza gdy zależy nam na trwałości zapisu i kompatybilności.

Pytanie 27

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 44,1 kHz
B. 96 kHz
C. 48 kHz
D. 88,2 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 28

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .aiff
B. .wav
C. .riff
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kodek LAME jest jednym z najbardziej znanych narzędzi służących do kompresji dźwięku do formatu MP3, czyli z rozszerzeniem .mp3. W praktyce ten kodek jest szeroko wykorzystywany w różnych profesjonalnych oraz domowych projektach audio, bo pozwala na uzyskanie dobrego kompromisu między jakością nagrania a wielkością pliku. MP3 to obecnie standardowy format wymiany plików muzycznych, zwłaszcza tam, gdzie liczy się ograniczenie rozmiaru plików, np. streaming, radia internetowe, odtwarzacze przenośne czy nawet niektóre systemy automatyki w samochodach. Warto wiedzieć, że LAME nie służy do tworzenia plików WAV, AIFF czy RIFF – te formaty to raczej kontenery bez kompresji stratnej i są używane do przechowywania dźwięku w formie bezpośredniej, bez strat jakości. Z mojego doświadczenia wynika, że LAME jest najczęściej spotykany tam, gdzie chodzi o szybkie kodowanie dużych zbiorów muzyki, np. w archiwizacji czy przygotowaniu playlist do publikacji online. Standard MP3, opisany przez organizację MPEG, jest jednym z najpopularniejszych formatów kompresji stratnej audio na świecie i kodek LAME jest uznawany za jeden z najlepiej realizujących ten algorytm – daje dobre brzmienie i bardzo szeroką kompatybilność z odtwarzaczami. Dla osób pracujących z dźwiękiem ważne jest zrozumienie, że wybierając LAME, wybieramy efektywną kompresję do formatu MP3, nie zaś do innych formatów typu WAV czy AIFF. Moim zdaniem to podstawowa wiedza dla każdego, kto choć trochę działa w branży muzycznej lub IT.

Pytanie 29

W celu zapewnienia możliwości zapisu i odczytu nośnika na komputerach z systemem Windows i MacOS, należy sformatować go z użyciem systemu plików

A. Ext4
B. FAT32
C. HFS+
D. NTFS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór systemu plików FAT32 w tym pytaniu jest jak najbardziej uzasadniony, szczególnie kiedy zależy nam na kompatybilności między różnymi systemami operacyjnymi. FAT32 to system plików, który funkcjonuje od lat 90. i do dziś jest wspierany przez praktycznie wszystkie wersje Windows oraz macOS. Dzięki temu możesz bez problemu przenosić dane pomiędzy komputerami z obu tych systemów, niezależnie czy pracujesz na starym laptopie z Windows XP, czy na najnowszym MacBooku. Co ciekawe, FAT32 obsługują też konsole do gier, aparaty cyfrowe czy smart TV, więc jak ktoś lubi mieć jeden pendrive do wszystkiego, to właśnie ten format zazwyczaj się sprawdza. Oczywiście, FAT32 ma swoje ograniczenia – na przykład nie zapiszesz pliku większego niż 4 GB, co czasem bywa problematyczne przy filmach w wysokiej jakości czy dużych archiwach. Ale do zwykłego przenoszenia dokumentów, zdjęć czy muzyki sprawdza się znakomicie. W branży IT często rekomenduje się FAT32 jako najbezpieczniejszy wybór, gdy nie mamy pewności, na jakim sprzęcie będą używane nasze dane. Moim zdaniem, mimo że są nowsze formaty jak exFAT (też dość uniwersalny, ale nie zawsze obsługiwany przez starsze urządzenia), to jednak FAT32 cały czas króluje, zwłaszcza gdy liczy się maksymalna kompatybilność.

Pytanie 30

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 25 GB
B. 50 GB
C. 200 GB
D. 100 GB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.

Pytanie 31

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. DCC
B. SACD
C. CC
D. ADAT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 32

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.ldm
B. *.fls
C. *.edl
D. *.oem

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Pliki o rozszerzeniu *.edl (Edit Decision List) to absolutny standard, jeśli chodzi o zapisywanie decyzji montażowych w postprodukcji filmowej. Z mojego doświadczenia wynika, że EDL jest wręcz niezbędny do sprawnej współpracy między montażystą a działem dźwięku czy korekcji barwnej. Taki plik to tekstowy zapis wszystkich kluczowych informacji o cięciach, przejściach oraz źródłach materiału – w praktyce zawiera szczegółową listę użytych fragmentów klipów, czasów wejścia i wyjścia, a także typów przejść. Dzięki temu można bezproblemowo przenosić projekt pomiędzy różnymi systemami montażowymi, na przykład z Avid Media Composer do DaVinci Resolve czy Adobe Premiere Pro. Co ważne, EDL jest formatem otwartym i bardzo czytelnym – fachowcy mówią, że to taki pomost między różnymi etapami postprodukcji. Branża filmowa od lat korzysta z EDL, bo to po prostu działa i nie ma tutaj większej filozofii. Warto też pamiętać, że pliki EDL obsługują głównie podstawowe informacje montażowe, a do bardziej zaawansowanych danych (np. ruchów kamery, efektów) stosuje się nowsze formaty jak XML czy AAF. Ale do podstawowej wymiany decyzji edycyjnych *.edl jest po prostu najpraktyczniejszy.

Pytanie 33

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 14 MB
B. 8 MB
C. 17 MB
D. 11 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 17 MB jest trafiona, ponieważ wynika z zastosowania prostego wzoru do obliczania rozmiaru pliku audio w formacie nieskompresowanym PCM. Przy takich parametrach jak 48 kHz i 24 bity na próbkę, a do tego dźwięk stereofoniczny (czyli dwa kanały), sprawa wygląda następująco: liczba próbek na sekundę razy liczba bitów na próbkę, dalej razy liczba kanałów i wreszcie razy liczba sekund. Dla jednej minuty (60 sekund) mamy: 48000 próbek/s × 24 bity × 2 kanały × 60 s = 138 240 000 bitów/s × 60 = 8 294 400 000 bitów. Teraz dzielimy przez 8, żeby uzyskać bajty, czyli mamy 1 036 800 000 bajtów. Dzielimy przez 1 048 576 (czyli liczba bajtów w 1 MB) i wychodzi nam ok. 17 MB. Takie rozmiary plików to codzienność w studiu nagraniowym i wszędzie tam, gdzie mamy do czynienia z profesjonalnym dźwiękiem nieskompresowanym – na przykład przy produkcji muzyki czy postprodukcji filmowej. Moim zdaniem warto pamiętać, że zapisywanie dźwięku w wysokiej jakości wymaga dużo miejsca na dysku – dlatego w branży często inwestuje się w szybkie i pojemne dyski SSD. Często spotyka się praktykę archiwizowania takich plików bez kompresji, właśnie dla zachowania maksymalnej jakości. Również różne DAWy i systemy miksujące domyślnie używają takich parametrów, bo pozwalają na wygodną dalszą edycję bez strat jakości. Dla porównania, plik mp3 o tej samej długości zajmowałby nieporównywalnie mniej, ale wtedy tracimy na jakości, co w zastosowaniach profesjonalnych jest nieakceptowalne.

Pytanie 34

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .wav
B. .flac
C. .ape
D. .m4a

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 35

Która z wymienionych kart charakteryzuje się największą pojemnością maksymalną?

A. SD A1
B. SDXC
C. SDHC
D. SD

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
SDXC to obecnie najnowocześniejszy i najbardziej pojemny standard kart pamięci z rodziny Secure Digital. Co ciekawe, SDXC (czyli Secure Digital eXtended Capacity) pozwala na przechowywanie danych o pojemności od 32 GB do aż 2 TB, co jest ogromną różnicą w porównaniu do starszych rozwiązań takich jak SD czy SDHC. Moim zdaniem, praktyczne zastosowania SDXC są już wszędzie – od nowoczesnych kamer 4K, przez profesjonalne aparaty fotograficzne, aż do laptopów i konsol do gier. W branży multimedialnej to właściwie standard, bo duże pliki wideo, wysokiej rozdzielczości zdjęcia czy nawet gry potrzebują takiej pojemności. Warto też pamiętać, że SDXC wykorzystuje system plików exFAT, który nie ma ograniczeń co do rozmiaru pojedynczego pliku, w przeciwieństwie do FAT32 używanego w SDHC. W praktyce oznacza to, że można wrzucać pliki większe niż 4 GB bez żadnych kombinacji. Dobrą praktyką jest sprawdzanie, czy sprzęt obsługuje ten standard – starsze urządzenia często nie rozpoznają SDXC, bo wymagają nowszego firmware’u albo są po prostu ograniczone do SD lub SDHC. Z mojego doświadczenia wynika, że inwestycja w SDXC to rozsądny wybór na przyszłość, szczególnie jeśli ktoś planuje rozbudowę aparatu czy kamery, żeby nie martwić się o brak miejsca. Tak w skrócie, to właśnie dlatego SDXC wygrywa pod kątem maksymalnej pojemności.

Pytanie 36

Kopię sesji o parametrach: 48 kHz, 24 bity, należy sporządzić jako kopię o następujących parametrach:

A. 96 kHz, 24 bity.
B. 48 kHz, 16 bitów.
C. 48 kHz, 24 bity.
D. 96 kHz, 16 bitów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś parametry 48 kHz oraz 24 bity – i bardzo dobrze! To jest właśnie kluczowa sprawa, jeśli chodzi o kopiowanie sesji audio z zachowaniem jakości i kompatybilności. W branży dźwiękowej przyjęło się, że archiwalna lub robocza kopia powinna być wykonywana dokładnie w tych samych parametrach, w jakich była sesja oryginalna. Dzięki temu unikasz niepotrzebnych konwersji, które mogłyby niepotrzebnie pogorszyć jakość nagrania lub wprowadzić dodatkowe artefakty. Przykładowo, jeśli pracujesz w studiu nagrań i sesja została przygotowana w 48 kHz/24 bity, to każda kopia na archiwizację, dalszy montaż czy wysyłkę do innego realizatora powinna mieć te same ustawienia. Tak robią profesjonaliści, bo to gwarantuje pełną zgodność oraz bezpieczeństwo danych. Przeskakiwanie między różnymi częstotliwościami próbkowania czy głębiami bitowymi zwykle nie ma sensu, chyba że jest jakiś bardzo konkretny powód, np. przygotowanie masteru do CD (44.1 kHz/16 bitów), ale to już zupełnie inna sprawa. Z mojego doświadczenia wynika, że konsekwencja w zachowywaniu parametrów to po prostu mniej problemów na każdym etapie produkcji. Warto też wspomnieć, że 48 kHz/24 bity to obecnie taki branżowy standard dla audio w filmie, reklamie czy grach. Zawsze lepiej mieć za dużo jakości niż za mało, a niepotrzebne obniżanie parametrów po prostu się nie opłaca.

Pytanie 37

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/24 bity
B. 48000 Hz/24 bity
C. 44100 Hz/16 bitów
D. 48000 Hz/16 bitów

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format CD-Audio od lat opiera się na bardzo konkretnych parametrach: 44100 Hz częstotliwości próbkowania i 16 bitach głębi bitowej. To nie jest przypadek ani kwestia umowna – kiedyś inżynierowie musieli wybrać kompromis między jakością a pojemnością płyty. 44100 Hz pozwala na rejestrację dźwięków do 22050 Hz (prawo Nyquista), a to satysfakcjonująco obejmuje ludzkie pasmo słyszenia. 16 bitów pozwala na rejestrację dynamiki na poziomie około 96 dB, co w kontekście muzyki popularnej czy nawet muzyki klasycznej jest całkiem wystarczające. Moim zdaniem warto o tym pamiętać, bo czasem przy masteringu nagrań na płytę CD ktoś nieświadomie zostawia sesję w 24 bitach lub 48 kHz, co potem komplikuje eksport lub prowadzi do niepotrzebnej konwersji. W studiu często pracuje się w wyższych parametrach (np. 24 bity, 48 lub 96 kHz), żeby mieć zapas dynamiki czy lepszą rozdzielczość podczas obróbki, ale finalny eksport na CD zawsze powinien być 44100 Hz i 16 bitów. To taki „branżowy standard”, od którego nie ma wyjątków przy produkcji płyt audio. Nawet jeśli dziś streaming pozwala na lepsze parametry, to płyta CD zawsze rządzi się swoimi prawami. Praktyczna rada: jeśli planujesz wypalić materiał na CD albo komuś zlecasz zrobienie mastera pod CD, upewnij się, że te parametry zostały użyte – oszczędzi to sporo nerwów.

Pytanie 38

W celu uniknięcia pogorszenia jakości sygnału audio przy przetwarzaniu z użyciem ośmiobitowego przetwornika A/C należy

A. zmniejszyć składową stałą sygnału wejściowego przetwornika.
B. wzmocnić sygnał wejściowy przetwornika.
C. skompresować sygnał wejściowy przetwornika.
D. zwiększyć częstotliwość próbkowania sygnału.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zwiększenie częstotliwości próbkowania sygnału to jedno z podstawowych działań pozwalających zminimalizować pogorszenie jakości dźwięku przy ograniczeniach narzuconych przez ośmiobitowy przetwornik A/C. Wynika to wprost z twierdzenia Nyquista-Shannona – im wyższa częstotliwość próbkowania, tym dokładniej oryginalny sygnał analogowy może być odtworzony po konwersji do postaci cyfrowej, nawet jeśli rozdzielczość bitowa (czyli liczba poziomów kwantyzacji) nie jest wysoka. W praktyce branża audio przyjmuje, że dla sygnału muzycznego powinno się stosować przetworniki o co najmniej 16 bitach i 44,1 kHz (standard CD), ale jeśli już musisz korzystać z 8 bitów – wyższa częstotliwość próbkowania pozwala zminimalizować zniekształcenia aliasingu oraz poprawić subiektywną jakość odbioru. Sam miałem kiedyś okazję programować prosty syntezator oparty na 8-bitowym A/C i zauważyłem, że bez zwiększenia częstotliwości próbkowania dźwięk robił się „ziarnisty” i tracił dynamikę. W systemach profesjonalnych podbija się obie wartości, ale jeśli już nie da się podnieść rozdzielczości – zwiększenie liczby próbek na sekundę przynosi bardzo wymierną poprawę. Również wiele systemów embedded i sprzętu retro korzystało z tej metody, żeby choć trochę poprawić ograniczony dźwięk.

Pytanie 39

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów na sekundę w transmisji danych.
B. bitów dostępnych do opisu każdej próbki sygnału.
C. próbek na sekundę w transmisji danych.
D. próbek opisanych jednym bitem.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozdzielczość bitowa sygnału cyfrowego to po prostu liczba bitów, które są używane do zakodowania jednej próbki sygnału. To właśnie od tej wartości zależy, jak dokładnie (czyli z jaką precyzją) możemy opisać wartość sygnału w każdej chwili jego próbkowania. Przykładowo – 8 bitów daje 256 możliwych poziomów sygnału, a 16 bitów już aż 65536 poziomów. Im wyższa rozdzielczość bitowa, tym mniej zauważalna jest tzw. kwantyzacja, czyli 'schodkowanie' sygnału po konwersji z analogowego na cyfrowy. W praktyce – to dlatego muzyka w jakości CD brzmi tak dobrze, bo tam każda próbka ma 16 bitów. Branżowe standardy, takie jak PCM (Pulse Code Modulation), wprost definiują rozdzielczość bitową jako ilość bitów na próbkę. Z mojego doświadczenia wynika, że w zastosowaniach profesjonalnych – np. rejestracja dźwięku w studio – często używa się nawet 24 bitów na próbkę. To pozwala uchwycić bardzo subtelne detale i dynamikę. Generalnie, jeśli chcesz mieć dobrej jakości sygnał cyfrowy, to warto zadbać o odpowiednią rozdzielczość bitową, bo nie da się jej potem „dodać” w postprodukcji – to trochę jak ostrość zdjęcia, jak złapiesz za mało szczegółów na początku, to już nic nie zrobisz. Przy projektowaniu systemów cyfrowych (np. przetworników ADC/DAC) właściwy dobór rozdzielczości to podstawa dobrych praktyk w inżynierii dźwięku i elektronice.

Pytanie 40

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 100 GB danych.
B. 50 GB danych.
C. 10 GB danych.
D. 25 GB danych.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.