Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 10:05
  • Data zakończenia: 30 kwietnia 2026 11:05

Egzamin niezdany

Wynik: 16/40 punktów (40,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -23 LUFS
B. -23 RMS
C. -16 RMS
D. -16 LUFS
Odpowiedź -23 LUFS jest zgodna z europejskim standardem EBU R128. To właśnie ta wytyczna została przyjęta w branży radiowej i telewizyjnej w Europie, żeby zapewnić spójny poziom głośności wszystkich audycji. LUFS – skrót od Loudness Units relative to Full Scale – to obecnie najpowszechniej stosowana jednostka do pomiaru subiektywnej głośności materiału audio. Z mojego doświadczenia wynika, że coraz więcej inżynierów dźwięku i realizatorów nie wyobraża sobie pracy bez tej skali, bo pozwala ona zapanować nad różnicami w postrzeganiu głośności, które wcześniej często irytowały słuchaczy (np. głośniejsze reklamy). Warto pamiętać, że -23 LUFS nie oznacza po prostu nagrania „cichego” – to punkt odniesienia pozwalający zachować optymalną dynamikę, uniknąć przesterowań i mieć pewność, że słuchacze nie będą musieli ciągle regulować głośności odbiornika. Dla przykładu: jeśli przygotowujesz podcast albo materiał do radia, znormalizowanie do -23 LUFS to podstawa – zarówno w emisji FM, jak i w streamingu cyfrowym, choć tam czasem są inne wymagania, np. -16 LUFS dla podcastów na Spotify. W telewizji publicznej czy dużych rozgłośniach radiowych nieprzestrzeganie tego progu może skutkować odrzuceniem materiału. To taka branżowa gwarancja jakości, zgodnie z zasadą „jeden poziom dla wszystkich”, i moim zdaniem wprowadziła sporo ładu do świata broadcastu. Warto więc od razu przyzwyczaić się do mierników LUFS i pracy z R128 – to standard praktycznie obowiązkowy.

Pytanie 2

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik w formacie MP3 oraz plik odszumiony.
B. plik o parametrach 48 kHz/16 bit.
C. plik o parametrach 44.1 kHz/16 bit.
D. plik w formacie MP3.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 3

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 192 kHz
C. 44,1 kHz
D. 96 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 4

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .mp3
B. .wav
C. .aiff
D. .riff
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 5

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. flamastra niezawierającego alkoholu.
B. długopisu.
C. ostrego rysika.
D. flamastra zawierającego alkohol.
Wielu osobom wydaje się, że do opisywania płyt CD czy DVD można użyć praktycznie dowolnego narzędzia do pisania, bo przecież płyta wydaje się dość trwała. To niestety bardzo mylące przekonanie. Użycie długopisu kusi – jest zawsze pod ręką, zostawia wyraźny ślad, ale niestety końcówka długopisu jest na tyle twarda, że może uszkodzić cienką, ochronną warstwę poliwęglanu. W skrajnych przypadkach może dojść wręcz do punktowego pęknięcia powierzchni, szczególnie jeśli ktoś mocniej przyciśnie – a wtedy dane z płyty mogą być nieczytelne. Ostry rysik to już w ogóle zły pomysł – nawet nie chodzi tylko o rysowanie, ale o możliwość fizycznego naruszenia warstw, w których zapisane są dane. Płyty optyczne nie są tak odporne, jak się wydaje; ich powierzchnia jest podatna na mikrouszkodzenia, które potem mogą prowadzić do błędów odczytu. Markery alkoholowe także wydają się z pozoru praktyczne; piszą niemalże na każdej powierzchni, ale niestety ich składniki chemiczne – głównie alkohole i inne rozpuszczalniki – mogą wnikać przez lakier ochronny i uszkadzać warstwę zapisu. Z perspektywy praktyka, wystarczy kilka miesięcy, żeby pojawiły się przebarwienia lub nawet mikropęknięcia na płycie. Często bagatelizuje się te zalecenia, bo wydaje się, że to przesada producentów, ale fakty są takie, że takie błędy prowadzą do szybkiej degradacji nośnika. Najlepszą praktyką, zgodnie z zaleceniami branżowymi i doświadczeniem ludzi zajmujących się archiwizacją danych, jest stosowanie specjalnych markerów bezalkoholowych – są przeznaczone właśnie do tego celu i zapewniają, że opisywanie nie wpłynie negatywnie na trwałość płyty. Ostatecznie, to niewielki koszt w porównaniu z potencjalną utratą ważnych danych.

Pytanie 6

Aby wprowadzić plik audio z dysku twardego komputera do wielościeżkowego edytora dźwięku, należy użyć funkcji

A. import.
B. save.
C. play.
D. eksport.
Wybrałeś import i to jest dokładnie to, co powinno się zrobić, kiedy chcemy przenieść plik audio z dysku do projektu w edytorze wielościeżkowym. Funkcja „import” jest jednym z podstawowych narzędzi w każdym profesjonalnym oprogramowaniu do obróbki dźwięku, takim jak Cubase, Audacity, Reaper czy Pro Tools. Pozwala ona wprowadzić do projektu istniejące pliki – najczęściej WAV, MP3, AIFF, FLAC, OGG i inne formaty audio. Z mojego doświadczenia wynika, że korzystanie z importu gwarantuje, że plik zostanie poprawnie załadowany, z zachowaniem parametrów takich jak częstotliwość próbkowania czy długość trwania. Co więcej, funkcja importu często umożliwia wybór ścieżki docelowej, konwersję formatu albo automatyczne dopasowanie pliku do projektu. To zdecydowanie najbezpieczniejszy sposób na rozpoczęcie pracy z zewnętrznymi materiałami dźwiękowymi. W branży muzycznej i postprodukcyjnej stosuje się tę funkcję niemal codziennie, bo pozwala ona na szybkie rozszerzanie sesji o nowe elementy – sample, nagrania lektorskie, ścieżki instrumentalne. Po prostu, bez importu nie da rady sensownie pracować na kilku ścieżkach z różnymi źródłami dźwięku. Takie podejście jest absolutnym standardem w świecie cyfrowej obróbki audio.

Pytanie 7

Które parametry pliku wynikowego zapewnią najwyższą wierność przetwarzania dźwięku z postaci analogowej do cyfrowej?

A. .wav, 96 kHz, 8 bitów.
B. .aiff, 48 kHz, 16 bitów.
C. .aiff, 96 kHz, 16 bitów.
D. .wav, 192 kHz, 8 bitów.
To właśnie odpowiedź .aiff, 96 kHz, 16 bitów najlepiej oddaje, jak poprawnie przeprowadzić konwersję analogowego dźwięku do cyfrowej postaci z zachowaniem wysokiej wierności. Format AIFF jest nieskompresowany i bezstratny, co oznacza, że żadne dane audio nie są tracone podczas zapisu. Próbkowanie na poziomie 96 kHz daje bardzo gęste „odwzorowanie” sygnału – to sporo powyżej standardowego CD (44,1 kHz), co jest wręcz wymagane przy nagraniach profesjonalnych, masteringu audio czy pracy w studiu. Wartość 16 bitów z kolei oznacza 65 536 poziomów kwantyzacji, co w praktyce daje szeroki zakres dynamiki oraz minimalizuje zniekształcenia kwantyzacyjne. To właśnie tego typu parametry wybiera się w sytuacjach, gdy priorytetem jest zachowanie maksymalnej jakości dźwięku, np. w archiwizacji nagrań, miksie czy przy masteringu materiałów muzycznych. Moim zdaniem, jeżeli zależy komuś na audiofilskiej jakości i nie ogranicza go pojemność dysku, to takie ustawienia są naturalnym wyborem. Przy pracy z materiałem do dalszej obróbki jest to wręcz standard – można potem ew. konwertować do niższych parametrów na potrzeby publikacji, ale zawsze warto zaczynać od jak najlepszego materiału źródłowego. Spotyka się to praktycznie w każdym profesjonalnym studiu nagraniowym.

Pytanie 8

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 64 kb/s (24 kHz)
B. 320 kb/s (48 kHz)
C. 32 kb/s (12 kHz)
D. 256 kb/s (48 kHz)
Parametry 320 kb/s i 48 kHz to obecnie praktycznie najwyższy poziom jakości, jaki można uzyskać w formacie MP3. Im wyższy bitrate, tym więcej danych na sekundę przeznaczonych jest na odwzorowanie dźwięku, dzięki czemu mniej informacji zostaje utraconych podczas kompresji stratnej. 320 kb/s to granica, powyżej której już nie uzyska się lepszej jakości dźwięku w tym standardzie – tak to po prostu działa, bo sam MP3 na więcej nie pozwala. Częstotliwość próbkowania 48 kHz jest też bardzo istotna – to właśnie ona decyduje o tym, jak szerokie spektrum częstotliwości zostanie zapamiętane (czyli ile szczegółów zachowa się w wysokich tonach). Co ciekawe, 48 kHz jest często spotykana w branży filmowej oraz profesjonalnej postprodukcji audio, a 44,1 kHz to bardziej standard płyt CD. Z mojego doświadczenia, jeśli komuś zależy na możliwie najlepszym brzmieniu w plikach MP3 – np. do archiwizacji kolekcji muzyki, przygotowania podkładów pod filmy czy po prostu dla własnej satysfakcji słuchowej – to właśnie te parametry będą optymalne. Oczywiście, są formaty lepsze: FLAC czy WAV, ale wtedy nie mówimy już o MP3. Warto pamiętać, że ustawianie niższego bitrate'u albo niższego próbkowania to zawsze kompromis – oszczędność miejsca kosztem jakości. Generalnie, jeśli nie ogranicza Cię pojemność dysku czy transfer, stawiaj zawsze na 320 kb/s i 48 kHz, bo to jest dobry standard nawet wśród profesjonalistów.

Pytanie 9

Który parametr pliku dźwiękowego wskazuje sposób kompresji danych audio?

A. Liczba kanałów.
B. Rozmiar.
C. Rodzaj kodowania.
D. Częstotliwość próbkowania.
Rzeczywiście, to właśnie rodzaj kodowania decyduje o sposobie, w jaki dźwięk zostaje zapisany i skompresowany w pliku audio. Mówiąc prościej, „rodzaj kodowania” to nic innego jak wybrany algorytm lub format, według którego dane audio są kompresowane i potem zapisywane na dysku. Przykładowo, mamy formaty takie jak MP3, AAC, FLAC czy WAV – każdy z nich używa innego sposobu kodowania, co przekłada się na to, czy plik jest stratny czy bezstratny, ile zajmuje miejsca, a także jak brzmi po odtworzeniu. W branży muzycznej czy radiowej dobór właściwego kodowania ma kolosalne znaczenie – czasami chodzi o minimalizację rozmiaru pliku (np. streaming online), a innym razem o zachowanie maksymalnej jakości (produkcja studyjna, archiwizacja). W praktyce, gdy chcesz na przykład przekonwertować płytę CD do pliku, program do ripowania pyta właśnie o rodzaj kodowania, a nie np. o rozmiar czy liczbę kanałów. Moim zdaniem warto znać nie tylko nazwy tych formatów, ale i ich cechy, bo daje to dużą swobodę w wyborze najlepszego rozwiązania do danego zastosowania. Ważne jest też, żeby rozumieć, że standardy takie jak ISO/IEC 11172-3 (dla MP3) czy FLAC (Free Lossless Audio Codec) są powszechnie uznawane i stosowane w profesjonalnych systemach. To nie tylko teoria, ale bardzo praktyczna wiedza przy produkcji, edycji lub nawet prostym słuchaniu muzyki na różnych urządzeniach.

Pytanie 10

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Stereo
B. Dolby Digital Live
C. Dolby Digital
D. Dolby TrueHD
Dolby TrueHD to zaawansowany format dźwięku wielokanałowego, który został opracowany specjalnie z myślą o zapewnieniu najwyższej jakości audio na nośnikach Blu-ray Disc. W przeciwieństwie do większości popularnych kodeków, takich jak Dolby Digital, TrueHD pozwala na zapis i odtwarzanie dźwięku w pełni bezstratnie, co oznacza, że nie traci się żadnych informacji względem oryginalnego materiału studyjnego. To rozwiązanie umożliwia obsługę nawet 8 kanałów (czyli konfiguracja 7.1), co jest wykorzystywane w nowoczesnych systemach kina domowego. Sygnał zakodowany w Dolby TrueHD zachowuje wszystkie detale, dynamikę i przestrzenność miksu, co ma ogromne znaczenie podczas projekcji filmów akcji, koncertów czy gier wideo na dużych ekranach i profesjonalnym sprzęcie audio. W branży filmowej i muzycznej Dolby TrueHD jest bardzo ceniony właśnie za tę jakość – można powiedzieć, że jest to takie audiofilskie podejście do domowej rozrywki. Z mojego doświadczenia, jeśli ktoś naprawdę chce poczuć, jak brzmią filmy czy muzyka w wersji zbliżonej do tego, co słyszeli inżynierowie dźwięku w studiu, to właśnie TrueHD jest tym wyborem, zwłaszcza na nośnikach Blu-ray. Producenci sprzętu audio-video od lat wspierają ten standard i jest to bezdyskusyjnie preferowana metoda zapisu wielokanałowego dźwięku bez strat jakości.

Pytanie 11

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. CBR
B. VBR
C. ABR
D. MBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 12

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 16 bitów.
B. Do 24 bitów.
C. Do 32 bitów.
D. Do 8 bitów.
Dokładnie, płyta CD-Audio zgodnie ze światowym standardem Red Book powinna mieć rozdzielczość 16-bitową. To oznacza, że każda próbka dźwięku zapisana na płycie jest reprezentowana przez 16 bitów, co pozwala na uzyskanie 65 536 różnych możliwych wartości amplitudy. Dzięki temu muzyka odtwarzana z płyt CD charakteryzuje się wystarczająco szerokim zakresem dynamiki – mówi się o ok. 96 dB, co w praktyce całkowicie wystarcza do odsłuchu muzyki w warunkach domowych. Moim zdaniem wybór 16 bitów to taki kompromis pomiędzy jakością dźwięku a ilością miejsca, które można fizycznie zapisać na płycie. Zresztą, profesjonalne studia często nagrywają w wyższej rozdzielczości (24 bity), ale przed wydaniem muzyki na CD wykonuje się tzw. dithering i zgrywanie właśnie do 16 bitów. To pozwala zachować kompatybilność z odtwarzaczami i zapewnia, że każda płyta CD-Audio, niezależnie od wytwórni czy gatunku, ma taki sam techniczny poziom jakości. Podsumowując – 16 bitów to nie przypadek, tylko przemyślany międzynarodowy standard. Warto o tym pamiętać, bo różne formaty cyfrowe mają inne wymagania, a CD-Audio ma właśnie takie – i nie da się tam wcisnąć ani 24, ani 8 bitów bez złamania specyfikacji.

Pytanie 13

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. gniazda USB.
B. czytnika kart flash.
C. portu Fire Wire.
D. złącza Thunderbolt.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 14

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Mini Disc
C. Karta SDHC
D. Dysk SSD
Mini Disc to świetny przykład nośnika wykorzystującego technologię magnetooptyczną, która przez lata była stosowana głównie w sprzęcie audio, ale także w niektórych zastosowaniach informatycznych. To typowy, choć dziś już trochę zapomniany, nośnik danych, gdzie zapis i odczyt informacji odbywa się poprzez połączenie działania lasera i pola magnetycznego. W praktyce wygląda to tak, że laser nagrzewa wybrany fragment płyty, zmieniając jego właściwości magnetyczne, a następnie głowica magnetyczna ustawia orientację domen magnetycznych. Dzięki temu Mini Disc pozwalał na wielokrotny zapis i kasowanie danych, co w latach 90. i na początku XXI wieku było naprawdę sporą zaletą, szczególnie w branży muzycznej. Nośniki magnetooptyczne charakteryzują się niezłą trwałością i odpornością na uszkodzenia mechaniczne w porównaniu do klasycznych płyt CD czy kaset. Moim zdaniem, mimo że dziś wyparte przez pendrive'y czy karty SD, Mini Diski były świetnym rozwiązaniem do archiwizacji nagrań studyjnych czy prywatnych kompilacji muzycznych. Warto też wiedzieć, że podobny sposób zapisu stosowano np. w profesjonalnych napędach MO (Magneto Optical), używanych jeszcze do niedawna w laboratoriach i archiwach. Według mnie, ta technologia pokazała, jak ciekawe hybrydowe rozwiązania potrafią przetrwać przez wiele lat, zanim przyjdzie jakaś rewolucja w przechowywaniu danych.

Pytanie 15

W którym z wymienionych dokumentów normatywnych zapisana jest specyfikacja techniczna płyt CD-DA?

A. W Niebieskiej Księdze.
B. W Zielonej Księdze.
C. W Żółtej Księdze.
D. W Czerwonej Księdze.
Czerwona Księga, czyli Red Book, to absolutna podstawa, jeżeli chodzi o techniczne aspekty płyt CD-DA (Compact Disc Digital Audio). To właśnie w tym dokumencie, stworzonym w latach 80. przez firmy Sony i Philips, szczegółowo opisano nie tylko jak fizycznie wygląda płyta CD, ale też w jaki sposób kodowany jest na niej dźwięk, jakie są parametry próbkowania (44,1 kHz, 16 bitów), odstępy między ścieżkami oraz jak powinno wyglądać zapisywanie informacji kontrolnych. Moim zdaniem, każda osoba związana z audio czy archiwizacją cyfrową powinna choć raz przejrzeć podstawowe założenia Red Booka. W praktyce to właśnie ten standard sprawił, że płyty CD mogły być odtwarzane na dowolnym sprzęcie i zachowywały uniwersalność, co do dziś wykorzystuje się np. w studiach nagraniowych, podczas masteringu lub archiwizacji utworów muzycznych. W branży muzycznej Czerwona Księga to coś jak Biblia dla CD – bez jej wytycznych nie byłoby zgodności między różnymi producentami czy urządzeniami. Fajne jest to, że nawet współczesne odtwarzacze CD bazują na tej specyfikacji, więc nagrania przygotowane zgodnie z Red Bookiem praktycznie zawsze będą prawidłowo odczytywane. To jest właśnie siła standaryzacji i dobrych praktyk technicznych.

Pytanie 16

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. SACD
B. ADAT
C. CC
D. DCC
Super, trafiłeś w sedno. SACD, czyli Super Audio CD, to standard zapisu dźwięku, który faktycznie wykorzystuje nośniki optyczne – w tym przypadku specjalnie przygotowane płyty podobne do klasycznych CD, ale o zdecydowanie większych możliwościach. SACD powstało głównie po to, żeby zapewnić słuchaczom lepszą jakość dźwięku niż tradycyjne płyty kompaktowe. W praktyce zapis na SACD odbywa się w technologii DSD (Direct Stream Digital), która pozwala osiągnąć bardzo szerokie pasmo przenoszenia i niski poziom zakłóceń. Co ciekawsze, nośniki SACD są odporne na wiele typowych uszkodzeń, a sama płyta potrafi zawierać zarówno warstwę kompatybilną ze zwykłymi odtwarzaczami CD, jak i warstwę wysokiej rozdzielczości, czy to stereo, czy nawet wielokanałową. Z mojego doświadczenia, chociaż obecnie standard SACD nie jest już aż tak popularny jak kiedyś (przez streaming i pliki cyfrowe), to w studiach nagraniowych i wśród audiofilów wciąż budzi spore zainteresowanie. W branży uznaje się SACD za przykład standardu, który świetnie wykorzystał możliwości nośnika optycznego do przenoszenia bardzo wysokiej klasy dźwięku bez strat, co kiedyś miało naprawdę ogromne znaczenie przy archiwizacji muzyki czy produkcji audio o najwyższej jakości.

Pytanie 17

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość spada dwukrotnie.
B. Nie ma wpływu.
C. Wysokość wzrasta dwukrotnie.
D. Wysokość wzrasta w stosunku 48:44,1.
Zmiana częstotliwości próbkowania z 44,1 kHz na 48 kHz sama w sobie nie ma żadnego wpływu na odbieraną słuchem wysokość dźwięku, pod warunkiem, że próbki są odtwarzane z tą samą częstotliwością, z jaką były zarejestrowane. To jest bardzo istotny szczegół techniczny. Wysokość dźwięku zależy bezpośrednio od częstotliwości drgań fali akustycznej, a nie od parametrów cyfrowego zapisu. Częstotliwość próbkowania definiuje jedynie, jak często podczas sekundy pobierane są próbki sygnału analogowego, co wpływa na jakość i maksymalną częstotliwość rejestrowanego dźwięku (wynika to z twierdzenia Kotielnikowa-Shannona). Moim zdaniem, takie zamieszanie powstaje często przy konwersji plików lub zmianie platform, jednak jeśli podczas odtwarzania ustawimy tę samą częstotliwość próbkowania co przy nagraniu, żaden słuchacz nie usłyszy zmiany wysokości – to wciąż będzie ten sam dźwięk. W branży muzycznej i postprodukcji audio bardzo często spotyka się te dwie wartości (44,1 kHz – standard CD, 48 kHz – standard wideo), jednak muzycy, reżyserzy dźwięku czy montażystki nie przejmują się wysokością – bo ta zależy od źródła, nie od próbkowania. W praktyce, zmiana częstotliwości próbkowania może wpłynąć na zakres słyszalnych wysokich tonów (np. górne pasmo przenoszenia), ale nie na to, czy dźwięk jest wyższy czy niższy. Dobrą praktyką jest zawsze dbać o zgodność częstotliwości próbkowania w całym torze produkcyjnym – to zapobiega nieprzyjemnym artefaktom i kłopotom z kompatybilnością.

Pytanie 18

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp3
B. *.m4a
C. *.m4p
D. *.mp4

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie *.mp4 to zdecydowanie najbardziej uniwersalny i powszechnie stosowany format do przechowywania zarówno ścieżek audio, jak i video. Format MP4 (MPEG-4 Part 14) bazuje na standardzie MPEG-4 i jest wspierany praktycznie we wszystkich nowoczesnych urządzeniach – od komputerów, przez smartfony, aż po telewizory Smart TV czy konsole do gier. Co ciekawe, *.mp4 pozwala nie tylko na zapis obrazu i dźwięku, ale też napisów czy metadanych, co przydaje się szczególnie przy produkcji filmów, klipów czy prezentacji multimedialnych. Z mojego doświadczenia, gdy klient prosi o plik zawierający zarówno wideo, jak i audio, to zawsze wybieram MP4 – praktycznie nie ma z nim problemów z kompatybilnością, nawet na starszych sprzętach. Standard ten jest szeroko rekomendowany przez organizacje branżowe, m.in. Moving Picture Experts Group. Czasem spotyka się pliki .avi czy .mkv, ale to MP4 faktycznie stał się złotym standardem dzięki kompresji, jakości i wszechstronności. W codziennej pracy z plikami multimedialnymi osobiście często korzystam z tego formatu, bo nie trzeba się bawić w konwersje i kombinować z kodekami. Moim zdaniem, jeśli ktoś chce mieć pewność, że jego wideo zadziała wszędzie – wybór jest oczywisty. Warto też pamiętać, że MP4 obsługuje różne kodeki (np. H.264, AAC), więc można uzyskać świetną jakość przy relatywnie małym rozmiarze pliku. Dla osób, które myślą o publikacji materiałów w internecie, MP4 to już praktycznie wymóg branżowy.

Pytanie 19

Jakiej najmniejszej liczby płyt CD-R należy użyć do zapisania 3-godzinnego nagrania w standardzie CD-Audio?

A. 4 płyt.
B. 5 płyt.
C. 3 płyt.
D. 2 płyt.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź jest prawidłowa, bo standardowa płyta CD-R przeznaczona do nagrywania muzyki w formacie CD-Audio ma pojemność około 80 minut. To jest taki typowy, powszechny nośnik, który obsługują praktycznie wszystkie odtwarzacze. Jeśli mamy nagranie trwające 3 godziny (czyli 180 minut), to łatwa matematyka – dzielimy 180 minut przez 80 minut, wychodzi 2,25. Oczywiście nie da się nagrać częściowo na płycie, więc musimy zaokrąglić w górę do pełnych nośników – czyli potrzeba 3 płyt CD-R. To podejście jest zgodne z branżowymi standardami, bo nie ma co upychać danych na siłę albo stosować formatów typu MP3, jeśli chodzi o CD-Audio. Trzeba pamiętać, że format CD-Audio wymaga określonej jakości (44,1 kHz, 16 bitów, stereo), więc nie da się tam wrzucić więcej muzyki poprzez kompresję stratną – jak na pendrive’a czy płytę danych. W praktyce w studiach nagraniowych czy nawet w radiu zawsze liczy się tak właśnie – przeliczając na minuty i dobierając liczbę płyt. Warto też wiedzieć, że stosowanie kilku płyt jest normalną praktyką przy dłuższych materiałach, a użytkownicy domowi po prostu robią składanki na kilku krążkach. Moim zdaniem takie zadania dobrze pokazują, że te podstawowe parametry nośników to podstawa przy planowaniu archiwizacji czy kopiowania muzyki.

Pytanie 20

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. zapisywania pliku wynikowego.
B. edycji nagrania.
C. masteringu nagrania.
D. wciągania plików dźwiękowych do sesji montażowej.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest dokładnie ten moment, kiedy podejmujemy decyzję o ostatecznym formacie i parametrach pliku dźwiękowego – podczas zapisywania pliku wynikowego, czyli eksportu. Niezależnie od tego, czy cały projekt był nagrywany i obrabiany w wysokiej rozdzielczości, to właśnie przy eksporcie ustawiasz typ pliku (np. WAV, MP3, FLAC), jego rozdzielczość (np. 44,1 kHz, 16-bit, czy może 24-bit), kompresję, bitrate i inne szczegóły techniczne. W praktyce oznacza to, że możesz pracować przez cały czas na plikach bezstratnych, a dopiero na końcu zdecydować, czy chcesz stworzyć plik na CD, dla streamingu lub do archiwizacji. Tak robią też profesjonaliści – najpierw pracują w jak najlepszej jakości, a potem tworzą różne wersje plików zależnie od przeznaczenia. Szczerze mówiąc, często spotykam się z tym, że ludzie niepotrzebnie martwią się o format na wcześniejszych etapach, a to właśnie eksport jest kluczowy dla końcowego rezultatu. Standardy branżowe (np. Red Book Audio dla CD czy specyfikacje streamingowe) jasno mówią, jakie mają być parametry końcowego pliku. Ważne też, żeby podczas zapisu uważać na niezamierzoną konwersję formatu czy nieprzemyślaną kompresję stratną. Można powiedzieć, że to taki finał pracy – wszystko, co robiłeś wcześniej, ma sens dopiero wtedy, gdy właściwie wybierzesz opcje eksportu.

Pytanie 21

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 6 razy.
B. 3 razy.
C. 4 razy.
D. 2 razy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dobra robota, bo rzeczywiście – jeśli zmniejszymy częstotliwość próbkowania dźwięku o połowę, to dokładnie 2 razy zmniejszy się ilość danych potrzebnych do zapisania tego pliku. Tak działa cyfrowe przetwarzanie sygnału: im niższa częstotliwość próbkowania, tym mniej próbek na sekundę musimy zapisać. Załóżmy, że pierwotnie mieliśmy plik stereo nagrany z częstotliwością 44,1 kHz przy 16 bitach – jak na płycie CD. Jeśli teraz zmniejszymy próbkowanie do 22,05 kHz, to przy tych samych pozostałych parametrach rozmiar pliku spada dokładnie o połowę. Moim zdaniem to jeden z prostszych sposobów na kompresję bez utraty dodatkowych danych – chociaż oczywiście odczujemy wtedy spadek jakości dźwięku, zwłaszcza w wyższych częstotliwościach. W praktyce, na potrzeby np. rejestratorów głosu, podcastów czy archiwizowania rozmów wystarcza często niższe próbkowanie, bo nie zależy nam na pełnym paśmie audio. Najlepsze praktyki branżowe, zwłaszcza w postprodukcji i masteringu, mówią jednak: nie schodź poniżej próbkowania wymaganych przez docelowe medium. Warto też pamiętać, że pozostałe parametry jak liczba bitów próbkowania czy liczba kanałów również wpływają na rozmiar pliku, ale w tym pytaniu skupiamy się tylko na częstotliwości próbkowania. Ważne, żeby takie zależności rozumieć – bo potem łatwo przewidzieć, jak zoptymalizować miejsce na dysku bez zbędnej utraty jakości dźwięku.

Pytanie 22

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 96 kHz
C. 192 kHz
D. 44,1 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fajnie, że wybrałeś 44,1 kHz – to dokładnie ta częstotliwość próbkowania, która od początku istnienia formatu CD-Audio jest obowiązującym standardem. Wikipedia i praktycznie każde źródło branżowe potwierdza, że płyty CD z muzyką mają właśnie takie próbkowanie, czyli 44 100 próbek na sekundę. Dlaczego akurat taka liczba, a nie jakieś równe 48 kHz? Trochę wynika to z kompromisów technologicznych z lat 80-tych – wtedy łatwiej było konstruować układy elektroniczne obsługujące tę częstotliwość, a jednocześnie pozwalała ona wiernie odwzorować słyszalny dla człowieka zakres częstotliwości (do ok. 20 kHz, zasada Nyquista-Shannona). Co ciekawe, format ten jest stosowany do dziś, mimo że w profesjonalnym audio i produkcji muzycznej spotyka się wyższe próbkowania, ale do użytku konsumenckiego 44,1 kHz jest zupełnie wystarczające. Moim zdaniem to dobry przykład, jak wybory technologiczne potrafią przetrwać dekady. Nawet jak masz pliki mp3 czy streaming, to one często bazują na tym samym próbkowaniu. Warto znać tę liczbę, bo może się przydać nawet przy podstawowej obróbce dźwięku na komputerze. Szczerze, trudno znaleźć bardziej rozpoznawalny standard branżowy niż to słynne 44,1 kHz.

Pytanie 23

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. ALAC
C. AAC
D. WAV

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format AAC to przykład kodowania stratnego, które jest na co dzień wykorzystywane w usługach streamingowych, takich jak Spotify, YouTube czy Apple Music. W przeciwieństwie do formatów bezstratnych, takich jak ALAC czy WAV, AAC kompresuje dźwięk, usuwając część informacji uznanych za mniej istotne dla ludzkiego ucha. Najważniejsze jest to, że całość procesu opiera się na psychoakustycznych modelach percepcji dźwięku – algorytm stara się zredukować dane, których i tak nie usłyszymy. Moim zdaniem, w praktyce bardzo często nie odróżniamy dobrej jakości plików AAC od oryginału, szczególnie gdy słuchamy w słuchawkach bluetooth albo w aucie. Technologia AAC jest następcą MP3, oferując lepszą jakość przy mniejszym rozmiarze pliku, co jest ogromną zaletą np. przy przesyłaniu muzyki przez sieć lub przechowywaniu dużych bibliotek na telefonie. Standard ten jest szeroko wspierany przez urządzenia mobilne, konsole do gier i smart TV. Warto wiedzieć, że format AAC został zaimplementowany jako domyślny kodek audio w standardzie MPEG-4. To rozwiązanie jest rekomendowane w branży, kiedy zależy nam na kompromisie między jakością a objętością danych – do podcastów, audiobooków czy transmisji na żywo. Nie bez powodu Apple używa AAC w swoim całym ekosystemie. I szczerze, jeśli ktoś korzysta z internetu mobilnego, to kompresja stratna jest po prostu praktyczniejsza.

Pytanie 24

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ppt
B. *.ptx
C. *.wmf
D. *.wmv

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie *.ptx to właśnie format pliku sesji montażowej charakterystyczny dla programu Pro Tools, który od lat należy do ścisłej czołówki profesjonalnych DAW (Digital Audio Workstation). Tego typu pliki przechowują dane o układzie ścieżek, automatyce, strukturze sesji, a nawet konfiguracji wtyczek czy routingów sygnału. Można powiedzieć, że to „mapa” całego projektu muzycznego – bez tego pliku ciężko byłoby wrócić do pracy nad mixem, bo żadne pliki audio czy MIDI nie zachowałyby ustawień sesji. W branży muzycznej i postprodukcyjnej *.ptx to absolutny standard, jeśli chodzi o wymianę projektów między studiem A i B, bo praktycznie każde większe studio korzysta z Pro Tools – czy to przy nagraniach, montażu, czy masteringu. Sam miałem okazję pracować z takimi plikami i ułatwiają życie, zwłaszcza podczas archiwizacji i backupów. Co ciekawe, poprzednie wersje Pro Tools używały formatu *.pts lub *.ptf, ale od wersji 10 obowiązuje już *.ptx. Takie drobne szczegóły są ważne, bo czasami trzeba przekonwertować sesję, żeby otworzyć ją w starszym systemie. W praktyce, jeśli dostajesz od kogoś plik z końcówką *.ptx, wiesz, że to cały projekt do dalszej pracy, a nie pojedynczy plik dźwiękowy czy prezentacja. To jest właśnie ten branżowy workflow, który warto znać, bo bardzo usprawnia współpracę z innymi realizatorami i producentami.

Pytanie 25

Które z wymienionych parametrów wskazują na plik o najniższej jakości?

A. 32 kHz, 32 bit
B. 48 kHz, 24 bit
C. 44.1 kHz, 16 bit
D. 96 kHz, 8 bit

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybierając opcję 96 kHz, 8 bit, zwróciłeś uwagę na bardzo ważną rzecz: liczba bitów w próbkowaniu ma ogromny wpływ na jakość dźwięku. Częstotliwość próbkowania, czyli te 96 kHz, na pierwszy rzut oka wygląda imponująco i rzeczywiście umożliwia rejestrowanie bardzo wysokich częstotliwości – znacznie powyżej słyszalnych dla ludzkiego ucha. Jednak realnie to rozdzielczość bitowa (w tym przypadku tylko 8 bitów) decyduje o dynamice i szczegółowości nagrania. 8 bitów to bardzo mało, daje tylko 256 możliwych poziomów głośności. Oznacza to, że w praktyce taki plik będzie charakteryzował się bardzo wyraźnym szumem kwantyzacji, brakiem szczegółów w cichych fragmentach i ogólnie sztucznym, "płaskim" brzmieniem. W dzisiejszych standardach nawet telefony komórkowe czy nagrania przewidziane do archiwizacji dźwięku mają co najmniej 16 bitów. Przykładowo, format CD Audio to 44,1 kHz/16 bit, co uchodzi za rozsądny kompromis między jakością a wielkością pliku. Moim zdaniem, niezależnie od tego, jak wysoką częstotliwość próbkowania ustawimy, jeśli ilość bitów jest niska, to traci się wszystkie zalety wysokiej częstotliwości. W studiach czy produkcji muzycznej 24 bity to już w zasadzie standard. Pliki 8-bitowe mają sens tylko w archiwalnych rozwiązaniach albo w syntezatorach retro. W praktyce lepiej mieć niższą częstotliwość, ale wyższą rozdzielczość bitową – wtedy dźwięk brzmi naturalniej i ma lepszą dynamikę. To właśnie dlatego opcja 96 kHz, 8 bit jest zdecydowanie najniższej jakości spośród podanych.

Pytanie 26

Który z wymienionych nośników cyfrowych zapewnia najdłuższy okres przechowywania danych bez pojawienia się błędów?

A. Mini CD-RW
B. M-Disc (Millennial Disc)
C. CD-R
D. DVD DL (DVD Dual Layer)

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
M-Disc, czyli Millennial Disc, to nośnik stworzony specjalnie z myślą o bardzo długim okresie przechowywania danych. W odróżnieniu od tradycyjnych płyt CD-R czy DVD, które bazują na barwnikach organicznych i są podatne na degradację pod wpływem promieniowania UV, wilgoci czy zmian temperatury, M-Disc wykorzystuje warstwę zapisywalną z materiału zbliżonego do ceramiki. Dzięki temu dane są odporne na typowe zjawiska starzenia się nośników optycznych. Z moich obserwacji i tego, co można znaleźć w literaturze branżowej, M-Disc potrafi wytrzymać nawet kilkaset lat, stąd ten marketingowy przydomek 'millennial'. To nie jest tylko teoria – testy prowadzone przez amerykański Departament Obrony czy Instytut Informatyki i Automatyki potwierdzają, że M-Disc zachowuje czytelność danych w warunkach, które szybko powodują nierozpoznawalność zwykłych płyt. W praktyce często sięga się po M-Disc do archiwizacji danych medycznych, urzędowych czy rodzinnych archiwów fotograficznych – wszędzie tam, gdzie liczy się niezawodność przez dekady. Oczywiście, warto pamiętać, że do nagrania M-Disc potrzebna jest specjalna nagrywarka, ale potem można je już odczytywać w większości zwykłych czytników Blu-ray czy DVD. To rozwiązanie zgodne z dobrymi praktykami archiwizacji cyfrowej, gdzie kluczowe jest minimalizowanie ryzyka utraty danych na przestrzeni wielu lat.

Pytanie 27

ID3v2 umożliwia dodanie do pliku mp3 metadanych w formie

A. znaków w systemie szesnastkowym.
B. wyłącznie znaków ASCII.
C. wyłącznie grafiki.
D. tekstu i grafiki.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
ID3v2 to naprawdę bardzo uniwersalny standard oznaczania plików MP3 dodatkowymi informacjami, czyli właśnie metadanymi. Dzięki niemu możemy dołączyć do utworu nie tylko podstawowe dane tekstowe, takie jak tytuł, wykonawca, album, rok wydania czy gatunek muzyczny, ale również grafikę – na przykład okładkę albumu, zdjęcie wykonawcy albo nawet logo radia internetowego. Jest to super praktyczne, bo obecnie właściwie każdy odtwarzacz muzyczny wyświetla te dane – często właśnie na podstawie tagów ID3v2. Co ciekawe, standard ID3v2 nie ogranicza się tylko do tekstu zapisanego w ASCII – obsługuje różne kodowania znaków, nawet Unicode, więc spokojnie można wpisywać polskie znaki czy znaki z innych alfabetów. Moim zdaniem warto znać możliwości ID3v2, bo to otwiera drogę do tworzenia profesjonalnych archiwów muzycznych. W branży muzycznej i radiowej dobre wykorzystanie tagów ID3v2 jest wręcz obowiązkowe – to taka niepisana dobra praktyka. Jeśli kiedyś będziesz edytować muzykę lub przygotowywać własne podcasty, polecam zawsze zadbać o kompletne i poprawne tagi ID3v2, łącznie z dopasowaną grafiką. Tak jest po prostu wygodniej – i profesjonalniej.

Pytanie 28

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.fls
B. *.ldm
C. *.edl
D. *.oem

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format pliku *.edl oznacza „Edit Decision List” i jest to absolutny standard w postprodukcji filmowej od wielu lat. Taki plik zawiera dokładny zapis decyzji montażowych – czyli instrukcje, które fragmenty klipów wideo i audio mają być połączone, w jakiej kolejności, z jakimi przejściami i na jakiej osi czasu. Moim zdaniem EDL to taki cyfrowy „przepis” na montaż, który pozwala przenosić projekt pomiędzy różnymi systemami montażowymi, np. Adobe Premiere, Avid, DaVinci Resolve czy Final Cut Pro. Dużą zaletą EDL jest jego prostota i uniwersalność – można go łatwo edytować zwykłym edytorem tekstu, bo to zwykły plik tekstowy, nie żaden skomplikowany binarny format. W praktyce wygląda to tak, że reżyser i montażysta pracują nad projektem, a potem eksportują EDL, żeby wymienić się efektami pracy z dźwiękowcem czy coloristą. Często spotykałem się z sytuacją, gdzie tylko dzięki EDL-owi można było odzyskać czy przemapować cały montaż na innym komputerze czy w innym programie. Dla osób pracujących w branży filmowej, znajomość EDL i jego możliwości to po prostu podstawa. Warto też dodać, że choć istnieją nowsze formaty, takie jak XML czy AAF, to EDL wciąż pozostaje niezastąpionym narzędziem przy szybkiej wymianie montażu, szczególnie w środowiskach, gdzie liczy się kompatybilność i niezawodność.

Pytanie 29

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. AAC
B. FLAC
C. AC-4
D. WMA

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
FLAC to naprawdę świetny wybór, jeśli chodzi o bezstratną kompresję audio. Ten kodek, czyli Free Lossless Audio Codec, od lat uznawany jest przez branżę za wzorcowe rozwiązanie, kiedy komuś zależy na zachowaniu oryginalnej jakości nagrania po kompresji. Pliki FLAC są popularne nie tylko wśród audiofilów, ale też w studiach nagraniowych i archiwizacji dźwięku, bo pozwalają na idealną rekonstrukcję dźwięku po dekompresji – nie ma tu żadnych strat, wszystko brzmi dokładnie jak materiał źródłowy. Podczas codziennej pracy spotykałem się z sytuacjami, gdzie ktoś chciał zaoszczędzić miejsce na dysku, ale nie godził się na utratę jakości – i właśnie wtedy polecałem FLAC. Co ciekawe, to rozwiązanie jest otwarte, więc nie trzeba martwić się o jakieś dziwne licencje czy płatności. W dobrych praktykach branżowych mówi się, że jeśli archiwizujesz ważne nagrania, to najlepiej trzymać je właśnie w formacie bezstratnym, takim jak FLAC, a dopiero do bieżącego słuchania czy w urządzeniach mobilnych możesz robić wersje stratne, np. MP3 czy AAC. Moim zdaniem, warto znać różnicę pomiędzy kodekami bezstratnymi a stratnymi, bo to podstawa w pracy z dźwiękiem, zwłaszcza gdy w grę wchodzi jakość i możliwość późniejszej obróbki materiału.

Pytanie 30

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. ADAT
B. DCC
C. CC
D. SACD

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 31

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 100 GB
B. 25 GB
C. 200 GB
D. 50 GB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.

Pytanie 32

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD + R SL
B. DVD + R SL
C. DVD – R DL
D. CD – R DL

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
DVD – R DL faktycznie oferuje największą pojemność spośród podanych tu nośników optycznych. To trochę jak dwa standardowe DVD w jednym – technologia DL, czyli Dual Layer (podwójna warstwa), pozwala zapisać dane na dwóch fizycznych warstwach. Dzięki temu na jednym krążku można zmieścić do 8,5 GB danych, a to ponad dwukrotnie więcej niż na klasycznych płytach DVD typu Single Layer (SL), które mają około 4,7 GB. W branży informatycznej płyty DVD – R DL są wykorzystywane wszędzie tam, gdzie trzeba przenieść większe ilości danych – archiwizacja, kopie zapasowe, instalatory systemów operacyjnych, czy dystrybucja zaawansowanego oprogramowania. W praktyce, kiedy trzeba zrobić backup zdjęć z kilku lat albo nagrać filmy w wysokiej rozdzielczości, taki nośnik się sprawdza zdecydowanie lepiej niż płyty CD. Moim zdaniem, jeśli ktoś pracuje z większą ilością danych i nie chce mieć sterty płyt, lepiej wybrać takie rozwiązanie. Oczywiście, płyty optyczne coraz rzadziej się używa, ale w archiwizacji na lata lub tam, gdzie nie można sobie pozwolić na dyski twarde, to dalej jest solidna opcja. Warto pamiętać, że zapis na DVD DL wymaga odpowiedniego napędu obsługującego tę technologię – to taki trochę nieoczywisty szczegół, o którym zapomina sporo osób. Ale jak się już ogarnie sprzęt, to możliwości są dużo większe niż w przypadku CD czy DVD SL.

Pytanie 33

Możliwość wprowadzania zmian w materiałach zapożyczonych należy potwierdzić umową

A. zamiany.
B. licencyjną.
C. leasingową.
D. dzierżawy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Umowa licencyjna to podstawowy dokument w obrocie prawami autorskimi, szczególnie kiedy w grę wchodzi korzystanie z cudzych materiałów – czy to tekstów, grafik, muzyki, czy oprogramowania. W praktyce to właśnie licencja określa, na jakich zasadach możemy korzystać z danego utworu. To ona pozwala (lub nie) wprowadzać zmiany, modyfikować materiał, przetwarzać, kompilować czy udostępniać dalej. Z mojego doświadczenia wynika, że bez wyraźnych zapisów w licencji, nawet najdrobniejsza modyfikacja może być naruszeniem prawa autorskiego i prowadzić do nieprzyjemnych konsekwencji, zwłaszcza w pracy zawodowej. Branżowe dobre praktyki, np. te promowane przez Stowarzyszenie Twórców Grafiki Użytkowej czy organizacje zarządzające prawami autorskimi, zawsze podkreślają konieczność jasnej, pisemnej licencji na wszelkie działania wykraczające poza tzw. dozwolony użytek osobisty. Przykład z życia: jeśli kupujesz zdjęcie lub grafikę do projektu reklamowego i chcesz coś w nim zmienić (np. kolorystykę), musisz mieć to wyraźnie zapisane w licencji. W innym przypadku – lepiej nie ryzykować. Słowem, licencja to podstawa wszelkiej legalnej adaptacji cudzych materiałów, nie tylko w informatyce, ale też muzyce, filmie czy literaturze.

Pytanie 34

Na płycie DVD zawierającej materiał dźwiękowy nagrany w formacie 5.1 należy umieścić opis

A. Dolby Surround.
B. Dolby Stereo.
C. Dolby Digital EX.
D. Dolby Digital.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź Dolby Digital jest jak najbardziej trafiona, bo właśnie ten format od dawna jest standardem w przypadku zapisu dźwięku wielokanałowego 5.1 na płytach DVD. Takie rozwiązanie umożliwia zapis sześciu niezależnych kanałów audio – chodzi o lewy, prawy, centralny, dwa tylne (surround) i subwoofer (Low Frequency Effects, czyli .1). Moim zdaniem, w branży rozrywkowej i filmowej nie znajdziesz bardziej popularnego standardu, jeśli idzie o DVD. W praktyce, kiedy kupujesz film na DVD z nagraniem w systemie 5.1, na pudełku czy w opisie zawsze będzie właśnie oznaczenie Dolby Digital. To jest wymóg licencyjny i taka informacja dla użytkownika, bo pozwala od razu rozpoznać, jakiego sprzętu potrzebujesz, żeby w pełni wykorzystać potencjał ścieżki dźwiękowej. Warto dodać, że Dolby Digital jest też elastyczne – pozwala na kodowanie zarówno prostych ścieżek stereo, jak i zaawansowanych konfiguracji kinowych. Podobne rozwiązania stosuje się w telewizji cyfrowej czy streamingu, ale na DVD to właśnie Dolby Digital dominuje. Taka standaryzacja daje pewność kompatybilności z amplitunerami kina domowego i innymi urządzeniami audio. Dla branży to po prostu dobry kompromis między jakością a rozmiarem pliku i dostępnością dla użytkownika. Fajnie też wiedzieć, że Dolby Digital powstało w latach 90., a do dziś pozostaje jednym z najważniejszych formatów dla dźwięku przestrzennego na różnych nośnikach optycznych.

Pytanie 35

Który z podanych nośników umożliwia magnetooptyczny zapis dźwięku?

A. Dysk SSD
B. Płyta CD
C. Dysk MD
D. Płyta DVD

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dysk MD, czyli MiniDisc, to bardzo ciekawy nośnik, który wykorzystywał technologię magnetooptyczną do zapisu i odczytu dźwięku. Co to właściwie znaczy? Zapis na MD polegał na kombinacji działania lasera i pola magnetycznego – dane audio były zapisywane poprzez miejscowe podgrzewanie powierzchni dysku laserem, a następnie zmienianie jej właściwości magnetycznych. To pozwalało na wielokrotny zapis i kasowanie, co w tamtych czasach, szczególnie pod koniec lat 90., było sporą innowacją dla użytkowników sprzętu audio. W praktyce MiniDiski wykorzystywano głównie w profesjonalnych i półprofesjonalnych nagraniach audio, np. przez dziennikarzy radiowych czy muzyków do tworzenia tzw. masterów. Moim zdaniem, pod tym względem MD był jakby prekursorem późniejszych rozwiązań cyfrowych, bo dawał wygodę wielokrotnego zapisu bez utraty jakości, czego nie oferowały tradycyjne kasety magnetofonowe. Warto też wspomnieć, że standard MD był rozwijany przez Sony i zastosował kompresję ATRAC, co było zgodne z ówczesnymi trendami optymalizowania nośników audio. W branży często chwalono MD za trwałość zapisu i odporność na zakłócenia mechaniczne, co sprawia, że do dziś kolekcjonerzy sprzętu audio uznają go za wartościowy kawałek historii.

Pytanie 36

Aplikacje DAW mogą odtwarzać pliki

A. tylko typu <i>interleaved</i>.
B. audio oraz MIDI.
C. tylko w formatach kompresji stratnej.
D. o różnej rozdzielczości i różnej częstotliwości.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Aplikacje DAW, czyli Digital Audio Workstation, zostały zaprojektowane z myślą o wszechstronnej obsłudze zarówno plików audio, jak i danych MIDI. To jest praktycznie standard w branży – nie wyobrażam sobie pracy bez tej funkcjonalności, bo przecież producenci, realizatorzy i muzycy na co dzień korzystają z obu tych typów danych. Przykładowo, nagrywając wokal czy gitarę, pracujemy na ścieżkach audio, natomiast cały świat instrumentów wirtualnych, automatów perkusyjnych czy sterowania syntezatorami opiera się właśnie na MIDI. To właśnie elastyczność DAW-ów sprawia, że w jednym projekcie możesz miksować sample audio z partiami dogrywanymi na klawiaturze MIDI i automatyzować je bez żadnej dodatkowej konwersji. Standardy takie jak MIDI 1.0 czy najnowszy MIDI 2.0 są wspierane przez praktycznie każde poważne DAW: od Abletona przez Cubase po Logic Pro. Z mojego doświadczenia wynika, że umiejętność obsługi obu typów plików to dziś absolutna podstawa – pozwala nie tylko na swobodę twórczą, ale też na współpracę z innymi muzykami i producentami na całym świecie. Obsługa plików audio oraz MIDI to nie tylko wygoda, ale wręcz fundament pracy z każdym nowoczesnym DAW-em, bez względu na to, jaki gatunek muzyczny tworzysz.

Pytanie 37

Która z wymienionych wartości częstotliwości próbkowania zapewnia najszersze pasmo próbkowanego dźwięku?

A. 384 kHz
B. 192 kHz
C. 48 kHz
D. 96 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór częstotliwości próbkowania 384 kHz zdecydowanie daje najszersze możliwe pasmo dla próbkowanego dźwięku spośród dostępnych opcji. To wynika bezpośrednio z twierdzenia Nyquista, które mówi, że maksymalna częstotliwość sygnału, którą da się odtworzyć bez zniekształceń, to połowa częstotliwości próbkowania. Czyli przy 384 kHz górna granica dla pasma sygnału audio to aż 192 kHz. W praktyce to o wiele więcej niż potrzeba dla ludzkiego ucha (zwykle słyszymy max do 20 kHz), ale w zastosowaniach profesjonalnych – np. archiwizacji nagrań, masteringu audio lub podczas zaawansowanej obróbki cyfrowej – tak ogromne pasmo pozwala zminimalizować zniekształcenia kwantyzacyjne, artefakty aliasingu i daje dużo większą swobodę przy procesach edycji. Moim zdaniem, trochę to przerost formy nad treścią dla zwykłego słuchacza, ale studia nagraniowe i inżynierowie dźwięku często pracują w takich rozdzielczościach, bo potem mogą wyeksportować materiał do niższych formatów bez utraty jakości. Warto wiedzieć, że mimo iż standardy branżowe jak CD-Audio wymagają tylko 44,1 kHz, to przy zaawansowanej produkcji muzycznej czy nagrywaniu próbkowanie 384 kHz jest coraz częściej spotykane. Z mojego doświadczenia – jeśli zależy ci na absolutnym braku kompromisów w jakości materiału źródłowego, to wyższa częstotliwość próbkowania naprawdę robi różnicę, nawet jeśli potem nie wszystko słychać bezpośrednio – szczególnie przy wielokrotnym przetwarzaniu sygnału.

Pytanie 38

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 45 MB
C. 15 MB
D. 35 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest bardzo dobra odpowiedź, bo dokładnie trafia w praktyczne obliczenia związane z plikami audio wysokiej jakości. Stereofoniczny plik .wav przy 96 kHz, 24 bitach i długości 1 minuty zajmuje około 33 MB – zwykle zaokrągla się to do 35 MB, bo często sumuje się kilka dodatkowych kilobajtów metadanych czy nagłówka WAV. Wynika to z prostego wzoru: częstotliwość próbkowania × liczba bitów × liczba kanałów × czas (w sekundach), czyli 96 000 × 24 × 2 × 60 = 276 480 000 bitów, co po przeliczeniu daje 33 177 600 bajtów (~33 MB). Przy produkcji muzycznej czy nagraniach studyjnych takie parametry są standardem, bo gwarantują bardzo wysoką jakość dźwięku. W praktyce branżowej pliki WAV są bezstratne, więc często używa się ich właśnie do masteringu, archiwizacji czy obróbki audio, zanim zostaną skonwertowane do lżejszych formatów. Często ktoś pyta, dlaczego pliki WAV są takie duże – no, odpowiedź jest prosta: żadnej kompresji, wszystkie próbki są zachowywane w pełnej rozdzielczości. Warto wiedzieć, że różne DAWy czy sprzęty mogą mieć jeszcze swoje specyficzne nagłówki, ale podstawa matematyczna zawsze zostaje ta sama. Takie wiedza bardzo przydaje się, jeśli planujesz kupować dyski do studia albo archiwizować duże sesje nagraniowe. Szczerze mówiąc, moim zdaniem, kto raz to policzy, już nigdy nie zapomina, że dźwięk wysokiej klasy po prostu waży swoje.

Pytanie 39

Które z wymienionych oznaczeń systemu dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.1
B. 2.0
C. 1.1
D. 2.2

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Oznaczenie 2.0 jest klasycznym standardem, jeśli chodzi o dźwięk stereo w systemach audio. Liczba przed kropką (czyli 2) oznacza ilość podstawowych kanałów pełnozakresowych – w tym przypadku dwa, czyli lewy i prawy. Zero po kropce to z kolei informacja, że nie ma tu kanału subbasowego (LFE – Low Frequency Effects), który odpowiadałby za najniższe tony i który najczęściej występuje w konfiguracjach kina domowego (np. 2.1, 5.1). W praktyce, system 2.0 to po prostu para klasycznych głośników stereo, jaką bardzo często spotykasz w telewizorach, laptopach, wieżach hi-fi, a nawet w studiach nagraniowych podczas miksowania muzyki – tam podstawą jest właśnie odsłuch stereo bez wsparcia subwoofera. Z mojego doświadczenia wynika, że mimo rozwoju dźwięku wielokanałowego, 2.0 jest wciąż bardzo uniwersalnym i wykorzystywanym ustawieniem, chociażby w muzyce, gdzie przestrzenność uzyskuje się przez panoramowanie dźwięków między lewym a prawym kanałem. Dla filmów czy gier coraz częściej spotyka się inne kombinacje, ale stereo to wciąż podstawa, od której warto zacząć zrozumienie systemów audio. Warto pamiętać, że profesjonalne produkcje muzyczne są niemal zawsze miksowane w stereo, więc 2.0 to fundament i taki trochę złoty standard domowego odsłuchu.

Pytanie 40

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .song
B. .mid
C. .omf
D. .cpr

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie .omf to naprawdę bardzo ważny standard w pracy z różnymi programami DAW. OMF, czyli Open Media Framework, został stworzony właśnie po to, żeby umożliwić wymianę sesji audio pomiędzy odmiennymi środowiskami – na przykład przenosząc projekt z Cubase do Pro Tools albo z Logic do Nuendo. Moim zdaniem, jeśli ktoś poważnie myśli o współpracy z różnymi studiami czy producentami, to musi znać OMF, bo często to jedyny sposób na zachowanie struktury sesji, ścieżek, markerów, a nawet podstawowych automatyzacji. Przykładowo, jeśli ktoś dostaje zlecenie masteringu czy miksu, bardzo często klient przesyła właśnie plik .omf – dzięki temu nie trzeba eksportować każdej ścieżki osobno i ręcznie ustawiać ich w nowym DAW. W praktyce, OMF nie przenosi wszystkich ustawień wtyczek czy parametrów miksu, ale zachowuje układ ścieżek i przejścia audio, co w większości przypadków bardzo usprawnia pracę. Warto też wiedzieć, że OMF to branżowy standard, z którego korzysta się nawet w produkcjach filmowych, gdzie synchronizacja materiałów z różnych źródeł jest kluczowa. Pewnie, że formaty typu AAF zaczynają wypierać OMF, ale wciąż mnóstwo studiów korzysta z tego rozwiązania, bo jest po prostu sprawdzone i przewidywalne. Moim zdaniem, znajomość OMF to taki must-have każdego, kto działa z DAW-ami na poważnie.