Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 5 lutego 2026 09:49
  • Data zakończenia: 5 lutego 2026 09:56

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +RW
B. DVD –R
C. DVD +R DL
D. DVD +R
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych, co w praktyce oznacza, że na jednej stronie płyty można zapisać daną ilość danych, a po jej odwróceniu, na drugiej stronie – kolejną. Z mojego doświadczenia wynika, że takie rozwiązania są naprawdę przydatne, szczególnie przy archiwizacji dużych plików, chociaż dzisiaj coraz rzadziej spotyka się użytkowników korzystających z fizycznych nośników. Warto wiedzieć, że standard DVD +R DL (czyli Double Layer) pozwala na zapis dwóch warstw na jednej stronie płyty, a istnieją również płyty DVD o oznaczeniu DS (Double Side), które dają możliwość fizycznego odwrócenia płyty i zapisania danych po obu stronach, jednak najczęściej w kontekście testów i egzaminów mówi się o płytach dwuwarstwowych, zwanych często mylnie dwustronnymi – stąd mogą pojawiać się nieścisłości. W praktyce płyty DVD +R DL używa się tam, gdzie trzeba zmieścić do 8,5 GB danych, czyli na przykład dłuższe filmy w wysokiej jakości lub duże archiwa. Branża długo trzymała się tego rozwiązania, bo dawało większą elastyczność, a komputery i odtwarzacze obsługujące standard +R DL były dość powszechne. Warto też pamiętać, że aby w pełni wykorzystać możliwości takiej płyty, trzeba mieć odpowiedni napęd obsługujący zapis i odczyt na warstwie double layer – to takie typowe ograniczenie sprzętowe, o którym łatwo zapomnieć. Generalnie – DVD +R DL to praktyczne, czasem niedoceniane rozwiązanie, które pokazuje, jak rozwijały się fizyczne nośniki danych.

Pytanie 2

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Split
C. Mute
D. Copy
Funkcja „Mute” w sesji programu DAW jest podstawowym narzędziem do szybkiego wyciszania wybranych regionów, ścieżek lub nawet pojedynczych dźwięków w aranżacji. To rozwiązanie jest powszechnie stosowane w produkcji muzycznej, bo pozwala na błyskawiczne wyłączenie fragmentu utworu bez kasowania danych – nie tracisz żadnych informacji, zawsze możesz wrócić do tych dźwięków, kiedy tylko chcesz. Przykładowo, gdy miksujesz wokale i chcesz na chwilę usunąć niektóre fragmenty, żeby sprawdzić, jak brzmią inne elementy aranżacji, wystarczy kliknąć „Mute” na odpowiednim regionie. Moim zdaniem to bardzo wygodne, bo daje pełną elastyczność podczas pracy twórczej – nie musisz się stresować, że coś uszkodzisz na stałe. Zgodnie z praktykami branżowymi, korzystanie z „Mute” jest preferowane przed edycją destrukcyjną, gdy chcesz eksperymentować z aranżacją czy układem ścieżek. Funkcja ta jest obecna w praktycznie każdym liczącym się DAW – od Abletona, przez Cubase, aż po Pro Tools. Zaawansowani realizatorzy często używają „Mute” także do przygotowywania alternatywnych wersji miksu, bo pozwala to łatwo porównać różne układy instrumentów bez przeładowywania projektów. Dla mnie „Mute” to jedno z narzędzi, które naprawdę ratuje skórę w sytuacjach, kiedy trzeba coś szybko sprawdzić, a nie ma czasu na żmudne wycinanie czy kopiowanie regionów. W skrócie: praktyczne, szybkie i bezpieczne rozwiązanie na każdą sesję.

Pytanie 3

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. .m4p
B. .mp4
C. .mp3
D. .m4a
Rozszerzenie .mp4 jest obecnie jednym z najpopularniejszych formatów przechowywania zarówno ścieżek wideo, jak i audio w jednym pliku. Moim zdaniem to taki złoty standard w świecie multimediów – większość współczesnych urządzeń, od smartfonów po profesjonalne oprogramowanie do edycji wideo, obsługuje .mp4 bez najmniejszego problemu. Wynika to stąd, że MP4 (czyli dokładniej MPEG-4 Part 14) powstał jako otwarty kontener multimedialny, umożliwiający zapis różnych typów danych: obrazu, dźwięku, napisów, a nawet metadanych w jednym pliku. Przykładowo, jeśli ktoś montuje film w programie DaVinci Resolve czy Adobe Premiere, to zazwyczaj eksportuje gotowy projekt właśnie do .mp4, bo to format kompatybilny praktycznie ze wszystkim, także platformami internetowymi typu YouTube czy Facebook. Z mojego doświadczenia, jeśli zależy Ci na łatwym udostępnianiu materiałów wideo, szybkim przesyłaniu lub archiwizacji, .mp4 jest wyborem niemal oczywistym. Dodatkowo używa się w nim najczęściej kodeków H.264 dla obrazu i AAC dla dźwięku, co zapewnia bardzo dobrą jakość przy stosunkowo niskim rozmiarze plików. Warto pamiętać, że inne rozszerzenia z tej listy nie spełniają tej roli – to jest właśnie przewaga .mp4. Praktycznie zawsze, kiedy widzisz plik .mp4, możesz się spodziewać, że znajdziesz w nim zarówno obraz, jak i dźwięk. To taki branżowy pewniak.

Pytanie 4

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Last Session
B. Open Recent Session
C. Create Session from Template
D. Create Empty Session
Opcja „Create Session from Template” to w wielu DAW-ach, takich jak Pro Tools czy Cubase, prawdziwy gamechanger dla tych, którzy chcą pracować szybciej i efektywniej. Dlaczego? Pozwala ona od razu wystartować z gotową strukturą projektu—na przykład z ustawionymi torami, grupami, routingiem, efektami, a nawet wzorcowymi ustawieniami miksera. W branży muzycznej to standardowa praktyka, bo szablony oszczędzają mnóstwo czasu przy powtarzalnych zleceniach, np. nagraniach podcastów czy miksowaniu demówek zespołów. Moim zdaniem, szablony są wręcz nieocenione, gdy trzeba szybko przejść do właściwej pracy, nie bawić się w ustawianie wszystkiego od nowa. Kiedyś sam marnowałem czas na kopiowanie ustawień i zawsze coś pominąłem, a teraz—raz skonfigurowany template i problem znika. Profesjonaliści często budują własne szablony dla różnych typów projektów: osobne do nagrań live, inne do miksu czy masteringu. To też dobry sposób, żeby nie zapomnieć o drobnych szczegółach, które później wychodzą w praniu. Używanie tej opcji to nie tylko wygoda, ale wręcz podstawa workflow w nowoczesnej produkcji audio.

Pytanie 5

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podkówkowych?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 2 ścieżki.
D. 3 ścieżki.
Minimalna liczba ścieżek monofonicznych, którą trzeba przygotować w takim przypadku, to właśnie cztery. Wynika to bezpośrednio z samej techniki mikrofonowej oraz liczby zastosowanych mikrofonów. Ustawienie XY polega na ustawieniu dwóch mikrofonów (najczęściej kardioidalnych) pod kątem względem siebie, żeby zarejestrować obraz stereo, więc z automatu mamy dwa źródła sygnału – lewy i prawy kanał stereo, ale każdy mikrofon daje osobny sygnał monofoniczny. Do tego dochodzą dwa mikrofony podkówkowe, które pracują zazwyczaj jako niezależne źródła dźwięku, często wykorzystywane do bliższego ujęcia wybranych sekcji lub solistów. W sumie mamy więc cztery unikalne sygnały, które warto rozdzielić na osobnych ścieżkach w DAW, żeby mieć pełną kontrolę na etapie miksowania. Często w praktyce inżynierowie dźwięku wręcz zalecają prowadzenie każdej ścieżki z osobnego mikrofonu na oddzielnym torze. Pozwala to nie tylko na lepsze balansowanie poziomów, ale też stosowanie różnych efektów czy korekcji, co na pewno przekłada się na wyższą jakość końcowego miksu. Co ciekawe, czasami spotyka się nagrania, gdzie ktoś łączy sygnały na etapie rejestracji, ale to raczej rzadkość – zdecydowanie bezpieczniej i wygodniej jest zostawić sobie elastyczność przy montażu. Moim zdaniem to po prostu profesjonalne podejście – dzięki temu możesz potem decydować o panoramie, kompresji czy pogłosie osobno dla każdej ścieżki. Tak jest po prostu wygodniej i sensowniej, szczególnie w muzyce chóralnej, gdzie detale są bardzo ważne.

Pytanie 6

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. reverb.
C. ogranicznik.
D. time stretch.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 7

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .mp3
B. .m4a
C. .aac
D. .wav
Format pliku .wav to chyba najbardziej popularny wybór, jeśli zależy komuś na maksymalnej jakości i zachowaniu wszystkich szczegółów dźwięku. W praktyce .wav jest formatem bezstratnym, co oznacza, że nie kompresuje on danych audio tak, jak robią to np. .mp3 czy .aac. Dzięki temu żadne informacje dźwiękowe nie są usuwane czy upraszczane – nagranie zachowuje oryginalną jakość, jaką udało się zarejestrować podczas nagrywania czy miksowania. Często w studiach nagraniowych, przy obróbce dźwięku do filmów czy podcastów, pliki .wav są uznawane za standard, bo pozwalają na dalszą edycję bez strat jakości. Moim zdaniem, jeśli masz choćby cień wątpliwości, którą ścieżkę wybrać do archiwizacji albo profesjonalnej produkcji, to zawsze .wav będzie pewniakiem. To oczywiście wiąże się z większymi rozmiarami plików, ale w wielu sytuacjach nie ma to aż takiego znaczenia – ważniejsze jest, aby nie tracić żadnych detali. Warto też pamiętać, że wiele systemów multimedialnych, DAW-ów (Digital Audio Workstation) czy nawet starszych konsol lepiej radzi sobie właśnie z .wav. Tak po ludzku: tam, gdzie liczy się czysta jakość i pełna informacja, nie kombinuj, tylko wybierz .wav.

Pytanie 8

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 256 próbek.
B. 32 próbki.
C. 64 próbki.
D. 128 próbek.
Wielkość bufora w DAW to jedna z tych rzeczy, które na pierwszy rzut oka wydają się mało istotne, a tak naprawdę decydują o całym komforcie pracy przy nagrywaniu. Często spotykam się z przekonaniem, że bufor 64 czy 128 próbek to już wystarczająco mało i nie ma sensu schodzić niżej — przecież komputer będzie bardziej stabilny i nie zabraknie mocy przy cięższych projektach. To tylko połowa prawdy. Owszem, większy bufor (np. 128 albo 256 próbek) daje lepszą stabilność, szczególnie gdy w projekcie jest mnóstwo wtyczek, ale niestety odbywa się to kosztem zwiększonej latencji, czyli opóźnienia między tym, co grasz lub śpiewasz, a tym co słyszysz. A to przy nagrywaniu potrafi być irytujące do granic. Często osoby zaczynające pracę z DAW mylą pojęcia — sądzą, że bufor 128 lub 256 próbek to kompromis między szybkością a stabilnością. Jednak w praktyce nawet bufor 64 próbki, choć daje już sensowną latencję, nadal nie jest tak szybki jak 32 próbki, które są obecnie standardem przy profesjonalnych sesjach nagraniowych. Tu liczy się minimalne opóźnienie — im mniej, tym lepiej dla wykonawcy. Większe bufory są idealne przy miksowaniu czy masteringu, gdzie nie potrzebujemy grania w czasie rzeczywistym i możemy pozwolić sobie na kilkanaście milisekund opóźnienia. Typowy błąd to myślenie, że minimalna latencja zawsze oznacza problemy ze stabilnością — to zależy od mocy komputera. Nowoczesne systemy i interfejsy radzą sobie świetnie przy 32 próbkach. Podsumowując, jeśli naprawdę zależy Ci na minimalnej latencji podczas nagrania, to bufor 32 próbki nie ma sobie równych. Pozostałe opcje mogą być wygodniejsze przy pracy z dużymi sesjami, ale to już zupełnie inny temat.

Pytanie 9

Którego toru wirtualnego miksera w programie DAW należy użyć do obróbki równoległej dźwięku za pomocą efektu pogłosu?

A. Aux.
B. MIDI.
C. Audio.
D. Instrument.
Aux to prawdziwy król, jeśli chodzi o obróbkę równoległą, szczególnie w przypadku efektu pogłosu. W wirtualnych mikserach DAW tworzy się tory typu Aux (czasem nazywane też Send/Return), żeby wysyłać na nie sygnał z różnych ścieżek i tam wspólnie go przetwarzać jednym efektem. Dlatego nie musisz wrzucać kilku pogłosów na każdą ścieżkę osobno, co oszczędza moc obliczeniową i daje większą kontrolę nad proporcjami efektu. To bardzo wygodne, bo np. wokal, gitara i werbel mogą korzystać z tego samego pogłosu, ale każdy w innym natężeniu (regulujesz to gałką send na każdej ścieżce). Z mojego doświadczenia, jeśli chcesz edytować efekt globalnie lub automatyzować jego parametry w jednym miejscu – tor Aux to najlepsza opcja. Tak się robi w każdym profesjonalnym studiu i tego wymagają nawet podstawowe standardy miksu. Ciekawostka: ten sposób pozwala uzyskać bardziej spójne przestrzenie w miksie, bo wszystkie ślady „siedzą” w tym samym pomieszczeniu, czyli brzmią naturalnie. Oczywiście są sytuacje, gdzie lepiej użyć insertu, ale przy równoległej obróbce, szczególnie z pogłosem, tor Aux jest bezkonkurencyjny. No i przy masteringu też się czasem przydaje, tylko już trochę bardziej zaawansowane rzeczy wtedy się robi.

Pytanie 10

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 24 bity.
B. 20 bitów.
C. 8 bitów.
D. 16 bitów.
24-bitowa rozdzielczość bitowa to dziś taki złoty standard w profesjonalnych zastosowaniach dźwiękowych i nie ma w tym przypadku. Im więcej bitów w próbkowaniu sygnału audio, tym mniejszy poziom szumów kwantyzacji – to po prostu matematyka. Szum kwantyzacji wynika z ograniczonej liczby poziomów, na które dzielimy amplitudę sygnału. Przy 8-bitach tych poziomów jest raptem 256, przy 16 już 65 536, a przy 24 bitach aż ponad 16 milionów. Przekłada się to na bardzo dużą dokładność odtworzenia każdego cichego niuansu nagrania, szczególnie jeśli chodzi o dynamikę, np. w muzyce klasycznej czy przy masteringu nagrań. Profesjonalne studia nagraniowe korzystają z 24 bitów właśnie po to, by zachować jak największą szczegółowość i minimalizować artefakty kwantyzacji. Co ciekawe, standardy dystrybucji muzyki, jak CD-Audio, zatrzymały się na 16 bitach, ale w praktyce podczas nagrywania i produkcji używa się 24, a czasem nawet więcej – potem przy eksporcie się to redukuje. Moim zdaniem, jak ktoś poważnie myśli o pracy z dźwiękiem, powinien znać tę zależność. Z mojego doświadczenia różnica najbardziej słyszalna jest przy obróbce wielokrotnej, bo szumy łatwo się kumulują. Minimum 24 bity to już taka solidna podstawa przy profesjonalnej pracy z dźwiękiem, jak i w zastosowaniach audiofilskich.

Pytanie 11

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Mute
C. Split
D. Copy
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 12

Pierwsza para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. ramkę.
C. sekundę.
D. godzinę.
Kod czasowy SMPTE to narzędzie, które wprowadziło bardzo precyzyjny sposób oznaczania czasu w nagraniach audio-wideo. Każda z czterech par cyfr w takim kodzie ma swoje konkretne znaczenie, które jest ustalone przez międzynarodowy standard. Czasem można się łatwo pomylić, bo kolejność wydaje się podobna do zwykłego zegara, ale jednak każda para ma swoje miejsce. Przyjmowanie, że pierwsza para oznacza ramkę, to moim zdaniem typowy błąd wynikający z mylenia układów – ramki zawsze są na końcu, bo to one odpowiadają za najbardziej szczegółowy podział czasu (np. 25 czy 30 klatek na sekundę w zależności od systemu). To, że wydaje się, iż na początku są minuty lub sekundy, wynika chyba z przyzwyczajenia do odczytywania czasu w formacie MM:SS czy HH:MM:SS, jak na zegarku. Jednak w SMPTE, pierwsza para to zawsze godziny — potem minuty, sekundy i dopiero na końcu ramki. Takie pomyłki prowadzą w praktyce do sporych nieporozumień podczas montażu, bo wyobraź sobie sytuację, gdy podajesz technikowi kod czasowy, mając na myśli inną jednostkę niż on – totalny chaos na planie lub w studiu. Warto wiedzieć, że ten porządek nie jest przypadkowy; to rozwiązanie pozwala na precyzyjną synchronizację sprzętu i daje kompatybilność między różnymi systemami. Standardy SMPTE są powszechnie respektowane w branży telewizyjnej, filmowej, radiowej czy nawet w systemach automatyki scenicznej. Moim zdaniem bardzo ważne jest, żeby nie lekceważyć tej kolejności – to jedno z podstawowych narzędzi profesjonalisty i bez tej wiedzy trudno o efektywną współpracę w większych produkcjach. Zdecydowanie warto o tym pamiętać, szczególnie jeśli chcesz uniknąć nieporozumień na etapie postprodukcji czy transmisji na żywo.

Pytanie 13

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 1.1
B. 2.2
C. 2.1
D. 2.0
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 14

Której komendy programu DAW należy użyć w celu przywrócenia stanu sesji montażowej do ostatnio zapisanej wersji?

A. Save
B. Revert to Saved
C. Save Copy In
D. Save As
Komenda „Revert to Saved” to taki trochę ratunek, kiedy coś pójdzie nie po naszej myśli podczas pracy w DAW. Jeśli np. przypadkowo usuniesz ścieżkę, nadpiszesz efekt czy po prostu eksperymentujesz i chcesz wrócić do momentu, w którym ostatnio zapisałeś projekt, to właśnie ta opcja pozwala cofnąć całą sesję do ostatniego, zapisanego stanu. Nie zapisuje aktualnych zmian, nie pyta o nic, po prostu wczytuje ostatnią wersję projektu. W praktyce na bieżąco warto używać funkcji Save (albo nawet autosave, jak DAW na to pozwala), żeby minimalizować ewentualne straty, ale jak już się pogubisz lub coś pójdzie nie tak – Revert to Saved to klasyczny „panic button”. W branży muzycznej i postprodukcyjnej to rozwiązanie pozwala zachować porządek i pewność, że możesz wrócić do bezpiecznego punktu w każdej chwili. Moim zdaniem dobre praktyki to regularne zapisywanie, robienie kopii zapasowych (np. Save Copy In przy większych zmianach), a Revert zostawić sobie na sytuacje awaryjne, gdy trzeba naprawdę odkręcić całą sesję. Dla osoby pracującej z dużą ilością ścieżek czy efektów, to oszczędza mnóstwo czasu i stresu – zwłaszcza gdy deadline na karku.

Pytanie 15

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .wav, 96 kHz, 8 bitów.
B. .aiff, 48 kHz, 16 bitów.
C. .wav, 192 kHz, 8 bitów.
D. .aiff, 96 kHz, 16 bitów.
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 16

Którym z wymienionych programów nie można edytować wielościeżkowej sesji dźwiękowej?

A. Adobe Audition.
B. Samplitude.
C. ReNOVAtor.
D. Pro Tools.
Wybór jako poprawnej odpowiedzi takich programów jak Pro Tools, Samplitude czy Adobe Audition świadczy o pewnych nieporozumieniach co do ich funkcjonalności. Wszystkie te aplikacje to pełnoprawne stacje robocze audio (DAW), które stworzone zostały właśnie do obsługi i edycji wielościeżkowych projektów dźwiękowych. Pro Tools to w zasadzie standard branżowy w większości profesjonalnych studiów nagraniowych – niemal każdy większy projekt muzyczny, filmowy czy postprodukcyjny korzysta z jego rozbudowanych możliwości miksowania i aranżacji wielu ścieżek jednocześnie. Samplitude, choć nieco mniej znany w Polsce, oferuje potężne narzędzia do pracy wielościeżkowej, obsługując nawet bardzo dużą liczbę kanałów, co jest szczególnie cenione przy dużych sesjach nagraniowych. Adobe Audition także został zaprojektowany z myślą o edycji wielościeżkowej – jego środowisko multitrack pozwala swobodnie nagrywać, edytować i miksować złożone projekty audio, co bardzo przydaje się w pracy radiowca czy realizatora dźwięku pod podcasty i postprodukcję wideo. Częsty błąd myślowy polega na myleniu programów ogólnego przeznaczenia do edycji dźwięku z wyspecjalizowanymi narzędziami naprawczymi. ReNOVAtor jest właśnie takim specyficznym narzędziem – skupia się na naprawie pojedynczych ścieżek audio, usuwaniu artefaktów i retuszu, ale nie posiada środowiska do pełnej pracy na wielu ścieżkach równocześnie. Branżowe praktyki zalecają korzystanie z DAW-ów do kompleksowej pracy nad projektem, a narzędzi takich jak ReNOVAtor używać tylko wtedy, gdy trzeba coś naprawić lub oczyścić w pojedynczym pliku. Właśnie dlatego wybieranie Pro Tools, Samplitude czy Adobe Audition jako odpowiedzi jest niezgodne z praktyczną rzeczywistością pracy studyjnej oraz standardami branżowymi.

Pytanie 17

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 20 MB
C. Około 1 MB
D. Około 10 MB
Sporo osób myli się, szacując rozmiar pliku audio, bo często myślimy o mniej wymagających formatach, takich jak MP3 albo zapominamy, ile danych generuje dźwięk wysokiej jakości bez kompresji. Jeśli komuś wyszło około 1 MB, to prawdopodobnie pomylił plik bezstratny z mocno skompresowanym – np. 1 minuta pliku MP3 o niskiej jakości rzeczywiście tyle może ważyć, ale nie plik WAV o parametrach CD-Audio. Odpowiedź typu 5 MB bierze się chyba z niepełnego przemnożenia wszystkich parametrów (np. pominięcia liczby kanałów albo złego przeliczenia bitów na bajty). Zdarza się też, że ktoś bierze pod uwagę tylko mono, a nie stereo, co o połowę zaniża wynik. Z kolei 20 MB to raczej przeszacowanie: być może ktoś założył wyższą rozdzielczość (np. 24 bity) lub pomylił minuty z sekundami przy liczeniu czasu. Generalnie, w audio zawodowym standard CD to 44,1 kHz, 16 bitów, dwa kanały, i to daje około 10 MB na minutę. Przy obróbce materiałów do radia czy nagrań lepiej zawsze przeliczać to dokładnie, bo łatwo zapełnić dysk zbyt dużymi plikami. Praktycy branży audio wiedzą, że ten standardowy przelicznik warto mieć „w głowie”, bo odpowiednie szacowanie potrzebnej przestrzeni czy przepustowości to codzienność, a błędy w tych rachunkach mogą skutkować poważnymi problemami np. z archiwizacją materiałów czy transferem przez sieć. Takie nieporozumienia wynikają najczęściej z nieuwzględnienia wszystkich parametrów technicznych – a one, wbrew pozorom, mają spore znaczenie w praktyce.

Pytanie 18

W którym z wymienionych obszarów roboczych DAW przygotowuje się zapis w postaci partytury?

A. Mix.
B. Score.
C. Transport.
D. Edit.
Score to właśnie ten obszar w większości cyfrowych stacji roboczych audio (DAW), gdzie przygotowuje się zapis nutowy, czyli partyturę. Moim zdaniem, jest to kluczowy moduł, jeśli pracujesz z muzyką, którą chcesz później przekazać instrumentalistom czy zespołowi – albo po prostu zależy Ci na jasnym przedstawieniu struktur muzycznych w klasyczny sposób. W trybie Score możesz nie tylko oglądać nuty generowane z MIDI, ale i ręcznie je edytować, dodając oznaczenia artykulacyjne, dynamikę, zmiany tempa, takty itp. To bardzo wygodne, bo pozwala szybko przekonwertować pomysły z klawiatury sterującej na czytelny zapis nutowy, praktycznie gotowy do wydruku lub eksportu w formacie PDF albo MusicXML. W profesjonalnych produkcjach często to właśnie w Score przygotowuje się tzw. wyciągi partii dla sesji nagraniowych. Z mojego doświadczenia wynika, że nawet przy produkcjach popowych, w których dominuje MIDI, funkcja Score nieraz ratuje skórę, gdy trzeba coś pokazać sekcji smyczkowej czy dętej. Warto ją znać i wykorzystywać, bo to bardzo przyspiesza pracę i pozwala uniknąć nieporozumień z muzykami.

Pytanie 19

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Solo.
C. Mute.
D. Freeze.
Dość często spotykam się z zamieszaniem wokół terminów takich jak solo, mute czy freeze, zwłaszcza na początku nauki obsługi programów DAW i pracy z dźwiękiem. Solo to funkcja, która pozwala odsłuchać wybraną ścieżkę – wyizolowuje ją na czas pracy, ale nie wycisza jej stopniowo, tylko po prostu wyłącza pozostałe. To bardzo przydatne, gdy chcesz się skupić na jednym instrumencie czy wokalu, ale nie ma nic wspólnego z płynnym zanikiem dźwięku. Z kolei mute to klasyczna funkcja wyciszania – klikniesz i ścieżka milknie natychmiast, bez żadnego łagodnego przejścia. To jest typowy błąd myślowy: mute równa się cisza, więc może chodzi o fade out? Ale niestety, nie – mute jest zero-jedynkowy, a fade out zawsze kojarzy się z płynnością i brakiem gwałtownych zmian. Freeze natomiast w środowisku audio oznacza zamrożenie ścieżki, czyli przerobienie jej na plik audio w celu odciążenia procesora – żadnego wpływu na głośność czy wyciszanie. Często myli się to ze stop-klatką w video, ale w audio freeze to czysto techniczna operacja. Moim zdaniem właśnie przez nieznajomość tych subtelnych różnic łatwo pomylić funkcje, szczególnie jeśli ktoś korzysta z polskich wersji programów, gdzie tłumaczenia bywają mylące. Fade out to jedyna odpowiedź, która spełnia warunek stopniowego, kontrolowanego wyciszenia i jest powszechnie stosowana w realizacji dźwięku – trudno mi sobie wyobrazić, żeby inna opcja miała tutaj rację bytu. Dobrze znać te niuanse, bo potem praca z dźwiękiem idzie sprawniej i nie popełnia się podstawowych błędów.

Pytanie 20

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 5
B. 1
C. 2
D. 10
Wartość dobroci filtru (Q, czyli quality factor) bezpośrednio wpływa na szerokość pasma, które jest obejmowane przez działanie filtru lub korektora. Im wyższa wartość Q, tym filtr obejmuje węższy zakres częstotliwości – działa bardziej selektywnie i precyzyjnie. Natomiast przy niższych wartościach Q zakres częstotliwości, na który filtr oddziałuje, staje się szerszy i bardziej rozciągnięty. W praktyce, jeśli chodzi o zastosowania w akustyce czy elektronice, wybór wartości Q zależy od tego czy chcemy delikatnie korygować szeroki fragment pasma, czy może bardzo precyzyjnie wycinać lub wzmacniać konkretne częstotliwości. Jednak w tym pytaniu pytamy o szerokość pasma objętego przez korektor i tu sprawa jest trochę przewrotna – NAJSZERSZY zakres uzyskujemy przy najniższym Q, czyli Q=1. Tak jest zgodnie z definicją: szerokość pasma jest odwrotnie proporcjonalna do Q. Moim zdaniem na co dzień można się pomylić, bo w praktyce często myślimy o „lepszym” filtrze jako tym precyzyjniejszym, ale tutaj szerszy zakres – czyli mniej precyzyjny, ale rozciągnięty – to właśnie Q=1. Spotyka się to często w prostych korektorach graficznych, gdzie wycinając szerokie pasmo, stosuje się właśnie niskie dobroci. Standardy branżowe, jak np. parametry korektorów w stołach mikserskich, to potwierdzają.

Pytanie 21

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. adaptive limiter.
B. expander.
C. compander.
D. multiband compressor.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 22

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 172 kB?

A. 10 sekund.
B. 120 sekund.
C. 60 sekund.
D. 1 sekundę.
W formacie CD-Audio obowiązuje bardzo konkretny standard zapisu – jest to 16 bitów (czyli 2 bajty) na próbkę, dwukanałowy dźwięk (stereo), a częstotliwość próbkowania wynosi 44,1 kHz. Oznacza to, że w ciągu jednej sekundy nagrania zapisanej w „jakości płytowej” trzeba zapisać 44 100 próbek na każdy kanał, czyli łącznie 44 100 x 2 = 88 200 próbek, a każda z nich ma 2 bajty. Całkowita liczba bajtów na sekundę to więc 88 200 x 2 = 176 400 bajtów, czyli ok. 172 KB (zakładając zaokrąglenie do najbliższego tysiąca). To właśnie dlatego plik o rozmiarze 172 kB odpowiada jednej sekundzie dźwięku w jakości CD-Audio – format ten jest bardzo „zasobożerny”, zwłaszcza w porównaniu do kompresowanych MP3 czy AAC, gdzie jedna sekunda może zajmować kilkanaście lub kilkadziesiąt razy mniej miejsca. Moim zdaniem warto to zapamiętać, bo w praktyce (np. przy ripowaniu płyt czy pracy ze stacjonarnymi rejestratorami) takie wyliczenia pozwalają od razu ocenić, czy mamy wystarczająco dużo miejsca na dysku. Branżowe standardy, takie jak Red Book Audio, jasno to definiują – 1 sekunda to około 172 kB przy 44,1 kHz/16 bit/stereo, bez żadnej kompresji. Czasem, przy analizie plików lub konwersji do innych formatów, możesz się spotkać z innymi wartościami, ale to już będzie wynikać z zastosowanej kompresji lub zmiany parametrów próbkowania.

Pytanie 23

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 48 dB
B. 96 dB
C. 144 dB
D. 192 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 24

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 18 dB/okt.
B. 12 dB/okt.
C. 6 dB/okt.
D. 24 dB/okt.
Stosunkowo często można spotkać się z przekonaniem, że niewielkie nachylenia zbocza filtru, takie jak 6 dB/okt. czy 12 dB/okt., wystarczają do skutecznego tłumienia niepożądanych częstotliwości. Wynika to z tego, że filtry pierwszego i drugiego rzędu – czyli odpowiednio 6 dB/okt. i 12 dB/okt. – są prostsze w konstrukcji i tańsze. Jednak, z mojego doświadczenia, kiedy próbujemy je stosować w bardziej wymagających aplikacjach, szybko okazuje się, że sygnały spoza pasma przepustowego są tłumione zbyt łagodnie. To prowadzi do sytuacji, gdzie niechciane częstotliwości przenikają do wyjścia filtru, co może być problematyczne np. w sprzęcie audio, układach telekomunikacyjnych czy automatyce. Często też mylona jest jednostka – niektórzy sądzą, że im mniejsza liczba dB/okt., tym filtr jest bardziej „ostry”, ale jest dokładnie odwrotnie. Im wyższa wartość dB/okt., tym filtr „ścina” sygnał mocniej, przypominając bardzo strome zbocze. W praktyce filtry o nachyleniu 18 dB/okt. są już dość skuteczne, ale nadal nie dorównują 24 dB/okt., które można znaleźć w profesjonalnych crossoverach, filtrach subwooferowych czy sprzęcie medycznym, gdzie liczy się jak najefektywniejsze oddzielenie sygnałów. Typowy błąd polega też na nieświadomym ignorowaniu wpływu zbyt łagodnego filtru na przenikanie zakłóceń – takie zjawiska jak przesłuchy między kanałami czy powstawanie szumów są szczególnie dotkliwe właśnie przy zbyt niskim nachyleniu. Zatem, jeśli zależy nam na ostrym, zdecydowanym cięciu sygnału poza pasmem, jedyną słuszną odpowiedzią jest 24 dB/okt., bo tylko taki filtr zapewnia naprawdę strome zbocze i skuteczną separację częstotliwości.

Pytanie 25

Który z przedstawionych kodów, będący częścią dokumentacji montażowej, ułatwia rozliczanie praw autorskich?

A. EAN
B. ISRC
C. MTC
D. SMPTE
Wybrałeś ISRC i to jest dobry trop, bo to właśnie ten kod ma kluczowe znaczenie przy rozliczaniu praw autorskich w branży muzycznej i audiowizualnej. ISRC, czyli International Standard Recording Code, jest takim trochę „numerem PESEL” dla nagrań dźwiękowych lub wideoklipów – identyfikuje każde nagranie w sposób jednoznaczny, niezależnie od tego, ile razy i w jakiej formie zostanie wydane. W praktyce, gdy utwór pojawia się np. na Spotify czy YouTube albo jest odtwarzany w radiu, to właśnie po ISRC organizacje zbiorowego zarządzania jak ZAiKS czy ZPAV rozliczają tantiemy. Bez tego kodu śledzenie praw do utworu byłoby totalnym chaosem, szczególnie jak tych nagrań są tysiące. Cały świat muzyczny opiera się na tej standaryzacji, bo pozwala wyeliminować nieporozumienia przy przepływie pieniędzy za emisję czy sprzedaż. Na przykład w profesjonalnej dokumentacji montażowej dołączasz ISRC do każdego pliku audio, bo to bardzo pomaga księgowym i prawnikom. Co ciekawe, kody ISRC są przydzielane przez uprawnione organizacje i nie można ich sobie wymyślić samodzielnie – to ważny element całego procesu wydawniczego i potem dystrybucji cyfrowej. Moim zdaniem, znajomość zasad nadawania ISRC i roli tego kodu to dzisiaj absolutna podstawa dla każdego, kto myśli na poważnie o pracy w realizacji dźwięku czy produkcji muzycznej. Szkoda, że wciąż tak wielu początkujących twórców nie zwraca na to uwagi, a potem pojawiają się niepotrzebne komplikacje przy rozliczeniach.

Pytanie 26

Plik sesji montażowej o rozszerzeniu nazwy .sesx utworzony został przez program

A. Adobe Audition
B. Avid Pro Tools
C. Presonus Studio One
D. Apple Logic Pro X
Pliki sesji montażowej zazwyczaj mają unikatowe rozszerzenia dla każdego z popularnych programów DAW, co czasem prowadzi do mylnego przypisywania formatów. Zdarza się, że osoby pracujące z audio kojarzą .sesx z podobnymi nazwami, np. z Pro Tools, który jednak zapisuje swoje sesje w formacie .ptx (dawniej .pts i .ptf), co wynika z zupełnie odmiennego podejścia do organizowania projektów – Avid stosuje własny, zamknięty system plików i katalogów dla sesji. Z kolei Logic Pro X korzysta ze swojego formatu .logicx, który zawiera całą strukturę projektu, ścieżki, ustawienia i instrumenty MIDI. Niektórzy mogą też odruchowo wskazać Studio One, jednak tutaj spotkamy się z rozszerzeniem .song dla projektów sesyjnych. To dość typowe, że myli się te rozszerzenia, bo cała branża audio korzysta z różnych systemów i czasem nazwy są łudząco podobne. Błędne skojarzenia mogą wynikać z pracy w kilku DAWach naraz lub korzystania z uniwersalnych plików audio, które nie są powiązane z konkretnym środowiskiem. Warto zwracać uwagę na te detale, bo wybór właściwego formatu sesji pozwala uniknąć problemów z kompatybilnością, archiwizacją i przenoszeniem projektów – szczególnie gdy pracujemy w większym zespole czy przekazujemy projekt do innego studia. Kluczowe jest, żeby rozumieć te niuanse, bo od tego zależy płynność pracy i bezpieczeństwo naszych danych.

Pytanie 27

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. filtru dolnoprzepustowego.
B. ekspandera.
C. bramki szumów.
D. kompresora.
Redukcja podmuchów wiatru na nagraniu to jedna z typowych bolączek w pracy z dźwiękiem, zwłaszcza przy nagraniach terenowych. Niestety, wiele osób ma tendencję do sięgania po narzędzia, które wydają się uniwersalne, ale w tym konkretnym przypadku nie przynoszą oczekiwanych rezultatów. Ekspander, którego głównym zadaniem jest zwiększanie kontrastu dynamicznego – czyli pogłębianie różnicy między cichymi a głośnymi fragmentami – nie potrafi selektywnie eliminować niskoczęstotliwościowych zakłóceń powodowanych przez wiatr. Stosowany jest raczej do ograniczania szumów tła w przerwach, ale nie radzi sobie z ciągłymi niskimi dźwiękami, które występują jednocześnie z mową. Z kolei kompresor działa niejako odwrotnie – ściska dynamikę, przez co nagłe podmuchy mogą wręcz stać się bardziej słyszalne, bo poziom głośniejszych fragmentów zostanie zbliżony do normalnych, a to zupełnie nie pomaga w uzyskaniu czystego nagrania. Bramki szumów, choć czasami użyteczne przy eliminacji szumu tła, bazują na ustawieniu progu czułości i wyciszaniu wszystkiego poniżej niego. W przypadku podmuchów wiatru, które są często głośne i bardzo niskie, bramka może po prostu nie zadziałać lub wręcz wycinać fragmenty mowy, robiąc więcej szkody niż pożytku. Moim zdaniem, błędne jest przekonanie, że każde narzędzie do dynamiki czy szumów jest uniwersalne – praktyka uczy, że skuteczność uzyskuje się tylko przez właściwe dopasowanie rozwiązania do problemu. Dobrym nawykiem jest uważne analizowanie widma dźwięku i stosowanie narzędzi częstotliwościowych, takich jak filtr dolnoprzepustowy, które naprawdę są dedykowane do walki z niskimi, mechanicznymi zakłóceniami.

Pytanie 28

Który z plików dźwiękowych będzie posiadał największy rozmiar przy długości materiału muzycznego 1 h?

A. aiff
B. mpeg2
C. gt
D. mp3Pro
Wiele osób zakłada, że najbardziej znane formaty kompresji audio, takie jak mp3Pro lub mpeg2, generują duże pliki, bo przecież „jakość kosztuje”, ale w rzeczywistości jest zupełnie odwrotnie – to właśnie one powstały po to, by zminimalizować rozmiar plików kosztem części jakości dźwięku. mp3Pro oraz mpeg2 stosują skomplikowane algorytmy kompresji stratnej, które analizują sygnał audio i usuwają te fragmenty, które są najmniej słyszalne dla ludzkiego ucha, dzięki czemu osiąga się bardzo mały rozmiar pliku zachowując zadowalającą jakość odsłuchu. Tego typu pliki to podstawa w branży streamingowej, radiu internetowym czy podczas archiwizacji wielkich bibliotek muzycznych, gdzie miejsce na dysku to cenny zasób. Przekonanie, że mpeg2 (kojarzony głównie z video, ale obsługujący też audio w formie stratnej kompresji) wygeneruje większy plik niż nieskompresowany AIFF, jest typowym błędem wynikającym z niezrozumienia różnicy między kompresją stratną a bezstratną. Z kolei „gt” nie jest powszechnie rozpoznawalnym formatem plików audio, przynajmniej nie w kontekście standardów branżowych – prawdopodobnie pojawił się tu jako zmyłka lub literówka. W praktyce, jeśli mówimy o przechowywaniu godzinnego utworu w najwyższej możliwej jakości, zawsze największy plik uzyskamy w formacie nieskompresowanym, takim jak AIFF czy WAV. Kompresja stratna to kompromis między wielkością pliku a jakością dźwięku, który przydaje się w codziennym użytkowaniu, ale nie spełni oczekiwań profesjonalnych realizatorów dźwięku. Moim zdaniem, to taki typowy przypadek, gdzie myślenie „im nowszy format, tym większy plik” prowadzi na manowce, bo to właśnie stare, nieskompresowane formaty są najbardziej „pazerno” na miejsce na dysku.

Pytanie 29

Która z wymienionych funkcji w sesji oprogramowania DAW służy do skokowego wyciszenia dźwięku na ścieżce?

A. MUTE
B. FADE IN
C. SOLO
D. ON
MUTE to absolutna podstawa w każdej sesji DAW, jeżeli chodzi o szybkie i skuteczne wyciszanie ścieżek. Przycisk ten działa praktycznie natychmiastowo – po jego naciśnięciu dźwięk z danej ścieżki znika z miksu bez żadnego stopniowego ściszania czy jakiegoś efektu przejścia. W praktyce realizatorskiej bardzo często korzysta się z MUTE, żeby na przykład sprawdzić, jak dany element utworu (np. wokal, perkusja albo konkretna gitara) wpływa na całość miksu. To też niezastąpione rozwiązanie, kiedy trzeba na moment usunąć problematyczną ścieżkę, którą chcemy naprawić albo z edytować bez jej odsłuchu. Co ciekawe, w profesjonalnych studiach i podczas pracy live MUTE bywa używany nawet automatycznie, na przykład za pomocą automatyki w DAW, żeby „wycinać” ścieżki w określonych miejscach aranżu – bardzo wygodne przy bardziej złożonych produkcjach. Z mojego doświadczenia, szybkie opanowanie korzystania z MUTE pozwala naprawdę sprawniej zarządzać złożonym projektem, bo nie musisz grzebać w poziomach głośności czy automatyce dla prostej czynności wyciszenia. Warto pamiętać, że to rozwiązanie jest uniwersalne – znajdziesz je praktycznie w każdej cyfrowej stacji roboczej, od prostych programów po profesjonalne platformy studyjne. Moim zdaniem to jeden z najważniejszych i najbardziej oczywistych przycisków w całym DAW, bez którego trudno sobie wyobrazić płynną pracę.

Pytanie 30

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SD A1
B. SDXC
C. SD
D. SDHC
Często można się pogubić w oznaczeniach kart SD, SDHC, SDXC czy SD A1, bo na pierwszy rzut oka wyglądają bardzo podobnie i łatwo przyjąć, że każda kolejna to tylko inna wersja tej samej technologii. Jednak te skróty mają bardzo konkretne znaczenie, związane przede wszystkim z pojemnością i wydajnością karty. Najczęstszy błąd polega na tym, że SDHC wydaje się najbardziej uniwersalna, bo długo była standardem, ale jej maksymalna pojemność to tylko 32 GB. SD, czyli podstawowa wersja, kończy się na zaledwie 2 GB – dziś to praktycznie nie do używania w sprzęcie wymagającym dużych plików (np. aparaty, drony). Co do SD A1, to już w ogóle nie jest osobny standard pojemności – A1 oznacza klasę wydajności aplikacji (Application Performance Class), nie wpływa wcale na maksymalną pojemność, tylko na minimalną wydajność przy losowym dostępie do małych plików. Moim zdaniem to często mylone pojęcia, bo „A1” wygląda jak coś nowszego czy większego, a w rzeczywistości nie zmienia rozmiaru karty. Największą pojemność znajdziemy tylko w SDXC – to jest formalnie zapisane w specyfikacji stowarzyszenia SD Association. Z mojego doświadczenia, wybierając kartę do pracy z dużymi plikami lub nagraniami, trzeba patrzeć nie tylko na „ładne” oznaczenia, ale przede wszystkim na rzeczywisty standard i kompatybilność urządzenia. W praktyce tylko SDXC daje możliwość zapisu setek gigabajtów czy nawet terabajtów danych, czego nie zapewni żaden inny wymieniony tu typ karty.

Pytanie 31

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.mp3
B. *.ogg
C. *.aiff
D. *.flac
Wiele osób myli formaty *.ogg, *.mp3 oraz *.flac z plikami typu *.wav, głównie dlatego, że wszystkie są formatami audio, jednak dzielą je fundamentalne różnice techniczne i zastosowania. Pliki *.wav są nieskompresowane i zachowują oryginalną jakość nagrania, co jest kluczowe np. w studiach nagraniowych, przy postprodukcji filmów czy w broadcastingu. Tymczasem *.mp3 oraz *.ogg to formaty stratnej kompresji – ich głównym celem jest zmniejszenie rozmiaru pliku kosztem części informacji dźwiękowej. To świetnie sprawdza się w streamingu muzyki czy przechowywaniu dużych bibliotek dźwiękowych na dyskach o ograniczonej pojemności, ale niestety prowadzi do nieodwracalnej utraty jakości. *.flac zaś jest formatem bezstratnej kompresji, co już jest bliższe idei zachowania jakości, jednak pliki .flac są skompresowane i nie są standardem w przypadku profesjonalnej edycji audio. Branżowe workflow najczęściej opiera się na nieskompresowanych plikach PCM takich jak *.wav lub *.aiff, bo zapewniają one przewidywalność i kompatybilność z praktycznie każdym oprogramowaniem do pracy z dźwiękiem. Typowym błędem jest założenie, że każdy plik, który odtwarza dźwięk, jest dobrym zamiennikiem *.wav – niestety, w praktyce prowadzi to do problemów z jakością, brakiem wsparcia metadanych lub ograniczeniami podczas dalszej obróbki. Z mojego doświadczenia wynika, że wybierając format audio, warto najpierw określić, do czego będzie używany. Jeśli celem jest profesjonalna praca z dźwiękiem, najlepiej stosować formaty nieskompresowane, a takie, jak wav i aiff po prostu są branżowym standardem od lat. Pozostałe formaty lepiej zostawić na końcowy etap dystrybucji lub archiwizację.

Pytanie 32

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Bez korekcji barwy i dynamiki.
B. Po korekcji barwy i dynamiki.
C. Po korekcji barwy.
D. Po korekcji dynamiki.
Wielu początkujących realizatorów dźwięku myśli, że lepiej już na etapie nagrania poprawić barwę lub dynamikę, żeby potem było mniej roboty przy miksie. To taka pułapka, bo wydaje się, że jak coś od razu brzmi lepiej, to tak powinno zostać. Jednak w praktyce wprowadzenie korekcji barwy albo kompresji przed nagraniem na wieloślad jest ryzykowne – raz nałożone zmiany stają się trwałe i nie można ich później odwrócić. Korekcja barwy (EQ) może na tym etapie odciąć ważne częstotliwości, które w miksie okazałyby się przydatne. Kompresja z kolei może spłaszczyć dynamikę do tego stopnia, że nagranie straci naturalność lub przestanie się dobrze układać z innymi śladami w miksie. Oba te procesy są bardzo zależne od kontekstu utworu, aranżacji i ogólnej wizji, która często pojawia się dopiero podczas miksowania wszystkich elementów razem. Dobre praktyki branżowe i doświadczenie realizatorów pokazują, że lepiej mieć w śladach pełne, nieprzetworzone sygnały – wtedy w trakcie miksu można precyzyjnie dobrać charakter dźwięku do całości utworu. Nagrywanie po korekcji barwy lub dynamiki zamyka drogę do wielu opcji kreatywnych i często prowadzi do żałowania pochopnych decyzji. Warto pamiętać, że wyjątkiem mogą być sytuacje, gdy z premedytacją wykorzystuje się kompresor lub EQ jako efekt brzmieniowy, ale to już kwestia świadomego wyboru, a nie standardowego workflow. Najlepiej więc rejestrować sygnał „suchy”, mając świadomość, że całą paletę narzędzi do kształtowania brzmienia zostawia się na później.

Pytanie 33

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. PASTE
B. COPY
C. REDO
D. UNDO
Funkcja UNDO jest podstawowym narzędziem w każdym programie DAW (Digital Audio Workstation), które pozwala na cofnięcie ostatnio wykonanej operacji edycyjnej. To trochę jak zabezpieczenie przed pomyłkami – wystarczy jedno skrócenie klawiszowe, najczęściej Ctrl+Z, i ostatnia czynność znika, a projekt wraca do wcześniejszego stanu. Ja sam ciągle z tego korzystam, zwłaszcza podczas szybkiej edycji ścieżek, kiedy łatwo coś przypadkiem usunąć lub przesunąć. UNDO działa praktycznie wszędzie – czy to cięcie klipu, przesuwanie nut w MIDI, czy nawet zmiana parametrów efektów. W większości DAW można też wielokrotnie cofać kolejne kroki, a historia edycji pozwala szybko naprawić dłuższą serię błędów. To jest taki must-have, bez którego praca nad muzyką byłaby dużo bardziej stresująca i czasochłonna. Swoją drogą, w profesjonalnych workflow zawsze poleca się korzystanie z UNDO zamiast ręcznego poprawiania, bo to nie tylko szybciej, ale i bezpieczniej. Warto też pamiętać, że cofnięcie operacji często działa nie tylko dla edycji dźwięku, ale też dla zmian w automatyce, aranżacji czy nawet we wtyczkach. No i przy dużych projektach UNDO ratuje skórę, gdy przez przypadek zamkniesz sobie pół aranżu. Tak po ludzku – lepiej kilka razy za dużo kliknąć UNDO, niż potem żałować straconej pracy.

Pytanie 34

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp3
B. *.m4p
C. *.m4a
D. *.mp4
Rozszerzenie *.mp4 to obecnie jeden z najpopularniejszych formatów plików, które pozwalają na przechowywanie zarówno ścieżki wideo, jak i audio w jednym pliku. Jest to standard określony przez MPEG-4 Part 14 i używany praktycznie wszędzie – od smartfonów, przez YouTube, aż po profesjonalne kamery czy montaż materiałów filmowych. Moim zdaniem, trudno znaleźć bardziej uniwersalny format, bo obsługiwany jest właściwie na każdym sprzęcie czy systemie operacyjnym, bez konieczności instalowania dodatkowych kodeków. Oprócz obrazu i dźwięku, plik MP4 może zawierać też napisy, menu, czy inne dane (np. rozdziały). To powoduje, że jest bardzo elastyczny w zastosowaniach, zarówno domowych, jak i komercyjnych. Warto wiedzieć, że w branży IT i multimediów korzystanie z formatu *.mp4 jest standardem, bo zapewnia dobrą jakość przy stosunkowo małym rozmiarze pliku, dzięki efektywnej kompresji (najczęściej H.264/AAC). Przykładowo, gdy eksportujesz film z programów typu Adobe Premiere czy DaVinci Resolve, domyślnie masz MP4 jako główną opcję. W praktyce – jeżeli masz plik .mp4, możesz być niemal pewien, że zawiera on zarówno dźwięk, jak i obraz, co jest kluczowe np. przy prezentacjach, nagraniach lekcji czy udostępnianiu materiałów wideo online.

Pytanie 35

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Nie ma wpływu.
B. Wysokość wzrasta dwukrotnie.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Wysokość spada dwukrotnie.
To zagadnienie często sprawia trudność, bo rzeczywiście, na pierwszy rzut oka wydaje się, że skoro zwiększamy częstotliwość próbkowania, to dźwięk powinien się jakoś „podwyższyć” – kojarzy się to z szybszym odtwarzaniem starych kaset magnetofonowych albo płyt winylowych na wyższym obrotach. Jednak w cyfrowym audio sprawa wygląda inaczej. Częstotliwość próbkowania w cyfrowym nagraniu określa, jak często zapisujemy próbki sygnału analogowego na sekundę – na przykład 44 100 razy na sekundę (44,1 kHz) lub 48 000 razy (48 kHz). Samo zwiększenie tej wartości, bez zmiany zawartości próbek i bez przyspieszenia odtwarzania, nie zmienia wysokości dźwięku. Wysokość (czyli częstotliwość podstawowa słyszanego tonu) zależy od przebiegu sygnału, a nie od tego, w ilu punktach na sekundę go odczytamy. Błędne jest więc myślenie, że po zmianie na 48 kHz dźwięk wzrośnie dwukrotnie lub spadnie, bo takie sytuacje zdarzają się wyłącznie wtedy, gdy nieprawidłowo odtwarzamy plik (np. odtwarzamy 44,1 kHz z prędkością 48 kHz, co faktycznie zmienia wysokość proporcjonalnie). To typowy błąd wynikający z mylenia konwersji częstotliwości próbkowania (resamplingu) z odtwarzaniem w niewłaściwej prędkości. Standardy branżowe, jak PCM na płytach CD i audio do wideo, sprawiają że takie procesy są przeźroczyste dla słuchacza. W praktyce podczas prawidłowej konwersji nie zmienia się ani tempo, ani wysokość dźwięku; zmienia się tylko jakość i zakres częstotliwości, które można poprawnie odwzorować (np. przy wyższej częstotliwości próbkowania mamy wyższy zakres przenoszonych dźwięków, ale to zupełnie coś innego niż wysokość dźwięku). W codziennej pracy z dźwiękiem często spotykam się z tym nieporozumieniem – szczególnie jeśli ktoś dopiero zaczyna przygodę z nagrywaniem czy edycją audio i nie miał styczności z techniką cyfrową od podstaw. Warto podkreślić, że profesjonalne programy DAW czy konwertery samodzielnie dbają o poprawne ustawienie częstotliwości próbkowania, żeby nie pojawiały się żadne niepożądane zmiany wysokości.

Pytanie 36

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 50 GB danych.
B. 25 GB danych.
C. 100 GB danych.
D. 10 GB danych.
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.

Pytanie 37

Który z wymienionych kodeków stosowany jest w plikach o rozszerzeniu .ogg?

A. VORBIS
B. ALAC
C. LAME
D. FLAC
Moim zdaniem dość łatwo pomylić różne kodeki audio, bo nazwy bywają podobne albo mają wspólne cechy, ale w kontekście rozszerzenia .ogg trzeba spojrzeć na to trochę szerzej. FLAC i ALAC to kodeki bezstratne, ale FLAC jest najczęściej używany w plikach .flac, a ALAC to autorski kodek Apple'a stosowany głównie w iTunes i plikach .m4a, więc nie pasują do kontenera Ogg. LAME z kolei jest tylko implementacją kodeka MP3, więc jego naturalnym miejscem jest rozszerzenie .mp3, a nie .ogg. Z mojego doświadczenia wynika, że częstym błędem jest mylenie kontenera z samym kodekiem – kontener (czyli .ogg) to tylko „opakowanie” na dane audio, a kodek to sposób kodowania samych danych. Owszem, teoretycznie Ogg może przechowywać inne kodeki (np. FLAC), ale to marginalne przypadki i raczej nie spotyka się ich na co dzień, bo wtedy pliki mają inne rozszerzenia albo są opisane wyraźnie jako Ogg FLAC. No i jeszcze jedna rzecz: wybierając kodek do projektu, zawsze warto zwrócić uwagę na kompatybilność i licencjonowanie – o ile FLAC jest otwarty jak Vorbis, to ALAC długo był zamknięty, a MP3 (czyli LAME) przez lata był objęty patentami, co powodowało liczne zamieszanie w branży. Praktyczna wskazówka: jeśli masz odtwarzać albo kodować pliki .ogg, prawie zawsze będzie to Vorbis, bo tak przyjęło się w społeczności open source i linuksowej – to taki nieoficjalny standard. Warto wyrobić sobie nawyk sprawdzania nie tylko rozszerzenia, ale i faktycznego kodeka w środku pliku, bo to decyduje o kompatybilności z odtwarzaczami oraz możliwościach edycji audio.

Pytanie 38

Metoda nałożenia fragmentu dźwięku w miejsce innego określana jest mianem

A. Shuffle
B. No Overlap
C. X-Fade
D. Overlap
Pojęcia takie jak X-Fade, Shuffle czy Overlap są często mylone, co nie dziwi, bo brzmią fachowo i można się pogubić w tych wszystkich opcjach dostępnych w programach DAW. X-Fade, znany też jako crossfade, to technika pozwalająca na płynne przejście pomiędzy dwoma fragmentami dźwięku, gdzie obie ścieżki na chwilę nakładają się na siebie w celu uniknięcia kliknięć i sztucznego odcięcia. To dobre np. przy montażu muzyki albo łączeniu ścieżek, które mają się zazębiać – ale tu nie chodzi o zastąpienie jednego fragmentu drugim, tylko raczej o łagodne połączenie. Shuffle natomiast to tryb edycji polegający na automatycznym przesuwaniu klipów w taki sposób, by po wycięciu jakiegoś fragmentu cała reszta przesuwała się „w lewo”, bez pozostawiania przerw – bardzo praktyczne, ale nie dotyczy samego nakładania fragmentów dźwięku, bo głównym celem jest reorganizacja ujęć na osi czasu. Overlap oznacza z kolei sytuację, w której dwa fragmenty dźwięku są odtwarzane częściowo lub całkowicie równocześnie na tej samej ścieżce, co może powodować sumowanie się sygnałów, a często wręcz niepożądane efekty, jak przesunięcia fazowe lub przesterowania. Myślę, że bardzo łatwo pomylić je z funkcją No Overlap, bo tu i tu mamy do czynienia z kilkoma klipami, ale w praktyce efekt jest zupełnie inny. W branży, jeśli celem jest zastąpienie jednego fragmentu innym – bez żadnych nakładek czy miksowania – zawsze korzysta się z opcji No Overlap, bo gwarantuje to czystość i przewidywalność montażu. Takie rozróżnienie jest kluczowe przy profesjonalnych projektach audio, a mylenie tych pojęć zwykle wynika z pobieżnej znajomości terminologii lub braku praktycznego doświadczenia z narzędziami DAW.

Pytanie 39

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 32 bity.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
Niekiedy można się pomylić, zakładając, że wyższa rozdzielczość bitowa to jedynie marketing lub wręcz niepotrzebny luksus. Jednak istotą głębi bitowej jest właśnie ilość możliwych poziomów amplitudy, co w praktyce przekłada się na jakość odwzorowania dynamiki dźwięku – czyli zakresu od najcichszych do najgłośniejszych fragmentów. 16 bitów, 24 bity czy nawet 32 bity to standardy używane odpowiednio w konsumenckim audio, profesjonalnych nagraniach i specjalistycznych zastosowaniach, takich jak produkcja filmowa, mastering czy rejestracja koncertów na żywo. Warto zauważyć, że już 16 bitów pozwala na wygodne słuchanie muzyki bez zauważalnych zniekształceń, a przejście na 24 lub 32 bity zwiększa zakres dynamiki, zmniejsza szumy kwantyzacji i daje większą swobodę w edycji czy miksowaniu. W praktyce, różnica między nimi bywa subtelna, ale znacząca w pracy dźwiękowca. Częstym błędem myślowym jest przekonanie, że 16 lub 24 bity mogą źle odwzorowywać dźwięk – to nieprawda, bo w rzeczywistości dopiero 8 bitów niezwykle ogranicza liczbę poziomów głośności (zaledwie 256!), co prowadzi do wyraźnych zniekształceń, szumów i braku subtelności w dynamice. 24 i 32 bity zostawiają ogromny zapas, praktycznie eliminując słyszalne artefakty kwantyzacji, a 16 bitów to i tak minimum przyzwoitej jakości. U podstaw błędnych wyborów często leży brak świadomości, jak poważnie niska rozdzielczość bitowa degraduje sygnał – nawet najprostszy test odsłuchowy na 8 bitach pokazuje różnicę na korzyść wyższych wartości. Współczesne standardy branżowe jednoznacznie odradzają stosowanie 8 bitów w jakimkolwiek poważnym zastosowaniu audio, właśnie z uwagi na fatalne odwzorowanie dynamiki i wysokie szumy.

Pytanie 40

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. promieniowania ultrafioletowego.
B. pola elektrostatycznego.
C. pola magnetycznego.
D. wilgotności powietrza.
Wiele osób uważa, że największym zagrożeniem dla płyt CD jest pole magnetyczne albo elektrostatyczne, bo przecież na dyskach twardych czy taśmach magnetycznych takie czynniki mogą całkiem skutecznie zniszczyć dane. Jednak CD jest nośnikiem optycznym, a nie magnetycznym – dane są tam zapisane w postaci fizycznych zmian (wypaleń lub wgłębień) w warstwie poliwęglanowej, które są odczytywane przez laser. Pole magnetyczne, nawet dość silne, w ogóle nie oddziałuje na strukturę płyty, więc nie ma ryzyka utraty danych z tego powodu. To samo dotyczy pola elektrostatycznego – owszem, ładunki elektrostatyczne mogą przyciągać kurz do powierzchni płyty i co najwyżej utrudnić odczyt przez zabrudzenie, lecz nie uszkodzą zapisanych danych. Wilgotność powietrza natomiast, choć może wpłynąć na stan fizyczny nośnika przy ekstremalnych poziomach (na przykład przy bardzo wysokiej wilgotności w połączeniu z wysoką temperaturą może powstać ryzyko powolnej delaminacji warstw), nie jest głównym czynnikiem niszczącym płyty w normalnych warunkach domowych. Typowe błędy w tym myśleniu wynikają z utożsamiania wszystkich nośników z magnetycznymi lub nieznajomości mechanizmów zapisu optycznego. Podsumowując, to właśnie promieniowanie ultrafioletowe jest najpoważniejszym czynnikiem degradującym płyty CD, bo uszkadza warstwę zapisu na poziomie chemicznym – dobra praktyka to ochrona przed światłem, a nie przed magnesami czy elektrycznością.