Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 3 maja 2026 07:19
  • Data zakończenia: 3 maja 2026 07:34

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .alac
B. .wav
C. .ogg
D. .omf
Wybór formatu audio często budzi sporo wątpliwości, szczególnie gdy trzeba rozróżnić, które z nich wykorzystują kompresję stratną, a które bezstratną lub w ogóle jej nie stosują. Plik .alac to format Apple Lossless Audio Codec – jak sama nazwa wskazuje, zachowuje pełną jakość dźwięku, nic tu nie jest tracone. Moim zdaniem wiele osób myli się, sądząc, że każdy kodek od Apple musi być stratny ze względu na popularność ich urządzeń i ekosystemu, ale akurat ALAC jest odpowiednikiem FLAC-a w świecie Apple. .omf z kolei nie jest w ogóle standardowym formatem pliku audio; to Open Media Framework, kontener używany raczej do wymiany projektów między aplikacjami typu DAW, a nie do samego audio. Stąd wybieranie OMF jako kodeka stratnego to typowy błąd wynikający z niezrozumienia jego przeznaczenia – on bardziej przenosi projekty, ścieżki i dane edycyjne niż same pliki dźwiękowe. No i .wav – to już klasyka, praktycznie standard w profesjonalnych studiach nagraniowych. Pliki WAV są nieskompresowane, bezstratne, zachowują pełną szczegółowość brzmienia, przez co są „ciężkie”, ale niezastąpione do edycji czy masteringu. Często spotykam się z opinią, że WAV może być stratny, bo czasem pliki są małe – niestety, to raczej kwestia krótkiego materiału, a nie kompresji. Ogólnie rzecz biorąc, dobry wybór kodeka to zawsze kompromis między jakością, wielkością i przeznaczeniem – i tylko OGG z tej czwórki korzysta z typowej kompresji stratnej, co pozwala mocno ograniczyć rozmiar pliku kosztem pewnych, choć często nieodczuwalnych, strat w jakości.

Pytanie 2

Który z wymienionych skrótów klawiaturowych służy do zapisania sesji oprogramowania DAW na dysku komputera?

A. CTRL + S (Win) / Command + S (Mac)
B. CTRL + V (Win) / Command + V (Mac)
C. CTRL + C (Win) / Command + C (Mac)
D. CTRL + X (Win) / Command + X (Mac)
CTRL + S (Windows) oraz Command + S (Mac) to chyba najbardziej intuicyjny skrót w każdej aplikacji komputerowej, ale w DAW-ach (Digital Audio Workstation) jest wręcz podstawowym narzędziem pracy. Dzięki niemu można zapisać całą sesję, wszystkie projekty i nagrania bez potrzeby przeklikiwania się przez menu. To ogromna oszczędność czasu, zwłaszcza gdy pracujesz na wielu ścieżkach albo masz rozbudowaną sesję z masą efektów czy automatyzacji. Co ciekawe, praktycznie każdy program audio – od Abletona przez Cubase aż po Pro Tools – korzysta właśnie z tego skrótu do zapisywania projektu. Moim zdaniem to trochę tak jakby w samochodzie mieć szybki dostęp do hamulca – po prostu musisz mieć to pod ręką. W branży mówi się nawet o tzw. muscle memory na ten skrót – odruchowo wciskasz go po każdej większej zmianie, żeby nie stracić efektów pracy. Swoją drogą, nauczenie się zapisywania co parę minut to nawyk, który potrafi uratować całą sesję, zwłaszcza jeśli DAW się zawiesi albo padnie zasilanie. Z mojego doświadczenia wynika, że osoby, które automatycznie korzystają z CTRL + S, rzadziej tracą projekty, mniej się stresują i ogólnie pracują sprawniej. Dla porządku warto wiedzieć, że chociaż DAW-y coraz częściej oferują autozapis, to jednak ręczny zapis zawsze daje ci pełną kontrolę nad wersjami projektu – możesz zrobić backup, zapisać pod inną nazwą, wrócić do wcześniejszej wersji. Mając to wszystko na uwadze, dobrze jest po prostu wyrobić sobie ten nawyk już na początku przygody z DAW-ami.

Pytanie 3

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Konwersja.
C. Filtrowanie.
D. Kompresja.
Moim zdaniem, wiele osób myli różne efekty i procesy w DAW, zwłaszcza jeśli dopiero zaczyna przygodę z produkcją dźwięku. Przykładowo, konwersja to po prostu zmiana formatu pliku audio albo zmiana parametrów takich jak częstotliwość próbkowania – to w ogóle nie eliminuje szumów czy przydźwięków, bo działa na całym pliku jakby „od zewnątrz”, nie wpływając na konkretne częstotliwości. Kompresja, choć bardzo przydatna w miksie, ma zupełnie inny cel – służy do kontrolowania dynamiki, czyli wyrównywania poziomów głośności, a nie usuwania niepożądanych dźwięków o konkretnej barwie. Spotkałem się z próbami użycia kompresora do „przygaszania” brumienia, ale to, szczerze mówiąc, tylko maskuje problem i najczęściej skutkuje spłaszczeniem całego nagrania. Nadpróbkowanie brzmi fachowo, lecz polega na zwiększeniu częstotliwości próbkowania materiału – ewentualnie poprawia jakość przetwarzania efektów, ale absolutnie nie usuwa żadnych szumów czy brumień sieciowych. Wiele osób błędnie zakłada, że „wyższa jakość techniczna” automatycznie oznacza czystszy dźwięk – niestety, jeśli przydźwięk już jest na ścieżce, to żadna konwersja ani nadpróbkowanie go nie usunie. Z mojego doświadczenia wynika, że tylko zastosowanie odpowiednich filtrów (np. Notch Filter czy Equalizera) pozwala efektywnie pozbyć się tego typu zakłóceń, zgodnie z dobrą praktyką studyjną. To właśnie filtracja jest podstawowym narzędziem przy pracy z materiałem nagraniowym, gdy pojawiają się zakłócenia na konkretnych częstotliwościach.

Pytanie 4

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 2 razy.
B. 8 razy.
C. 6 razy.
D. 4 razy.
Zwiększenie poziomu sygnału o 6 dB często bywa błędnie kojarzone z większymi przyrostami amplitudy, niż jest w rzeczywistości. To wynika głównie z nieporozumień dotyczących definicji decybela oraz różnic pomiędzy analizą mocy a napięcia czy prądu. Decybel jest miarą logarytmiczną i różnie interpretuje się go w zależności od tego, czy mówimy o mocy czy o amplitudzie sygnału. W przypadku mocy, 3 dB oznacza dwukrotność mocy, natomiast dla napięcia, czyli właśnie amplitudy, potrzeba już 6 dB, aby uzyskać podwojenie. Zdarza się, że pod wpływem długiego doświadczenia z urządzeniami, gdzie decybele odnoszą się głównie do poziomów mocy, można automatycznie przenosić te same wartości na amplitudy – a to prowadzi do błędnych założeń. Przykładowo, wzrost o 4 lub 8 razy sugeruje, że 6 dB to dużo większa zmiana niż w rzeczywistości – tymczasem każda dodatkowa szóstka decybeli to kolejne podwojenie amplitudy (np. 12 dB to 4 razy, 18 dB to 8 razy itd.). To, moim zdaniem, jest jeden z najczęstszych błędów w praktyce, zwłaszcza przy doborze wzmacniaczy lub analizie sygnałów w systemach audio czy radiowych. Dobrą praktyką jest szybkie przeliczanie dB na rzeczywiste wartości amplitudy, bazując na wzorze 20*log10(A2/A1), co pozwala uniknąć interpretacyjnych pułapek. Jeśli te zasady się opanuje, to praca z poziomami sygnałów staje się znacznie prostsza i bardziej przewidywalna – a o to przecież w życiu technika chodzi.

Pytanie 5

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. PASTE
B. UNDO
C. REDO
D. COPY
Odpowiedź „UNDO” jest jak najbardziej prawidłowa, bo właśnie ta funkcja w programach DAW (Digital Audio Workstation) odpowiada za cofnięcie ostatnio wykonanej operacji edycyjnej. Działa to bardzo podobnie, jak w innych aplikacjach – pozwala szybko naprawić pomyłkę, usunąć niechcianą zmianę lub wycofać eksperyment bez konieczności zaczynania wszystkiego od nowa. W praktyce, przy pracy z dużymi projektami muzycznymi, „UNDO” potrafi uratować sporo nerwów, szczególnie jeśli coś się przypadkowo usunie albo przesunie. Standardowo skrót klawiaturowy to Ctrl+Z (albo Cmd+Z na Macu) – to taki must-have dla każdego, kto pracuje z dźwiękiem. Moim zdaniem, znajomość tej funkcji przyspiesza pracę i zwiększa pewność siebie przy eksperymentowaniu, bo zawsze można się cofnąć o krok, a czasem nawet o kilka kroków. Warto jeszcze pamiętać, że niektóre DAWy pozwalają na tzw. wielokrotne cofanie (multi-level undo) – i to jest już w branży absolutny standard, bez tego trudno sobie wyobrazić efektywną produkcję. Często korzystam z „UNDO” przy korekcji miksu lub edycji MIDI – zanim się człowiek zorientuje, coś przestawi i nagle brzmi gorzej – jedno kliknięcie i po problemie. Dobrą praktyką jest też co jakiś czas zapisywać projekt, bo czasem historia „UNDO” kasuje się np. po zamknięciu sesji, ale to już zależy od konkretnego programu.

Pytanie 6

Znaczniki w sesji oprogramowania DAW należy umiejscowić na osi

A. Tempo
B. Key
C. Markers
D. Meter
Zaznaczenie odpowiedzi 'Markers' jest jak najbardziej na miejscu – w większości popularnych programów DAW (Digital Audio Workstation), takich jak Cubase, Pro Tools, Ableton Live czy Logic Pro, oś znaczników (Markers) służy właśnie do ustawiania tzw. markerów. Markery to niewielkie punkty odniesienia, które umieszczasz na osi czasu projektu. Pozwalają one szybko nawigować po sesji, zaznaczać ważne momenty, np. wejście wokalu, zmianę refrenu, przejście instrumentalne czy miejsce na reklamę radiową. Z mojego doświadczenia praca z markerami potrafi znacznie przyspieszyć cały workflow – nie trzeba przewijać godzinami ścieżek, tylko jednym kliknięciem wracasz do kluczowego miejsca. Markery są też bardzo pomocne podczas eksportu czy automatyzacji, bo możesz je wykorzystać do określenia fragmentów do eksportu, pętli czy renderowania. Praktycznie każda profesjonalna sesja, którą spotkałem, była dokładnie opisana markerami, co jest pewnym standardem branżowym. Warto pamiętać, że Markers to nie to samo, co oznaczenie tempa, metrum czy tonacji – one służą do innych rzeczy. Markery nie wpływają bezpośrednio na parametry muzyczne, są tylko opisowymi punktami na osi czasu. W praktyce, jeśli planujesz współpracę z innymi realizatorami dźwięku czy muzykami, dobre oznaczenie projektu za pomocą markerów to podstawa – w chaosie długiej sesji naprawdę docenisz takie rozwiązanie.

Pytanie 7

Który z wymienionych dokumentów elektronicznych, o rozszerzeniu nazwy pliku .edl, zawiera szczegółowe instrukcje montażowe?

A. Lista efektów.
B. Lista montażowa.
C. Spis znaczników.
D. Rider techniczny.
Dokument z rozszerzeniem .edl, czyli tzw. lista montażowa (Edit Decision List), to podstawa pracy w profesjonalnym montażu wideo. Moim zdaniem mało która osoba spoza branży zdaje sobie sprawę, jak ważną rolę pełni taki plik w całym procesie postprodukcji. Lista montażowa opisuje kolejność ujęć, punkty cięć, czas trwania fragmentów oraz wszelkie przejścia czy efekty, które mają być zastosowane. Dzięki temu montażysta nie musi polegać jedynie na własnej pamięci czy notatkach, tylko automatycznie importuje EDL do stacji montażowej (np. Avid, Premiere Pro, DaVinci Resolve), przez co cały projekt układa się według wytycznych reżysera lub operatora. W branży filmowej i telewizyjnej EDL jest standardem komunikacji między różnymi etapami produkcji, umożliwia też przenoszenie projektów między różnymi systemami montażowymi. Często spotyka się sytuacje, gdzie produkcje mają dziesiątki, jak nie setki cięć – ręczne odtwarzanie takiej sekwencji byłoby praktycznie niemożliwe bez listy montażowej. Co ciekawe, EDL pozwala na szybkie odtworzenie procesu twórczego i jest kluczowym elementem archiwizacji projektów audiowizualnych. Z mojego doświadczenia, znajomość obsługi i edycji EDL to podstawa, jeśli ktoś myśli poważnie o montażu na wyższym poziomie, bo każda profesjonalna postprodukcja na tym bazuje.

Pytanie 8

Popularny nośnik danych, podłączany do portu USB komputera, to

A. pendrive.
B. Memory Stick.
C. karta SD.
D. karta CF.
Pendrive to zdecydowanie najpopularniejszy nośnik danych, który podłączamy bezpośrednio do portu USB w komputerze. Często spotyka się go w szkołach, biurach, a nawet na uczelniach, gdzie szybko można przenosić pliki między różnymi urządzeniami. Od strony technicznej pendrive’y działają w oparciu o standard USB (najczęściej USB 2.0, ale coraz częściej także 3.0 i 3.1, które są jeszcze szybsze). Zaletą jest to, że nie wymagają żadnych dodatkowych adapterów, instalowania sterowników czy zewnętrznego zasilania – praktycznie każdy komputer z portem USB po prostu je wykrywa. Moim zdaniem trudno dziś wyobrazić sobie szybką wymianę danych bez pendrive’a, zwłaszcza w sytuacjach, gdy chmura nie wchodzi w grę (np. brak internetu, ograniczenia bezpieczeństwa). Warto pamiętać, że pendrive nie tylko służy do przenoszenia dokumentów czy zdjęć – można z niego uruchomić system (bootowalny pendrive), a nawet zainstalować oprogramowanie naprawcze do komputerów. W branży IT uznaje się, że to jedno z najprostszych i najbardziej niezawodnych narzędzi do transferu danych w fizycznej formie. Oczywiście, bezpieczeństwo danych tu też jest kluczowe, bo łatwo go zgubić – warto rozważyć szyfrowanie informacji na pendrive’ach, co jest coraz częściej stosowaną praktyką w firmach. Z mojego doświadczenia wynika, że pendrive’y są niezastąpione tam, gdzie liczy się czas i wygoda, a przy tym są wyjątkowo uniwersalne – komputery, telewizory, a nawet radia samochodowe potrafią je obsłużyć.

Pytanie 9

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Pitchshifter.
B. Reverb.
C. Tremolo.
D. Wibrato.
Procesor Reverb, czyli pogłos, to podstawowe narzędzie używane w realizacji dźwięku do kształtowania przestrzenności nagrania. Dzięki niemu możemy uzyskać wrażenie, że źródło dźwięku znajduje się w określonym pomieszczeniu – czy to w małym pokoju, wielkiej hali koncertowej, kościele albo dowolnie zaprojektowanej przestrzeni. Moim zdaniem żadna inna wtyczka nie daje takiego szerokiego wachlarza możliwości w tym zakresie jak właśnie Reverb. W praktyce, dość często używa się go do „osadzenia” instrumentów w miksie, nadania im głębi albo nawet zamaskowania pewnych niedoskonałości nagrania. Z mojego doświadczenia dobry pogłos sprawia, że miks brzmi bardziej naturalnie, mniej sucho i sterylnie, ale jednocześnie daje kontrolę nad rozmiarem, odległością czy nawet wysokością źródła dźwięku w obrazie stereo. Fachowcy zwracają uwagę, żeby nie przesadzać – zbyt duża ilość pogłosu może zniszczyć selektywność miksu. Dobre praktyki przewidują stosowanie różnych typów pogłosów na różnych śladach, by uzyskać możliwie realistyczny efekt akustyczny. Reverb jest też podstawą w przestrzennym dźwięku filmowym czy grach komputerowych. Wystarczy porównać suchy wokal z wokalem z pogłosem – różnica robi wrażenie nawet na laikach!

Pytanie 10

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Mini Disc
B. Kaseta DAT
C. Dysk SSD
D. Karta SDHC
Wybór nośnika innego niż Mini Disc często wynika z mylenia technologii zapisu. Przykładowo, dysk SSD (Solid State Drive) wykorzystuje pamięć flash – zapis jest tu wyłącznie elektryczny, bez udziału światła czy pola magnetycznego. To nośnik nowoczesny, szybki, ale nie ma nic wspólnego z magnetooptyką. Kaseta DAT (Digital Audio Tape) działa zupełnie inaczej – to klasyczny zapis magnetyczny na taśmie, bardzo podobny do tradycyjnych kaset magnetofonowych, tylko w wersji cyfrowej. Tutaj nie ma udziału lasera ani żadnej optyki, wszystko opiera się na zmianach pola magnetycznego głowicy i taśmy, więc pole magnetooptyczne nie występuje w ogóle. Z kolei karta SDHC (Secure Digital High Capacity) bazuje na komórkach pamięci NAND, które również są całkowicie elektryczne i nie mają żadnej części optycznej. To właśnie duży błąd – wiele osób sądzi, że każdy nowoczesny nośnik to już jakaś forma połączenia różnych technologii, ale tak nie jest. Magnetooptyka to dość specyficzne połączenie: laser nagrzewa powierzchnię, a pole magnetyczne zmienia jej stan – to daje możliwość wielokrotnego zapisu oraz odporność na przypadkowe uszkodzenia, np. przez pola magnetyczne. Niestety, większość dzisiejszych urządzeń przeszła na pamięci flash, które są lżejsze, szybsze, ale jednocześnie mają ograniczoną trwałość cykli zapisu. W praktyce wybierając nośnik magnetooptyczny kierujemy się nie tylko technologią, ale też zapotrzebowaniem na bezpieczeństwo danych i ich trwałość. Moim zdaniem, znajomość zasady działania różnych typów nośników jest kluczowa, żeby nie dać się zmylić podobieństwom w nazwach lub zastosowaniu. W branży IT i archiwizacji właściwe rozróżnianie tych technologii to podstawa dobrych praktyk, a magnetooptyka – choć już niszowa – nadal jest ceniona tam, gdzie priorytetem jest niezawodność.

Pytanie 11

Który z wymienionych formatów umożliwia dystrybucję dźwięku wielokanałowego?

A. .wav
B. .aac
C. .omf
D. .aiff
Wiele osób, które dopiero zaczynają przygodę z realizacją dźwięku albo produkcją multimediów, często myli pojęcie formatu pliku audio z jego możliwościami technicznymi. AIFF i WAV to formaty bezstratne, bardzo popularne w studiach nagraniowych, ale domyślnie przechowują dźwięk w trybie dwukanałowym (stereo). Oczywiście, istnieją rozszerzenia tych formatów wspierające dźwięk wielokanałowy, lecz są one rzadko używane w praktyce poza bardzo wąskimi zastosowaniami studyjnymi – zazwyczaj większość DAW (Digital Audio Workstation) eksportuje je jako stereo. Co ciekawe, AIFF powstał głównie dla komputerów Apple, a WAV dla Windows, więc to bardziej kwestia platformy niż funkcjonalności. OMF jest zaś typowym formatem wymiany projektów audio pomiędzy różnymi programami DAW, a nie formatem do dystrybucji dźwięku – tu nie chodzi o samą zawartość audio, tylko o wymianę danych projektowych, edycji, ścieżek i automatyzacji. Tak naprawdę OMF nie jest przeznaczony do końcowego udostępniania muzyki czy filmów ze ścieżką wielokanałową – to raczej narzędzie produkcyjne, a nie dystrybucyjne. Często spotykam się z mylnym przeświadczeniem, że skoro WAV lub AIFF mają wysoką jakość, to automatycznie wspierają surround – jednak bez dodatkowych specyfikacji i odpowiedniego sposobu zapisania ścieżek nie zadziałają w typowych systemach konsumenckich czy kinowych. Praktyka branżowa jest taka, że jeśli chodzi o masową dystrybucję dźwięku (np. w filmach, serwisach streamingowych, grach), do dźwięku wielokanałowego używa się formatów takich jak AAC, Dolby Digital, DTS lub FLAC. Warto zawsze pamiętać, by rozróżniać formaty edycyjne od formatów przeznaczonych do dystrybucji – to typowy błąd na egzaminach zawodowych i podczas pierwszych projektów.

Pytanie 12

Korektor graficzny z pasmem podzielonym na 14 równych obszarów regulacji to korektor

A. dwuoktawowy.
B. kwartowy.
C. oktawowy.
D. tercjowy.
Wiele osób myli się, sądząc, że korektor graficzny z 14 pasmami to urządzenie oktawowe, tercjowe czy dwuoktawowe, ale to akurat nie ma pokrycia w praktyce inżynierii dźwięku. Korektor oktawowy dzieli bowiem pasmo na 10, czasem 12 sekcji, gdzie każda odpowiada jednej pełnej oktawie. To rozwiązanie jest dość „grube” i używane raczej do ogólnych poprawek barwy dźwięku, typowo w prostszych instalacjach nagłośnieniowych czy w domowych zestawach audio. Tercjowy z kolei to już większa precyzja – tutaj mamy 31 pasm, bo każda tercja oktawy jest osobno regulowana. To już narzędzie stricte dla profesjonalistów, którzy chcą naprawdę szczegółowo wyrównać charakterystykę systemu akustycznego, często przy pomocy specjalistycznych analizatorów widma. Natomiast dwuoktawowy to rzadko spotykany typ, gdzie pasmo dzielone jest na jeszcze mniej sekcji – to bardzo ogólna regulacja, która praktycznie nie sprawdza się w nowoczesnych systemach nagłośnieniowych i jest raczej ciekawostką historyczną. Mylenie tych nazw wynika najczęściej z braku praktyki lub pobieżnego podejścia do tematu – ktoś widzi liczbę suwaków i automatycznie przypisuje ją do najczęściej spotykanych typów. Tymczasem w branży obowiązują konkretne standardy i określenia: 14 pasm to dokładnie podział kwartowy – każda ćwierć oktawy daje większe możliwości dopasowania charakterystyki systemu do otoczenia. Takie rozwiązania są wykorzystywane wszędzie tam, gdzie ważna jest precyzja, ale nie potrzeba aż tak „gęstego” podziału jak w tercjowych korektorach. Warto zapamiętać, że dopasowanie typu korektora do sytuacji to jedna z podstawowych umiejętności dobrego dźwiękowca, a błędne założenia w tym zakresie mogą prowadzić do niepotrzebnych problemów z brzmieniem i sprzężeniami.

Pytanie 13

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. siedmiokrotnie.
B. trzykrotnie.
C. pięciokrotnie.
D. dwukrotnie.
Oceniając wzrost głośności w decybelach, łatwo wpaść w pułapkę myślenia liniowego. Często wydaje się, że skoro 10 dB to duży przyrost wartości liczbowej, to głośność musi rosnąć znacznie bardziej niż dwukrotnie – nawet trzykrotnie, pięciokrotnie czy jeszcze mocniej. Jednak w rzeczywistości skala decybelowa jest logarytmiczna, a nie liniowa, co sprawia, że nie można jej traktować jak zwykłego mnożenia. Z mojego doświadczenia wielu uczniów wyobraża sobie, że każde 10 dB to taki skok, że organizm odbierze to jak zupełnie nową jakość dźwięku, a tymczasem badania psychoakustyczne pokazują, że nasze ucho jest dużo mniej czułe na fizyczny przyrost ciśnienia akustycznego. Skąd to się wzięło? Warto wiedzieć, że już w latach 30. XX wieku Fletcher i Munson przeprowadzili eksperymenty, na podstawie których powstały krzywe równej głośności – dziś są one podstawą normy ISO 226. Tam właśnie wykazano, że aby człowiek odczuł dźwięk jako dwa razy głośniejszy, musi nastąpić wzrost o około 10 dB, niezależnie czy mówimy o 40, czy 80 dB. Nie jest to trzykrotny ani pięciokrotny wzrost – tak duży przyrost głośności wymagałby znacznie większego przyrostu poziomu dźwięku, sięgającego nawet 20-30 dB. W praktyce spotykałem się z takimi nieporozumieniami np. przy projektach nagłośnienia w szkołach i halach sportowych – zamawiający i użytkownicy byli przekonani, że kilka dB więcej totalnie zmieni odczucia, tymczasem to nie takie proste. Z praktycznego punktu widzenia prawidłowe zrozumienie tej zależności jest mega ważne przy pomiarach hałasu czy ocenie bezpieczeństwa akustycznego w miejscach pracy. Mylenie skali decybelowej z liniową prowadzi do błędów w interpretacji norm i projektowaniu zabezpieczeń przeciwhałasowych. Tak więc, choć na pierwszy rzut oka większa liczba dB kusi, żeby przypisać jej trzykrotny czy pięciokrotny efekt, rzeczywistość jest taka, że 10 dB daje subiektywnie dwukrotny wzrost – i tego warto się trzymać.

Pytanie 14

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. znaczników.
B. ścieżek.
C. regionów.
D. grup.
Wiele osób, szczególnie na początku swojej przygody z DAW-em, myli pojęcia takie jak grupy, ścieżki, regiony czy nawet znaczniki, bo wydają się podobne albo używane zamiennie. Jednak każde z nich spełnia zupełnie inną funkcję w kontekście zarządzania sesją audio. Grupy służą bardziej do wspólnej kontroli parametrów kilku ścieżek – na przykład żeby razem podgłośnić perkusję albo całą sekcję wokalną, ale nie mają żadnego powiązania z szybkim lokalizowaniem miejsc cięcia na osi czasu. Ścieżki to po prostu linie na timeline, na których osadzamy różne źródła dźwięku – wokal, gitarę, bębny – ale one same z siebie nie pozwalają wskazać konkretnych punktów edycyjnych. Regiony natomiast to fragmenty nagrań, które można przesuwać, kopiować czy dzielić, ale nawet jeśli coś pocięliśmy, to bez dodatkowego oznaczenia możemy łatwo się pogubić, zwłaszcza w gęstych projektach. Typowym błędem jest przekonanie, że skoro region jest odcięty, to DAW zapamięta, gdzie go przycięliśmy – niestety, nie; żeby do tego miejsca wrócić, trzeba użyć znacznika. To właśnie znaczniki są stworzone po to, by natychmiastowo skakać do wcześniej wyznaczonych lokalizacji, bez żmudnego przewijania czy wyszukiwania na ślepo. Moim zdaniem, jeśli ktoś polega na samych ścieżkach lub regionach w większych projektach, bardzo szybko zacznie tracić orientację. W standardach branżowych jasno się mówi: porządna sesja oznaczona markerami to nie tylko oszczędność czasu, ale też gwarancja, że cała ekipa produkcyjna będzie wiedziała, gdzie co się dzieje – nawet po kilku tygodniach wracania do projektu.

Pytanie 15

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 44100 Hz/24 bity
C. 48000 Hz/24 bity
D. 44100 Hz/16 bitów
Często spotykam się z przekonaniem, że im wyższa częstotliwość próbkowania lub większa głębia bitowa, tym lepiej – jednak w kontekście konkretnego formatu, jakim jest CD-Audio, takie myślenie prowadzi na manowce. Standard płyty CD jest sztywny i od lat niezmienny: 44100 Hz próbkowania, 16 bitów na próbkę. Ustawiając sesję na 48000 Hz (czy to przy 16, czy przy 24 bitach), tworzymy plik zgodny raczej z wymaganiami do filmów, radia i części systemów wideo, ale nie z płytą CD. Niby różnica między 44100 Hz a 48000 Hz nie jest na ucho kolosalna, lecz w praktyce każda próba wypalenia takiego pliku na CD kończy się albo automatyczną konwersją (z ryzykiem artefaktów), albo błędem. Co do głębi bitowej: 24 bity zapewniają szerszy zakres dynamiki i precyzję na etapie produkcji, ale CD po prostu tego nie obsłuży – dodatkowe bity muszą zostać zredukowane, co także może wpłynąć negatywnie na finalny materiał, jeśli nie zostanie to zrobione umiejętnie (dobry dithering itd.). Wiele osób myli też wymagania formatów streamingowych (które bywają wyższe) z ograniczeniami CD – to dwa różne światy. Najlepszą praktyką jest zawsze sprawdzić wymagania końcowego nośnika i przygotować projekt w zgodzie z nimi, a nie tylko kierować się tym, co wydaje się „lepsze technicznie”. W branży muzycznej liczy się kompatybilność i przewidywalność, a nie zawsze parametry wyśrubowane do granic możliwości sprzętu.

Pytanie 16

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. AUX
C. FX
D. MASTER
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 17

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 3 ścieżki.
B. 2 ścieżki.
C. 4 ścieżki.
D. 1 ścieżkę.
W nagraniach wielościeżkowych, zwłaszcza gdy rejestrujemy gitarę przy użyciu kilku różnych mikrofonów, ilość ścieżek w DAW powinna odpowiadać liczbie indywidualnych sygnałów audio. W tym przypadku mamy dwa mikrofony podpórkowe, które zwykle umieszczane są blisko instrumentu, oraz dwa mikrofony ogólne ustawione w systemie XY – to klasyczny układ do uchwycenia przestrzennego obrazu dźwięku. Każdy z tych mikrofonów generuje osobny sygnał audio i dla każdego z nich dobrze jest mieć dedykowaną ścieżkę w DAW. Pozwala to na pełną kontrolę nad każdym mikrofonem podczas miksu, na przykład osobną regulację poziomu, panoramy czy korekcji. Takie podejście daje ogromne możliwości kreowania brzmienia i jest standardem w profesjonalnych studiach nagraniowych. Sam nie raz próbowałem nagrać gitarę z mniejszą liczbą ścieżek i zawsze kończyło się to kompromisem, bo nie mogłem w pełni wydzielić każdego mikrofonu. Cztery ścieżki to tu minimum, jeśli chce się potem swobodnie pracować nad przestrzenią czy charakterem nagrania. Często nawet w projektach domowych, jeśli korzystam z wielu mikrofonów, pilnuję, żeby każda kapsuła miała własną ścieżkę – to po prostu ułatwia późniejszą edycję i miks. Takie rozwiązanie jest zgodne z branżowymi praktykami, bo dzięki temu uzyskujemy elastyczność i profesjonalny workflow.

Pytanie 18

Która z wymienionych list umożliwia odnalezienie uprzednio zaznaczonego punktu na osi czasu w sesji oprogramowania DAW?

A. Lista ścieżek.
B. Lista markerów.
C. Lista grup.
D. Lista regionów.
Wiele osób zaczynających przygodę z DAW-ami myli często pojęcia takie jak grupa, region czy ścieżka, z markerami i ich funkcjami. Lista grup, choć bardzo przydatna przy pracy na wielu ścieżkach naraz (np. kiedy trzeba jednym ruchem wyciszyć bębny albo zmienić głośność kilku partii chóru), nie służy do zaznaczania konkretnego miejsca na osi czasu. Grupy porządkują ślady pod względem miksu albo edycji, ale nie pozwalają wracać do konkretnych punktów w utworze. Z kolei lista ścieżek pokazuje wszystkie wykorzystane instrumenty lub kanały audio/MIDI, co ułatwia orientację w złożonych sesjach, lecz nie ma funkcji „przeskoku” do wybranego momentu w nagraniu. Ścieżka to po prostu kontener na dźwięki lub dane MIDI, czasem zorganizowana w foldery, ale nie umożliwia szybkiego powrotu do konkretnego wydarzenia na timeline. Lista regionów, czyli fragmentów nagrań lub klipów, pomaga ogarniać aranżację, wycinać, kopiować czy przesuwać konkretne fragmenty – to narzędzie typowo montażowe. Jednak regiony nie są punktami odniesienia na osi czasu, a raczej blokami materiału do edycji. Typowym błędem jest traktowanie ich jak markerów, często przez to, że wizualnie są widoczne na osi czasu, ale nie służą do nawigacji w projekcie. W praktyce, tylko lista markerów zapewnia możliwość odnalezienia i szybkiego powrotu do wcześniej wyznaczonego punktu, co jest absolutnym standardem pracy nie tylko w muzyce, ale też w postprodukcji dźwięku do filmu. Warto więc rozróżniać te narzędzia i korzystać z nich zgodnie z przeznaczeniem – to oszczędza mnóstwo czasu i nerwów podczas pracy z dużymi projektami.

Pytanie 19

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby AC3
B. Dolby Digital
C. Dolby Digital EX
D. Dolby TrueHD
Wiele osób myli różne formaty Dolby, bo ich nazwy są do siebie podobne, a przecież mają one zupełnie inne zastosowania i właściwości techniczne. Na przykład Dolby Digital (czyli popularny AC3) to format stratnej kompresji, bardzo często używany w telewizji, DVD i niektórych transmisjach cyfrowych, ale nie gwarantuje zachowania pełnej jakości oryginalnego nagrania – zawsze jest jakiś kompromis między jakością a rozmiarem pliku. Dolby Digital EX to po prostu rozszerzenie tego standardu, dodające kanał tylny centralny dla większego efektu przestrzennego, ale nadal korzysta ze stratnej kompresji. Jeszcze większe zamieszanie potrafi się zrobić z nazwami – niektórzy sądzą, że Dolby AC3 to osobny format, a to przecież po prostu techniczna nazwa Dolby Digital. Z mojego doświadczenia dość często spotyka się ten błąd nawet u ludzi pracujących w branży audiowizualnej. Niestety, żaden z tych formatów nie oferuje bezstratnej kompresji. W praktyce oznacza to, że jeśli ktoś jest audiofilem albo montuje materiały, gdzie liczy się studyjna jakość dźwięku, to wybór AC3 albo Dolby Digital EX nie spełni oczekiwań. Z kolei Dolby TrueHD został zaprojektowany właśnie do zachowania pełnej jakości dźwięku i współpracuje z nowoczesnymi systemami kina domowego poprzez HDMI. Warto to zapamiętać, bo różnice nie są tylko teoretyczne – mają spory wpływ na końcowe wrażenia z odsłuchu. Dobre praktyki branżowe mówią wyraźnie: jeśli zależy nam na jakości, warto sięgać po formaty bezstratne jak Dolby TrueHD, a nie te stratne, nawet jeśli są bardzo popularne.

Pytanie 20

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. FADE OUT
B. PAN
C. TEMPO
D. FADE IN
Fade in to jedna z tych funkcji, które są naprawdę podstawowe, ale często niedoceniane, zwłaszcza jak ktoś dopiero zaczyna zabawę w DAW-ach. Z technicznego punktu widzenia fade in to stopniowe zwiększenie głośności dźwięku od ciszy do pełnej wartości – czyli dźwięk nie pojawia się nagle, tylko płynnie wchodzi, bez żadnych trzasków czy nagłych przeskoków. W praktyce często wykorzystuje się fade in na początku ścieżki audio, żeby wprowadzić słuchacza w nagranie płynnie – nie tylko w muzyce, ale też np. w podcastach, produkcji reklam, czy nawet w filmie, gdzie zależy nam na subtelnym rozpoczęciu sceny dźwiękowej. W branży to taki must-have, szczególnie przy masteringu i miksie utworów, bo pozwala uniknąć nieestetycznych artefaktów i sprawia, że całość brzmi profesjonalnie. Warto pamiętać, że fade in można stosować nie tylko ręcznie, rysując automatyzację głośności, ale wiele DAW-ów ma dedykowaną funkcję do naniesienia fade in na klipie, co przyspiesza pracę. Z mojego doświadczenia, dobrze wykonany fade in robi ogromną różnicę w odbiorze nagrania, bo pozwala zbudować napięcie albo wprowadzić klimat. To jedno z tych narzędzi, bez których ciężko sobie wyobrazić poprawny workflow w każdej poważniejszej produkcji dźwiękowej.

Pytanie 21

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta w stosunku 48:44,1.
B. Nie ma wpływu.
C. Wysokość wzrasta dwukrotnie.
D. Wysokość spada dwukrotnie.
To zagadnienie często sprawia trudność, bo rzeczywiście, na pierwszy rzut oka wydaje się, że skoro zwiększamy częstotliwość próbkowania, to dźwięk powinien się jakoś „podwyższyć” – kojarzy się to z szybszym odtwarzaniem starych kaset magnetofonowych albo płyt winylowych na wyższym obrotach. Jednak w cyfrowym audio sprawa wygląda inaczej. Częstotliwość próbkowania w cyfrowym nagraniu określa, jak często zapisujemy próbki sygnału analogowego na sekundę – na przykład 44 100 razy na sekundę (44,1 kHz) lub 48 000 razy (48 kHz). Samo zwiększenie tej wartości, bez zmiany zawartości próbek i bez przyspieszenia odtwarzania, nie zmienia wysokości dźwięku. Wysokość (czyli częstotliwość podstawowa słyszanego tonu) zależy od przebiegu sygnału, a nie od tego, w ilu punktach na sekundę go odczytamy. Błędne jest więc myślenie, że po zmianie na 48 kHz dźwięk wzrośnie dwukrotnie lub spadnie, bo takie sytuacje zdarzają się wyłącznie wtedy, gdy nieprawidłowo odtwarzamy plik (np. odtwarzamy 44,1 kHz z prędkością 48 kHz, co faktycznie zmienia wysokość proporcjonalnie). To typowy błąd wynikający z mylenia konwersji częstotliwości próbkowania (resamplingu) z odtwarzaniem w niewłaściwej prędkości. Standardy branżowe, jak PCM na płytach CD i audio do wideo, sprawiają że takie procesy są przeźroczyste dla słuchacza. W praktyce podczas prawidłowej konwersji nie zmienia się ani tempo, ani wysokość dźwięku; zmienia się tylko jakość i zakres częstotliwości, które można poprawnie odwzorować (np. przy wyższej częstotliwości próbkowania mamy wyższy zakres przenoszonych dźwięków, ale to zupełnie coś innego niż wysokość dźwięku). W codziennej pracy z dźwiękiem często spotykam się z tym nieporozumieniem – szczególnie jeśli ktoś dopiero zaczyna przygodę z nagrywaniem czy edycją audio i nie miał styczności z techniką cyfrową od podstaw. Warto podkreślić, że profesjonalne programy DAW czy konwertery samodzielnie dbają o poprawne ustawienie częstotliwości próbkowania, żeby nie pojawiały się żadne niepożądane zmiany wysokości.

Pytanie 22

Kompresja równoległa polega na

A. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
B. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
C. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
D. jednoczesnej kompresji wszystkich ścieżek wokalnych.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 23

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta CD
B. Karta SD
C. Dysk SSD
D. Płyta DVD
Wybierając nośniki takie jak płyta CD, karta SD czy płyta DVD, łatwo można się pomylić, bo na pierwszy rzut oka wszystkie służą do przechowywania danych i wydają się dość podobne. Jednak różnica w technologii i możliwościach odczytu jest tutaj kolosalna. Płyty CD oraz DVD wykorzystują technologię optyczną, gdzie dane są czytane za pomocą lasera, a prędkości ogranicza nie tylko sam napęd, ale też sposób zapisu i warunki fizyczne (np. porysowana powierzchnia). Odczyt z płyty CD to zaledwie kilkanaście megabajtów na sekundę, a DVD, choć trochę szybsze, wciąż pozostaje w tyle za nowoczesnymi nośnikami półprzewodnikowymi. Karta SD rzeczywiście daje trochę większe możliwości – zwłaszcza nowoczesne modele UHS-II czy UHS-III, jednak nawet one nie osiągają takich parametrów jak dyski SSD. Typowy błąd myślowy polega tutaj na ocenianiu nośników na podstawie wyobrażenia o ich "nowszości" lub popularności w urządzeniach mobilnych, ale w praktyce to SSD, wykorzystujące magistrale PCIe czy nawet SATA, są liderami wydajności. Stosowanie płyt optycznych lub kart SD do przechowywania danych jest dziś uzasadnione tylko w specyficznych przypadkach – np. archiwizacja lub przenoszenie danych w aparatach fotograficznych. W codziennej pracy, gdzie liczy się czas dostępu do plików i ogólna responsywność systemu, zdecydowanie wygrywa SSD. Standardy branżowe jednoznacznie wskazują kierunek: coraz szybsze, coraz bardziej niezawodne nośniki półprzewodnikowe. Moim zdaniem, stawianie na stare technologie może być przyczyną niepotrzebnych frustracji i ograniczeń w pracy, zwłaszcza gdy zależy nam na szybkości.

Pytanie 24

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. .m4a
B. .m4p
C. .mp4
D. .mp3
Rozszerzenie .mp4 jest obecnie jednym z najpopularniejszych formatów przechowywania zarówno ścieżek wideo, jak i audio w jednym pliku. Moim zdaniem to taki złoty standard w świecie multimediów – większość współczesnych urządzeń, od smartfonów po profesjonalne oprogramowanie do edycji wideo, obsługuje .mp4 bez najmniejszego problemu. Wynika to stąd, że MP4 (czyli dokładniej MPEG-4 Part 14) powstał jako otwarty kontener multimedialny, umożliwiający zapis różnych typów danych: obrazu, dźwięku, napisów, a nawet metadanych w jednym pliku. Przykładowo, jeśli ktoś montuje film w programie DaVinci Resolve czy Adobe Premiere, to zazwyczaj eksportuje gotowy projekt właśnie do .mp4, bo to format kompatybilny praktycznie ze wszystkim, także platformami internetowymi typu YouTube czy Facebook. Z mojego doświadczenia, jeśli zależy Ci na łatwym udostępnianiu materiałów wideo, szybkim przesyłaniu lub archiwizacji, .mp4 jest wyborem niemal oczywistym. Dodatkowo używa się w nim najczęściej kodeków H.264 dla obrazu i AAC dla dźwięku, co zapewnia bardzo dobrą jakość przy stosunkowo niskim rozmiarze plików. Warto pamiętać, że inne rozszerzenia z tej listy nie spełniają tej roli – to jest właśnie przewaga .mp4. Praktycznie zawsze, kiedy widzisz plik .mp4, możesz się spodziewać, że znajdziesz w nim zarówno obraz, jak i dźwięk. To taki branżowy pewniak.

Pytanie 25

Podczas masteringu materiału dźwiękowego

A. montuje się ścieżki audio.
B. ma miejsce normalizacja ścieżki audio.
C. dokonuje się wyboru ilości ścieżek dźwiękowych w edytorze dźwięku.
D. wykonuje się nagranie ścieżki audio w określonym formacie.
Proces masteringu ma kluczowe znaczenie dla końcowego brzmienia utworu – to na tym etapie inżynier dźwięku dba, żeby całość była odpowiednio głośna, spójna i gotowa do dystrybucji na różnych nośnikach. Jednym z podstawowych działań podczas masteringu jest właśnie normalizacja ścieżki audio, czyli dostosowanie poziomu głośności całego materiału do określonych standardów branżowych. Bez tego nagranie mogłoby wypadać zdecydowanie ciszej lub głośniej niż inne utwory na albumie czy playlistach, co nie wygląda profesjonalnie. W praktyce normalizacja pomaga wyrównać dynamikę i daje słuchaczowi lepsze wrażenia. Często korzysta się z normalizacji do wartości szczytowej lub średniej (np. RMS czy LUFS, które są coraz bardziej popularne, zwłaszcza przy masteringu pod platformy streamingowe). Warto pamiętać, że mastering to nie tylko normalizacja – to także korekcja barwy (equalizacja), kompresja czy limitowanie, ale podniesienie i wyrównanie poziomów głośności jest jednym z tych najważniejszych kroków. Sam kiedyś nie doceniałem normalizacji, dopóki nie miałem okazji porównać kilku masterów – różnica była od razu słyszalna, szczególnie w zestawieniu z innymi komercyjnymi utworami. Z mojego doświadczenia wynika, że właściwa normalizacja potrafi uratować projekt, nadając mu profesjonalny charakter zgodny z oczekiwaniami wydawców czy słuchaczy.

Pytanie 26

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Revert to Saved
B. Save
C. Save Copy In
D. Save As
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.

Pytanie 27

W celu wykonania kopii materiału muzycznego na płycie 3,5 cala o zapisie magnetooptycznym należy zastosować nośnik oznaczony jako

A. DVD
B. CD
C. BR
D. MD
Wybór innego nośnika niż MiniDisc do zapisu materiału muzycznego na płycie 3,5 cala o zapisie magnetooptycznym wynika najczęściej z mylenia różnych formatów optycznych i magnetooptycznych. Na przykład, płyty BR (Blu-ray) i DVD, mimo że są wykorzystywane do przechowywania dużych ilości danych, w ogóle nie funkcjonują jako nośniki magnetooptyczne – to czysto optyczne technologie, opierające się wyłącznie na zapisie oraz odczycie za pomocą lasera, bez udziału pola magnetycznego. Ich rozmiary to standardowo 12 cm, czyli około 4,7 cala, więc nawet pod względem fizycznym nie pasują do podanych kryteriów pytania. Podobnie jest z płytami CD – one również występują w rozmiarze 12 cm i należą do grupy nośników optycznych, a nie magnetooptycznych. Często można spotkać się z przekonaniem, że płyty CD czy DVD mogą być zapisywane wielokrotnie, ale w rzeczywistości wielokrotny zapis dostępny jest tylko w specjalnych wariantach (np. CD-RW, DVD-RW), i nawet wtedy nie wykorzystuje się w nich technologii magnetooptycznej. Błąd pojawia się też przy interpretacji skrótów: BR kojarzy się z nowoczesnością, ale dotyczy zupełnie innej generacji mediów niż MD. W praktyce, dobre rozeznanie w standardach i specyfikacjach technicznych pozwala uniknąć takich pomyłek – warto sprawdzać nie tylko nazwę, ale też mechanizm działania i podstawowe cechy fizyczne danego nośnika. Najbardziej mylące jest chyba to, że wszystkie te formaty mają podobne zastosowania, ale różnią się technologią zapisu. MiniDisc był jedynym popularnym, szeroko dostępnym nośnikiem magnetooptycznym o wielkości 3,5 cala, który faktycznie służył do zapisu muzyki, dlatego tylko ta odpowiedź spełnia wszystkie wymagania pytania.

Pytanie 28

W której z wymienionych wartości tempa czas trwania oznaczonej wartości rytmicznej wynosi 500 ms?

A. 100 BPM
B. 120 BPM
C. 140 BPM
D. 160 BPM
Tempo 120 BPM oznacza, że w jednej minucie przypada dokładnie 120 uderzeń, a więc każde uderzenie trwa 0,5 sekundy, czyli 500 ms. Moim zdaniem to jedna z tych rzeczy, które warto umieć szybko policzyć, bo przy pracy z metronomem czy edycji MIDI w DAW-ach ciągle się to przydaje. W praktyce, jeśli na przykład ustawiasz w sekwencerze tempo 120 BPM, to półnuty będą trwały sekundę, ćwierćnuty – pół sekundy, a ósemki – 250 ms. To daje dużą precyzję, zwłaszcza gdy trzeba zsynchronizować efekty świetlne z beatem albo automatyzować parametry dźwięku pod konkretną długość taktu. Standardowo tempo 120 BPM jest też często wykorzystywane w muzyce popularnej i elektronicznej, właśnie ze względu na łatwość dzielenia wartości rytmicznych. W branży stosuje się proste kalkulatory BPM, ale warto umieć to policzyć samemu: czas trwania ćwierćnuty = 60 000 ms / BPM, więc przy 120 BPM mamy dokładnie 500 ms. Takie tempo daje sporo elastyczności przy aranżacji różnych gatunków – od popu przez EDM aż po rock.

Pytanie 29

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wav
B. .mid
C. .wfm
D. .ptx
Zdarza się, że wybór pada na pliki .ptx – spotykane w środowisku Pro Tools, ale są one używane głównie jako pliki sesji, zapisujące strukturę całego projektu: ścieżki, ustawienia miksera, automatyki i rozmieszczenie regionów audio. Nie przechowują one jednak graficznych obwiedni ani samych przebiegów falowych audio. To raczej metaopis projektu. Z kolei .mid to zupełnie inna bajka – to standard wymiany danych muzycznych oparty na komunikatach MIDI, czyli nuty, velocity, kontrolery – ale nie zawiera w ogóle nagrań audio, a tym bardziej wizualizacji przebiegów tych nagrań. Taki plik jest po prostu „zapisem nut”, nie ma w nim żadnej informacji o kształcie fali dźwiękowej. Jeśli chodzi o .wav, ten format kojarzy się od razu z plikami audio najwyższej jakości, bo rzeczywiście to popularny kontener nieskompresowanych nagrań. Jednak .wav przechowuje tylko sam dźwięk, bez żadnych informacji wizualnych typu obwiednia czy przebieg – te dane generowane są dopiero przez DAW w postaci osobnych plików pomocniczych. Częsty błąd to zakładanie, że wszystko, co widzimy na ekranie, siedzi w .wav, choć w praktyce DAW generuje z pliku .wav obrazki do podglądu i przechowuje je właśnie w formacie .wfm (albo innym, zależnie od programu). Moim zdaniem to ważne, by rozróżniać pliki z danymi audio od tych, które odpowiadają tylko za wygodę pracy i podgląd – to ułatwia zarządzanie projektami i rozwiązywanie problemów z wydajnością czy synchronizacją sesji. W praktyce: jeśli przesyłasz komuś projekt DAW, żeby mógł od razu widzieć przebiegi falowe, nie zawsze wystarczy mu sam plik .wav czy .ptx – konieczne mogą być właśnie te dodatkowe pliki .wfm. To szczegół, ale jednak bardzo istotny w codziennej pracy z dźwiękiem cyfrowym.

Pytanie 30

Zastosowanie opcji Interleaved podczas zgrywania sesji spowoduje zapis danych do

A. odrębnych plików stereo dla każdego kanału.
B. jednego pliku mono.
C. odrębnych plików mono dla każdego kanału.
D. jednego pliku stereo.
Często spotykam się z nieporozumieniem związanym z opcją <i>Interleaved</i> podczas eksportu sesji audio. Główna wątpliwość dotyczy tego, czy ta funkcjonalność wiąże się z eksportem do pojedynczych plików mono, czy może nawet tworzeniem oddzielnych plików dla każdego kanału, mono lub stereo. W rzeczywistości wybór interleaved oznacza, że wszystkie kanały – najczęściej lewy i prawy w przypadku typowego miksu stereo – są zapisywane razem w jednym pliku, a nie rozdzielane. Odpowiedzi sugerujące, że powstanie jeden plik mono, wynikają często z mylenia pojęć: plik stereo interleaved nadal zawiera dwa kanały, ale są one zapisane naprzemiennie w jednym pliku, a nie jako dwa osobne pliki mono. Z kolei koncepcja, że dla każdego kanału powstanie odrębny plik mono, odnosi się do opcji „split mono” stosowanej w DAW-ach np. Pro Tools, ale to zupełnie inna funkcja – przydatna raczej przy zaawansowanych pracach studyjnych, np. przy dużych sesjach multitrack. Jeśli chodzi o pomysł, że powstaną odrębne pliki stereo dla każdego kanału, to w przypadku miksu stereo nie ma to sensu, bo stereo to już dwa kanały razem; taka eksportowa logika sprawdza się raczej przy sesjach surround, gdzie kanałów jest więcej niż dwa, ale też wtedy stosuje się inną organizację plików. Typowym błędem jest też myślenie, że interleaved to po prostu połączenie kilku pojedynczych plików w jedną paczkę – w praktyce jest to zapis struktury wielokanałowej w jednym pliku, zgodnie z formatami takimi jak WAV (Broadcast Wave) czy AIFF, wykorzystywanymi w przemyśle muzycznym. Warto zapamiętać, że standardem eksportu miksu stereo jest interleaved, bo to zapewnia kompatybilność i nie stwarza problemów z późniejszym użyciem pliku w innych programach czy przez realizatorów dźwięku na dalszych etapach produkcji.

Pytanie 31

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. L50 L100
B. R50 R100
C. L0 R0
D. L100 R100
Panorama w miksie dźwięku to jedno z tych narzędzi, które potrafią zrobić ogromną różnicę, nawet jak się zaczyna od prostych sygnałów mono. Ustawienie panoramy na L100 dla jednego sygnału i R100 dla drugiego to klasyka, jeśli chodzi o pełną separację przestrzenną – każdy dźwięk trafia tylko do jednego kanału stereo. Nie ma tu żadnego nakładania się, więc słuchacz od razu wychwyci, który dźwięk dochodzi z lewej, a który z prawej strony. To taki trochę fundament np. w koncertach live, gdzie chcesz, żeby gitara była maksymalnie po lewej, a klawisze po prawej, żeby muzyka nie zlewała się w jeden chaos. W studiu często robi się tak przy nagraniach instrumentów, których brzmienia chcesz odseparować — potem dużo łatwiej zapanować nad miksem, bo nie musisz walczyć z kolizjami w środku panoramy. Zresztą – w broadcastingu, w produkcjach telewizyjnych, nawet przy dźwięku filmowym ta technika, moim zdaniem, jest mega przydatna, szczególnie przy dialogach i efektach specjalnych. Dodatkowo, takie rozłożenie sygnałów bardzo ułatwia pracę, jeśli planujesz potem robić wersje do formatu mono, bo od razu wiesz, które dźwięki są potencjalnie problematyczne. Warto pamiętać, że de facto L100 i R100 to po prostu pełne wychylenie panoramy do skrajnych pozycji, zgodnie z zasadą stosowaną w każdej profesjonalnej konsolecie czy DAW. Takie podejście daje największą czytelność miksu i jest zgodne z zaleceniami m.in. AES i EBU przy produkcji materiałów stereo.

Pytanie 32

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. Comb Filter
B. HPF
C. LPF
D. High Shelf
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 33

Jaki jest czas trwania 16 taktów w metrum 4/4, gdy tempo w odniesieniu do ćwierćnuty wynosi 120 BPM?

A. 64 sekundy.
B. 32 sekundy.
C. 16 sekund.
D. 128 sekund.
Poprawna odpowiedź wynika z prostych, ale bardzo ważnych dla każdego muzyka obliczeń. Mamy metrum 4/4, czyli w każdym takcie są 4 ćwierćnuty. Tempo to 120 BPM, czyli w każdej minucie mamy 120 ćwierćnut — przekłada się to na 2 ćwierćnuty na sekundę. Przeliczając: w jednym takcie (4 ćwierćnuty) przy 2 ćwierćnutach na sekundę, jeden takt trwa 2 sekundy. 16 taktów to 16 × 2 sekundy = 32 sekundy. To jest całkiem klasyczne zadanie na opanowanie relacji między metrum, tempem i czasem trwania utworu. Moim zdaniem takie liczenie przydaje się nie tylko w teorii, ale i w praktyce, np. podczas aranżacji albo planowania długości utworu w studiu nagraniowym. W branży muzycznej umiejętność szybkiego przeliczania metrum i tempa na realny czas jest podstawą, zwłaszcza podczas pracy z sekwencerami MIDI czy przy produkcji reklam radiowych i telewizyjnych, gdzie wszystko ma być idealnie pod zegar. Warto pamiętać, że większość DAW-ów ustala długość frazy lub loopa właśnie na podstawie takich obliczeń, dlatego dobrze mieć to przećwiczone. No i taki „muzyczny zegarek” w głowie po prostu się przydaje, nawet jak ktoś tylko gra w zespole i chce się nie pogubić podczas przejść między sekcjami utworu.

Pytanie 34

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta dwukrotnie.
B. Wysokość spada dwukrotnie.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Nie ma wpływu.
Często można spotkać się z przekonaniem, że zmiana częstotliwości próbkowania dźwięku może wpływać na odbieraną słuchem wysokość tonu, jednak jest to mylne podejście wynikające z niezrozumienia, czym właściwie jest próbkowanie. Częstotliwość próbkowania określa, jak często sygnał analogowy jest „odczytywany” i zapisywany w formie cyfrowej, co wpływa na rozdzielczość czasową i maksymalną możliwą do zapisania częstotliwość (czyli tzw. pasmo przenoszenia). Natomiast wysokość dźwięku, którą słyszymy, zależy od częstotliwości fali akustycznej, a nie od tego, w ilu próbkach na sekundę ją zapisaliśmy. To błąd sądzić, że samo zwiększenie częstotliwości próbkowania, bez zmiany tempa odtwarzania, spowoduje dwukrotny wzrost czy spadek wysokości – to wymagałoby odtwarzania nagrania w innym tempie lub rekonwersji bez zachowania zgodności parametrów. Takie sytuacje mają miejsce tylko wtedy, kiedy plik nagrany w jednej częstotliwości próbkowania jest odtwarzany w innej bez konwersji (tzw. pitch-shifting przez błąd techniczny), ale to nie jest standardowa praktyka w profesjonalnych systemach audio. Z mojego doświadczenia, większość błędów wynika z nieświadomego mieszania pojęć częstotliwości próbkowania i częstotliwości dźwięku. Praktyczne zastosowanie tej wiedzy w pracy z systemami DAW, mikserami czy konwerterami polega właśnie na pilnowaniu zgodności próbkowania między urządzeniami, bo tylko wtedy unikniemy artefaktów – a wysokość dźwięku zostanie zachowana. Standardy branżowe, takie jak AES czy EBU, jasno definiują, że te parametry są od siebie niezależne i nie powinny być utożsamiane. Warto zwracać uwagę na takie subtelności, bo mają ogromne znaczenie przy produkcji i masteringu dźwięku, szczególnie w środowiskach profesjonalnych.

Pytanie 35

Której z komend należy użyć w przypadku konieczności cofnięcia operacji w programie edycyjnym?

A. Redo
B. Rew
C. Back
D. Undo
Undo to jedna z tych komend, które praktycznie pojawiają się w każdym programie edycyjnym – od prostego edytora tekstu po zaawansowane narzędzia graficzne czy środowiska programistyczne. Jej podstawowe zadanie to cofnięcie ostatniej operacji, czyli przywrócenie poprzedniego stanu pliku lub projektu. Dzięki temu użytkownik może bezpiecznie eksperymentować, bo wie, że w razie czego zawsze da się wrócić o krok (albo kilka) do tyłu. Moim zdaniem to jeden z fundamentów ergonomii pracy z oprogramowaniem – trudno sobie dziś wyobrazić efektywną edycję czegokolwiek bez tej funkcjonalności. W standardach branżowych, takich jak HIG (Human Interface Guidelines), Undo jest obowiązkową funkcją, a jej skrót klawiszowy (najczęściej Ctrl+Z albo Cmd+Z na Macu) jest już chyba totalnym klasykiem. Często Undo działa w połączeniu z Redo (do ponownego wykonania cofniętej akcji), co daje pełną kontrolę nad historią zmian. Praktyczny przykład? Kiedy przypadkowo usuniesz ważny fragment tekstu w Wordzie czy Photoshopie, po prostu wciskasz Undo i gotowe – wszystko wraca na swoje miejsce. To naprawdę ogromna oszczędność czasu i gwarancja bezpieczeństwa pracy.

Pytanie 36

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. ALAC
C. AAC
D. WAV
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.

Pytanie 37

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. COMP
B. DLY
C. GATE
D. REV
Odpowiedź „GATE” jest jak najbardziej trafna – w kontekście procesorów efektów w DAW, właśnie ten skrót odnosi się do tzw. bramki szumów (ang. noise gate). Z mojego doświadczenia wynika, że bramka szumów to jeden z tych efektów, które są absolutnie niezbędne, gdy pracujesz z nagraniami audio, gdzie pojawia się niechciany szum, sprzężenia lub inne zakłócenia między frazami czy podczas ciszy w ścieżce. Bramki działają na zasadzie ustawiania progu głośności – jeśli sygnał jest poniżej tego progu, zostaje wyciszony, a jeśli go przekracza, jest przepuszczany dalej. Użycie GATE pozwala uzyskać czystsze nagrania, szczególnie w sytuacjach, gdzie mikrofon zbiera dźwięki otoczenia. W branży to już właściwie standard, że ścieżki wokalne, bębny czy nagrania z gitary często mają na insertach bramkę, żeby nie męczyć się z ręcznym usuwaniem szumów. Ciekawostką jest, że niektóre gate’y mają dodatkowe opcje, np. sidechain, co pozwala na naprawdę kreatywną pracę z dynamicznymi efektami. Warto jeszcze dodać, że GATE pojawia się praktycznie w każdym DAW, czy to Ableton, Cubase czy Pro Tools, a jego obsługa jest jednym z podstawowych elementów miksu. Moim zdaniem, każdy realizator dźwięku powinien znać to narzędzie na wylot, bo bez niego ciężko o profesjonalnie brzmiące nagrania.

Pytanie 38

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. CDA
B. WAV
C. MP3
D. RIFF
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 39

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. pola magnetycznego.
B. wilgotności powietrza.
C. promieniowania ultrafioletowego.
D. pola elektrostatycznego.
Promieniowanie ultrafioletowe (UV) jest jednym z największych wrogów nośników optycznych, takich jak płyty CD. To wynika głównie z tego, że warstwa zapisywalna na CD, szczególnie w przypadku płyt CD-R czy CD-RW, jest bardzo wrażliwa na działanie światła UV. Promieniowanie to powoduje degradację materiałów organicznych w barwniku płyty, przez co dane mogą stać się nieczytelne – płyta po prostu przestaje działać. W praktyce, jeśli płyta leży przez dłuższy czas na biurku w nasłonecznionym pokoju, może się okazać, że po kilku latach nie da się już jej odczytać. Właśnie dlatego większość archiwistów czy specjalistów IT zwraca uwagę, żeby nośniki optyczne przechowywać w zamkniętych, nieprzezroczystych pudełkach, najlepiej w ciemnych pomieszczeniach, gdzie nie ma dostępu światła słonecznego. Moim zdaniem, choć czasem ludzie nie doceniają tego zagrożenia, to właśnie promienie UV są najczęstszą przyczyną utraty danych na CD przechowywanych w złych warunkach. Z mojego doświadczenia wynika, że nawet stare płyty z lat 90-tych, jeśli były trzymane w szufladzie, nadal działają sprawnie, a te zostawione na słońcu po prostu przepadają. Najlepszą praktyką jest więc unikanie ekspozycji na światło oraz przechowywanie płyt w kontrolowanej temperaturze i wilgotności. Warto też pamiętać, że profesjonalne archiwizowanie danych na nośnikach optycznych zawsze uwzględnia zabezpieczenie ich przed promieniowaniem UV.

Pytanie 40

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD + R SL
B. CD – R DL
C. DVD – R DL
D. DVD + R SL
Wybierając odpowiedź inną niż DVD – R DL, łatwo się pomylić, bo na pierwszy rzut oka pojęcia takie jak „+R”, „–R”, „SL” czy „DL” bywają mylące. W rzeczywistości, podstawowa różnica między płytami CD a DVD to nie tylko sama technologia zapisu, ale przede wszystkim pojemność – CD zazwyczaj mieści około 700 MB, niezależnie od tego, czy mamy wersję „plus” czy „minus”. Różnice „+R” i „–R” odnoszą się do standardu nagrywania, a nie do ilości danych, które można zapisać. Niekiedy wydaje się, że CD-R DL byłby większy, bo „DL” sugeruje dwie warstwy, ale w praktyce rynek nie wprowadził powszechnie podwójnych warstw dla płyt CD – ta technologia została zarezerwowana dla płyt DVD. To częsty błąd myślowy, bo nazwa brzmi znajomo i można założyć, że każda „DL” oznacza 2x więcej danych, niezależnie od typu płyty, ale tak po prostu nie jest. DVD + R SL, mimo że jest płytą DVD, ma tylko jedną warstwę, co ogranicza jej pojemność do ok. 4,7 GB – to i tak dużo względem CD, ale nadal o połowę mniej niż DVD – R DL. Często spotykałem się z sytuacją, gdzie ktoś chciał nagrać większą ilość danych na CD, bo „tak było taniej”, tylko że potem musiał dzielić archiwum na kilka płyt i tracił czas na żonglowanie nośnikami. Tak naprawdę, jeśli zależy nam na dużej pojemności i kompatybilności, wybór powinien paść na płytę DVD – R DL. Oczywiście, ostateczny wybór zawsze zależy od konkretnej sytuacji, ale patrząc od strony technologicznej i praktycznej, warto rozpoznawać różnice między tymi standardami, by nie popełniać typowych błędów wynikających z nieznajomości specyfikacji płyt optycznych.