Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 1 maja 2026 09:36
  • Data zakończenia: 1 maja 2026 09:42

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Dysk M.O.
B. Kaseta DAT.
C. Kaseta CC.
D. Płyta DVD.
Wybór płyty DVD jako nośnika odpornego na silne pole magnetyczne to strzał w dziesiątkę. DVD to nośnik optyczny, na którym dane zapisywane są za pomocą wiązki lasera. Co ważne, zasada działania dysków optycznych sprawia, że nie są one podatne na wpływ zewnętrznego pola magnetycznego. Cały zapis opiera się na fizycznych zmianach struktury warstw poliwęglanowych i barwników, z których zbudowana jest płyta, a nie na orientacji domen magnetycznych jak w kasetach czy klasycznych dyskach magnetycznych. W praktyce oznacza to, że nawet dość silne pole magnetyczne nie wpłynie negatywnie na integralność zapisanych danych. Jest to bardzo istotne w branżach, gdzie bezpieczeństwo przechowywania informacji ma kluczowe znaczenie, np. w archiwizacji, edukacji, sądownictwie czy szpitalach. Często właśnie z tego powodu instytucje przechowujące wrażliwe dane decydują się na backupy na płytach DVD. Moim zdaniem warto też pamiętać, że choć DVD jest odporne na pole magnetyczne, to trzeba je chronić przed zarysowaniami i wysoką temperaturą, bo to już inna bajka. Ale jeśli chodzi o zabezpieczenie przed magnesem – żaden z magnetycznych nośników nie ma z DVD szans. Takie rozwiązania są zgodne z dobrymi praktykami branżowymi, np. ISO/IEC 27040 wskazuje właśnie na odporność nośników optycznych na czynniki elektromagnetyczne.

Pytanie 2

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. PASTE
B. REDO
C. COPY
D. UNDO
Funkcja UNDO jest podstawowym narzędziem w każdym programie DAW (Digital Audio Workstation), które pozwala na cofnięcie ostatnio wykonanej operacji edycyjnej. To trochę jak zabezpieczenie przed pomyłkami – wystarczy jedno skrócenie klawiszowe, najczęściej Ctrl+Z, i ostatnia czynność znika, a projekt wraca do wcześniejszego stanu. Ja sam ciągle z tego korzystam, zwłaszcza podczas szybkiej edycji ścieżek, kiedy łatwo coś przypadkiem usunąć lub przesunąć. UNDO działa praktycznie wszędzie – czy to cięcie klipu, przesuwanie nut w MIDI, czy nawet zmiana parametrów efektów. W większości DAW można też wielokrotnie cofać kolejne kroki, a historia edycji pozwala szybko naprawić dłuższą serię błędów. To jest taki must-have, bez którego praca nad muzyką byłaby dużo bardziej stresująca i czasochłonna. Swoją drogą, w profesjonalnych workflow zawsze poleca się korzystanie z UNDO zamiast ręcznego poprawiania, bo to nie tylko szybciej, ale i bezpieczniej. Warto też pamiętać, że cofnięcie operacji często działa nie tylko dla edycji dźwięku, ale też dla zmian w automatyce, aranżacji czy nawet we wtyczkach. No i przy dużych projektach UNDO ratuje skórę, gdy przez przypadek zamkniesz sobie pół aranżu. Tak po ludzku – lepiej kilka razy za dużo kliknąć UNDO, niż potem żałować straconej pracy.

Pytanie 3

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Peak Master.
B. Equalizer.
C. Phaser.
D. Noise gate.
Phaser to urządzenie, które działa na zasadzie przesuwania fazy sygnału w określonym paśmie częstotliwości. W praktyce polega to na tym, że sygnał audio przechodzi przez szereg filtrów all-pass, które opóźniają fazę określonych częstotliwości, a potem miesza się ten sygnał z oryginałem. Efektem tego są charakterystyczne, płynnie zmieniające się „dziury” (ang. notches) w widmie, co daje ten specyficzny, ruchomy efekt dźwiękowy kojarzony na przykład z gitarami elektrycznymi czy syntezatorami. W branży muzycznej phasery ceni się za to, że nadają głębi i ruchu dźwiękom, przy czym są często używane zgodnie z dobrymi praktykami produkcji, np. do wzbogacania partii instrumentów w miksie. Osobiście, uważam, że takie modulowanie fazy to świetny sposób na wydobycie ciekawszego brzmienia, szczególnie przy nagrywaniu gitar lub niektórych wokali. Warto wiedzieć, że nie każdy efekt modulowany to phaser – chorusy czy flangery też korzystają z przesunięcia fazy, ale robią to trochę inaczej. Phaser jest bardzo rozpoznawalny, jeśli chodzi o efekt przestrzenny i specyficzny charakter brzmienia, a jego działanie wynika bezpośrednio z zastosowania modulacji fazy, co jest zgodne z teorią przetwarzania sygnałów i standardami inżynierii dźwięku.

Pytanie 4

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
B. Zmiany barwy poszczególnych instrumentów.
C. Zmiany barwy wokalu.
D. Zwiększenia subiektywnej głośności nagrania.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 5

Który z wymienionych kodeków stosowany jest w plikach o rozszerzeniu .ogg?

A. ALAC
B. FLAC
C. VORBIS
D. LAME
Vorbis to kodek otwartoźródłowy, który najczęściej łączy się właśnie z plikami o rozszerzeniu .ogg. Samo rozszerzenie .ogg odnosi się do kontenera Ogg, który pozwala na przechowywanie różnych strumieni multimedialnych, ale w praktyce dominuje w nim właśnie dźwięk zakodowany przez Vorbis. Co ciekawe, format ten jest całkowicie wolny od patentów (przynajmniej tak twierdzi organizacja Xiph.Org, która go rozwijała), więc często wykorzystywano go w projektach open source, grach i aplikacjach, gdzie liczy się swoboda dystrybucji i brak ograniczeń prawnych. Ja sam kojarzę, że sporo gier indie oraz serwisów radiowych online korzystało z Ogg Vorbis, bo dawał bardzo dobrą jakość dźwięku przy niewielkich rozmiarach plików – czasem lepiej niż popularny MP3. W praktyce, jeśli widzisz plik .ogg, to niemal pewne, że masz do czynienia właśnie z dźwiękiem w Vorbisie. Chociaż kontener Ogg może obsługiwać też inne kodeki (np. FLAC czy Theora dla wideo), to jednak w zastosowaniach muzycznych Ogg Vorbis stał się swego rodzaju standardem, szczególnie w środowiskach linuksowych czy open source. Warto o tym pamiętać, zwłaszcza jeśli samemu kiedyś przyjdzie Ci kodować audio do formatu .ogg – domyślnym wyborem będzie Vorbis.

Pytanie 6

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 25 GB danych.
B. 100 GB danych.
C. 10 GB danych.
D. 50 GB danych.
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.

Pytanie 7

Tłocznia płyt wymaga dostarczenia obrazu nośnika CD lub DVD w formacie

A. ZIP
B. ISO
C. DMG
D. DDP 2.0
ZIP, ISO czy DMG – te formaty faktycznie mogą się kojarzyć z przenoszeniem dużych plików czy nawet obrazami dysków, ale niestety nie spełniają wymagań profesjonalnego tłoczenia płyt CD i DVD. ZIP to po prostu archiwum, które kompresuje pliki i katalogi, ale zupełnie nie dba o strukturę nośnika ani o metadane wymagane przez tłocznię. Przesłanie ZIP-a z plikami audio, nawet jeśli mamy je w idealnej jakości, nie daje gwarancji zachowania kolejności utworów, indeksów czy kodów PQ. Format ISO jest już bliżej, bo rzeczywiście przechowuje obraz całego systemu plików płyty, jednak powstał głównie z myślą o danych, a nie o płytach audio. To się sprawdza, gdy zgrywamy np. instalator oprogramowania lub gry, ale ISO nie przechowuje takich rzeczy jak ISRC, CD-Text czy szczegółowe kody PQ – czyli elementów kluczowych przy tłoczeniu profesjonalnych wydawnictw muzycznych. DMG to jeszcze inna bajka – to format typowy dla systemu macOS, używany do obrazów dysków, ale nie jest zgodny z branżowymi wymaganiami tłoczni. Bardzo często spotyka się sytuację, w której ktoś z przyzwyczajenia próbuje wysłać obraz płyty jako ISO lub DMG, myśląc, że to wystarczy. To taki typowy błąd powstający z utożsamiania obrazu płyty z obrazem systemu plików, a w tłoczni chodzi przecież o pełen zestaw informacji – zarówno sam dźwięk czy dane, jak i metadane związane z masteringiem. Właśnie dlatego format DDP 2.0 stał się standardem: jest dedykowany do przekazania wszystkiego, co potrzebne do prawidłowego odtworzenia i wyprodukowania płyty zgodnej ze specyfikacją Red Book dla CD-Audio czy odpowiednich norm dla DVD. Wybierając inne formaty, ryzykujemy brak zgodności, błędy w tłoczeniu czy nawet całkowite odrzucenie matrycy przez tłocznię.

Pytanie 8

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 7 kanałów.
B. 1 kanału.
C. 5 kanałów.
D. 8 kanałów.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 9

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Recent Session
B. Create Empty Session
C. Create Session from Template
D. Open Last Session
Opcja „Create Session from Template” to w wielu DAW-ach, takich jak Pro Tools czy Cubase, prawdziwy gamechanger dla tych, którzy chcą pracować szybciej i efektywniej. Dlaczego? Pozwala ona od razu wystartować z gotową strukturą projektu—na przykład z ustawionymi torami, grupami, routingiem, efektami, a nawet wzorcowymi ustawieniami miksera. W branży muzycznej to standardowa praktyka, bo szablony oszczędzają mnóstwo czasu przy powtarzalnych zleceniach, np. nagraniach podcastów czy miksowaniu demówek zespołów. Moim zdaniem, szablony są wręcz nieocenione, gdy trzeba szybko przejść do właściwej pracy, nie bawić się w ustawianie wszystkiego od nowa. Kiedyś sam marnowałem czas na kopiowanie ustawień i zawsze coś pominąłem, a teraz—raz skonfigurowany template i problem znika. Profesjonaliści często budują własne szablony dla różnych typów projektów: osobne do nagrań live, inne do miksu czy masteringu. To też dobry sposób, żeby nie zapomnieć o drobnych szczegółach, które później wychodzą w praniu. Używanie tej opcji to nie tylko wygoda, ale wręcz podstawa workflow w nowoczesnej produkcji audio.

Pytanie 10

Zakłócenia w postaci przydźwięku sieciowego w montowanym materiale dźwiękowym można zredukować za pomocą urządzenia o nazwie

A. Noise Gate
B. HP Filter
C. De-Esser
D. Resampler
HP Filter, czyli filtr górnoprzepustowy, to naprawdę podstawowe narzędzie w walce z przydźwiękiem sieciowym, który zazwyczaj pojawia się w materiale dźwiękowym jako niskoczęstotliwościowy szum o częstotliwości 50 Hz (w Europie) albo 60 Hz (na przykład w USA), wraz z ich harmonicznymi. Główną zaletą filtra HP jest to, że pozwala odciąć te właśnie najniższe częstotliwości, które najczęściej są niepożądane w rejestrowanym dźwięku – szczególnie jeśli nagrywasz głos, instrumenty solowe czy dialogi. W praktyce, w studiach nagraniowych czy przy montażu reportażu, ustawienie HP na ok. 80-100 Hz to w zasadzie standard, żeby usunąć typowe brumy czy buczenia, a jednocześnie nie ingerować w pasmo użyteczne nagrania. Często w mikserach czy interfejsach audio filtr ten jest wręcz domyślnie aktywowany, bo daje bardzo konkretną poprawę jakości nagrania bez zabawy w skomplikowane korekcje. Osobiście nie wyobrażam sobie postprodukcji bez tego narzędzia – to takie podstawowe BHP w dźwięku. Oczywiście, czasem trzeba uważać, żeby nie wyciąć za dużo basu, zwłaszcza przy nagraniach instrumentów niskotonowych, ale w typowych dialogach czy podcastach HP Filter to podstawa. Jeśli chcesz działać zgodnie z dobrymi praktykami branżowymi, warto zawsze zacząć czyszczenie ścieżki właśnie od tego filtra.

Pytanie 11

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. MASTER
B. VIDEO
C. MIDI
D. AUDIO
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 12

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. HPF
B. LPF
C. HSF
D. BPF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ układu, w którym najczęściej reguluje się dobroć, czyli współczynnik Q. Dobroć (Q) definiuje, jak wąskie lub szerokie jest pasmo przepuszczania filtru – im wyższa wartość Q, tym filtr bardziej selektywny, a jego charakterystyka ostrzejsza. Moim zdaniem, w praktyce to jest szalenie istotne, kiedy projektujesz np. aktywne korektory barwy dźwięku, filtry w układach analogowych syntezatorów albo systemy pomiarowe. W aplikacjach audiofilskich czy DSP często wymaga się bardzo precyzyjnego tłumienia określonych częstotliwości, więc możliwość regulacji dobroci jest naprawdę przydatna. Filtry BPF można też znaleźć w komunikacji radiowej do wyodrębniania wąskich kanałów pasma. W wielu układach, np. w popularnym filtrze typu Sallen-Key, parametr Q bardzo łatwo modyfikować doborem odpowiednich elementów. Dobroć nie jest kluczowa dla LPF (Low Pass Filter) czy HPF (High Pass Filter), bo one mają tylko jedno zbocze, a nie wyodrębniają sygnału wąskiego pasma. Standardy projektowania takich filtrów często podkreślają znaczenie regulacji Q w BPF do adaptacji filtru pod konkretne zastosowanie, co zdecydowanie ułatwia życie inżynierom.

Pytanie 13

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. dodanie do dźwięku szumu kwantyzacji.
B. odtworzenie sygnału identycznego jak oryginał.
C. nieznaczne podbicie środkowej części pasma.
D. powstanie dodatkowych harmonicznych.
Kompresja sygnału cyfrowego do formatu bezstratnego, a potem jego dekompresja, to proces, który – jeśli jest poprawnie przeprowadzony – daje sygnał dokładnie taki sam, jak oryginał. Chodzi tu o takie algorytmy jak FLAC, ALAC czy np. ZIP dla danych ogólnych. One zachowują każdą informację bit po bicie, nic nie ginie po drodze. Właśnie na tym polega różnica między kompresją bezstratną a stratną, gdzie ta druga (jak MP3 czy AAC) już bezpowrotnie usuwa część danych, żeby zmniejszyć plik. W standardach branżowych, przy archiwizacji dźwięku, zawsze zaleca się stosowanie formatów bezstratnych, jeśli chcemy mieć pewność, że po latach dostaniemy identyczny sygnał – to jest takie archiwalne „zero kompromisów”. No i jak się czasem zdarza komuś, że nieopatrznie przekonwertuje plik do stratnego i potem chce wrócić do oryginału, to już się nie da. Przy bezstratnym nie ma takich problemów, wszystko wraca do stanu wyjściowego. Moim zdaniem to ważne nie tylko dla purystów audiofilskich, ale po prostu dla każdego, kto pracuje z dźwiękiem poważniej, czy to w studiu, czy z materiałami historycznymi. Kompresja bezstratna jest jak sejf: zamykasz, otwierasz i zawsze masz wszystko co było – ani bit mniej, ani więcej.

Pytanie 14

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 200 GB
B. 25 GB
C. 50 GB
D. 100 GB
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.

Pytanie 15

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. pendrive.
B. pamięć Memory Stick.
C. płytę CD-R.
D. dysk twardy.
Dokładnie, płyta CD-R to klasyczny nośnik wykorzystywany przy optycznej metodzie zapisu danych, w tym materiałów muzycznych. W praktyce polega to na tym, że dane są zapisywane za pomocą lasera na powierzchni płyty, która działa jak swoista "matryca" odbijająca światło w różny sposób, w zależności od tego, czy dany fragment został zapisany czy nie. To rozwiązanie przez długie lata było standardem – nie tylko w branży muzycznej, ale też w archiwizacji danych czy dystrybucji oprogramowania. Co ciekawe, profesjonalne tłoczenie płyt wykorzystuje podobną zasadę, chociaż jest to już bardziej skomplikowany proces przemysłowy. W warunkach domowych lub studyjnych nagranie na CD-R pozwala zachować wysoką jakość dźwięku (format Audio CD, 44,1 kHz/16 bitów), a dodatkowo nośnik ten jest od razu gotowy do odczytu przez zdecydowaną większość sprzętu audio. W branży produkcji muzycznej płyty CD-R często służą do tworzenia tzw. "masterów" lub wersji demonstracyjnych gotowych do dalszej produkcji czy promowania utworów. Sam nie raz przygotowywałem taką płytę na potrzeby przesłuchań czy weryfikacji miksu. Moim zdaniem nadal warto znać tę technologię, bo mimo popularności cyfrowych plików, w niektórych przypadkach CD-R jest wciąż niezastąpiony, zwłaszcza gdy zależy nam na trwałości zapisu i kompatybilności.

Pytanie 16

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. sekundę.
B. ramkę.
C. minutę.
D. godzinę.
Druga para cyfr w zapisie kodu czasowego SMPTE rzeczywiście odnosi się do minut. To bardzo ważne, bo przy pracy z materiałem wideo czy audio nieprecyzyjne zarządzanie czasem może prowadzić do błędów zsynchronizowania, szczególnie przy montażu wielościeżkowym. W standardzie SMPTE timecode zapisuje się w formacie HH:MM:SS:FF (godzina:minuta:sekunda:ramka). Przykładowo, jeśli na taśmie mamy fragment oznaczony 01:23:45:12, to oznacza to dokładnie pierwszą godzinę, 23. minutę, 45. sekundę i 12. klatkę. Moim zdaniem świadomość tego układu pozwala dużo szybciej orientować się w timeline’ach podczas montażu albo synchronizacji obrazu z dźwiękiem. W praktyce operatorzy i montażyści bardzo często posługują się oznaczeniami minut, by sprawnie zaznaczać punkty cięcia lub synchronizacji, szczególnie przy dłuższych formach, gdzie sekundy i ramki nie są tak istotne, a przesunięcie np. jednej minuty mogłoby całkowicie rozjechać całą strukturę montażową. Standard SMPTE jest szeroko przyjęty na całym świecie w branży filmowej, telewizyjnej i postprodukcyjnej, więc rozumienie co oznacza każda para cyfr pomaga też przy współpracy zespołowej – każdy wie, gdzie szukać określonego momentu. W różnych programach do edycji (np. Adobe Premiere, AVID) też zawsze ta druga para to minuty, więc nie sposób tego przegapić.

Pytanie 17

Który z wymienionych korektorów umożliwia automatyczne dopasowanie charakterystyki częstotliwości nagrania do nagrania wzorcowego?

A. Paragraphic EQ.
B. Matching EQ.
C. Dynamic EQ.
D. Graphic EQ.
Matching EQ to taki korektor, który w mojej opinii trochę zmienił podejście do mixu, szczególnie jak ktoś chce szybko uzyskać podobne brzmienie do jakiegoś referencyjnego utworu. Działa to na zasadzie analizy widma częstotliwościowego nagrania docelowego i porównania go z Twoim materiałem – później EQ automatycznie generuje odpowiednią krzywą korekcji, żeby Twój miks zbliżyć do wzorca. To jest mega przydatne, zwłaszcza przy masteringu, kiedy klient życzy sobie np. „żeby mój kawałek brzmiał jak nowy singiel X”. Wtedy Matching EQ jest wręcz narzędziem pierwszego wyboru, bo pozwala oszczędzić mnóstwo czasu, który normalnie poświęciłbyś na ręczne szukanie tych samych nierówności w częstotliwościach. Przykładem dobrej praktyki jest korzystanie z tej funkcji w połączeniu z własnym odsłuchem – Matching EQ powinien być punktem wyjścia, potem zawsze warto sprawdzić i ręcznie poprawić to, co komputer automatycznie „dopasował”, bo nie zawsze wszystko pasuje muzycznie czy stylistycznie. Ten rodzaj korektora jest obecny w wielu wtyczkach typu Ozone, FabFilter Pro-Q czy nawet niektórych DAW-ach. Z mojego doświadczenia wynika, że Matching EQ świetnie sprawdza się także przy naprawianiu dialogów filmowych – można ujednolicić brzmienie nagrań z różnych mikrofonów. To narzędzie nie zastępuje ucha realizatora, ale bardzo pomaga i jest zgodne z nowoczesnymi workflow w profesjonalnym audio.

Pytanie 18

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Dwukrotny.
B. Pięciokrotny.
C. Trzykrotny.
D. Czterokrotny.
Zmniejszenie poziomu sygnału o 6 dB to klasyczny przypadek w technice radiowej, telekomunikacji i nagłośnieniu. Praktycy często używają tej wartości jako punktu odniesienia, bo spadek o 6 dB odpowiada bardzo konkretnemu efektowi – moc sygnału spada wtedy dokładnie czterokrotnie. Wynika to z logarytmicznego charakteru skali decybelowej. Wzór na przeliczanie decybeli na stosunek mocy wygląda tak: LdB = 10 * log10(P2/P1). Czyli jeśli LdB = -6, to P2/P1 = 10^(-6/10) ≈ 0,25 – czyli dokładnie 1/4. Jest to bardzo użyteczne np. przy ustawianiu wzmacniaczy, analizie strat sygnału na kablach albo w rozważaniach dotyczących tłumienia sygnałów w instalacjach antenowych. Branżowe standardy, jak np. ITU-T czy rekomendacje IEEE, często wskazują właśnie 3 dB (dwukrotny spadek) oraz 6 dB (czterokrotny spadek) jako kluczowe punkty odniesienia. Moim zdaniem, warto to mieć w małym palcu, bo bardzo często w praktyce się pojawia pytanie: ile to jest spadek o 6 dB i co to oznacza dla jakości sygnału? Takie podstawy naprawdę ułatwiają analizowanie bardziej złożonych przypadków, gdzie na przykład trzeba szacować straty na trasie sygnału albo dobierać odpowiednie parametry urządzeń.

Pytanie 19

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. BD
B. FT
C. SN
D. HH
Skrót SN pochodzi od angielskiego „snare drum”, czyli właśnie werbel. To absolutnie podstawowy element zestawu perkusyjnego – praktycznie każda partytura perkusyjna, nawet najprostsza, zawiera zapis dla snare drum oznaczony jako SN. W notacji perkusyjnej jest to taki punkt odniesienia, najczęściej stawiany na środku pięciolinii lub trochę powyżej, zależnie od używanego zapisu. Werbel, przez swój ostry i charakterystyczny dźwięk, jest odpowiedzialny za budowanie rytmu i akcentowanie fraz muzycznych. W bandach, orkiestrach i zespołach rockowych to właśnie SN daje te mocne „uderzenia” na 2 i 4. Z doświadczenia wiem, że w praktyce studyjnej, jak i na scenie, technicy, realizatorzy oraz muzycy prawie zawsze posługują się skrótami – „podnieś mi SN”, „wytnij trochę 200 Hz na SN” – to standardowe komunikaty. Skrót SN jest stosowany w oprogramowaniu DAW (np. Cubase, Logic, Ableton), w zapisie nutowym, na schematach miksera i przy opisywaniu kanałów na konsoletach dźwiękowych. Warto sobie to zakodować, bo nie znajomość tej nomenklatury często prowadzi do nieporozumień. Moim zdaniem, zrozumienie tej symboliki to absolutna podstawa, jeśli ktoś chce wejść w świat profesjonalnego nagrywania lub miksu perkusji albo nawet grać ze słuchu z nut.

Pytanie 20

Sporządzenie duplikatu źródłowego materiału dźwiękowego należy przeprowadzić na etapie

A. masteringu.
B. edycji.
C. montażu.
D. rejestracji.
To jest właśnie to, o co chodzi w profesjonalnej produkcji dźwięku. Sporządzenie duplikatu źródłowego materiału dźwiękowego — często zwanego safety copy lub backupem — powinno się wykonywać już na etapie rejestracji. Chodzi o to, żeby od samego początku zabezpieczyć materiał przed stratą, uszkodzeniem czy jakimkolwiek przypadkowym nadpisaniem. Jest to absolutny standard w każdej szanującej się realizacji studyjnej czy nawet podczas nagrań plenerowych. Moim zdaniem to jedna z tych rzeczy, na które często się nie zwraca uwagi na początku nauki, a potem, po paru wpadkach, nagle wszyscy zaczynają rozumieć, dlaczego to jest takie ważne. Praktyka jest taka, że zaraz po zakończeniu sesji nagraniowej należy wykonać kopię surowych plików – czy to na inny nośnik, chmurę, czy zewnętrzny dysk. W branży wszyscy wiedzą, że nie istnieje coś takiego jak 'za dużo backupów'. To jest też jeden z tych momentów, gdzie dobre praktyki spotykają się z doświadczeniem – osoby, które przeżyły utratę ważnych nagrań, już zawsze robią kopie natychmiast po rejestracji. Takie podejście pozwala spać spokojnie i bez stresu przechodzić do kolejnych etapów produkcji, wiedząc, że oryginał jest bezpieczny. Bezpieczeństwo danych, jak dla mnie, to podstawa tej roboty.

Pytanie 21

Możliwość wprowadzania zmian w materiałach zapożyczonych należy potwierdzić umową

A. zamiany.
B. leasingową.
C. dzierżawy.
D. licencyjną.
Umowa licencyjna to podstawowy dokument w obrocie prawami autorskimi, szczególnie kiedy w grę wchodzi korzystanie z cudzych materiałów – czy to tekstów, grafik, muzyki, czy oprogramowania. W praktyce to właśnie licencja określa, na jakich zasadach możemy korzystać z danego utworu. To ona pozwala (lub nie) wprowadzać zmiany, modyfikować materiał, przetwarzać, kompilować czy udostępniać dalej. Z mojego doświadczenia wynika, że bez wyraźnych zapisów w licencji, nawet najdrobniejsza modyfikacja może być naruszeniem prawa autorskiego i prowadzić do nieprzyjemnych konsekwencji, zwłaszcza w pracy zawodowej. Branżowe dobre praktyki, np. te promowane przez Stowarzyszenie Twórców Grafiki Użytkowej czy organizacje zarządzające prawami autorskimi, zawsze podkreślają konieczność jasnej, pisemnej licencji na wszelkie działania wykraczające poza tzw. dozwolony użytek osobisty. Przykład z życia: jeśli kupujesz zdjęcie lub grafikę do projektu reklamowego i chcesz coś w nim zmienić (np. kolorystykę), musisz mieć to wyraźnie zapisane w licencji. W innym przypadku – lepiej nie ryzykować. Słowem, licencja to podstawa wszelkiej legalnej adaptacji cudzych materiałów, nie tylko w informatyce, ale też muzyce, filmie czy literaturze.

Pytanie 22

Lista oznaczona skrótem FX to lista

A. efektów specjalnych.
B. plików MIDI.
C. ścieżek lektorskich.
D. klipów.
Skrót FX w technice audio-wideo oznacza efekty specjalne (ang. effects), co jest powszechnie stosowane nie tylko w profesjonalnych studiach filmowych, ale też w prostych programach do montażu dźwięku czy obrazu. Lista FX to nic innego jak zestaw efektów, które możesz zastosować do pojedynczych klipów, ścieżek czy całych projektów. W praktyce, w programach takich jak Adobe Premiere, Cubase czy nawet DaVinci Resolve, masz specjalną zakładkę FX, gdzie wrzucasz takie rzeczy jak pogłos, korekcja barwy, echa, filtry czy bardziej zaawansowane przekształcenia obrazu. To zdecydowanie nie jest lista klipów ani plików MIDI, bo te mają osobne kategorie i oznaczenia. Spotkasz się z tym w branży praktycznie na każdym kroku – wystarczy spojrzeć na listy presetów czy gotowych łańcuchów efektów, gdzie pod FX kryją się te wszystkie „bajery”, które nadają brzmieniu lub obrazowi charakter. Moim zdaniem warto pamiętać, że dobra organizacja efektów pod FX ułatwia szybkie eksperymentowanie i workflow, a w dużych projektach bez tego można się pogubić. Profesjonaliści zawsze starają się trzymać efekty pod ręką i mieć porządek na liście FX – to po prostu ułatwia życie i przyspiesza pracę. Z mojego doświadczenia, jeśli ktoś mówi „dopisz to do FX”, wiadomo od razu, że chodzi o efekty specjalne, nie żadne lektorskie ścieżki czy MIDI. No, taka branżowa oczywistość.

Pytanie 23

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 70 minut.
B. 80 minut.
C. 60 minut.
D. 90 minut.
Poprawnie wybrałeś 80 minut – właśnie tyle maksymalnie można nagrać na standardowej płycie CD-Audio o pojemności 700 MB. Ten format powstał jeszcze w latach 80. XX wieku i od tamtej pory praktycznie się nie zmienił – całość opiera się na zapisie nieskompresowanego dźwięku PCM o częstotliwości próbkowania 44,1 kHz przy 16 bitach i dwóch kanałach (stereo). Przy takich parametrach 1 minuta muzyki zajmuje około 10 MB, dlatego 700 MB wystarcza właśnie na niecałe 80 minut muzyki wysokiej jakości. Standard Red Book (IEC 60908) dokładnie to opisuje, zresztą w branży muzycznej przez lata nikt nie próbował tego modyfikować, bo taka długość płyty idealnie pasowała do większości albumów. W praktyce, jeśli nagrasz płytę o długości 80 minut, nie będzie problemu z jej odtworzeniem w dowolnym klasycznym odtwarzaczu CD. Przekroczenie tej granicy powoduje już spore ryzyko, że płyta nie będzie czytelna wszędzie – producenci sprzętu zawsze trzymają się tych podstawowych parametrów, żeby uniknąć kłopotów z kompatybilnością. Moim zdaniem, właśnie znajomość tych ograniczeń to podstawa dla każdego, kto planuje archiwizować lub publikować dźwięk na CD – nie tylko w teorii, ale i w codziennej praktyce studyjnej. Warto też wiedzieć, że alternatywne formaty, typu CD-MP3, pozwalają zapisać dużo więcej czasu dźwięku, ale tylko na sprzętach, które taką funkcję wspierają. Jednak jeśli chodzi o klasyczny CD-Audio 700 MB – 80 minut to absolutna granica.

Pytanie 24

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 48 000 Hz
B. 44 100 Hz
C. 96 000 Hz
D. 32 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 25

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LM
B. HM
C. LP
D. HP
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 26

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 10 MB
B. 24 MB
C. 5 MB
D. 16 MB
Właśnie o to chodziło – dla nagrania stereo o długości 1 minuty i 30 sekund (czyli 00:01:30:00 w SMPTE) zapisanej w formacie CD-Audio, rozmiar 16 MB jest najbardziej trafny. W praktyce CD-Audio korzysta z próbkowania 44,1 kHz i 16-bitowej głębi dla każdego z dwóch kanałów. To oznacza 44100 próbek na sekundę * 16 bitów (czyli 2 bajty) * 2 kanały = 176400 bajtów na sekundę. Przemnażając to przez czas nagrania (90 sekund), dostajemy 15 876 000 bajtów, co po przeliczeniu na megabajty (dzielimy przez 1 048 576) daje około 15,1 MB. Jednak w praktyce zaokrągla się to do 16 MB ze względu na nadmiarowość sektorów CD lub uproszczone kalkulacje w branży. Tak się to robi w studiach nagraniowych i przy masteringu płyt – warto znać takie przeliczniki i umieć je wykorzystać, bo planowanie przestrzeni na nośniku to wciąż ważny temat. Moim zdaniem fajnie jest pamiętać, że dźwięk nieskompresowany potrafi szybko zajmować dużo miejsca, co tłumaczy popularność kompresji w codziennym użytku. Standard CD-Audio (Red Book) od lat pozostaje wzorem przy archiwizacji i profesjonalnym przygotowaniu ścieżek dźwiękowych. Właśnie dlatego, jeśli ktoś pyta o rozmiar takiego nagrania, 16 MB to najbardziej rzetelna odpowiedź zgodna z praktyką branżową.

Pytanie 27

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 6 razy.
B. 2 razy.
C. 3 razy.
D. 4 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 28

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -1 dB Peak/ -9 dB RMS
B. -0,1 dB Peak/ -8 dB RMS
C. -3 dB Peak/ -12 dB RMS
D. -0,3 dB Peak/ -7 dB RMS
Odpowiedź z wartościami -0,3 dB Peak oraz -7 dB RMS jest zdecydowanie najbardziej trafna, jeśli chodzi o najwyższy średni poziom głośności nagrania. Wynika to z tego, że RMS (Root Mean Square) jest miarą średniej energii sygnału audio i bardziej oddaje faktyczną, odczuwalną głośność niż sam Peak, który pokazuje tylko najwyższy chwilowy poziom. W branży muzycznej i radiowej bardzo często operuje się poziomami RMS, żeby uzyskać głośne, ale wciąż dobrze brzmiące nagrania. Wartość -7 dB RMS to już naprawdę wysoki poziom i często spotyka się ją w nowoczesnych, mocno skompresowanych utworach popowych czy radiowych. Z kolei -0,3 dB Peak oznacza, że sygnał praktycznie nie przekracza progu przesterowania (clippingu), co jest bardzo bliskie maksymalnemu poziomowi dopuszczalnemu w standardzie cyfrowym. W praktyce – taki balans między RMS a Peak świadczy o umiejętnym użyciu kompresji i limitera. Dobrze zrealizowany mastering pozwala wtedy na uzyskanie głośnego, a przy tym nieprzesterowanego i niezmęczonego dla ucha utworu. Moim zdaniem to właśnie wyczucie tych wartości odróżnia profesjonalne produkcje od amatorskich, gdzie często albo przesadza się z głośnością (prowadząc do clipingu), albo zostawia za duży margines i przez to utwór wypada cicho przy innych. Warto pamiętać, że nie wszystkie gatunki muzyczne wymagają tak wysokiego RMS, jednak dla nowoczesnej muzyki rozrywkowej -7 dB RMS to bardzo popularny target.

Pytanie 29

Wybierz z listy maksymalną rozdzielczość plików audio obsługiwaną przez współczesne aplikacje DAW.

A. 32 bity
B. 16 bitów
C. 8 bitów
D. 24 bity
Wiele osób myśli, że nagrywanie lub edycja w 8 czy 16 bitach to już szczyt możliwości, bo przecież przez lata taki poziom był standardem w branży audio. Jednak obecnie to raczej domena starych formatów (np. płyty CD to 16 bitów), a nie profesjonalnych zastosowań. 8-bitowy dźwięk kojarzy się dziś głównie z retro grami komputerowymi czy syntezatorami lo-fi, gdzie akceptuje się szumy i charakterystyczną ziarnistość brzmienia dla efektu stylistycznego, a nie jakości. 16 bitów natomiast, choć jeszcze do niedawna wystarczało do masteringu na CD czy domowego studia, obecnie bywa ograniczeniem, bo przy niższej rozdzielczości łatwiej o szumy kwantyzacyjne, mniejszą dynamikę i problemy przy obróbce z dużą ilością efektów. 24 bity są już szeroko stosowane w profesjonalnym nagrywaniu i miksowaniu – zyskujemy większy zakres dynamiki i swobodę pracy, ale to wciąż nie jest maksimum, jakie DAW-y potrafią przetworzyć. Z mojego doświadczenia wynika, że wiele osób zatrzymuje się na 24 bitach, bo to już 'profesjonalnie brzmi', lecz przy zaawansowanych sesjach, automatyzacjach czy korzystaniu z wielu efektów, 32 bity (szczególnie float) pozwalają uniknąć przesterowań i utraty jakości przy ekstremalnych warunkach miksu. Typowym błędem jest myślenie, że wyższa rozdzielczość nie daje wymiernych korzyści – praktyka pokazuje, że różnica jest odczuwalna szczególnie przy dynamicznych źródłach i wieloetapowej obróbce. Nowoczesne DAW są projektowane tak, by pracować właśnie w 32 bitach, bo to jest najbezpieczniejsze rozwiązanie dla zachowania pełnej jakości dźwięku, nawet jeśli ostateczna publikacja wymaga niższego formatu. Warto wiedzieć, że branżowe standardy idą w kierunku coraz wyższej precyzji, bo oczekiwania słuchaczy i użytkowników sprzętu stale rosną.

Pytanie 30

Który parametr pliku dźwiękowego wskazuje sposób kompresji danych audio?

A. Rodzaj kodowania.
B. Liczba kanałów.
C. Częstotliwość próbkowania.
D. Rozmiar.
Rzeczywiście, to właśnie rodzaj kodowania decyduje o sposobie, w jaki dźwięk zostaje zapisany i skompresowany w pliku audio. Mówiąc prościej, „rodzaj kodowania” to nic innego jak wybrany algorytm lub format, według którego dane audio są kompresowane i potem zapisywane na dysku. Przykładowo, mamy formaty takie jak MP3, AAC, FLAC czy WAV – każdy z nich używa innego sposobu kodowania, co przekłada się na to, czy plik jest stratny czy bezstratny, ile zajmuje miejsca, a także jak brzmi po odtworzeniu. W branży muzycznej czy radiowej dobór właściwego kodowania ma kolosalne znaczenie – czasami chodzi o minimalizację rozmiaru pliku (np. streaming online), a innym razem o zachowanie maksymalnej jakości (produkcja studyjna, archiwizacja). W praktyce, gdy chcesz na przykład przekonwertować płytę CD do pliku, program do ripowania pyta właśnie o rodzaj kodowania, a nie np. o rozmiar czy liczbę kanałów. Moim zdaniem warto znać nie tylko nazwy tych formatów, ale i ich cechy, bo daje to dużą swobodę w wyborze najlepszego rozwiązania do danego zastosowania. Ważne jest też, żeby rozumieć, że standardy takie jak ISO/IEC 11172-3 (dla MP3) czy FLAC (Free Lossless Audio Codec) są powszechnie uznawane i stosowane w profesjonalnych systemach. To nie tylko teoria, ale bardzo praktyczna wiedza przy produkcji, edycji lub nawet prostym słuchaniu muzyki na różnych urządzeniach.

Pytanie 31

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. ostrego rysika.
B. długopisu.
C. flamastra zawierającego alkohol.
D. flamastra niezawierającego alkoholu.
Prawidłowo, do opisywania płyt CD czy DVD najlepiej wykorzystać flamaster niezawierający alkoholu. To nie jest tylko wymysł producentów czy czcza ostrożność – chodzi tutaj o konkretne ryzyko uszkodzenia danych. Markery alkoholowe mają w składzie rozpuszczalniki, które mogą przenikać przez cienką warstwę ochronną płyty i naruszyć warstwę z danymi – tę, na której faktycznie zapisane są Twoje pliki czy muzyka. Zdarza się, że po kilku miesiącach, a czasem nawet wcześniej, na powierzchni pojawiają się przebarwienia, pęknięcia albo ślady rozpuszczalnika, przez co płyta jest po prostu do wyrzucenia. Z mojego doświadczenia wynika, że najlepiej sprawdzają się specjalne markery dedykowane do płyt, które można kupić w większości sklepów komputerowych – mają miękką końcówkę i tusz bez alkoholu. Branżowe zalecenia, np. organizacji ISO czy wytyczne producentów optycznych nośników, jasno wskazują: nie używać ostrych narzędzi, długopisów, ani markerów zawierających alkohol. Takie proste działanie jak dobór odpowiedniego pisaka potrafi zdecydować, czy Twoje archiwum wytrzyma kilka miesięcy, czy kilkanaście lat. Moim zdaniem zawsze warto zainwestować te parę złotych więcej, żeby nie narazić się na utratę cennych danych.

Pytanie 32

Na ilu ścieżkach należy zapisać sygnał z mikrofonu stereofonicznego, pracującego w technice Mid Side?

A. 2
B. 3
C. 6
D. 5
Świetnie, dokładnie tak to wygląda w praktyce realizatorskiej. Mikrofon stereofoniczny pracujący w technice Mid Side (MS) generuje sygnał w dwóch kanałach: Mid (środkowy) oraz Side (boczny). Te dwa sygnały zapisywane są na osobnych ścieżkach – to podstawa, bo dopiero później, za pomocą prostego sumowania i odejmowania (M+S oraz M–S), uzyskujemy klasyczny obraz stereo: lewy i prawy kanał. To właśnie zapis Mid i Side oddzielnie daje największą elastyczność podczas miksowania – można w dowolnym momencie regulować szerokość sceny stereo, co jest bardzo wygodne zarówno podczas nagrań na żywo, jak i w studiu. W branży fonograficznej ta dwuścieżkowa metoda archiwizacji MS jest standardem, bo pozwala wrócić do ustawień panoramy nawet po latach. Moim zdaniem to ogromna zaleta tej techniki – na etapie postprodukcji masz totalną kontrolę nad obrazem stereo, bez utraty jakości wynikającej z wcześniejszego zamknięcia wszystkiego do dwóch kanałów LR. W praktyce, jeśli ktoś zapisuje więcej niż dwa ślady z MS, to raczej z powodu nieporozumienia lub nietypowych eksperymentów, a nie z uzasadnionych potrzeb technicznych. Pamiętaj, że niektóre interfejsy DAW od razu umożliwiają konwersję MS do LR, ale oryginały powinny być dwa: Mid i Side. Jeśli więc masz mikrofon MS i chcesz być w zgodzie z profesjonalnymi standardami, zawsze rejestruj dwa ślady, a potem baw się miksowaniem do woli. To naprawdę daje dużo możliwości!

Pytanie 33

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Mute.
B. Solo.
C. Freeze.
D. Fade out.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 34

Który z wymienionych parametrów określa stromość krzywej nachylenia filtracji filtra HPF?

A. Gain
B. Slope
C. Frequency
D. Width
W pytaniu o stromość filtra HPF łatwo się pomylić, bo pozostałe parametry też często przewijają się przy ustawianiu filtrów, ale każdy z nich oznacza coś zupełnie innego. Gain, czyli wzmocnienie, to po prostu poziom głośności sygnału – nie ma żadnego wpływu na to, jak stromo filtr odcina częstotliwości, on po prostu ustala ile decybeli trafia na wyjście, niezależnie od pasma. Z kolei width pojawia się raczej przy filtrach typu band-pass lub w kontekście korektorów parametrycznych – oznacza szerokość pasma (czasem jako Q), czyli jak szeroki wycinek częstotliwości obejmuje filtr, ale nie mówi nic o nachyleniu zbocza. Frequency, czyli częstotliwość odcięcia, to bardzo ważna rzecz, bo ustala granicę, od której filtr zaczyna działać, ale dalej nie określa, jak szybko następuje tłumienie poniżej tej wartości – za to odpowiada właśnie slope. Bardzo często spotykam się z myleniem tych pojęć, zwłaszcza u osób zaczynających przygodę z realizacją dźwięku; czasem nawet w instrukcjach obsługi sprzętu czy wtyczek można się natknąć na nieprecyzyjne opisy, które tylko potęgują zamieszanie. W praktyce, jeśli ktoś źle dobierze stromość (myśląc, że chodzi np. o gain albo frequency), może się okazać, że filtr nie spełnia swojej roli – np. nie wycina niechcianych dudnień albo wręcz wycina za dużo. Stąd tak mocno podkreśla się w branży audio, by dobrze rozumieć, co właściwie oznacza każdy parametr i nie sugerować się potocznymi skojarzeniami. Na kursach czy warsztatach zawsze tłumaczymy, żeby na spokojnie testować ustawienia slope, bo to właśnie on decyduje, jak dynamicznie i skutecznie filtr działa w rzeczywistych warunkach.

Pytanie 35

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save Copy In
B. Revert to Saved
C. Save As
D. Save
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.

Pytanie 36

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. CC
B. DCC
C. SACD
D. ADAT
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 37

Ile ścieżek należy utworzyć w sesji oprogramowania DAW, aby dokonać montażu materiału dźwiękowego zarejestrowanego w systemie 5.1?

A. 5 ścieżek.
B. 4 ścieżki.
C. 6 ścieżek.
D. 3 ścieżki.
Dokładnie tak – przygotowując sesję montażową w DAW dla materiału zarejestrowanego w systemie 5.1, musisz utworzyć sześć osobnych ścieżek, każdą dla innego kanału systemu surround. Standard 5.1 obejmuje: lewy (L), prawy (R), centralny (C), lewy surround (Ls), prawy surround (Rs) oraz subwoofer (LFE). Każdy z tych kanałów niesie inny element miksu – dialogi, efekty, ambience czy basy – więc ich oddzielenie jest kluczowe dla zachowania kontroli nad przestrzenią dźwiękową. Moim zdaniem, nawet jeśli miksujesz coś prostego, warto zawsze trzymać się tego podziału, bo potem łatwiej edytować albo eksportować mix do różnych formatów. W praktyce często spotyka się sytuacje, że ktoś próbuje „oszczędzić” ścieżki, łącząc kilka kanałów, ale to się mści na etapie masteringu czy korekcji. Branżowe normy Dolby czy ITU jasno określają układ 6-kanałowy dla 5.1 i profesjonalny DAW zawsze pozwala na konfigurację oddzielnych torów. Dobrą praktyką jest też nadanie ścieżkom czytelnych nazw typu L, R, C itd., co przy większych projektach naprawdę porządkuje sesję. Takie podejście bardzo ułatwia pracę zarówno podczas montażu, jak i późniejszego miksu czy nawet archiwizacji projektu. Warto o tym pamiętać, bo systemy surround to przyszłość produkcji dźwięku do filmów, gier czy VR.

Pytanie 38

Które z wymienionych okien służy do zarządzania regionami umiejscowionymi na ścieżkach sesji DAW?

A. Piano Roll.
B. Clips.
C. Mix.
D. Undo History.
Okno Clips to naprawdę bardzo istotny element każdego nowoczesnego DAW-a, bo właśnie tutaj wszystko się dzieje, jeśli chodzi o zarządzanie regionami czy fragmentami nagrań poukładanymi na ścieżkach. Gdy tworzysz muzykę albo miksujesz podcast, to najczęściej manipulujesz tzw. klipami, które mogą być MIDI, audio, czasem jeszcze automatyzacją. To właśnie w oknie Clips możesz przesuwać, kopiować, skracać, dzielić albo scalać te regiony – to podstawa pracy na timeline. Moim zdaniem, bez znajomości tego narzędzia ciężko cokolwiek sensownego stworzyć, bo to tu powstaje układ utworu, aranżacja i wstępny montaż. Producenci DAW-ów dbają, żeby obsługa Clips była intuicyjna i szybka, bo wiadomo – każdemu zależy na płynnej pracy. W praktyce, jak masz wokal nagrany w kilku podejściach, to właśnie w oknie Clips wybierzesz najlepsze fragmenty, zsynchronizujesz je i rozplanujesz w kontekście całego utworu. Takie zarządzanie regionami jest też zgodne z workflow obowiązującym praktycznie we wszystkich profesjonalnych studiach. Praktyka pokazuje, że nawet w pracy nad reklamą czy podcastem okno Clips daje największą kontrolę nad przebiegiem projektu. Z mojego doświadczenia wynika, że kto szybko opanuje pracę z regionami w tym oknie, ten później robi miks z zamkniętymi oczami. Warto też dodać, że coraz więcej DAW-ów pozwala na zaawansowane operacje na regionach właśnie w tym widoku, np. grupowanie, kolorowanie czy szybkie przypisywanie nazw, co mocno pomaga w porządkowaniu większych sesji.

Pytanie 39

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 2 GB
B. 1 GB
C. 8 GB
D. 4 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 40

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 127
B. 55
C. 99
D. 255
Maksymalna liczba znaczników (ang. tracków), które można zapisać na płycie CD Digital Audio (CDDA), wynosi dokładnie 99. Wynika to z ograniczeń formatu Red Book, który został określony przez firmy Sony i Philips w latach 80. Ten standard jasno narzuca, że na jednej płycie można zapisać do 99 ścieżek audio, nie więcej ani mniej. Często spotyka się płyty z mniejszą liczbą, ale 99 to jest absolutny limit narzucony przez fizyczny sposób zapisu TOC (Table of Contents — czyli tablica zawartości płyty). Moim zdaniem warto to wiedzieć, bo czasem przy digitalizacji płyt czy projektowaniu własnych kompilacji audio można się natknąć na sytuację, gdzie przekroczenie tej liczby prowadzi do błędów odczytu na odtwarzaczach. Najlepiej nie przekraczać tego pułapu, nawet jeśli program do nagrywania na to pozwala – wiele domowych lub starszych odtwarzaczy CD nie rozpozna prawidłowo większej liczby ścieżek. Z ciekawostek, każde wejście nowej ścieżki jest oznaczane w TOC i nie da się tego w prosty sposób obejść. To ograniczenie jest też powodem, dla którego np. audiobooki na płytach audio mają zwykle podział na mniej niż 99 rozdziałów, mimo że technicznie zmieściłoby się więcej. Szczerze mówiąc, 99 to i tak naprawdę sporo, bo większość płyt zawiera od kilku do kilkunastu utworów. W profesjonalnych tłoczniach przestrzega się tej zasady bardzo ściśle – przekroczenie limitu uniemożliwia certyfikację płyty jako zgodnej z CDDA.