Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 9 maja 2026 11:56
  • Data zakończenia: 9 maja 2026 12:00

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SDHC
B. SD
C. SDXC
D. SD A1
SDXC to aktualnie karta o największej pojemności spośród wymienionych standardów. W branży przyjęło się, że karty SDXC zaczynają się od 64 GB i mogą teoretycznie sięgać aż 2 TB, choć praktycznie na rynku spotyka się najczęściej do 1 TB. Moim zdaniem to szczególnie ważne, jeśli ktoś pracuje z filmami w wysokiej rozdzielczości czy dużą liczbą zdjęć RAW – tam każda dodatkowa gigabajty robią różnicę. Warto pamiętać, że SDXC to nie tylko pojemność, ale też często wyższa szybkość transferu danych, zgodna z najnowszymi urządzeniami (np. aparaty 4K, rejestratory dźwięku czy laptopy do edycji multimediów). Oczywiście, żeby w pełni wykorzystać możliwości tej karty, sprzęt musi być zgodny ze standardem SDXC – starsze urządzenia mogą jej po prostu nie rozpoznać, co czasem użytkownicy przeoczają. Z mojego doświadczenia wynika, że w nowoczesnym workflow, gdzie pliki ważą coraz więcej a czas transferu jest kluczowy, SDXC to standard branżowy. W przypadku profesjonalnych kamer, dronów czy nawet konsol do gier, inwestycja w SDXC naprawdę się opłaca. Dodatkowo karty te często posiadają lepsze zabezpieczenia przed błędami czy uszkodzeniem danych, co w codziennej pracy doceni każdy, komu zależy na bezpieczeństwie informacji.

Pytanie 2

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 12 dB/okt.
C. 18 dB/okt.
D. 6 dB/okt.
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.

Pytanie 3

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Predelay.
B. Type.
C. Diffusion.
D. Decay.
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 4

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. CROSSFADE
B. GLUE
C. PASTE
D. MERGE
Crossfade to jedna z tych funkcji, bez których trudno wyobrazić sobie profesjonalną pracę w DAW-ie, zwłaszcza kiedy obrabia się pliki audio i zależy nam na płynnym przejściu pomiędzy dwoma ścieżkami. Efekt crossfade polega na jednoczesnym wyciszaniu jednej ścieżki dźwiękowej i narastaniu drugiej – dzięki temu nie słychać żadnych klików, nieprzyjemnych przeskoków czy nagłych zmian głośności. Takie rozwiązanie jest standardem nie tylko w muzyce, ale też w postprodukcji filmowej czy radiowej, bo daje bardzo naturalne, „ludzkie” wrażenie płynności. Moim zdaniem, każda osoba, która poważnie myśli o miksowaniu lub edycji dźwięku, powinna ogarnąć temat crossfade’ów jak najszybciej, bo to skraca pracę i pozwala uniknąć żmudnego, ręcznego dopasowywania krzywych głośności. Branżowe DAWy, takie jak Ableton, Cubase, czy Pro Tools, mają opcje crossfade’ów dostępne praktycznie od ręki – często wystarczy po prostu zaznaczyć dwa sąsiadujące klipy audio i kliknąć odpowiednią funkcję. Dobrze wykonany crossfade pozwala nie tylko usunąć trzaski, ale też kreatywnie łączyć różne próbki, np. perkusyjne lub wokalne. Najlepsi realizatorzy dźwięku korzystają z tego codziennie i zwracają uwagę nawet na kształt krzywej crossfade’u (logarytmiczna, liniowa, eksponencjalna), żeby mieć pełną kontrolę nad charakterem przejścia. Warto też pamiętać, że crossfade nie ingeruje w oryginalny materiał, tylko nakłada efekt na styku klipów, co daje sporą swobodę edycyjną.

Pytanie 5

Rodzaj kodeka użytego przy konwersji pliku dźwiękowego można rozpoznać

A. po nazwie.
B. po czasie trwania.
C. po rozmiarze.
D. po rozszerzeniu nazwy.
Rozszerzenie nazwy pliku to w praktyce najprostszy i najczęściej spotykany sposób na szybkie rozpoznanie, jaki kodek został użyty do zakodowania danego pliku dźwiękowego. Przykładowo, rozszerzenie .mp3 niemal zawsze oznacza, że plik został zakodowany z użyciem kodeka MPEG-1 Layer III (popularnie znanego jako MP3), natomiast .flac wskazuje na bezstratny kodek FLAC, a .aac to zazwyczaj kodek Advanced Audio Coding. W codziennej pracy technika informatyk czy nawet zwykłego użytkownika, spojrzenie na rozszerzenie pliku pozwala szybko ocenić, jakie programy mogą go odtworzyć lub jakie urządzenia będą z nim kompatybilne. Warto pamiętać, że rozszerzenie nie zawsze jest stuprocentowo pewnym wskaźnikiem - plik można nazwać dowolnie, ale w praktyce większość systemów operacyjnych i programów trzyma się tej konwencji, bo to ułatwia życie. Moim zdaniem rozszerzenia są jednym z podstawowych narzędzi rozpoznawania formatu pliku, zwłaszcza w środowiskach Windows czy Linux, gdzie asocjacje plików są oparte właśnie na nich. W branży multimedialnej to rozszerzenie jest pierwszym miejscem, gdzie zaglądasz, chcąc szybko się dowiedzieć, z czym masz do czynienia. Oczywiście, dla pełnej pewności warto czasem skorzystać z narzędzi typu MediaInfo, które jeszcze dokładniej pokażą, jakim kodekiem plik został zakodowany, ale na co dzień rozszerzenie po prostu wystarcza. Standardy organizacji takich jak ISO/IEC lub ITU rekomendują utrzymywanie spójności rozszerzeń plików, co jeszcze bardziej podkreśla wagę tej metody w praktyce.

Pytanie 6

Który z wymienionych kodeków stosowany jest w plikach o rozszerzeniu .ogg?

A. VORBIS
B. FLAC
C. ALAC
D. LAME
Vorbis to kodek otwartoźródłowy, który najczęściej łączy się właśnie z plikami o rozszerzeniu .ogg. Samo rozszerzenie .ogg odnosi się do kontenera Ogg, który pozwala na przechowywanie różnych strumieni multimedialnych, ale w praktyce dominuje w nim właśnie dźwięk zakodowany przez Vorbis. Co ciekawe, format ten jest całkowicie wolny od patentów (przynajmniej tak twierdzi organizacja Xiph.Org, która go rozwijała), więc często wykorzystywano go w projektach open source, grach i aplikacjach, gdzie liczy się swoboda dystrybucji i brak ograniczeń prawnych. Ja sam kojarzę, że sporo gier indie oraz serwisów radiowych online korzystało z Ogg Vorbis, bo dawał bardzo dobrą jakość dźwięku przy niewielkich rozmiarach plików – czasem lepiej niż popularny MP3. W praktyce, jeśli widzisz plik .ogg, to niemal pewne, że masz do czynienia właśnie z dźwiękiem w Vorbisie. Chociaż kontener Ogg może obsługiwać też inne kodeki (np. FLAC czy Theora dla wideo), to jednak w zastosowaniach muzycznych Ogg Vorbis stał się swego rodzaju standardem, szczególnie w środowiskach linuksowych czy open source. Warto o tym pamiętać, zwłaszcza jeśli samemu kiedyś przyjdzie Ci kodować audio do formatu .ogg – domyślnym wyborem będzie Vorbis.

Pytanie 7

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 16 bitowej?

A. 192 dB
B. 144 dB
C. 48 dB
D. 96 dB
Maksymalna dynamika nagrania audio w jakości 16-bitowej to 96 dB i to nie jest wcale przypadkowa liczba. Wynika ona wprost z matematyki zapisu cyfrowego: każdy bit zwiększa zakres dynamiczny o około 6 dB, więc 16 bitów daje 16 × 6 = 96 dB. Moim zdaniem to wciąż całkiem sporo, zwłaszcza patrząc na warunki domowego odsłuchu czy nagrywania instrumentów w studiu. W praktyce taki zakres pozwala uchwycić zarówno bardzo ciche, jak i bardzo głośne fragmenty dźwięku bez wyraźnych zniekształceń czy szumów quantyzacji, które są bardziej widoczne przy niższych rozdzielczościach. Standard CD Audio wykorzystuje właśnie 16 bitów i przez lata był uznawany za wystarczający nawet dla wymagających słuchaczy. Oczywiście, przy profesjonalnych produkcjach stosuje się często 24 bity, co daje jeszcze większy zakres dynamiczny i niższy poziom szumów, ale do większości zastosowań 16 bitów jest po prostu wystarczające. Z mojego doświadczenia wynika, że większość problemów w miksie nie wynika z ograniczeń dynamiki, tylko raczej z błędów w gain stagingu czy nieumiejętnego użycia kompresji. Warto też pamiętać, że typowe warunki odsłuchowe – domowe pokoje czy samochód – i tak mają ograniczenia akustyczne dużo poniżej tych 96 dB. Ogólnie rzecz biorąc, znajomość tych cyfr pomaga lepiej zrozumieć, jak działa sprzęt audio i dlaczego standardy przyjęły się właśnie takie, a nie inne.

Pytanie 8

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. File
B. View
C. Tools
D. Edit
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 9

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .wav
B. .riff
C. .mp3
D. .aiff
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 10

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 48 000 Hz
B. 32 000 Hz
C. 96 000 Hz
D. 44 100 Hz
Zasada próbkowania, czyli twierdzenie Nyquista-Shannona, mówi jasno: aby móc poprawnie zdigitalizować sygnał analogowy, musimy próbkować go z częstotliwością co najmniej dwa razy większą niż najwyższa częstotliwość w jego widmie. Przy dźwięku o maksymalnej częstotliwości 20 kHz, to właśnie 40 kHz jest tym absolutnym minimum. Jednak w praktyce, technologia audio przyjęła nieco wyższą wartość, czyli 44 100 Hz, głównie ze względu na potrzeby zapisu na płytach CD oraz rezerwę na filtry antyaliasingowe. Gdybyśmy wybrali niższą częstotliwość, mogłyby się pojawić zniekształcenia aliasingu, które potrafią solidnie namieszać szczególnie w muzyce czy nagraniach mowy, gdzie precyzja jest kluczowa. Warto też zauważyć, że 44 100 Hz to dziś taki złoty standard – spotykany właściwie wszędzie, od odtwarzania muzyki po produkcję materiałów do internetu. Z mojego doświadczenia wynika, że niższe próbkowania bardzo szybko ujawniają swoje ograniczenia, nawet laik wyczuje pogorszenie jakości dźwięku. W branży stosuje się czasem wyższe wartości, ale to już raczej dla specjalistycznych zastosowań, np. w studiach nagraniowych. Moim zdaniem, bez znajomości tej podstawowej zasady ciężko ruszyć dalej w świecie cyfrowego audio, bo każdy etap obróbki opiera się właśnie na tej logice i konsekwencjach wyboru częstotliwości próbkowania.

Pytanie 11

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 15 MB
C. 35 MB
D. 45 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 12

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 192 dB
B. 144 dB
C. 96 dB
D. 48 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 13

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Gain
B. Send
C. Balance
D. Volume
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 14

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.ogg
B. *.flac
C. *.mp3
D. *.aiff
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.

Pytanie 15

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. gniazda USB.
B. złącza Thunderbolt.
C. portu Fire Wire.
D. czytnika kart flash.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 16

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. MASTER
B. AUDIO
C. MIDI
D. VIDEO
Ścieżka AUDIO to absolutna podstawa, jeśli chodzi o nagrywanie dźwięku w dowolnym programie DAW, takim jak Cubase, Ableton Live czy Pro Tools. To właśnie ten typ ścieżki jest zoptymalizowany do przyjmowania sygnału z mikrofonu, instrumentu lub innego urządzenia audio. W praktyce, kiedy chcesz nagrać wokal, gitarę albo nawet perkusję elektroniczną wychodzącą jako sygnał audio, musisz dodać ścieżkę audio i odpowiednio ją uzbroić (uzbrojenie do nagrywania to typowy krok – ikonka 'R' albo 'Record'). Umożliwia to przechwycenie analogowego lub cyfrowego sygnału i zapisanie go bezpośrednio do projektu – na waveforms, z możliwością dalszej edycji, efektów czy miksowania. Przemysł muzyczny od lat korzysta z tego standardu; praktycznie każda sesja studyjna opiera się właśnie na ścieżkach audio, nawet jeśli w aranżu dominuje elektronika. Zwróć uwagę, że ścieżki audio można później swobodnie edytować: ciąć, przesuwać, nakładać efekty, a także eksportować do różnych formatów. Moim zdaniem, umiejętność pracy z tym typem ścieżki to fundament dla każdego, kto chce poważnie myśleć o produkcji muzycznej – bez tego nie nagrasz ani wokalu, ani rzeczywistego instrumentu, niezależnie od wybranego DAW.

Pytanie 17

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Na końcowych słowach zdania.
B. Na początkowych słowach zdania.
C. W połowie zdania.
D. Od nowego zdania.
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 18

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Freeze.
C. Fade out.
D. Mute.
Fade out to fachowy termin używany w branży audio, który oznacza stopniowe, płynne wyciszanie dźwięku aż do całkowitej ciszy. W praktyce stosuje się go bardzo często – na przykład na końcu utworów muzycznych, w produkcji reklam, filmów, podcastów czy prezentacji multimedialnych. Dzięki fade out dźwięk nie urywa się nagle, tylko elegancko schodzi do zera, co brzmi naturalniej i po prostu przyjemniej dla ucha. Takie rozwiązanie to już branżowy standard, zwłaszcza w miksie i masteringu. W programach typu DAW (Digital Audio Workstation) ustawia się to bardzo intuicyjnie – wystarczy zazwyczaj przeciągnąć końcówkę ścieżki lub dodać automatyzację głośności. Dobrą praktyką jest stosowanie fade out tam, gdzie naturalne zakończenie utworu jest zbyt gwałtowne – można wtedy zapanować nad nastrojem i nie drażnić słuchacza nagłym brakiem dźwięku. Z mojego doświadczenia wynika, że umiejętność prawidłowego używania fade out przekłada się na lepszą jakość całego projektu dźwiękowego. Warto też pamiętać, że niektórzy producenci lubią używać bardzo długiego fade out, żeby zostawić delikatne echo czy szum na końcu. To już takie „smaczki” branżowe.

Pytanie 19

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W harmonogramie produkcji.
B. W znacznikach.
C. W skrypcie.
D. W komentarzu reżyserskim.
Informacje o docelowych nazwach eksportowanych plików dźwiękowych powinny znajdować się właśnie w skrypcie projektu multimedialnego. To trochę taki fundament całego procesu, bo skrypt pełni rolę głównego dokumentu sterującego, gdzie opisuje się nie tylko, co ma być nagrane i w jakiej kolejności, ale też precyzuje szczegóły techniczne – na przykład, jakie będą nazwy plików po eksporcie czy do jakich folderów mają trafić. Z mojego doświadczenia, dobrze przygotowany skrypt pozwala uniknąć masy nieporozumień między dźwiękowcem, montażystą a resztą zespołu. W środowiskach profesjonalnych bardzo często stosuje się wzorce takie jak EBU Tech 3281 czy zalecenia SMPTE, które wręcz wymagają precyzyjnego opisu plików w dokumentacji projektowej. Dzięki temu łatwiej potem zapanować nad plikami, szczególnie przy dużych produkcjach, gdzie liczba materiałów potrafi przyprawić o zawrót głowy. W praktyce – jeśli brakuje jasnych nazw w skrypcie, to potem zaczyna się szukanie, kombinowanie i niepotrzebny bałagan. Dlatego branżową normą jest ustalanie wszystkiego z góry właśnie w skrypcie, zanim powstanie pierwszy plik dźwiękowy. To naprawdę oszczędza czas i nerwy całego zespołu.

Pytanie 20

W celu osiągnięcia maksymalnej wydajności oprogramowania DAW podczas prac montażowych i miksu rozmiar bufora programowego powinien zostać ustawiony na wartość

A. 512 próbek.
B. 256 próbek.
C. 1 024 próbek.
D. 32 próbek.
Ustawienie rozmiaru bufora programowego na 1024 próbki to rozwiązanie, które zdecydowanie zwiększa wydajność systemu DAW podczas montażu i miksu. Przy tak wysokim buforze komputer ma więcej czasu na przetworzenie sygnału audio, dlatego minimalizuje się ryzyko zacięć, pykania czy innych artefaktów dźwiękowych. Z mojego doświadczenia wynika, że większość profesjonalnych realizatorów, kiedy już mają nagrany materiał i przechodzą do miksowania, pracuje właśnie na dużych buforach, często 1024, a nawet 2048 próbek. To jest zgodne z zaleceniami producentów oprogramowania DAW, takich jak Steinberg, Avid czy Ableton. W praktyce, gdy zależy nam na niskiej latencji (np. podczas nagrywania na żywo), schodzimy z buforem niżej, ale przy miksie liczy się przede wszystkim płynność działania, możliwość użycia wielu wtyczek, automatyzacji czy efektów. To pozwala na swobodną pracę bez zrywających się ścieżek lub błędów przetwarzania. Spotkałem się też z opiniami, że niektóre starsze komputery wręcz wymagają większego bufora, żeby w ogóle dało się pracować z bardziej rozbudowanymi projektami. Trochę może przesadzam, ale lepiej mieć ten zapas niż potem borykać się z nieprzewidzianymi problemami. Generalnie, dla miksu i edycji lepiej mieć większy bufor, niż walczyć z brakami wydajności.

Pytanie 21

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 16 bitów
B. 24 bity
C. 8 bitów
D. 12 bitów
Odpowiedź 24 bity to zdecydowanie najlepszy wybór, jeśli chodzi o nagrania o bardzo dużej dynamice, takiej jak 100 dB. Słuchaj, z praktycznego punktu widzenia, każdy dodatkowy bit w rozdzielczości próbkowania daje nam około 6 dB więcej zakresu dynamicznego. Czyli jak sobie policzysz: 16 bitów daje mniej więcej 96 dB, a 24 bity to już aż 144 dB! To oznacza, że nagrania wykonane w 24 bitach pozwalają uchwycić dużo subtelniejsze różnice w głośności – nawet te najcichsze szczegóły nie giną w szumie kwantyzacji. W studiach nagraniowych i przy pracy z dźwiękiem na poważnie, absolutnym standardem są właśnie 24 bity; ciężko sobie wyobrazić profesjonalną produkcję bez tej rozdzielczości, bo pozwala ona na dużo większą swobodę przy miksowaniu, masteringu i późniejszej obróbce. Samo nagranie w wyższej rozdzielczości daje też większą elastyczność, jeśli chodzi o korekcję dynamiki, bez ryzyka wprowadzenia zniekształceń czy utraty szczegółów. Moim zdaniem, nawet jeśli finalnie plik audio trafi do odbiorcy w 16 bitach (np. na płycie CD), to etap produkcji zawsze opłaca się robić w 24 bitach. Przemysł muzyczny właściwie nie uznaje już niższych rozdzielczości, jeśli chodzi o poważniejsze projekty – i to ma sens, bo technologia pozwala na więcej, więc szkoda nie korzystać. Warto też wiedzieć, że taka dynamika jest potrzebna nie tylko w muzyce klasycznej; nawet w produkcjach elektronicznych czy filmowych daje ogromny komfort pracy.

Pytanie 22

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Mute.
B. Solo.
C. Freeze.
D. Fade out.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 23

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Zmiany barwy wokalu.
B. Zmiany barwy poszczególnych instrumentów.
C. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
D. Zwiększenia subiektywnej głośności nagrania.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 24

Procesorem dźwięku, który przy przetwarzaniu sygnału audio wykorzystuje parametr knee jest

A. reverb.
B. delay.
C. kompresor.
D. equalizer.
Kompresor to procesor dźwięku, który rzeczywiście wykorzystuje parametr „knee” podczas przetwarzania sygnału audio. Parametr ten określa, jak łagodnie lub gwałtownie kompresja wchodzi w działanie, kiedy poziom sygnału przekracza próg (threshold). W praktyce miękkie „knee” oznacza płynniejsze, mniej słyszalne przejście, co jest szczególnie przydatne przy pracy z wokalami albo instrumentami akustycznymi, gdzie naturalność i brak artefaktów są bardzo cenne. Moim zdaniem to właśnie dzięki „knee” kompresory analogowe tak lubiane są przez realizatorów – całość brzmienia nie jest „obcinana” nagle, tylko subtelnie kontrolowana. Współczesne pluginy DAW też dają szeroką regulację tego parametru, co pozwala na jeszcze większą kreatywność. W branży audio uznaje się, że prawidłowe używanie „knee” świadczy o zaawansowanej znajomości narzędzi i świadomej pracy z dynamiką. Kompresor z dobrze ustawionym „knee” to podstawa w miksie radiowym, telewizyjnym czy muzycznym – nie wyobrażam sobie profesjonalnego projektu bez tej funkcji. Warto eksperymentować z różnymi ustawieniami, żeby zrozumieć, jak „miękkość” lub „twardość” kompresji wpływa na odbiór nagrania. To taki drobiazg, który potrafi zrobić ogromną różnicę w końcowym efekcie.

Pytanie 25

Proporcja głośności między lewym i prawym kanałem w stereofonicznym torze konsolety mikserskiej regulowana jest za pomocą potencjometru

A. Gain.
B. Send.
C. Balance.
D. Volume.
Odpowiedź 'Balance' jest faktycznie tą właściwą, bo to właśnie ten potencjometr, zarówno na konsoletach analogowych jak i cyfrowych, odpowiada za proporcję głośności między lewym i prawym kanałem w sygnale stereofonicznym. To narzędzie podstawowe – szczególnie kiedy miksujemy sygnały, które powinny być prawidłowo rozmieszczone w panoramie stereo, jak np. gitary, instrumenty klawiszowe czy nawet wokale w niektórych aranżacjach. Potencjometr balance pozwala swobodnie przesuwać dźwięk w stronę lewego lub prawego głośnika, co daje ogromne możliwości w kreowaniu przestrzeni w miksie. Z mojego doświadczenia – nawet niewielka korekta balance potrafi zdecydowanie poprawić separację instrumentów i ogólne wrażenie przestrzenności. W środowisku audio profesjonalnym bardzo często stosuje się tzw. panoramowanie (panning), które pozwala umieścić każdy element miksu tam, gdzie brzmi najczytelniej. Potencjometr balance działa podobnie, tylko dla sygnału stereo jako całości. Takie podejście jest zgodne z praktykami studyjnymi, gdzie właściwe ustawienie balansu pozwala uzyskać równowagę w miksie i uniknąć nieprzyjemnych przesunięć fazowych czy wrażenia „ucięcia” dźwięku w jednym kanale. Krótko mówiąc – balance to podstawa, jeśli chodzi o kontrolę proporcji kanałów w stereo.

Pytanie 26

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 192 kHz
B. 96 kHz
C. 44,1 kHz
D. 88,2 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 27

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .wav, 192 kHz, 8 bitów.
B. .aiff, 96 kHz, 16 bitów.
C. .wav, 96 kHz, 8 bitów.
D. .aiff, 48 kHz, 16 bitów.
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 28

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. De-crackle
B. De-click
C. Downsampling
D. Noise Reduction
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 29

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów dostępnych do opisu każdej próbki sygnału.
B. próbek opisanych jednym bitem.
C. próbek na sekundę w transmisji danych.
D. bitów na sekundę w transmisji danych.
Rozdzielczość bitowa sygnału cyfrowego to po prostu liczba bitów, które są używane do zakodowania jednej próbki sygnału. To właśnie od tej wartości zależy, jak dokładnie (czyli z jaką precyzją) możemy opisać wartość sygnału w każdej chwili jego próbkowania. Przykładowo – 8 bitów daje 256 możliwych poziomów sygnału, a 16 bitów już aż 65536 poziomów. Im wyższa rozdzielczość bitowa, tym mniej zauważalna jest tzw. kwantyzacja, czyli 'schodkowanie' sygnału po konwersji z analogowego na cyfrowy. W praktyce – to dlatego muzyka w jakości CD brzmi tak dobrze, bo tam każda próbka ma 16 bitów. Branżowe standardy, takie jak PCM (Pulse Code Modulation), wprost definiują rozdzielczość bitową jako ilość bitów na próbkę. Z mojego doświadczenia wynika, że w zastosowaniach profesjonalnych – np. rejestracja dźwięku w studio – często używa się nawet 24 bitów na próbkę. To pozwala uchwycić bardzo subtelne detale i dynamikę. Generalnie, jeśli chcesz mieć dobrej jakości sygnał cyfrowy, to warto zadbać o odpowiednią rozdzielczość bitową, bo nie da się jej potem „dodać” w postprodukcji – to trochę jak ostrość zdjęcia, jak złapiesz za mało szczegółów na początku, to już nic nie zrobisz. Przy projektowaniu systemów cyfrowych (np. przetworników ADC/DAC) właściwy dobór rozdzielczości to podstawa dobrych praktyk w inżynierii dźwięku i elektronice.

Pytanie 30

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Ustalenia poziomów głośności śladów.
B. Wzmocnienia cichych fragmentów nagrania.
C. Ustalenia panoramy śladów.
D. Korekty barwy poszczególnych śladów.
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 31

Jaka jest maksymalna pojemność karty RS-MMC?

A. 64 GB
B. 16 GB
C. 2 GB
D. 128 GB
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 32

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Ducker.
B. Expander.
C. Declicker.
D. Delay.
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.

Pytanie 33

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD + R SL
B. CD – R DL
C. CD + R SL
D. DVD – R DL
DVD – R DL to faktycznie nośnik o największej pojemności spośród podanych opcji. W branży mówi się, że płyty DVD w wersji dwuwarstwowej (DL, czyli Dual Layer) oferują aż do 8,5 GB miejsca na dane. To już naprawdę sporo, zwłaszcza jeśli porównać do klasycznego CD, który ma tylko 700 MB, albo nawet DVD jednowarstwowego (SL), gdzie mieści się około 4,7 GB. Z mojego doświadczenia, w archiwizacji materiałów wideo czy backupie średnich baz danych, wybiera się właśnie DVD – R DL, bo pozwala zmieścić np. dłuższy film w lepszej jakości lub całą kolekcję zdjęć bez dzielenia na kilka nośników. Warto pamiętać, że różnica między CD a DVD nie dotyczy tylko pojemności – DVD wykorzystuje krótszą falę lasera (650 nm zamiast 780 nm jak w CD), co umożliwia gęstsze upakowanie danych. Dual Layer to jeszcze sprytniejszy patent: druga warstwa leży pod pierwszą, a laser jest odpowiednio ustawiany, by je czytać. W branży IT stosowanie DVD – R DL to wciąż dobra, tania opcja do dystrybucji danych, tam gdzie nie można użyć pendrive’a czy dysków sieciowych. Spotyka się je także przy tworzeniu kopii oprogramowania czy gier. Moim zdaniem warto znać te różnice, bo w praktyce nieraz trzeba dobrać nośnik pod konkretne zadanie, a różnice w pojemności są naprawdę kluczowe.

Pytanie 34

Do płynnego wyciszenia materiału dźwiękowego należy użyć funkcji

A. fade out.
B. pan.
C. crossfade.
D. mute.
Wiele osób podczas edycji dźwięku myli różne funkcje, zwłaszcza gdy dopiero zaczynają przygodę z obróbką audio. Pan służy do ustawiania panoramy, czyli przesuwania dźwięku w lewo lub w prawo w przestrzeni stereo – nie ma to żadnego związku z płynnym wyciszaniem materiału. Ustawienie panoramy może sprawić, że dźwięk wydaje się dochodzić z określonego miejsca, ale jego głośność nie zmienia się płynnie do zera. Z kolei mute to klasyczna funkcja wyciszenia, lecz jest ona natychmiastowa – dźwięk po prostu nagle przestaje być słyszalny. Brakuje tu jakiegokolwiek „zanikania”, co w profesjonalnej postprodukcji brzmi bardzo nienaturalnie i wręcz amatorsko, szczególnie gdy zależy nam na delikatnym wyprowadzeniu słuchacza z nagrania. Crossfade natomiast jest mylący, bo rzeczywiście polega na płynnym przejściu – jednak nie do ciszy, tylko między dwoma fragmentami audio, na przykład nałożenie końcówki jednego utworu na początek drugiego. To świetne narzędzie przy montażu audycji czy miksowaniu utworów, ale nie zastępuje zwykłego zanikania do ciszy. Moim zdaniem najczęstszy błąd, jaki tu się pojawia, to zbyt dosłowne rozumienie nazw funkcji lub kierowanie się wyłącznie intuicją. Warto pamiętać, że fade out jest po prostu branżowym standardem jeśli chodzi o „miękkie” wyciszenie końcówek. W profesjonalnych DAW-ach ta funkcja jest łatwo dostępna i powinna być stosowana zawsze, gdy chcemy, by materiał audio zanikał naturalnie, bez szarpania czy nagłych zmian.

Pytanie 35

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. AUDIO
B. VIDEO
C. MASTER
D. MIDI
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 36

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -3 dBFS
B. -6 dBFS
C. -0,3 dBFS
D. -12 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 37

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji barwy i dynamiki.
B. Bez korekcji barwy i dynamiki.
C. Po korekcji dynamiki.
D. Po korekcji barwy.
To jest właśnie to, o co chodzi w profesjonalnej pracy z dźwiękiem. Zapis sygnału na wielośladzie bez żadnej korekcji barwy ani dynamiki to podstawa, bo daje największą elastyczność podczas późniejszej obróbki. Moim zdaniem, to jak zostawiasz sobie otwartą furtkę na etapie miksu: masz czysty, nieprzetworzony surowiec i możesz z nim zrobić wszystko, co tylko przyjdzie Ci do głowy. Branżowa praktyka pokazuje, że wszelkie korekcje – czy to EQ, czy kompresja – wprowadzone zbyt wcześnie często są nieodwracalne. Jak coś przetniesz albo skompresujesz już w trakcie nagrań, potem nie da się tego „cofnąć”, a to utrudnia pracę przy miksowaniu. Standardy studyjne są tutaj jednoznaczne – inżynierowie dźwięku trzymają się zasady, żeby nagrywać sygnał jak najczystszy, bez dodatkowych ingerencji. Oczywiście, są wyjątki, na przykład kiedy chcesz zachować konkretny charakter brzmienia z używanego urządzenia czy efektu – wtedy czasem warto coś dodać przy nagraniu. Ale w większości sytuacji to właśnie nieprzetworzony sygnał daje najwięcej możliwości. Tak robią zawodowcy w studiach nagraniowych, gdzie każdy etap obróbki jest przemyślany i możliwy do dopasowania do końcowej wizji brzmieniowej.

Pytanie 38

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .omf
B. .aiff
C. .mp3
D. .wav
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 39

Przygotowując notatki do montażu dźwięku, przenikanie pomiędzy regionami określa się mianem

A. Fade In/Out.
B. Fade Out.
C. Fade In.
D. Crossfade.
Crossfade to taki branżowy termin, który w montażu dźwięku oznacza płynne przejście między dwoma regionami lub ścieżkami audio. Zamiast gwałtownego przeskoku lub przerwy, dźwięki nakładają się na siebie przez pewien czas, co pozwala uniknąć kliknięć, trzasków czy innych nieprzyjemnych artefaktów. To właśnie crossfade najlepiej oddaje ideę "przenikania" – bo tutaj jeden dźwięk stopniowo się wycisza, a drugi jednocześnie narasta. Używa się tego nie tylko w montażu radiowym czy telewizyjnym, ale praktycznie we wszystkich sytuacjach, gdzie montujemy ścieżki audio – od prostych podcastów po profesjonalną produkcję muzyczną. W programach takich jak Pro Tools, Cubase czy Reaper, crossfade jest wręcz standardem przy łączeniu regionów tak, by efekt był jak najbardziej naturalny. Moim zdaniem, każdy kto chce uzyskać profesjonalny efekt, powinien opanować sprawne korzystanie z tej funkcji. Nawet jeśli na początku wydaje się to trochę zagmatwane, to potem naprawdę docenia się możliwości, jakie daje subtelne miksowanie przejść – zwłaszcza przy pracy z dialogami, muzyką czy efektami dźwiękowymi. Warto pamiętać, że źle wykonane przejście potrafi kompletnie zniszczyć odbiór całej sceny, dlatego dobry crossfade to podstawa każdej poważnej postprodukcji.

Pytanie 40

Która z wymienionych kaset umożliwia zapis sygnału fonicznego w postaci cyfrowej?

A. 8-track
B. DAT
C. Microcassette
D. CC
DAT, czyli Digital Audio Tape, to naprawdę kawał ciekawej technologii. Ona jako jedna z pierwszych kaset pozwalała na zapis sygnału fonicznego w pełni cyfrowej postaci, a nie – jak w klasycznych kasetach – w formie analogowej. Moim zdaniem to był spory przeskok jakościowy, bo DAT dawał możliwość uzyskania bardzo czystego dźwięku, praktycznie bez szumów czy zniekształceń typowych dla taśm magnetycznych. Stosowano to rozwiązanie w profesjonalnych studiach nagraniowych, radiofonii, a nawet w archiwizacji ważnych nagrań, bo była to technologia niezawodna. Z moich obserwacji wynika, że DAT wprowadził nowe standardy bezpieczeństwa danych audio – chociaż na domowy rynek nigdy się nie przebił tak mocno jak CD czy MiniDisc. Praktycznie rzecz biorąc, tam gdzie liczyła się precyzja i jakość cyfrowego zapisu, DAT był wybierany przez inżynierów dźwięku czy realizatorów. Nawet dziś, chociaż już dosyć rzadko się go spotyka, kasety DAT są jeszcze wykorzystywane do digitalizacji starych nagrań. Warto wiedzieć, że format DAT korzysta z technologii podobnej do tej w magnetowidach – głowice obracają się i zapisują dane w postaci cyfrowej na wąskiej taśmie. Także, jeśli chodzi o cyfrowy zapis audio na kasetach, DAT to taki klasyk i pionier.