Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 8 kwietnia 2026 15:19
  • Data zakończenia: 8 kwietnia 2026 15:33

Egzamin zdany!

Wynik: 21/40 punktów (52,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. edycji nagrania.
B. wciągania plików dźwiękowych do sesji montażowej.
C. masteringu nagrania.
D. zapisywania pliku wynikowego.
Wielu początkujących realizatorów dźwięku i montażystów może uznać, że decyzje o formacie pliku czy jego parametrach zapadają na wcześniejszych etapach pracy, jednak takie myślenie prowadzi do pewnych nieścisłości. Montaż dźwiękowy, czyli edycja nagrania, skupia się głównie na cięciu, wyrównywaniu, czyszczeniu czy może nakładaniu efektów – nie masz tu jeszcze żadnego wpływu na ostateczną postać pliku. To bardziej praca na klipach w ramach oprogramowania typu DAW, które obsługuje rozmaite źródła bez zmiany ich jakości. W trakcie masteringu faktycznie ustala się wiele rzeczy: kompresję, korekcję, głośność, ale wciąż nie wybierasz tutaj formatu eksportu czy parametrów pliku. Masteringowcy pracują najczęściej na plikach o wysokiej rozdzielczości, by ograniczyć degradację jakości – nie jest ich zadaniem decydowanie, czy końcowy plik ma być np. MP3 czy WAV. Wciąganie plików dźwiękowych do sesji montażowej to stricte techniczna czynność – importujesz nagrania do projektu, ale nie zmieniasz w tej chwili ani ich częstotliwości próbkowania, ani głębi bitowej, ani formatu docelowego. U wielu osób pokutuje przekonanie, że software sam zadba o parametry końcowe, podczas gdy to właśnie podczas eksportu (zapisywania pliku wynikowego) podejmujesz wszystkie najważniejsze decyzje. Typowym błędem jest też myślenie, że format pliku czy jego rozdzielczość zależy od ustawień projektu – w rzeczywistości możesz mieć projekt 48 kHz, a wyeksportować plik jako 44,1 kHz lub odwrotnie, to tylko kwestia konfiguracji eksportu. Podsumowując – ostateczne parametry techniczne zawsze ustalasz świadomie na końcu, niezależnie od wcześniejszych etapów produkcji.

Pytanie 2

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 96 kHz
C. 192 kHz
D. 44,1 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 3

Który z wymienionych parametrów kompresora dynamiki odpowiada za czas odpuszczenia kompresji po spadku poziomu sygnału poniżej progu zadziałania kompresora?

A. Threshold.
B. Ratio.
C. Release.
D. Attack.
Parametr „release” w kompresorze dynamiki określa, jak szybko urządzenie przestaje tłumić sygnał po tym, jak jego poziom spadnie poniżej ustalonego progu (threshold). To właśnie release kontroluje długość powrotu sygnału do normalnej głośności po zakończeniu działania kompresji. Moim zdaniem, to taki trochę niedoceniany parametr, ale bardzo ważny w praktycznej realizacji dźwięku – źle ustawiony release może prowadzić do dziwnych efektów, np. pompującego dźwięku albo nienaturalnego, „oddychającego” miksu. W dobrych praktykach studyjnych zawsze testuje się release na żywym materiale – instrumenty perkusyjne czy wokale często wymagają różnych wartości, żeby wszystko brzmiało naturalnie i bez artefaktów. W branży dźwiękowej mówi się nawet, że release jest kluczem do transparentności kompresji. Dla przykładu, przy miksowaniu nagrania z dynamicznym wokalem, długi release może powodować, że całe frazy będą cichsze niż powinny, a krótki release – że pojawią się niepożądane efekty pulsowania. Dlatego dobrze mieć świadomość, na czym polega działanie tego parametru i jak wpływa na całość brzmienia. Ustawianie release wymaga trochę wyczucia, ale też znajomości materiału – nie zawsze warto kierować się „na oko”, tylko raczej słuchać i eksperymentować. Praktycy często polecają najpierw ustawić krótki release i stopniowo go wydłużać, aż kompresja stanie się mniej zauważalna – to taka branżowa sztuczka, która się sprawdza.

Pytanie 4

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby TrueHD
B. Dolby Digital
C. Dolby Stereo
D. Dolby Digital Live
W przypadku dźwięku wielokanałowego na nośnikach Blu-ray Disc bardzo łatwo pomylić dostępne formaty, bo nazwy takie jak Dolby Digital, Dolby Stereo czy nawet Dolby Digital Live są szeroko znane i często używane, ale nie zawsze oferują te same możliwości techniczne. Wiele osób sądzi, że Dolby Digital nadaje się do zapisu 8 kanałów, jednak w rzeczywistości jest to format stratny – kompresuje dźwięk, przez co część informacji dźwiękowej jest bezpowrotnie tracona. Co więcej, nawet w wersji tzw. „Enhanced”, Dolby Digital zazwyczaj obsługuje do 5.1 kanałów, a 7.1 jest obecne tylko w bardzo specyficznych, mniej popularnych wariantach i nadal nie jest bezstratne. Dolby Stereo to jeszcze starszy standard, zaprojektowany z myślą o kinach analogowych, gdzie dźwięk był kodowany na dwóch kanałach i matrycowo rozdzielany na cztery. Z praktycznego punktu widzenia ten format nie ma nic wspólnego z nowoczesnym zapisem wielokanałowym na Blu-ray. Odpowiedź Dolby Digital Live też jest myląca – to technologia służąca do przesyłania dźwięku w czasie rzeczywistym, np. z komputera do amplitunera przez S/PDIF, i bazuje na tym samym stratnym kodeku co zwykły Dolby Digital, a nie na zapisie studyjnym czy archiwalnym na płytach Blu-ray. To bardzo częsty błąd myślowy – mylenie formatów przeznaczonych do transmisji (Live) z tymi do archiwizacji (TrueHD). Moim zdaniem, kluczową kwestią przy poszukiwaniu formatu umożliwiającego bezstratny zapis dźwięku 7.1 na Blu-ray jest właśnie rozpoznanie, czy dany kodek oferuje bezstratność i pełną obsługę wszystkich kanałów zgodnie z branżową specyfikacją. Tylko Dolby TrueHD spełnia te wymagania w praktyce, a pozostałe propozycje są ograniczone albo pod względem jakości, albo liczby obsługiwanych kanałów. Zwracanie uwagi na te niuanse to dobra praktyka branżowa, bo pozwala uniknąć rozczarowań podczas projektowania systemów kina domowego lub wyboru sprzętu audio.

Pytanie 5

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. pendrive.
B. pamięć Memory Stick.
C. płytę CD-R.
D. dysk twardy.
Dokładnie, płyta CD-R to klasyczny nośnik wykorzystywany przy optycznej metodzie zapisu danych, w tym materiałów muzycznych. W praktyce polega to na tym, że dane są zapisywane za pomocą lasera na powierzchni płyty, która działa jak swoista "matryca" odbijająca światło w różny sposób, w zależności od tego, czy dany fragment został zapisany czy nie. To rozwiązanie przez długie lata było standardem – nie tylko w branży muzycznej, ale też w archiwizacji danych czy dystrybucji oprogramowania. Co ciekawe, profesjonalne tłoczenie płyt wykorzystuje podobną zasadę, chociaż jest to już bardziej skomplikowany proces przemysłowy. W warunkach domowych lub studyjnych nagranie na CD-R pozwala zachować wysoką jakość dźwięku (format Audio CD, 44,1 kHz/16 bitów), a dodatkowo nośnik ten jest od razu gotowy do odczytu przez zdecydowaną większość sprzętu audio. W branży produkcji muzycznej płyty CD-R często służą do tworzenia tzw. "masterów" lub wersji demonstracyjnych gotowych do dalszej produkcji czy promowania utworów. Sam nie raz przygotowywałem taką płytę na potrzeby przesłuchań czy weryfikacji miksu. Moim zdaniem nadal warto znać tę technologię, bo mimo popularności cyfrowych plików, w niektórych przypadkach CD-R jest wciąż niezastąpiony, zwłaszcza gdy zależy nam na trwałości zapisu i kompatybilności.

Pytanie 6

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Korektor tercjowy.
B. Ekspander.
C. Bramka szumów.
D. Kompresor.
Kompresor to sprzęt, który faktycznie zawęża zakres dynamiki dźwięku, czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. Na co dzień spotykamy go na przykład w studio nagrań, na scenie czy nawet podczas obróbki podcastów. Kompresor automatycznie obniża poziom tych fragmentów, które przekraczają określony próg (tzw. threshold), przez co cały materiał brzmi bardziej spójnie i mniej chaotycznie w odbiorze, a słabsze sygnały są łatwiejsze do usłyszenia. To narzędzie jest absolutną podstawą w miksie – trudno wyobrazić sobie współczesną produkcję muzyczną czy realizację dźwięku bez kompresji. Dobrze ustawiony kompresor sprawia, że wokal nie ginie w miksie, perkusja jest soczysta, a całość nie męczy słuchacza nagłymi skokami głośności. Inżynierowie dźwięku często stosują różne typy kompresorów – od sprzętowych, lampowych, po wtyczki cyfrowe – zależnie od stylu i potrzeb. Moim zdaniem bez praktycznej znajomości tego urządzenia trudno mówić o profesjonalnym podejściu do dźwięku. Co ciekawe, kompresory bywają też stosowane kreatywnie, by nadać barwie charakterystyczne brzmienie, dodać tzw. "pompowania" do bębnów czy uczynić miks bardziej radiowym. Warto eksperymentować i na własnym uchu przekonać się, jak bardzo zmienia się odbiór materiału po zastosowaniu kompresji – to serio otwiera oczy na temat kontroli dynamiki!

Pytanie 7

Jaki jest poziom normalizacji głośności dla materiałów przeznaczonych do transmisji telewizyjnej zgodnie z rekomendacją EBU R128?

A. -19 LUFS
B. -3 LUFS
C. -23 LUFS
D. -12 LUFS
Poziom -23 LUFS to rzeczywiście podstawowy standard normalizacji głośności dla materiałów telewizyjnych w Europie, oparty na rekomendacji EBU R128. W praktyce oznacza to, że cała ścieżka dźwiękowa (czy to dialogi, muzyka, efekty) sumarycznie powinna mieć właśnie średni poziom głośności równy -23 LUFS. Dzięki temu widzowie nie muszą ciągle sięgać po pilota i regulować głośności przy każdej zmianie kanału czy reklamy. Moim zdaniem to niesamowite ułatwienie w pracy realizatora dźwięku, bo wiadomo dokładnie, do czego dążyć, a i odbiorca dostaje materiał spójny pod względem poziomów. EBU R128 to już właściwie europejski standard – chyba wszyscy liczący się nadawcy trzymają się tych wytycznych. Z mojego doświadczenia wynika, że stosowanie tej rekomendacji mocno pomaga też w przygotowywaniu materiałów do późniejszej dystrybucji np. VOD albo YouTube, gdzie coraz częściej też pojawiają się limity LUFS. Dobrą praktyką przy masteringu materiału jest korzystanie ze specjalnych mierników LUFS, które pokazują nie tylko chwilową, ale i uśrednioną wartość głośności. Trochę zabawy przy kalibracji sprzętu i można pracować naprawdę precyzyjnie. Warto pamiętać, że zbyt wysoki lub zbyt niski LUFS to nie tylko kwestia komfortu słuchacza, ale też ryzyko odrzucenia pliku przez stację telewizyjną. Chyba nie ma nic gorszego niż poprawianie gotowego materiału na ostatnią chwilę tylko przez brak zachowania standardu.

Pytanie 8

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Time Stretching
B. Resample
C. Invert Phase
D. Pitch Shifting
Często w DAW można się pogubić, bo funkcje typu Time Stretching czy Pitch Shifting są na pierwszy rzut oka trochę podobne do resamplingu, ale one robią zupełnie inne rzeczy. Time Stretching to metoda, która służy do zmiany długości dźwięku – wydłużania lub skracania klipów audio bez zmiany wysokości dźwięku. Korzysta się z niej, gdy chcemy dopasować tempo nagrania do tempa naszego projektu, ale nie chcemy, żeby wokal się zrobił wyższy albo niższy. Pitch Shifting natomiast zmienia wysokość dźwięku, ale bez wpływu na jego czas trwania – to przydatne np. do transpozycji fragmentu wokalu czy instrumentu o określoną ilość półtonów, choć oryginalna długość zostaje taka sama. Invert Phase to już zupełnie coś innego – chodzi o odwrócenie biegunowości sygnału, najczęściej używane przy miksowaniu kilku mikrofonów, żeby zniwelować problem znikających częstotliwości. Wielu początkujących myli te pojęcia, bo każda z tych operacji wpływa na sygnał audio, ale mechanizmy działania są całkiem różne. Najważniejsze do zapamiętania – Time Stretching i Pitch Shifting operują bardziej na kreatywnych modyfikacjach materiału, natomiast resampling to czysta, matematyczna zmiana ilości próbek na sekundę, czyli właśnie częstotliwość próbkowania. Przeoczenie tej różnicy potrafi wprowadzić sporo zamieszania w projekcie, zwłaszcza gdy miksujemy pliki z różnych źródeł. Moim zdaniem warto zawsze dwa razy sprawdzić, czego naprawdę potrzebujemy, bo domyślnie DAWy czasem ukrywają Resample w ustawieniach eksportu albo w zaawansowanych opcjach edycji. Jeśli chodzi o dobre praktyki, przy zmianie częstotliwości próbkowania zawsze trzeba stosować Resample, bo tylko wtedy mamy gwarancję, że zmiana będzie bezpieczna dla jakości nagrania.

Pytanie 9

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Ponad dwudziestokrotny.
B. Około dziesięciokrotny.
C. Mniej niż dwukrotny.
D. Około pięciokrotny.
Formaty kompresji stratnej, takie jak MP3, AAC czy OGG Vorbis, zostały stworzone właśnie po to, żeby znacząco redukować rozmiary plików audio, a przy tym utrzymać akceptowalną jakość dźwięku. Gdy mamy do czynienia z plikiem WAV (który zazwyczaj jest nieskompresowany i zajmuje sporo miejsca – na przykład typowe 3-minutowe nagranie stereo 44,1 kHz/16 bit to ponad 30 MB), użycie dobrego kodeka stratnego pozwala zejść z rozmiarem do ok. 3 MB. Z mojego doświadczenia – zarówno przy projektach muzycznych, jak i podczas przygotowywania podcastów – stosuje się najczęściej bitrate na poziomie 128-192 kbps, co daje właśnie około dziesięciokrotną redukcję w stosunku do oryginału. Oczywiście, im wyższy bitrate, tym większy plik i lepsza jakość, ale właśnie 10x jest taką sensowną średnią, przy której większość ludzi nie słyszy większej różnicy w typowym sprzęcie. Standardy branżowe, na przykład w streamingach czy archiwizacji nagrań do internetu, bardzo często opierają się na tej proporcji. Praktycznym przykładem jest przesyłanie utworów do serwisów streamingowych – pliki muszą być jak najmniejsze przy zachowaniu jakości, bo to po prostu opłacalne i wygodne. Moim zdaniem, jeśli ktoś zawodowo obrabia dźwięk, to doskonale zna tę zasadę i zawsze balansuje między jakością a optymalnym rozmiarem pliku.

Pytanie 10

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. COPY
B. CUT
C. MUTE
D. PASTE
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 11

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce dźwiękowej, aby całkowicie wypełnić przestrzeń do początku taktu piątego?

A. 2 razy.
B. 3 razy.
C. 1 raz.
D. 4 razy.
To pytanie faktycznie potrafi zmylić, zwłaszcza jeśli nie ma się jeszcze wprawy w rozumieniu podziałów muzycznych na ścieżce dźwiękowej. Najczęstszy błąd polega na myleniu liczby powieleń z liczbą taktów do pokrycia, przez co ktoś może pomyśleć, że skoro chcemy dojść do początku piątego taktu, to powielamy region aż cztery razy. Ale tu trzeba pamiętać, że pierwszy region już istnieje – powielamy go tylko tyle razy, ile potrzeba, żeby kolejne regiony zaczęły się w drugim, trzecim i czwartym takcie, natomiast na piątym takcie kończymy powielanie. Inni mogą uznać, że wystarczy jedno lub dwa powielenia, ale wtedy zwyczajnie nie pokryje się całej wymaganej przestrzeni – zostaje spora luka, co w praktyce oznacza niepełny loop lub dziurę w aranżu. Często spotykam się z tym, że osoby uczące się DAW mylą pojęcie pozycji regionu z jego ilością – zamiast liczyć od zera, liczą od powielenia i wychodzi im o jeden za dużo. To taki typowy błąd z liczeniem „od końca” zamiast „od początku”. Dobre praktyki branżowe jasno pokazują, żeby patrzeć na długość regionu i faktycznie liczbę kolejnych powieleń, a nie ilość taktów do osiągnięcia. Właśnie takie niuanse potrafią później wyjść przy edycji lub eksporcie ścieżek, gdy coś się przesunie o jeden takt i cały aranż się rozjeżdża. Zdecydowanie warto to sobie przeanalizować, może nawet rozrysować na kartce czy w programie, żeby nie powielać tych typowych pomyłek i mieć pewność, ile faktycznie razy należy region skopiować, by równo pokryć określoną przestrzeń czasową utworu.

Pytanie 12

Jaka jest maksymalna liczba znaczników, które można zapisać na płycie CD Digital Audio (CDDA)?

A. 55
B. 127
C. 99
D. 255
W pytaniu o maksymalną liczbę znaczników na płycie CD Digital Audio łatwo się pomylić, bo temat wydaje się prostszy, niż jest w rzeczywistości. Niektórzy zakładają, że skoro pojemność płyty jest określana w minutach (np. 74 lub 80 minut), to liczba utworów może być niemal dowolna – stąd czasem pojawiają się odpowiedzi typu 127 czy 255. To jednak jest błędne myślenie, bo liczba ścieżek audio (czyli znaczników na płycie) jest narzucona nie przez pojemność, ale przez standard techniczny, tzw. Red Book. To precyzyjny dokument opisujący, jak mają wyglądać płyty CD Audio, by były czytelne dla wszystkich zgodnych odtwarzaczy. W Red Booku zapisano, że TOC (Table of Contents) może zawierać maksymalnie 99 wpisów – i to właśnie ogranicza liczbę utworów. Większe liczby, takie jak 127 czy 255, to wynik mylenia z innymi standardami nośników danych, np. z płytą CD-ROM albo formatami komputerowymi (gdzie spotyka się limity bazujące na 8-bitowych bajtach). Z kolei 55 to liczba znacznie zaniżona, może wynikać z doświadczeń z płytami, które po prostu zapełniono do połowy lub zmyliła kogoś liczba ścieżek na typowych kompilacjach. Tak naprawdę w praktyce na płycie audio rzadko wykorzystuje się tak wysoki limit jak 99, bo nawet na długich płytach mieści się zaledwie kilkanaście do kilkudziesięciu utworów, ale standard pozostaje niezmienny od dekad. Ważna sprawa: przekroczenie tej liczby nie jest możliwe, bo odtwarzacze nie są w stanie poprawnie zinterpretować płyty z większą ilością ścieżek – cała struktura TOC jest projektowana dokładnie pod 99 wpisów. Warto pamiętać o tej technicznej granicy, szczególnie przy digitalizacji czy tłoczeniu płyt, by nie napotkać problemów ze zgodnością i odtwarzaniem.

Pytanie 13

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 6 razy.
B. 2 razy.
C. 4 razy.
D. 8 razy.
Pojęcie decybela jako jednostki logarytmicznej bywa często źle rozumiane, szczególnie przy przełożeniu na konkretne wartości amplitudy czy mocy. Zwiększenie poziomu sygnału o 6 dB oznacza dwukrotny wzrost amplitudy, a nie czterokrotny, sześciokrotny czy ośmiokrotny. Wynika to bezpośrednio z definicji: 6 dB = 20 log(A2/A1), co daje A2/A1 = 10^(6/20) ≈ 2. To jest bardzo istotny aspekt, bo łatwo tu się pomylić przez mylenie skali decybelowej stosowanej do amplitudy (napięcia, prądu) i tej wykorzystywanej do mocy. W przypadku mocy – tak, 6 dB to wzrost czterokrotny (ponieważ 10 log(P2/P1) = 6 dB daje P2/P1 ≈ 4), ale w pytaniu chodzi o amplitudę, więc należy stosować wzór z 20 log. Mylenie tych dwóch sytuacji jest dość częste, zwłaszcza gdy ktoś zaczyna dopiero pracę z dźwiękiem, elektroniką albo systemami transmisyjnymi. Przekonanie, że 6 dB to czterokrotność wynika z automatycznego stosowania wzoru dla mocy, a nie dla napięcia czy prądu. Natomiast odpowiedzi takie jak 6 czy 8 razy to zwykłe przeszacowanie albo brak praktycznego doświadczenia – w rzeczywistości tak duże skoki poziomu odpowiadałyby odpowiednio 15,6 dB i 18 dB. Moim zdaniem najważniejsze jest, by za każdym razem sprawdzić, czy mówimy o napięciu, czy o mocy oraz zawsze korzystać ze wzoru właściwego dla danej sytuacji. To bardzo podstawowa, ale kluczowa umiejętność w branży elektroakustycznej, której nie da się przeskoczyć prostymi skojarzeniami czy zgadywaniem.

Pytanie 14

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.ogg
B. *.mp3
C. *.aiff
D. *.flac
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.

Pytanie 15

W sesji oprogramowania DAW o parametrach tempo 120 BPM i metrum 4/4, ćwierćnuta występować będzie co

A. 1 500 ms
B. 500 ms
C. 2 000 ms
D. 1 000 ms
Tempo 120 BPM oznacza, że w ciągu minuty mamy 120 uderzeń, czyli ćwierćnut. Skoro jedna minuta to 60 sekund, to jedno uderzenie przypada co 0,5 sekundy, czyli właśnie 500 ms. To jest taki klasyczny, bardzo często spotykany w produkcji muzycznej podział czasu – na przykład w muzyce elektronicznej, popie czy nawet rocku. Z praktycznego punktu widzenia: jeżeli masz w DAW ustawione 120 BPM, a chcesz zsynchronizować delay albo LFO z tempem utworu, to ustawiając czas na 500 ms dasz efekt, który idealnie pasuje pod każdą ćwierćnutę. Moim zdaniem warto to po prostu zapamiętać, bo przy miksowaniu automatyzacji czy przy ustawianiu efektów delayowych, większość producentów korzysta właśnie z tego przelicznika. To trochę taki branżowy standard. Warto też wspomnieć, że większość DAW ma funkcję automatycznego przeliczania wartości muzycznych na milisekundy, ale dobrze jest znać tę zależność na pamięć – czasami szybciej policzyć to w głowie niż szukać opcji w programie. Osobiście nieraz spotykałem się z sytuacją, gdy szybkie przeliczenie ćwierćnuty w BPM na ms ratowało sprawę na sesji nagraniowej czy przy szybkim montażu rytmicznych efektów. Krótko mówiąc, 500 ms to podstawa dla 120 BPM, metrum 4/4 i ćwierćnuty – taki złoty środek w pracy z rytmem.

Pytanie 16

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade In.
B. Strip Silence.
C. Noise Gate.
D. Fade Out.
Wiele osób myli pojęcia związane z obróbką dźwięku, co jest całkiem zrozumiałe, bo nazwy funkcji w programach DAW bywają podobne i łatwo się w tym pogubić. Często pada odpowiedź Fade In czy Fade Out, bo brzmią znajomo i faktycznie są opcjami wykorzystywanymi niemal w każdym projekcie audio. Jednak ich zadanie polega na płynnym zwiększaniu lub zmniejszaniu głośności na początku lub końcu regionu audio, co pomaga uniknąć nieprzyjemnych kliknięć czy nagłych zmian poziomu dźwięku. Nie mają one jednak nic wspólnego z automatycznym wycinaniem ciszy – to zupełnie inna bajka. Noise Gate z kolei też bywa mylący, bo pozwala „wycinać” ciche fragmenty, ale w praktyce działa podczas odtwarzania lub miksu – blokuje przepływ sygnału poniżej ustawionego progu, więc ciche partie są po prostu niesłyszalne, ale nagranie pozostaje niezmienione fizycznie, nie powstają żadne nowe regiony. To narzędzie do kontroli dynamiki, a nie do edycji samej struktury nagrania. Często spotykam się z przekonaniem, że Noise Gate załatwi sprawę, ale to tylko pozorne podobieństwo. Tak naprawdę tylko Strip Silence automatycznie dzieli i usuwa ciche fragmenty bezpośrednio z plików audio, co widać od razu na ścieżce – i to jest podstawowa różnica. W branży zaleca się korzystać z odpowiednich narzędzi zgodnie z ich przeznaczeniem, bo niewłaściwy wybór może prowadzić do niepotrzebnych komplikacji w dalszej pracy nad projektem. Najlepiej poeksperymentować samodzielnie i zobaczyć, jak każda funkcja działa w praktyce – to daje najwięcej zrozumienia i zapobiega takim typowym błędom myślowym.

Pytanie 17

Jakie dane zawarte w dokumentacji montażowej przedstawia kod czasowy SMPTE, zobrazowany przez licznik 00:00:00:00?

A. Takty : ćwierćnuty : szesnastki : tiki.
B. Godziny : minuty : sekundy : ramki.
C. Takty : ćwierćnuty : ósemki : szesnastki.
D. Godziny : minuty : sekundy : milisekundy.
Warto przyjrzeć się bliżej, skąd mogą brać się pomyłki przy rozpoznawaniu, co tak naprawdę oznacza licznik 00:00:00:00 w kodzie czasowym SMPTE. Niektórzy intuicyjnie kojarzą ten zapis z systemami muzycznymi, bo tam też liczy się upływ czasu, ale niestety – tutaj pojawia się błąd myślowy. W odpowiedziach opartych na taktach, ćwierćnutach czy szesnastkach mamy do czynienia z systemem typowym dla programów DAW używanych przez muzyków i producentów muzycznych, takich jak FL Studio czy Ableton Live. Tam rzeczywiście czas utworu dzieli się na takty i wartości nutowe, ale to zupełnie inny sposób prezentacji czasu. SMPTE działa w kontekście obrazu i synchronizacji wideo – nie interesuje go podział muzyczny, tylko konkretne jednostki czasu oraz liczba ramek (czyli klatek) w sekundzie. Z kolei mylenie ramek z milisekundami to chyba najczęstszy błąd, bo w wielu systemach licznik czasu wygląda podobnie. Jednak praktyka branżowa pokazuje, że np. 00:00:00:20 w SMPTE to dwudziesta klatka w danej sekundzie, a nie dwadzieścia milisekund. Milisekundy pojawiają się raczej w środowiskach czysto audio lub w inżynierii, gdzie liczy się bardzo wysoka precyzja – choć tam format licznika jest inny. Moim zdaniem, kluczową kwestią jest zrozumienie, jakie środowisko pracy i jaki typ projektu wymaga jakiej notacji czasu. W postprodukcji filmowej lub telewizyjnej nikt nie używa taktu ani szesnastek – tylko SMPTE, bo tylko to pozwala dogadać się ludziom z różnych działów: reżyserowi, montażystom, kolorystom, dźwiękowcom. Z praktyki wiem, że błędne przypisanie liczników muzycznych do wideo prowadzi do chaotycznego montażu, problemów z synchronizacją i mnóstwa nieporozumień między zespołami. Stąd tak ważne jest, żeby rozróżniać formaty liczników i stosować je zgodnie z przyjętą w branży praktyką.

Pytanie 18

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. grup.
B. ścieżek.
C. znaczników.
D. regionów.
W przypadku pracy z materiałem dźwiękowym w sesji DAW, korzystanie ze znaczników (ang. markers) to naprawdę jeden z kluczowych elementów sprawnej organizacji projektu. Znaczniki pozwalają na bardzo szybkie i precyzyjne odnalezienie konkretnych miejsc na osi czasu — na przykład punktów cięcia, miejsc wejścia instrumentów czy ważnych fragmentów aranżacji. W praktyce, gdy projekt staje się skomplikowany, a liczba ścieżek i edytowanych fragmentów rośnie, bez markerów łatwo się pogubić. Moim zdaniem, większość realizatorów dźwięku i producentów, których znam, stosuje znaczniki przy niemal każdej większej sesji – to już taki standard branżowy, trochę jak nawyk zapisywania projektu co chwilę. Warto wiedzieć, że w większości profesjonalnych DAW, takich jak Cubase, Pro Tools czy Logic, znaczniki można nie tylko szybko wstawiać, ale też nazywać i kolorować, dzięki czemu jeszcze łatwiej ogarnąć duże formy muzyczne albo materiały do postprodukcji. To nie tylko przyspiesza montaż, ale też minimalizuje ryzyko błędów przy intensywnych edycjach. Osobiście nie wyobrażam sobie montażu podcastu czy miksu rozbudowanego utworu bez sensownie poustawianych markerów. Warto się tego nauczyć i korzystać regularnie – to na dłuższą metę oszczędza czas i nerwy. W branży, gdzie liczy się workflow i szybkość reakcji, dobre oznaczanie kluczowych miejsc na osi czasu to podstawa.

Pytanie 19

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Normalizacja.
B. Kluczowanie amplitudy.
C. Edycja panoramy.
D. Szerokopasmowa kompresja.
Normalizacja to w sumie bardzo praktyczna sprawa, zwłaszcza jeśli chodzi o obróbkę dźwięku w studiu czy nawet w domowych warunkach. Chodzi tutaj o to, żeby tak podnieść poziom nagrania, żeby jego najwyższy szczyt, czyli tzw. peak, osiągnął 0 dBFS (pełną skalę cyfrową). Normalizacja nie zmienia proporcji głośności między różnymi fragmentami nagrania, po prostu przesuwa całość do góry, aż najwyższy punkt zetknie się z maksymalnym dopuszczalnym poziomem w systemie cyfrowym. To jest szalenie ważne np. przy masteringu, żeby nagranie miało odpowiednią głośność, ale nie przesterowało. Moim zdaniem to taka trochę „podstawowa higiena” w pracy z audio. Często używa się tej operacji przed wysyłką utworu do streamingów albo do radia, bo wtedy mamy pewność, że nie przekroczymy zakresu dynamicznego systemu cyfrowego i nie powstaną brzydkie przestery. Warto pamiętać, że normalizacja nie zastępuje kompresji – ona po prostu podnosi całość, nie ściska dynamiki. Jeszcze taka ciekawostka – niektóre DAWy pozwalają wybrać, czy normalizujemy do peaku, czy do wartości RMS, ale w pytaniu chodziło właśnie o szczytowy poziom 0 dBFS, więc tu normalizacja jest jedyną poprawną opcją.

Pytanie 20

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 24 bitów.
B. Do 32 bitów.
C. Do 8 bitów.
D. Do 16 bitów.
Dokładnie, płyta CD-Audio zgodnie ze światowym standardem Red Book powinna mieć rozdzielczość 16-bitową. To oznacza, że każda próbka dźwięku zapisana na płycie jest reprezentowana przez 16 bitów, co pozwala na uzyskanie 65 536 różnych możliwych wartości amplitudy. Dzięki temu muzyka odtwarzana z płyt CD charakteryzuje się wystarczająco szerokim zakresem dynamiki – mówi się o ok. 96 dB, co w praktyce całkowicie wystarcza do odsłuchu muzyki w warunkach domowych. Moim zdaniem wybór 16 bitów to taki kompromis pomiędzy jakością dźwięku a ilością miejsca, które można fizycznie zapisać na płycie. Zresztą, profesjonalne studia często nagrywają w wyższej rozdzielczości (24 bity), ale przed wydaniem muzyki na CD wykonuje się tzw. dithering i zgrywanie właśnie do 16 bitów. To pozwala zachować kompatybilność z odtwarzaczami i zapewnia, że każda płyta CD-Audio, niezależnie od wytwórni czy gatunku, ma taki sam techniczny poziom jakości. Podsumowując – 16 bitów to nie przypadek, tylko przemyślany międzynarodowy standard. Warto o tym pamiętać, bo różne formaty cyfrowe mają inne wymagania, a CD-Audio ma właśnie takie – i nie da się tam wcisnąć ani 24, ani 8 bitów bez złamania specyfikacji.

Pytanie 21

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. WAV
B. CDA
C. MP3
D. RIFF
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 22

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 2 ms
B. 0,02 ms
C. 0,2 ms
D. 20 ms
Odpowiedź 0,02 ms jest prawidłowa, bo przy częstotliwości próbkowania 48 kHz każda próbka pojawia się co dokładnie 1/48000 sekundy. Jeśli przeliczyć to na milisekundy, wychodzi 0,020833... ms – w praktyce zwykle zaokrągla się do 0,02 ms. To bardzo krótki czas, ale pozwala uzyskać wysoką jakość nagrania, bo zgodnie z zasadą Nyquista da się poprawnie zapisać dźwięki o częstotliwościach do połowy tej wartości, czyli do 24 kHz. To wyższa granica niż ludzkie ucho jest w stanie wychwycić, ale taki sampling stosuje się w profesjonalnym audio, produkcji muzyki, nagraniach filmowych czy transmisjach telewizyjnych. Moim zdaniem właśnie to rozróżnia domowe systemy (często 44,1 kHz jak w CD) od zastosowań profesjonalnych, gdzie 48 kHz to taki złoty standard. Sam kiedyś myślałem, że wyższa częstotliwość próbkuje „lepiej”, ale różnice są subtelne – kluczowe jest, żeby próbki były pobierane odpowiednio szybko w stosunku do najwyższych dźwięków, które chcemy zarejestrować. W praktyce, jak miksujesz dźwięk albo przygotowujesz podcast, to 0,02 ms między próbkami daje Ci ogromną precyzję, zwłaszcza przy obróbce czy edycji. Dla porównania, przy 44,1 kHz odstęp to ok. 0,0227 ms – niewiele więcej, ale w broadcastingu te kilka tysięcznych też ma znaczenie. Warto o tym pamiętać, bo w pracy z cyfrowym audio taka matematyka bardzo się przydaje.

Pytanie 23

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 20 bitów.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
Wybór niższej głębi bitowej, jak 8 czy 16 bitów, zwykle wiąże się ze znacznie wyższym poziomem szumów kwantyzacji, co w praktyce odbija się na jakości dźwięku, zwłaszcza gdy chodzi o nagrania instrumentalne lub wokalne z dużą ilością cichych, subtelnych fragmentów. Często spotykam się z przekonaniem, że 16 bitów „w zupełności wystarczy”, bo przecież tyle ma płyta CD – ale w rzeczywistości to granica kompromisu między pojemnością a jakością, ustalona w latach 80. Dla zastosowań profesjonalnych, gdzie istotna jest maksymalna precyzja i elastyczność w postprodukcji, to jednak trochę za mało. 8 bitów to już poziom lo-fi, bardzo wyraźnie słyszalny szum, który może mieć swój klimat, ale do profesjonalnego audio się nie nadaje. 20 bitów to ciekawy kompromis, przez chwilę było popularne w sprzęcie studyjnym, ale szybko zostało wyparte przez 24 bity, które oferują znacznie większe możliwości – zwłaszcza jeśli chodzi o zakres dynamiki i minimalizację szumów kwantyzacji. Zauważyłem, że często wybiera się niższą bitowość w przekonaniu o oszczędności miejsca na dysku, ale to trochę mylne podejście: w czasach tanich dysków i szybkich komputerów warto iść w jakość, bo to procentuje na każdym etapie obróbki dźwięku. Warto pamiętać, że wyższa głębia bitowa daje więcej swobody przy miksowaniu i masteringu, bo pozwala uniknąć degradacji sygnału przy kolejnych przeliczeniach. Dlatego standardem w branży audio stało się dziś 24 bity – i nie bez powodu. Z mojego punktu widzenia warto postawić na rozwiązania, które minimalizują artefakty cyfrowe już na etapie nagrania, bo później nie da się ich usunąć.

Pytanie 24

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ćwierćnucie.
B. ramce.
C. sekundzie.
D. milisekundzie.
Kod SMPTE to temat, wokół którego narosło sporo nieporozumień, zwłaszcza wśród początkujących montażystów czy realizatorów audio-wideo. Oznaczenie 00:00:00:20 nie dotyczy ani sekund, ani milisekund, ani – co jest jeszcze bardziej egzotyczne – ćwierćnut. Jeśli ktoś pomyli to z sekundą, to pewnie wynika z przyzwyczajenia do czytania czasu jako godzin, minut i sekund, bez zwracania uwagi na ostatnią liczbę po dwukropku. Jednak w standardzie SMPTE ta ostatnia wartość zawsze odnosi się do numeru klatki (ramki) w obrębie danej sekundy. Milisekundy często mylą się osobom, które pracują głównie z dźwiękiem w DAW-ach, gdzie czas bywa liczony w milisekundach, ale w filmie i telewizji królują ramki. Z kolei ćwierćnuta to już zupełnie inna bajka – to określenie muzyczne, a nie jednostka czasu w wideo. W praktyce, błędne utożsamianie wartości SMPTE z sekundami albo milisekundami prowadzi do poważnych problemów z synchronizacją materiałów – na przykład dźwięk może wypaść z obrazu, a efekty specjalne przeskoczyć w nieodpowiedni moment. Co więcej, ignorowanie tej konwencji stoi w sprzeczności z branżowymi dobrymi praktykami, gdzie synchronizacja „do ramki” jest kluczowa zwłaszcza przy pracy z telewizją czy filmem. Moim zdaniem, jeśli ktoś chce mieć porządek w projekcie i nie gubić się przy obróbce materiału, musi wyrobić sobie nawyk czytania kodu SMPTE właśnie przez pryzmat ramek, nie innych jednostek. To pozwala uniknąć wielu typowych błędów i daje kontrolę nad każdym szczegółem w materiale.

Pytanie 25

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Pięciokrotny.
B. Trzykrotny.
C. Dwukrotny.
D. Czterokrotny.
Wzrost poziomu sygnału o 10 dB jest w akustyce uważany za taki, który odpowiada mniej więcej podwojeniu subiektywnie odczuwanej głośności przez człowieka. To wynika z właściwości ludzkiego słuchu – reagujemy logarytmicznie na zmiany natężenia dźwięku, a nie liniowo. Ta zasada jest szeroko stosowana w branży audio, przy projektowaniu sprzętu nagłośnieniowego, systemów alarmowych czy chociażby przy kalibracji studiów nagraniowych. Przykład praktyczny? Jeżeli ustawisz jeden głośnik na 70 dB SPL, a drugi na 80 dB SPL, ten drugi będzie wydawał się mniej więcej dwa razy głośniejszy. W mojej praktyce wielokrotnie spotykałem się z tym, że ludzie nie doceniają, jak powolny jest przyrost subiektywnej głośności, bo 10 dB to wcale nie jest jakaś ogromna różnica, jeśli chodzi o moc sygnału – to jest jej dziesięciokrotny wzrost! Jednak dopiero nasze uszy odbierają to jako dwa razy głośniej. Takie podejście znajdziesz choćby w normach ISO 226 czy zaleceniach EBU dotyczących emisji sygnałów audio. Warto zapamiętać tę zasadę, bo pozwala lepiej ustawiać poziomy w miksie, uniknąć niepotrzebnego przesterowania czy zbyt głośnych reklam – a jednocześnie zrozumieć, dlaczego czasami użytkownikom wydaje się, że podkręcenie głośności nie daje tak dużego efektu, jak oczekiwali. Ogólnie, dobre praktyki nakazują ostrożność przy manipulowaniu poziomami dźwięku – zwłaszcza, że różne osoby mogą też trochę różnie odbierać te zmiany, ale reguła 10 dB = 2x głośniej działa naprawdę nieźle w większości przypadków.

Pytanie 26

Która z wymienionych funkcji dostępnych w sesji montażowej programu DAW umożliwia przyciąganie przesuwanych ręcznie regionów dźwiękowych np. do siatki czasu?

A. Split.
B. Shuffle.
C. Snap.
D. Quantize.
Funkcja „Snap” w programach DAW to taki trochę niepozorny, ale bardzo przydatny bajer, bez którego ciężko wyobrazić sobie sprawną pracę z aranżacją audio czy MIDI. Snap, czyli po polsku najczęściej „przyciąganie”, powoduje, że wszelkie regiony dźwiękowe, klipy czy nutki (w pianorollu) przesuwają się i ustawiają równo według określonej siatki czasu – na przykład taktów, ćwierćnut albo nawet jeszcze drobniejszej podziałki. To ogromne ułatwienie, bo bez Snap łatwo przez przypadek rozjechać się z tempem czy przesunąć coś o niezamierzony fragment, co potem daje niechciane efekty brzmieniowe. W praktyce, jeśli chcesz np. szybko zmontować różne ścieżki w piosence do równego tempa lub przygotować aranżację pod dalszy miks, korzystanie ze Snap to podstawa – praktycznie każdy zawodowy producent i realizator dźwięku pracuje z tą funkcją domyślnie włączoną. Z mojego doświadczenia wynika, że Snap nie tylko oszczędza masę czasu, ale też pozwala utrzymać porządek w projekcie i uniknąć pomyłek, które na etapie końcowym potrafią zaboleć. Dla początkujących – polecam eksperymentować i sprawdzać różne ustawienia „gęstości” siatki w Snap, bo w różnych stylach muzycznych przydaje się inna precyzja. Generalnie: Snap to taki cichy bohater sesji montażowych, który robi robotę za kulisami.

Pytanie 27

Ile kanałów można jednocześnie transmitować połączeniem S/PDIF?

A. 8 kanałów.
B. 32 kanały.
C. najwyżej 6 kanałów.
D. 16 kanałów.
S/PDIF, czyli Sony/Philips Digital Interface Format, to popularny cyfrowy interfejs audio wykorzystywany w urządzeniach konsumenckich, zwłaszcza przy sprzęcie Hi-Fi, kinie domowym i telewizorach. Ograniczenie do maksymalnie 6 kanałów wynika z parametrów technicznych tego złącza. Standard S/PDIF został zaprojektowany przede wszystkim do przesyłania sygnału audio w formacie stereo PCM (czyli tylko dwa kanały), ale dzięki kompresji (np. Dolby Digital lub DTS) możliwe jest przesłanie do sześciu dyskretnych kanałów, czyli tzw. system 5.1. W praktyce oznacza to, że przez jedno złącze S/PDIF da się przesłać nie tylko zwykły dźwięk stereo, lecz również wielokanałowy sygnał przestrzenny, wykorzystywany chociażby w filmach na DVD. Moim zdaniem, warto pamiętać, że S/PDIF nie nadaje się do transmisji większej liczby kanałów – na przykład nie obsłuży pełnego systemu 7.1 ani profesjonalnych formatów studyjnych. Standardy branżowe jasno to określają, więc przy projektowaniu systemów audio lepiej nie zakładać, że przez S/PDIF „przepchniemy” coś więcej niż 6 kanałów. Z mojego doświadczenia wynika też, że wielu użytkowników myli możliwości S/PDIF z dużo bardziej wydajnymi interfejsami, jak HDMI czy ADAT, które pozwalają już na transmisję kilkunastu czy nawet kilkudziesięciu kanałów. Reasumując – jeśli chcesz przesyłać wielokanałowy dźwięk np. z odtwarzacza Blu-ray do amplitunera przez S/PDIF, musisz liczyć się z tym limitem. Dobrze to mieć na uwadze przy konfiguracji sprzętu domowego.

Pytanie 28

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Kompresor.
B. Ekspander.
C. Crossover.
D. Korektor.
Wiele osób często myli funkcje poszczególnych urządzeń do obróbki dźwięku, a zagadnienie dynamiki bywa nieco podchwytliwe. Korektor na przykład nie wpływa na zakres dynamiki nagrania, lecz jedynie na charakterystykę częstotliwościową – zmienia barwę, selektywność, natomiast nie zwiększy ani nie zmniejszy różnicy pomiędzy najgłośniejszymi i najcichszymi partiami. Crossover natomiast to urządzenie używane głównie w systemach nagłośnieniowych do podziału pasma sygnału na zakresy częstotliwości i skierowania ich do odpowiednich zestawów głośnikowych, np. do subwoofera i satelitów. On w ogóle nie ingeruje w dynamikę, a już na pewno nie poszerza jej – to zupełnie inna kategoria sprzętu. Kompresor, choć często używany w nagraniach, działa wręcz odwrotnie niż ekspander – on ogranicza dynamikę, czyli „spłaszcza” różnicę między głośnymi a cichymi fragmentami, sprawiając że nagranie brzmi bardziej równo, łatwiej się miksuje, ale traci część naturalnego kontrastu. To typowy błąd – przyjąć, że skoro kompresor jest tak powszechny, to może też poszerzać dynamikę, ale tak naprawdę jego zadaniem jest dokładnie odwrotne działanie. W praktyce, jeśli zależy nam na uzyskaniu większej rozpiętości dynamicznej, musimy sięgnąć po ekspander lub nawet bramkę szumów w określonych sytuacjach, a nie po kompresor, crossover czy korektor. Takie rozróżnianie funkcji sprzętu jest podstawą w pracy realizatora dźwięku i każdemu się może przydać, nawet jeśli wydaje się na początku trochę mylące. Moim zdaniem warto poćwiczyć wyłapywanie tych subtelnych różnic – później w praktyce studyjnej bardzo się to przydaje i pozwala uniknąć wielu błędów na etapie miksu czy nagrania.

Pytanie 29

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z próbkowaniem dla transmisji zakresu mowy.
B. z próbkowaniem na potrzeby płyty DVD-Audio.
C. z niską rozdzielczością procesu próbkowania.
D. z próbkowaniem na potrzeby płyty CD-Audio.
Dość często spotyka się błędne skojarzenia częstotliwości próbkowania 96 kHz z niską rozdzielczością lub zastosowaniami typowo konsumenckimi. W rzeczywistości jest zupełnie odwrotnie – 96 kHz to jeden z wyższych standardów w przechwytywaniu dźwięku, szczególnie w profesjonalnych i półprofesjonalnych środowiskach. Próbkowanie na poziomie 8 kHz czy 16 kHz to zakres typowy dla transmisji mowy, na przykład w telefonii analogowej lub cyfrowej, gdzie odtwarzanie pełnego pasma dźwięku nie jest konieczne, bo wystarczy zrozumiałość przekazu. Takie częstotliwości są dalekie od możliwości wysokiej jakości systemów audio i nie mają nic wspólnego z rozbudowanymi formatami muzycznymi. Jeżeli chodzi o płyty CD-Audio, obowiązujący od lat standard to dokładnie 44,1 kHz – to była przemyślana kompromisowa wartość, pozwalająca na zapis pasma do około 20 kHz, czyli górnej granicy słyszalności człowieka. Mylenie tej wartości z 96 kHz wynika najpewniej z braku znajomości specyfikacji różnych nośników lub wyniesionych z praktyki skojarzeń z „większą liczbą = lepsza jakość”. Tymczasem 96 kHz to domena nowocześniejszych formatów, takich jak właśnie DVD-Audio czy profesjonalne nagrania studyjne. Tego typu rozdzielczość pozwala nie tylko na lepszą jakość odsłuchu, ale też na bardziej bezstratną edycję w procesach obróbki audio. Wybierając odpowiednie próbkowanie, zawsze należy kierować się wymaganiami końcowego zastosowania – i moim zdaniem bardzo łatwo tutaj popełnić pomyłkę, jeśli nie zna się podstaw standardów branżowych. Dlatego warto mieć zakodowane, że 96 kHz to typowe rozwiązanie dla formatów o podwyższonej jakości, a nie dla podstawowych zastosowań transmisyjnych czy płyt CD.

Pytanie 30

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Karta SDHC
C. Mini Disc
D. Dysk SSD
Wbrew pozorom odpowiedzi typu dysk SSD, kaseta DAT czy karta SDHC nie są powiązane z technologią zapisu magnetooptycznego. I wydaje mi się, że tu najczęściej pojawia się pewne zamieszanie, bo te nośniki są dość powszechne i przez to niektórzy zakładają, że skoro są „nowoczesne” albo mają w nazwie coś związanego z zapisem, to na pewno wykorzystują nowatorskie technologie jak właśnie magnetooptyka. Tymczasem dysk SSD to typowy nośnik półprzewodnikowy – dane przechowywane są w komórkach pamięci flash, gdzie nie ma ani lasera, ani pola magnetycznego, tylko tranzystory sterowane napięciem. SSD-ki cechują się dużą prędkością i brakiem ruchomych części, co odróżnia je zupełnie od starych technologii. Kaseta DAT (Digital Audio Tape) to z kolei czysto magnetyczny sposób zapisu – głowica zapisuje i odczytuje impulsy magnetyczne z taśmy, podobnie jak w klasycznych kasetach VHS czy audio, tylko w postaci cyfrowej. Działa to bez udziału światła czy lasera, więc nie ma mowy o magnetooptyce. Karta SDHC to już całkowicie inna bajka – pamięć flash, czyli znowu oparta na półprzewodnikach, bardzo trwała, mała i szybka, zupełnie nie korzysta z pola magnetycznego czy optyki. Moim zdaniem sporo osób myli tu pojęcia, bo po prostu te wszystkie nośniki służą do zapisu i odczytu danych, ale mechanizmy działania są zupełnie inne. Przykład Mini Disc pokazuje, że hybrydowe technologie potrafią być nietypowe i przez to trudniejsze do rozpoznania. Warto zawsze sprawdzić, jak działa dany nośnik pod maską, zamiast kierować się jego nazwą czy popularnością, bo to pomaga unikać typowych błędów myślowych przy klasyfikacji technologii przechowywania danych.

Pytanie 31

Zastosowanie efektu typu Flanger w nagraniu dźwiękowym powoduje

A. przesterowanie sygnału.
B. poszerzenie dynamiki sygnału.
C. ograniczenie niskich tonów.
D. modulację dźwięku.
Efekt typu Flanger to jeden z najbardziej rozpoznawalnych efektów modulacyjnych wykorzystywanych w produkcji muzycznej, szczególnie w rocku, elektronice i muzyce pop. Działa on na zasadzie mieszania sygnału pierwotnego z jego lekko opóźnioną kopią, gdzie to opóźnienie jest dynamicznie modulowane – zmienia się w czasie, tworząc charakterystyczne przesuwające się brzmienie przypominające dźwięk startującego samolotu albo „fale”. To właśnie modulacja czasu opóźnienia powoduje powstawanie efektu „grzebieniowego” w widmie częstotliwościowym, czyli słyszalne przemieszczanie się dołków oraz wzmocnień w paśmie. Takie zjawisko jest bardzo przydatne do dodania przestrzenności, ruchu lub wręcz psychodelicznego klimatu w nagraniu. Standardowo flanger stosuje się na gitarach, wokalach, a czasem nawet całych ścieżkach perkusyjnych – jednym słowem, wszędzie tam, gdzie potrzebujemy „ożywić” materiał dźwiękowy. Co ciekawe, efekt ten pierwotnie powstał przez ręczne zahamowanie jednej taśmy podczas odtwarzania dwóch identycznych ścieżek, stąd jego nazwa („flange” – kołnierz szpuli taśmy). Dobra praktyka zaleca umiar w stosowaniu flangera, bo przy dużym natężeniu może on zamazać szczegóły i sprawić, że miks stanie się nieczytelny. Moim zdaniem, flanger to świetne narzędzie kreacyjne, jeśli tylko używa się go z głową – można dzięki niemu dodać nowy wymiar nawet bardzo prostym dźwiękom.

Pytanie 32

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. SCORE EDITOR
B. MIX
C. EDIT
D. MIDI EDITOR
MIX, EDIT, a nawet MIDI EDITOR to nazwy, które często pojawiają się w programach DAW, ale każda z nich pełni zupełnie inną rolę niż Score Editor. Okno oznaczone jako MIX to po prostu mikser, w którym steruje się głośnością, panoramą i efektami, a także ustawia routing sygnałów. To bardzo istotny element podczas końcowej fazy produkcji, lecz nie ma nic wspólnego z edytowaniem nut. Z kolei EDIT to zwykle ogólna przestrzeń edycyjna – czasem audio, czasem MIDI – ale nie jest to miejsce, gdzie możemy zobaczyć zapis nutowy w formie tradycyjnej partytury. Strefa EDIT służy raczej do przesuwania klipów, cięcia, kopiowania, ale nie notacji muzycznej. MIDI EDITOR natomiast to narzędzie do edycji komunikatów MIDI – tu pracuje się na tzw. pianorolce, czyli siatce, gdzie nuty są reprezentowane prostokątami według wysokości i długości, co ułatwia rysowanie melodii czy akordów, szczególnie w muzyce elektronicznej czy popowej. Jednak, co ważne, pianorolka nie prezentuje zapisu nutowego w klasycznym sensie – nie zobaczymy tam pięciolinii, kluczy czy wartości rytmicznych zapisanych w standardzie muzycznym. Z mojego doświadczenia wynika, że sporo osób myli Score Editor z MIDI Editorem, bo oba służą do edycji danych muzycznych, ale mają zupełnie inne zastosowania. Takie pomyłki biorą się najczęściej z pośpiesznego czytania interfejsu DAW albo z braku potrzeby pracy na klasycznej notacji. W praktyce, jeżeli potrzebujemy wygenerować profesjonalną partyturę, podzielić się zapisem z innymi muzykami czy przygotować nuty do druku, tylko Score Editor spełni te wymagania. Pozostałe okna DAW są przydatne, ale zupełnie nie zastępują tej funkcji, bo nie zapewniają odpowiedniej czytelności i standardu muzycznego zapisu.

Pytanie 33

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. FLAC
B. AC-4
C. WMA
D. AAC
Wiele osób myli kodeki dźwięku, zakładając, że wszystkie popularne formaty oferują bezstratną kompresję, ale niestety to nie jest takie proste. Zarówno WMA, jak i AAC czy AC-4 są kodekami przeznaczonymi głównie do stratnej kompresji audio, choć w niektórych przypadkach mają też warianty bezstratne (np. WMA Lossless), to jednak same w sobie – standardowe wersje tych kodeków – są stratne. W praktyce oznacza to, że podczas kompresji część danych jest bezpowrotnie usuwana, żeby plik zajmował mniej miejsca, kosztem jakości dźwięku. To podejście jest super, jeśli chodzi o streaming czy przechowywanie dużej ilości muzyki na urządzeniach mobilnych, bo pliki są mniejsze, łatwiej się przesyłają, nie zapychają pamięci. Jednak jeśli masz na myśli archiwizację, produkcję muzyczną albo sytuacje, gdzie każda drobna różnica w brzmieniu ma znaczenie – kodeki stratne mogą się nie sprawdzić. Moim zdaniem wiele osób wybiera np. AAC tylko dlatego, że to domyślny format w iTunes lub na YouTube, nie zdając sobie sprawy, że jest to kompresja stratna. AC-4 z kolei to nowoczesny kodek używany np. w telewizji cyfrowej, ale też jest nastawiony głównie na wydajność i przesyłanie wielu kanałów audio, a nie na bezstratność. Tego typu błędne założenia biorą się chyba z mylenia nazewnictwa albo niewiedzy o istnieniu wariantów kodeków. Jeśli komuś zależy na oryginalnej jakości i archiwizacji – bezstratna kompresja, taka jak FLAC, to jedno z najlepszych rozwiązań. Warto o tym pamiętać, bo wybór kodeka ma kluczowe znaczenie dla późniejszej jakości i możliwości obróbki dźwięku.

Pytanie 34

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 90 minut.
B. 60 minut.
C. 70 minut.
D. 80 minut.
Płyta CD-Audio o pojemności 700 MB pozwala na zapis materiału dźwiękowego do 80 minut i to jest taka wartość, która praktycznie stała się standardem branżowym dla tego typu nośników. Chociaż na pierwszy rzut oka pojemność 700 MB może wydawać się spora i sugerować możliwość zapisania jeszcze więcej muzyki, to trzeba pamiętać, że format CD-Audio nie korzysta z kompresji danych (jak np. MP3), tylko zapisuje bezstratnie dźwięk w standardzie PCM o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na kanał stereo. To oznacza spory strumień danych – ok. 10 MB na każdą minutę muzyki stereo. Stąd właśnie ta liczba – 80 minut to maksimum, ile da się zmieścić na 700 MB przy zachowaniu jakości wymaganej przez standard Red Book, który określa parametry płyt CD-Audio. Moim zdaniem to całkiem uczciwy kompromis pomiędzy jakością a czasem trwania materiału. W praktyce większość albumów muzycznych mieściła się w tym limicie i nie trzeba było ciąć kawałków. Często w produkcji płyt płyty 80-minutowe były wykorzystywane do albumów kompilacyjnych czy koncertowych, gdzie każda minuta była na wagę złota. Warto pamiętać, że jak już wykraczasz poza te 80 minut, napędy CD mogą mieć problem z odczytem albo płyta w ogóle nie będzie zgodna ze starszym sprzętem. To kolejny przykład, jak ważne jest trzymanie się branżowych norm.

Pytanie 35

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 6 ścieżek.
B. 8 ścieżek.
C. 2 ścieżki.
D. 4 ścieżki.
Dość często można pomylić technikę binauralną z systemami wielokanałowymi, gdzie rzeczywiście liczba ścieżek potrafi być dużo większa – na przykład w kinie domowym czy miksach surround, gdzie operuje się czterema, sześcioma albo ośmioma ścieżkami, zależnie od konfiguracji. Jednak nagranie binauralne opiera się na bardzo konkretnej koncepcji odwzorowania przestrzennego dźwięku tylko przy użyciu dwóch mikrofonów, umieszczonych w taki sposób, by imitować ludzkie uszy. To skutkuje tym, że w całym procesie rejestracji i późniejszego montażu wystarczają zaledwie dwie ścieżki – lewa i prawa. W praktyce, dodawanie większej liczby ścieżek wprowadza niepotrzebne komplikacje i nie przekłada się na lepsze wrażenie przestrzenne, bo technika binauralna nie korzysta z tylu kanałów, co np. formaty 5.1 czy 7.1. Typowym błędem jest myślenie, że skoro dźwięk ma być przestrzenny, to musi być nagrywany i montowany na wielu ścieżkach – to prawda przy systemach surround, ale nie w przypadku binauralu. Z mojego doświadczenia wynika, że niektórzy próbują zbyt ambitnie podejść do tematu, myląc binaural z ambisonic lub innymi bardziej rozbudowanymi systemami, gdzie liczba kanałów rzeczywiście ma znaczenie. W branży audio obowiązuje tu prosta zasada: dla binauralu zawsze dwie ścieżki, żeby uzyskać naturalny i realistyczny efekt słuchawkowy. Każda inna liczba ścieżek w tym kontekście to już zupełnie inna technologia i inne zastosowania. Warto o tym pamiętać, bo łatwo się pogubić, jeśli ktoś nie rozróżnia tych formatów. Binaural to prostota działania i wierne odwzorowanie słyszenia człowieka – tylko dwa kanały i tyle wystarczy.

Pytanie 36

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 2|1|000
B. 1|1|000
C. 1|2|000
D. 1|3|000
Wielu osobom może wydawać się, że licznik w DAW – szczególnie przy tempie 120 bpm i metrum 4/4 – jest bardziej skomplikowany niż w rzeczywistości. Często zakłada się, że numeracja taktów i ułożenie beatów nie mają bezpośredniego przełożenia na upływający czas w sekundach. Tymczasem przy 120 bpm każda ćwierćnuta, czyli jeden beat, trwa dokładnie pół sekundy. Jeśli więc ktoś zaznacza 1|1|000, to oznacza absolutny początek sesji, czyli zero sekund. 1|2|000 oznacza, że jesteśmy po jednej ćwierćnucie – to pół sekundy. Wskazanie 2|1|000 może wydawać się intuicyjnie poprawne, bo dwójka sugeruje drugi takt, ale w rzeczywistości oznacza to już upływ czterech ćwierćnut, czyli dwóch pełnych sekund – kursor jest wtedy dokładnie na początku drugiego taktu, nie w połowie pierwszego. Najczęstszym błędem jest traktowanie liczby taktów czy beatów jako dokładnego wskaźnika czasu bez uwzględnienia tempa projektu i wartości nutowej. W praktyce branżowej bardzo często popełnia się ten błąd, zwłaszcza podczas edycji MIDI czy automatyzacji, kiedy próbujemy zsynchronizować dźwięki do konkretnego czasu na osi. Moim zdaniem, warto zawsze wracać do podstaw – przeliczać ile ćwierćnut mieści się w danym czasie, biorąc pod uwagę ustawione bpm i metrum. To naprawdę pomaga ogarnąć workflow i unikać bałaganu w aranżu. Klasycznym nieporozumieniem jest też mylenie liczby beatów z liczbą taktów – w profesjonalnych sesjach często prowadzi to do niepotrzebnych poprawek i zamieszania, zwłaszcza gdy pracuje się z różnymi muzykami. Przypominam: każdy beat przy 120 bpm to pół sekundy – ten przelicznik warto mieć zawsze z tyłu głowy.

Pytanie 37

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta CD
B. Karta SD
C. Dysk SSD
D. Płyta DVD
Dysk SSD zdecydowanie prowadzi w tej kategorii, bo technologia oparta na pamięciach półprzewodnikowych jest kilka rzędów wielkości szybsza niż tradycyjne nośniki optyczne czy nawet karty pamięci. SSD korzysta z pamięci flash NAND, która pozwala praktycznie natychmiastowo odczytywać i zapisywać dane, bez opóźnień wynikających z ruchomych części. Dla przykładu, standardowy dysk SSD na interfejsie NVMe osiąga prędkości odczytu powyżej 3000 MB/s, kiedy płyty CD czy DVD ledwo przekraczają 50 MB/s (przy bardzo dobrych warunkach). Karta SD też wypada dużo słabiej – nawet te z serii UHS-II nie dorównują dyskom SSD. W praktycznych zastosowaniach, takich jak szybkie ładowanie systemu operacyjnego, uruchamianie gier czy praca z dużymi projektami graficznymi, SSD jest właściwie nie do pobicia. Użytkownicy komputerów, którzy przesiadają się ze starych HDD na SSD, często są pod ogromnym wrażeniem różnicy – bo to naprawdę zmienia komfort pracy. Branżowe standardy, jak PCIe Gen4 czy NVMe, jeszcze mocniej zwiększają te osiągi. Moim zdaniem, dziś SSD to absolutna podstawa w nowoczesnych komputerach, a stare nośniki optyczne powoli odchodzą do lamusa!

Pytanie 38

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji dynamiki.
B. Po korekcji barwy.
C. Po korekcji barwy i dynamiki.
D. Bez korekcji barwy i dynamiki.
To jest właśnie to, o co chodzi w profesjonalnej pracy z dźwiękiem. Zapis sygnału na wielośladzie bez żadnej korekcji barwy ani dynamiki to podstawa, bo daje największą elastyczność podczas późniejszej obróbki. Moim zdaniem, to jak zostawiasz sobie otwartą furtkę na etapie miksu: masz czysty, nieprzetworzony surowiec i możesz z nim zrobić wszystko, co tylko przyjdzie Ci do głowy. Branżowa praktyka pokazuje, że wszelkie korekcje – czy to EQ, czy kompresja – wprowadzone zbyt wcześnie często są nieodwracalne. Jak coś przetniesz albo skompresujesz już w trakcie nagrań, potem nie da się tego „cofnąć”, a to utrudnia pracę przy miksowaniu. Standardy studyjne są tutaj jednoznaczne – inżynierowie dźwięku trzymają się zasady, żeby nagrywać sygnał jak najczystszy, bez dodatkowych ingerencji. Oczywiście, są wyjątki, na przykład kiedy chcesz zachować konkretny charakter brzmienia z używanego urządzenia czy efektu – wtedy czasem warto coś dodać przy nagraniu. Ale w większości sytuacji to właśnie nieprzetworzony sygnał daje najwięcej możliwości. Tak robią zawodowcy w studiach nagraniowych, gdzie każdy etap obróbki jest przemyślany i możliwy do dopasowania do końcowej wizji brzmieniowej.

Pytanie 39

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/6.
B. o 1/3.
C. o 1/4.
D. o 1/2.
Przy szacowaniu, jak zmienia się energia najgłośniejszego dźwięku po normalizacji do -3 dB, wiele osób intuicyjnie myśli, że to niewielka różnica albo próbuje przeliczyć ją liniowo. To jest częsty błąd – skala decybelowa jest logarytmiczna, a nie liniowa, więc spadek o 3 dB nie oznacza zmniejszenia energii o jedną trzecią, jedną czwartą czy jedną szóstą. Właściwie, spadek o 3 dB to dokładnie połowa wartości mocy – to standardowa konwencja w elektroakustyce, dźwięku live czy nawet w telekomunikacji. Często spotykam się z przekonaniem, że skoro 3 to mniej niż 6, to zmiana jest nieduża, ale w dźwięku każde 3 dB to już zauważalna różnica. Równie często spotyka się mylenie pojęcia mocy z napięciem – spadek napięcia o 3 dB to nie to samo co spadek energii, bo energia zależy od kwadratu napięcia. Jeśli chodzi o błędne odpowiedzi typu 1/3, 1/4 czy 1/6, to wynikają one właśnie z mylenia proporcji liniowych z logarytmicznymi albo z nieznajomości praktycznych zasad pracy z sygnałem audio. W praktyce, jeśli ustawisz poziom szczytowy na -3 dB, zostawiasz sobie margines bezpieczeństwa i masz pewność, że żaden przypadkowy pik sygnału nie przesteruje toru audio. To jest dobra praktyka, której trzyma się większość profesjonalistów w branży audio, nagłośnieniowej czy postprodukcji. Warto pamiętać, że skala decybelowa jest podstawą w tej dziedzinie i znajomość jej zależności naprawdę pomaga w codziennej pracy.

Pytanie 40

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Lista znaczników.
B. Scenariusz.
C. Partytura.
D. Rider techniczny.
Niektóre dokumenty, które pojawiły się wśród opcji, mogą brzmieć znajomo, zwłaszcza jeśli ktoś miał do czynienia z produkcją muzyczną albo obsługą techniczną wydarzeń. Partytura to typowy dokument muzyczny – zapis nutowy utworu, służący muzykom i dyrygentom. W słuchowisku radiowym muzyka odgrywa rolę, ale to nie ona jest trzonem opowieści. Bez partytury nie powstanie koncert czy nagranie orkiestrowe, ale w słuchowisku potrzebujemy czegoś więcej: tekstu, dialogów i narracji. Rider techniczny natomiast to szczegółowa lista wymagań technicznych – sprzętu, ustawień, liczby mikrofonów czy wytycznych dla obsługi technicznej. To nie jest dokument kreatywny czy literacki, tylko pomoc organizacyjna, która przydaje się przy realizacji wydarzeń na żywo lub nagrań, ale nie dostarcza treści do słuchowiska. Lista znaczników brzmi trochę jak narzędzie do edycji lub kodowania, np. przy montażu czy opisywaniu plików dźwiękowych, ale nie zawiera fabuły, postaci ani dialogów. Wielu początkujących myli te dokumenty z podstawą literacką, bo myślą, że wystarczy mieć plan techniczny lub muzyczny, żeby stworzyć dobrą produkcję. Jednak bez scenariusza nie ma co marzyć o spójnym, angażującym słuchowisku. To on daje bazę, wokół której można budować całość – reszta to już narzędzia pomocnicze, które wspierają realizację, ale nie zastępują treści. Takie rozróżnienie jest kluczowe, jeśli chce się działać profesjonalnie w branży radiowej.