Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 17:42
  • Data zakończenia: 29 kwietnia 2026 18:25

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 30 klatek.
B. 15 klatek.
C. 90 klatek.
D. 60 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 2

Jednostronna, jednowarstwowa płyta DVD, charakteryzuje się maksymalną pojemnością

A. 1,7 GB
B. 8,7 GB
C. 2,7 GB
D. 4,7 GB
Wybierając pojemność płyty DVD, łatwo pomylić różne jej warianty, bo branża wprowadziła kilka formatów, które tylko na pierwszy rzut oka są do siebie podobne. Warto rozróżnić, że wartości typu 1,7 GB albo 2,7 GB bardziej przypominają pojemności starszych płyt CD-R lub miniaturowych wersji DVD, które w praktyce rzadko się spotyka w codziennym użytkowaniu. Płyta CD-R głównie miała około 700 MB, więc 1,7 GB to nawet nie jest wartość spotykana wśród typowych nośników optycznych tej klasy. Z kolei 2,7 GB to raczej pojemność specjalistycznych wersji DVD, np. mini DVD dwuwarstwowych, które stosowano czasem w kamerach albo urządzeniach przenośnych, ale to zupełnie inna bajka, bo standardowa płyta DVD, używana np. do filmów czy instalacji, zawsze miała te 4,7 GB w wersji jednowarstwowej, jednostronnej. Z drugiej strony, 8,7 GB to już pojemność dwuwarstwowego DVD, oznaczanego jako DVD-9 – takie nośniki były droższe i wymagały specjalnych nagrywarek oraz urządzeń odczytujących, przez co nie przyjęły się tak powszechnie jak zwykłe DVD-5 o pojemności 4,7 GB. Wiele osób może się pomylić, bo 8,7 GB często pojawia się w kontekście kopii zapasowych albo filmów wysokiej jakości, ale technicznie to już dwie warstwy na jednej stronie, a nie jedna. Typowym błędem jest też zaokrąglanie pojemności lub mieszanie wartości binarnych z dziesiętnymi, bo rzeczywista ilość danych, którą można zapisać, czasami jest nieco mniejsza ze względu na system plików i narzut formatowania. Z mojego doświadczenia, jeśli ktoś nie zna specyfikacji branżowych, łatwo ulec wrażeniu, że DVD to zawsze 8 GB, bo tak się kojarzy z dużymi plikami lub filmami w wysokiej jakości. Jednak w praktyce, jednostronne, jednowarstwowe DVD to twarde 4,7 GB – dokładnie tyle, ile podają normy i katalogi producentów.

Pytanie 3

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -1 dB Peak/ -9 dB RMS
B. -0,3 dB Peak/ -7 dB RMS
C. -3 dB Peak/ -12 dB RMS
D. -0,1 dB Peak/ -8 dB RMS
Odpowiedź z wartościami -0,3 dB Peak oraz -7 dB RMS jest zdecydowanie najbardziej trafna, jeśli chodzi o najwyższy średni poziom głośności nagrania. Wynika to z tego, że RMS (Root Mean Square) jest miarą średniej energii sygnału audio i bardziej oddaje faktyczną, odczuwalną głośność niż sam Peak, który pokazuje tylko najwyższy chwilowy poziom. W branży muzycznej i radiowej bardzo często operuje się poziomami RMS, żeby uzyskać głośne, ale wciąż dobrze brzmiące nagrania. Wartość -7 dB RMS to już naprawdę wysoki poziom i często spotyka się ją w nowoczesnych, mocno skompresowanych utworach popowych czy radiowych. Z kolei -0,3 dB Peak oznacza, że sygnał praktycznie nie przekracza progu przesterowania (clippingu), co jest bardzo bliskie maksymalnemu poziomowi dopuszczalnemu w standardzie cyfrowym. W praktyce – taki balans między RMS a Peak świadczy o umiejętnym użyciu kompresji i limitera. Dobrze zrealizowany mastering pozwala wtedy na uzyskanie głośnego, a przy tym nieprzesterowanego i niezmęczonego dla ucha utworu. Moim zdaniem to właśnie wyczucie tych wartości odróżnia profesjonalne produkcje od amatorskich, gdzie często albo przesadza się z głośnością (prowadząc do clipingu), albo zostawia za duży margines i przez to utwór wypada cicho przy innych. Warto pamiętać, że nie wszystkie gatunki muzyczne wymagają tak wysokiego RMS, jednak dla nowoczesnej muzyki rozrywkowej -7 dB RMS to bardzo popularny target.

Pytanie 4

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. expander.
B. multiband compressor.
C. adaptive limiter.
D. compander.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 5

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. De-click
B. Downsampling
C. Noise Reduction
D. De-crackle
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 6

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Konwersja.
C. Filtrowanie.
D. Kompresja.
Filtrowanie w DAW to w zasadzie jeden z najważniejszych sposobów na usuwanie niechcianych zakłóceń z nagrania, w tym właśnie przydźwięku sieci energetycznej, który zazwyczaj pojawia się w okolicach 50 Hz albo 60 Hz, zależnie od kraju. Stosuje się tu filtr dolnozaporowy (high-pass) albo bardziej precyzyjnie filtr typu notch – taki, który wycina bardzo wąskie pasmo częstotliwości. Moim zdaniem, to jest taki must-have w codziennej postprodukcji audio, bo przydźwięk potrafi zrujnować nawet najlepsze nagranie i psuje całą percepcję utworu. W profesjonalnych studiach dźwiękowych praktykuje się stosowanie filtrów z bardzo wąską dobrocią Q, żeby nie wycinać szerszego pasma niż to konieczne i nie tracić naturalności dźwięku – to taka branżowa dobra praktyka. Warto wspomnieć, że w DAW-ach są często gotowe narzędzia typu 'De-Hum' lub dedykowane wtyczki, które automatycznie lokalizują i eliminują przydźwięk. Przykładowo, w takich programach jak Cubase, Pro Tools czy Ableton Live można szybko ustawić odpowiedni filtr i sprawdzić efekt na słuchawkach. Z mojego doświadczenia kluczowe jest, żeby nie przesadzić z filtrowaniem, bo wtedy można przypadkiem „wyciąć” zbyt dużo z sygnału. Generalnie, każda osoba pracująca z dźwiękiem powinna znać podstawowe rodzaje filtrów i umieć je zastosować w praktyce. To się po prostu przydaje i ratuje mnóstwo nagrań.

Pytanie 7

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 10
B. 1
C. 5
D. 2
Wartość dobroci filtru (Q, czyli quality factor) bezpośrednio wpływa na szerokość pasma, które jest obejmowane przez działanie filtru lub korektora. Im wyższa wartość Q, tym filtr obejmuje węższy zakres częstotliwości – działa bardziej selektywnie i precyzyjnie. Natomiast przy niższych wartościach Q zakres częstotliwości, na który filtr oddziałuje, staje się szerszy i bardziej rozciągnięty. W praktyce, jeśli chodzi o zastosowania w akustyce czy elektronice, wybór wartości Q zależy od tego czy chcemy delikatnie korygować szeroki fragment pasma, czy może bardzo precyzyjnie wycinać lub wzmacniać konkretne częstotliwości. Jednak w tym pytaniu pytamy o szerokość pasma objętego przez korektor i tu sprawa jest trochę przewrotna – NAJSZERSZY zakres uzyskujemy przy najniższym Q, czyli Q=1. Tak jest zgodnie z definicją: szerokość pasma jest odwrotnie proporcjonalna do Q. Moim zdaniem na co dzień można się pomylić, bo w praktyce często myślimy o „lepszym” filtrze jako tym precyzyjniejszym, ale tutaj szerszy zakres – czyli mniej precyzyjny, ale rozciągnięty – to właśnie Q=1. Spotyka się to często w prostych korektorach graficznych, gdzie wycinając szerokie pasmo, stosuje się właśnie niskie dobroci. Standardy branżowe, jak np. parametry korektorów w stołach mikserskich, to potwierdzają.

Pytanie 8

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. ramkę.
C. godzinę.
D. sekundę.
Druga para cyfr w zapisie kodu czasowego SMPTE oznacza minuty – to jest właśnie ten fragment kodu, który pokazuje, ile minut upłynęło od początku nagrania. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) przyjął czteroparowy format zapisu: gg:mm:ss:ff – godzina, minuta, sekunda, klatka. Moim zdaniem bez tej wiedzy bardzo łatwo się pogubić, pracując przy montażu wideo czy zgraniach wielościeżkowych. Wyobraź sobie sytuację podczas postprodukcji filmu: reżyser zaznacza ci, że kluczowa scena zaczyna się dokładnie w 00:42:15:12 – i od razu wiadomo, że to 42 minuta, 15 sekunda i 12 klatka. To pomaga idealnie zsynchronizować obraz z dźwiękiem, podmieniać efekty, a nawet dogrywać muzykę, szczególnie jeśli korzystasz z profesjonalnych programów, jak Pro Tools czy Adobe Premiere. Standard SMPTE jest stosowany dosłownie wszędzie w branży telewizyjnej, filmowej czy nawet podczas transmisji na żywo, bo precyzyjne oznaczanie czasu pozwala uniknąć błędów w montażu. Z mojego doświadczenia – warto to mieć w małym palcu, bo gdy liczy się każda sekunda, to te minuty w kodzie czasowym naprawdę robią robotę. Fajnie jest też wiedzieć, że niektóre starsze systemy używały różnych separatorów lub nawet innych kolejności, ale w praktyce branżowej od dekad króluje właśnie to rozwiązanie.

Pytanie 9

Teoretyczna maksymalna dynamika cyfrowego sygnału fonicznego przy 20-bitowej rozdzielczości wynosi

A. 192 dB
B. 96 dB
C. 144 dB
D. 120 dB
Dobra robota, bo właśnie 120 dB to teoretyczna maksymalna dynamika sygnału cyfrowego przy 20-bitowej rozdzielczości. Wynika to z faktu, że każde dodatkowe 1 bit podnosi zakres dynamiki o około 6 dB. Jeśli sobie policzymy: 20 bitów razy 6 dB, wychodzi równo 120 dB. To jest całkiem spora wartość – porównywalna z dynamiką dźwięków od bardzo cichego szeptu po silny hałas w codziennym otoczeniu, jak np. startujący samolot w pobliżu. W praktyce taki zakres dynamiki stosuje się w profesjonalnych systemach nagraniowych czy studyjnych, gdzie ważne jest uchwycenie najdrobniejszych niuansów i detali w nagraniach. Warto też wiedzieć, że popularny standard CD-Audio korzysta z 16 bitów (czyli około 96 dB dynamiki), ale w zastosowaniach audiofilskich czy w produkcji muzyki coraz częściej spotyka się formaty 20-bitowe albo nawet 24-bitowe, które jeszcze bardziej rozszerzają potencjał nagrań. Ja ze swojego doświadczenia mogę powiedzieć, że ta większa dynamika naprawdę robi różnicę, zwłaszcza przy masteringu – można wtedy pracować z naprawdę subtelnymi szczegółami bez strachu o szumy i zniekształcenia. Oczywiście warto pamiętać, że w realnych warunkach szumy sprzętu czy ograniczenia przetworników trochę zawężają tę dynamikę, ale teoretycznie 120 dB dla 20 bitów to już poziom, na którym nawet bardzo wymagające aplikacje audio dostają to, czego potrzebują.

Pytanie 10

Czym jest normalizacja nagrania (peak normalization)?

A. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
B. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
C. Obniżeniem średniego poziomu nagrania o 3 dB
D. Obniżeniem szczytowego poziomu nagrania o 3 dB
Normalizacja szczytowa (ang. peak normalization) polega na zwiększeniu poziomu sygnału tak, żeby najwyższy punkt (czyli szczyt) nagrania osiągnął określony poziom — najczęściej 0 dBFS w przypadku pracy ze ścieżkami cyfrowymi. To jest standard w audio, szczególnie jeśli chcemy wycisnąć maksimum z głośności materiału, ale nie dopuścić do przesteru. Taki zabieg nie zmienia proporcji między cichszymi a głośniejszymi fragmentami nagrania, więc charakterystyka dynamiczna pozostaje nietknięta. Moim zdaniem to właśnie czyni normalizację szczytową bardzo bezpieczną i przewidywalną — nie ma tu zagrożenia, że nagle środek utworu zrobi się za głośny albo cisza w tle zniknie. W praktyce stosuje się ją np. przed masteringiem albo przygotowując pliki do publikacji, żeby uniknąć niepotrzebnych niespodzianek z poziomami między różnymi utworami. Trzeba mieć na uwadze, że 0 dBFS to granica w świecie cyfrowym — wyżej już się po prostu nie da, bo pojawi się clipping. Warto jeszcze dodać, że normalizacja szczytowa bywa często mylona z normalizacją RMS (średnią), która zmienia całościową głośność odbieraną przez ucho, jednak w branży audio peak normalization to taki 'must-have', szczególnie przy zgrywaniu miksu na master track.

Pytanie 11

Który z wymienionych nośników charakteryzuje się największą pojemnością?

A. CD-R
B. BD-XL
C. HD DVD
D. DVD18
BD-XL naprawdę robi wrażenie, jeśli chodzi o pojemność. W praktyce ten typ płyty Blu-ray może pomieścić nawet do 128 GB danych w wersji czterowarstwowej, co jest ogromną różnicą w porównaniu do standardowych płyt CD-R (700 MB), DVD18 (około 17 GB) czy nawet HD DVD (do 30 GB). Z mojego doświadczenia wynika, że BD-XL sprawdza się świetnie w zastosowaniach archiwizacyjnych, szczególnie tam, gdzie liczy się długowieczność nośnika i bezpieczeństwo danych. W branży filmowej czy w dużych archiwach cyfrowych coraz częściej można spotkać się z użyciem właśnie takich rozwiązań, bo pozwalają na przechowywanie dużych plików bez konieczności dzielenia ich na mniejsze części. Standard Blu-ray, a szczególnie jego rozszerzenia takie jak BD-XL, powstały właśnie w odpowiedzi na rosnące zapotrzebowanie na większe pojemności przy zachowaniu wymiarów tradycyjnych płyt optycznych. To bardzo praktyczne, gdy trzeba np. zarchiwizować całe sesje zdjęciowe w RAW-ach albo profesjonalne produkcje wideo w 4K i wyższych rozdzielczościach. Trochę szkoda, że te nośniki nie weszły pod strzechy tak jak kiedyś DVD czy CD, bo jednak napędy BD-XL są droższe i mniej powszechne, ale w profesjonalnych zastosowaniach – bez dwóch zdań warto znać tę technologię.

Pytanie 12

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 192 dB
B. 144 dB
C. 48 dB
D. 96 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 13

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. FLAC
B. WAV
C. MP3
D. RIFF
Format MP3 to chyba najpowszechniejszy przykład kodowania stratnego w świecie plików audio. Cała idea polega na tym, że dane dźwiękowe są kompresowane w taki sposób, by plik był dużo mniejszy niż oryginał, a dla przeciętnego słuchacza jakość brzmiała prawie identycznie z oryginałem – szczególnie przy wyższych bitrate'ach. Kluczowe jest tutaj to, że MP3 wykorzystuje psychoakustykę, czyli usuwa te fragmenty dźwięku, których ludzki słuch i tak najprawdopodobniej by nie wychwycił. To sprawia, że pliki MP3 są idealne do przechowywania muzyki na urządzeniach mobilnych, wysyłania przez internet czy wykorzystywania w serwisach streamingowych. Standard ISO/IEC 11172-3 dokładnie opisuje, jak ta kompresja ma wyglądać, by zachować jak najlepszą równowagę między wielkością pliku a jakością dźwięku. Z mojego doświadczenia w pracy z dźwiękiem mogę powiedzieć, że MP3 to nie jest format dla audiofilów, ale do codziennego słuchania sprawdza się znakomicie. W praktyce nadal ma ogromne zastosowanie, chociaż coraz częściej wypierany jest przez nowsze rozwiązania jak AAC czy Ogg Vorbis, które dają lepszą jakość przy podobnym rozmiarze pliku. Warto pamiętać, że kodowanie stratne jest kluczowe w sytuacjach, gdzie zależy nam na oszczędności miejsca lub szybkości transmisji – na przykład przy podcastach, muzyce w serwisach internetowych czy dzwonkach telefonicznych.

Pytanie 14

Dokumentacją, stanowiącą podstawę produkcji słuchowiska radiowego, jest

A. scenopis.
B. licencja.
C. utwór literacki.
D. scenariusz.
Scenariusz to absolutna podstawa przy produkcji słuchowiska radiowego. Bez niego ciężko wyobrazić sobie profesjonalną realizację – to właśnie ten dokument dokładnie opisuje przebieg akcji, kwestie bohaterów, didaskalia, wszystkie efekty dźwiękowe i muzyczne, a nawet wskazówki dotyczące intonacji czy tempa wypowiedzi. W praktyce scenariusz pełni taką rolę jak partytura w orkiestrze – każdy członek ekipy wie, kiedy wchodzi jego rola i co dokładnie powinno być zrobione. Standardy branżowe, szczególnie w rozgłośniach publicznych, zakładają, że bez kompletnego scenariusza nie rozpoczyna się prób nagraniowych ani montażu. Z mojego doświadczenia wynika, że dobrze przygotowany scenariusz pozwala uniknąć chaosu i znacznie skraca czas produkcji, bo wszystko jest rozpisane „czarno na białym”. Warto pamiętać, że scenariusz w radiu jest jeszcze ważniejszy niż np. w teatrze, bo medium opiera się wyłącznie na dźwięku i nie ma miejsca na improwizację wizualną. Często spotykałem się z opinią, że dobry scenariusz to połowa sukcesu – w pełni się z tym zgadzam. Dobrą praktyką jest także zostawienie marginesu na drobne adaptacje podczas nagrania, ale zawsze bazą jest właśnie scenariusz. Przy produkcjach profesjonalnych nie istnieje opcja pracy bez tego dokumentu.

Pytanie 15

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. High Shelf
B. HPF
C. LPF
D. Comb Filter
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 16

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. edycji nagrania.
B. zapisywania pliku wynikowego.
C. masteringu nagrania.
D. wciągania plików dźwiękowych do sesji montażowej.
Wybór ostatecznego formatu i parametrów pliku dźwiękowego to, moim zdaniem, jeden z najważniejszych momentów w całym procesie pracy z dźwiękiem. To właśnie podczas zapisywania pliku wynikowego decydujesz, czy Twój utwór będzie w formacie WAV, MP3, FLAC, a może jeszcze innym. Wtedy ustawiasz też takie rzeczy jak częstotliwość próbkowania (na przykład 44,1 kHz lub 48 kHz), głębię bitową (16 bitów, 24 bity), ewentualną kompresję i wiele innych detali. Dlatego branżowym standardem jest, żeby na tym etapie być bardzo uważnym – nie raz już widziałem, jak nawet świetne miksy traciły na jakości przez nieprzemyślany eksport. Przykładowo, jeśli nagrywasz muzykę na CD, musisz wyeksportować plik do WAV 16 bitów 44,1 kHz, bo taki jest wymóg płyty. Z kolei do serwisów streamingowych często zaleca się eksport 24 bity i 48 kHz, nawet jeśli finalnie pliki zostaną przekonwertowane, bo zachowuje się wtedy lepszą jakość źródłową. Dobrym zwyczajem jest też przygotowanie kilku wersji pliku: osobno do masteringu, osobno na streaming i osobno do archiwum – to bardzo pomaga uniknąć późniejszych problemów z kompatybilnością. Ustawienia te nie są wybierane automatycznie ani w trakcie montażu, ani podczas masteringu – zawsze musisz świadomie podjąć decyzję tuż przed eksportem. No i pamiętaj: formaty stratne (MP3, AAC) zawsze pogorszą jakość względem bezstratnych (WAV, FLAC), więc jeśli nie musisz, lepiej używaj bezstratnych. W mojej opinii, to właśnie kontrola nad eksportem decyduje o końcowej jakości pliku.

Pytanie 17

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/10 sekundy.
C. wyciszenie dźwięku, trwające 1/100 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 18

Który z wymienionych standardów zapisu płyty CD pozwala na jednoczesny zapis danych binarnych oraz audio?

A. CD-DA
B. SACD
C. E-CD
D. HDCD
Standard E-CD, znany także jako Enhanced CD albo CD Extra, jest naprawdę ciekawym rozwiązaniem, bo pozwala na jednoczesne umieszczenie na jednej płycie zarówno ścieżek audio, jak i danych binarnych (np. teledysków, grafik, plików tekstowych, programów). Działa to w ten sposób, że płyta jest podzielona na dwie sesje – pierwsza zawiera tradycyjne ścieżki audio, które odtworzysz w każdym zwykłym odtwarzaczu CD-Audio, a druga sesja zawiera dane komputerowe widoczne po włożeniu krążka do komputera. Ten standard pojawił się głównie w latach 90., kiedy coraz częściej kupowało się płyty muzyczne z dodatkowymi multimedialnymi materiałami – na przykład, wkładasz CD do wieży, słuchasz muzyki, a jak wrzucisz do peceta, masz dostęp do tapet, klipów czy nawet prostych gier. Moim zdaniem to był taki fajny kierunek w czasach, gdy Internet nie był jeszcze tak powszechny i dawał dodatkową wartość użytkownikom. E-CD jest zgodny z normą Blue Book, która precyzuje, jak powinny być strukturyzowane dane na płycie, żeby nie było konfliktów między odtwarzaczami audio i komputerami. Branża muzyczna doceniła ten standard właśnie za uniwersalność i możliwość łączenia różnych rodzajów treści na jednym nośniku, co dla wydawców też było atrakcyjne. Sam pamiętam, że te płyty były często reklamowane jako „interaktywne” i czasem właśnie dzięki nim można było zobaczyć wywiad z artystą czy unikalne zdjęcia – niby prosta rzecz, ale swego czasu robiła wrażenie.

Pytanie 19

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 16 bitowej?

A. 192 dB
B. 48 dB
C. 144 dB
D. 96 dB
Maksymalna dynamika nagrania audio w jakości 16-bitowej to 96 dB i to nie jest wcale przypadkowa liczba. Wynika ona wprost z matematyki zapisu cyfrowego: każdy bit zwiększa zakres dynamiczny o około 6 dB, więc 16 bitów daje 16 × 6 = 96 dB. Moim zdaniem to wciąż całkiem sporo, zwłaszcza patrząc na warunki domowego odsłuchu czy nagrywania instrumentów w studiu. W praktyce taki zakres pozwala uchwycić zarówno bardzo ciche, jak i bardzo głośne fragmenty dźwięku bez wyraźnych zniekształceń czy szumów quantyzacji, które są bardziej widoczne przy niższych rozdzielczościach. Standard CD Audio wykorzystuje właśnie 16 bitów i przez lata był uznawany za wystarczający nawet dla wymagających słuchaczy. Oczywiście, przy profesjonalnych produkcjach stosuje się często 24 bity, co daje jeszcze większy zakres dynamiczny i niższy poziom szumów, ale do większości zastosowań 16 bitów jest po prostu wystarczające. Z mojego doświadczenia wynika, że większość problemów w miksie nie wynika z ograniczeń dynamiki, tylko raczej z błędów w gain stagingu czy nieumiejętnego użycia kompresji. Warto też pamiętać, że typowe warunki odsłuchowe – domowe pokoje czy samochód – i tak mają ograniczenia akustyczne dużo poniżej tych 96 dB. Ogólnie rzecz biorąc, znajomość tych cyfr pomaga lepiej zrozumieć, jak działa sprzęt audio i dlaczego standardy przyjęły się właśnie takie, a nie inne.

Pytanie 20

W którym z wymienionych dokumentów normatywnych zapisana jest specyfikacja techniczna płyt CD-DA?

A. W Niebieskiej Księdze.
B. W Czerwonej Księdze.
C. W Żółtej Księdze.
D. W Zielonej Księdze.
Czerwona Księga, czyli Red Book, to absolutna podstawa, jeżeli chodzi o techniczne aspekty płyt CD-DA (Compact Disc Digital Audio). To właśnie w tym dokumencie, stworzonym w latach 80. przez firmy Sony i Philips, szczegółowo opisano nie tylko jak fizycznie wygląda płyta CD, ale też w jaki sposób kodowany jest na niej dźwięk, jakie są parametry próbkowania (44,1 kHz, 16 bitów), odstępy między ścieżkami oraz jak powinno wyglądać zapisywanie informacji kontrolnych. Moim zdaniem, każda osoba związana z audio czy archiwizacją cyfrową powinna choć raz przejrzeć podstawowe założenia Red Booka. W praktyce to właśnie ten standard sprawił, że płyty CD mogły być odtwarzane na dowolnym sprzęcie i zachowywały uniwersalność, co do dziś wykorzystuje się np. w studiach nagraniowych, podczas masteringu lub archiwizacji utworów muzycznych. W branży muzycznej Czerwona Księga to coś jak Biblia dla CD – bez jej wytycznych nie byłoby zgodności między różnymi producentami czy urządzeniami. Fajne jest to, że nawet współczesne odtwarzacze CD bazują na tej specyfikacji, więc nagrania przygotowane zgodnie z Red Bookiem praktycznie zawsze będą prawidłowo odczytywane. To jest właśnie siła standaryzacji i dobrych praktyk technicznych.

Pytanie 21

Która z wymienionych funkcji w sesji programu DAW standardowo umożliwia wielokrotne powtórzenie zaznaczonego fragmentu materiału dźwiękowego na ścieżce?

A. TRIM
B. RECALL
C. MOVE
D. DUPLICATE
Funkcja DUPLICATE to naprawdę jedno z częściej używanych narzędzi podczas pracy w sesji DAW, zwłaszcza jeśli chodzi o szybkie powielanie fragmentów audio czy MIDI. Po prostu zaznaczasz fragment klipu, sekwencji lub regionu, wciskasz DUPLICATE – czy to przez menu, czy typowy skrót klawiszowy, na przykład Ctrl+D w Abletonie czy Pro Tools – i od razu masz kopię tuż obok. Wielu realizatorów pracuje tak z hi-hatami, loopami perkusyjnymi, refrenami, żeby nie marnować czasu na żmudne kopiowanie czy przeciąganie. To jest super wygodne, bo zachowuje synchronizację z siatką tempa i aranżacją. Moim zdaniem, nie wyobrażam sobie efektywnej pracy w DAW bez tej opcji, zwłaszcza przy edycji muzyki elektronicznej czy nawet podcastów, gdzie potrzebne są powtarzalne elementy. Warto dodać, że większość profesjonalnych DAW traktuje funkcję DUPLICATE jako standard, więc niezależnie od programu zasada działania jest praktycznie taka sama. Czasami dopiero po kilku projektach docenia się, jak bardzo oszczędza to czas i minimalizuje ryzyko błędu przy manualnym kopiowaniu. Dla mnie to wręcz podstawa workflow, szczególnie kiedy trzeba szybko budować aranżacje czy eksperymentować z loopami. I jeszcze jedno – DUPLICATE często współpracuje z tzw. funkcją 'repeat', co pozwala od razu powielić fragment nie 1, ale np. 4 czy 8 razy. Naprawdę warto to opanować na pamięć!

Pytanie 22

Plik w formacie CD-Audio posiada następujące parametry:

A. 24 bit, 96 kHz.
B. 24 bit, 44,1 kHz.
C. 24 bit, 48 kHz.
D. 16 bit, 44,1 kHz.
CD-Audio, czyli popularne płyty kompaktowe odtwarzane przez klasyczne odtwarzacze, mają bardzo sztywno ustalony standard zapisu dźwięku. Jest to dokładnie 16 bitów rozdzielczości próbkowania i 44,1 kHz częstotliwości próbkowania. Nie bez powodu — taki wybór parametrów był kompromisem między jakością, pojemnością płyty i możliwościami technicznymi z lat 80. XX wieku. 16 bitów pozwala na uzyskanie dynamiki na poziomie około 96 dB, co w warunkach domowych w zupełności wystarcza do wiernego odwzorowania większości materiału muzycznego. 44,1 kHz wynika natomiast z teorii Nyquista – pozwala na prawidłowe odwzorowanie dźwięków do 22,05 kHz, czyli ciut ponad granicę słyszalności ludzkiego ucha. Właśnie dlatego większość płyt CD brzmi tak, a nie inaczej, i nie znajdziesz płyty audio z innymi parametrami. Co ciekawe, wyższe wartości jak 24 bit czy 96 kHz spotkasz raczej w plikach studyjnych albo formatach typu FLAC lub SACD, których zwykłe odtwarzacze CD nie odczytują. Moim zdaniem wiedza o tych parametrach bywa bardzo praktyczna – np. przy zgrywaniu (tzw. ripowaniu) płyt CD na komputer, warto ustawić właśnie 16 bit / 44,1 kHz, żeby niepotrzebnie nie powiększać plików bez żadnej korzyści jakościowej.

Pytanie 23

Które z wymienionych określeń oznacza proces ustalania proporcji głośności dźwięku pomiędzy poszczególnymi ścieżkami w wielośladowej sesji montażowej programu DAW?

A. Mixing.
B. Overdubbing.
C. Fading.
D. Recording.
Mixing to kluczowy etap w pracy z dźwiękiem, szczególnie przy sesjach wielośladowych w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live. Chodzi tu właśnie o umiejętne ustalenie proporcji głośności pomiędzy ścieżkami – np. wokalem, perkusją, gitarą i innymi instrumentami – żeby całość dobrze zabrzmiała jako jeden spójny utwór. To trochę jak z gotowaniem: nie możesz zostawić jednego składnika dominującego, bo zrujnuje cały przepis. W branży muzycznej mówi się, że dobry miks to taki, gdzie każdy element jest słyszalny, ale żaden nie "wychodzi przed szereg" bez powodu. Standardowo najpierw ustawia się poziomy głośności (tzw. balans), potem dodaje się efekty (np. korekcję, kompresję, pogłos). Z mojego doświadczenia bywa, że to właśnie proporcje decydują o tym, czy kawałek brzmi profesjonalnie, czy amatorsko. Praktyczna rada: warto porównywać swój miks z referencyjnymi utworami, to pomaga złapać właściwy balans. Mixing to też sztuka kompromisu – w dużych projektach można korzystać z automatyki, żeby ścieżki zmieniały głośność w określonych momentach. To naprawdę fascynujący i kreatywny proces, który wymaga ucha, wiedzy technicznej i odrobiny wyczucia. Warto zapamiętać, że bez dobrego miksu nawet świetnie nagrane ślady nie będą robić wrażenia.

Pytanie 24

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 192 kHz
C. 44,1 kHz
D. 96 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 25

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. MIDI EDITOR
B. MIX
C. EDIT
D. SCORE EDITOR
Okno SCORE EDITOR to kluczowa funkcja w wielu zaawansowanych programach DAW, zwłaszcza tych używanych do produkcji muzyki filmowej, klasycznej czy aranżacji orkiestrowych. Dzięki niemu można nie tylko zobaczyć zapis nutowy istniejących partii MIDI, ale też ręcznie wprowadzać i edytować nuty oraz kontrolować wszystkie niuanse wykonawcze typowe dla partytur. Moim zdaniem to jedno z tych narzędzi, które naprawdę otwiera nowe możliwości dla osób lepiej czujących się w tradycyjnej notacji muzycznej niż w samym edytorze pianolowym czy sekwencerze. W praktyce SCORE EDITOR pozwala na szybkie poprawki artykulacji, dynamiki czy akcentów, co jest bardzo istotne np. przy przygotowywaniu materiałów do wydruku dla żywych muzyków albo eksportu nut do innych systemów notacji. Wśród profesjonalistów przyjęło się, że SCORE EDITOR to właśnie miejsce do precyzyjnej pracy z zapisem nutowym i do przygotowywania aranżacji na różne składy instrumentalne. W Cubase, Logic Pro czy Studio One to narzędzie jest standardowym wyposażeniem, bo po prostu bez tego trudno byłoby komfortowo tworzyć bardziej złożoną muzykę z myślą o instrumentalistach. Z mojego doświadczenia wynika, że jeśli ktoś myśli poważnie o muzyce, warto nauczyć się obsługi SCORE EDITORA, bo nawet proste poprawki mogą mocno przełożyć się na końcowe brzmienie i czytelność utworu.

Pytanie 26

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 7 kanałów.
B. 1 kanału.
C. 5 kanałów.
D. 3 kanałów.
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.

Pytanie 27

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Transpozycja.
B. Korekcja.
C. Kompresja.
D. Normalizacja.
Normalizacja to proces cyfrowy, który polega na takim podniesieniu poziomu całego nagrania, żeby jego najwyższy szczyt osiągnął dokładnie 0 dBFS (czyli digital full scale). To bardzo przydatne, gdy miksujesz utwory pochodzące z różnych źródeł i chcesz mieć pewność, że żaden nie będzie cichszy od reszty. Przykładowo, jeśli nagranie ma maksymalny poziom -6 dBFS, po normalizacji całość zostanie podbita o 6 dB, tak żeby najwyższy pik dotykał właśnie 0 dBFS, ale żadne miejsce w pliku nie będzie przesterowane (przynajmniej w teorii). Moim zdaniem to super narzędzie, szczególnie na etapie przygotowania materiałów do dalszej obróbki albo podczas masteringu — pozwala zachować kontrolę nad poziomami. W profesjonalnych studiach normalizacja jest często jednym z pierwszych kroków przed dalszą pracą, bo daje czyste pole startowe. Warto jednak wiedzieć, że normalizacja nie wpływa na dynamikę materiału, nie spłaszcza ani nie wyrównuje różnicy między najcichszymi a najgłośniejszymi fragmentami, tylko zachowuje proporcje, podbijając wszystko równo. To jest taka podstawowa, praktyczna czynność, którą powinien znać każdy, kto obrabia dźwięk cyfrowy, bo po prostu ułatwia życie i pozwala na przewidywalne rezultaty.

Pytanie 28

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 8 MB
B. 14 MB
C. 17 MB
D. 11 MB
To jest właśnie poprawna odpowiedź – około 17 MB to rzeczywiście prawidłowa wartość dla pliku stereo o takich parametrach. Wynika to bezpośrednio z prostych obliczeń: mamy dwie ścieżki (stereo), każda próbkowana z częstotliwością 48 000 Hz i rozdzielczością 24 bity, co daje 48 000 x 24 bity x 2 kanały x 60 sekund = 138 240 000 bitów na minutę. Po przeliczeniu na bajty i megabajty wychodzi około 16,5 MB (1 bajt = 8 bitów, 1 MB = 1 048 576 bajtów). W praktyce pliki WAV i inne formaty nieskompresowane nie mają żadnej kompresji, więc ich objętość łatwo przewidzieć. Moim zdaniem to bardzo ważna umiejętność dla każdego, kto pracuje z audio – zarówno w studiu, jak i podczas przygotowywania materiałów do archiwizacji lub transmisji. Dzięki temu można dobrze zaplanować pojemność nośników czy serwerów. Często spotyka się błędne zaokrąglenia w obliczeniach, ale profesjonalista zawsze uwzględnia rzeczywistą rozdzielczość i liczbę kanałów. To też pokazuje, dlaczego produkcja dźwięku w wysokiej jakości wymaga sporo miejsca – nie tylko jeśli chodzi o miksowanie, ale nawet przy prostym nagrywaniu. Z mojego doświadczenia widać, że wiele osób nie docenia, jak szybko rosną wymagania na dysku przy pracy z wysoką jakością audio. Warto to mieć na uwadze, planując budżet czy infrastrukturę IT w studiu nagraniowym.

Pytanie 29

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. VIEW
B. TRACK
C. EDIT
D. EVENT
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 30

Który z wymienionych nośników jest nośnikiem analogowym?

A. Kaseta CC
B. Płyta DVD
C. Kaseta DAT
D. Płyta CD
Kaseta CC, czyli popularna „kaseta magnetofonowa”, to klasyczny przykład nośnika analogowego. Jej działanie opiera się na magnetycznym zapisie sygnału analogowego, czyli płynnie zmieniającego się w czasie sygnału dźwiękowego. Moim zdaniem, właśnie ta płynność odróżnia nośniki analogowe od cyfrowych – na kasecie nie znajdziesz zer i jedynek, a raczej ciągłą ścieżkę namagnesowania, odpowiadającą oryginalnemu przebiegowi dźwięku. W praktyce znaczy to, że odtwarzanie muzyki z kasety CC może dawać charakterystyczne szumy i zniekształcenia, ale też taki „ciepły” dźwięk, na który niektórzy audiofile narzekają, a inni go uwielbiają. W branży technicznej kasety były standardem archiwizacji i przenoszenia dźwięku przez wiele lat – szczególnie w latach 80. i 90. Nadal można spotkać je w archiwach radiowych czy prywatnych kolekcjach. Co ciekawe, standard kasety CC został opracowany już w 1963 roku przez firmę Philips i przez dekady doczekał się wielu ciekawych rozwiązań, jak np. system Dolby do redukcji szumów. Dziś kasety są trochę zapomniane, ale ich analogowy charakter świetnie obrazuje, czym różnią się media analogowe od cyfrowych – właśnie w sposobie zapisu i odtwarzania informacji. Takie nośniki wymagają mechanicznej głowicy, która „czyta” zmiany pola magnetycznego na taśmie, co jest zupełnie innym podejściem niż w przypadku płyt CD czy DVD. Używanie kaset uczy szacunku do fizycznych ograniczeń mediów i pokazuje, jak wyglądała praca z dźwiękiem zanim weszliśmy w cyfrową erę. Z mojego doświadczenia wynika, że nawet dzisiaj warto znać zasady działania takich nośników, bo daje to dobre podstawy do zrozumienia rozwoju techniki zapisu danych.

Pytanie 31

Które z wymienionych parametrów wskazują na plik o najniższej jakości?

A. 48 kHz, 24 bit
B. 32 kHz, 32 bit
C. 44.1 kHz, 16 bit
D. 96 kHz, 8 bit
Wybierając opcję 96 kHz, 8 bit, zwróciłeś uwagę na bardzo ważną rzecz: liczba bitów w próbkowaniu ma ogromny wpływ na jakość dźwięku. Częstotliwość próbkowania, czyli te 96 kHz, na pierwszy rzut oka wygląda imponująco i rzeczywiście umożliwia rejestrowanie bardzo wysokich częstotliwości – znacznie powyżej słyszalnych dla ludzkiego ucha. Jednak realnie to rozdzielczość bitowa (w tym przypadku tylko 8 bitów) decyduje o dynamice i szczegółowości nagrania. 8 bitów to bardzo mało, daje tylko 256 możliwych poziomów głośności. Oznacza to, że w praktyce taki plik będzie charakteryzował się bardzo wyraźnym szumem kwantyzacji, brakiem szczegółów w cichych fragmentach i ogólnie sztucznym, "płaskim" brzmieniem. W dzisiejszych standardach nawet telefony komórkowe czy nagrania przewidziane do archiwizacji dźwięku mają co najmniej 16 bitów. Przykładowo, format CD Audio to 44,1 kHz/16 bit, co uchodzi za rozsądny kompromis między jakością a wielkością pliku. Moim zdaniem, niezależnie od tego, jak wysoką częstotliwość próbkowania ustawimy, jeśli ilość bitów jest niska, to traci się wszystkie zalety wysokiej częstotliwości. W studiach czy produkcji muzycznej 24 bity to już w zasadzie standard. Pliki 8-bitowe mają sens tylko w archiwalnych rozwiązaniach albo w syntezatorach retro. W praktyce lepiej mieć niższą częstotliwość, ale wyższą rozdzielczość bitową – wtedy dźwięk brzmi naturalniej i ma lepszą dynamikę. To właśnie dlatego opcja 96 kHz, 8 bit jest zdecydowanie najniższej jakości spośród podanych.

Pytanie 32

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .wav
B. .m4a
C. .ape
D. .flac
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 33

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. AUDIO
B. AUX
C. MIDI
D. INSTRUMENTS
Ścieżka AUX w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, jest od lat podstawą do obsługi efektów typu send/return, zwłaszcza pogłosów czy delayów. Wysyłka sygnału na AUX oznacza, że nie musisz instancjonować efektu pogłosowego osobno na każdej ścieżce – wystarczy jedna instancja pogłosu na AUX, a poszczególne kanały wysyłają do niej sygnał przez sendy. To nie tylko ułatwia miksowanie, ale też znacznie oszczędza zasoby komputera, bo nie kopiujesz tego samego efektu kilka razy. Bardzo często ustawia się tam też kompresory równoległe czy efekty modulacyjne, zależnie od potrzeb miksu. Moim zdaniem, to absolutna podstawa workflow w miksie – praktycznie każdy szanujący się realizator pracuje z AUX-ami. Daje to spójną przestrzeń pogłosową dla wszystkich ścieżek, co brzmi znacznie bardziej naturalnie. Warto też wiedzieć, że w nomenklaturze niektórych DAW AUX może być nazywany jako Bus lub Return, ale funkcja pozostaje ta sama. Dobrą praktyką branżową jest też zostawianie sobie kilku AUX-ów na różne typy pogłosów (np. krótszy na wokal, dłuższy na instrumenty). Taki routing pozwala mieć pełną kontrolę nad ilością efektu na każdej ścieżce i daje mega swobodę kreatywną w miksie.

Pytanie 34

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 80 minut.
B. 90 minut.
C. 60 minut.
D. 70 minut.
Właśnie tak – płyta CD-Audio o pojemności 700 MB pozwala na zapisanie maksymalnie około 80 minut dźwięku w standardzie Red Book, czyli podstawowym formacie CD-Audio. Wynika to z parametrów technicznych: dźwięk zapisywany jest jako nieskompresowany sygnał PCM, stereo, 16 bitów na próbkę i 44,1 kHz. To daje około 10 MB miejsca na każdą minutę muzyki – trochę więcej, bo uwzględnia się jeszcze nadmiarowość i korekcję błędów, ale mniej więcej tak się to liczy. 700 MB to właśnie te pełne 80 minut – takie płyty najczęściej spotyka się w sklepach muzycznych czy w bibliotekach audio. Moim zdaniem, praktycznie wszyscy profesjonaliści i realizatorzy dźwięku liczą się z tym limitem, bo jeśli materiał jest dłuższy, trzeba go dzielić na dwie płyty albo stosować inne nośniki. Warto wiedzieć, że starsze płyty miały pojemność 650 MB i wtedy na jednym krążku mieściło się tylko 74 minuty muzyki – to taki historyczny smaczek. Z mojego doświadczenia, w studiu nagraniowym te ograniczenia trzeba mieć cały czas z tyłu głowy, żeby nie zaskoczyć się podczas masteringu. Standard Red Book jest tu po prostu nie do przeskoczenia – każda próba zapisu dłuższego materiału grozi brakiem kompatybilności z klasycznymi odtwarzaczami CD. Jest to więc praktyczny limit, z którym warto się zaprzyjaźnić, jeśli myślimy o wydawaniu muzyki na CD.

Pytanie 35

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Stereo
B. Dolby TrueHD
C. Dolby Digital
D. Dolby Digital Live
Dolby TrueHD to zaawansowany format dźwięku wielokanałowego, który został opracowany specjalnie z myślą o zapewnieniu najwyższej jakości audio na nośnikach Blu-ray Disc. W przeciwieństwie do większości popularnych kodeków, takich jak Dolby Digital, TrueHD pozwala na zapis i odtwarzanie dźwięku w pełni bezstratnie, co oznacza, że nie traci się żadnych informacji względem oryginalnego materiału studyjnego. To rozwiązanie umożliwia obsługę nawet 8 kanałów (czyli konfiguracja 7.1), co jest wykorzystywane w nowoczesnych systemach kina domowego. Sygnał zakodowany w Dolby TrueHD zachowuje wszystkie detale, dynamikę i przestrzenność miksu, co ma ogromne znaczenie podczas projekcji filmów akcji, koncertów czy gier wideo na dużych ekranach i profesjonalnym sprzęcie audio. W branży filmowej i muzycznej Dolby TrueHD jest bardzo ceniony właśnie za tę jakość – można powiedzieć, że jest to takie audiofilskie podejście do domowej rozrywki. Z mojego doświadczenia, jeśli ktoś naprawdę chce poczuć, jak brzmią filmy czy muzyka w wersji zbliżonej do tego, co słyszeli inżynierowie dźwięku w studiu, to właśnie TrueHD jest tym wyborem, zwłaszcza na nośnikach Blu-ray. Producenci sprzętu audio-video od lat wspierają ten standard i jest to bezdyskusyjnie preferowana metoda zapisu wielokanałowego dźwięku bez strat jakości.

Pytanie 36

Jaki jest czas trwania 441 próbek dźwięku cyfrowego, gdy częstotliwość próbkowania dźwięku wynosi 44,1 kHz?

A. 100 ms
B. 1000 ms
C. 1 ms
D. 10 ms
Sporo osób myli się przy tego typu pytaniach, bo częstotliwości i liczba próbek w systemach cyfrowych audio nie są intuicyjne, zwłaszcza jeśli ktoś nie miał jeszcze okazji pracować praktycznie z DAW-ami albo sprzętem nagraniowym. Często można założyć, że 441 próbek to będzie 1 ms – bo wygląda znajomo, jakby to była jakaś okrągła wartość. Tymczasem 1 ms to tylko 44,1 próbki przy 44,1 kHz, a 441 próbek to aż dziesięć razy dłużej. Pomylenie jednostek to kolejny typowy błąd – łatwo podstawić sekundy zamiast milisekund albo odwrotnie, szczególnie jeśli ktoś zaokrągla liczby na oko. Zdarza się też, że osoby uczące się traktują próbki jak pojedyncze, bardzo krótkie impulsy i wyobrażają sobie, że 441 próbek to już prawie sekunda, bo liczba wydaje się duża. Nic bardziej mylnego – pełna sekunda przy 44,1 kHz to aż 44 100 próbek. Z drugiej strony, 100 ms czy nawet 1000 ms (czyli cała sekunda) to odpowiednio 4410 i 44 100 próbek, więc te wartości są zdecydowanie za duże, jeśli chodzi o zaledwie 441 próbek. W branży bardzo ważne jest, żeby umieć sprawnie przeliczać próbki na czas i odwrotnie, bo od tego zależy precyzja montażu audio, synchronizacja efektów czy poprawne ustawienie parametrów wtyczek. Moim zdaniem najlepiej zapamiętać, że przy 44,1 kHz każda próbka to ok. 0,023 ms, a 441 próbek to właśnie 10 ms – to ułatwia życie i eliminuje te popularne pomyłki. W praktyce takie przeliczenia pojawiają się na każdym kroku, chociażby przy ustawianiu opóźnienia (delay) albo długości bufora w interfejsie audio. Gdy tylko człowiek raz zrobi ten rachunek samodzielnie, potem już nie będzie miał wątpliwości, jak to działa.

Pytanie 37

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 1|2|000
B. 2|3|240
C. 4|2|400
D. 3|4|350
Wskazanie 1|2|000 rzeczywiście oznacza początek drugiej miary w takcie, co jest zgodne z konwencjami stosowanymi praktycznie we wszystkich popularnych DAW-ach, jak Ableton Live, Cubase, czy Pro Tools. Pierwsza liczba (1) to numer taktu, druga (2) – numer miary (czyli beat, czasem nazywany ćwierćnutą w metrum 4/4), a trzecia liczba (000) oznacza początek danego beatu na osi ticków (czyli brak przesunięcia, dokładnie na 'klik'). To bardzo istotne, bo przy edycji MIDI, kwantyzacji czy automatyzacji parametrów precyzyjne wskazanie początku miary pozwala dokładnie synchronizować wydarzenia muzyczne. Często podczas pracy z loopami lub synchronizacją do innych ścieżek musimy ustawić markery właśnie na początku konkretnej miary – wtedy takie oznaczenie jest nieocenione. W praktyce dużo osób myli się i traktuje ticki jako coś mniej ważnego, a to przecież one odpowiadają za mikroskopijną precyzję w ustawianiu nut czy zdarzeń automatyzacji. Moim zdaniem dobrze znać te zapisy, bo pozwala to uniknąć typowych błędów przy aranżacji – na przykład przesunięcia wejścia instrumentu o kilka ticków. Tego typu detale są bardzo ważne, szczególnie przy produkcji elektroniki czy muzyki filmowej, gdzie synchronizacja jest absolutnie kluczowa.

Pytanie 38

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 128 próbek.
B. 32 próbki.
C. 64 próbki.
D. 256 próbek.
Wybierając bufor o wielkości 32 próbek, faktycznie osiągasz najniższą możliwą latencję w trakcie nagrywania dźwięku w DAW – tak przynajmniej jest w teorii i przy dobrze skonfigurowanym sprzęcie. To rozwiązanie pozwala praktycznie na natychmiastowe usłyszenie efektów swojej gry czy wokalu bez wyczuwalnego opóźnienia. Szczególnie przy pracy z wirtualnymi instrumentami czy podczas monitoringu na żywo taka minimalizacja latencji robi ogromną różnicę, bo komfort nagrania jest wtedy zdecydowanie wyższy. Standardy branżowe wskazują, że mniejsze bufory to lepsza responsywność, choć oczywiście pojawia się ryzyko większego obciążenia procesora. Dla profesjonalnych sesji studyjnych, gdzie kluczowa jest natychmiastowa reakcja, właśnie ten zakres (32 próbki) jest często stosowany, o ile tylko komputer i interfejs audio wytrzymują takie ustawienie bez trzasków czy dropów. Moim zdaniem warto eksperymentować z małymi buforami podczas nagrań, a potem do miksu i masteringu wracać do wyższych wartości dla stabilności pracy. To taki kompromis między wydajnością a wygodą – ale przy nagrywaniu wokali czy gitar na żywo 32 próbki to często game changer.

Pytanie 39

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.wmf
B. *.ptx
C. *.wmv
D. *.ppt
Rozszerzenie *.ptx oznacza plik sesji programu Pro Tools, który jest jednym z najbardziej uznanych i szeroko stosowanych cyfrowych stacji roboczych audio (DAW) na świecie. Taki plik zawiera kompletny zapis projektu audio – ścieżki, automatyki, ustawienia efektów, routing sygnałów czy informacje o edycji. To jest taki fundament codziennej pracy realizatorów dźwięku, producentów muzycznych czy nawet postprodukcji filmowej. W praktyce, jeśli ktoś pracuje np. w studiu nagraniowym, projekt w formacie *.ptx pozwala przenieść całą sesję między różnymi stanowiskami – wystarczy ten jeden plik i odpowiednie foldery audio. Szczerze mówiąc, Pro Tools to taki branżowy standard, zwłaszcza w dużych studiach czy telewizji. Moim zdaniem, dobrze znać takie rozszerzenia, bo pozwalają szybko zidentyfikować, z jakim środowiskiem mamy do czynienia. Dla porównania: Cubase zapisuje projekty jako *.cpr, Ableton jako *.als, a Logic Pro jako *.logicx czy *.logic. Ale właśnie *.ptx jest typowy dla Pro Tools (od wersji 10 w górę, wcześniej było *.ptf). To trochę jak plik projektu w Photoshopie – zawiera całość ustawień, nic się nie gubi. Z mojego doświadczenia: jak ktoś chce pracować zawodowo przy dźwięku, to znajomość rozszerzeń plików projektowych to taki must-have. Można powiedzieć, że to podstawa w branży audio – nie raz uratowało mi to czas i nerwy przy przenoszeniu projektów między różnymi komputerami i systemami DAW.

Pytanie 40

W jakiej pozycji na osi czasu w sesji programu DAW należy ustawić znacznik końcowy utworu muzycznego, jeśli utwór ten ma trwać 64 takty przy metrum 4/4 i tempie 120 BPM?

A. Na początku 186 sekundy.
B. Na początku 240 sekundy.
C. Na końcu 128 sekundy.
D. Na końcu 64 sekundy.
Poprawnie zidentyfikowałeś moment zakończenia utworu – 128 sekunda to dokładnie tam, gdzie kończy się 64 takt w metrum 4/4 przy tempie 120 BPM. Sprawa wygląda tak: każde 4/4 oznacza, że w jednym takcie mamy 4 ćwierćnuty. Przy tempie 120 BPM, czyli 120 ćwierćnut na minutę, jeden takt trwa dokładnie 2 sekundy (bo 120 podzielić na 60 to 2, czyli 2 ćwierćnuty na sekundę, więc 4 ćwierćnuty – cały takt – to 2 sekundy). Mnożąc 64 takty razy 2 sekundy, wychodzi właśnie 128 sekund. W praktyce, w DAW-ach jak Ableton, FL Studio czy Cubase, wyznaczanie końca utworu w taki sposób to podstawa pracy – pozwala to uniknąć niewygodnych pauz lub uciętych dźwięków przy renderingu, a także porządkuje workflow całej sesji. Często producenci ustawiają marker końca dokładnie na ostatnim takcie, żeby przy eksporcie nie zgubić żadnych ważnych elementów np. efektów wybrzmiewających na końcu utworu. Moim zdaniem, taka precyzyjna kalkulacja bardzo się przydaje przy planowaniu automatyzacji, fade-outów czy edycji struktury utworu. W branży to taki standard, żeby nie marnować czasu na zgadywanie, tylko od razu podchodzić do sesji technicznie i praktycznie. To też ważna umiejętność, szczególnie gdy współpracuje się z innymi albo chce się przesłać projekt dalej.