Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 14:56
  • Data zakończenia: 28 kwietnia 2026 15:13

Egzamin zdany!

Wynik: 35/40 punktów (87,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Kompresja.
B. Limiting.
C. Normalizacja.
D. Ekspansja.
Często można się pomylić, bo narzędzia takie jak limiter czy kompresor są używane bardzo podobnie do normalizacji, ale mają zupełnie inne skutki w praktyce studyjnej. Limiter to rodzaj bardzo agresywnego kompresora, który odcina wszystko powyżej określonego progu – przez to ogranicza szczyty sygnału i zmniejsza rozpiętość dynamiczną, bo te najwyższe wartości są po prostu „ściskane”. Ekspander natomiast działa odwrotnie do kompresora: podbija kontrast między cichymi a głośnymi fragmentami, czyli powiększa dynamikę – w branży stosuje się go często do odszumiania albo nadawania nagraniom lepszego „oddechu”. Kompresja to już klasyka – zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami, wyrównując całość i sprawiając, że nagranie jest bardziej zwarte, ale też często mniej naturalne. Wiele osób myli kompresję z normalizacją, bo oba procesy wpływają na ogólną głośność, ale kompresor zmienia proporcje między fragmentami, a normalizator tylko podnosi lub obniża całość bez naruszania dynamiki. Typowym błędem jest uznawanie, że każdy proces zwiększający głośność musi ingerować w rozpiętość dynamiczną – w rzeczywistości tylko normalizacja nie ingeruje w te proporcje. Moim zdaniem, ten temat jest bardzo ważny dla wszystkich, którzy chcą świadomie obrabiać dźwięk i uniknąć sytuacji, kiedy przypadkowo „zabiją” dynamikę nagrania przez nieodpowiednie narzędzie. Warto zapamiętać: tylko normalizacja zostawia dynamikę nietkniętą – wszystko inne albo ją zmniejsza, albo zwiększa, zależnie od ustawień.

Pytanie 2

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 1|0|000
B. 1|1|000
C. 0|0|000
D. 0|1|000
Wskazanie 1|1|000 na liczniku BARS/BEATS w DAW faktycznie oznacza miejsce początku sesji. To dlatego, że większość programów DAW – takich jak Ableton Live, Cubase, Pro Tools czy FL Studio – przyjęła właśnie taki standard przedstawiania lokalizacji na osi czasu: pierwszy numer wskazuje takt, drugi uderzenie (beat), a trzeci tzw. tick (czyli drobna jednostka podziału taktu, czasem nazywana też sub-beatem). W praktyce, w DAW nigdy nie zobaczysz pozycji 0|0|000, bo nie istnieje taki „zerowy” takt – muzyka zawsze zaczyna się od pierwszego taktu i pierwszego uderzenia, czyli 1|1|000. To bardzo ważne przy ustawianiu markerów, punktów startu loopów, eksportu czy automatyzacji – wszystko synchronizuje się właśnie do tej pozycji. Wiesz, czasem początkujący próbują ustawić coś na „zerowym” takcie, ale wtedy DAWy po prostu nie pozwalają lub przesuwają wszystko na 1|1|000. To też miejsce, gdzie zwykle zaczynam importować ślady lub ustawiać pierwsze wejście MIDI, bo wtedy wszystko jest równo z siatką i nie ma potem problemów z przesuwaniem. Jest to też bardzo wygodne w kontekście pracy zespołowej – jeżeli ktoś wyśle Ci projekt, to możesz być pewien, że początek sesji zawsze jest w 1|1|000. Przyzwyczajenie się do tego ułatwia komunikację w branży, a także sprawia, że praca idzie sprawniej. Tak jest po prostu czytelniej i żaden szanujący się DAW nie robi tego inaczej – to taki branżowy standard, który po prostu warto znać i stosować.

Pytanie 3

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. VOX
B. ORG
C. RHYTHM
D. LEAD
Odpowiedź LEAD jest zdecydowanie właściwa, bo w profesjonalnej dokumentacji nagrań muzyki rozrywkowej określenie „lead guitar” albo po prostu „LEAD” zawsze oznacza gitarę prowadzącą. To właśnie partia LEAD odpowiada najczęściej za solówki, melodyjne wstawki czy charakterystyczne frazy, które wybija się na tle pozostałych instrumentów. Praktyka studyjna pokazuje, że przypisanie śladu oznaczonego jako LEAD ułatwia pracę realizatorom dźwięku, producentom i muzykom podczas miksowania czy edycji materiału. Z mojego doświadczenia wynika, że nawet w bardzo rozbudowanych sesjach, gdzie jest kilka gitar, oznaczenie LEAD od razu wskazuje, którą ścieżkę traktować jako najważniejszą pod kątem ekspozycji w miksie. W nomenklaturze branżowej LEAD funkcjonuje także przy innych instrumentach – na przykład LEAD VOCAL to główny wokal. Ale w kontekście gitar to właśnie LEAD równa się gitara prowadząca. Standardy zapisu sesji Pro Tools, Cubase czy Logic też stosują ten skrót, co jest bardzo przydatne, bo szybko można się odnaleźć w projekcie, nawet jeśli nie pracowało się przy nagraniu od początku. Warto zapamiętać, że LEAD to skrót myślowy, który na stałe wszedł do codziennego słownictwa branżowego i jest uznawany praktycznie na całym świecie – od małych studiów po największe produkcje.

Pytanie 4

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
B. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
C. wyciszenie dźwięku, trwające 1/100 sekundy.
D. wyciszenie dźwięku, trwające 1/10 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 5

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-RW
B. DVD+R DL
C. DVD+R
D. DVD-R
Wybrałeś DVD-RW i to jest trafny wybór, bo właśnie ta płyta umożliwia wielokrotny zapis i kasowanie danych. DVD-RW (czyli Digital Versatile Disc – ReWritable) działa trochę jak pendrive, tylko że w postaci płyty optycznej. Możesz nagrywać, kasować i ponownie nagrywać dane – według standardu nawet do tysiąca razy, chociaż w praktyce to już bywa różnie i zależy od jakości nośnika oraz nagrywarki. W zastosowaniach domowych czy w małych firmach takie płyty świetnie się sprawdzają przy backupie np. zdjęć czy dokumentów, które wymagają aktualizacji. Branżowo, kiedyś używano DVD-RW do testowania autorunów, wersji demo oprogramowania czy archiwizacji tymczasowej – przed czasami pendrive'ów i w chmurze to był niezły patent. Warto wiedzieć, że płyty DVD-R oraz DVD+R są jednokrotnego zapisu – jak raz coś nagrasz, to już nie zmienisz, a DVD+R DL to jeszcze wersja dwuwarstwowa, ale też tylko jednokrotnego zapisu. Standardy zapisu optycznego jasno określają, że tylko nośniki z oznaczeniem 'RW' (ReWritable) pozwalają na ponowne użycie, co jest zgodne z praktyką stosowaną w branży IT i elektroniki użytkowej. Moim zdaniem, znając te różnice, można uniknąć wielu nieporozumień przy doborze nośników do różnych zadań – serio, to oszczędza czas i nerwy.

Pytanie 6

Aplikacje DAW mogą odtwarzać pliki

A. audio oraz MIDI.
B. tylko typu <i>interleaved</i>.
C. o różnej rozdzielczości i różnej częstotliwości.
D. tylko w formatach kompresji stratnej.
Aplikacje DAW, czyli Digital Audio Workstation, zostały zaprojektowane z myślą o wszechstronnej obsłudze zarówno plików audio, jak i danych MIDI. To jest praktycznie standard w branży – nie wyobrażam sobie pracy bez tej funkcjonalności, bo przecież producenci, realizatorzy i muzycy na co dzień korzystają z obu tych typów danych. Przykładowo, nagrywając wokal czy gitarę, pracujemy na ścieżkach audio, natomiast cały świat instrumentów wirtualnych, automatów perkusyjnych czy sterowania syntezatorami opiera się właśnie na MIDI. To właśnie elastyczność DAW-ów sprawia, że w jednym projekcie możesz miksować sample audio z partiami dogrywanymi na klawiaturze MIDI i automatyzować je bez żadnej dodatkowej konwersji. Standardy takie jak MIDI 1.0 czy najnowszy MIDI 2.0 są wspierane przez praktycznie każde poważne DAW: od Abletona przez Cubase po Logic Pro. Z mojego doświadczenia wynika, że umiejętność obsługi obu typów plików to dziś absolutna podstawa – pozwala nie tylko na swobodę twórczą, ale też na współpracę z innymi muzykami i producentami na całym świecie. Obsługa plików audio oraz MIDI to nie tylko wygoda, ale wręcz fundament pracy z każdym nowoczesnym DAW-em, bez względu na to, jaki gatunek muzyczny tworzysz.

Pytanie 7

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. SPLIT
B. CUT
C. FREEZE
D. DELETE
Funkcja SPLIT to absolutny standard w każdym szanującym się programie typu DAW, od prostych edytorów po zaawansowane stacje robocze jak Pro Tools czy Cubase. Z jej pomocą możesz błyskawicznie podzielić jeden plik audio na kilka mniejszych fragmentów, co jest niesamowicie wygodne przy edycji dialogów, cięciu sampli czy przygotowywaniu pętli rytmicznych. Moim zdaniem, to jedna z najczęściej używanych funkcji na ścieżkach audio, bo pozwala zyskać pełną kontrolę nad aranżacją i montażem – nie trzeba kopiować całych plików, ciąć na zewnątrz i ponownie importować do projektu. SPLIT praktycznie zawsze działa w miejscu kursora albo w wybranym zakresie, więc szybko dzielisz materiał dokładnie tam, gdzie tego chcesz. Dodatkowo większość DAW pozwala odwrócić ten podział bez utraty oryginalnych danych, co jest ogromnym plusem przy pracy nieniszczącej. Trochę z doświadczenia – bez SPLIT praca z podcastami czy muzyką elektroniczną byłaby o wiele bardziej uciążliwa. Profesjonaliści branży audio zawsze korzystają z tej funkcji, bo jest szybka, precyzyjna i nie wpływa negatywnie na jakość dźwięku. Warto też wiedzieć, że podział ścieżki przez SPLIT nie powoduje automatycznie usunięcia żadnej jej części, tylko wygodnie je oddziela, żebyś mógł osobno przesuwać, kopiować czy edytować każde z nich. To taki must-have każdej sesji edycyjnej.

Pytanie 8

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 8 kanałów.
B. 5 kanałów.
C. 7 kanałów.
D. 1 kanału.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 9

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/6.
B. o 1/4.
C. o 1/2.
D. o 1/3.
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 10

Który z wymienionych nośników jest nośnikiem analogowym?

A. Płyta DVD
B. Kaseta DAT
C. Kaseta CC
D. Płyta CD
Dość często można się pomylić przy rozróżnianiu nośników analogowych i cyfrowych, zwłaszcza gdy wiele osób kojarzy płyty CD czy DVD z „namacalnym” nośnikiem, podczas gdy ich technologia jest zupełnie inna niż na przykład w kasecie CC. Płyty CD i DVD to nośniki cyfrowe – informacje są na nich zapisywane w postaci binarnej, przez mikroskopijne wgłębienia i pola na powierzchni płyty, które są odczytywane laserem. To podejście zupełnie różni się od analogowej taśmy magnetycznej, gdzie sygnał zapisywany jest jako zmienne namagnesowanie odpowiadające bezpośrednio przebiegowi fal dźwiękowych. Współcześnie, brak świadomości tej różnicy prowadzi często do mylnego przekonania, że każda „fizyczna rzecz” do nagrywania dźwięku jest analogowa. Nic bardziej mylnego – cyfrowy zapis pozwala na bezstratną wielokrotną kopię, kodowanie, kompresję i różnego rodzaju zabezpieczenia, co w ogóle nie występowało w technologii analogowej. Kaseta DAT to też pułapka – wygląda niemal identycznie jak zwykła kaseta magnetofonowa, ale działa zupełnie inaczej, bo zapisuje dane w formie cyfrowej. Z mojego doświadczenia wynika, że wiele osób wrzuca wszystkie „kasety” do jednego worka, a to błąd techniczny: DAT była stosowana głównie w profesjonalnych studiach do archiwizacji cyfrowego dźwięku, bo oferowała wyższą jakość i dłuższą żywotność niż kaseta analogowa. Praktyka branżowa od lat 90-tych wyraźnie rozdzielała już technologie analogowe i cyfrowe, właśnie ze względu na sposób zapisu – w nośnikach cyfrowych zawsze chodzi o operacje na zerach i jedynkach, a nie o odtworzenie przebiegu sygnału. Mylenie tych pojęć prowadzi do błędnych wniosków przy wyborze sprzętu, archiwizacji i odtwarzania danych. Warto zwrócić uwagę na to, że umiejętność rozpoznania typu nośnika jest kluczowa przy pracy w branży informatycznej, dźwiękowej czy nawet przy domowym porządkowaniu archiwów, gdzie trzeba wiedzieć jak odtworzyć lub przenieść dane między różnymi standardami. Takie drobne techniczne detale pokazują, jak ważna jest precyzyjna wiedza o technologiach przechowywania informacji.

Pytanie 11

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. AAC
B. WMA
C. AC-4
D. FLAC
FLAC to naprawdę świetny wybór, jeśli chodzi o bezstratną kompresję audio. Ten kodek, czyli Free Lossless Audio Codec, od lat uznawany jest przez branżę za wzorcowe rozwiązanie, kiedy komuś zależy na zachowaniu oryginalnej jakości nagrania po kompresji. Pliki FLAC są popularne nie tylko wśród audiofilów, ale też w studiach nagraniowych i archiwizacji dźwięku, bo pozwalają na idealną rekonstrukcję dźwięku po dekompresji – nie ma tu żadnych strat, wszystko brzmi dokładnie jak materiał źródłowy. Podczas codziennej pracy spotykałem się z sytuacjami, gdzie ktoś chciał zaoszczędzić miejsce na dysku, ale nie godził się na utratę jakości – i właśnie wtedy polecałem FLAC. Co ciekawe, to rozwiązanie jest otwarte, więc nie trzeba martwić się o jakieś dziwne licencje czy płatności. W dobrych praktykach branżowych mówi się, że jeśli archiwizujesz ważne nagrania, to najlepiej trzymać je właśnie w formacie bezstratnym, takim jak FLAC, a dopiero do bieżącego słuchania czy w urządzeniach mobilnych możesz robić wersje stratne, np. MP3 czy AAC. Moim zdaniem, warto znać różnicę pomiędzy kodekami bezstratnymi a stratnymi, bo to podstawa w pracy z dźwiękiem, zwłaszcza gdy w grę wchodzi jakość i możliwość późniejszej obróbki materiału.

Pytanie 12

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD – R DL
B. DVD + R SL
C. CD + R SL
D. CD – R DL
DVD – R DL faktycznie oferuje największą pojemność spośród podanych tu nośników optycznych. To trochę jak dwa standardowe DVD w jednym – technologia DL, czyli Dual Layer (podwójna warstwa), pozwala zapisać dane na dwóch fizycznych warstwach. Dzięki temu na jednym krążku można zmieścić do 8,5 GB danych, a to ponad dwukrotnie więcej niż na klasycznych płytach DVD typu Single Layer (SL), które mają około 4,7 GB. W branży informatycznej płyty DVD – R DL są wykorzystywane wszędzie tam, gdzie trzeba przenieść większe ilości danych – archiwizacja, kopie zapasowe, instalatory systemów operacyjnych, czy dystrybucja zaawansowanego oprogramowania. W praktyce, kiedy trzeba zrobić backup zdjęć z kilku lat albo nagrać filmy w wysokiej rozdzielczości, taki nośnik się sprawdza zdecydowanie lepiej niż płyty CD. Moim zdaniem, jeśli ktoś pracuje z większą ilością danych i nie chce mieć sterty płyt, lepiej wybrać takie rozwiązanie. Oczywiście, płyty optyczne coraz rzadziej się używa, ale w archiwizacji na lata lub tam, gdzie nie można sobie pozwolić na dyski twarde, to dalej jest solidna opcja. Warto pamiętać, że zapis na DVD DL wymaga odpowiedniego napędu obsługującego tę technologię – to taki trochę nieoczywisty szczegół, o którym zapomina sporo osób. Ale jak się już ogarnie sprzęt, to możliwości są dużo większe niż w przypadku CD czy DVD SL.

Pytanie 13

Poprzez zastosowanie filtru Low Pass na ścieżce gitary basowej można

A. kształtować obraz stereo nagrania.
B. usunąć zakłócenia niskotonowe.
C. zredukować przydźwięk sieci.
D. zmniejszyć szumy.
Filtr Low Pass, czyli filtr dolnoprzepustowy, to podstawowe narzędzie w obróbce ścieżek basowych. Jego zadaniem jest przepuszczanie sygnałów o niskich częstotliwościach i tłumienie tych wyższych. Stosując taki filtr na ścieżce gitary basowej, w praktyce pozbywamy się wysokoczęstotliwościowych komponentów dźwięku, które często są źródłem szumów – zwłaszcza, jeśli korzystamy z tańszego sprzętu lub słabo ekranowanych kabli. To właśnie w tym zakresie pasma jest najwięcej niepożądanych sygnałów, takich jak szum własny elektroniki czy nawet zakłócenia z sąsiednich urządzeń. Z mojego doświadczenia wynika, że lekko przycięcie góry basu, powiedzmy powyżej 4–6 kHz, robi porządek w miksie i daje bardziej selektywny, czytelny dół. W branżowych praktykach to wręcz standard, szczególnie w produkcji muzyki elektronicznej czy rapowej. Oczywiście nie ma co przesadzać z ustawieniami – zawsze warto posłuchać, czy nie ucinasz przypadkiem ataku dźwięku, bo czasem tam też siedzi charakter basu. Ale ogólnie, filtr Low Pass to świetne narzędzie na walczenie ze szumami i generalny porządek w miksie. No i ważne – to nie jest metoda na wszystko, lecz jeden z filarów pracy z niskimi częstotliwościami.

Pytanie 14

Który z formatów plików audio nie używa kodowania stratnego?

A. .rm
B. .ra
C. .wav
D. .ogg
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 15

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Ekspander.
B. Korektor tercjowy.
C. Kompresor.
D. Bramka szumów.
Kompresor to jedno z tych urządzeń, które są właściwie niezbędne w każdym studiu nagraniowym czy podczas realizacji dźwięku na żywo. Jego głównym zadaniem jest właśnie zawężanie zakresu dynamiki sygnału audio, czyli zmniejszanie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami dźwięku. Dzięki temu nagrania brzmią bardziej spójnie, wyraźnie i nie ma sytuacji, że jeden instrument nagle wybija się ponad resztę tylko dlatego, że ktoś mocniej uderzył w struny czy perkusję. W praktyce kompresor stosuje się na wokalach, basie, gitarach, bębnach – praktycznie na każdym śladzie, gdzie ważna jest kontrola nad dynamiką. Moim zdaniem bez dobrego opanowania tego efektu trudno mówić o profesjonalnym miksie. Warto pamiętać, że kompresor nie tylko ściska dynamikę, ale też może dodać charakteru brzmieniu, czasem wręcz podkręcić energię nagrania. Są różne typy kompresorów: od klasycznych VCA przez optyczne po lampowe – każdy z nich działa trochę inaczej, ale idea się nie zmienia. Z moich doświadczeń wynika, że umiejętne użycie kompresji to jedna z kluczowych umiejętności realizatora, bo pozwala utrzymać miks w ryzach i sprawić, że wszystko zabrzmi spójnie zarówno na słuchawkach, jak i dużych głośnikach. Dobrą praktyką branżową jest też stosowanie kompresji równoległej, gdzie sygnał czysty miesza się z przetworzonym, żeby zachować naturalność przy jednoczesnej kontroli nad dynamiką.

Pytanie 16

Które z wymienionych określeń oznacza nagranie atmosfery dźwiękowej np. na planie filmowym?

A. Narrator.
B. Ambience.
C. Commentary.
D. Foley.
Ambience to w branży filmowej i dźwiękowej kluczowy termin, który oznacza nagranie naturalnego tła akustycznego danej lokalizacji. Chodzi o to, żeby zebrać dźwięki, które występują w danym miejscu niezależnie od dialogów czy efektów specjalnych – mogą to być szumy uliczne, śpiew ptaków, odgłosy klimatyzacji, wiatr czy nawet charakterystyczne echo pomieszczenia. Taki materiał dźwiękowy jest absolutnie niezbędny do tego, żeby scena w filmie czy serialu brzmiała wiarygodnie i naturalnie. Praktyka zbierania ambience pozwala uniknąć tzw. „martwej ciszy”, która jest nienaturalna dla ucha widza. W nowoczesnych produkcjach często nagrywa się kilka minut czystego tła dźwiękowego każdej lokacji – to się potem świetnie sprawdza na etapie postprodukcji, gdy montażysta i dźwiękowiec muszą „posklejać” sceny kręcone w różnych dniach czy warunkach. Moim zdaniem, każdy kto planuje pracę na planie filmowym, powinien dobrze rozumieć, czym jest ambience, bo bez tego powstają sztuczne, sterylne dialogi oderwane od otoczenia. To raczej podstawa pracy z dźwiękiem, tak jak white balance w obrazie – po prostu must have.

Pytanie 17

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 32 kb/s (12 kHz)
B. 64 kb/s (24 kHz)
C. 256 kb/s (48 kHz)
D. 320 kb/s (48 kHz)
Parametry 320 kb/s i 48 kHz to obecnie praktycznie najwyższy poziom jakości, jaki można uzyskać w formacie MP3. Im wyższy bitrate, tym więcej danych na sekundę przeznaczonych jest na odwzorowanie dźwięku, dzięki czemu mniej informacji zostaje utraconych podczas kompresji stratnej. 320 kb/s to granica, powyżej której już nie uzyska się lepszej jakości dźwięku w tym standardzie – tak to po prostu działa, bo sam MP3 na więcej nie pozwala. Częstotliwość próbkowania 48 kHz jest też bardzo istotna – to właśnie ona decyduje o tym, jak szerokie spektrum częstotliwości zostanie zapamiętane (czyli ile szczegółów zachowa się w wysokich tonach). Co ciekawe, 48 kHz jest często spotykana w branży filmowej oraz profesjonalnej postprodukcji audio, a 44,1 kHz to bardziej standard płyt CD. Z mojego doświadczenia, jeśli komuś zależy na możliwie najlepszym brzmieniu w plikach MP3 – np. do archiwizacji kolekcji muzyki, przygotowania podkładów pod filmy czy po prostu dla własnej satysfakcji słuchowej – to właśnie te parametry będą optymalne. Oczywiście, są formaty lepsze: FLAC czy WAV, ale wtedy nie mówimy już o MP3. Warto pamiętać, że ustawianie niższego bitrate'u albo niższego próbkowania to zawsze kompromis – oszczędność miejsca kosztem jakości. Generalnie, jeśli nie ogranicza Cię pojemność dysku czy transfer, stawiaj zawsze na 320 kb/s i 48 kHz, bo to jest dobry standard nawet wśród profesjonalistów.

Pytanie 18

Jakie dane zawarte w dokumentacji montażowej przedstawia kod czasowy SMPTE, zobrazowany przez licznik 00:00:00:00?

A. Takty : ćwierćnuty : szesnastki : tiki.
B. Takty : ćwierćnuty : ósemki : szesnastki.
C. Godziny : minuty : sekundy : ramki.
D. Godziny : minuty : sekundy : milisekundy.
Kod czasowy SMPTE, który zapisuje się w formacie 00:00:00:00, to naprawdę jeden z najważniejszych standardów synchronizacji w branży audiowizualnej. Oznaczenia: godziny, minuty, sekundy i ramki (frames) precyzyjnie określają pozycję konkretnego zdarzenia w materiale wideo lub audio pod względem czasu i klatki. To właśnie ta czwarta wartość – ramki – odróżnia SMPTE od innych kodów czasowych, np. tych typowo muzycznych. Dzięki temu montażysta, realizator dźwięku albo grafik komputerowy może dokładnie odnaleźć, wyciąć lub wkleić fragment tam, gdzie trzeba – co do jednej klatki. W praktyce, na przykład przy składaniu filmu fabularnego, synchronizacja dialogów czy efektów specjalnych z obrazem opiera się na tych liczbach. Z mojego doświadczenia, używanie SMPTE to absolutna podstawa podczas pracy w programach typu Adobe Premiere Pro, DaVinci Resolve czy Pro Tools – wszędzie tam licznik startuje właśnie od 00:00:00:00 i pozwala na dokładność, której żaden system oparty na taktach czy milisekundach nie zapewni. SMPTE jest również zgodny z międzynarodowymi standardami nadawania (np. EBU czy AES), co ułatwia współpracę między różnymi działami produkcji. Warto pamiętać, że liczba klatek na sekundę (np. 24, 25, 30) zależy od formatu materiału, ale sam wzór zawsze pozostaje taki sam. Ten sposób notacji jest jednym z filarów profesjonalnej postprodukcji.

Pytanie 19

Które z wymienionych określeń dotyczy funkcji wstawiania znaczników na osi czasu w sesji programu DAW?

A. Markers.
B. Automation.
C. Tempo.
D. Cycle.
Markers, czyli znaczniki, to bardzo praktyczne narzędzie stosowane praktycznie w każdym nowoczesnym DAW-ie, takim jak Cubase, Ableton Live czy Pro Tools. Służą do wstawiania wyraźnych punktów orientacyjnych na osi czasu projektu – można je wykorzystywać, żeby zaznaczyć na przykład początek zwrotki, refren, miejsce zmiany tempa, wejście wokalu czy moment, gdzie trzeba wrócić podczas edycji. Z mojego doświadczenia to ogromne ułatwienie, szczególnie przy dużych sesjach, gdzie szybko można się zgubić albo po prostu człowiek nie pamięta, gdzie co miało być. Znaczniki pomagają organizować aranżację, planować zmiany i sprawniej nawigować po projekcie, co jest zgodne ze standardami pracy w studiach nagraniowych. Często w profesjonalnych projektach oznacza się markerami też miejsca, gdzie trzeba na przykład dograć jakiś instrument albo poprawić miks. Można je też wykorzystać do automatycznego eksportowania poszczególnych sekcji czy tzw. stemów. Mało kto o tym myśli na początku, ale ustawienie markerów na początku pracy bardzo przyspiesza późniejsze działania i minimalizuje ryzyko chaosu w projekcie. Takie podejście poleca wielu producentów i inżynierów dźwięku na kursach i warsztatach – to po prostu dobra praktyka, dzięki której praca staje się bardziej czytelna i profesjonalna. Markerów nie należy mylić z innymi funkcjami, bo ich zadaniem jest właśnie wstawianie tych „flag” na osi czasu.

Pytanie 20

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. obniżanie poziomu nagrania.
B. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
C. sukcesywny spadek dynamiki nagrania.
D. degradację wyłącznie wysokich częstotliwości.
Wielu osobom wydaje się, że przy kopiowaniu analogowym traci się głównie poziom sygnału albo że najbardziej cierpią wysokie częstotliwości. To tylko część prawdy, ale nie do końca oddaje istotę problemu. Jasne, podczas kopiowania sygnał może się lekko osłabić, ale nowoczesne magnetofony czy rejestratory mają układy wzmacniające, które kompensują utratę poziomu. Jednak tego, co naprawdę nie da się skompensować, to nakładające się szumy i ograniczenie pasma przenoszenia. Nie jest też tak, że kopiowanie powoduje sukcesywny spadek dynamiki w rozumieniu stricte różnicy między poziomem najcichszym a najgłośniejszym – dynamika faktycznie się zmniejsza, ale jest to raczej efekt uboczny zawężania pasma i rosnących szumów, a nie samodzielny proces. Jeśli ktoś twierdzi, że degradacji ulegają wyłącznie wysokie częstotliwości, to trochę upraszcza sprawę – to prawda, że góra pasma znika najszybciej, ale wraz z każdym kopią uszczuplane jest całe spektrum, a szumy pojawiają się na wszystkich częstotliwościach. W praktyce najważniejszą rzeczą, o której często się zapomina, jest to, że kopiowanie analogowe zawsze degraduje zarówno jakość pasma, jak i czystość nagrania. Typowym błędem jest skupianie się tylko na jednym aspekcie, np. wysokich tonach lub poziomie sygnału. Z mojego doświadczenia wynika, że najlepiej myśleć o każdej kolejnej kopii jako o coraz gorszej wersji oryginału, bo to suma wszystkich strat – a nie jeden konkretny parametr – decyduje o końcowym efekcie. Dobre praktyki w branży dźwiękowej zalecają ograniczanie liczby generacji analogowych kopii właśnie z powodu tych wszystkich nakładających się problemów.

Pytanie 21

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 48 000 Hz
C. 44 100 Hz
D. 98 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 22

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. CD Text.
B. ISRC CD Code.
C. mp3 CD.
D. CD Burn.
W tym pytaniu łatwo się pomylić, bo różne formaty płyt i standardy bywają mylone, zwłaszcza gdy chodzi o cyfrowe dane i audio. Często spotykam się z przekonaniem, że mp3 CD to to samo co CD-Audio – a to jednak dwa całkiem różne światy. Płyta mp3 CD to po prostu nośnik, na którym zapisujemy pliki mp3, więc ani nie jest to standard audio, ani nie daje możliwości dołączania informacji tekstowych w sposób zgodny z odtwarzaczami CD-Audio. Jasne, pliki mp3 mają swoje tagi ID3, gdzie zapiszemy tytuł, wykonawcę czy okładkę, ale typowy odtwarzacz CD-Audio nie odczyta tych danych, bo nie rozumie struktury mp3. Opcja CD Burn to po prostu nazwa kojarzona z procesem wypalania płyty („burn” znaczy wypalać), a nie żaden format czy rozszerzenie. Możliwe, że ktoś się nabrał na brzmienie tej nazwy, bo wydaje się techniczna, ale nie ma żadnego związku z dodatkowymi danymi na płycie. Z kolei ISRC CD Code to osobny standard – chodzi o unikalny kod identyfikacyjny utworu lub nagrania (International Standard Recording Code). Ten kod jest ważny dla rozliczeń prawnych, licencyjnych i śledzenia emisji muzyki, ale on nie jest przechowywany jako ogólnodostępny tekst widoczny dla użytkownika na odtwarzaczu, tylko raczej do celów organizacyjnych w przemyśle muzycznym. Moim zdaniem, najczęstszy błąd polega na myleniu możliwości różnych formatów cyfrowych z tym, co faktycznie jest obsługiwane przez sprzęt audio zgodny z CD-Audio. Standard CD Text to jedyna z wymienionych opcji, która umożliwia dołączenie opisowych danych zgodnie z oryginalną specyfikacją płyt kompaktowych audio. Warto rozróżniać formaty plików od rozszerzeń funkcjonalnych standardowych nośników – to pomaga uniknąć nieporozumień, zwłaszcza w pracy z archiwizacją muzyki czy przygotowaniem profesjonalnych płyt.

Pytanie 23

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. MP3
B. WAV
C. CDA
D. RIFF
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 24

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 128 dB
B. 144 dB
C. 96 dB
D. 64 dB
24-bitowa rozdzielczość to już taki porządny standard jeśli chodzi o audio profesjonalne. Maksymalna teoretyczna dynamika, jaką można wyciągnąć z 24-bitowego zapisu, wynosi właśnie 144 dB. Wynika to z prostego przelicznika – na każdy bit przypada 6 dB (dokładniej 6,02 dB). Czyli 24 bity razy 6 dB daje nam 144 dB. To naprawdę imponująca wartość i znacznie przekracza możliwości percepcyjne człowieka, bo nasze uszy wytrzymują mniej więcej 120 dB różnicy między najcichszym a najgłośniejszym dźwiękiem. W praktyce jednak żaden przetwornik czy tor audio nie osiąga pełnych 144 dB – szumy elektroniki, zakłócenia i ograniczenia sprzętowe trochę tę dynamikę zmniejszają. W studiach nagraniowych i przy miksie wysokiej klasy 24 bity to już standard i daje spory zapas na późniejszą edycję, kompresję czy mastering. Często spotyka się opinie wśród realizatorów, że taka głębokość bitowa daje komfort pracy bez ryzyka przesterowania i zniekształceń, zwłaszcza przy delikatnych instrumentach akustycznych. Tak się przyjęło, że pliki do masteringu czy oryginalne ścieżki z nagrań trzyma się właśnie w 24 bitach – nie bez powodu. Lubię o tym myśleć jak o ogromnym marginesie bezpieczeństwa – nawet jeśli później wszystko i tak ląduje na płycie CD w 16 bitach i 96 dB dynamiki. W audiofilskich rejestracjach klasycznych i ścieżkach filmowych ten zapas dynamiki jest szczególnie cenny i pozwala na zachowanie najdrobniejszych detali. Moim zdaniem warto to wiedzieć, bo rozumienie tej zależności między bitami a dynamiką pozwala lepiej ogarnąć, po co w ogóle są te wszystkie „liczby” na interfejsach dźwiękowych.

Pytanie 25

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Lista znaczników.
B. Rider techniczny.
C. Scenariusz.
D. Partytura.
Scenariusz to absolutna podstawa każdej produkcji słuchowiska radiowego. Bez niego nie da się w ogóle ruszyć z miejsca, bo to właśnie tam rozpisuje się dialogi, opisy dźwięków, kolejność scen, a nawet podpowiedzi reżyserskie. Taki dokument pozwala wszystkim członkom ekipy – od reżysera po realizatora dźwięku i aktorów – dokładnie wiedzieć, co mają robić i jak interpretować swoją rolę. Standardem w branży radiowej jest, by scenariusz zawierał nie tylko teksty postaci, ale również wskazówki dotyczące atmosfery, rodzaju efektów dźwiękowych czy nawet sposobu wypowiadania kwestii. Dzięki temu całość brzmi potem profesjonalnie i spójnie. Moim zdaniem, scenariusz jest wręcz sercem całego procesu – bez niego trudno mówić o pracy twórczej na serio. Praktycznie każda duża produkcja radiowa działa według tego schematu, bo to upraszcza komunikację i minimalizuje błędy. Dodatkowo, dobry scenariusz bardzo ułatwia późniejszą postprodukcję, bo dokładnie wiadomo, jakie elementy dźwiękowe muszą być przygotowane. Także nawet jeśli ktoś myśli, że wystarczy improwizacja, to w praktyce wszyscy profesjonaliści polegają właśnie na solidnym, dobrze opisanym scenariuszu.

Pytanie 26

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 1.1
B. 2.1
C. 2.0
D. 2.2
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 27

Czym jest normalizacja nagrania (peak normalization)?

A. Obniżeniem szczytowego poziomu nagrania o 3 dB
B. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
C. Obniżeniem średniego poziomu nagrania o 3 dB
D. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
Normalizacja szczytowa (ang. peak normalization) polega na zwiększeniu poziomu sygnału tak, żeby najwyższy punkt (czyli szczyt) nagrania osiągnął określony poziom — najczęściej 0 dBFS w przypadku pracy ze ścieżkami cyfrowymi. To jest standard w audio, szczególnie jeśli chcemy wycisnąć maksimum z głośności materiału, ale nie dopuścić do przesteru. Taki zabieg nie zmienia proporcji między cichszymi a głośniejszymi fragmentami nagrania, więc charakterystyka dynamiczna pozostaje nietknięta. Moim zdaniem to właśnie czyni normalizację szczytową bardzo bezpieczną i przewidywalną — nie ma tu zagrożenia, że nagle środek utworu zrobi się za głośny albo cisza w tle zniknie. W praktyce stosuje się ją np. przed masteringiem albo przygotowując pliki do publikacji, żeby uniknąć niepotrzebnych niespodzianek z poziomami między różnymi utworami. Trzeba mieć na uwadze, że 0 dBFS to granica w świecie cyfrowym — wyżej już się po prostu nie da, bo pojawi się clipping. Warto jeszcze dodać, że normalizacja szczytowa bywa często mylona z normalizacją RMS (średnią), która zmienia całościową głośność odbieraną przez ucho, jednak w branży audio peak normalization to taki 'must-have', szczególnie przy zgrywaniu miksu na master track.

Pytanie 28

Pierwsza para cyfr w zapisie kodu czasowego SMPTE oznacza

A. ramkę.
B. sekundę.
C. godzinę.
D. minutę.
Kod czasowy SMPTE (czyli Society of Motion Picture and Television Engineers) to jeden z tych tematów, które absolutnie trzeba ogarnąć, jeśli chcesz działać profesjonalnie z dźwiękiem albo obrazem — zwłaszcza przy montażu czy postprodukcji filmowej. Pierwsza para cyfr w takim kodzie zawsze oznacza godzinę. Przykładowy zapis 13:27:45:12 czytasz jako: 13 godzin, 27 minut, 45 sekund i 12 klatek (ramka często na końcu jest oddzielona dwukropkiem lub średnikiem, zależnie od formatu). Jest to zgodne z międzynarodowymi standardami SMPTE i pomaga zachować synchronizację między różnymi urządzeniami, np. kamerami, rejestratorami audio czy komputerami do montażu. W praktyce to właśnie ta logiczna struktura pozwala łatwo odnaleźć konkretny moment w materiałach — przy dużych projektach to naprawdę spora oszczędność czasu. Moim zdaniem każdy montażysta czy realizator dźwięku powinien od razu rozpoznawać, co oznaczają poszczególne pary cyfr. Czasami przy pracy zespołowej, gdy ktoś podaje kod SMPTE typu „02:15:33:08”, nie musisz zgadywać, czy chodzi o minuty czy sekundy – wszystko jest jasne i nie ma miejsca na pomyłki. Co ciekawe, niektóre systemy pozwalają nawet na automatyczną synchronizację sprzętu na podstawie tego kodu. Takie rozwiązania są powszechnie wykorzystywane w telewizji, filmie oraz podczas profesjonalnych transmisji na żywo.

Pytanie 29

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 32 kHz
B. 48 kHz
C. 16 kHz
D. 96 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 30

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Płyta DVD.
B. Kaseta CC.
C. Dysk M.O.
D. Kaseta DAT.
Wybór płyty DVD jako nośnika odpornego na silne pole magnetyczne to strzał w dziesiątkę. DVD to nośnik optyczny, na którym dane zapisywane są za pomocą wiązki lasera. Co ważne, zasada działania dysków optycznych sprawia, że nie są one podatne na wpływ zewnętrznego pola magnetycznego. Cały zapis opiera się na fizycznych zmianach struktury warstw poliwęglanowych i barwników, z których zbudowana jest płyta, a nie na orientacji domen magnetycznych jak w kasetach czy klasycznych dyskach magnetycznych. W praktyce oznacza to, że nawet dość silne pole magnetyczne nie wpłynie negatywnie na integralność zapisanych danych. Jest to bardzo istotne w branżach, gdzie bezpieczeństwo przechowywania informacji ma kluczowe znaczenie, np. w archiwizacji, edukacji, sądownictwie czy szpitalach. Często właśnie z tego powodu instytucje przechowujące wrażliwe dane decydują się na backupy na płytach DVD. Moim zdaniem warto też pamiętać, że choć DVD jest odporne na pole magnetyczne, to trzeba je chronić przed zarysowaniami i wysoką temperaturą, bo to już inna bajka. Ale jeśli chodzi o zabezpieczenie przed magnesem – żaden z magnetycznych nośników nie ma z DVD szans. Takie rozwiązania są zgodne z dobrymi praktykami branżowymi, np. ISO/IEC 27040 wskazuje właśnie na odporność nośników optycznych na czynniki elektromagnetyczne.

Pytanie 31

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. DCC
B. ADAT
C. CC
D. SACD
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 32

Który z wymienionych procesorów typowo służy do przekształcania przestrzeni w nagraniu dźwiękowym?

A. Reverb.
B. Time stretch.
C. Invert phase.
D. Pitch correction.
Reverb, czyli pogłos, to klasyczny procesor używany do przekształcania przestrzeni w nagraniu dźwiękowym. W praktyce ten efekt symuluje naturalne odbicia fal dźwiękowych, jakie występują w różnych pomieszczeniach – od małych pokojów po ogromne hale koncertowe. Dzięki niemu nagranie może zabrzmieć, jakby zostało wykonane w zupełnie innym miejscu, nawet jeśli wokalista stał w szczelnie wygłuszonym studio. Z mojego doświadczenia, reverb jest jednym z najważniejszych narzędzi do budowania głębi i atmosfery w miksie. W standardowych produkcjach muzycznych praktycznie nie ma śladu wokalu, który byłby kompletnie suchy – zawsze jest chociaż delikatny pogłos. Stosowanie reverbu pozwala też ukryć drobne niedoskonałości, sprawić, że instrumenty się ze sobą lepiej "kleją" i nie brzmią tak martwo. W branży przyjęło się, że to właśnie pogłos odpowiada za wrażenie przestrzeni, bo inne narzędzia, jak chorus czy delay, raczej nadają efektu szerokości czy powtórzeń, ale nie naturalnego odbicia dźwięku od ścian. Trochę trzeba uważać, żeby nie przesadzić, bo za dużo reverbu powoduje, że miks traci selektywność i robi się "zamulony". Fajna sprawa to też kreatywny reverb, na przykład specjalnie ekstremalne pogłosy na wokalu w muzyce ambient czy elektronicznej. Szczerze mówiąc, bez tego efektu trudno sobie wyobrazić współczesną produkcję audio – nawet filmowcy i podcasterzy używają go, żeby nadać nagraniom wiarygodność przestrzenną.

Pytanie 33

Które z wymienionych oprogramowań DAW umożliwia zaawansowaną edycję ścieżek dźwiękowych, bez możliwości łączenia ich ze ścieżkami MIDI?

A. Cubase
B. Wavelab
C. Logic Pro
D. Sonar
Odpowiedź Wavelab jest tutaj najbardziej trafna, bo to oprogramowanie stricte do edycji i masteringu audio – bez pełnego wsparcia warstwy MIDI, której na przykład nie obsłużysz tutaj nawet gdybyś chciał. Wavelab od lat jest wykorzystywany głównie przez inżynierów dźwięku, realizatorów i producentów do pracy z materiałem dźwiękowym typu stereo lub wielokanałowym, ale tylko w formie audio. Moim zdaniem, jeśli ktoś zamierza skupić się na masteringu, restauracji nagrań albo precyzyjnej edycji ścieżek dźwiękowych, Wavelab jest jednym z takich branżowych standardów, które rzeczywiście się do tego nadają. Fajne jest to, że masz mnóstwo narzędzi do korekcji, kompresji, cięcia, nakładania efektów czy mierzenia parametrów audio, ale żadnej możliwości sekwencjonowania czy aranżowania MIDI. To spora różnica w porównaniu do klasycznych DAW-ów typu Cubase czy Logic Pro, gdzie MIDI to podstawa. Z mojego doświadczenia wynika, że osoby pracujące typowo z dźwiękiem, np. przy postprodukcji do filmów czy radiu, bardzo często wybierają właśnie WaveLaba, bo tam MIDI po prostu jest zbędne. To dobrze pokazuje różnicę między narzędziami typowo do obróbki audio a typowymi „pełnymi” DAW-ami, które obsługują zarówno ścieżki audio, jak i MIDI.

Pytanie 34

Na który z parametrów sesji programu edycyjnego, biorąc pod uwagę skład zespołu, należy zwrócić szczególną uwagę przy uruchomieniu nowego projektu audio?

A. Liczbę ścieżek.
B. Długość nagrania.
C. Przepływność bitową.
D. Częstotliwość próbkowania.
Liczba ścieżek w projekcie audio to naprawdę kluczowy parametr, szczególnie gdy zaczynasz pracę w zespole. W praktyce, gdy pracujesz z różnymi muzykami, realizatorami czy producentami, każdy może mieć swoje wymagania dotyczące ilości osobnych śladów na wokal, instrumenty, efekty czy nawet próbki dźwiękowe. Jeśli na starcie nie przewidzisz odpowiedniej liczby ścieżek, szybko pojawią się komplikacje – albo zabraknie miejsca na nagrania, albo trzeba będzie kombinować z duplikowaniem kanałów, a to już zamieszanie i bałagan w sesji. Standardem branżowym, zwłaszcza przy dużych projektach (np. nagrania zespołów rockowych, produkcje filmowe), jest przewidywanie nieco większej liczby ścieżek niż wydaje się na początku potrzebne. To daje elastyczność i zabezpiecza przed niespodziankami. Z mojego doświadczenia wynika, że taka ostrożność oszczędza mnóstwo czasu i nerwów. Ważne jest też to, że liczba ścieżek wpływa na organizację projektu i komunikację w zespole – łatwiej się potem odnaleźć w sesji, gdy każdy instrument i wokal są na osobnej ścieżce. Podsumowując: wybierając liczbę ścieżek, myślisz nie tylko o sobie, ale i o komforcie reszty zespołu oraz sprawnym przebiegu pracy.

Pytanie 35

Wskaż nazwę procesora lub procesu programowego umożliwiającego usuwanie przesłuchów z sąsiednich instrumentów w sygnale audio.

A. Normalize
B. Invert
C. Reverse
D. Noise Gate
Noise Gate to bardzo przydatne narzędzie w inżynierii dźwięku, szczególnie podczas miksowania nagrań wielośladowych – na przykład bębnów na scenie lub w studio. Zasadniczo bramka szumów działa jak swego rodzaju „strażnik” – przepuszcza sygnał tylko wtedy, kiedy jego poziom przekracza określony próg. Dzięki temu można skutecznie wyeliminować niepożądane dźwięki, takie jak przesłuchy z innych instrumentów, które pojawiają się na mikrofonie, kiedy właściwy instrument milczy. Przykładowo: na śladzie werbla często słychać stopy, blachy czy tomy. Ustawiając odpowiednio Noise Gate, ogranicza się ten problem, bo mikrofon „otwiera się” tylko na mocny impuls – uderzenie pałki. Moim zdaniem to prawdziwy must-have w każdym sensownym miksie perkusji, ale też np. przy obróbce śladów wokalnych, jeśli w tle słychać szumy lub pogłosy z innych źródeł. Warto pamiętać, że profesjonalne bramki szumów pozwalają ustawić parametry takie jak czas otwarcia, zamknięcia i długość podtrzymania bramki (attack, release, hold), co daje dużą kontrolę nad końcowym efektem. W praktyce trzeba trochę poeksperymentować, bo za agresywne ustawienia mogą „ucinać” naturalne wybrzmienie instrumentu. W świecie realizacji dźwięku Noise Gate to standardowy procesor, polecany przez większość realizatorów i producentów, a jego obsługa to podstawa warsztatu technika dźwięku.

Pytanie 36

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Reverbs
B. Dynamics
C. Modulation
D. Distortion
Ekspander to typowy przedstawiciel procesorów z kategorii dynamiki. Jego głównym zadaniem jest kontrolowanie zakresu głośności sygnału audio, ale robi to odwrotnie niż kompresor – zamiast ograniczać różnice głośności, zwiększa je, sprawiając, że cichsze fragmenty stają się jeszcze cichsze. W praktyce, ekspandery stosuje się na przykład do redukowania szumów tła lub niepożądanych dźwięków pomiędzy frazami wokalnymi, czyli tzw. „brudów”, których kompresor nie byłby w stanie wyeliminować bez wpływania na główny sygnał. Moim zdaniem ekspander bywa nieoceniony przy nagraniach perkusji – pozwala wydobyć atak werbla czy stopy, eliminując jednocześnie przesłuchy z innych mikrofonów. Branżowe standardy nagraniowe wręcz zalecają używanie procesorów dynamiki, takich jak kompresory, bramki szumów i właśnie ekspandery, do precyzyjnej kontroli nad sygnałem. W odróżnieniu od efektów typu reverb czy distortion, ekspander nie zmienia charakteru dźwięku, tylko zarządza jego głośnością w bardzo specyficzny sposób. Wielu realizatorów dźwięku uznaje ekspandery za absolutną podstawę, jeśli zależy nam na czystym, klarownym miksie. Szczerze mówiąc, czasem ludzie zapominają o ich istnieniu, a szkoda – bo dobrze użyty ekspander może uratować nawet problematyczne nagranie.

Pytanie 37

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 1|2|000
B. 3|4|350
C. 2|3|240
D. 4|2|400
Rozumienie licznika BARS/BEATS w DAW często sprawia trudność, bo na pierwszy rzut oka te liczby wydają się trochę zagmatwane. Często spotykam się z tym, że użytkownicy mylą ticki z początkiem miary albo zwracają uwagę tylko na główną cyfrę, zapominając o całościowym podejściu. Przykładowo, wskazania typu 2|3|240 czy 3|4|350 nie odnoszą się do początku żadnej miary, a raczej do jakiegoś jej środka – liczba ticków (np. 240 czy 350) oznacza, że kursor transportu znajduje się już po rozpoczęciu danego beatu. Z mojego doświadczenia wynika, że łatwo tu wpaść w pułapkę myślenia, że np. skoro numer beatu to 3, a ticki są duże, to to na pewno jest początek czegoś ważnego – a to nieprawda. W rzeczywistości większość DAW traktuje tick „000” jako wyznacznik początku danego beatu i wszystko, co znajduje się dalej (np. tick 240, 350, 400), to już fragmenty tej miary, czyli momenty znajdujące się w jej trakcie, nigdy na początku. W praktyce, jeśli próbujesz ustawić precyzyjne punkty cięcia, kwantyzację albo synchronizację automatyki, zawsze powinieneś szukać tej wartości '000' na końcu zapisu, bo tylko ona gwarantuje, że jesteś na początku beat-u. Dobrą praktyką jest dokładne czytanie tych oznaczeń, szczególnie kiedy pracujesz z bardziej złożonymi aranżacjami, gdzie timing jest kluczowy – wtedy łatwo wpaść w pułapkę 'pozornie' dobrego początku, który w rzeczywistości wypada w środku miary. Warto więc przyzwyczaić się do precyzyjnego sprawdzania licznika i nie sugerować się samymi numerami taktów czy beatów bez zwracania uwagi na ticki.

Pytanie 38

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R DL
B. DVD+R
C. DVD-RW
D. DVD-R
Wybrałeś prawidłowo – DVD-RW to faktycznie płyta wielokrotnego zapisu danych. Skrót RW (ReWritable) od razu sugeruje, że możemy ją nagrywać i kasować wielokrotnie, co jest ogromną zaletą przy testowaniu oprogramowania, tworzeniu backupów, czy po prostu, kiedy człowiek coś źle nagra i chce poprawić. W praktyce, w pracy technika czy informatyka, takie płyty są czasem niezastąpione, bo nie trzeba za każdym razem sięgać po nową, tylko można nadpisać poprzednie dane. Standard DVD-RW został zatwierdzony przez DVD Forum, a na rynku spotyka się zarówno płyty -RW, jak i +RW, ale akurat w tym pytaniu chodziło o -RW. Z mojego doświadczenia, przy testach oprogramowania albo kiedy trzeba szybko przenosić większe pliki między starszymi komputerami, taka płyta sprawdza się całkiem nieźle. Oczywiście, nośniki optyczne powoli odchodzą do lamusa na rzecz pendrive’ów i chmury, ale czasem branża wymaga pracy z legacy sprzętem i właśnie tam DVD-RW się przydaje. Warto dodać, że płyty wielokrotnego zapisu mają ograniczoną żywotność – po kilkudziesięciu czy kilkuset cyklach mogą zacząć szwankować, ale to i tak niezły wynik jak na taki format. W sumie miło wiedzieć, że jeszcze potrafimy rozpoznać, który standard do czego służy – taka wiedza w branży IT może się nie raz przydać.

Pytanie 39

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. CBR
B. ABR
C. MBR
D. VBR
CBR to skrót od „Constant Bit Rate”, czyli stała przepływność bitowa. W praktyce oznacza to, że niezależnie od zawartości przesyłanego sygnału cyfrowego (na przykład wideo albo audio), ilość przesyłanych bitów na sekundę jest zawsze taka sama. To rozwiązanie jest stosowane np. w transmisjach strumieniowych na żywo, gdzie bardzo istotny jest brak wahań przepustowości sieci, albo w telewizji cyfrowej czy nawet podczas nagrywania na nośniki optyczne. Z mojego doświadczenia, CBR jest często wybierane w sytuacjach, gdzie najważniejsza jest przewidywalność obciążenia sieci lub zachowanie kompatybilności z prostszymi urządzeniami odtwarzającymi. Standardy takie jak MPEG-2, używane w DVB, zalecają tryb CBR do transmisji broadcastowych, bo ogranicza on ryzyko buforowania i pozwala na łatwiejsze zarządzanie zasobami. Przy CBR nie ma też problemu z rozjechaniem się synchronizacji audio i wideo, co jest ważne np. w systemach CCTV albo VoIP. Warto jednak pamiętać, że CBR czasem zużywa więcej przepustowości niż to konieczne, bo nie dostosowuje się elastycznie do złożoności przesyłanej treści. Moim zdaniem dla osób zaczynających przygodę ze streamingiem czy montażem, zrozumienie CBR to podstawa, bo pozwala od razu uniknąć wielu irytujących problemów z transmisją.

Pytanie 40

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.fls
B. *.oem
C. *.ldm
D. *.edl
Pliki o rozszerzeniu *.edl (Edit Decision List) to absolutny standard, jeśli chodzi o zapisywanie decyzji montażowych w postprodukcji filmowej. Z mojego doświadczenia wynika, że EDL jest wręcz niezbędny do sprawnej współpracy między montażystą a działem dźwięku czy korekcji barwnej. Taki plik to tekstowy zapis wszystkich kluczowych informacji o cięciach, przejściach oraz źródłach materiału – w praktyce zawiera szczegółową listę użytych fragmentów klipów, czasów wejścia i wyjścia, a także typów przejść. Dzięki temu można bezproblemowo przenosić projekt pomiędzy różnymi systemami montażowymi, na przykład z Avid Media Composer do DaVinci Resolve czy Adobe Premiere Pro. Co ważne, EDL jest formatem otwartym i bardzo czytelnym – fachowcy mówią, że to taki pomost między różnymi etapami postprodukcji. Branża filmowa od lat korzysta z EDL, bo to po prostu działa i nie ma tutaj większej filozofii. Warto też pamiętać, że pliki EDL obsługują głównie podstawowe informacje montażowe, a do bardziej zaawansowanych danych (np. ruchów kamery, efektów) stosuje się nowsze formaty jak XML czy AAF. Ale do podstawowej wymiany decyzji edycyjnych *.edl jest po prostu najpraktyczniejszy.