Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 3 maja 2026 14:42
  • Data zakończenia: 3 maja 2026 14:47

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Skróty: BD, SN, HH dotyczą

A. instrumentów zestawu perkusyjnego.
B. instrumentów sekcji dętej.
C. instrumentów tria gitarowego.
D. głosów zespołu wokalnego.
Skróty BD, SN, HH to bardzo charakterystyczne oznaczenia używane przede wszystkim w świecie perkusji – szczególnie na planach utworów, w nutach dla perkusisty i na listach sprzętu podczas koncertów. Oznaczają one konkretne elementy perkusyjnego zestawu: BD to „bass drum” (centrala), SN to „snare” (werbel), a HH to „hi-hat” (hi-hat, czyli para talerzy sterowana pedałem). Często spotyka się te skróty na diagramach zestawu perkusyjnego, ale też przy zapisie nutowym, gdzie oszczędność miejsca i szybkość rozpoznania są kluczowe – szczególnie podczas prób czy sesji nagraniowych. Moim zdaniem, nawet jeśli ktoś gra na gitarze albo śpiewa, warto znać te skróty, bo w zespole komunikacja musi być szybka i jasna. W branży muzycznej, zwłaszcza na scenie czy w studiu nagrań, używanie takiego skróconego nazewnictwa to właściwie standard. W notacjach MIDI i DAW-ach (np. Ableton, Cubase), te skróty też są często stosowane jako domyślne oznaczenia ścieżek czy sampli. W praktyce to naprawdę ułatwia życie, bo masz jasność, co i gdzie masz zagrać albo nagrać. Sam często spotykam się z tym, że nawet początkujący perkusiści łapią te oznaczenia szybciej niż pełne nazwy – a wiadomo, liczy się czas i precyzja. Takie skróty są też obecne w podręcznikach branżowych i są uznawane za dobrą praktykę w edukacji muzycznej, zwłaszcza na poziomie technikum czy szkół muzycznych.

Pytanie 2

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .m4a
B. .wav
C. .mp3
D. .aac
Wybór formatu .wav jako docelowego to zdecydowanie najlepsze podejście, gdy zależy Ci na zachowaniu maksymalnej ilości informacji z pliku dźwiękowego. Format WAV jest typowym przykładem bezstratnego zapisu audio – nie stosuje on kompresji stratnej, więc oryginalny sygnał audio pozostaje nienaruszony. To sprawia, że pliki WAV są w branży audio standardem przechowywania nagrań, masterów oraz wszelkich materiałów, które jeszcze będą edytowane czy przetwarzane. Moim zdaniem, przy pracy w studiu, archiwizacji czy jakiejkolwiek dalszej obróbce – tylko „wave’y” mają sens. Warto zwrócić uwagę, że profesjonalne DAW-y i sprzęt nagraniowy domyślnie zapisują ścieżki właśnie w tym formacie. Oczywiście, WAV zajmuje dużo miejsca, więc nie jest praktycznym wyborem do odtwarzania muzyki na telefonie czy wysyłania mailem, ale jeśli priorytetem jest jakość i kompletność informacji, to nikt w „branży” nie wybierze mp3 czy m4a. Dodatkowo, WAV nie narzuca ograniczeń związanych z kodekami czy DRM, co ułatwia współpracę pomiędzy różnymi systemami. Fajnie też wiedzieć, że ze względu na swoją prostotę, format ten jest kompatybilny praktycznie wszędzie – nawet bardzo stare systemy operacyjne czy programy audio poradzą sobie z plikiem .wav bez kombinowania z dodatkowymi kodekami.

Pytanie 3

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Scenariusz.
B. Drabinka.
C. Partytura.
D. Lista edycyjna.
Partytura to w muzyce taki jakby główny dokument, gdzie zapisuje się cały utwór w formie nutowej, bardzo szczegółowo, z podziałem na wszystkie instrumenty czy głosy. To trochę jak instrukcja obsługi dla orkiestry czy chóru – dyrygent musi mieć partyturę, żeby wiedzieć, kiedy co gra i jak wszystko synchronizować. W praktyce każda szanująca się instytucja muzyczna, studio czy zespół pracujący z większymi składami korzysta właśnie z partytury. Z mojego doświadczenia wynika, że profesjonalni muzycy nie zaczynają pracy bez dobrze przygotowanej partytury, bo tylko wtedy są w stanie utrzymać porządek i spójność w wykonaniu. W branży standardem jest, że partytura zawiera nie tylko nuty, ale też mnóstwo oznaczeń, np. dynamikę, artykulację, tempo, czasem nawet sugestie dotyczące interpretacji. Nawet podczas nagrań studyjnych czy koncertów filharmonicznych partytura jest absolutną podstawą – bez niej praktycznie nie da się wykonać bardziej złożonego utworu. Warto wiedzieć, że partytury bywają bardzo rozbudowane, kilkudziesięciostronicowe, a ich przygotowanie to osobna umiejętność, której naprawdę opłaca się nauczyć. Poza tym partytura to nie tylko domena klasyki – w muzyce rozrywkowej, zwłaszcza przy aranżacji na większe składy, coraz częściej pojawia się profesjonalny zapis nutowy, żeby nie było nieporozumień podczas prób czy nagrań.

Pytanie 4

W jakiej pozycji na osi czasu w sesji programu DAW należy ustawić znacznik końcowy utworu muzycznego, jeśli utwór ten ma trwać 64 takty przy metrum 4/4 i tempie 120 BPM?

A. Na końcu 128 sekundy.
B. Na początku 240 sekundy.
C. Na końcu 64 sekundy.
D. Na początku 186 sekundy.
Poprawnie zidentyfikowałeś moment zakończenia utworu – 128 sekunda to dokładnie tam, gdzie kończy się 64 takt w metrum 4/4 przy tempie 120 BPM. Sprawa wygląda tak: każde 4/4 oznacza, że w jednym takcie mamy 4 ćwierćnuty. Przy tempie 120 BPM, czyli 120 ćwierćnut na minutę, jeden takt trwa dokładnie 2 sekundy (bo 120 podzielić na 60 to 2, czyli 2 ćwierćnuty na sekundę, więc 4 ćwierćnuty – cały takt – to 2 sekundy). Mnożąc 64 takty razy 2 sekundy, wychodzi właśnie 128 sekund. W praktyce, w DAW-ach jak Ableton, FL Studio czy Cubase, wyznaczanie końca utworu w taki sposób to podstawa pracy – pozwala to uniknąć niewygodnych pauz lub uciętych dźwięków przy renderingu, a także porządkuje workflow całej sesji. Często producenci ustawiają marker końca dokładnie na ostatnim takcie, żeby przy eksporcie nie zgubić żadnych ważnych elementów np. efektów wybrzmiewających na końcu utworu. Moim zdaniem, taka precyzyjna kalkulacja bardzo się przydaje przy planowaniu automatyzacji, fade-outów czy edycji struktury utworu. W branży to taki standard, żeby nie marnować czasu na zgadywanie, tylko od razu podchodzić do sesji technicznie i praktycznie. To też ważna umiejętność, szczególnie gdy współpracuje się z innymi albo chce się przesłać projekt dalej.

Pytanie 5

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.ogg
C. *.mp3
D. *.aiff
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 6

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. mp3 CD.
B. ISRC CD Code.
C. CD Text.
D. CD Burn.
Rozszerzenie CD Text jest dokładnie tym, co pozwala na zapisanie dodatkowych informacji tekstowych na płycie CD-Audio. Chodzi tu głównie o dane takie jak tytuły utworów, nazwy wykonawców, albumów czy nawet krótkie opisy. Standard CD Text został wprowadzony przez Sony i Philips w latach 90., a jego obsługa pojawiła się najpierw w lepszych odtwarzaczach stacjonarnych i wieżach stereo. Co ciekawe, większość nagrywarek komputerowych też potrafi już dodać te dane podczas tworzenia płyty, ale nie każdy program do nagrywania oferuje tę opcję – warto na to zwracać uwagę w ustawieniach. Z praktycznego punktu widzenia, CD Text jest bardzo przydatny na przykład w samochodowych radioodtwarzaczach – od razu wiadomo, co leci, bez potrzeby zgadywania. Co ciekawe, informacje z CD Text są przechowywane w specjalnych sektorach płyty (tzw. subkanał Q), nie wpływając na samą jakość audio. Z mojego doświadczenia, jeśli ktoś chce profesjonalnie przygotować płytę demo lub prezentacyjną, zdecydowanie warto zadbać o ten dodatek – ułatwia to identyfikację i podnosi walory użytkowe nośnika. Szkoda tylko, że starsze odtwarzacze nie zawsze rozpoznają te dane, ale wymagania branżowe wciąż promują stosowanie CD Text przy wydawaniu fizycznych nośników muzycznych.

Pytanie 7

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 48 kHz
C. 192 kHz
D. 96 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 8

Które z wymienionych określeń definiuje cyfrowy plik audio na osi czasu?

A. Głębia bitowa.
B. Długość słowa cyfrowego.
C. Częstotliwość próbkowania.
D. Rozdzielczość.
Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.

Pytanie 9

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Compressor
B. Gate
C. Equaliser
D. Delay
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 10

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. spisu efektów.
B. opisu postsynchronów.
C. opisu taśmy.
D. skryptu.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 11

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 96 kHz
B. 192 kHz
C. 44,1 kHz
D. 48 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 12

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 6:1
B. 2:1
C. 1,4:1
D. ∞:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest absolutne ograniczenie poziomu sygnału powyżej określonego progu. Stopień kompresji dla limitera teoretycznie wynosi nieskończoność do jednego (∞:1). Co to znaczy w praktyce? Po prostu – niezależnie o ile głośniejszy będzie sygnał wejściowy niż ustawiony threshold, na wyjściu nie będzie on nigdy wyższy od tej wartości. To taka ostatnia linia obrony przed przesterowaniem i klipowaniem, szczególnie przy masteringu, radiu czy streamingu. W branży muzycznej oraz postprodukcji audio, limiter jest wręcz obowiązkowym narzędziem końcowym na sumie miksu albo na pojedynczych ścieżkach – na przykład wokalu. Standardy emisji radiowej i telewizyjnej wymagają ścisłego trzymania się określonego poziomu sygnału (np. -1 dBFS). Wystarczy raz nie użyć limitera na końcu i gotowe – przester lub poważne naruszenie norm loudnessowych. Z mojego doświadczenia nie ma skuteczniejszego sposobu na ochronę sygnału przed zbyt dużą amplitudą niż limiter właśnie. Warto też pamiętać, że w praktyce limitery często posiadają dodatkowe funkcje, takie jak lookahead czy soft clipping, ale kluczowa cecha pozostaje: kompresja z proporcją ∞:1. To właśnie to odróżnia limiter od klasycznych kompresorów nawet tych z wysokimi ratio.

Pytanie 13

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.wav
B. *.aiff
C. *.mp3
D. *.riff
Kodek LAME to tak naprawdę jeden z najpopularniejszych kodeków służących do kompresji dźwięku w formacie MP3. Z mojego punktu widzenia, praktycznie każdy, kto miał styczność z obróbką audio, natknął się na ten kodek – często nawet w popularnych programach do nagrywania czy edycji dźwięku, jak Audacity. Format MP3 jest obecnie standardem w zapisie skompresowanych plików muzycznych, używanym do archiwizacji, przesyłania plików przez Internet czy nawet w transmisji strumieniowej. LAME jest projektem open source i przez to stał się czymś w rodzaju branżowego „must have” przy konwersji do MP3, szczególnie gdy zależy nam na dobrej jakości przy niewielkim rozmiarze pliku. Co ciekawe, kodek ten jest w stanie generować pliki z różnym poziomem bitrate, pozwalając dobrać balans między jakością a wagą pliku. Dla wielu zastosowań komercyjnych i domowych, MP3 zakodowane przez LAME jest praktycznym i uniwersalnym wyborem, chociaż nowocześniejsze kodeki, jak AAC, też mają swoje zalety. Jednak jeśli chodzi o LAME, jego domeną jest właśnie generowanie plików *.mp3 i moim zdaniem warto pamiętać, że sam kodek nie służy do kodowania innych formatów, nawet tych, które są popularne w produkcji audio, jak WAV czy AIFF. To rozróżnienie jest ważne podczas pracy w studiu czy przy przygotowywaniu materiałów do publikacji w sieci.

Pytanie 14

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. W połowie zdania.
B. Na początkowych słowach zdania.
C. Od nowego zdania.
D. Na końcowych słowach zdania.
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 15

Korektor graficzny z pasmem podzielonym na 14 równych obszarów regulacji to korektor

A. oktawowy.
B. dwuoktawowy.
C. kwartowy.
D. tercjowy.
Korektor kwartowy to urządzenie, które dzieli pasmo akustyczne na czternaście równych części, z których każda odpowiada jednej czwartej oktawy. To rozwiązanie pozwala na bardzo precyzyjną korekcję dźwięku, co jest szczególnie przydatne w profesjonalnych zastosowaniach, na przykład podczas nagłaśniania dużych sal koncertowych, w studiach nagraniowych czy przy kalibracji systemów audio w kinach. Moim zdaniem to właśnie korektor kwartowy daje inżynierowi dźwięku największą kontrolę nad niuansami brzmienia, bo pozwala wychwycić i poprawić nawet bardzo wąskie fragmenty pasma. To narzędzie nie jest może aż tak popularne jak klasyczny korektor oktawowy, ale stosowane jest wtedy, gdy wymagana jest wyższa rozdzielczość – przykładowo przy redukowaniu sprzężeń czy precyzyjnym dopasowaniu charakterystyki pomieszczenia do systemu nagłośnieniowego. Takie rozwiązania są rekomendowane przez profesjonalistów, bo pozwalają na uzyskanie naprawdę bardzo wyrównanego brzmienia, a przy tym nie wprowadzają zbyt wielu artefaktów. Czasem spotyka się nawet systemy z jeszcze gęstszym podziałem, ale kwartowy to taki złoty środek – pozwala działać szczegółowo i nie przesadzać z komplikacją sprzętu. W praktyce, stosowanie korektora kwartowego realnie przekłada się na lepszą czytelność mowy czy muzyki, więc warto kojarzyć ten podział pasma z wysoką jakością korekcji.

Pytanie 16

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. Noise Reduction
B. De-crackle
C. De-click
D. Downsampling
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 17

Który z wymienionych procesorów efektów służy do zmiany wysokości dźwięku o określony interwał muzyczny?

A. HF Exciter
B. Multivoice Chorus
C. Classic Phaser
D. Pitch Shifter
Pitch Shifter to procesor efektów, który pozwala na zmianę wysokości dźwięku o konkretny interwał muzyczny, bez jednoczesnej zmiany tempa ścieżki audio. W praktyce oznacza to, że dźwięk może zostać przesunięty o określoną ilość półtonów lub centów – na przykład jeśli chcesz, żeby wokal zabrzmiał wyżej jak z dziecięcego filmu albo niżej jak w trailerze horroru, to właśnie pitch shifter sprawdzi się idealnie. To narzędzie jest bardzo popularne w nowoczesnej produkcji muzycznej, także w broadcastingu, sound designie czy podczas miksowania wokali na żywo. Branżowym standardem jest stosowanie pitch shiftera do tworzenia harmonii wokalnych albo kreatywnego obrabiania dźwięku – na przykład w trapie często się to stosuje, żeby uzyskać charakterystyczne, lekko nienaturalne wokale. Z mojego doświadczenia Pitch Shifter jest jednym z najważniejszych narzędzi w arsenale producenta, bo daje dużo swobody twórczej. Odpowiednie użycie tego procesu wymaga jednak wyczucia – nieumiejętna zmiana wysokości może spowodować artefakty lub zniekształcenia, dlatego profesjonaliści często korzystają z zaawansowanych algorytmów, jak te z Antares Auto-Tune czy Eventide. Warto znać ograniczenia i możliwości tego efektu, bo dobrze zastosowany potrafi zupełnie odmienić charakter nagrania, nie tracąc przy tym jakości dźwięku.

Pytanie 18

Zapisanie kopii materiałów dźwiękowych na pendrive, sformatowany w systemie FAT32, ogranicza maksymalny rozmiar pojedynczego pliku do

A. 2 GB
B. 8 GB
C. 1 GB
D. 4 GB
Prawidłowa odpowiedź wynika wprost ze specyfikacji systemu plików FAT32. Ten format, który od lat dominuje na pendrive’ach i kartach pamięci, narzuca ograniczenie maksymalnego rozmiaru pojedynczego pliku do 4 GB minus 1 bajt (czyli dokładnie 4 294 967 295 bajtów). To jest dość charakterystyczna cecha FAT32 i warto ją zapamiętać, bo bardzo często pojawia się problem, gdy ktoś próbuje przenieść większy plik, na przykład film w jakości Full HD lub długi materiał audio, i nagle pojawia się komunikat o błędzie kopiowania. Dzieje się tak właśnie przez tę granicę 4 GB. Moim zdaniem praktycznie każdy, kto pracuje z multimedialnymi plikami, powinien znać ten limit, bo to oszczędza sporo nerwów podczas pracy. W praktyce, jeśli potrzebujesz przenosić większe pliki, trzeba korzystać z nowszych systemów plików, takich jak exFAT czy NTFS, które takich ograniczeń nie mają lub są one dużo, dużo wyższe. Branżowo to też istotny temat, bo na przykład wiele urządzeń – aparaty fotograficzne, kamery, rejestratory dźwięku – stosuje FAT32 właśnie dla maksymalnej kompatybilności, więc ograniczenie rozmiaru pliku staje się tam realnym wyzwaniem. W codziennej pracy z elektroniką użytkową czy nawet na lekcji informatyki, szybko wychodzi na jaw, że FAT32 to synonim „max 4 GB na plik” i warto nie tylko o tym pamiętać, ale też dobrze rozumieć przyczyny tego ograniczenia.

Pytanie 19

Który z wymienionych parametrów określa stromość krzywej nachylenia filtracji filtra HPF?

A. Gain
B. Frequency
C. Width
D. Slope
Slope, zwany po polsku stromością, to kluczowy parametr każdego filtra, zwłaszcza filtrów HPF (High-Pass Filter). Określa on, jak gwałtownie filtr tłumi częstotliwości poniżej punktu odcięcia. Zazwyczaj wyrażany jest w decybelach na oktawę (np. 12 dB/oct), co oznacza, o ile spada poziom sygnału z każdą kolejną oktawą poniżej tej granicznej częstotliwości. W praktyce, im większa stromość, tym mocniej „odcina” się niechciane niskie częstotliwości, co na przykład świetnie sprawdza się przy oczyszczaniu sygnałów wokalnych, usuwaniu szumów niskotonowych czy ochronie kolumn przed subbasem. Często korzystam z filtrów HPF w miksie perkusji, żeby pozbyć się zbędnych dudnień – wtedy wybieram właśnie parametr slope, bo gain nie ma tu zastosowania. W branży audio przyjmuje się, że rozsądny dobór stromości to podstawa czystego miksu – zbyt łagodny slope przepuści niechciane tony, a zbyt ostry może „wyciąć” naturalność brzmienia. Fajnie wiedzieć, że slope bywa też nazywany gradientem filtra w niektórych manualach. W sumie, bez znajomości tego parametru trudno świadomie kształtować brzmienie. Moim zdaniem to jedno z absolutnie bazowych zagadnień, które każdy realizator czy elektronik powinien ogarnąć, bo potem łatwiej unikać typowych błędów, jak np. zamulone brzmienie czy nadmierne wycinanie sygnału.

Pytanie 20

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -3 dBFS
B. -0,3 dBFS
C. -6 dBFS
D. -12 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 21

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 12 bitów
B. 16 bitów
C. 8 bitów
D. 24 bity
Wybór rozdzielczości 24 bity przy nagrywaniu dźwięku o dynamice 100 dB zdecydowanie ma sens, bo właśnie taka głębia bitowa daje szeroki margines bezpieczeństwa – zarówno jeśli chodzi o jakość, jak i komfort pracy później przy obróbce materiału. Z technicznego punktu widzenia, każda dodatkowa liczba bitów to ok. 6 dB możliwej dynamiki, czyli 24-bitowy system pozwala zarejestrować nawet ponad 140 dB – to już są wartości wykraczające poza potrzeby większości realnych nagrań, nawet tych profesjonalnych. Moim zdaniem, w praktyce zawsze lepiej nagrywać w 24 bitach, nawet jeśli teoretycznie wystarczy mniej – przy miksowaniu, edycji czy masteringu taka zapasowa rozdzielczość chroni przed stratami jakości lub niechcianymi zniekształceniami. Zresztą nie bez powodu obecnie to już branżowy standard, nawet w domowych studiach. Przykładowo, rejestrując koncert, gdzie dynamika potrafi zaszaleć, 24 bity pozwolą uchwycić zarówno najcichsze niuanse, jak i potężne szczyty bez ryzyka przesterowania. Tak naprawdę to już trochę przyszłościowe zabezpieczenie, bo coraz częściej masteruje się właśnie w tej głębi, nawet jeśli finalny plik do słuchania ma mniej bitów. Właśnie dlatego, wybierając 24 bity, masz pewność, że żadna część dynamicznego brzmienia nie zostanie utracona czy zniekształcona, nawet jeśli nagrywasz coś wymagającego, jak orkiestra czy perkusja.

Pytanie 22

Co najmniej ilu płyt CD-R należy użyć do zarejestrowania 3-godzinnego nagrania w standardzie CD-Audio?

A. 2 płyt.
B. 3 płyt.
C. 4 płyt.
D. 5 płyt.
Wybranie odpowiedzi „3 płyt” jest w pełni zgodne z technicznymi ograniczeniami standardu CD-Audio. Standardowa płyta CD-R w formacie audio mieści około 80 minut nagrania (czyli 700 MB danych przy próbkowaniu 44,1 kHz, 16 bitów, stereo). Trzy godziny nagrania to 180 minut, co łatwo podzielić: 180 minut / 80 minut ≈ 2,25, ale że nie można zapisać części płyty, to trzeba zaokrąglić w górę – wychodzi 3 płyty. W praktyce oznacza to, że żadna pojedyncza płyta CD-R nie pomieści więcej niż tych 80 minut audio, nawet jeśli używamy płyt dobrej jakości czy próbujemy na siłę coś upchnąć – ograniczenie wynika ze specyfikacji Red Book. Często w pracy z dźwiękiem spotyka się sytuacje, gdzie trzeba dzielić długie nagrania na kilka fizycznych nośników – moim zdaniem, to bardzo ważne umieć szacować takie rzeczy „na oko”, bo zdarza się, że ktoś planuje archiwizację nagrania czy materiał z koncertu i potem jest zdziwiony, że jedna płyta nie wystarczy. Takie rozumowanie przydaje się nie tylko przy CD, ale także przy DVD czy innych nośnikach, bo zawsze trzeba mieć „z tyłu głowy” maksymalną pojemność i ograniczenia formatu. W branży muzycznej i radiowej bardzo często korzysta się właśnie z takich podstawowych kalkulacji pojemności – nie tylko, żeby dobrać liczbę płyt, ale też żeby właściwie podzielić utwory czy segmenty nagrań na części nieprzekraczające limitów nośnika. To naprawdę praktyczna umiejętność, szczególnie przy produkcji płyt demo i archiwizacji.

Pytanie 23

Jakie jest optymalne miejsce ucięcia ścieżki dźwiękowej?

A. Przed początkiem dźwięku.
B. Na wybrzmiewaniu.
C. Pośrodku dźwięku.
D. Na szumie.
Optymalne miejsce ucięcia ścieżki dźwiękowej to zdecydowanie przed początkiem dźwięku. To podejście jest zgodne z tym, jak działa profesjonalna postprodukcja audio – pozwala zachować czystość materiału i uniknąć niepotrzebnych artefaktów, takich jak zbędny szum czy przypadkowe kliknięcia. Moim zdaniem, jeśli zostawimy nawet kawałek ciszy przed startem dźwięku, dużo łatwiej później miksować materiał, dopasowywać go do innych śladów czy synchronizować z obrazem. To szczególnie ważne w montażu filmowym, reklamie czy przy produkcji podcastów. W praktyce, zanim przystąpi się do masteringu, wielu inżynierów dźwięku stosuje tzw. edycję na zero – czyli cięcie dokładnie tam, gdzie zaczyna się pierwszy słyszalny dźwięk. Czasem używa się lupy w edytorze audio, żeby precyzyjnie wyłapać to miejsce. Od strony technicznej, wycinając wcześniej, unika się zbędnych szumów tła czy oddechów, które mogą przeszkadzać w dalszej obróbce. W branży muzycznej i filmowej jest też taka praktyka, żeby nie kasować ataku dźwięku, bo wtedy sygnał brzmi naturalnie i nie traci swojej dynamiki. Dobrą praktyką jest też zostawienie krótkiego marginesu ciszy, ale tylko wtedy, gdy to zamierzone. To trochę jak z kadrowaniem zdjęcia – lepiej uciąć za dużo niż za mało, bo zawsze można coś dodać, a usuniętego ataku już nie odzyskasz. Z mojego doświadczenia, cięcie tuż przed początkiem dźwięku sprawia, że projekt od razu brzmi profesjonalniej, nie trzeba potem walczyć z dziwnymi artefaktami czy niekontrolowanymi wejściami dźwięku. I, co ważne, to rozwiązanie pasuje do praktycznie każdego gatunku muzycznego czy projektu audio.

Pytanie 24

Tłocznia płyt wymaga dostarczenia obrazu nośnika CD lub DVD w formacie

A. ISO
B. DDP 2.0
C. ZIP
D. DMG
DDP 2.0 to taki trochę skarb w branży tłoczenia płyt – jeśli ktoś poważnie podchodzi do przygotowania profesjonalnych wydawnictw CD czy DVD, nie ma chyba lepszej opcji. Ten format został opracowany specjalnie z myślą o tłoczniach, bo zawiera nie tylko obraz ścieżek audio lub danych, ale też wszystkie niezbędne informacje o strukturze płyty. To oznacza, że w DDP mamy zapisane nie tylko audio, ale i indeksy, kody PQ, ISRC, CD-Text, a nawet sumy kontrolne, więc błędy przy tłoczeniu praktycznie nie wchodzą w grę. Co ciekawe, większość nowoczesnych programów do masteringu, jak np. HOFA CD-Burn, WaveLab czy nawet Sequoia, umożliwia wygenerowanie obrazu DDP, bo płyty przesyłane do tłoczni jako zwykłe ISO czy ZIP mogą nie przechowywać wszystkich tych metadanych. Z mojego doświadczenia wynika, że większość profesjonalnych tłoczni wręcz nie przyjmuje już fizycznych płyt-matek, tylko właśnie żąda paczki DDP – przesłanej przez FTP czy przez chmurę. Też warto wiedzieć, że DDP wyeliminowało masę problemów ze zgodnością i błędami, które zdarzały się, gdy wykorzystywano inne formaty. To taki dobry przykład, jak branża audio wypracowała sobie własny, bardzo konkretny standard dla zapewnienia jakości.

Pytanie 25

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R
B. DVD+R DL
C. DVD-R
D. DVD-RW
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 26

Procesor dźwięku realizujący efekt echo wpływa na

A. wysokość przetwarzanych dźwięków.
B. pasmo częstotliwości przetwarzanego sygnału.
C. dynamikę przetwarzanego sygnału.
D. przestrzenność materiału muzycznego.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 27

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 1|1|000
B. 1|0|000
C. 0|0|000
D. 0|1|000
Format oznaczania pozycji na osi czasu w DAW-ach (digital audio workstation), czyli tzw. licznik BARS/BEATS, wywodzi się z klasycznego zapisu muzycznego i standardów produkcji dźwięku. Oznaczenie 1|1|000 wskazuje na pierwszy takt (BAR), pierwszą ćwierćnutę (BEAT) i zerową tysięczną podziałkę (subtick) – to po prostu początek sesji. Takie ustawienie stosuje się praktycznie we wszystkich popularnych DAW-ach jak Cubase, Logic, Ableton czy Pro Tools, bo pozwala zachować porządek i logiczną ciągłość od startu projektu. Moim zdaniem dobrze jest od razu nauczyć się czytać ten format, bo na przykład 0|1|000 czy 0|0|000 w ogóle nie występują w praktyce – w notacji muzycznej nie ma "taktu zerowego." To trochę jak z numerem pierwszego piętra w bloku – nikt nie zaczyna od piętra 0. Warto też pamiętać, że dużo funkcji (kwantyzacja, snap do siatki, edycja MIDI) bazuje właśnie na precyzyjnym ustawieniu kursora na 1|1|000, żeby cała aranżacja startowała perfekcyjnie razem z metronomem. Jeśli od początku projektujesz sesję od 1|1|000, unikasz problemów z przesunięciem pętli czy automatyzacją. To taki mały szczegół, który potem ratuje mnóstwo nerwów podczas miksowania większych aranżacji. Polecam zawsze sprawdzać, czy projekt zaczyna się właśnie w tym miejscu.

Pytanie 28

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 12 dB/okt.
C. 18 dB/okt.
D. 6 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 29

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Trzykrotny.
B. Pięciokrotny.
C. Dwukrotny.
D. Czterokrotny.
Zwiększenie poziomu sygnału o 10 dB odbieramy jako dwukrotny wzrost głośności – to taka ciekawostka, bo dB to skala logarytmiczna i nasze ucho też działa, powiedzmy, nieliniowo. Stąd właśnie różnica między tym, co pokazuje miernik, a tym, co faktycznie słyszymy. Jeśli np. podczas pracy przy konsoletach mikserskich sygnał wzrośnie o 10 dB, to w praktyce subiektywnie poczujesz, że muzyka jest mniej więcej dwa razy głośniejsza – można to naprawdę łatwo przetestować na słuchawkach czy kolumnach. W branży nagłośnieniowej często zakłada się, że każdy wzrost o 10 dB to taki właśnie „podwójny” subiektywny przyrost głośności. To też ważne przy projektowaniu systemów nagłośnienia, doborze kolumn czy planowaniu tłumień akustycznych – nie musisz dążyć do ekstremalnych poziomów dB, bo efekt dla słuchacza nie jest liniowy. Moim zdaniem to bardzo praktyczna wiedza, bo często spotykam się z sytuacją, gdzie ktoś podkręca poziom sygnału o 3-4 dB i myśli, że to już ogromna różnica, a tymczasem 10 dB to dopiero takie „wow”. Warto pamiętać, że ta zasada 2x dotyczy wrażeń słuchowych i trochę się różni od czysto technicznego wzrostu mocy (tam podwojenie mocy to tylko 3 dB). To jest taki klasyczny przykład, jak teoria łączy się z praktyką i naprawdę pomaga w codziennej pracy z dźwiękiem.

Pytanie 30

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.ac3
B. *.tiff
C. *.opus
D. *.amr
Rozszerzenie *.tiff faktycznie nie jest związane z plikami dźwiękowymi, tylko z grafiką rastrową. Format TIFF (Tagged Image File Format) jest szeroko wykorzystywany w profesjonalnej fotografii, druku czy skanowaniu dokumentów, bo umożliwia przechowywanie obrazów wysokiej jakości bez strat. Co ciekawe, TIFF pozwala na zapis wielu warstw oraz kanałów alfa, co daje spore pole do popisu przy edycji zdjęć, archiwizacji czy w pracy z dużymi plikami graficznymi. W odróżnieniu od formatów takich jak *.opus, *.amr czy *.ac3 – które są stricte skojarzone z dźwiękiem, kodowaniem głosu lub dźwięku przestrzennego – TIFF nie przechowuje dźwięku ani metadanych audio. Moim zdaniem, rozpoznawanie takich rozszerzeń to absolutna podstawa w pracy z multimediami, szczególnie gdy zarządzasz dużą ilością różnego typu plików. W praktyce, kiedy widzisz plik z rozszerzeniem .tiff, możesz śmiało założyć, że to albo zdjęcie, albo skan, nie nagranie audio. Branża IT czy grafiki komputerowej mocno stawia na rozdzielenie formatów, żeby uniknąć bałaganu i przypadkowego mieszania treści – to naprawdę się sprawdza. Na co dzień warto mieć tę wiedzę, bo oszczędza sporo czasu przy porządkowaniu zasobów.

Pytanie 31

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. AAC
B. FLAC
C. WMA
D. AC-4
FLAC to skrót od Free Lossless Audio Codec i w branży muzycznej oraz IT jest uznawany za standard, jeśli chodzi o bezstratną kompresję dźwięku. O co tak naprawdę chodzi z tą bezstratnością? W przeciwieństwie do większości kodeków popularnych w serwisach streamingowych, FLAC nie usuwa żadnych danych z oryginalnego nagrania – po dekompresji plik brzmi identycznie jak źródło, nawet na profesjonalnych systemach odsłuchowych. W praktyce FLAC jest wykorzystywany przez audiofilów, archiwistów muzycznych, a także w studiach nagraniowych do przechowywania i wymiany materiałów bez pogorszenia jakości. Z mojego doświadczenia wynika, że FLAC świetnie sprawdza się też, gdy zależy komuś na archiwizacji prywatnych kolekcji płyt CD – można spokojnie zgrać płytę do FLAC, a potem odtworzyć ją bez najmniejszej straty. Kodek ten jest zgodny z wolnym oprogramowaniem, ma otwartą specyfikację (co jest dużym plusem przy długoterminowym przechowywaniu danych) i wspierają go zarówno systemy Windows, macOS, jak i Linux. Warto też dodać, że bezstratność to ważna cecha w profesjonalnej produkcji dźwięku, gdzie nawet drobna degradacja jakości może być niedopuszczalna. Niektóre serwisy streamingowe, jak Tidal czy Qobuz, oferują muzykę w formacie FLAC właśnie ze względu na jego zalety. Moim zdaniem, każde archiwum, gdzie liczy się wierność nagrania, powinno opierać się o FLAC-a.

Pytanie 32

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. L0 R0
B. L50 L100
C. L100 R100
D. R50 R100
Ustawienie panoramy dwóch sygnałów monofonicznych na L100 oraz R100 to klasyczne rozwiązanie, które pozwala osiągnąć maksymalną separację przestrzenną w systemie stereo. Co to właściwie znaczy? L100 oznacza pełne wychylenie panoramy na lewo, a R100 — na prawo. W praktyce realizatorskiej jest to jeden z najprostszych sposobów, żeby dwa niezależne dźwięki nie nakładały się na siebie w środku obrazu stereo i każdy z nich zajął „swoją własną” przestrzeń w miksie. Dzięki temu odbiorca słyszy wyraźnie rozdzielone źródła dźwięku — na przykład dwie gitary, wokale lub inne instrumenty — i nie ma wrażenia, że dźwięki się mieszają. Taka technika jest często stosowana w miksie perkusji, kiedy np. hi-hat idzie mocno w lewo, a ride w prawo, żeby uzyskać poczucie szerokości sceny. Moim zdaniem, w sytuacjach, gdzie zależy nam na czytelności i selektywności, takie hard-panning jest wręcz niezastąpione. Oczywiście, warto uważać, bo przesadne korzystanie z tej metody może sprawić, że miks zabrzmi nienaturalnie w mono lub na głośnikach niesymetrycznych, ale w większości nowoczesnych produkcji to standardowa praktyka. Branżowe normy, jak choćby te stosowane w broadcastingu czy nagraniach koncertowych, wręcz zalecają takie ustawienia dla uzyskania maksymalnej rozdzielczości przestrzennej.

Pytanie 33

Który z wymienionych nośników standardowo wykorzystuje zapis dźwięku w formacie ATRAC?

A. ADAT
B. MiniDisc
C. CD-Audio
D. Mini-Cassette
MiniDisc to naprawdę ciekawe rozwiązanie, które pojawiło się na rynku w latach 90. I w sumie moim zdaniem trochę niedocenione w Polsce. Najważniejsze, że MiniDisc standardowo wykorzystuje kodek ATRAC (Adaptive Transform Acoustic Coding), który został opracowany przez firmę Sony specjalnie z myślą o tym formacie. ATRAC umożliwiał skuteczną kompresję sygnału audio bez dużych strat na jakości, co było mega ważne, bo wtedy nośniki cyfrowe miały sporo ograniczeń pojemnościowych. W praktyce, zapis na MiniDiscu pozwalał na przechowywanie nawet do 80 minut muzyki o jakości podobnej do płyty CD – chociaż trochę lepsi słuchacze czasem wyczuwali różnice, nie będę ukrywał. W branży sprzętu audio MiniDisc był wykorzystywany przez dziennikarzy, muzyków czy inżynierów dźwięku, bo pozwalał na szybkie nagrywanie i wielokrotne kasowanie materiału bez strat typowych dla kaset magnetofonowych. Format ATRAC był integralną częścią tej technologii – nie spotkasz go w standardowych CD-Audio, ADAT czy mini-cassette. Swoją drogą, wiele osób myli ATRAC z innymi popularnymi kodekami (np. MP3), ale to właśnie ATRAC przez długi czas był firmowym znakiem Sony. W praktyce, wybierając MiniDisc, korzystałeś zawsze z tego właśnie kodeka, co miało też wpływ na kompatybilność odtwarzaczy i jakość archiwizacji nagrań. Branżowo uznaje się, że ATRAC dobrze zbalansował jakość dźwięku i oszczędność miejsca, dając profesjonalistom bardzo wygodne narzędzie do pracy.

Pytanie 34

Który z wymienionych skrótów klawiaturowych służy do zapisania sesji oprogramowania DAW na dysku komputera?

A. CTRL + V (Win) / Command + V (Mac)
B. CTRL + C (Win) / Command + C (Mac)
C. CTRL + X (Win) / Command + X (Mac)
D. CTRL + S (Win) / Command + S (Mac)
CTRL + S (Windows) oraz Command + S (Mac) to chyba najbardziej intuicyjny skrót w każdej aplikacji komputerowej, ale w DAW-ach (Digital Audio Workstation) jest wręcz podstawowym narzędziem pracy. Dzięki niemu można zapisać całą sesję, wszystkie projekty i nagrania bez potrzeby przeklikiwania się przez menu. To ogromna oszczędność czasu, zwłaszcza gdy pracujesz na wielu ścieżkach albo masz rozbudowaną sesję z masą efektów czy automatyzacji. Co ciekawe, praktycznie każdy program audio – od Abletona przez Cubase aż po Pro Tools – korzysta właśnie z tego skrótu do zapisywania projektu. Moim zdaniem to trochę tak jakby w samochodzie mieć szybki dostęp do hamulca – po prostu musisz mieć to pod ręką. W branży mówi się nawet o tzw. muscle memory na ten skrót – odruchowo wciskasz go po każdej większej zmianie, żeby nie stracić efektów pracy. Swoją drogą, nauczenie się zapisywania co parę minut to nawyk, który potrafi uratować całą sesję, zwłaszcza jeśli DAW się zawiesi albo padnie zasilanie. Z mojego doświadczenia wynika, że osoby, które automatycznie korzystają z CTRL + S, rzadziej tracą projekty, mniej się stresują i ogólnie pracują sprawniej. Dla porządku warto wiedzieć, że chociaż DAW-y coraz częściej oferują autozapis, to jednak ręczny zapis zawsze daje ci pełną kontrolę nad wersjami projektu – możesz zrobić backup, zapisać pod inną nazwą, wrócić do wcześniejszej wersji. Mając to wszystko na uwadze, dobrze jest po prostu wyrobić sobie ten nawyk już na początku przygody z DAW-ami.

Pytanie 35

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Create Session from Template
B. Open Recent Session
C. Open Last Session
D. Create Empty Session
Odpowiedź „Create Session from Template” jest zdecydowanie tą właściwą i praktyczną opcją w kontekście codziennej pracy z oprogramowaniem DAW. Pozwala na szybkie rozpoczęcie nowego projektu na podstawie przygotowanego wcześniej szablonu. Dzięki temu można od razu mieć pod ręką ustawione ścieżki, routing, efekty, a nawet strukturę aranżacyjną—zamiast zaczynać wszystko od zera. Szablony sesji to niesamowicie praktyczna funkcja, szczególnie jeśli regularnie pracujesz nad podobnymi typami projektów, np. podcastami, nagraniami live czy miksami do muzyki elektronicznej. W wielu profesjonalnych studiach korzystanie z szablonów to standardowa procedura, bo pozwala zaoszczędzić sporo czasu i zminimalizować powtarzalne czynności. Z mojego doświadczenia wynika, że dobrze przygotowany szablon potrafi uratować niejedną sesję, szczególnie gdy czas goni albo klient już czeka w drzwiach. Warto pamiętać, że szablony można modyfikować i rozwijać, co pozwala stopniowo udoskonalać własny workflow. Co ciekawe, większość popularnych DAW, jak Pro Tools, Cubase czy Studio One, zachęca do pracy z szablonami, bo to po prostu się opłaca – mniej frustracji, więcej muzyki. Szczerze, kiedyś sam nie doceniałem tej opcji, a dziś trudno mi sobie wyobrazić pracę bez szablonów.

Pytanie 36

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .ape
B. .flac
C. .wav
D. .m4a
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 37

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 4
B. 6
C. 2
D. 5
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 38

Wskaż narzędzie przeznaczone do powiększania lub zmniejszania obrazu obszaru roboczego w sesji montażowej programu DAW.

A. Zoom Tool.
B. Scissor Tool.
C. Test Tool.
D. Solo Tool.
Zoom Tool to faktycznie narzędzie, które w praktycznie każdym nowoczesnym DAW umożliwia szybkie powiększanie albo zmniejszanie widoku obszaru roboczego. Moim zdaniem, to jedno z tych narzędzi, z których korzysta się niemal cały czas, zwłaszcza przy bardziej rozbudowanych projektach – czy to w Cubase, Logic Pro, Abletonie czy Pro Tools. Dzięki Zoom Tool możemy dokładnie przyjrzeć się szczegółom edytowanej ścieżki lub na odwrót: zobaczyć szerszy kontekst całego aranżu. To bardzo ważne, bo często trzeba na przykład wyłapać precyzyjnie miejsce cięcia, ustawić dokładnie punkt edycji lub znaleźć fragment, który wymaga poprawki. Używanie Zoom Toola to nie tylko wygoda, ale też oszczędność czasu – nie musisz przewijać ani gubić się w gąszczu ścieżek. W branży standardem jest szybkie przełączanie się pomiędzy różnymi zakresami widoku, zwłaszcza przy pracy na wielu ścieżkach lub dużej liczbie klipów. Dobrą praktyką jest również łączenie Zoom Tool z funkcjami skrótów klawiaturowych, bo pozwala to jeszcze szybciej reagować na potrzeby projektu. Warto pamiętać, że niektóre DAWy pozwalają nawet na tworzenie własnych presetów powiększenia, co dodatkowo usprawnia workflow. Z mojego doświadczenia – im sprawniej opanujesz obsługę Zoom Toola, tym płynniej i efektywniej pójdzie ci każda sesja montażowa.

Pytanie 39

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Digital
B. Dolby Stereo
C. Dolby Digital Live
D. Dolby TrueHD
Dolby TrueHD to zaawansowany format dźwięku wielokanałowego, który został opracowany specjalnie z myślą o zapewnieniu najwyższej jakości audio na nośnikach Blu-ray Disc. W przeciwieństwie do większości popularnych kodeków, takich jak Dolby Digital, TrueHD pozwala na zapis i odtwarzanie dźwięku w pełni bezstratnie, co oznacza, że nie traci się żadnych informacji względem oryginalnego materiału studyjnego. To rozwiązanie umożliwia obsługę nawet 8 kanałów (czyli konfiguracja 7.1), co jest wykorzystywane w nowoczesnych systemach kina domowego. Sygnał zakodowany w Dolby TrueHD zachowuje wszystkie detale, dynamikę i przestrzenność miksu, co ma ogromne znaczenie podczas projekcji filmów akcji, koncertów czy gier wideo na dużych ekranach i profesjonalnym sprzęcie audio. W branży filmowej i muzycznej Dolby TrueHD jest bardzo ceniony właśnie za tę jakość – można powiedzieć, że jest to takie audiofilskie podejście do domowej rozrywki. Z mojego doświadczenia, jeśli ktoś naprawdę chce poczuć, jak brzmią filmy czy muzyka w wersji zbliżonej do tego, co słyszeli inżynierowie dźwięku w studiu, to właśnie TrueHD jest tym wyborem, zwłaszcza na nośnikach Blu-ray. Producenci sprzętu audio-video od lat wspierają ten standard i jest to bezdyskusyjnie preferowana metoda zapisu wielokanałowego dźwięku bez strat jakości.

Pytanie 40

W jakim formacie plików występują znaczniki ID3?

A. .aiff
B. .wav
C. .bwf
D. .mp3
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.