Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 4 maja 2026 21:44
  • Data zakończenia: 4 maja 2026 21:49

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. SOLO
B. INPUT
C. MUTE
D. RECORD
Funkcja SOLO na ścieżkach w sesji DAW to absolutna podstawa pracy z wieloma kanałami dźwiękowymi. Włączając SOLO na konkretnej ścieżce, powodujesz, że tylko ten tor (lub grupa zaznaczonych ścieżek solo) jest słyszalny w odsłuchu, a cała reszta zostaje automatycznie wyciszona. To bardzo przydatne np. podczas miksowania, kiedy chcesz dokładnie usłyszeć, co się dzieje z dźwiękiem jednej stopy perkusyjnej albo wokalu, bez rozpraszających elementów innych śladów. W każdym poważniejszym DAW – czy to Pro Tools, Cubase, Ableton, Reaper, Studio One – SOLO działa praktycznie identycznie, więc to taki uniwersalny język producentów. Moim zdaniem, bez SOLO nie da się pracować szybko i precyzyjnie, bo wyłuskanie niuansów w gąszczu śladów bez tej funkcji to prawdziwa męka. Często używa się SOLO w połączeniu np. z automatyzacją lub korekcją – bo dopiero na czystym odsłuchu da się „wyłapać” niechciane dźwięki czy precyzyjnie ustawić efekty. Warto pamiętać, że są różne tryby SOLO, np. solo destrukcyjne (mute dla reszty ścieżek) czy solo PFL (pre-fader listen) – to już bardziej zaawansowane, ale w każdym razie, SOLO to kluczowy przyjaciel każdego realizatora.

Pytanie 2

W jakim celu normalizuje się pliki dźwiękowe?

A. Wyrównania pików nagrania do tej samej wartości.
B. Ustalenia maksymalnego poziomu nagrania.
C. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
D. Ustalenia minimalnego poziomu nagrania.
Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.

Pytanie 3

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save As
B. Revert to Saved
C. Save Copy In
D. Save
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.

Pytanie 4

Funkcja służąca do zgrania zaznaczonego fragmentu materiału dźwiękowego w sesji oprogramowania DAW na dysk komputera znajduje się typowo w menu

A. EVENT
B. WINDOW
C. OPTIONS
D. FILE
Odpowiedź FILE jest zdecydowanie tą, która najlepiej oddaje praktykę pracy w niemal każdym oprogramowaniu DAW – od Cubase’a, przez REAPER-a, po Pro Tools. To właśnie pod menu FILE umieszczane są funkcje związane z zapisem, eksportem czy archiwizacją projektu i elementów audio. Jeśli chcesz „zgrać” wybrany fragment ścieżki, eksportować wycinek miksu lub renderować zaznaczenie, zawsze powinieneś celować właśnie w to menu. Co istotne, niezależnie od tego, czy wybierasz opcję Export, Bounce, Render czy Save As, wszystko to mieści się właśnie pod FILE, bo cała filozofia tej sekcji bazuje na zarządzaniu plikami i ich zapisywaniem na dysk. W praktyce ja za każdym razem, kiedy przygotowuję stem lub bounce ścieżek dla realizatora czy po prostu do archiwum, korzystam z tego właśnie miejsca. To bardzo ułatwia późniejsze odnalezienie się w sesji i utrzymuje porządek w workflow. Taka organizacja interfejsu DAW to już właściwie branżowy standard i trzymając się tej ścieżki, łatwiej znaleźć odpowiednie opcje nawet w nowym, nieznanym oprogramowaniu. Ciekawostką jest, że ta struktura menu wywodzi się jeszcze z dawnych konwencji projektowania oprogramowania i przez lata praktycznie się nie zmieniła, co bardzo ułatwia życie użytkownikom przy zmianie DAW. Jeśli kiedyś przeniesiesz się na inny program, na 99% ta logika menu będzie dokładnie taka sama.

Pytanie 5

W którym z wymienionych programów nie można wykonać montażu dźwięku równolegle z obrazem?

A. Pro Tools.
B. Audition.
C. Audacity.
D. Logic Pro X.
Audacity to popularny, darmowy edytor audio, ale nie jest to program do montażu dźwięku w połączeniu z obrazem. W praktyce, jeżeli pracujemy przy produkcji wideo, nawet na prostym poziomie – np. montując filmy do internetu, relacje czy krótkie reklamy – to narzędzia takie jak Adobe Audition, Pro Tools albo Logic Pro X pozwalają zsynchronizować dźwięk bezpośrednio z materiałem wideo, obserwując obraz i ścieżkę dźwiękową jednocześnie. Audacity niestety nie obsługuje podglądu wideo ani importu plików filmowych, co bardzo ogranicza jego zastosowanie w profesjonalnym postprodukcji. Moim zdaniem to dość poważne ograniczenie – bo nawet jeśli ktoś potrafi w Audacity świetnie ciąć czy poprawiać dźwięk, to nie zrobi synchronizacji z obrazem, a to podstawa w filmie, reklamie czy animacji. Przemysł filmowy i telewizyjny od lat bazuje na programach DAW z funkcją importu wideo i dokładnego, klatkowego dopasowania dźwięku. Co ciekawe, nawet amatorskie DAWy powoli wprowadzają obsługę plików wideo, bo zapotrzebowanie na produkcję treści multimedialnych jest coraz większe. Audacity świetnie się sprawdza do prostych obróbek audio, podcastów, digitalizacji kaset czy czyszczenia nagrań, ale do pracy synchronicznej z obrazem po prostu się nie nada. Szkoda, ale taka jest specyfika tego softu.

Pytanie 6

W sesji oprogramowania DAW o parametrach tempo 120 BPM i metrum 4/4, ćwierćnuta występować będzie co

A. 500 ms
B. 2 000 ms
C. 1 000 ms
D. 1 500 ms
Tempo 120 BPM oznacza, że w ciągu minuty mamy 120 uderzeń, czyli ćwierćnut. Skoro jedna minuta to 60 sekund, to jedno uderzenie przypada co 0,5 sekundy, czyli właśnie 500 ms. To jest taki klasyczny, bardzo często spotykany w produkcji muzycznej podział czasu – na przykład w muzyce elektronicznej, popie czy nawet rocku. Z praktycznego punktu widzenia: jeżeli masz w DAW ustawione 120 BPM, a chcesz zsynchronizować delay albo LFO z tempem utworu, to ustawiając czas na 500 ms dasz efekt, który idealnie pasuje pod każdą ćwierćnutę. Moim zdaniem warto to po prostu zapamiętać, bo przy miksowaniu automatyzacji czy przy ustawianiu efektów delayowych, większość producentów korzysta właśnie z tego przelicznika. To trochę taki branżowy standard. Warto też wspomnieć, że większość DAW ma funkcję automatycznego przeliczania wartości muzycznych na milisekundy, ale dobrze jest znać tę zależność na pamięć – czasami szybciej policzyć to w głowie niż szukać opcji w programie. Osobiście nieraz spotykałem się z sytuacją, gdy szybkie przeliczenie ćwierćnuty w BPM na ms ratowało sprawę na sesji nagraniowej czy przy szybkim montażu rytmicznych efektów. Krótko mówiąc, 500 ms to podstawa dla 120 BPM, metrum 4/4 i ćwierćnuty – taki złoty środek w pracy z rytmem.

Pytanie 7

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista regionów.
B. Lista grup.
C. Lista efektów.
D. Lista ścieżek.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 8

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW wskazuje, że kursor znajduje się w punkcie rozpoczęcia 2 sekundy od początku sesji, jeżeli tempo wynosi 120 bpm, a metrum – 4/4?

A. 1|2|000
B. 1|1|000
C. 1|3|000
D. 2|1|000
Poprawna odpowiedź wynika bezpośrednio z podstawowych zasad działania siatki czasowej w programach typu DAW, gdzie tempo ustawione jest na 120 bpm, a metrum to 4/4. W tym układzie jedna ćwierćnuta trwa dokładnie pół sekundy, bo 120 bpm to dwa bity na sekundę. Zatem dwie sekundy to cztery ćwierćnuty, czyli jeden pełen takt 4/4. Kursor postawiony na 1|3|000 oznacza trzecią ćwierćnutę pierwszego taktu – czyli po dwóch pełnych sekundach od startu sesji DAW. Co ważne, praktycznie każdy realizator czy producent korzysta z tego typu przeliczeń np. przy precyzyjnym ustawianiu markerów czy automatyzacji efektów, żeby synchronizować wydarzenia muzyczne z tempem projektu. Moim zdaniem, świetnie jest nauczyć się liczyć w głowie, gdzie na przebiegu projektu DAW znajduje się konkretna sekunda, bo to mega ułatwia współpracę z muzykami i programistami w studiu. Takie podejście oszczędza mnóstwo czasu w miksie czy edycji. Warto też pamiętać, że większość profesjonalnych DAW opiera się na właśnie takim standardzie – licznik BARS|BEATS|TICKS jest super przydatny przy aranżacji, edycji i kwantyzacji różnych partii. Gdybym miał coś doradzić, to zawsze trzymaj się praktyki szybkiego przeliczania tempa na wartości taktu – to podstawa workflow w branży muzycznej.

Pytanie 9

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. CBR
B. MBR
C. VBR
D. ABR
VBR to skrót od Variable Bitrate, co oznacza zmienną przepływność bitową. To bardzo charakterystyczne dla nowoczesnych formatów kompresji audio i wideo – na przykład w MP3, MPEG-4 czy H.264. W praktyce VBR polega na tym, że bitrate nie jest sztywnie ustalony, tylko dostosowuje się dynamicznie w zależności od złożoności fragmentu sygnału. Prościej mówiąc – tam, gdzie dużo się dzieje (np. szybka akcja w filmie, dynamiczne sceny, złożona muzyka), bitrate rośnie, żeby zachować jakość. Tam, gdzie sceny statyczne czy prosta cisza w audio – bitrate automatycznie spada i nie marnujemy miejsca. Dzięki temu pliki z VBR zwykle mają lepszy stosunek jakości do rozmiaru niż w przypadku stałego bitrate (CBR). Moim zdaniem, jak ktoś koduje nagrania do archiwum czy przesyła przez sieć o nieregularnej przepustowości, to VBR to jest naprawdę praktyczny wybór. Branżowe standardy bardzo często preferują VBR tam, gdzie zależy na maksymalnej jakości przy oszczędności pasma czy powierzchni dyskowej – np. YouTube czy Spotify korzystają z tego rozwiązania. Z mojego doświadczenia, przy montażu wideo zawsze warto upewnić się, że program eksportuje materiał w VBR, żeby nie tracić jakości na dynamicznych scenach. To takie trochę sprytne podejście do zarządzania ograniczonymi zasobami, wykorzystując je dokładnie tam, gdzie są potrzebne.

Pytanie 10

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. LPF
B. BPF
C. HPF
D. HSF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ układu, w którym najczęściej reguluje się dobroć, czyli współczynnik Q. Dobroć (Q) definiuje, jak wąskie lub szerokie jest pasmo przepuszczania filtru – im wyższa wartość Q, tym filtr bardziej selektywny, a jego charakterystyka ostrzejsza. Moim zdaniem, w praktyce to jest szalenie istotne, kiedy projektujesz np. aktywne korektory barwy dźwięku, filtry w układach analogowych syntezatorów albo systemy pomiarowe. W aplikacjach audiofilskich czy DSP często wymaga się bardzo precyzyjnego tłumienia określonych częstotliwości, więc możliwość regulacji dobroci jest naprawdę przydatna. Filtry BPF można też znaleźć w komunikacji radiowej do wyodrębniania wąskich kanałów pasma. W wielu układach, np. w popularnym filtrze typu Sallen-Key, parametr Q bardzo łatwo modyfikować doborem odpowiednich elementów. Dobroć nie jest kluczowa dla LPF (Low Pass Filter) czy HPF (High Pass Filter), bo one mają tylko jedno zbocze, a nie wyodrębniają sygnału wąskiego pasma. Standardy projektowania takich filtrów często podkreślają znaczenie regulacji Q w BPF do adaptacji filtru pod konkretne zastosowanie, co zdecydowanie ułatwia życie inżynierom.

Pytanie 11

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Sample Rate
B. Channels
C. Audio File Type
D. Bit Resolution
Częstotliwość próbkowania (Sample Rate) to taka cecha pliku dźwiękowego, która właściwie decyduje, ile razy na sekundę DAW rejestruje próbkę sygnału audio. W praktyce na przykład, plik z sample rate 44,1 kHz zawiera 44 100 próbek dźwięku na każdą sekundę. To jest właśnie ten parametr, który ma kluczowe znaczenie dla jakości nagrania, szczególnie jeśli chodzi o pasmo przenoszenia. Im wyższy sample rate, tym więcej szczegółów dźwiękowych można zachować, ale też plik jest cięższy i obciąża komputer podczas pracy. Branżowym standardem w muzyce jest 44,1 kHz, natomiast w produkcji filmowej często używa się 48 kHz lub nawet wyższych wartości typu 96 kHz. Moim zdaniem, dobrze rozumieć to od podstaw, bo kiedy zaczynasz miksować materiały z różnymi częstotliwościami próbkowania, mogą pojawić się różne nieprzyjemne sytuacje – od degradacji jakości po problemy z synchronizacją. Sample Rate nie tylko wpływa na jakość, ale też na kompatybilność z innym sprzętem i oprogramowaniem. Dla mnie, jeśli ktoś planuje profesjonalną pracę z dźwiękiem, umiejętność świadomego wyboru i konwersji sample rate to absolutna podstawa. Warto pamiętać, żeby w projekcie DAW wszystkie materiały miały tę samą częstotliwość próbkowania – to ułatwia życie i minimalizuje błędy.

Pytanie 12

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Modulation
C. Reverbs
D. Distortion
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 13

Które z wymienionych parametrów wskazują na plik o najniższej jakości?

A. 44.1 kHz, 16 bit
B. 48 kHz, 24 bit
C. 32 kHz, 32 bit
D. 96 kHz, 8 bit
Wybierając opcję 96 kHz, 8 bit, zwróciłeś uwagę na bardzo ważną rzecz: liczba bitów w próbkowaniu ma ogromny wpływ na jakość dźwięku. Częstotliwość próbkowania, czyli te 96 kHz, na pierwszy rzut oka wygląda imponująco i rzeczywiście umożliwia rejestrowanie bardzo wysokich częstotliwości – znacznie powyżej słyszalnych dla ludzkiego ucha. Jednak realnie to rozdzielczość bitowa (w tym przypadku tylko 8 bitów) decyduje o dynamice i szczegółowości nagrania. 8 bitów to bardzo mało, daje tylko 256 możliwych poziomów głośności. Oznacza to, że w praktyce taki plik będzie charakteryzował się bardzo wyraźnym szumem kwantyzacji, brakiem szczegółów w cichych fragmentach i ogólnie sztucznym, "płaskim" brzmieniem. W dzisiejszych standardach nawet telefony komórkowe czy nagrania przewidziane do archiwizacji dźwięku mają co najmniej 16 bitów. Przykładowo, format CD Audio to 44,1 kHz/16 bit, co uchodzi za rozsądny kompromis między jakością a wielkością pliku. Moim zdaniem, niezależnie od tego, jak wysoką częstotliwość próbkowania ustawimy, jeśli ilość bitów jest niska, to traci się wszystkie zalety wysokiej częstotliwości. W studiach czy produkcji muzycznej 24 bity to już w zasadzie standard. Pliki 8-bitowe mają sens tylko w archiwalnych rozwiązaniach albo w syntezatorach retro. W praktyce lepiej mieć niższą częstotliwość, ale wyższą rozdzielczość bitową – wtedy dźwięk brzmi naturalniej i ma lepszą dynamikę. To właśnie dlatego opcja 96 kHz, 8 bit jest zdecydowanie najniższej jakości spośród podanych.

Pytanie 14

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. FILE
B. I/O
C. EDIT
D. SESSION
Sekcja I/O w oprogramowaniu DAW (czyli Input/Output) to absolutna podstawa, jeśli chodzi o komunikację z zewnętrznymi urządzeniami audio, zwłaszcza kartami dźwiękowymi. To właśnie tutaj użytkownik może określić, które wejścia i wyjścia fizyczne z karty dźwiękowej będą wykorzystywane przez projekt – na przykład wybierając konkretne wejście mikrofonowe czy liniowe do nagrania wokalu lub gitary. W praktyce, kiedy masz kilka mikrofonów albo chcesz jednocześnie nagrywać różne instrumenty, konfiguracja I/O pozwala przypisać osobne ścieżki do konkretnych portów, co mocno ułatwia pracę na większych sesjach. Samo ustawienie sterowników ASIO, wybór częstotliwości próbkowania czy rozdzielczości bitowej – to już bardziej globalne opcje, ale routing I/O to jest codzienność każdego, kto pracuje z zewnętrznym sprzętem audio. Moim zdaniem, jeśli ktoś chce uniknąć problemów z nagrywaniem lub odtwarzaniem dźwięku, to naprawdę warto dobrze poznać tę sekcję i umiejętnie z niej korzystać. Do tego, większość DAW-ów (np. Pro Tools, Cubase, Ableton Live) promuje dobre praktyki organizacji wejść i wyjść właśnie przez czytelną mapę I/O, co znacznie zwiększa przejrzystość sesji i minimalizuje ryzyko pomyłek przy większych projektach.

Pytanie 15

Nową sesję montażową oprogramowania DAW można utworzyć poprzez menu

A. File
B. Edit
C. View
D. Window
Wybór opcji File w menu DAW to zdecydowanie standard, jeśli chodzi o tworzenie nowej sesji montażowej. W praktycznie każdym szanowanym programie do produkcji muzycznej, czy to Pro Tools, Cubase, Ableton Live, czy Reaper, właśnie tam znajdziesz funkcję 'New Session', 'New Project' lub coś w tym stylu. To swego rodzaju wzorzec interfejsu użytkownika, który się przyjął w oprogramowaniu tego typu. Moim zdaniem, to całkiem logiczne – w końcu wszystkie operacje związane z plikami, takie jak otwieranie, zapisywanie, import czy eksport, są zebrane właśnie pod File. Praktyczne korzystanie z DAW wymaga szybkiego orientowania się, gdzie co jest. Dzięki temu rozwiązaniu – wiadomo od razu, gdzie szukać. Nawet jak zmienisz program, nie zaskoczy Cię układ menu. W branży uważa się, że klarowność interfejsu i trzymanie się przyjętych schematów jest bardzo ważna, bo przyspiesza pracę – a w studiu czas to pieniądz. Można tu dodać, że nową sesję zawsze dobrze jest od razu odpowiednio nazwać i ustawić lokalizację zapisu, żeby potem nie szukać plików po całym dysku. To naprawdę pomaga w zachowaniu porządku, szczególnie jak masz dużo projektów. Krótko mówiąc – File to podstawa przy organizacji pracy w DAW, więc wybór tej opcji to nie tylko poprawna, ale i bardzo praktyczna decyzja.

Pytanie 16

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wav
B. .ptx
C. .wfm
D. .mid
W plikach o rozszerzeniu .wfm zapisywane są dane dotyczące obwiedni (ang. waveform) regionów audio w aplikacjach typu DAW, czyli cyfrowych stacjach roboczych do obróbki dźwięku. Moim zdaniem ten format jest często niedoceniany, bo niby tylko „obrazki”, ale bez nich trudno byłoby wygodnie edytować dźwięk. DAWy takie jak Pro Tools generują pliki .wfm automatycznie – dzięki temu podczas pracy z dużymi sesjami, nawet z wieloma ścieżkami, wyświetlanie przebiegów falowych pozostaje płynne. To jest ogromna pomoc, zwłaszcza gdy robisz szybkie cięcia albo musisz na oko znaleźć transienty czy inne szczegóły w zapisie dźwięku. Pliki .wfm nie zawierają samego audio, lecz tylko dane do wizualizacji – taka „mapka” falowa, która pozwala na szybkie zorientowanie się, co się dzieje w regionie bez konieczności analizowania pełnego pliku .wav. To praktyka zgodna z dobrą organizacją workflow – oddzielanie danych użytkowych od metadanych wizualnych przyspiesza ładowanie sesji i ułatwia współpracę kilku osób nad jednym projektem. Z mojego doświadczenia, kiedy .wfm są usunięte lub uszkodzone, DAW musi je wygenerować od nowa, co potrafi zająć trochę czasu przy większych projektach. Znajomość tego formatu to podstawa, jeśli chcesz świadomie zarządzać plikami projektów audio na poziomie technicznym.

Pytanie 17

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 20 Hz – 249 Hz
C. 2 000 Hz – 20 000 Hz
D. 250 Hz – 999 Hz
Sybilanty, czyli głoski takie jak „s”, „sz” czy „ś”, charakteryzują się bardzo wyraźnym, szumiącym brzmieniem, które łatwo wychwycić na spektrogramie właśnie w zakresie wysokich częstotliwości. Z mojego doświadczenia analizując nagrania mowy, sybilanty praktycznie zawsze wypadają powyżej 2 000 Hz, a często pikują nawet powyżej 5 000 Hz – szczególnie w języku polskim „s” potrafi sięgnąć do 8–10 kHz. Dlatego odpowiedź obejmująca przedział 2 000 Hz – 20 000 Hz jest tutaj absolutnie poprawna. To pasmo jest kluczowe przy detekcji i obróbce sybilantów, na przykład kiedy stosujemy de-essery podczas produkcji podcastów czy nagrań lektorskich. Standardy branżowe, np. przy masteringu muzyki czy postprodukcji dźwięku, jasno wskazują, że filtry oraz efekty usuwające sybilanty, takie jak de-esser, koncentrują się właśnie na tych wysokich pasmach. Często nawet w korektorach graficznych i parametrycznych można znaleźć fabryczne presety zaprojektowane specjalnie dla tego zakresu. W praktyce oznacza to, że chcąc poprawić czytelność nagrania, wygasić nieprzyjemne „syczenie” czy nawet podczas syntezy mowy, zawsze zwracamy uwagę na zakres 2 000 Hz i wyżej. Moim zdaniem, świadomość tej charakterystyki bardzo ułatwia skuteczną pracę z nagraniami mowy, bo pozwala szybko zlokalizować i wyeliminować problematyczne dźwięki bez niepotrzebnego naruszania pozostałych elementów sygnału.

Pytanie 18

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 44,1 kHz
C. 48 kHz
D. 96 kHz
44,1 kHz to częstotliwość próbkowania, która od lat jest uznawana za standardową dla formatu CD-Audio. Tak ustalono już w początkach lat 80., kiedy opracowywano technologię CD. Ta wartość nie wzięła się znikąd – była wynikiem kompromisu technicznego. Chodziło o uzyskanie wystarczająco wysokiej jakości dźwięku, a jednocześnie dopasowanie do ówczesnych możliwości sprzętowych oraz istniejących formatów wideo (między innymi NTSC i PAL). 44,1 kHz pozwala wiernie odtworzyć częstotliwości słyszalne przez ludzkie ucho, czyli do ok. 20 kHz, bo – zgodnie z twierdzeniem Nyquista – aby prawidłowo zarejestrować sygnał, trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa częstotliwość sygnału. W praktyce ta wartość do dziś jest obecna nie tylko w płytach CD, ale też w wielu plikach muzycznych (np. WAV, FLAC czy MP3), które są zgrywane z płyt kompaktowych, albo przygotowywane pod wydanie cyfrowe. Z mojego doświadczenia – większość domowych i studyjnych odtwarzaczy oraz sprzętu audio bez problemu radzi sobie z tym standardem, a wyższe częstotliwości próbkowania, choć bywają stosowane w studiach nagrań, to w codziennym odsłuchu nie wnoszą aż tak dużej różnicy dla przeciętnego słuchacza. Tak więc, jeżeli gdzieś natkniesz się na informację o muzyce z CD, praktycznie zawsze będzie to 44,1 kHz i 16 bitów na próbkę.

Pytanie 19

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 2 ścieżki.
B. 4 ścieżki.
C. 6 ścieżek.
D. 8 ścieżek.
Binauralne nagrania opierają się na odwzorowaniu tego, jak ludzkie uszy odbierają dźwięki w rzeczywistości, dlatego do ich prawidłowego montażu wystarczają dokładnie dwie ścieżki audio – lewa i prawa. Jest to w zasadzie odwzorowanie naturalnego słyszenia, gdzie każde ucho odbiera sygnał osobno. Najpopularniejsze mikrofony binauralne mają dwie kapsuły, rozmieszczone na kształt ludzkiej głowy, co pozwala na uchwycenie wszelkich niuansów przestrzennych, takich jak przesunięcia fazowe, mikroróżnice w natężeniu i czasie dotarcia fali akustycznej. Właśnie te szczegóły decydują o efekcie „immersji”, czyli poczuciu zanurzenia w dźwięku – słuchacz zyskuje iluzję, że dźwięki go otaczają, gdy odtwarza nagranie przez słuchawki stereo. Praktyka branżowa wskazuje, że rozdzielczość na więcej niż dwie ścieżki nie tylko nie jest potrzebna przy binaurali, ale wręcz może zaburzyć efekt. Z mojego doświadczenia, montując nagrania binauralne, nie spotkałem sytuacji, w której sensowne byłoby korzystanie z większej liczby ścieżek – cały efekt polega właśnie na zachowaniu naturalnej pary lewa-prawa. Warto też dodać, że standardowe formaty dystrybucji nagrań binauralnych – np. pliki WAV czy FLAC – obsługują dwukanałowe audio. To bardzo wygodne i uniwersalne rozwiązanie, bo nie wymaga specjalistycznego sprzętu odsłuchowego, a jedynie dobre słuchawki. Zresztą, nawet w profesjonalnych studiach nagraniowych, przy miksie binauralnym nie stosuje się więcej ścieżek, bo cały trick polega na prostocie i precyzji właśnie tych dwóch kanałów.

Pytanie 20

Którą z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 1
B. 100
C. 0,1
D. 10
Prawidłowa odpowiedź to 10, bo wartość dobroci filtra (Q) liczy się według wzoru Q = f₀ / Δf, gdzie f₀ to częstotliwość środkowa, a Δf to szerokość pasma. Podstawiając dane z zadania: 200 Hz / 20 Hz = 10, więc wszystko się zgadza. W praktyce, im wyższy współczynnik Q, tym filtr ma węższą charakterystykę – wybiera tylko wąski zakres częstotliwości i ostro „odcina” inne. Taki filtr jest przydatny tam, gdzie chcemy wyodrębnić bardzo konkretne sygnały i nie dopuścić do mieszania się ich z szumami czy innymi zakłóceniami, np. w układach audio hi-fi do korekcji barwy lub w systemach radiowych do precyzyjnego „łapania” jednej stacji. Z mojego doświadczenia dobrze jest kojarzyć, że filtr o niskim Q jest bardziej „łagodny” – przepuszcza więcej częstotliwości obok tej środkowej, a wysoki Q to jak ostrze brzytwy. Warto pamiętać, że odpowiedni dobór Q zgodnie z normami (np. IEC, ANSI) jest kluczowy, bo wpływa na stabilność i efektywność układu. W elektronice często spotyka się filtry o Q w okolicach 10 przy analizie sygnałów wąskopasmowych. Takie zagadnienia są na porządku dziennym szczególnie przy projektowaniu filtrów aktywnych czy pasywnych – tu bez znajomości tego wzoru ani rusz.

Pytanie 21

Podczas tworzenia nowej sesji w programie DAW, można dokonać wyboru

A. kształtu fade in i fade out w regionach w sesji.
B. liczby grup ścieżek w sesji.
C. typu znaczników używanych w sesji.
D. częstotliwości próbkowania dźwięku w sesji.
Wybór częstotliwości próbkowania dźwięku podczas tworzenia nowej sesji w programie DAW to jedna z kluczowych decyzji technicznych, które wpływają na jakość całego projektu audio. Tak naprawdę, to właśnie od tego parametru zależy, jak szczegółowo zostanie zapisana informacja dźwiękowa – im wyższa częstotliwość, tym więcej szczegółów w nagraniu, ale też większe zapotrzebowanie na miejsce na dysku i moc obliczeniową komputera. W profesjonalnych produkcjach muzycznych najczęściej ustawia się 44,1 kHz (standard płyt CD) albo 48 kHz (standard w wideo), ale często stosuje się nawet 88,2 lub 96 kHz, zwłaszcza tam, gdzie priorytetem jest jakość, a nie optymalizacja rozmiaru plików. Moim zdaniem, warto znać różnice i świadomie dobierać próbkowanie do konkretnego zastosowania – na przykład przy podkładach lektorskich do YouTube raczej nie ma sensu iść w kosmiczne wartości, ale już przy masteringu albumu dla dużego wydawcy wybór wyższej częstotliwości daje wymierne korzyści. Dobre praktyki branżowe zalecają ustawić częstotliwość próbkowania na samym początku, bo późniejsza zmiana potrafi być kłopotliwa i powodować konwersje, które mogą obniżyć jakość dźwięku. W wielu DAW-ach nie da się nawet zmienić tego parametru w istniejącej sesji bez utraty pewnych niuansów brzmieniowych. W skrócie, to podstawa w każdym projekcie audio – trochę jak wybór rozdzielczości przed nagraniem filmu.

Pytanie 22

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 20 Hz – 249 Hz
C. 2 000 Hz – 20 000 Hz
D. 250 Hz – 999 Hz
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 23

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. flamastra niezawierającego alkoholu.
B. ostrego rysika.
C. flamastra zawierającego alkohol.
D. długopisu.
Prawidłowo, do opisywania płyt CD czy DVD najlepiej wykorzystać flamaster niezawierający alkoholu. To nie jest tylko wymysł producentów czy czcza ostrożność – chodzi tutaj o konkretne ryzyko uszkodzenia danych. Markery alkoholowe mają w składzie rozpuszczalniki, które mogą przenikać przez cienką warstwę ochronną płyty i naruszyć warstwę z danymi – tę, na której faktycznie zapisane są Twoje pliki czy muzyka. Zdarza się, że po kilku miesiącach, a czasem nawet wcześniej, na powierzchni pojawiają się przebarwienia, pęknięcia albo ślady rozpuszczalnika, przez co płyta jest po prostu do wyrzucenia. Z mojego doświadczenia wynika, że najlepiej sprawdzają się specjalne markery dedykowane do płyt, które można kupić w większości sklepów komputerowych – mają miękką końcówkę i tusz bez alkoholu. Branżowe zalecenia, np. organizacji ISO czy wytyczne producentów optycznych nośników, jasno wskazują: nie używać ostrych narzędzi, długopisów, ani markerów zawierających alkohol. Takie proste działanie jak dobór odpowiedniego pisaka potrafi zdecydować, czy Twoje archiwum wytrzyma kilka miesięcy, czy kilkanaście lat. Moim zdaniem zawsze warto zainwestować te parę złotych więcej, żeby nie narazić się na utratę cennych danych.

Pytanie 24

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 4 razy.
B. 6 razy.
C. 2 razy.
D. 8 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 25

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. ramkę.
C. godzinę.
D. sekundę.
Druga para cyfr w zapisie kodu czasowego SMPTE rzeczywiście odnosi się do minut. To bardzo ważne, bo przy pracy z materiałem wideo czy audio nieprecyzyjne zarządzanie czasem może prowadzić do błędów zsynchronizowania, szczególnie przy montażu wielościeżkowym. W standardzie SMPTE timecode zapisuje się w formacie HH:MM:SS:FF (godzina:minuta:sekunda:ramka). Przykładowo, jeśli na taśmie mamy fragment oznaczony 01:23:45:12, to oznacza to dokładnie pierwszą godzinę, 23. minutę, 45. sekundę i 12. klatkę. Moim zdaniem świadomość tego układu pozwala dużo szybciej orientować się w timeline’ach podczas montażu albo synchronizacji obrazu z dźwiękiem. W praktyce operatorzy i montażyści bardzo często posługują się oznaczeniami minut, by sprawnie zaznaczać punkty cięcia lub synchronizacji, szczególnie przy dłuższych formach, gdzie sekundy i ramki nie są tak istotne, a przesunięcie np. jednej minuty mogłoby całkowicie rozjechać całą strukturę montażową. Standard SMPTE jest szeroko przyjęty na całym świecie w branży filmowej, telewizyjnej i postprodukcyjnej, więc rozumienie co oznacza każda para cyfr pomaga też przy współpracy zespołowej – każdy wie, gdzie szukać określonego momentu. W różnych programach do edycji (np. Adobe Premiere, AVID) też zawsze ta druga para to minuty, więc nie sposób tego przegapić.

Pytanie 26

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Dysk M.O.
B. Płyta DVD.
C. Kaseta CC.
D. Kaseta DAT.
Wybór płyty DVD jako nośnika odpornego na silne pole magnetyczne to strzał w dziesiątkę. DVD to nośnik optyczny, na którym dane zapisywane są za pomocą wiązki lasera. Co ważne, zasada działania dysków optycznych sprawia, że nie są one podatne na wpływ zewnętrznego pola magnetycznego. Cały zapis opiera się na fizycznych zmianach struktury warstw poliwęglanowych i barwników, z których zbudowana jest płyta, a nie na orientacji domen magnetycznych jak w kasetach czy klasycznych dyskach magnetycznych. W praktyce oznacza to, że nawet dość silne pole magnetyczne nie wpłynie negatywnie na integralność zapisanych danych. Jest to bardzo istotne w branżach, gdzie bezpieczeństwo przechowywania informacji ma kluczowe znaczenie, np. w archiwizacji, edukacji, sądownictwie czy szpitalach. Często właśnie z tego powodu instytucje przechowujące wrażliwe dane decydują się na backupy na płytach DVD. Moim zdaniem warto też pamiętać, że choć DVD jest odporne na pole magnetyczne, to trzeba je chronić przed zarysowaniami i wysoką temperaturą, bo to już inna bajka. Ale jeśli chodzi o zabezpieczenie przed magnesem – żaden z magnetycznych nośników nie ma z DVD szans. Takie rozwiązania są zgodne z dobrymi praktykami branżowymi, np. ISO/IEC 27040 wskazuje właśnie na odporność nośników optycznych na czynniki elektromagnetyczne.

Pytanie 27

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WAV
B. WMA
C. MP3
D. FLAC
FLAC to naprawdę świetny wybór do archiwizacji dźwięku, bo łączy dwie rzeczy, których normalnie nie da się połączyć: kompresję pliku i zachowanie oryginalnej jakości dźwięku. To jest tzw. kompresja bezstratna, czyli plik jest mniejszy niż WAV, ale nie tracisz nic z jakości – można go potem przywrócić do pierwotnej postaci, bit po bicie identycznej z oryginałem. Stąd FLAC jest polecany np. przez archiwa, radiowe fonoteki czy studia nagraniowe, które muszą mieć pewność co do jakości. Co ciekawe, w domowych warunkach sporo osób, które mają rozbudowane kolekcje muzyczne, też stawia na FLAC zamiast na stratne MP3 – chodzi właśnie o to, żeby nie tracić szczegółów brzmienia. FLAC jest też formatem otwartym, więc nie trzeba się martwić o przyszłą kompatybilność albo licencje – w archiwizacji to bardzo istotne. Takie pliki zajmują mniej miejsca niż WAV, zwykle o połowę albo i więcej, ale w razie potrzeby zawsze można je z powrotem przekonwertować do WAV bez żadnych strat. Z mojego doświadczenia to jest właśnie taki złoty środek: masz porządny backup, a nie zużywasz niepotrzebnie miejsca na dysku. No i większość nowoczesnych odtwarzaczy już spokojnie czyta FLAC, więc nie ma większych problemów z dostępem do takiego archiwum.

Pytanie 28

Spośród wymienionych typów nośników, największą pojemnością charakteryzuje się płyta

A. DVD – R SL
B. DVD – R DL
C. DVD + R SL
D. DVD + R DL
Dokładnie, płyta DVD – R DL wyróżnia się największą pojemnością spośród wymienionych opcji. Skrót "DL" oznacza Dual Layer, czyli dwie warstwy zapisu, co pozwala na zapisanie aż do 8,5 GB danych na jednej płycie. Standard DVD – R DL jest wykorzystywany przede wszystkim wtedy, gdy potrzebujemy zapisać większe pliki, na przykład filmy w wysokiej jakości lub archiwa projektów. W branży IT i w zastosowaniach domowych wybieranie płyt dwuwarstwowych to całkiem częsta praktyka, zwłaszcza jeśli zależy komuś na nośniku jednorazowego zapisu, a pendrive czy dysk zewnętrzny są niedostępne. Dla porównania, płyty typu SL (czyli Single Layer) mają pojemność do ok. 4,7 GB – to już spora różnica w praktyce. Moim zdaniem warto znać te różnice, bo przy archiwizacji lub kopiowaniu większej ilości danych można się mocno zdziwić, gdy płyta okaże się za mała. DVD – R DL działa na podobnych zasadach jak DVD + R DL, ale w praktyce bywa częściej wybierana w środowiskach, gdzie ważna jest kompatybilność ze starszymi odtwarzaczami albo urządzeniami. Czasem ludzie mylą te oznaczenia i potem mają problem z odczytem albo nagraniem płyty. Dobrze to ogarniać, bo w pracy technika komputerowego takie niuanse się często pojawiają.

Pytanie 29

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .mlp
B. .acc
C. .ogg
D. .wav
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 30

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 98 000 Hz
C. 44 100 Hz
D. 48 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 31

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HM
B. LM
C. LP
D. HP
Filtr HP, czyli High-Pass (po polsku: filtr górnoprzepustowy), to standard w każdym systemie audio, akustyce czy nawet w elektronice użytkowej. Jego głównym zadaniem jest przepuszczanie dźwięków o częstotliwościach wyższych od tzw. częstotliwości odcięcia, a blokowanie albo tłumienie tych niskich. Taki filtr świetnie sprawdza się na przykład przy nagrywaniu wokalu — wycina szumy o niskich częstotliwościach, buczenie podłogi czy brum sieciowy, które potrafią zepsuć całą ścieżkę dźwiękową. W praktyce często spotykam się z sytuacją, gdzie technicy studyjni od razu włączają HP na mikrofonach, żeby nie zbierał przypadkowych dudnień czy „przewiewów” powietrza. Nawet w prostym mikserze czy interfejsie USB można znaleźć ten filtr pod oznaczeniem HPF albo po prostu z symbolem „górującej rampy”. Moim zdaniem warto pamiętać, że prawidłowe zastosowanie HP to klucz do czystego miksu, zwłaszcza jeżeli nie chcemy, żeby bas lub stopa perkusyjna wszystko nam rozmywała. Jak pokazują podręczniki realizacji dźwięku, HP jest praktycznie obowiązkowy dla wszystkich ścieżek poza tymi, gdzie te niskie częstotliwości są istotne, czyli np. dla basu. To taka trochę podstawa, a jednocześnie prosty sposób na lepszy efekt końcowy.

Pytanie 32

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. milisekundzie.
B. ramce.
C. sekundzie.
D. ćwierćnucie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 33

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. MUTE
B. PASTE
C. COPY
D. CUT
Funkcja CUT w oprogramowaniu typu DAW (Digital Audio Workstation) jest podstawowym narzędziem edycyjnym, które pozwala na szybkie wycięcie wybranego fragmentu sygnału audio lub MIDI na ścieżce. Trzeba pamiętać, że wykonując tę operację w DAW, najczęściej nie usuwamy nagranego materiału na stałe z dysku – po prostu dany fragment znika z aranżacji, ale plik źródłowy nadal pozostaje nienaruszony w folderze projektu. W praktyce, jeżeli przypadkiem wytniesz coś za dużo, zawsze możesz użyć opcji cofnij lub wstawić wycięty fragment w inne miejsce, korzystając z PASTE. Szczerze mówiąc, to bardzo wygodne rozwiązanie, bo pozwala eksperymentować bez stresu, że coś przepadnie na zawsze – to trochę jak praca z kopiami warstw w programach graficznych. Branżowe standardy, takie jak nieniszcząca edycja, są fundamentem pracy z dźwiękiem i dzięki temu możesz spokojnie testować różne pomysły na aranżację, nie bojąc się o oryginalny materiał. Wielu realizatorów dźwięku ceni sobie CUT właśnie za elastyczność i możliwość błyskawicznego reagowania na potrzeby projektu, a jednocześnie zachowanie porządku w sesji. Warto jeszcze wspomnieć, że niektóre DAWy dają możliwość podglądu historii edycji, więc nawet po serii skomplikowanych cięć można bez problemu wrócić do wcześniejszej wersji projektu. W codziennej pracy taka funkcjonalność po prostu ratuje skórę, zwłaszcza przy dużych projektach lub pracy pod presją czasu.

Pytanie 34

Ile minut muzyki można maksymalnie zapisać na płycie CD-Audio?

A. 90 minut.
B. 100 minut.
C. 70 minut.
D. 80 minut.
80 minut to maksymalna długość nagrania na standardowej płycie CD-Audio. Wynika to bezpośrednio z ograniczeń technicznych formatu Compact Disc Digital Audio (CD-DA), który został wprowadzony w latach 80. przez Sony i Philipsa. Zgodnie ze specyfikacją Red Book (czyli podstawowym standardem dla CD-Audio), standardowa płyta CD mieści około 700 MB danych, co przekłada się na 80 minut dźwięku o jakości 16-bitowej/44,1 kHz w trybie stereo. W praktyce większość albumów muzycznych właśnie tyle zajmuje, chociaż często spotyka się płyty krótsze – to kwestia materiału źródłowego. Przekraczanie tych 80 minut nie jest zalecane, bo może to prowadzić do problemów z odczytem na niektórych odtwarzaczach. Czasem można spotkać tzw. płyty overburned, które pozwalają wcisnąć dodatkowe minuty, ale nie jest to zgodne z oficjalnymi normami i nie każdy sprzęt sobie z tym radzi. Moim zdaniem wiedza o tych limitach przydaje się, gdy samemu nagrywasz muzykę na CD – łatwo wtedy uniknąć nieprzyjemnych niespodzianek. Warto też wiedzieć, że dla archiwizacji czy masteringu branża muzyczna trzyma się właśnie tej granicy 80 minut. Tak to już technologia przewidziała – i ten limit dobrze zapamiętać.

Pytanie 35

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 6:1
B. ∞:1
C. 1,4:1
D. 2:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest absolutne ograniczenie poziomu sygnału powyżej określonego progu. Stopień kompresji dla limitera teoretycznie wynosi nieskończoność do jednego (∞:1). Co to znaczy w praktyce? Po prostu – niezależnie o ile głośniejszy będzie sygnał wejściowy niż ustawiony threshold, na wyjściu nie będzie on nigdy wyższy od tej wartości. To taka ostatnia linia obrony przed przesterowaniem i klipowaniem, szczególnie przy masteringu, radiu czy streamingu. W branży muzycznej oraz postprodukcji audio, limiter jest wręcz obowiązkowym narzędziem końcowym na sumie miksu albo na pojedynczych ścieżkach – na przykład wokalu. Standardy emisji radiowej i telewizyjnej wymagają ścisłego trzymania się określonego poziomu sygnału (np. -1 dBFS). Wystarczy raz nie użyć limitera na końcu i gotowe – przester lub poważne naruszenie norm loudnessowych. Z mojego doświadczenia nie ma skuteczniejszego sposobu na ochronę sygnału przed zbyt dużą amplitudą niż limiter właśnie. Warto też pamiętać, że w praktyce limitery często posiadają dodatkowe funkcje, takie jak lookahead czy soft clipping, ale kluczowa cecha pozostaje: kompresja z proporcją ∞:1. To właśnie to odróżnia limiter od klasycznych kompresorów nawet tych z wysokimi ratio.

Pytanie 36

Które z zamieszczonych określeń odnosi się do procesu wykorzystywanego przy redukcji rozdzielczości bitowej dźwięku cyfrowego, mającego na celu zminimalizowanie cyfrowych zniekształceń sygnału?

A. Authoring.
B. Downsampling.
C. Decimating.
D. Dithering.
Dithering to w rzeczywistości bardzo sprytna i powszechnie stosowana technika w inżynierii dźwięku cyfrowego, szczególnie przy obniżaniu rozdzielczości bitowej, na przykład z 24 do 16 bitów podczas przygotowania do masteringu płyt CD. Zamiast po prostu obcinać najmniej znaczące bity (co prowadziłoby do nieprzyjemnych zniekształceń kwantyzacyjnych, potocznie nazywanych „cyfrowym szumem” lub artefaktami), do sygnału dodaje się losowy szum o bardzo niskim poziomie. Ten szum, czyli dither, niejako „maskuje” powstawanie tych niepożądanych artefaktów. Efekt? Dźwięk po obniżaniu rozdzielczości wciąż brzmi naturalnie, a zamiast ostrych cyfrowych zniekształceń mamy przyjemny, subtelny szum na bardzo niskim poziomie, który jest praktycznie niesłyszalny. Takie rozwiązanie ma mocne podstawy w teorii przetwarzania sygnałów – znajdziesz je w podręcznikach do cyfrowego audio i w standardach branżowych, np. AES. Moim zdaniem, bez ditheringu mastering muzyki czy produkcja podcastów byłaby znacznie gorsza jakościowo. W praktyce, praktycznie każdy profesjonalny DAW (Digital Audio Workstation), taki jak Pro Tools, Cubase czy Reaper, oferuje możliwość zastosowania ditheringu podczas eksportu plików audio. To taka trochę niedoceniana, a szalenie ważna funkcja – szczególnie jak komuś zależy na szczegółach w cichych fragmentach nagrania czy zachowaniu dynamiki. Fajnie też rozumieć, że dithering jest zgodny z dobrymi praktykami inżynierii dźwięku i szeroko zalecany przez doświadczonych realizatorów dźwięku. Warto zgłębiać ten temat, bo to jedna z tych rzeczy, które odróżniają amatorskie projekty od naprawdę dobrze brzmiących produkcji.

Pytanie 37

Ile kanałów audio stosowanych jest w reprodukcji techniką 7.1?

A. 8
B. 12
C. 6
D. 7
Technika 7.1 w audio oznacza, że do dyspozycji mamy aż osiem niezależnych kanałów dźwięku, co pozwala na uzyskanie bardzo przestrzennego efektu podczas odsłuchu. Składa się to z siedmiu kanałów pełnopasmowych (przód lewy, przód centralny, przód prawy, surround lewy, surround prawy, tył lewy, tył prawy) oraz jednego kanału niskotonowego LFE (Low Frequency Effects), czyli popularnego subwoofera. Moim zdaniem to właśnie ta ostatnia ósemka robi często największą robotę, jeśli chodzi o poczucie "uderzenia" i głębi w kinie domowym – nie raz widziałem, jak dobry sub potrafił zmienić zwykły film w prawdziwe widowisko. Standard 7.1 jest obecnie szeroko stosowany w nowoczesnych systemach kina domowego, a także w bardziej zaawansowanych grach komputerowych i produkcjach filmowych na Blu-ray. Branżowe normy, jak np. Dolby Digital Plus czy DTS-HD Master Audio, dokładnie definiują strukturę takich systemów i wyraźnie wskazują 8 kanałów. Z mojego doświadczenia wynika, że dobrze rozplanowana instalacja 7.1 daje naprawdę imponujące efekty przestrzenne – dźwięki dosłownie otaczają słuchacza, a precyzyjne rozmieszczenie głośników wpływa na realizm doznań. Warto też pamiętać, że przejście z 5.1 na 7.1 pozwala wyraźnie poprawić doznania zwłaszcza w większych pomieszczeniach, gdzie dodatkowe tylne kanały robią sporą różnicę. Dla pasjonatów dźwięku przestrzennego to obecnie taki złoty środek między możliwościami technicznymi a rozsądną liczbą głośników.

Pytanie 38

Który z wymienionych rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji programu DAW?

A. 128 próbek.
B. 32 próbki.
C. 64 próbki.
D. 256 próbek.
Wybranie bufora o rozmiarze 32 próbek to zdecydowanie najbardziej sensowna opcja, jeśli zależy nam na absolutnie minimalnej latencji podczas nagrywania dźwięku w DAW. Mówiąc wprost, im mniejszy bufor, tym krótszy czas oczekiwania na reakcję systemu – sygnał praktycznie od razu trafia z wejścia audio do wyjścia. To kluczowe dla wokalistów, instrumentalistów czy live performerów, gdzie nawet drobne opóźnienie potrafi totalnie wybić z rytmu. W środowiskach profesjonalnych, np. w studiach nagraniowych, standardem jest schodzenie do najniższych możliwych wartości, często właśnie na poziomie 32 czy 64 próbek, jeśli tylko sprzęt na to pozwala. Oczywiście, taki bufor zwiększa obciążenie procesora – tutaj już trzeba mieć porządną kartę dźwiękową i stabilne sterowniki, np. ASIO w Windows czy Core Audio na Macu. Z mojego doświadczenia: przy nagraniach w domowych warunkach też warto próbować zejść jak najniżej, byleby nie pojawiały się trzaski, dropy czy inne artefakty. Moim zdaniem to taki złoty standard dla tych, którym zależy na responsywności DAW podczas nagrywania na żywo. W materiałach firm takich jak Steinberg, Ableton czy Avid znajdziesz potwierdzenie, że to właśnie minimalizacja bufora daje najbardziej naturalne wrażenia podczas nagrania. Warto pamiętać, że później przy miksie czy masteringu można podnieść bufor, bo wtedy liczy się wydajność, nie latencja.

Pytanie 39

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 20 bitów.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
24 bity to standard, który w praktyce gwarantuje bardzo niski poziom szumów kwantyzacji w sygnale fonicznym – praktycznie nie do odróżnienia dla ludzkiego ucha, nawet przy bardzo cichych fragmentach. Z mojego doświadczenia, w profesjonalnych studiach nagraniowych oraz przy produkcji muzyki używa się właśnie 24-bitowej rozdzielczości, bo pozwala zachować ogromny zakres dynamiki (ponad 140 dB!), co jest kluczowe, gdy miksuje się wiele ścieżek lub wielokrotnie modyfikuje nagranie. Im wyższa głębia bitowa, tym dokładniej można odwzorować ciche i głośne fragmenty – a szum kwantyzacji praktycznie zanika. To dlatego mastering audio, produkcja filmowa czy sample banki opierają się o 24 bity. Dla porównania, płyta CD wykorzystuje 16 bitów, co też daje bardzo dobrą jakość, ale już mniej miejsca na subtelności, zwłaszcza przy obróbce materiału. Oczywiście, wyższa bitowość wymaga większej pojemności dysku i mocniejszego sprzętu, ale w dzisiejszych czasach to już nie problem. Moim zdaniem, kto raz nagrywał w 24 bitach, ten nie chce wracać do niższych rozdzielczości. Jeśli zależy ci na naprawdę czystym, profesjonalnym dźwięku bez cyfrowych artefaktów, 24 bity to po prostu właściwy wybór.

Pytanie 40

LTC, VITC, MTC to niektóre z formatów

A. plików dźwiękowych bez kompresji.
B. plików projektu DAW.
C. kodeka MPEG.
D. kodu czasowego.
LTC, VITC i MTC to trzy najważniejsze formaty kodu czasowego wykorzystywane w profesjonalnych zastosowaniach audio-wideo. To właśnie za ich pomocą synchronizuje się różne urządzenia – na przykład magnetofony wielośladowe, miksery cyfrowe, rekordery czy systemy montażowe w studiu filmowym. Każdy z tych formatów ma swoje konkretne zastosowania: LTC (Linear Time Code) to kod czasowy zapisany liniowo jako sygnał analogowy, często wykorzystywany na taśmach magnetycznych lub przesyłany kablem. VITC (Vertical Interval Time Code) wpisywany jest bezpośrednio w niewidoczną część sygnału wizyjnego, co umożliwia odczyt nawet przy bardzo niskich prędkościach odtwarzania. MTC (MIDI Time Code) bazuje na protokole MIDI i służy głównie w środowiskach muzycznych oraz DAW-ach do synchronizacji programów i urządzeń. Moim zdaniem zrozumienie różnic pomiędzy tymi trzema kodami czasowymi to absolutna podstawa dla każdego, kto chce profesjonalnie zajmować się dźwiękiem lub postprodukcją wideo. W praktyce, jeżeli np. synchronizujesz nagrania z kilku kamer albo chcesz, żeby automat do efektów światła chodził równo z dźwiękiem, kod czasowy to jedyne sensowne rozwiązanie. W branży stosuje się te standardy od dekad – bez nich trudno wyobrazić sobie profesjonalne studio czy plan filmowy.