Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 23 kwietnia 2026 20:10
  • Data zakończenia: 23 kwietnia 2026 20:34

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. ORG
B. VOX
C. LEAD
D. RHYTHM
W branży muzycznej, zwłaszcza podczas realizacji nagrań w studiu, określenie "LEAD" na liście montażowej odnosi się do instrumentu prowadzącego, czyli w tym przypadku gitary prowadzącej. To właśnie ten ślad odpowiada za partie solowe, riffy i różnego rodzaju melodie, które wysuwają się na pierwszy plan miksu. Moim zdaniem, znajomość tego typu oznaczeń jest absolutnie podstawowa, bo pozwala sprawnie komunikować się w zespole realizatorskim i nie pogubić się podczas pracy na sesjach wielośladowych. W praktyce, kiedy inżynier dźwięku dostaje sesję nagraniową, od razu wie, że ślad "LEAD" to właśnie gitara, która gra solówki czy partie charakterystyczne, a nie na przykład rytmikę czy akordy pod wokalem. Standardy takie funkcjonują nie tylko w muzyce rozrywkowej, ale i w innych gatunkach – lead guitar, lead vocal to po prostu utarte, uniwersalne określenia. Dobrą praktyką jest zawsze stosowanie takich jasnych, krótkich oznaczeń w dokumentacji oraz w DAW, bo to skraca czas edycji i miksu. Z mojego doświadczenia wynika, że błędne oznaczenie śladów potrafi zdezorganizować całą pracę. LEAD zawsze oznacza ślad przewodni, przyciągający uwagę słuchacza.

Pytanie 2

Która z wymienionych nazw ścieżek utworzonych w sesji programu DAW oznacza, że na ścieżce tej znajduje się nagranie werbla w zestawie perkusyjnym?

A. TOM
B. FLOOR
C. CRASH
D. SNARE
SNARE to po angielsku werbel – podstawowy instrument w zestawie perkusyjnym, który w miksie jest odpowiedzialny za wyraźny akcent rytmiczny. W branży muzycznej, szczególnie podczas pracy w DAW (Digital Audio Workstation), powszechnie stosuje się angielskie nazwy instrumentów do oznaczania ścieżek. To ułatwia komunikację i pozwala od razu zorientować się, z czym mamy do czynienia, nawet jeśli pracujemy na międzynarodowym projekcie. Ścieżka podpisana jako SNARE zawiera zwykle nagranie tylko tego bębna, często rejestrowane z kilku mikrofonów jednocześnie (od góry, od spodu, czasem nawet z boku), ale potem miksowane na jeden kanał. Dobrze jest trzymać się tej konwencji, bo daje to przejrzystość projektu i ułatwia późniejszy montaż czy edycję. Sam werbel jest też bardzo często przetwarzany oddzielnie, np. przez kompresję albo pogłos, bo to on nadaje groove i charakter całemu utworowi. Z mojego doświadczenia wynika, że konsekwentne nazywanie ścieżek zgodnie z przyjętymi standardami naprawdę oszczędza nerwów – szczególnie gdy wraca się do sesji po kilku tygodniach albo przekazuje ją komuś innemu do miksu. Drobna rzecz, a robi różnicę.

Pytanie 3

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. DLY
B. COMP
C. GATE
D. REV
GATE to skrót, który jednoznacznie kojarzy się z bramką szumów – czyli efektem stosowanym do tłumienia niepożądanych dźwięków poniżej określonego progu. W praktyce – a przynajmniej tak to widzę – bramka szumów jest nieoceniona przy nagrywaniu wokali albo instrumentów, gdzie często pojawiają się szumy tła, trzaski albo oddechy między frazami. W DAW-ach bramkę (czyli gate) stosuje się bardzo często na ślady perkusyjne, np. na werblu czy stopie, żeby skrócić wybrzmiewanie i wyciąć ciche przesłuchy innych bębnów. To jest standard w miksie, zwłaszcza jeśli chodzi o muzykę rockową czy metalową, gdzie czystość i selektywność są kluczowe. Bramki szumów można też ustawiać bardzo precyzyjnie – atak, podtrzymanie, zwolnienie – dzięki czemu użytkownik ma pełną kontrolę nad tym, jak szybko efekt reaguje. Często spotyka się sytuację, że ludzie mylą gate z kompresorem, ale to zupełnie inne narzędzia – gate wycina, a kompresor ściska dynamikę. Generalnie, moim zdaniem, znajomość działania bramki to podstawa dla każdego, kto chce ogarnąć miksowanie w DAW. Warto też pamiętać, że wiele profesjonalnych szablonów sesji ma gate na śladach perkusyjnych domyślnie – to taki branżowy standard, który zdecydowanie warto opanować.

Pytanie 4

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. SCORE EDITOR
B. MIX
C. MIDI EDITOR
D. EDIT
Okno SCORE EDITOR to kluczowa funkcja w wielu zaawansowanych programach DAW, zwłaszcza tych używanych do produkcji muzyki filmowej, klasycznej czy aranżacji orkiestrowych. Dzięki niemu można nie tylko zobaczyć zapis nutowy istniejących partii MIDI, ale też ręcznie wprowadzać i edytować nuty oraz kontrolować wszystkie niuanse wykonawcze typowe dla partytur. Moim zdaniem to jedno z tych narzędzi, które naprawdę otwiera nowe możliwości dla osób lepiej czujących się w tradycyjnej notacji muzycznej niż w samym edytorze pianolowym czy sekwencerze. W praktyce SCORE EDITOR pozwala na szybkie poprawki artykulacji, dynamiki czy akcentów, co jest bardzo istotne np. przy przygotowywaniu materiałów do wydruku dla żywych muzyków albo eksportu nut do innych systemów notacji. Wśród profesjonalistów przyjęło się, że SCORE EDITOR to właśnie miejsce do precyzyjnej pracy z zapisem nutowym i do przygotowywania aranżacji na różne składy instrumentalne. W Cubase, Logic Pro czy Studio One to narzędzie jest standardowym wyposażeniem, bo po prostu bez tego trudno byłoby komfortowo tworzyć bardziej złożoną muzykę z myślą o instrumentalistach. Z mojego doświadczenia wynika, że jeśli ktoś myśli poważnie o muzyce, warto nauczyć się obsługi SCORE EDITORA, bo nawet proste poprawki mogą mocno przełożyć się na końcowe brzmienie i czytelność utworu.

Pytanie 5

Który z wymienionych nośników jest nośnikiem analogowym?

A. Kaseta CC
B. Kaseta DAT
C. Płyta DVD
D. Płyta CD
Kaseta CC, czyli popularna „kaseta magnetofonowa”, to klasyczny przykład nośnika analogowego. Jej działanie opiera się na magnetycznym zapisie sygnału analogowego, czyli płynnie zmieniającego się w czasie sygnału dźwiękowego. Moim zdaniem, właśnie ta płynność odróżnia nośniki analogowe od cyfrowych – na kasecie nie znajdziesz zer i jedynek, a raczej ciągłą ścieżkę namagnesowania, odpowiadającą oryginalnemu przebiegowi dźwięku. W praktyce znaczy to, że odtwarzanie muzyki z kasety CC może dawać charakterystyczne szumy i zniekształcenia, ale też taki „ciepły” dźwięk, na który niektórzy audiofile narzekają, a inni go uwielbiają. W branży technicznej kasety były standardem archiwizacji i przenoszenia dźwięku przez wiele lat – szczególnie w latach 80. i 90. Nadal można spotkać je w archiwach radiowych czy prywatnych kolekcjach. Co ciekawe, standard kasety CC został opracowany już w 1963 roku przez firmę Philips i przez dekady doczekał się wielu ciekawych rozwiązań, jak np. system Dolby do redukcji szumów. Dziś kasety są trochę zapomniane, ale ich analogowy charakter świetnie obrazuje, czym różnią się media analogowe od cyfrowych – właśnie w sposobie zapisu i odtwarzania informacji. Takie nośniki wymagają mechanicznej głowicy, która „czyta” zmiany pola magnetycznego na taśmie, co jest zupełnie innym podejściem niż w przypadku płyt CD czy DVD. Używanie kaset uczy szacunku do fizycznych ograniczeń mediów i pokazuje, jak wyglądała praca z dźwiękiem zanim weszliśmy w cyfrową erę. Z mojego doświadczenia wynika, że nawet dzisiaj warto znać zasady działania takich nośników, bo daje to dobre podstawy do zrozumienia rozwoju techniki zapisu danych.

Pytanie 6

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta CD
B. Płyta DVD
C. Karta SD
D. Dysk SSD
Dysk SSD zdecydowanie prowadzi w tej kategorii, bo technologia oparta na pamięciach półprzewodnikowych jest kilka rzędów wielkości szybsza niż tradycyjne nośniki optyczne czy nawet karty pamięci. SSD korzysta z pamięci flash NAND, która pozwala praktycznie natychmiastowo odczytywać i zapisywać dane, bez opóźnień wynikających z ruchomych części. Dla przykładu, standardowy dysk SSD na interfejsie NVMe osiąga prędkości odczytu powyżej 3000 MB/s, kiedy płyty CD czy DVD ledwo przekraczają 50 MB/s (przy bardzo dobrych warunkach). Karta SD też wypada dużo słabiej – nawet te z serii UHS-II nie dorównują dyskom SSD. W praktycznych zastosowaniach, takich jak szybkie ładowanie systemu operacyjnego, uruchamianie gier czy praca z dużymi projektami graficznymi, SSD jest właściwie nie do pobicia. Użytkownicy komputerów, którzy przesiadają się ze starych HDD na SSD, często są pod ogromnym wrażeniem różnicy – bo to naprawdę zmienia komfort pracy. Branżowe standardy, jak PCIe Gen4 czy NVMe, jeszcze mocniej zwiększają te osiągi. Moim zdaniem, dziś SSD to absolutna podstawa w nowoczesnych komputerach, a stare nośniki optyczne powoli odchodzą do lamusa!

Pytanie 7

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 14
B. 3
C. 4
D. 8
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 8

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .ptx
B. .wav
C. .mid
D. .wfm
Zdarza się, że wybór pada na pliki .ptx – spotykane w środowisku Pro Tools, ale są one używane głównie jako pliki sesji, zapisujące strukturę całego projektu: ścieżki, ustawienia miksera, automatyki i rozmieszczenie regionów audio. Nie przechowują one jednak graficznych obwiedni ani samych przebiegów falowych audio. To raczej metaopis projektu. Z kolei .mid to zupełnie inna bajka – to standard wymiany danych muzycznych oparty na komunikatach MIDI, czyli nuty, velocity, kontrolery – ale nie zawiera w ogóle nagrań audio, a tym bardziej wizualizacji przebiegów tych nagrań. Taki plik jest po prostu „zapisem nut”, nie ma w nim żadnej informacji o kształcie fali dźwiękowej. Jeśli chodzi o .wav, ten format kojarzy się od razu z plikami audio najwyższej jakości, bo rzeczywiście to popularny kontener nieskompresowanych nagrań. Jednak .wav przechowuje tylko sam dźwięk, bez żadnych informacji wizualnych typu obwiednia czy przebieg – te dane generowane są dopiero przez DAW w postaci osobnych plików pomocniczych. Częsty błąd to zakładanie, że wszystko, co widzimy na ekranie, siedzi w .wav, choć w praktyce DAW generuje z pliku .wav obrazki do podglądu i przechowuje je właśnie w formacie .wfm (albo innym, zależnie od programu). Moim zdaniem to ważne, by rozróżniać pliki z danymi audio od tych, które odpowiadają tylko za wygodę pracy i podgląd – to ułatwia zarządzanie projektami i rozwiązywanie problemów z wydajnością czy synchronizacją sesji. W praktyce: jeśli przesyłasz komuś projekt DAW, żeby mógł od razu widzieć przebiegi falowe, nie zawsze wystarczy mu sam plik .wav czy .ptx – konieczne mogą być właśnie te dodatkowe pliki .wfm. To szczegół, ale jednak bardzo istotny w codziennej pracy z dźwiękiem cyfrowym.

Pytanie 9

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Noise Gate.
B. Strip Silence.
C. Fade Out.
D. Fade In.
Wiele osób myli pojęcia związane z obróbką dźwięku, co jest całkiem zrozumiałe, bo nazwy funkcji w programach DAW bywają podobne i łatwo się w tym pogubić. Często pada odpowiedź Fade In czy Fade Out, bo brzmią znajomo i faktycznie są opcjami wykorzystywanymi niemal w każdym projekcie audio. Jednak ich zadanie polega na płynnym zwiększaniu lub zmniejszaniu głośności na początku lub końcu regionu audio, co pomaga uniknąć nieprzyjemnych kliknięć czy nagłych zmian poziomu dźwięku. Nie mają one jednak nic wspólnego z automatycznym wycinaniem ciszy – to zupełnie inna bajka. Noise Gate z kolei też bywa mylący, bo pozwala „wycinać” ciche fragmenty, ale w praktyce działa podczas odtwarzania lub miksu – blokuje przepływ sygnału poniżej ustawionego progu, więc ciche partie są po prostu niesłyszalne, ale nagranie pozostaje niezmienione fizycznie, nie powstają żadne nowe regiony. To narzędzie do kontroli dynamiki, a nie do edycji samej struktury nagrania. Często spotykam się z przekonaniem, że Noise Gate załatwi sprawę, ale to tylko pozorne podobieństwo. Tak naprawdę tylko Strip Silence automatycznie dzieli i usuwa ciche fragmenty bezpośrednio z plików audio, co widać od razu na ścieżce – i to jest podstawowa różnica. W branży zaleca się korzystać z odpowiednich narzędzi zgodnie z ich przeznaczeniem, bo niewłaściwy wybór może prowadzić do niepotrzebnych komplikacji w dalszej pracy nad projektem. Najlepiej poeksperymentować samodzielnie i zobaczyć, jak każda funkcja działa w praktyce – to daje najwięcej zrozumienia i zapobiega takim typowym błędom myślowym.

Pytanie 10

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. godzinę.
C. ramkę.
D. sekundę.
Druga para cyfr w zapisie kodu czasowego SMPTE rzeczywiście odnosi się do minut. To bardzo ważne, bo przy pracy z materiałem wideo czy audio nieprecyzyjne zarządzanie czasem może prowadzić do błędów zsynchronizowania, szczególnie przy montażu wielościeżkowym. W standardzie SMPTE timecode zapisuje się w formacie HH:MM:SS:FF (godzina:minuta:sekunda:ramka). Przykładowo, jeśli na taśmie mamy fragment oznaczony 01:23:45:12, to oznacza to dokładnie pierwszą godzinę, 23. minutę, 45. sekundę i 12. klatkę. Moim zdaniem świadomość tego układu pozwala dużo szybciej orientować się w timeline’ach podczas montażu albo synchronizacji obrazu z dźwiękiem. W praktyce operatorzy i montażyści bardzo często posługują się oznaczeniami minut, by sprawnie zaznaczać punkty cięcia lub synchronizacji, szczególnie przy dłuższych formach, gdzie sekundy i ramki nie są tak istotne, a przesunięcie np. jednej minuty mogłoby całkowicie rozjechać całą strukturę montażową. Standard SMPTE jest szeroko przyjęty na całym świecie w branży filmowej, telewizyjnej i postprodukcyjnej, więc rozumienie co oznacza każda para cyfr pomaga też przy współpracy zespołowej – każdy wie, gdzie szukać określonego momentu. W różnych programach do edycji (np. Adobe Premiere, AVID) też zawsze ta druga para to minuty, więc nie sposób tego przegapić.

Pytanie 11

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 192 kHz
C. 48 kHz
D. 96 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 12

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LM
B. HM
C. HP
D. LP
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 13

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. Filtr LP.
B. De-esser.
C. Ekspander.
D. De-noiser.
De-esser to absolutna podstawa jeśli chodzi o profesjonalną obróbkę nagrań głosu, zwłaszcza lektorskiego czy wokalnego. Ten procesor dynamiczny specjalizuje się w ograniczaniu poziomu sybilantów, czyli głosek takich jak „s”, „sz”, „z”, które występują w paśmie częstotliwości zwykle pomiędzy 4 a 9 kHz. Akurat w tych zakresach sybilanty potrafią być bardzo nieprzyjemne dla ucha, szczególnie jeśli nagranie jest mocno skompresowane lub później odtwarzane na słuchawkach czy radiówkach FM. De-esser pracuje podobnie do kompresora, ale reaguje tylko na określony wycinek pasma – wyłapuje i „przycisza” fragmenty, gdzie poziom tych częstotliwości przekracza ustalony próg. W praktyce jest to must-have przy nagraniach lektorskich, podcastach, audiobookach czy nawet wokalach muzycznych – w sumie wszędzie tam, gdzie liczy się komfort słuchacza i przejrzystość przekazu. Moim zdaniem, nawet najlepszy mikrofon czy przedwzmacniacz nie zniweluje sibilantów tak skutecznie i muzykalnie jak dobrze ustawiony de-esser. W branży audio jest to uznany standard – praktycznie każda sesja mikserska z udziałem ludzkiego głosu przechodzi przez etap de-essingu. Co ciekawe, nowoczesne de-essery potrafią być bardzo selektywne, można ustawić konkretne pasmo działania i czułość, więc nie ma obaw, że sygnał stanie się matowy czy nienaturalny. To świetne narzędzie, zdecydowanie warto je znać i stosować.

Pytanie 14

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. wilgotności powietrza.
B. promieniowania ultrafioletowego.
C. pola magnetycznego.
D. pola elektrostatycznego.
Promieniowanie ultrafioletowe rzeczywiście jest jednym z największych zagrożeń dla nośników optycznych, takich jak płyty CD. Wynika to z faktu, że promieniowanie UV stopniowo degraduje warstwę poliwęglanową oraz barwnik, którym pokryta jest płyta. Efektem tego jest utrata integralności danych zapisanych na dysku, co w praktyce może oznaczać nieczytelność plików lub całkowitą utratę danych. Od lat w branży informatycznej mówi się, żeby płyty przechowywać w ciemnych miejscach, najlepiej w pudełkach, osłonięte przed światłem słonecznym i lampami UV. To nie jest czcza teoria – liczne testy pokazały, że nawet kilkugodzinne wystawienie płyty na bezpośrednie słońce może sprawić, że stanie się ona bezużyteczna. Moim zdaniem niewiele osób zdaje sobie sprawę, że zwykła żarówka LED nie stanowi zagrożenia, ale już świetlówki czasem emitują pewną ilość UV, która na przestrzeni lat może zaszkodzić nośnikowi. Branża zaleca też przechowywanie płyt w pozycji pionowej, w miejscu suchym i chłodnym, ale to właśnie ochrona przed UV jest absolutnym priorytetem. Pamiętaj, że nawet najnowocześniejsze płyty z powłoką ochronną nie są stuprocentowo odporne – UV robi swoje. To dlatego archiwa cyfrowe czy muzea mają specjalne, zaciemnione pomieszczenia na nośniki optyczne. Takie są realia, jeśli myślisz o długoterminowym przechowywaniu danych.

Pytanie 15

Lista oznaczona skrótem FX to lista

A. klipów.
B. efektów specjalnych.
C. plików MIDI.
D. ścieżek lektorskich.
Skrót FX w technice audio-wideo oznacza efekty specjalne (ang. effects), co jest powszechnie stosowane nie tylko w profesjonalnych studiach filmowych, ale też w prostych programach do montażu dźwięku czy obrazu. Lista FX to nic innego jak zestaw efektów, które możesz zastosować do pojedynczych klipów, ścieżek czy całych projektów. W praktyce, w programach takich jak Adobe Premiere, Cubase czy nawet DaVinci Resolve, masz specjalną zakładkę FX, gdzie wrzucasz takie rzeczy jak pogłos, korekcja barwy, echa, filtry czy bardziej zaawansowane przekształcenia obrazu. To zdecydowanie nie jest lista klipów ani plików MIDI, bo te mają osobne kategorie i oznaczenia. Spotkasz się z tym w branży praktycznie na każdym kroku – wystarczy spojrzeć na listy presetów czy gotowych łańcuchów efektów, gdzie pod FX kryją się te wszystkie „bajery”, które nadają brzmieniu lub obrazowi charakter. Moim zdaniem warto pamiętać, że dobra organizacja efektów pod FX ułatwia szybkie eksperymentowanie i workflow, a w dużych projektach bez tego można się pogubić. Profesjonaliści zawsze starają się trzymać efekty pod ręką i mieć porządek na liście FX – to po prostu ułatwia życie i przyspiesza pracę. Z mojego doświadczenia, jeśli ktoś mówi „dopisz to do FX”, wiadomo od razu, że chodzi o efekty specjalne, nie żadne lektorskie ścieżki czy MIDI. No, taka branżowa oczywistość.

Pytanie 16

Różnica między minimalnym a maksymalnym poziomem ciśnienia akustycznego dźwięku, wyrażona w decybelach, to

A. głośność dźwięku.
B. zniekształcenia harmoniczne.
C. poziom szumu.
D. dynamika dźwięku.
Dynamika dźwięku, czyli zakres dynamiczny, to pojęcie, które często pojawia się w branży audio, studiach nagraniowych czy podczas miksowania muzyki na żywo. Chodzi tutaj o różnicę między najcichszym a najgłośniejszym momentem dźwięku, wyrażoną w decybelach (dB). Ten parametr ma ogromne znaczenie praktyczne – na przykład w nagraniach muzycznych dynamika pozwala oddać emocje, subtelność w pianissimo albo potężny akcent w fortissimo. Moim zdaniem, jeśli ktoś chce zrozumieć, dlaczego muzyka z kasety brzmi inaczej niż z płyty winylowej czy z pliku mp3, to właśnie różnice w dynamice są jednym z kluczowych powodów. W profesjonalnej produkcji dźwięku dba się, by nie przesadzić z kompresją, bo wtedy muzyka traci na naturalności. W standardach branżowych (chociażby EBU R128 dla radia i telewizji) dąży się do utrzymania odpowiedniej dynamiki, żeby dźwięk był zrozumiały, a jednocześnie nie męczył odbiorcy. W systemach nagłośnieniowych, nawet w szkołach, warto pamiętać, że za duży zakres dynamiki może sprawić, że część widowni nie usłyszy cichych fragmentów albo głośne będą zbyt szokujące. No i taki drobiazg – dynamika to nie tylko muzyka, ale też np. nagrania filmowe czy nawet przemówienia, gdzie zbyt monotonna dynamika po prostu nudzi słuchacza. To, według mnie, jeden z najważniejszych parametrów w pracy z dźwiękiem.

Pytanie 17

Na jakiej wartości osi czasowej należy ustawić region, jeżeli w dokumentacji jego docelowa lokalizacja jest zapisana w formacie SMPTE w następujący sposób: 00:00:00:16?

A. Na szesnastej próbie.
B. Na szesnastej sekundzie.
C. Na szesnastej klatce.
D. Na pierwszej nucie szesnastkowej.
Odpowiedź jest trafiona, bo format SMPTE (Society of Motion Picture and Television Engineers) dokładnie wskazuje pozycję czasową podając: godziny, minuty, sekundy oraz klatki. Wygląda to tak: hh:mm:ss:ff, gdzie każde „f” to jedna klatka filmu lub materiału wideo. W zapisie 00:00:00:16 liczba 16 odnosi się do szesnastej klatki w pierwszej sekundzie materiału – ważne, żeby pamiętać, że numerowanie klatek zwykle zaczyna się od zera, więc 00:00:00:00 to pierwsza klatka, 00:00:00:01 druga itd. W praktyce, kiedy w dokumentacji widzisz taki zapis, od razu wiesz, gdzie dokładnie na osi czasowej powinien pojawić się region czy dany element montażowy. W montażu telewizyjnym, dźwiękowym czy filmowym to podstawowa umiejętność – bo dzięki temu, niezależnie od platformy czy programu, wszyscy pracują na tej samej siatce czasowej, eliminując nieporozumienia. Moim zdaniem docenienie precyzji SMPTE bardzo ułatwia współpracę, bo standard jest uniwersalny i nie ma tu miejsca na niedomówienia. Dla przykładu: jeśli montujesz efekty dźwiękowe i masz podany kod 00:00:00:16, dokładnie wiesz, że chodzi o szesnastą klatkę, a nie o próbkę czy sekundę dźwiękową. To potem znacząco wpływa na synchroniczność oraz jakość całego projektu.

Pytanie 18

Który z podanych impulsów dźwiękowych posiada najmniejszą rozpiętość dynamiczną?

A. Nagrany z poziomem -6 dBFS.
B. Nagrany z poziomem -3 dBFS.
C. Nagrany z poziomem -12 dBFS.
D. Nagrany z poziomem -0,3 dBFS.
Wiele osób zakłada, że im wyższy poziom nagrania (bliżej 0 dBFS), tym dynamika jest mniejsza, bo sygnał wydaje się „pełniejszy” albo bardziej zbitkowany. Nic bardziej mylnego – to typowy błąd myślowy w tej dziedzinie. W rzeczywistości, rozpiętość dynamiczna nie zależy bezpośrednio od tego, jak wysoko nagrany jest impuls, ale od proporcji między najcichszymi a najgłośniejszymi fragmentami tego sygnału. Jeśli nagrasz impuls bardzo blisko 0 dBFS (np. -0,3 dBFS), cała fala dźwiękowa niemal wypełnia cały dostępny zakres cyfrowy. To sprawia, że nawet bardzo subtelne różnice w natężeniu są zachowywane, a impuls może posiadać bardzo dużą rozpiętość dynamiczną. Natomiast jeśli nagrasz impuls na znacznie niższym poziomie, np. -12 dBFS, cały sygnał jest „ściśnięty” w dolnej części skali, przez co różnice między szczytami a cichymi fragmentami są mniejsze – i właśnie to jest mniejsza rozpiętość dynamiczna. W praktyce studyjnej, jeśli ktoś rejestruje sygnały testowe czy impulsy referencyjne, to niższy poziom zapisu jest często stosowany, żeby uniknąć przesterowań, ale trzeba pamiętać, że wpływa to też na to, jak szeroka jest paleta dynamiki do wykorzystania. Często myli się głośność z dynamiką – a to są dwa różne pojęcia. Profesjonalne standardy (np. AES, EBU) sugerują, żeby zostawiać margines headroomu, jednak kluczowe jest, że to nie poziom szczytowy decyduje o dynamice, tylko relacja między minimum a maksimum sygnału. Wybierając wyższe poziomy (-3 dBFS, -6 dBFS, -0,3 dBFS) wprawdzie zapewniasz większą przestrzeń dla niuansów dźwięku, ale w tym pytaniu chodzi o najmniejszą rozpiętość dynamiczną – i dlatego to -12 dBFS jest właściwą odpowiedzią. Warto o tym pamiętać przy pracy w każdym DAW-ie czy przy kalibracjach sprzętu audio.

Pytanie 19

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. dysk twardy.
B. karta SD.
C. pendrive.
D. chmura dyskowa.
Odpowiedzi, które wskazują na pendrive, dysk twardy lub chmurę dyskową jako popularny nośnik do zapisu sygnałów fonicznych w przenośnych urządzeniach, wynikają często z mylenia codziennego użycia nośników danych z ich realnymi zastosowaniami w sprzęcie mobilnym. Pendrive, choć bardzo popularny przy przenoszeniu plików między komputerami, nie jest stosowany w rejestratorach dźwięku czy kamerach – przede wszystkim z powodu rozmiaru, poboru energii i słabej odporności na uszkodzenia mechaniczne. Nie widziałem jeszcze porządnego, kompaktowego dyktafonu czy rejestratora, który by miał port USB-A do włożenia pendrive'a, bo to po prostu zupełnie niepraktyczne w urządzeniach przenośnych. Dysk twardy tym bardziej nie nadaje się do takiego sprzętu – jest za duży, podatny na wstrząsy, a do tego wymaga zasilania, którego małe urządzenia po prostu nie mają. Dla dużych archiwów audio, jasne, dysk twardy jest świetny – ale nie do zapisu na bieżąco w grach terenowych czy na wywiadzie ulicznym. Chmura dyskowa to już zupełnie inna bajka – to przestrzeń online, dostępna przez internet, więc nie nadaje się jako fizyczny nośnik w urządzeniu, które musi działać niezależnie od sieci (i nie zawsze mamy stały dostęp do internetu). Częsty błąd myślowy polega tu na utożsamianiu "popularnych" nośników z tymi, które faktycznie da się stosować w sprzęcie mobilnym – a przecież w praktyce liczą się jeszcze kwestie rozmiaru, niezawodności, poboru energii i łatwej wymiany. Dlatego właśnie to karta SD – dzięki swoim właściwościom i powszechnemu wsparciu branżowemu – jest najlepszym i standardowym wyborem w przenośnym sprzęcie do nagrywania dźwięku.

Pytanie 20

Kompresja równoległa polega na

A. jednoczesnej kompresji wszystkich ścieżek wokalnych.
B. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
C. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
D. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 21

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Freeze.
C. Solo.
D. Mute.
Wiele osób myli pojęcia związane z kontrolą dźwięku, co jest całkiem zrozumiałe, bo nazewnictwo branżowe potrafi być mylące. Solo to funkcja, która pozwala odsłuchać pojedynczą ścieżkę lub grupę ścieżek z wyciszeniem reszty miksu – dzięki temu realizator może precyzyjnie pracować nad detalami danego instrumentu czy wokalu, ale nie ma to związku z wyciszaniem dźwięku w sensie stopniowego wygaszania. Z kolei mute to standardowy przycisk, który po prostu natychmiastowo wycisza daną ścieżkę w mikserze, co przydaje się przy szybkim porównywaniu elementów miksu lub wycinaniu niepotrzebnych fragmentów, ale nie daje efektu płynnego zanikania. Freeze natomiast dotyczy najczęściej zamrożenia ścieżki w programie DAW – zamraża ścieżkę, żeby odciążyć procesor i w praktyce nie ma tu żadnego związku z głośnością czy wygaszaniem dźwięku. Typowym błędem jest utożsamianie tych funkcji, a przecież każda z nich pełni zupełnie inną rolę w procesie produkcji audio. Takie pomyłki biorą się moim zdaniem z podobieństwa nazw albo z braku praktycznego kontaktu ze sprzętem czy oprogramowaniem studyjnym. W rzeczywistości tylko fade out pozwala na uzyskanie profesjonalnego, stopniowego wygaszenia dźwięku zgodnie z dobrymi praktykami branżowymi. Praca na DAW-ach, konsoletach lub nawet w prostych edytorach audio pokazuje, że właściwe rozróżnienie tych funkcji jest kluczowe dla uzyskania odpowiedniego efektu końcowego.

Pytanie 22

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Phaser.
B. Equalizer.
C. Noise gate.
D. Peak Master.
Phaser to bardzo charakterystyczny efekt dźwiękowy, który rzeczywiście bazuje na modulacji fazy sygnału w określonym paśmie częstotliwości. Cała magia polega na tym, że sygnał jest rozdzielany na dwie ścieżki – jedna pozostaje niezmieniona, a druga przechodzi przez filtr all-pass, który przesuwa fazę w zależności od częstotliwości. Następnie oba sygnały są sumowane, co prowadzi do powstawania charakterystycznych efektów konstruktywnej i destruktywnej interferencji. W praktyce daje to dobrze słyszalne "przesuwanie" czy "fazowanie" w dźwięku, bardzo popularne zwłaszcza w gitarach elektrycznych czy syntezatorach – np. klasyczny efekt z muzyki rockowej lat 70. Moim zdaniem to jeden z najfajniejszych efektów, bo potrafi ożywić nawet najprostszy riff. Z punktu widzenia inżynierii dźwięku phasery są projektowane tak, by nie ingerować w głośność sygnału, a tylko modulować fazę. W branży standardem jest stosowanie phaserów właśnie w aranżacjach wymagających przestrzenności lub unikalnego "kosmicznego" brzmienia. Warto jeszcze dodać, że phaser nie jest częstotliwościowym korektorem czy urządzeniem tłumiącym – jego działanie jest unikalne, bo opiera się właśnie na manipulacji fazą, a nie na zmianie amplitudy czy tłumieniu szumów. Jeśli ktoś chce eksperymentować z barwą instrumentu, phaser daje naprawdę szerokie możliwości, a jego obsługa jest całkiem prosta nawet w domowym studio.

Pytanie 23

Który z wymienionych procesów typowo przeprowadza się w celu redukcji szumu kwantyzacji po przetworzeniu sygnału analogowego do postaci cyfrowej?

A. Kompresję.
B. Próbkowanie.
C. Normalizację.
D. Dithering.
Dithering to naprawdę sprytna technika, która jest szeroko wykorzystywana w cyfrowym przetwarzaniu sygnałów, szczególnie jeśli chodzi o konwersję sygnału analogowego na cyfrowy. Moim zdaniem to taka trochę niedoceniana sztuczka, bo często myśli się, że skoro coś jest cyfrowe, to już nie ma szumu. Niestety, szum kwantyzacji pojawia się zawsze tam, gdzie zamieniamy sygnał analogowy o praktycznie nieskończonej liczbie poziomów na skończoną liczbę wartości cyfrowych. Dithering polega na celowym dodaniu niewielkiego losowego szumu jeszcze przed kwantyzacją. To może brzmieć jak dziwne podejście – przecież chcemy się pozbyć szumu, a tu go dodajemy! Ale właśnie dzięki temu zamiast irytujących zniekształceń kwantyzacyjnych (takich jak trzeszczenie w cichych fragmentach nagrania), dostajemy szum, który jest równomiernie rozłożony i dużo mniej uciążliwy dla ucha czy analizy technicznej. W audio standardem jest stosowanie ditheringu np. przy zgrywaniu płyt CD (16 bitów), ale też stosuje się to w obrazie cyfrowym, np. w starych drukarkach czy monitorach, gdzie liczba kolorów jest ograniczona. W praktyce, jeśli komuś zależy na wysokiej jakości sygnału – zwłaszcza przy masteringu muzyki, archiwizacji nagrań albo w pomiarach naukowych – dithering jest właśnie tą dobrą praktyką, która może zrobić różnicę. Z mojego doświadczenia, nawet w prostych projektach DIY audio, kiedy pominie się dithering, efekt końcowy bywa po prostu gorszy niż mógłby być. Także warto mieć tę technikę w swoim „arsenale” inżyniera.

Pytanie 24

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. czytnika kart flash.
B. gniazda USB.
C. portu Fire Wire.
D. złącza Thunderbolt.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 25

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 45 MB
B. 35 MB
C. 15 MB
D. 25 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 26

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. PASTE
B. COPY
C. REDO
D. UNDO
Odpowiedź „UNDO” jest jak najbardziej prawidłowa, bo właśnie ta funkcja w programach DAW (Digital Audio Workstation) odpowiada za cofnięcie ostatnio wykonanej operacji edycyjnej. Działa to bardzo podobnie, jak w innych aplikacjach – pozwala szybko naprawić pomyłkę, usunąć niechcianą zmianę lub wycofać eksperyment bez konieczności zaczynania wszystkiego od nowa. W praktyce, przy pracy z dużymi projektami muzycznymi, „UNDO” potrafi uratować sporo nerwów, szczególnie jeśli coś się przypadkowo usunie albo przesunie. Standardowo skrót klawiaturowy to Ctrl+Z (albo Cmd+Z na Macu) – to taki must-have dla każdego, kto pracuje z dźwiękiem. Moim zdaniem, znajomość tej funkcji przyspiesza pracę i zwiększa pewność siebie przy eksperymentowaniu, bo zawsze można się cofnąć o krok, a czasem nawet o kilka kroków. Warto jeszcze pamiętać, że niektóre DAWy pozwalają na tzw. wielokrotne cofanie (multi-level undo) – i to jest już w branży absolutny standard, bez tego trudno sobie wyobrazić efektywną produkcję. Często korzystam z „UNDO” przy korekcji miksu lub edycji MIDI – zanim się człowiek zorientuje, coś przestawi i nagle brzmi gorzej – jedno kliknięcie i po problemie. Dobrą praktyką jest też co jakiś czas zapisywać projekt, bo czasem historia „UNDO” kasuje się np. po zamknięciu sesji, ale to już zależy od konkretnego programu.

Pytanie 27

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. HPF
B. HSF
C. BPF
D. LPF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ filtra, w którym najczęściej spotyka się możliwość regulowania dobroci (Q). Dobroć Q to parametr określający, jak wąskie lub szerokie jest przepuszczane pasmo w stosunku do częstotliwości środkowej. Im wyższa wartość Q, tym filtr jest 'ostrzejszy', bardziej selektywny – przepuszcza tylko wąski wycinek sygnału. No i właśnie przy filtrach pasmowoprzepustowych to kluczowe, bo czasami chcemy wyłowić z sygnału bardzo konkretną częstotliwość, a czasami bardziej ogólne pasmo. W praktyce na przykład w korektorach graficznych albo procesorach audio, możliwość regulacji Q pozwala bardzo precyzyjnie kształtować charakterystykę brzmienia – z mojego doświadczenia to zupełnie niezbędna rzecz przy precyzyjnym usuwaniu niechcianych dźwięków czy sprzężeń. Inżynierowie często projektują takie filtry w oparciu o topologie Sallen-Key lub Multiple Feedback ze specjalnym potencjometrem do płynnej regulacji Q. W literaturze i normach branżowych (np. IEC 60268) jednoznacznie wskazuje się, że pełna kontrola dobroci dotyczy filtrów BPF. Dla LPF i HPF regulacja Q praktycznie nie ma takiego znaczenia albo sprowadza się do regulowania tłumienia zbocza, co wcale nie jest tym samym. Podsumowując: jeśli widzisz możliwość ustawienia Q, to niemal zawsze chodzi o filtr pasmowoprzepustowy.

Pytanie 28

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 44,1 kHz
B. 88,2 kHz
C. 96 kHz
D. 192 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 29

Który z plików dźwiękowych będzie posiadał największy rozmiar przy długości materiału muzycznego 1 h?

A. mp3Pro
B. mpeg2
C. aiff
D. gt
Plik AIFF (Audio Interchange File Format) jest formatem bezstratnym i nieskompresowanym, co oznacza, że przechowuje dane audio dokładnie tak, jak zostały one nagrane – bez żadnych strat jakości. To właśnie dlatego jego rozmiar jest zazwyczaj znacznie większy niż plików zakodowanych stratnie, takich jak mp3Pro czy mpeg2. W praktyce plik AIFF o długości jednej godziny stereo (przy standardowej rozdzielczości 16 bitów i próbkowaniu 44,1 kHz) może ważyć nawet ponad 600 MB, a czasem i więcej. AIFF stosuje się głównie w środowiskach profesjonalnych, choćby przy produkcji muzyki lub pracy w studiu, gdzie zależy nam na najwyższej możliwej jakości dźwięku i nie chcemy żadnych strat wynikających z kompresji. Moim zdaniem to dobre rozwiązanie, gdy chcemy później poddawać dźwięk dalszej obróbce, bo unikamy degradacji sygnału. Warto pamiętać, że formaty takie jak mp3Pro czy mpeg2 wykorzystują kompresję stratną, czyli usuwają część informacji akustycznych, żeby zmniejszyć rozmiar pliku – kosztem jakości. Plik „gt” nie jest w ogóle uznawanym standardem pliku audio, chyba że chodziło o coś zupełnie innego. W codziennym użytkowaniu AIFF rzadko się sprawdza, bo pliki są ogromne – no, chyba że masz dużo miejsca na dysku i chcesz zachować pełny oryginał nagrania. Profesjonalni muzycy i realizatorzy dźwięku niemal zawsze wybierają AIFF lub WAV do pracy studyjnej właśnie z powodu tej bezkompromisowej jakości. To taka branżowa ciekawostka, która często pojawia się na egzaminach i testach z dźwięku.

Pytanie 30

Który z plików został skompresowany bezstratnie?

A. .mp3
B. .mlp
C. .wma
D. .oga
Plik z rozszerzeniem .mlp to Meridian Lossless Packing, czyli format kompresji bezstratnej dźwięku, stosowany m.in. w płytach DVD-Audio oraz systemach profesjonalnych. Bezstratna kompresja dźwięku polega na tym, że po dekompresji otrzymujemy dokładnie taki sam sygnał audio, jaki był początkowo – nie tracimy żadnych informacji. To sprawia, że .mlp idealnie nadaje się do zastosowań archiwizacyjnych lub studia nagraniowego, gdzie istotna jest najwyższa jakość i zachowanie oryginalnych parametrów sygnału. Spotyka się go rzadziej w codziennym użyciu niż np. FLAC, ale w branży muzycznej ma swoje miejsce, szczególnie przy masteringu lub archiwizacji materiału źródłowego. Moim zdaniem, znajomość formatów bezstratnych, takich jak .mlp, to trochę taka tajna broń audiofila czy technika z dźwięku – pozwala nie tylko prawidłowo wybrać narzędzie do zadania (czyli np. archiwizacja kontra streaming), ale też rozumieć, dlaczego niektóre pliki audio brzmią lepiej niż inne. W wielu profesjonalnych workflow, np. przy pracy z muzyką do filmu czy przy masteringu, bezstratność jest kluczowa, bo pozwala potem robić kolejne kopie, edycje i remixy bez degradacji jakości. No, a jeśli ktoś się interesuje branżą audio, warto znać nie tylko popularne skróty, ale też te mniej oczywiste jak MLP. W sumie, to taki standard branżowy dla kogoś, kto chce pracować na poważnie z dźwiękiem.

Pytanie 31

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Windows Media Player.
B. Audacity.
C. Music Player.
D. Samplitude.
Wiele osób przy wyborze programu do edycji dźwięku kieruje się znajomością interfejsu lub popularnością narzędzi, jednak nie wszystkie aplikacje nadają się do profesjonalnych zastosowań. Audacity rzeczywiście bywa używane do prostszych prac z dźwiękiem, ale jego możliwości są ograniczone – choć umożliwia cięcie, nakładanie efektów czy konwersję formatów, to jednak nie daje tej precyzji, kontroli i narzędzi, które są niezbędne przy produkcji muzyki na poziomie studyjnym. Jego interfejs i architektura nie wspierają złożonych projektów wielośladowych, a obsługa instrumentów wirtualnych i profesjonalnych pluginów VST jest dość ograniczona. Z mojego doświadczenia wynika, że początkujący często mylą odtwarzacze muzyczne takie jak Music Player czy Windows Media Player z narzędziami do edycji – to typowy błąd wynikający z tego, że oba programy umożliwiają odtwarzanie plików audio, ale nie mają praktycznie żadnych funkcji edycyjnych. Odtwarzacz służy wyłącznie do słuchania, zarządzania playlistami czy konwersji formatu pliku, natomiast nie pozwala na obróbkę, miks czy mastering. Wielu uczniów sądzi, że skoro w programie można „coś zrobić z muzyką”, to znaczy, że nadaje się do edycji – w rzeczywistości tylko oprogramowanie z rodziny DAW (Digital Audio Workstation) takie jak Samplitude, Pro Tools, Cubase czy Logic Pro daje dostęp do profesjonalnych narzędzi używanych przez realizatorów dźwięku i producentów muzycznych. W branży audio przyjmuje się za standard, że praca nad projektami muzycznymi na wysokim poziomie technologicznym wymaga rozbudowanego środowiska DAW z obsługą pluginów, automatyzacją, zaawansowanym mikserem i wsparciem dla wielu formatów audio – zwykły odtwarzacz czy podstawowy edytor po prostu nie wystarczą. Prawidłowe rozróżnienie tych ról jest kluczowe dla świadomej pracy w branży muzycznej oraz dla uniknięcia frustracji związanej z brakiem niezbędnych funkcji podczas realizacji poważniejszych projektów.

Pytanie 32

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. Stereo
B. 6.1
C. 5.1
D. Mono
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 33

Szumy w nagraniu redukować można poprzez

A. bramkę szumów noise gate.
B. kompresję.
C. korekcję nagrania.
D. funkcję noise reduction.
Funkcja noise reduction to zdecydowanie jeden z najczęściej używanych sposobów na walkę z szumami w nagraniach audio. W praktyce wygląda to tak: specjalny algorytm analizuje fragment nagrania, który zawiera wyłącznie szum (najlepiej, gdy jest to tzw. próbka szumu), a potem na tej podstawie usuwa podobne komponenty z całego pliku dźwiękowego. Takie podejście pozwala skutecznie wyciszyć niepożądane tło – szum wentylatora, szelest mikrofonu, brum sieciowy i inne tego typu rzeczy. Narzędzia noise reduction znajdziesz w praktycznie każdym programie do obróbki audio, od darmowych (Audacity) po profesjonalne (np. iZotope RX, Adobe Audition). Z mojego doświadczenia wynika, że właściwie ustawiona funkcja noise reduction pozwala odzyskać naprawdę dużo z nagrania, które na pierwszy rzut ucha wydaje się bezużyteczne. W branży produkcji dźwięku to codzienność, bo nawet najlepszy sprzęt nie zawsze gwarantuje czyste nagranie – czasami coś zaszumi, ktoś zostawi otwarte okno albo mikrofon złapie zakłócenia z sieci. Dobrą praktyką jest ostrożne stosowanie tej funkcji, bo zbyt mocne parametry mogą zniekształcić głos czy inne ważne dźwięki. Najlepiej, jeśli noise reduction jest tylko jednym z etapów pracy – obok dobrej jakości nagrania, prawidłowego ustawienia mikrofonu i unikania źródeł szumu, to właśnie ta funkcja pozwala uzyskać naprawdę profesjonalny rezultat.

Pytanie 34

Jaki efekt osiągany jest w wyniku odszumiania?

A. Zaciemnienie barwy.
B. Rozjaśnienie barwy.
C. Zwiększenie dynamiki.
D. Zmniejszenie dynamiki.
Odszumianie to proces usuwania lub minimalizowania niepożądanych szumów z sygnału audio, który bardzo często pojawia się w realizacji dźwięku – czy to podczas nagrań, czy przy postprodukcji. Najważniejsze, co się przy tym uzyskuje, to właśnie zwiększenie dynamiki nagrania. Chodzi tu o to, że szumy zazwyczaj wypełniają najcichsze fragmenty audio, przez co „podnoszą” poziom tła, a to ogranicza zakres między najcichszymi a najgłośniejszymi dźwiękami. Gdy skutecznie odszumimy nagranie, znika ten niechciany „dywan” szumu, więc najcichsze fragmenty stają się naprawdę ciche – i całość brzmi dużo bardziej dynamicznie. Tak się robi choćby z nagraniami lektorskimi, wywiadami, ale też śladami instrumentalnymi w studiu. Branżowe standardy, na przykład w masteringowej obróbce muzyki czy materiałów filmowych, wyraźnie zalecają pilnować, by nie przesadzać z tłumieniem szumów – chodzi o to, żeby nie zaszkodzić samemu sygnałowi, ale zawsze dąży się do jak największego kontrastu między ciszą a głośnością. Moim zdaniem, jeżeli ktoś chce robić miks na poziomie, to bez umiejętności dobrego odszumiania trudno sobie wyobrazić profesjonalny rezultat. Efekt podniesionej dynamiki jest wtedy od razu słyszalny, nagranie brzmi czysto i dużo bardziej profesjonalnie.

Pytanie 35

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Delay
B. Compressor
C. Equaliser
D. Gate
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 36

Który z wymienionych rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji programu DAW?

A. 64 próbki.
B. 32 próbki.
C. 256 próbek.
D. 128 próbek.
Wybranie bufora o rozmiarze 32 próbek to zdecydowanie najbardziej sensowna opcja, jeśli zależy nam na absolutnie minimalnej latencji podczas nagrywania dźwięku w DAW. Mówiąc wprost, im mniejszy bufor, tym krótszy czas oczekiwania na reakcję systemu – sygnał praktycznie od razu trafia z wejścia audio do wyjścia. To kluczowe dla wokalistów, instrumentalistów czy live performerów, gdzie nawet drobne opóźnienie potrafi totalnie wybić z rytmu. W środowiskach profesjonalnych, np. w studiach nagraniowych, standardem jest schodzenie do najniższych możliwych wartości, często właśnie na poziomie 32 czy 64 próbek, jeśli tylko sprzęt na to pozwala. Oczywiście, taki bufor zwiększa obciążenie procesora – tutaj już trzeba mieć porządną kartę dźwiękową i stabilne sterowniki, np. ASIO w Windows czy Core Audio na Macu. Z mojego doświadczenia: przy nagraniach w domowych warunkach też warto próbować zejść jak najniżej, byleby nie pojawiały się trzaski, dropy czy inne artefakty. Moim zdaniem to taki złoty standard dla tych, którym zależy na responsywności DAW podczas nagrywania na żywo. W materiałach firm takich jak Steinberg, Ableton czy Avid znajdziesz potwierdzenie, że to właśnie minimalizacja bufora daje najbardziej naturalne wrażenia podczas nagrania. Warto pamiętać, że później przy miksie czy masteringu można podnieść bufor, bo wtedy liczy się wydajność, nie latencja.

Pytanie 37

Która z wymienionych funkcji w wielościeżkowej sesji programu DAW umożliwia ukrycie wybranych ścieżek dźwiękowych?

A. Resize
B. Minimize
C. Close
D. Hide
Opcja 'Hide' w środowisku DAW (Digital Audio Workstation) to bardzo przydatne narzędzie, zwłaszcza kiedy masz do czynienia z dużą liczbą ścieżek w sesji. Ukrywanie ścieżek pomaga utrzymać porządek i przejrzystość podczas miksowania lub edycji, bo można skupić się tylko na tych elementach, które są akurat potrzebne. Wielu producentów korzysta z tej funkcji, kiedy pracuje nad złożonym projektem – na przykład ukrywają ślady perkusji, gdy dopracowują wokale, albo chowają nieużywane wersje partii instrumentalnych, żeby nie rozpraszały uwagi. Moim zdaniem, korzystanie z opcji 'Hide' to już taki standard pracy w profesjonalnych studiach – pozwala zachować czytelność interfejsu i lepiej zarządzać dużymi projektami. Co ciekawe, w większości DAW-ów ukrycie ścieżki nie powoduje jej wyciszenia ani usunięcia – to po prostu organizacyjne rozwiązanie. Przy dłuższych sesjach można sobie oszczędzić mnóstwo frustracji. Z doświadczenia wiem, że osoby, które nie korzystają z tej funkcji, często mają chaos na ekranie i dużo trudniej im znaleźć potrzebne elementy. Warto też pamiętać, że ukrywanie ścieżek to nie tylko kwestia wygody, ale też wydajności – mniej widocznych elementów to szybsza orientacja w sesji, mniej pomyłek i sprawniejsza praca. Można to porównać trochę do porządkowania dokumentów w segregatorach – wszystko jest na swoim miejscu, ale nie zawsze musi być na wierzchu. W sumie – jeśli zależy ci na profesjonalnym workflow, to naprawdę warto korzystać z 'Hide'.

Pytanie 38

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Snap
B. Freeze
C. Loop
D. Merge
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 39

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Shuffle
B. Bounce
C. Scrubbing
D. Marquee
Myląc funkcję pozwalającą na ręczne odsłuchiwanie materiału dźwiękowego poprzez przeciąganie kursora po osi czasu z innymi opcjami DAW, można łatwo wpaść w pułapkę typowych skojarzeń z nazwami narzędzi. Shuffle, chociaż brzmi dynamicznie, jest używany głównie do przesuwania klipów na osi czasu z automatycznym dostosowaniem pozycji innych elementów – raczej porządkuje ścieżki niż służy podglądaniu dźwięku na żywo. Bounce natomiast kojarzony jest z eksportowaniem lub „zbijaniem” kilku ścieżek do jednego pliku audio. W praktyce oznacza to finalizację pracy i przygotowywanie miksu do dalszej publikacji, a nie precyzyjne odsłuchiwanie konkretnych fragmentów nagrania. Marquee to z kolei narzędzie zaznaczania, bardzo przydatne podczas edycji – można dzięki niemu wyodrębnić fragment, coś wyciąć albo skopiować, ale nie umożliwia ono dynamicznego odsłuchu podczas przesuwania kursora. Wielu początkujących myli te funkcje, bo interfejsy DAW bywają przeładowane ikonami i nie zawsze są intuicyjne na pierwszy rzut oka. Moim zdaniem najczęstszy błąd myślowy wynika z utożsamiania nazw narzędzi z ich rzeczywistą funkcjonalnością – „shuffle” sugeruje jakiś ruch, „marquee” brzmi jak coś ważnego, a „bounce” może wydawać się interaktywny. Tymczasem odsłuch podczas przesuwania kursora, zwłaszcza w celu wyłapania drobnych szczegółów lub przy edycji transjentów, określa się właśnie mianem scrubbingu. Warto zawsze weryfikować, co faktycznie robi dane narzędzie – każde DAW trochę inaczej je nazywa, ale ogólna zasada pozostaje taka sama: scrubbing to główna metoda precyzyjnego podglądu dźwięku na osi czasu. Z mojego doświadczenia wynika, że odpowiednie korzystanie z tej opcji naprawdę potrafi zaoszczędzić mnóstwo czasu i wyeliminować błędy przy montażu.

Pytanie 40

Którego z wymienionych analizatorów używa się standardowo do wzrokowej kontroli poziomu nagrania?

A. Level Meter
B. Spectrum Analyzer
C. Oscilloscope
D. Phase Scope
Wybór narzędzia do kontroli poziomu nagrania może sprawiać pewne trudności, szczególnie osobom zaczynającym przygodę z realizacją dźwięku. W praktyce bardzo łatwo pomylić specjalistyczne analizatory, bo wszystkie mają zaawansowane wykresy i wyglądają dość „technicznie”. Phase Scope to narzędzie, które pozwala ocenić relacje fazowe pomiędzy kanałami (stereo, mono) – przydaje się np. przy sprawdzaniu, czy sygnał nie traci informacji w mono, ale nie mówi absolutnie nic o poziomie głośności czy wysterowaniu. Oscilloscope z kolei pokazuje kształt fali dźwiękowej w czasie – można zobaczyć, jak wygląda przebieg sygnału, wykryć zniekształcenia czy kliknięcia, ale nie daje intuicyjnej informacji o tym, jak głośny jest sygnał w sensie praktycznym. Spectrum Analyzer analizuje rozkład częstotliwości, przedstawiając wykres pokazujący, które pasma są silniejsze, a które słabsze – używa się go głównie do korekcji barwy, balansowania miksu i wykrywania np. rezonansów. Typowym błędem jest utożsamianie dowolnego analizatora z miernikiem poziomu tylko dlatego, że pokazuje wykres. Jednak tylko Level Meter daje bezpośrednią, czytelną informację o poziomie sygnału, co jest kluczowe do ustawienia poprawnego gainu i zachowania headroomu, zarówno przy nagraniu, jak i w miksie. W branży audio standardem jest trzymanie się właśnie Level Meterów – wynika to z ich precyzyjności i zgodności z normami technicznymi, np. EBU R128 czy AES. Wybierając inne narzędzia, narażasz się na niekontrolowane przesterowania lub zbyt ciche ślady. Moim zdaniem, warto rozróżniać funkcje poszczególnych analizatorów i używać ich zgodnie z przeznaczeniem – to jeden z fundamentów profesjonalnej pracy z dźwiękiem.