Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 1 maja 2026 14:34
  • Data zakończenia: 1 maja 2026 14:41

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Tryb automatyki na ścieżce w sesji programu DAW pozwalający na odtwarzanie uprzednio zapisanej krzywej automatyki określany jest mianem

A. Touch.
B. Read.
C. Write.
D. Latch.
Tryb Read w automatyce ścieżek w DAW to taki trochę fundament, jeśli chodzi o zarządzanie wcześniej zapisanymi ruchami automatyki. Cały bajer polega na tym, że kiedy wybierzesz Read, DAW po prostu odtwarza to, co już zostało nagrane – regulacje głośności, panoramy, parametry wtyczek i inne zmiany, które sobie wcześniej zapisałeś na ścieżce. Nie ma tu ryzyka, że przypadkiem coś nadpiszesz, bo wszystko idzie zgodnie z przygotowaną krzywą, a Ty możesz spokojnie słuchać efektów swoich ustawień. Moim zdaniem to absolutna podstawa profesjonalnej pracy z automatyką – praktycznie każdy poważniejszy projekt prędzej czy później wymaga dokładnego odsłuchania i sprawdzenia, czy te wszystkie wyciszenia, podbicia, czy inne automatyczne zmiany brzmią tak, jak chciałeś. W branży muzycznej to też taki niepisany standard – inżynierowie dźwięku pracują w trybie Read nie tylko po to, żeby się nie pogubić w swoich automatyzacjach, ale też po to, żeby mieć pełną kontrolę nad finalnym brzmieniem utworu. Z mojego doświadczenia wynika, że używając Read, łatwiej wychwycić ewentualne błędy albo sytuacje, gdzie automatyka nie działa zgodnie z zamierzeniem. Najlepsze jest to, że możesz skupić się na słuchaniu, a nie na pilnowaniu, czy czegoś przypadkiem nie zmieniasz. To bardzo praktyczne, zwłaszcza w większych projektach, gdzie automatyki jest od groma i człowiek łatwo może coś przegapić. Co ciekawe, większość DAW-ów oferuje ten tryb właśnie jako domyślny sposób odtwarzania automatyki, więc to nie jest tylko wymysł jednej firmy – to już taki branżowy klasyk.

Pytanie 2

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 5 MB
B. 16 MB
C. 24 MB
D. 10 MB
Właśnie o to chodziło – dla nagrania stereo o długości 1 minuty i 30 sekund (czyli 00:01:30:00 w SMPTE) zapisanej w formacie CD-Audio, rozmiar 16 MB jest najbardziej trafny. W praktyce CD-Audio korzysta z próbkowania 44,1 kHz i 16-bitowej głębi dla każdego z dwóch kanałów. To oznacza 44100 próbek na sekundę * 16 bitów (czyli 2 bajty) * 2 kanały = 176400 bajtów na sekundę. Przemnażając to przez czas nagrania (90 sekund), dostajemy 15 876 000 bajtów, co po przeliczeniu na megabajty (dzielimy przez 1 048 576) daje około 15,1 MB. Jednak w praktyce zaokrągla się to do 16 MB ze względu na nadmiarowość sektorów CD lub uproszczone kalkulacje w branży. Tak się to robi w studiach nagraniowych i przy masteringu płyt – warto znać takie przeliczniki i umieć je wykorzystać, bo planowanie przestrzeni na nośniku to wciąż ważny temat. Moim zdaniem fajnie jest pamiętać, że dźwięk nieskompresowany potrafi szybko zajmować dużo miejsca, co tłumaczy popularność kompresji w codziennym użytku. Standard CD-Audio (Red Book) od lat pozostaje wzorem przy archiwizacji i profesjonalnym przygotowaniu ścieżek dźwiękowych. Właśnie dlatego, jeśli ktoś pyta o rozmiar takiego nagrania, 16 MB to najbardziej rzetelna odpowiedź zgodna z praktyką branżową.

Pytanie 3

W której z wymienionych wartości tempa czas trwania oznaczonej wartości rytmicznej wynosi 500 ms?

A. 160 BPM
B. 120 BPM
C. 100 BPM
D. 140 BPM
Tempo 120 BPM oznacza, że w jednej minucie przypada dokładnie 120 uderzeń, a więc każde uderzenie trwa 0,5 sekundy, czyli 500 ms. Moim zdaniem to jedna z tych rzeczy, które warto umieć szybko policzyć, bo przy pracy z metronomem czy edycji MIDI w DAW-ach ciągle się to przydaje. W praktyce, jeśli na przykład ustawiasz w sekwencerze tempo 120 BPM, to półnuty będą trwały sekundę, ćwierćnuty – pół sekundy, a ósemki – 250 ms. To daje dużą precyzję, zwłaszcza gdy trzeba zsynchronizować efekty świetlne z beatem albo automatyzować parametry dźwięku pod konkretną długość taktu. Standardowo tempo 120 BPM jest też często wykorzystywane w muzyce popularnej i elektronicznej, właśnie ze względu na łatwość dzielenia wartości rytmicznych. W branży stosuje się proste kalkulatory BPM, ale warto umieć to policzyć samemu: czas trwania ćwierćnuty = 60 000 ms / BPM, więc przy 120 BPM mamy dokładnie 500 ms. Takie tempo daje sporo elastyczności przy aranżacji różnych gatunków – od popu przez EDM aż po rock.

Pytanie 4

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kluczowanie amplitudy.
B. Edycja panoramy.
C. Szerokopasmowa kompresja.
D. Normalizacja.
Normalizacja to operacja, która wprost podnosi poziom całego nagrania tak, żeby jego wartość szczytowa (czyli najwyższy możliwy pik sygnału) dotarła do ustalonego punktu odniesienia – standardowo jest to 0 dBFS (decibels full scale). W praktyce normalizacja jest stosowana, żeby maksymalnie wykorzystać dostępną rozdzielczość sygnału cyfrowego bez ryzyka przesterowania, które pojawia się powyżej 0 dBFS w systemach cyfrowych. Moim zdaniem, to jedna z podstawowych czynności na etapie przygotowania ścieżki audio do dalszego miksu lub masteringu, bo pozwala zachować kontrolę nad dynamiką i uniknąć problemów przy przekazywaniu plików dalej – np. do wydawcy, klienta czy innego realizatora. W branży muzycznej uważa się, że normalizacja jest neutralna dla brzmienia, bo nie zmienia proporcji głośności między fragmentami nagrania, tylko globalnie przesuwa cały sygnał w górę lub w dół, aż szczyt osiągnie wybrany poziom. Bardzo często korzysta się z niej przy zgrywaniu sesji wielośladowych do wspólnego projektu lub przy finalizowaniu materiału do druku. Ciekawostka: niektórzy inżynierowie używają normalizacji do nieco niższych poziomów, np. -1 dBFS, żeby zostawić minimalny margines bezpieczeństwa dla konwersji czy przesyłu strumieniowego. Warto wiedzieć, że normalizacja nie zastępuje kompresji ani limiterów – to zupełnie inne narzędzia do zarządzania dynamiką.

Pytanie 5

Który z wymienionych formatów plików audio stanowi najczęstszą podstawę do pracy montażowej w sesji oprogramowania DAW?

A. .m4a
B. .mp3
C. .wav
D. .ogg
Format .wav jest zdecydowanie najczęściej wykorzystywany w pracy montażowej w DAW (Digital Audio Workstation). To taki branżowy standard i w sumie nie ma się co dziwić, bo pliki wav są nieskompresowane, czyli dźwięk jest w nich zapisany bez żadnych strat jakości. Można je dowolnie edytować, ciąć, nakładać efekty i miksować bez obawy, że coś się popsuje w brzmieniu. DAW-y najchętniej pracują właśnie z tym formatem, bo są one szybkie w odczycie i nie wymagają dodatkowego dekodowania podczas pracy. Z własnego doświadczenia wiem, że gdy dostajesz sesję od innego realizatora lub pracujesz nad projektem na różnych komputerach, .wav po prostu zawsze działa. Jest też bardzo elastyczny – można ustalić różne częstotliwości próbkowania (44.1 kHz, 48 kHz, nawet wyżej) i ilość bitów, w zależności od potrzeb projektu. Co ważne, większość wtyczek, narzędzi masteringowych czy nawet prostych edytorów audio, obsługuje wav bez żadnych problemów. W wielu studiach nagraniowych przyjęło się też, że eksportuje się wszystkie ścieżki w wav, bo potem łatwiej je przesłać do miksu lub masteringu. Inne formaty, jak mp3 czy m4a, raczej nie nadają się do profesjonalnej obróbki, bo są stratne. A .ogg, chociaż czasem spotykany, nie jest popularnym wyborem w produkcji muzycznej. Generalnie, moim zdaniem, jak wchodzisz w temat miksowania czy profesjonalnej produkcji muzyki, wav to podstawa i warto od razu się do tego przyzwyczaić.

Pytanie 6

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. ∞:1
B. 2:1
C. 6:1
D. 1,4:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest nie dopuszczać do przekroczenia określonego poziomu sygnału – na przykład po to, by uniknąć przesterowania w nagraniu lub transmisji na żywo. Charakterystyczną cechą limitera jest właśnie nieskończony, czyli teoretyczny stopień kompresji: ∞:1. Oznacza to, że każda amplituda sygnału przekraczająca ustawiony threshold (próg) zostaje natychmiast „ścięta” – po prostu limiter nie pozwala, aby poziom sygnału był wyższy od ustalonego limitu. W praktyce, to się objawia bardzo twardym i szybkim działaniem, idealnym do ochrony sprzętu nagłaśniającego albo zapobiegania klipowaniu podczas masteringu. Moim zdaniem limiter to taki ostatni bastion bezpieczeństwa w torze sygnałowym – jeśli wszystko inne zawiedzie, on zadba o to, by sygnał nie wyszedł poza dopuszczalny zakres. W technikach studyjnych często stosuje się limity właśnie o stopniu ∞:1 (albo bardzo bliskim tej wartości), zwłaszcza na wyjściu całego miksu. Co ciekawe, w wielu sytuacjach limiter bywa mylony z kompresorem, ale różnica polega właśnie na tej ekstremalnej wartości ratio i błyskawicznym czasie reakcji. Warto o tym pamiętać projektując własne łańcuchy efektów – limiter to nie tylko narzędzie do „głośności”, ale też do ochrony i kontroli sygnału.

Pytanie 7

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/16 bitów
B. 48000 Hz/24 bity
C. 48000 Hz/16 bitów
D. 44100 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 8

Który z plików został skompresowany bezstratnie?

A. .mp3
B. .oga
C. .wma
D. .mlp
Wielu osobom wydaje się, że formaty takie jak .mp3, .wma czy .oga oferują kompresję bezstratną, pewnie przez to, że są szeroko stosowane i dają dość dobrą jakość przy niskim rozmiarze pliku. Jednak tu kryje się właśnie typowy błąd myślowy: te wszystkie formaty to kompresja stratna, czyli de facto przy każdym kodowaniu i dekodowaniu tracimy pewną ilość informacji z oryginalnego sygnału audio. Każdy z wymienionych formatów funkcjonuje według innych algorytmów, np. .mp3 wykorzystuje psychoakustyczne modele, odrzucając dźwięki uznane za niesłyszalne dla ludzkiego ucha, żeby zmniejszyć rozmiar pliku. Owszem, pozwala to na szybkie przesyłanie muzyki i wygodne przechowywanie, ale przy poważniejszych zastosowaniach, jak np. obróbka studyjna, każda kolejna edycja na takim pliku będzie pogarszała jakość. Kolejne, .wma (Windows Media Audio), też podąża tą samą drogą – został zaprojektowany przez Microsoft głównie z myślą o kompresji stratnej, chociaż istnieją wersje bezstratne (WMA Lossless), to zwykłe .wma oznacza stratność. Podobnie .oga, czyli kontener OGG, który zazwyczaj kojarzony jest z kodekiem Vorbis, a ten również kompresuje stratnie. Tu dużo osób myli kontener z kodekiem, co potęguje nieporozumienia – .oga może teoretycznie zawierać dane bezstratne, ale standardowo kryje stratny Vorbis. W praktyce, jeśli zależy nam na jakości i pełnej wierności dźwięku (np. do archiwizacji czy edycji), powinniśmy sięgać po formaty stricte bezstratne, takie jak .mlp, FLAC czy ALAC. W codziennym użytkowaniu stratny format może wystarczyć, ale z mojego doświadczenia, kiedy pojawia się temat dalszych obróbek lub archiwizacji, powracanie do źródła bezstratnego jest niezbędne. Warto dobrze rozumieć różnice pomiędzy tymi podejściami, bo to naprawdę przekłada się na jakość odbioru i profesjonalizm pracy z dźwiękiem.

Pytanie 9

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HM
B. LP
C. HP
D. LM
Filtr HP, czyli High-Pass (po polsku: filtr górnoprzepustowy), to standard w każdym systemie audio, akustyce czy nawet w elektronice użytkowej. Jego głównym zadaniem jest przepuszczanie dźwięków o częstotliwościach wyższych od tzw. częstotliwości odcięcia, a blokowanie albo tłumienie tych niskich. Taki filtr świetnie sprawdza się na przykład przy nagrywaniu wokalu — wycina szumy o niskich częstotliwościach, buczenie podłogi czy brum sieciowy, które potrafią zepsuć całą ścieżkę dźwiękową. W praktyce często spotykam się z sytuacją, gdzie technicy studyjni od razu włączają HP na mikrofonach, żeby nie zbierał przypadkowych dudnień czy „przewiewów” powietrza. Nawet w prostym mikserze czy interfejsie USB można znaleźć ten filtr pod oznaczeniem HPF albo po prostu z symbolem „górującej rampy”. Moim zdaniem warto pamiętać, że prawidłowe zastosowanie HP to klucz do czystego miksu, zwłaszcza jeżeli nie chcemy, żeby bas lub stopa perkusyjna wszystko nam rozmywała. Jak pokazują podręczniki realizacji dźwięku, HP jest praktycznie obowiązkowy dla wszystkich ścieżek poza tymi, gdzie te niskie częstotliwości są istotne, czyli np. dla basu. To taka trochę podstawa, a jednocześnie prosty sposób na lepszy efekt końcowy.

Pytanie 10

Które z wymienionych okien służy do zarządzania regionami umiejscowionymi na ścieżkach sesji DAW?

A. Undo History.
B. Clips.
C. Mix.
D. Piano Roll.
Okno Clips to naprawdę bardzo istotny element każdego nowoczesnego DAW-a, bo właśnie tutaj wszystko się dzieje, jeśli chodzi o zarządzanie regionami czy fragmentami nagrań poukładanymi na ścieżkach. Gdy tworzysz muzykę albo miksujesz podcast, to najczęściej manipulujesz tzw. klipami, które mogą być MIDI, audio, czasem jeszcze automatyzacją. To właśnie w oknie Clips możesz przesuwać, kopiować, skracać, dzielić albo scalać te regiony – to podstawa pracy na timeline. Moim zdaniem, bez znajomości tego narzędzia ciężko cokolwiek sensownego stworzyć, bo to tu powstaje układ utworu, aranżacja i wstępny montaż. Producenci DAW-ów dbają, żeby obsługa Clips była intuicyjna i szybka, bo wiadomo – każdemu zależy na płynnej pracy. W praktyce, jak masz wokal nagrany w kilku podejściach, to właśnie w oknie Clips wybierzesz najlepsze fragmenty, zsynchronizujesz je i rozplanujesz w kontekście całego utworu. Takie zarządzanie regionami jest też zgodne z workflow obowiązującym praktycznie we wszystkich profesjonalnych studiach. Praktyka pokazuje, że nawet w pracy nad reklamą czy podcastem okno Clips daje największą kontrolę nad przebiegiem projektu. Z mojego doświadczenia wynika, że kto szybko opanuje pracę z regionami w tym oknie, ten później robi miks z zamkniętymi oczami. Warto też dodać, że coraz więcej DAW-ów pozwala na zaawansowane operacje na regionach właśnie w tym widoku, np. grupowanie, kolorowanie czy szybkie przypisywanie nazw, co mocno pomaga w porządkowaniu większych sesji.

Pytanie 11

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. LPF
B. BPF
C. HPF
D. HSF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ filtra, w którym najczęściej spotyka się możliwość regulowania dobroci (Q). Dobroć Q to parametr określający, jak wąskie lub szerokie jest przepuszczane pasmo w stosunku do częstotliwości środkowej. Im wyższa wartość Q, tym filtr jest 'ostrzejszy', bardziej selektywny – przepuszcza tylko wąski wycinek sygnału. No i właśnie przy filtrach pasmowoprzepustowych to kluczowe, bo czasami chcemy wyłowić z sygnału bardzo konkretną częstotliwość, a czasami bardziej ogólne pasmo. W praktyce na przykład w korektorach graficznych albo procesorach audio, możliwość regulacji Q pozwala bardzo precyzyjnie kształtować charakterystykę brzmienia – z mojego doświadczenia to zupełnie niezbędna rzecz przy precyzyjnym usuwaniu niechcianych dźwięków czy sprzężeń. Inżynierowie często projektują takie filtry w oparciu o topologie Sallen-Key lub Multiple Feedback ze specjalnym potencjometrem do płynnej regulacji Q. W literaturze i normach branżowych (np. IEC 60268) jednoznacznie wskazuje się, że pełna kontrola dobroci dotyczy filtrów BPF. Dla LPF i HPF regulacja Q praktycznie nie ma takiego znaczenia albo sprowadza się do regulowania tłumienia zbocza, co wcale nie jest tym samym. Podsumowując: jeśli widzisz możliwość ustawienia Q, to niemal zawsze chodzi o filtr pasmowoprzepustowy.

Pytanie 12

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. wolniejszych i o lepszej jakości.
B. wolniejszych i o słabszej jakości.
C. szybszych i o lepszej jakości.
D. szybszych i o słabszej jakości.
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 13

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Bounce
B. Scrubbing
C. Marquee
D. Shuffle
Myląc funkcję pozwalającą na ręczne odsłuchiwanie materiału dźwiękowego poprzez przeciąganie kursora po osi czasu z innymi opcjami DAW, można łatwo wpaść w pułapkę typowych skojarzeń z nazwami narzędzi. Shuffle, chociaż brzmi dynamicznie, jest używany głównie do przesuwania klipów na osi czasu z automatycznym dostosowaniem pozycji innych elementów – raczej porządkuje ścieżki niż służy podglądaniu dźwięku na żywo. Bounce natomiast kojarzony jest z eksportowaniem lub „zbijaniem” kilku ścieżek do jednego pliku audio. W praktyce oznacza to finalizację pracy i przygotowywanie miksu do dalszej publikacji, a nie precyzyjne odsłuchiwanie konkretnych fragmentów nagrania. Marquee to z kolei narzędzie zaznaczania, bardzo przydatne podczas edycji – można dzięki niemu wyodrębnić fragment, coś wyciąć albo skopiować, ale nie umożliwia ono dynamicznego odsłuchu podczas przesuwania kursora. Wielu początkujących myli te funkcje, bo interfejsy DAW bywają przeładowane ikonami i nie zawsze są intuicyjne na pierwszy rzut oka. Moim zdaniem najczęstszy błąd myślowy wynika z utożsamiania nazw narzędzi z ich rzeczywistą funkcjonalnością – „shuffle” sugeruje jakiś ruch, „marquee” brzmi jak coś ważnego, a „bounce” może wydawać się interaktywny. Tymczasem odsłuch podczas przesuwania kursora, zwłaszcza w celu wyłapania drobnych szczegółów lub przy edycji transjentów, określa się właśnie mianem scrubbingu. Warto zawsze weryfikować, co faktycznie robi dane narzędzie – każde DAW trochę inaczej je nazywa, ale ogólna zasada pozostaje taka sama: scrubbing to główna metoda precyzyjnego podglądu dźwięku na osi czasu. Z mojego doświadczenia wynika, że odpowiednie korzystanie z tej opcji naprawdę potrafi zaoszczędzić mnóstwo czasu i wyeliminować błędy przy montażu.

Pytanie 14

W jakiej pozycji na osi czasu w sesji programu DAW należy ustawić znacznik końcowy utworu muzycznego, jeśli utwór ten ma trwać 64 takty przy metrum 4/4 i tempie 120 BPM?

A. Na początku 186 sekundy.
B. Na końcu 128 sekundy.
C. Na końcu 64 sekundy.
D. Na początku 240 sekundy.
Poprawnie zidentyfikowałeś moment zakończenia utworu – 128 sekunda to dokładnie tam, gdzie kończy się 64 takt w metrum 4/4 przy tempie 120 BPM. Sprawa wygląda tak: każde 4/4 oznacza, że w jednym takcie mamy 4 ćwierćnuty. Przy tempie 120 BPM, czyli 120 ćwierćnut na minutę, jeden takt trwa dokładnie 2 sekundy (bo 120 podzielić na 60 to 2, czyli 2 ćwierćnuty na sekundę, więc 4 ćwierćnuty – cały takt – to 2 sekundy). Mnożąc 64 takty razy 2 sekundy, wychodzi właśnie 128 sekund. W praktyce, w DAW-ach jak Ableton, FL Studio czy Cubase, wyznaczanie końca utworu w taki sposób to podstawa pracy – pozwala to uniknąć niewygodnych pauz lub uciętych dźwięków przy renderingu, a także porządkuje workflow całej sesji. Często producenci ustawiają marker końca dokładnie na ostatnim takcie, żeby przy eksporcie nie zgubić żadnych ważnych elementów np. efektów wybrzmiewających na końcu utworu. Moim zdaniem, taka precyzyjna kalkulacja bardzo się przydaje przy planowaniu automatyzacji, fade-outów czy edycji struktury utworu. W branży to taki standard, żeby nie marnować czasu na zgadywanie, tylko od razu podchodzić do sesji technicznie i praktycznie. To też ważna umiejętność, szczególnie gdy współpracuje się z innymi albo chce się przesłać projekt dalej.

Pytanie 15

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. odwrócenie fazy sygnału.
B. poszerzenie dynamiki sygnału.
C. modulację dźwięku.
D. ograniczenie niskich tonów.
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 16

Ile w przybliżeniu miejsca na twardym dysku zajmie dziesięć 3-minutowych stereofonicznych plików dźwiękowych, o parametrach odpowiadających standardowi CD-Audio?

A. 600 MB
B. 100 MB
C. 900 MB
D. 300 MB
Prawidłowa odpowiedź wynika ze specyfikacji formatu CD-Audio, który jest już od lat pewnym wzorcem, jeśli chodzi o bezstratne nagrania audio. Standard CD-Audio to 44,1 kHz próbkowania, 16 bitów na próbkę i dźwięk stereo, czyli osobny kanał na każde ucho. Robiąc szybki rachunek: 44100 próbek na sekundę × 16 bitów × 2 kanały daje nam 1 411 200 bitów na sekundę, czyli mniej więcej 1,4 megabita. Po przeliczeniu na bajty (dzieląc przez 8) wychodzi około 176 kB na sekundę, czyli 10,5 MB na minutę muzyki. Dla jednego 3-minutowego utworu to będzie ok. 31,5 MB, a zatem 10 takich plików zajmie ok. 315 MB. Wielu ludzi zaokrągla do 300 MB, co jest już powszechną praktyką przy szacowaniu miejsca na dysku – nikt nie liczy tu przecież każdego bajta, szczególnie przy planowaniu przestrzeni na muzykę. Takie szacunki przydają się przy archiwizacji nagrań studyjnych, pracy z płytami master CD czy przygotowywaniu backupów do miksów audio. Moim zdaniem, znajomość tych parametrów jest kluczowa – szczególnie, jeśli ktoś pracuje przy produkcji muzycznej czy nawet po prostu zgrywa własne kolekcje płyt. Warto pamiętać, że pliki w formacie WAV czy AIFF, zgodne ze standardem CD, zawsze są znacznie większe niż popularne kompresowane MP3. Jednak tylko takie formaty trzymają pełnię jakości. Co ciekawe, to jeden z powodów, dla których płyty CD mogły pomieścić zazwyczaj ok. 74-80 minut muzyki – więcej się po prostu nie mieściło. Tu widać, czemu dobrze znać realne rozmiary takich plików.

Pytanie 17

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 7.1
B. 9.1
C. 4.0
D. 5.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 18

Poprzez zastosowanie filtra High Pass można

A. usunąć szumy wysokotonowe.
B. dodać basu do nagrania.
C. kształtować dynamikę nagrania.
D. usunąć zakłócenia niskotonowe.
Filtr High Pass, czyli filtr górnoprzepustowy, jest jednym z podstawowych narzędzi stosowanych w obróbce dźwięku, zwłaszcza podczas miksowania i masteringu nagrań. Jego główne zadanie to eliminacja niechcianych niskich częstotliwości, takich jak buczenie, szumy czy przydźwięki wynikające np. z podmuchów powietrza, stuków w mikrofon czy rezonansów pomieszczenia. Z mojego doświadczenia, High Pass filtr to must-have w przypadku nagrań wokalu, gitar czy overheadów perkusyjnych – praktycznie zawsze usuwam niepotrzebne tony poniżej 60-120 Hz, żeby dźwięk był czystszy i bardziej selektywny. Warto też wiedzieć, że branżowym standardem jest używanie High Passa na niemal każdej ścieżce, gdzie niskie częstotliwości nie są pożądane, co pomaga uniknąć „zamulania” miksu. Odpowiednie ustawienie częstotliwości odcięcia jest kluczowe – nie chodzi o to, żeby wyciąć za dużo i pozbawić brzmienia naturalnej masy, tylko subtelnie oczyścić ścieżki. Moim zdaniem, zbyt rzadko zwraca się uwagę na to, że High Pass nie służy do kształtowania dynamiki czy podbijania basu – to typowa pułapka dla początkujących. W praktyce, umiejętne stosowanie High Passa pozwala uzyskać bardziej przejrzyste, profesjonalnie brzmiące produkcje, a operatorzy dźwięku w radiu czy telewizji traktują ten filtr jako absolutną podstawę higieny dźwiękowej.

Pytanie 19

Którego ze złącz zewnętrznego procesora dźwięku należy użyć, w celu przesłania cyfrowego sygnału audio do montowanej sesji dźwiękowej?

A. MIDI OUT
B. USB TO HOST
C. WORLD CLOCK OUT
D. AES/EBU OUT
Wybór złącza AES/EBU OUT to zdecydowanie właściwe podejście, jeśli chodzi o przesyłanie cyfrowego sygnału audio do sesji montażowej. Standard AES/EBU (Audio Engineering Society/European Broadcasting Union) to jedno z najbardziej uznanych rozwiązań w profesjonalnych studiach dźwiękowych, szeroko stosowane zarówno w broadcastingu, jak i przy produkcji muzycznej. Pozwala na transmisję wysokiej jakości sygnału audio w postaci cyfrowej, bez konwersji na postać analogową – to, jak dla mnie, największy plus, bo nie tracimy jakości i nie łapiemy niepotrzebnych zakłóceń. W praktyce ten standard jest też bardzo odporny na zakłócenia elektromagnetyczne, bo przesyła dane symetrycznie, co jest ogromną zaletą w wymagającym środowisku studia. Przy profesjonalnych projektach dźwiękowych, zwłaszcza jeśli miksujemy na dużym stole lub korzystamy z cyfrowych rejestratorów i interfejsów, użycie AES/EBU to po prostu standardowa dobra praktyka. Z mojego doświadczenia wynika, że większość lepszych interfejsów audio i cyfrowych mikserów już dziś ma takie złącza. Oprócz tego, warto pamiętać, że ten protokół umożliwia przesyłanie nie tylko dźwięku stereo, ale i dodatkowych danych, co może się przydać przy bardziej zaawansowanych sesjach. Jeśli zależy Ci na czystości sygnału i profesjonalnym workflow, to nie wyobrażam sobie innego rozwiązania.

Pytanie 20

Proces zmiany częstotliwości próbkowania dźwięku to

A. kompresja.
B. konwersja.
C. korekcja.
D. kompensacja.
Proces zmiany częstotliwości próbkowania dźwięku fachowo nazywamy konwersją, a konkretnie – konwersją częstotliwości próbkowania, po angielsku sample rate conversion. To jest bardzo ważne w obróbce audio, zwłaszcza jeśli nagrania z różnych źródeł mają być zintegrowane w jednym projekcie czy miksie. Na przykład, jeśli masz plik nagrany w 44,1 kHz, a chcesz go użyć w projekcie, który bazuje na 48 kHz – musisz wykonać konwersję. W profesjonalnych programach DAW (Digital Audio Workstation) są do tego wyspecjalizowane algorytmy. Warto podkreślić, że dobrze przeprowadzona konwersja zachowuje maksymalną jakość sygnału i nie wprowadza zniekształceń typu aliasing. W branży audio stosuje się do tego np. algorytmy sinc interpolation lub asynchroniczne konwertery SRC. Warto pamiętać, że konwersja próbkowania nie jest tym samym co kompresja, bo tu nie chodzi o zmniejszenie rozmiaru pliku, tylko o dostosowanie parametrów technicznych sygnału do wymagań sprzętu lub projektu. Z mojego doświadczenia, bardzo ważne jest, żeby nie robić tego „byle czym”, bo słabe algorytmy potrafią bardzo zepsuć brzmienie – profesjonalne narzędzia od iZotope czy r8brain są tu w czołówce. Takie podejście jest zgodne z najlepszymi praktykami produkcji audio i masteringu.

Pytanie 21

Aby zmienić nazwę regionu na ścieżce w sesji programu DAW, należy użyć funkcji

A. Rename.
B. Resize.
C. Reverse.
D. Reset.
Funkcja „Rename” to absolutna podstawa jeśli chodzi o zarządzanie regionami w sesji DAW. W praktyce, kiedy masz dziesiątki ścieżek i fragmentów audio czy MIDI, jasne i logiczne nazewnictwo regionów bardzo ułatwia pracę – zarówno podczas aranżacji, jak i później przy miksie albo eksporcie. Z mojego doświadczenia wynika, że profesjonaliści zawsze kładą nacisk na czytelność projektu, bo potem łatwiej znaleźć konkretne partie czy zrobić edycję. „Rename” umożliwia zmianę nazwy regionu bezpośrednio na ścieżce – wystarczy kliknąć prawym przyciskiem myszy na regionie, wybrać opcję zmiany nazwy i wpisać coś bardziej opisowego, np. „Wokal refren 2” zamiast „Audio 1-22”. To zdecydowanie standardowa praktyka w takich programach jak Ableton Live, Cubase, czy Logic Pro. Warto wiedzieć, że dobre nazewnictwo przydaje się też przy pracy zespołowej, gdy projekt trafia do inżyniera miksu lub innego producenta – wtedy wszyscy szybciej się odnajdują. W wielu studiach panuje zasada, żeby absolutnie każdy region miał nazwę odzwierciedlającą zawartość. Co ciekawe, niektóre DAWy pozwalają nawet na grupową zmianę nazw przez specjalne skróty czy automatyczne narzędzia, co przyspiesza workflow. Podsumowując: „Rename” jest nie tylko poprawnym wyborem, ale wręcz nawykiem, który warto wyrobić sobie od początku pracy z DAW-ami.

Pytanie 22

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość spada dwukrotnie.
B. Wysokość wzrasta dwukrotnie.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Nie ma wpływu.
Zmiana częstotliwości próbkowania z 44,1 kHz na 48 kHz sama w sobie nie ma żadnego wpływu na odbieraną słuchem wysokość dźwięku, pod warunkiem, że próbki są odtwarzane z tą samą częstotliwością, z jaką były zarejestrowane. To jest bardzo istotny szczegół techniczny. Wysokość dźwięku zależy bezpośrednio od częstotliwości drgań fali akustycznej, a nie od parametrów cyfrowego zapisu. Częstotliwość próbkowania definiuje jedynie, jak często podczas sekundy pobierane są próbki sygnału analogowego, co wpływa na jakość i maksymalną częstotliwość rejestrowanego dźwięku (wynika to z twierdzenia Kotielnikowa-Shannona). Moim zdaniem, takie zamieszanie powstaje często przy konwersji plików lub zmianie platform, jednak jeśli podczas odtwarzania ustawimy tę samą częstotliwość próbkowania co przy nagraniu, żaden słuchacz nie usłyszy zmiany wysokości – to wciąż będzie ten sam dźwięk. W branży muzycznej i postprodukcji audio bardzo często spotyka się te dwie wartości (44,1 kHz – standard CD, 48 kHz – standard wideo), jednak muzycy, reżyserzy dźwięku czy montażystki nie przejmują się wysokością – bo ta zależy od źródła, nie od próbkowania. W praktyce, zmiana częstotliwości próbkowania może wpłynąć na zakres słyszalnych wysokich tonów (np. górne pasmo przenoszenia), ale nie na to, czy dźwięk jest wyższy czy niższy. Dobrą praktyką jest zawsze dbać o zgodność częstotliwości próbkowania w całym torze produkcyjnym – to zapobiega nieprzyjemnym artefaktom i kłopotom z kompatybilnością.

Pytanie 23

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .m4a
B. .mp3
C. .aac
D. .wav
Format pliku .wav to chyba najbardziej popularny wybór, jeśli zależy komuś na maksymalnej jakości i zachowaniu wszystkich szczegółów dźwięku. W praktyce .wav jest formatem bezstratnym, co oznacza, że nie kompresuje on danych audio tak, jak robią to np. .mp3 czy .aac. Dzięki temu żadne informacje dźwiękowe nie są usuwane czy upraszczane – nagranie zachowuje oryginalną jakość, jaką udało się zarejestrować podczas nagrywania czy miksowania. Często w studiach nagraniowych, przy obróbce dźwięku do filmów czy podcastów, pliki .wav są uznawane za standard, bo pozwalają na dalszą edycję bez strat jakości. Moim zdaniem, jeśli masz choćby cień wątpliwości, którą ścieżkę wybrać do archiwizacji albo profesjonalnej produkcji, to zawsze .wav będzie pewniakiem. To oczywiście wiąże się z większymi rozmiarami plików, ale w wielu sytuacjach nie ma to aż takiego znaczenia – ważniejsze jest, aby nie tracić żadnych detali. Warto też pamiętać, że wiele systemów multimedialnych, DAW-ów (Digital Audio Workstation) czy nawet starszych konsol lepiej radzi sobie właśnie z .wav. Tak po ludzku: tam, gdzie liczy się czysta jakość i pełna informacja, nie kombinuj, tylko wybierz .wav.

Pytanie 24

Normalizacja sygnału fonicznego (peak normalization) to

A. podniesienie poziomu sygnału tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
B. podniesienie poziomu sygnału tak, aby jego wartość średnia osiągnęła 0 dBFS.
C. obniżenie średniego poziomu sygnału o 3 dB.
D. obniżenie szczytowego poziomu sygnału o 3 dB.
Normalizacja szczytowa (peak normalization) to jedna z absolutnych podstaw w obróbce dźwięku, szczególnie jeśli chodzi o przygotowanie materiałów audio do dalszego miksowania lub publikacji. Chodzi w niej dokładnie o to, żeby podnieść poziom całego sygnału tak, by jego najbardziej głośny punkt – czyli szczyt – zrównał się z maksymalną możliwą wartością w systemie cyfrowym, zwykle 0 dBFS (Full Scale). To jest o tyle istotne, że w środowisku cyfrowym, takim jak DAW czy nawet zwykły edytor dźwięku, nie możemy przekroczyć tej wartości, bo pojawia się clipowanie i zniekształcenia. W praktyce, jeśli pracujemy np. z nagraniami do podcastów, lektorów czy masteringiem muzyki, bardzo często stosuje się właśnie normalizację szczytową, żeby z materiału wyciszonego wyciągnąć „ile się da”, nie ryzykując przesterowania. Warto dodać, że to nie wpływa na dynamikę samego sygnału – proporcje między cichymi a głośnymi fragmentami zostają takie same. To zupełnie inna sytuacja niż kompresja czy normalizacja RMS, które wpływają mocniej na percepcję głośności. Często spotykam się z sytuacją, że ktoś wrzuca do DAW ścieżkę i nawet nie zauważa, że jej szczyty sięgają ledwo -10 dBFS – wtedy wystarczy szybka normalizacja i jest już „na poziomie”. W wielu standardach branżowych, zwłaszcza radiowych i telewizyjnych, normalizacja szczytowa to praktycznie obowiązek. Moim zdaniem, to dobry nawyk nawet przy pracy hobbystycznej, bo potem łatwiej kontrolować cały miks.

Pytanie 25

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 96 kHz
C. 48 kHz
D. 192 kHz
Fajnie, że wybrałeś 44,1 kHz – to dokładnie ta częstotliwość próbkowania, która od początku istnienia formatu CD-Audio jest obowiązującym standardem. Wikipedia i praktycznie każde źródło branżowe potwierdza, że płyty CD z muzyką mają właśnie takie próbkowanie, czyli 44 100 próbek na sekundę. Dlaczego akurat taka liczba, a nie jakieś równe 48 kHz? Trochę wynika to z kompromisów technologicznych z lat 80-tych – wtedy łatwiej było konstruować układy elektroniczne obsługujące tę częstotliwość, a jednocześnie pozwalała ona wiernie odwzorować słyszalny dla człowieka zakres częstotliwości (do ok. 20 kHz, zasada Nyquista-Shannona). Co ciekawe, format ten jest stosowany do dziś, mimo że w profesjonalnym audio i produkcji muzycznej spotyka się wyższe próbkowania, ale do użytku konsumenckiego 44,1 kHz jest zupełnie wystarczające. Moim zdaniem to dobry przykład, jak wybory technologiczne potrafią przetrwać dekady. Nawet jak masz pliki mp3 czy streaming, to one często bazują na tym samym próbkowaniu. Warto znać tę liczbę, bo może się przydać nawet przy podstawowej obróbce dźwięku na komputerze. Szczerze, trudno znaleźć bardziej rozpoznawalny standard branżowy niż to słynne 44,1 kHz.

Pytanie 26

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. siedmiokrotnie.
B. pięciokrotnie.
C. trzykrotnie.
D. dwukrotnie.
Podana odpowiedź jest jak najbardziej zgodna z tym, co się przyjmuje w akustyce i elektroakustyce. Wzrost poziomu ciśnienia akustycznego o 10 dB powoduje, że dźwięk odbierany jest przez nasze ucho jako dwukrotnie głośniejszy. To nie jest takie oczywiste, bo decybele rosną logarytmicznie i często myli się ich przyrost z liniową zmianą odczuwanej głośności, a to dwie różne bajki. W praktyce – np. przy nagłaśnianiu koncertów czy w pracy realizatora dźwięku – taka wiedza jest naprawdę bezcenna. Jeśli masz sygnał o poziomie 70 dB SPL i zwiększysz go do 80 dB SPL, publiczność odbierze ten dźwięk jako dwa razy głośniejszy, mimo że z technicznego punktu widzenia to tylko 10 dB różnicy. Takie podejście jest zgodne ze standardami IEC i normami ISO dotyczącymi pomiarów i percepcji głośności. Często mówi się o tzw. skali sone, gdzie 1 sone to głośność tonu 1 kHz na poziomie 40 dB SPL, a każde kolejne podwojenie głośności następuje właśnie co 10 dB. To pozwala lepiej rozumieć, jak projektować systemy nagłośnieniowe czy dobierać poziomy alarmów akustycznych w różnych środowiskach. Z mojego doświadczenia wynika, że to jedna z tych reguł, która naprawdę się przydaje – szczególnie, gdy ktoś pracuje z dźwiękiem i chce zapanować nad subiektywnym odbiorem przez ludzi.

Pytanie 27

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. W połowie zdania.
B. Od nowego zdania.
C. Na początkowych słowach zdania.
D. Na końcowych słowach zdania.
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 28

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. FADE IN
B. TEMPO
C. FADE OUT
D. PAN
Fade in to jedna z tych funkcji, które są naprawdę podstawowe, ale często niedoceniane, zwłaszcza jak ktoś dopiero zaczyna zabawę w DAW-ach. Z technicznego punktu widzenia fade in to stopniowe zwiększenie głośności dźwięku od ciszy do pełnej wartości – czyli dźwięk nie pojawia się nagle, tylko płynnie wchodzi, bez żadnych trzasków czy nagłych przeskoków. W praktyce często wykorzystuje się fade in na początku ścieżki audio, żeby wprowadzić słuchacza w nagranie płynnie – nie tylko w muzyce, ale też np. w podcastach, produkcji reklam, czy nawet w filmie, gdzie zależy nam na subtelnym rozpoczęciu sceny dźwiękowej. W branży to taki must-have, szczególnie przy masteringu i miksie utworów, bo pozwala uniknąć nieestetycznych artefaktów i sprawia, że całość brzmi profesjonalnie. Warto pamiętać, że fade in można stosować nie tylko ręcznie, rysując automatyzację głośności, ale wiele DAW-ów ma dedykowaną funkcję do naniesienia fade in na klipie, co przyspiesza pracę. Z mojego doświadczenia, dobrze wykonany fade in robi ogromną różnicę w odbiorze nagrania, bo pozwala zbudować napięcie albo wprowadzić klimat. To jedno z tych narzędzi, bez których ciężko sobie wyobrazić poprawny workflow w każdej poważniejszej produkcji dźwiękowej.

Pytanie 29

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. koloru ścieżek w sesji.
C. kształtu fade in i fade out w sesji.
D. częstotliwości próbkowania sygnału w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 30

Plik sesji montażowej o rozszerzeniu nazwy .sesx utworzony został przez program

A. Adobe Audition
B. Avid Pro Tools
C. Presonus Studio One
D. Apple Logic Pro X
Rozszerzenie .sesx jest jednoznacznie powiązane z programem Adobe Audition, który od lat funkcjonuje jako jeden z czołowych edytorów dźwięku na rynku. Pliki sesji .sesx to w praktyce swego rodzaju 'mapy' całego projektu dźwiękowego – przechowują informacje o rozmieszczeniu ścieżek, ustawieniach efektów, automatyzacji, a także odwołania do wszystkich użytych plików audio. Takie podejście zapewnia bardzo dobrą organizację pracy, szczególnie jeśli realizujemy większe projekty, gdzie trzeba pilnować spójności i mieć szybki dostęp do poszczególnych elementów. Co ciekawe, .sesx to plik zapisany w formacie XML, przez co można go nawet podejrzeć i edytować tekstowo, choć oczywiście robienie tego ręcznie nie jest zalecane. Adobe Audition wykorzystuje ten format od wersji CS3, od kiedy przeszedł z .ses (starszy, zamknięty format). Dzięki .sesx łatwiej przenosić projekty między stanowiskami i archiwizować swoją pracę, co moim zdaniem jest kluczowe w środowisku profesjonalnym. W branży nagraniowej i postprodukcyjnej wiele osób ceni Audition właśnie za klarowną strukturę sesji, a pliki .sesx są tu nieodłącznym elementem workflow.

Pytanie 31

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Korektor tercjowy.
B. Kompresor.
C. Bramka szumów.
D. Ekspander.
Kompresor to jedno z tych urządzeń, które są właściwie niezbędne w każdym studiu nagraniowym czy podczas realizacji dźwięku na żywo. Jego głównym zadaniem jest właśnie zawężanie zakresu dynamiki sygnału audio, czyli zmniejszanie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami dźwięku. Dzięki temu nagrania brzmią bardziej spójnie, wyraźnie i nie ma sytuacji, że jeden instrument nagle wybija się ponad resztę tylko dlatego, że ktoś mocniej uderzył w struny czy perkusję. W praktyce kompresor stosuje się na wokalach, basie, gitarach, bębnach – praktycznie na każdym śladzie, gdzie ważna jest kontrola nad dynamiką. Moim zdaniem bez dobrego opanowania tego efektu trudno mówić o profesjonalnym miksie. Warto pamiętać, że kompresor nie tylko ściska dynamikę, ale też może dodać charakteru brzmieniu, czasem wręcz podkręcić energię nagrania. Są różne typy kompresorów: od klasycznych VCA przez optyczne po lampowe – każdy z nich działa trochę inaczej, ale idea się nie zmienia. Z moich doświadczeń wynika, że umiejętne użycie kompresji to jedna z kluczowych umiejętności realizatora, bo pozwala utrzymać miks w ryzach i sprawić, że wszystko zabrzmi spójnie zarówno na słuchawkach, jak i dużych głośnikach. Dobrą praktyką branżową jest też stosowanie kompresji równoległej, gdzie sygnał czysty miesza się z przetworzonym, żeby zachować naturalność przy jednoczesnej kontroli nad dynamiką.

Pytanie 32

Notatki dla poszczególnych kanałów w projekcie DAW można wykonać w komórce oznaczonej nazwą

A. I/O.
B. Comments.
C. Inserts.
D. Sends.
Odpowiedź 'Comments' jest właściwa, bo właśnie ta sekcja w większości programów DAW (czyli Digital Audio Workstation) służy do wpisywania indywidualnych notatek dla każdego kanału. Z mojego doświadczenia, to super sprawa, bo kiedy pracujesz nad dużym projektem, łatwo się pogubić, co gdzie miksujesz lub co już zrobiłeś na danej ścieżce. Komórka 'Comments' pozwala zapisać na przykład, że dany kanał to solówka gitary, wymaga jeszcze korekty EQ albo że klient prosił o drobną zmianę efektu. W pracy studyjnej często notuje się tam także rzeczy typu „zrobione na szybko na próbę, do sprawdzenia przy następnym odsłuchu”, co potem serio ułatwia porządkowanie miksu. To nie jest żaden wymysł – takie podejście zalecają nawet doświadczeni realizatorzy i instruktorzy, bo po kilku godzinach albo dniach pracy można zapomnieć o szczegółach. Patrząc szerzej, to w wielu DAW-ach (np. Pro Tools, Cubase, Ableton Live) opcja Comments jest jednym ze standardowych narzędzi workflow, a nawet w dokumentacji producentów sprzętu znajdziesz wzmianki, żeby korzystać z notatek do lepszej organizacji pracy. Szczerze, lepiej wyrobić sobie nawyk używania Comments, bo to potem procentuje, szczególnie w dużych projektach czy pracy zespołowej. Nawet jak pracujesz samemu, chaos w projekcie DAW potrafi wykończyć – a przejrzyste notatki to połowa sukcesu.

Pytanie 33

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. AUX
B. INSTRUMENTS
C. AUDIO
D. MIDI
Ścieżka AUX w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, jest od lat podstawą do obsługi efektów typu send/return, zwłaszcza pogłosów czy delayów. Wysyłka sygnału na AUX oznacza, że nie musisz instancjonować efektu pogłosowego osobno na każdej ścieżce – wystarczy jedna instancja pogłosu na AUX, a poszczególne kanały wysyłają do niej sygnał przez sendy. To nie tylko ułatwia miksowanie, ale też znacznie oszczędza zasoby komputera, bo nie kopiujesz tego samego efektu kilka razy. Bardzo często ustawia się tam też kompresory równoległe czy efekty modulacyjne, zależnie od potrzeb miksu. Moim zdaniem, to absolutna podstawa workflow w miksie – praktycznie każdy szanujący się realizator pracuje z AUX-ami. Daje to spójną przestrzeń pogłosową dla wszystkich ścieżek, co brzmi znacznie bardziej naturalnie. Warto też wiedzieć, że w nomenklaturze niektórych DAW AUX może być nazywany jako Bus lub Return, ale funkcja pozostaje ta sama. Dobrą praktyką branżową jest też zostawianie sobie kilku AUX-ów na różne typy pogłosów (np. krótszy na wokal, dłuższy na instrumenty). Taki routing pozwala mieć pełną kontrolę nad ilością efektu na każdej ścieżce i daje mega swobodę kreatywną w miksie.

Pytanie 34

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 500 ms
B. 400 ms
C. 200 ms
D. 300 ms
Ćwierćnuta w metrum 4/4 przy tempie 120 BPM trwa dokładnie 500 milisekund, co można łatwo policzyć: tempo 120 BPM oznacza 120 uderzeń na minutę, a każdy „beat” to właśnie ćwierćnuta. Minuta ma 60 sekund, czyli 60 000 milisekund. Dzieląc 60 000 ms przez 120 otrzymujemy równe 500 ms na ćwierćnutę. Ten sposób przeliczania jest powszechnie wykorzystywany w pracy z DAW-ami, automatami perkusyjnymi czy podczas nagrań studyjnych, kiedy ustawiamy precyzyjnie długość nut i synchronizujemy instrumenty. W praktyce wiedza ta przydaje się, gdy korzystasz z funkcji „quantize” albo ustawiasz delay czy arpeggiatory, gdzie trzeba podać wartość w milisekundach. Moim zdaniem, szczególnie w muzyce elektronicznej i popie, takie przeliczenia to codzienność – stąd warto mieć ten schemat w głowie. Często zauważam też, że początkujący mylą pojęcie tempa z długością taktu, a tu wyraźnie widać, że to właśnie liczba uderzeń na minutę determinuje czas trwania pojedynczej ćwierćnuty. W notacji muzycznej na całym świecie właśnie tak to się liczy – i to jest wg standardów branżowych najprostszy i najpewniejszy sposób na ustalenie wartości rytmicznych.

Pytanie 35

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce w sesji programu DAW, aby całkowicie wypełnić przestrzeń na ścieżce do początku taktu piątego?

A. 4 razy.
B. 1 raz.
C. 3 razy.
D. 2 razy.
To jest właśnie sedno logicznego podejścia do pracy w DAW-ach. Jeśli mamy region obejmujący pierwszy takt – czyli od początku taktu pierwszego do początku taktu drugiego – to powielając go 3 razy, uzyskujemy cztery identyczne regiony: jeden od 1. do 2. taktu, drugi od 2. do 3., trzeci od 3. do 4. i czwarty od 4. do 5. taktu. W praktyce, region z pierwszego taktu trzeba skopiować jeszcze trzy razy, żeby wypełnić przestrzeń od początku do końca czwartego taktu, czyli dokładnie do początku piątego. To bardzo typowe zadanie – wiele osób podczas aranżowania bitu, basu czy perkusji zapętla jedną sekwencję i powiela ją, żeby zbudować strukturę utworu. Prawda jest taka, że większość DAW-ów, jak Ableton, FL Studio czy Cubase, działa właśnie na zasadzie kopiowania regionów/taktów i to jest zgodne z praktyką producencką. Moim zdaniem, rozumienie tego typu operacji nie tylko przyspiesza pracę, ale też pozwala lepiej panować nad aranżem. Warto pamiętać, że kopiowanie regionów w taki sposób jest podstawową umiejętnością i świetnym punktem wyjścia do dalszej edycji – potem można dowolnie modyfikować każdy takt czy dodawać automacje. W środowiskach studyjnych to wręcz codzienność – i każda osoba pracująca profesjonalnie w DAW-ach powinna mieć to w małym palcu.

Pytanie 36

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. koloru ścieżek w sesji.
B. kształtu fade in i fade out w sesji.
C. liczby grup ścieżek w sesji.
D. częstotliwości próbkowania sygnału w sesji.
Częstotliwość próbkowania sygnału w sesji to absolutnie kluczowy parametr, który ustalamy na samym początku, przy tworzeniu nowej sesji w DAW. To od niej zależy, jak szczegółowo dźwięki będą zapisywane i odtwarzane – im wyższa wartość, tym więcej informacji o sygnale jest przechowywane i tym lepsza jakość dźwięku (a przynajmniej w teorii, bo w praktyce czasem bywa różnie). Najczęściej spotykane częstotliwości to 44,1 kHz (standard CD), 48 kHz (audio do wideo) oraz wyższe, np. 96 kHz czy nawet 192 kHz w zastosowaniach profesjonalnych. Wybranie odpowiedniej wartości od razu jest mega ważne, bo późniejsza zmiana podczas pracy nad projektem może prowadzić do problemów z konwersją materiału, stratą jakości albo komplikacjami z kompatybilnością. Moim zdaniem najlepiej od razu wiedzieć, do czego będzie używana sesja – jeśli nagrywasz muzykę na streaming lub płytę CD, spokojnie wystarczy 44,1 kHz. Ale jeśli pracujesz z filmem albo bardzo złożonymi realizacjami, warto rozważyć 48 kHz lub więcej. Profesjonaliści zawsze planują to z wyprzedzeniem, bo późniejsze kombinacje z konwersją mogą być uciążliwe i niepotrzebnie komplikować życie. Wybór częstotliwości próbkowania na starcie jest zgodny z dobrą praktyką branżową i praktycznie każdy poważny DAW pyta o to przy zakładaniu nowej sesji. Także to jest naprawdę podstawowy parametr i trzeba o nim pamiętać zawsze!

Pytanie 37

Urządzenie pomiarowe służące do wizualnej prezentacji rozkładu natężenia tonów składowych dźwięku w zależności od ich częstotliwości to

A. normalizer panoramy.
B. wskaźnik VU.
C. miernik RMS.
D. analizator widma.
Analizator widma to narzędzie, bez którego trudno wyobrazić sobie poważną pracę z dźwiękiem w studiu czy podczas nagłośnień scenicznych. Jego podstawową zaletą jest to, że pozwala dosłownie zobaczyć, jak rozkładają się poszczególne częstotliwości w sygnale audio. Dzięki temu szybko można wychwycić niepożądane podbicia czy braki w określonych pasmach – co jest istotne np. przy korekcji graficznej lub parametrycznej. W praktyce analizator widma używa się zarówno podczas miksowania muzyki, jak i przy masteringu, czy nawet kalibracji systemów nagłośnieniowych w dużych salach. Niezależnie od formy – czy to jest fizyczny sprzęt, czy plugin w DAW-ie – pozwala on na bieżąco obserwować, jak zmiany wprowadzone korektorem, kompresorem albo nawet samą aranżacją przekładają się na rozkład energii w paśmie akustycznym. To jest w sumie jeden z najlepszych sposobów, by nauczyć się świadomie panować nad brzmieniem – teorii akustyki można sporo wyczytać, ale dopiero zobaczenie tego na ekranie robi różnicę. W branży przyjęło się, żeby regularnie korzystać z analizatora, bo subiektywna ocena ucha często bywa niewystarczająca, zwłaszcza w trudnych warunkach odsłuchowych lub przy pracy z materiałem o dużej dynamice. Moim zdaniem to urządzenie, które spina teorię i praktykę w jedną całość.

Pytanie 38

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. długopisu.
B. ostrego rysika.
C. flamastra niezawierającego alkoholu.
D. flamastra zawierającego alkohol.
Prawidłowo, do opisywania płyt CD czy DVD najlepiej wykorzystać flamaster niezawierający alkoholu. To nie jest tylko wymysł producentów czy czcza ostrożność – chodzi tutaj o konkretne ryzyko uszkodzenia danych. Markery alkoholowe mają w składzie rozpuszczalniki, które mogą przenikać przez cienką warstwę ochronną płyty i naruszyć warstwę z danymi – tę, na której faktycznie zapisane są Twoje pliki czy muzyka. Zdarza się, że po kilku miesiącach, a czasem nawet wcześniej, na powierzchni pojawiają się przebarwienia, pęknięcia albo ślady rozpuszczalnika, przez co płyta jest po prostu do wyrzucenia. Z mojego doświadczenia wynika, że najlepiej sprawdzają się specjalne markery dedykowane do płyt, które można kupić w większości sklepów komputerowych – mają miękką końcówkę i tusz bez alkoholu. Branżowe zalecenia, np. organizacji ISO czy wytyczne producentów optycznych nośników, jasno wskazują: nie używać ostrych narzędzi, długopisów, ani markerów zawierających alkohol. Takie proste działanie jak dobór odpowiedniego pisaka potrafi zdecydować, czy Twoje archiwum wytrzyma kilka miesięcy, czy kilkanaście lat. Moim zdaniem zawsze warto zainwestować te parę złotych więcej, żeby nie narazić się na utratę cennych danych.

Pytanie 39

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Modulation
B. Distortion
C. Reverbs
D. Dynamics
Ekspander to procesor należący do kategorii procesorów dynamiki, czyli tzw. „Dynamics”. To trochę jak brat kompresora, tylko działa odwrotnie – zamiast ściskać sygnał, rozszerza zakres dynamiki. W praktyce ekspander tłumi ciche dźwięki, sprawiając, że jeszcze bardziej się różnią od głośnych. Używa się go np. do wycinania szumów tła w nagraniach wokalnych albo do oczyszczania ścieżek perkusyjnych, gdy chcemy, żeby werbel czy stopa były mocne i selektywne, a przeszkadzające drobne dźwięki znikały. W branży muzycznej standardowo zaleca się stosować ekspander właśnie w sekcji dynamiki, na etapie miksu czy nawet już przy nagrywaniu. Daje to większą kontrolę nad poziomem głośności i czytelnością śladów. Moim zdaniem, dobrze dobrany ekspander potrafi naprawdę uratować brzmienie, zwłaszcza przy słabej akustyce pomieszczenia lub kiedy nagrywamy wokale w domu i walczymy z hałasami zza ściany. Dużo realizatorów dźwięku korzysta z ekspanderów w połączeniu z innymi efektami, żeby uzyskać profesjonalne, dynamiczne brzmienie. Warto pamiętać, że wszystkie procesory z tej grupy – kompresory, bramki szumów, ekspandery – służą do kontroli dynamiki i często pracują ze sobą na jednej ścieżce. To taki podstawowy workflow w każdym DAW-ie.

Pytanie 40

Pliki dźwiękowe w projekcie należy znormalizować poprzez zastosowanie

A. normalizacji.
B. korekcji.
C. automatyki panoramy.
D. procesorów dynamicznych Noise Gate.
Normalizacja plików dźwiękowych to jedna z podstawowych czynności w obróbce audio, szczególnie jeśli chcemy, żeby wszystkie nagrania w projekcie brzmiały spójnie pod względem głośności. Chodzi w niej o to, żeby zbliżyć maksymalny poziom sygnału do wybranego punktu odniesienia, zwykle 0 dBFS, ale bez przekraczania granicy i wchodzenia w przesterowanie. Moim zdaniem, normalizacja to taki must-have w każdym projekcie, kiedy masz wiele źródeł – na przykład dialogi z różnych mikrofonów, efekty, muzykę – i nie chcesz, żeby coś znienacka było za cicho lub za głośno. W praktyce wygląda to tak: program DAW analizuje poziom najgłośniejszego fragmentu ścieżki i całość odpowiednio „podciąga” lub „zdejmuje”, by ustawić go na zadanym poziomie. To nie zmienia dynamiki materiału (w przeciwieństwie do kompresji), więc cały charakter nagrania zostaje zachowany. W branży filmowej, podcastowej czy nawet przy miksie muzycznym uznaje się to za dobrą praktykę porządkującą projekt. Szczerze mówiąc, jak ktoś zaczyna miks bez normalizacji, to potem może się nieźle namęczyć z nierówną głośnością, a przecież chodzi o komfort słuchacza. Co ciekawe, niektórzy inżynierowie używają jeszcze normalizacji do określonego LUFS (np. -23 LUFS w broadcast), ale to już wyższa szkoła jazdy.