Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 2 maja 2026 10:20
  • Data zakończenia: 2 maja 2026 10:25

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Największą zgodność ze standardem CD-Audio zapewni archiwizacja nagrań dźwiękowych w formie

A. pliku o parametrach 48 kHz/16 bit stereo.
B. pliku w formacie MP3 oraz pliku odszumionego.
C. pliku w formacie MP3.
D. pliku o parametrach 44.1 kHz/16 bit stereo.
Standard CD-Audio, czyli Compact Disc Digital Audio, od początku został zaprojektowany z bardzo precyzyjnymi parametrami: 44,1 kHz próbkowania i 16 bitów rozdzielczości na kanał, stereo. Te wartości nie są przypadkowe – zostały wybrane tak, aby umożliwić wierne odwzorowanie zakresu słyszalnego dla człowieka z minimalnymi zakłóceniami jakości. W praktyce każda próba archiwizacji nagrań przeznaczonych do zgodności z nośnikami CD powinna dokładnie trzymać się tego ustawienia. Nawet jeśli masz do dyspozycji sprzęt nagrywający dźwięk w wyższej rozdzielczości (np. 48 kHz, 24 bity), to i tak końcowy materiał na potrzeby audio CD musi przejść konwersję do 44,1 kHz/16 bitów. Moim zdaniem, jeśli zależy komuś na pełnej kompatybilności z odtwarzaczami i dobrych praktykach archiwizacyjnych, nie ma sensu trzymać plików w innym formacie niż dokładnie taki – żadnych MP3, żadnych innych częstotliwości czy głębokości bitowych. Warto pamiętać, że wiele archiwów cyfrowych i profesjonalnych studiów nagraniowych stosuje te parametry jako domyślny punkt odniesienia dla materiałów, które mają być dostępne szerokiej publiczności lub wydane na CD. Osobiście często spotykałem się z sytuacją, gdzie konwersja z innych formatów powodowała nieprzewidziane problemy z kompatybilnością. To taka trochę „złota zasada” w branży muzycznej.

Pytanie 2

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. 6:1
C. ∞:1
D. 1,4:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest nie dopuszczać do przekroczenia określonego poziomu sygnału – na przykład po to, by uniknąć przesterowania w nagraniu lub transmisji na żywo. Charakterystyczną cechą limitera jest właśnie nieskończony, czyli teoretyczny stopień kompresji: ∞:1. Oznacza to, że każda amplituda sygnału przekraczająca ustawiony threshold (próg) zostaje natychmiast „ścięta” – po prostu limiter nie pozwala, aby poziom sygnału był wyższy od ustalonego limitu. W praktyce, to się objawia bardzo twardym i szybkim działaniem, idealnym do ochrony sprzętu nagłaśniającego albo zapobiegania klipowaniu podczas masteringu. Moim zdaniem limiter to taki ostatni bastion bezpieczeństwa w torze sygnałowym – jeśli wszystko inne zawiedzie, on zadba o to, by sygnał nie wyszedł poza dopuszczalny zakres. W technikach studyjnych często stosuje się limity właśnie o stopniu ∞:1 (albo bardzo bliskim tej wartości), zwłaszcza na wyjściu całego miksu. Co ciekawe, w wielu sytuacjach limiter bywa mylony z kompresorem, ale różnica polega właśnie na tej ekstremalnej wartości ratio i błyskawicznym czasie reakcji. Warto o tym pamiętać projektując własne łańcuchy efektów – limiter to nie tylko narzędzie do „głośności”, ale też do ochrony i kontroli sygnału.

Pytanie 3

Teoretyczna maksymalna dynamika cyfrowego sygnału fonicznego przy 20-bitowej rozdzielczości wynosi

A. 96 dB
B. 120 dB
C. 192 dB
D. 144 dB
Dobra robota, bo właśnie 120 dB to teoretyczna maksymalna dynamika sygnału cyfrowego przy 20-bitowej rozdzielczości. Wynika to z faktu, że każde dodatkowe 1 bit podnosi zakres dynamiki o około 6 dB. Jeśli sobie policzymy: 20 bitów razy 6 dB, wychodzi równo 120 dB. To jest całkiem spora wartość – porównywalna z dynamiką dźwięków od bardzo cichego szeptu po silny hałas w codziennym otoczeniu, jak np. startujący samolot w pobliżu. W praktyce taki zakres dynamiki stosuje się w profesjonalnych systemach nagraniowych czy studyjnych, gdzie ważne jest uchwycenie najdrobniejszych niuansów i detali w nagraniach. Warto też wiedzieć, że popularny standard CD-Audio korzysta z 16 bitów (czyli około 96 dB dynamiki), ale w zastosowaniach audiofilskich czy w produkcji muzyki coraz częściej spotyka się formaty 20-bitowe albo nawet 24-bitowe, które jeszcze bardziej rozszerzają potencjał nagrań. Ja ze swojego doświadczenia mogę powiedzieć, że ta większa dynamika naprawdę robi różnicę, zwłaszcza przy masteringu – można wtedy pracować z naprawdę subtelnymi szczegółami bez strachu o szumy i zniekształcenia. Oczywiście warto pamiętać, że w realnych warunkach szumy sprzętu czy ograniczenia przetworników trochę zawężają tę dynamikę, ale teoretycznie 120 dB dla 20 bitów to już poziom, na którym nawet bardzo wymagające aplikacje audio dostają to, czego potrzebują.

Pytanie 4

Port ADAT umożliwia transfer 8 kanałów dźwięku cyfrowego o częstotliwości próbkowania nie większej niż

A. 48 kHz
B. 192 kHz
C. 96 kHz
D. 384 kHz
Warto się na chwilę zatrzymać przy temacie ADAT, bo łatwo się tutaj pomylić, zwłaszcza jeśli myślimy o nowoczesnych standardach przesyłu audio cyfrowego. Zdarza się, że ktoś założy, że skoro światłowód, to „pewnie wszystko pójdzie”, ale historia i możliwości tego interfejsu są dość konkretne. ADAT, czyli Alesis Digital Audio Tape, szczególnie w swoim pierwotnym standardzie Lightpipe, pozwala na transport maksymalnie 8 kanałów audio jednocześnie, ale tylko do częstotliwości próbkowania 48 kHz. Jeśli ktoś wybierze wyższe wartości, takie jak 96 kHz czy nawet dalej – 192 czy 384 kHz – niestety będzie musiał się liczyć z ograniczeniami. Protokół ADAT obsługuje tzw. S/MUX (Sample Multiplexing), kiedy chcemy przesłać sygnał w jakości 96 kHz – wtedy liczba kanałów spada do 4, a przy jeszcze wyższych parametrach to już praktycznie nie jest wykorzystywane w tym standardzie. Z mojego doświadczenia wynika, że dużo osób mylnie utożsamia przepustowość ADAT z innymi formatami, zwłaszcza gdy widzą, że inne interfejsy (np. MADI czy Dante) pozwalają na przesył dziesiątek czy nawet setek kanałów przy wysokich częstotliwościach próbkowania. To typowy błąd – zakładać, że technologia światłowodowa automatycznie oznacza nielimitowaną przepustowość. W praktyce, jeśli ktoś ustawi 96 kHz na interfejsie ADAT i liczy na 8 kanałów, to połowy śladów po prostu nie usłyszy, bo nie zostaną przesłane. 192 czy 384 kHz to już wartości spotykane raczej w innych protokołach cyfrowych lub w zaawansowanych rozwiązaniach studyjnych, a nie w zwykłym ADAT. Praktyka pokazuje, że czasem nawet doświadczeni technicy zapominają o tych ograniczeniach, co prowadzi do niepotrzebnego zamieszania podczas pracy. Więc podsumowując – ADAT daje 8 kanałów tylko do 48 kHz, powyżej tej wartości pojemność spada, a wyższe sample rate po prostu nie są możliwe w tym trybie.

Pytanie 5

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Channels
B. Sample Rate
C. Bit Resolution
D. Audio File Type
Częstotliwość próbkowania, czyli po angielsku sample rate, to zdecydowanie jeden z najważniejszych parametrów każdego pliku audio w środowisku DAW. To tak naprawdę liczba pomiarów dźwięku wykonywana w ciągu jednej sekundy – wyrażana w hercach (Hz), najczęściej można spotkać wartości typu 44100 Hz, 48000 Hz czy nawet wyższe jak 96000 Hz. Dlaczego to takie istotne? Im wyższy sample rate, tym wierniej cyfrowy zapis oddaje oryginalny sygnał analogowy, co ma ogromne znaczenie przy profesjonalnych produkcjach muzycznych, miksie czy masteringu. Świetnym przykładem jest praca w studiu nagraniowym – tam standardem branżowym jest zazwyczaj 48 kHz dla projektów filmowych lub 44,1 kHz dla muzyki na CD. Co ciekawe, sample rate wpływa również na to, jakich częstotliwości może dotyczyć zapis – zgodnie z tzw. twierdzeniem Nyquista, maksymalna częstotliwość w nagraniu to połowa sample rate. Moim skromnym zdaniem, umiejętność rozpoznania i manipulowania sample rate przydaje się nawet podczas zwykłego eksportu pliku, bo błędnie dobrana wartość potrafi popsuć kompatybilność plików między różnymi urządzeniami lub programami. W branży przyjęło się, że wiedza o sample rate to absolutna podstawa dla każdego, kto poważnie podchodzi do pracy z dźwiękiem w DAW. Warto też pamiętać, że czasem trzeba dopasować częstotliwość próbkowania do wymagań projektu albo klienta – to po prostu codzienność inżyniera dźwięku.

Pytanie 6

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Korektor tercjowy.
B. Ekspander.
C. Kompresor.
D. Bramka szumów.
Kompresor to jedno z tych urządzeń, które są właściwie niezbędne w każdym studiu nagraniowym czy podczas realizacji dźwięku na żywo. Jego głównym zadaniem jest właśnie zawężanie zakresu dynamiki sygnału audio, czyli zmniejszanie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami dźwięku. Dzięki temu nagrania brzmią bardziej spójnie, wyraźnie i nie ma sytuacji, że jeden instrument nagle wybija się ponad resztę tylko dlatego, że ktoś mocniej uderzył w struny czy perkusję. W praktyce kompresor stosuje się na wokalach, basie, gitarach, bębnach – praktycznie na każdym śladzie, gdzie ważna jest kontrola nad dynamiką. Moim zdaniem bez dobrego opanowania tego efektu trudno mówić o profesjonalnym miksie. Warto pamiętać, że kompresor nie tylko ściska dynamikę, ale też może dodać charakteru brzmieniu, czasem wręcz podkręcić energię nagrania. Są różne typy kompresorów: od klasycznych VCA przez optyczne po lampowe – każdy z nich działa trochę inaczej, ale idea się nie zmienia. Z moich doświadczeń wynika, że umiejętne użycie kompresji to jedna z kluczowych umiejętności realizatora, bo pozwala utrzymać miks w ryzach i sprawić, że wszystko zabrzmi spójnie zarówno na słuchawkach, jak i dużych głośnikach. Dobrą praktyką branżową jest też stosowanie kompresji równoległej, gdzie sygnał czysty miesza się z przetworzonym, żeby zachować naturalność przy jednoczesnej kontroli nad dynamiką.

Pytanie 7

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .wav
B. .omf
C. .aiff
D. .mp3
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 8

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. FLAC
B. AAC
C. AC-4
D. WMA
FLAC to kodek audio, który został specjalnie zaprojektowany do bezstratnej kompresji dźwięku. To znaczy, że po dekompresji otrzymujemy dokładnie taki sam sygnał audio jak oryginał – nie tracimy ani jednego szczegółu. Moim zdaniem to bardzo ważne np. przy archiwizacji muzyki czy masteringu, gdzie liczy się jakość bez jakichkolwiek strat. Standard FLAC jest powszechnie wykorzystywany przez audiofilów, inżynierów dźwięku, a nawet w bibliotekach muzycznych i serwisach takich jak Bandcamp czy HDtracks, gdzie sprzedaje się nagrania „hi-res”. Pliki FLAC są zazwyczaj o około 30–60% mniejsze od nieskompresowanego WAV, ale nie widać żadnej różnicy w jakości. To jest szczególnie przydatne przy dużych zbiorach muzyki, bo oszczędza się miejsce na dysku. Warto wiedzieć, że FLAC jest otwartym standardem – to ważne, bo nie ma problemów z licencjami i praktycznie każdy nowoczesny odtwarzacz obsługuje te pliki bez żadnych dodatkowych kodeków. Z mojego doświadczenia, jeśli ktoś naprawdę dba o dźwięk i chce mieć „kopię zapasową” muzyki w najlepszej możliwej jakości, to FLAC jest po prostu oczywistym wyborem.

Pytanie 9

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Peak Master.
B. Noise gate.
C. Phaser.
D. Equalizer.
Phaser to urządzenie, które działa na zasadzie przesuwania fazy sygnału w określonym paśmie częstotliwości. W praktyce polega to na tym, że sygnał audio przechodzi przez szereg filtrów all-pass, które opóźniają fazę określonych częstotliwości, a potem miesza się ten sygnał z oryginałem. Efektem tego są charakterystyczne, płynnie zmieniające się „dziury” (ang. notches) w widmie, co daje ten specyficzny, ruchomy efekt dźwiękowy kojarzony na przykład z gitarami elektrycznymi czy syntezatorami. W branży muzycznej phasery ceni się za to, że nadają głębi i ruchu dźwiękom, przy czym są często używane zgodnie z dobrymi praktykami produkcji, np. do wzbogacania partii instrumentów w miksie. Osobiście, uważam, że takie modulowanie fazy to świetny sposób na wydobycie ciekawszego brzmienia, szczególnie przy nagrywaniu gitar lub niektórych wokali. Warto wiedzieć, że nie każdy efekt modulowany to phaser – chorusy czy flangery też korzystają z przesunięcia fazy, ale robią to trochę inaczej. Phaser jest bardzo rozpoznawalny, jeśli chodzi o efekt przestrzenny i specyficzny charakter brzmienia, a jego działanie wynika bezpośrednio z zastosowania modulacji fazy, co jest zgodne z teorią przetwarzania sygnałów i standardami inżynierii dźwięku.

Pytanie 10

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. PASTE
B. MUTE
C. COPY
D. CUT
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 11

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 44,1 kHz
B. 88,2 kHz
C. 96 kHz
D. 48 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 12

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. R50 R100
B. L50 L100
C. L100 R100
D. L0 R0
Panorama w miksie dźwięku to jedno z tych narzędzi, które potrafią zrobić ogromną różnicę, nawet jak się zaczyna od prostych sygnałów mono. Ustawienie panoramy na L100 dla jednego sygnału i R100 dla drugiego to klasyka, jeśli chodzi o pełną separację przestrzenną – każdy dźwięk trafia tylko do jednego kanału stereo. Nie ma tu żadnego nakładania się, więc słuchacz od razu wychwyci, który dźwięk dochodzi z lewej, a który z prawej strony. To taki trochę fundament np. w koncertach live, gdzie chcesz, żeby gitara była maksymalnie po lewej, a klawisze po prawej, żeby muzyka nie zlewała się w jeden chaos. W studiu często robi się tak przy nagraniach instrumentów, których brzmienia chcesz odseparować — potem dużo łatwiej zapanować nad miksem, bo nie musisz walczyć z kolizjami w środku panoramy. Zresztą – w broadcastingu, w produkcjach telewizyjnych, nawet przy dźwięku filmowym ta technika, moim zdaniem, jest mega przydatna, szczególnie przy dialogach i efektach specjalnych. Dodatkowo, takie rozłożenie sygnałów bardzo ułatwia pracę, jeśli planujesz potem robić wersje do formatu mono, bo od razu wiesz, które dźwięki są potencjalnie problematyczne. Warto pamiętać, że de facto L100 i R100 to po prostu pełne wychylenie panoramy do skrajnych pozycji, zgodnie z zasadą stosowaną w każdej profesjonalnej konsolecie czy DAW. Takie podejście daje największą czytelność miksu i jest zgodne z zaleceniami m.in. AES i EBU przy produkcji materiałów stereo.

Pytanie 13

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. adaptive limiter.
B. compander.
C. multiband compressor.
D. expander.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 14

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kompresja.
B. Korekcja.
C. Transpozycja.
D. Normalizacja.
Normalizacja to proces cyfrowy, który polega na takim podniesieniu poziomu całego nagrania, żeby jego najwyższy szczyt osiągnął dokładnie 0 dBFS (czyli digital full scale). To bardzo przydatne, gdy miksujesz utwory pochodzące z różnych źródeł i chcesz mieć pewność, że żaden nie będzie cichszy od reszty. Przykładowo, jeśli nagranie ma maksymalny poziom -6 dBFS, po normalizacji całość zostanie podbita o 6 dB, tak żeby najwyższy pik dotykał właśnie 0 dBFS, ale żadne miejsce w pliku nie będzie przesterowane (przynajmniej w teorii). Moim zdaniem to super narzędzie, szczególnie na etapie przygotowania materiałów do dalszej obróbki albo podczas masteringu — pozwala zachować kontrolę nad poziomami. W profesjonalnych studiach normalizacja jest często jednym z pierwszych kroków przed dalszą pracą, bo daje czyste pole startowe. Warto jednak wiedzieć, że normalizacja nie wpływa na dynamikę materiału, nie spłaszcza ani nie wyrównuje różnicy między najcichszymi a najgłośniejszymi fragmentami, tylko zachowuje proporcje, podbijając wszystko równo. To jest taka podstawowa, praktyczna czynność, którą powinien znać każdy, kto obrabia dźwięk cyfrowy, bo po prostu ułatwia życie i pozwala na przewidywalne rezultaty.

Pytanie 15

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 5 ścieżek.
B. 3 ścieżki.
C. 2 ścieżki.
D. 4 ścieżki.
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 16

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 10 MB
B. Około 30 MB
C. Około 20 MB
D. Około 5 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 17

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. DIN
B. BNC
C. TOSLINK
D. TDIF
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 18

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +RW
B. DVD +R DL
C. DVD +R
D. DVD –R
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych, co w praktyce oznacza, że na jednej stronie płyty można zapisać daną ilość danych, a po jej odwróceniu, na drugiej stronie – kolejną. Z mojego doświadczenia wynika, że takie rozwiązania są naprawdę przydatne, szczególnie przy archiwizacji dużych plików, chociaż dzisiaj coraz rzadziej spotyka się użytkowników korzystających z fizycznych nośników. Warto wiedzieć, że standard DVD +R DL (czyli Double Layer) pozwala na zapis dwóch warstw na jednej stronie płyty, a istnieją również płyty DVD o oznaczeniu DS (Double Side), które dają możliwość fizycznego odwrócenia płyty i zapisania danych po obu stronach, jednak najczęściej w kontekście testów i egzaminów mówi się o płytach dwuwarstwowych, zwanych często mylnie dwustronnymi – stąd mogą pojawiać się nieścisłości. W praktyce płyty DVD +R DL używa się tam, gdzie trzeba zmieścić do 8,5 GB danych, czyli na przykład dłuższe filmy w wysokiej jakości lub duże archiwa. Branża długo trzymała się tego rozwiązania, bo dawało większą elastyczność, a komputery i odtwarzacze obsługujące standard +R DL były dość powszechne. Warto też pamiętać, że aby w pełni wykorzystać możliwości takiej płyty, trzeba mieć odpowiedni napęd obsługujący zapis i odczyt na warstwie double layer – to takie typowe ograniczenie sprzętowe, o którym łatwo zapomnieć. Generalnie – DVD +R DL to praktyczne, czasem niedoceniane rozwiązanie, które pokazuje, jak rozwijały się fizyczne nośniki danych.

Pytanie 19

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Scrubbing
B. Marquee
C. Shuffle
D. Bounce
Scrubbing to naprawdę bardzo przydatna funkcja w każdym nowoczesnym DAW-ie. Pozwala na odsłuchanie fragmentu ścieżki dźwiękowej dokładnie w tym miejscu, gdzie przesuwamy kursor po osi czasu. Moim zdaniem to trochę taka lupa dźwiękowa – zamiast odtwarzać cały utwór albo męczyć się z dokładnym ustawieniem playbacku, po prostu łapiemy za kursor i „przeciągamy” nim po wykresie fali. Działa to często podobnie jak przewijanie taśmy w klasycznym magnetofonie, gdzie szybciej lub wolniej przesuwany kursor daje podgląd dźwięku w danym fragmencie. Przydaje się to szczególnie przy precyzyjnym montażu, szukaniu klików, szumów czy ustawianiu punktów cięcia sampli. W branży muzycznej i postprodukcyjnej to wręcz codzienność – standardem jest, że inżynierowie dźwięku używają scrubbingu do szybkiego odnajdywania błędów lub synchronizowania efektów z konkretnym momentem w nagraniu. Warto pamiętać, że scrubbing może działać zarówno w trybie mono, jak i stereo, a niektóre programy pozwalają nawet na „scrubowanie” przez kontrolery fizyczne, co jeszcze bardziej przyspiesza workflow. Osobiście często korzystam z tej opcji podczas edytowania podcastów – słychać wtedy nawet niewielkie szelesty albo niechciane oddechy. Takie podejście nie tylko usprawnia pracę, ale też pozwala na osiągnięcie wysokiego poziomu precyzji, której oczekuje się w profesjonalnych produkcjach audio. Poza tym to po prostu wygodne – nie wyobrażam sobie wracać do pracy bez scrubbingu, szczególnie przy większych sesjach i wielościeżkowych projektach.

Pytanie 20

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. CROSSFADE
B. GLUE
C. MERGE
D. PASTE
Efekt crossfade, czyli płynne przejście między dwoma plikami dźwiękowymi, to absolutna podstawa w codziennej pracy z DAW-ami. Crossfade działa na tej zasadzie, że dźwięk z jednego pliku stopniowo się wycisza (fade out), a dźwięk z drugiego pojawia się coraz mocniej (fade in), dzięki czemu unikasz nieprzyjemnych kliknięć i szumów na łączeniu. Praktycznie w każdym profesjonalnym DAW ta funkcja jest dostępna standardowo, często wręcz jako domyślne narzędzie przy edycji audio. Takie przejście przydaje się nie tylko przy montażu dialogów czy muzyki, ale też w masteringu, kiedy trzeba posklejać różne wersje utworów albo poprawić cięcia. W świecie nagraniowców mówi się nawet, że dobrze wykonany crossfade jest ledwo zauważalny dla słuchacza – i to jest złota zasada. Moim zdaniem w ogóle warto nauczyć się tworzyć różne rodzaje crossfade’ów (np. liniowe, logarytmiczne, S-curve) i testować, jak wpływają na odbiór materiału. To takie małe detale, które w finalnym miksie robią ogromną różnicę. Pamiętaj, że używanie crossfade’ów to nie tylko kwestia estetyki, ale też technicznego bezpieczeństwa – szczególnie jeśli pracuje się z surowym materiałem, gdzie mogą pojawiać się artefakty. W branży standardem jest stosowanie crossfade’ów przy każdej edycji, gdzie pliki audio się stykają lub nakładają. Z mojego doświadczenia, jeśli raz zaczniesz ich używać, nie będziesz już chciał wracać do 'suchych' cięć.

Pytanie 21

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. FREEZE
B. CUT
C. SPLIT
D. DELETE
Funkcja SPLIT to absolutny standard w każdym szanującym się programie typu DAW, od prostych edytorów po zaawansowane stacje robocze jak Pro Tools czy Cubase. Z jej pomocą możesz błyskawicznie podzielić jeden plik audio na kilka mniejszych fragmentów, co jest niesamowicie wygodne przy edycji dialogów, cięciu sampli czy przygotowywaniu pętli rytmicznych. Moim zdaniem, to jedna z najczęściej używanych funkcji na ścieżkach audio, bo pozwala zyskać pełną kontrolę nad aranżacją i montażem – nie trzeba kopiować całych plików, ciąć na zewnątrz i ponownie importować do projektu. SPLIT praktycznie zawsze działa w miejscu kursora albo w wybranym zakresie, więc szybko dzielisz materiał dokładnie tam, gdzie tego chcesz. Dodatkowo większość DAW pozwala odwrócić ten podział bez utraty oryginalnych danych, co jest ogromnym plusem przy pracy nieniszczącej. Trochę z doświadczenia – bez SPLIT praca z podcastami czy muzyką elektroniczną byłaby o wiele bardziej uciążliwa. Profesjonaliści branży audio zawsze korzystają z tej funkcji, bo jest szybka, precyzyjna i nie wpływa negatywnie na jakość dźwięku. Warto też wiedzieć, że podział ścieżki przez SPLIT nie powoduje automatycznie usunięcia żadnej jej części, tylko wygodnie je oddziela, żebyś mógł osobno przesuwać, kopiować czy edytować każde z nich. To taki must-have każdej sesji edycyjnej.

Pytanie 22

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 10 GB danych.
B. 50 GB danych.
C. 25 GB danych.
D. 100 GB danych.
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.

Pytanie 23

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Merge
B. Loop
C. Snap
D. Freeze
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 24

Procesor dźwięku realizujący efekt echo wpływa na

A. przestrzenność materiału muzycznego.
B. dynamikę przetwarzanego sygnału.
C. wysokość przetwarzanych dźwięków.
D. pasmo częstotliwości przetwarzanego sygnału.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 25

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .flac
B. .wav
C. .m4a
D. .ape
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 26

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 90 minut.
B. 80 minut.
C. 70 minut.
D. 60 minut.
Właśnie tak – płyta CD-Audio o pojemności 700 MB pozwala na zapisanie maksymalnie około 80 minut dźwięku w standardzie Red Book, czyli podstawowym formacie CD-Audio. Wynika to z parametrów technicznych: dźwięk zapisywany jest jako nieskompresowany sygnał PCM, stereo, 16 bitów na próbkę i 44,1 kHz. To daje około 10 MB miejsca na każdą minutę muzyki – trochę więcej, bo uwzględnia się jeszcze nadmiarowość i korekcję błędów, ale mniej więcej tak się to liczy. 700 MB to właśnie te pełne 80 minut – takie płyty najczęściej spotyka się w sklepach muzycznych czy w bibliotekach audio. Moim zdaniem, praktycznie wszyscy profesjonaliści i realizatorzy dźwięku liczą się z tym limitem, bo jeśli materiał jest dłuższy, trzeba go dzielić na dwie płyty albo stosować inne nośniki. Warto wiedzieć, że starsze płyty miały pojemność 650 MB i wtedy na jednym krążku mieściło się tylko 74 minuty muzyki – to taki historyczny smaczek. Z mojego doświadczenia, w studiu nagraniowym te ograniczenia trzeba mieć cały czas z tyłu głowy, żeby nie zaskoczyć się podczas masteringu. Standard Red Book jest tu po prostu nie do przeskoczenia – każda próba zapisu dłuższego materiału grozi brakiem kompatybilności z klasycznymi odtwarzaczami CD. Jest to więc praktyczny limit, z którym warto się zaprzyjaźnić, jeśli myślimy o wydawaniu muzyki na CD.

Pytanie 27

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Steiberg Cubase.
B. Avid ProTools.
C. Microsoft Windows Media Player.
D. Celemony Melodyne.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 28

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii wiolonczeli?

A. Basso
B. Cello
C. Viola
D. Violin
Dobrze, że wybrałeś właśnie „Cello” jako nazwę ścieżki – to jest naprawdę kluczowa sprawa, szczególnie jeśli chodzi o organizację sesji w programach DAW (Digital Audio Workstation). Często spotykam się z sytuacjami, gdzie nazwy ścieżek są przypadkowe albo nieprecyzyjne i potem zamiast skupić się na miksie, człowiek traci czas na szukanie właściwego nagrania. Używanie poprawnych nazw instrumentów, takich jak „Cello” dla partii wiolonczeli, to nie tylko kwestia porządku, ale też szacunku do zespołu czy współpracujących realizatorów – każdy od razu rozumie, co się pod daną ścieżką kryje. W praktyce branżowej bardzo pilnuje się właśnie takich standardów, no bo wyobraź sobie dużą sesję z kilkudziesięcioma ścieżkami – bez jasnych oznaczeń robi się totalny chaos. Z mojego doświadczenia, nawet drobne różnice w nazewnictwie potrafią potem utrudnić eksport, transfer projektów czy współpracę z kimś zza granicy. Warto stosować oryginalne, międzynarodowe nazwy instrumentów (np. „Cello” zamiast polskiego „Wiolonczela”), bo większość DAW-ów i pluginów korzysta właśnie z tych określeń. Dobrze też dodać czasem dodatkowe oznaczenia, np. „Cello 1 Solo” lub „Cello Section”, jeśli jest więcej ścieżek z wiolonczelami. Takie podejście sprawia, że sesja od razu wygląda bardziej profesjonalnie, a praca nad projektem idzie szybciej i wygodniej.

Pytanie 29

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WAV
B. FLAC
C. MP3
D. WMA
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 30

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .riff
B. .wav
C. .aiff
D. .mp3
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 31

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 15 MB
C. 45 MB
D. 35 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 32

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 480 kb/s
B. 160 kb/s
C. 320 kb/s
D. 240 kb/s
320 kb/s to największa stała przepływność bitowa, jaką przewiduje standard MP3 (MPEG-1 Audio Layer III). To właśnie ta wartość jest górnym limitem dla plików MP3 zapisanych w trybie CBR, czyli z niezmienną szybkością przesyłania danych. Z mojego doświadczenia wynika, że jeśli ktoś oczekuje najwyższej możliwej jakości w ramach pliku MP3, to zawsze wybiera właśnie 320 kb/s. To dlatego w profesjonalnych studiach czy podczas cyfrowego archiwizowania muzyki często wybiera się właśnie ten parametr. Wiadomo, że MP3 jest formatem stratnym, więc nawet przy 320 kb/s nie uzyskamy pełnej jakości oryginału, ale dla większości zastosowań – od odtwarzaczy samochodowych po radio internetowe – ta przepływność jest akceptowalnym kompromisem między rozmiarem pliku a jakością dźwięku. Standard ISO/IEC 11172-3 wyraźnie określa, że próbując ustawić wyższą wartość, np. 480 kb/s, nie osiągniemy zamierzonego efektu – takie pliki nie będą kompatybilne z większością odtwarzaczy. Warto pamiętać, że inne formaty audio, jak AAC czy FLAC, mogą obsługiwać inne zakresy przepływności, ale w świecie MP3 320 kb/s to maksimum. Ja zawsze polecam sprawdzać ustawienia eksportu w programach do kodowania muzyki, bo czasem domyślna wartość to 128 lub 192 kb/s, a szkoda tracić na jakości, skoro można lepiej.

Pytanie 33

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.mp3
B. *.ogg
C. *.aiff
D. *.flac
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.

Pytanie 34

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Bramka szumów.
B. Korektor tercjowy.
C. Ekspander.
D. Kompresor.
Kompresor to sprzęt, który faktycznie zawęża zakres dynamiki dźwięku, czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. Na co dzień spotykamy go na przykład w studio nagrań, na scenie czy nawet podczas obróbki podcastów. Kompresor automatycznie obniża poziom tych fragmentów, które przekraczają określony próg (tzw. threshold), przez co cały materiał brzmi bardziej spójnie i mniej chaotycznie w odbiorze, a słabsze sygnały są łatwiejsze do usłyszenia. To narzędzie jest absolutną podstawą w miksie – trudno wyobrazić sobie współczesną produkcję muzyczną czy realizację dźwięku bez kompresji. Dobrze ustawiony kompresor sprawia, że wokal nie ginie w miksie, perkusja jest soczysta, a całość nie męczy słuchacza nagłymi skokami głośności. Inżynierowie dźwięku często stosują różne typy kompresorów – od sprzętowych, lampowych, po wtyczki cyfrowe – zależnie od stylu i potrzeb. Moim zdaniem bez praktycznej znajomości tego urządzenia trudno mówić o profesjonalnym podejściu do dźwięku. Co ciekawe, kompresory bywają też stosowane kreatywnie, by nadać barwie charakterystyczne brzmienie, dodać tzw. "pompowania" do bębnów czy uczynić miks bardziej radiowym. Warto eksperymentować i na własnym uchu przekonać się, jak bardzo zmienia się odbiór materiału po zastosowaniu kompresji – to serio otwiera oczy na temat kontroli dynamiki!

Pytanie 35

Która z wymienionych funkcji w sesji oprogramowania DAW służy do skokowego wyciszenia dźwięku na ścieżce?

A. SOLO
B. FADE IN
C. ON
D. MUTE
Funkcja „MUTE” w sesji oprogramowania DAW to jedno z najprostszych, a zarazem najpotężniejszych narzędzi podczas miksowania. Pozwala natychmiast, bez żadnego opóźnienia czy narastania/zanikania dźwięku, kompletnie wyciszyć całą ścieżkę – wręcz ją „wyłączyć” z miksu jednym kliknięciem. To jest bardzo przydatne, kiedy np. chcesz szybko sprawdzić, jak miks brzmi bez konkretnego instrumentu, albo kiedy robisz tzw. A/B testowanie różnych wersji aranżacji czy efektów. Z mojego doświadczenia to przycisk, z którego korzystam niemal automatycznie, np. podczas pracy nad sekcją bębnów – łatwo mogę wyciszyć hi-hat czy stopę i od razu słyszę różnice. Nawet w kontekście pracy z automatyką czy grupami ścieżek „MUTE” pozostaje kluczowym narzędziem, bo pozwala na błyskawiczne wyciszenie całych „stemów” np. chórków czy warstw efektowych. Warto dodać, że w profesjonalnych studiach inżynierowie dźwięku zawsze mają oko na ten przycisk, bo przypadkowe wyciszenie potrafi nieźle namieszać, zwłaszcza gdy projekt jest rozbudowany. W przeciwieństwie do „FADE IN” czy „SOLO”, „MUTE” działa zero-jedynkowo, nie pozostawiając miejsca na niejasności – albo ścieżka jest słyszalna, albo nie. Moim zdaniem, znajomość i umiejętne korzystanie z „MUTE” to absolutna podstawa pracy w każdym DAW.

Pytanie 36

Który z formatów plików audio nie używa kodowania stratnego?

A. .rm
B. .wav
C. .ogg
D. .ra
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 37

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 6 razy.
B. 4 razy.
C. 2 razy.
D. 8 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 38

Który dokument zawiera spis sygnałów wejściowych nagrania wielośladowego?

A. Layers.
B. Rider.
C. Input List.
D. Playlista.
Dokument nazywany Input List to absolutna podstawa przy każdej poważniejszej realizacji nagrania wielośladowego, zwłaszcza na koncertach czy podczas sesji studyjnych, gdzie liczba źródeł dźwięku i kanałów wejściowych potrafi sięgnąć naprawdę sporych wartości. Input List to po prostu lista wszystkich sygnałów, które muszą trafić do miksera lub rejestratora – na przykład mikrofonów, DI-boxów czy innych źródeł. Każdy kanał jest precyzyjnie opisany: np. „Kick IN”, „Snare Top”, „Gitara L”, a często też z numerem wejścia, rodzajem mikrofonu, ewentualnie informacją o phantomie czy specjalnych wymaganiach. Z mojego doświadczenia przygotowanie solidnego Input Listu naprawdę oszczędza nerwów na etapie patchowania sceny i rozstawiania sprzętu – dokładnie wiadomo, co, gdzie i jak ma być podpięte. To trochę taki must-have w branży live i studyjnej, bo nie ma profesjonalisty, który podchodzi do pracy bez tego typu rozpiski. Co ciekawe, bardzo często Input List jest częścią ridera technicznego, ale zawsze jest oddzielnym, szczegółowym dokumentem. Dobrą praktyką jest także aktualizacja tego dokumentu w miarę zmian setupu, bo każda niespodzianka na etapie soundchecku potrafi wywrócić całą realizację do góry nogami. Warto o tym pamiętać, bo Input List to gwarancja porządku i przewidywalności w pracy dźwiękowca.

Pytanie 39

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. MIX
B. EDIT
C. MIDI EDITOR
D. SCORE EDITOR
Okno SCORE EDITOR to kluczowa funkcja w wielu zaawansowanych programach DAW, zwłaszcza tych używanych do produkcji muzyki filmowej, klasycznej czy aranżacji orkiestrowych. Dzięki niemu można nie tylko zobaczyć zapis nutowy istniejących partii MIDI, ale też ręcznie wprowadzać i edytować nuty oraz kontrolować wszystkie niuanse wykonawcze typowe dla partytur. Moim zdaniem to jedno z tych narzędzi, które naprawdę otwiera nowe możliwości dla osób lepiej czujących się w tradycyjnej notacji muzycznej niż w samym edytorze pianolowym czy sekwencerze. W praktyce SCORE EDITOR pozwala na szybkie poprawki artykulacji, dynamiki czy akcentów, co jest bardzo istotne np. przy przygotowywaniu materiałów do wydruku dla żywych muzyków albo eksportu nut do innych systemów notacji. Wśród profesjonalistów przyjęło się, że SCORE EDITOR to właśnie miejsce do precyzyjnej pracy z zapisem nutowym i do przygotowywania aranżacji na różne składy instrumentalne. W Cubase, Logic Pro czy Studio One to narzędzie jest standardowym wyposażeniem, bo po prostu bez tego trudno byłoby komfortowo tworzyć bardziej złożoną muzykę z myślą o instrumentalistach. Z mojego doświadczenia wynika, że jeśli ktoś myśli poważnie o muzyce, warto nauczyć się obsługi SCORE EDITORA, bo nawet proste poprawki mogą mocno przełożyć się na końcowe brzmienie i czytelność utworu.

Pytanie 40

W celu zapewnienia możliwości zapisu i odczytu nośnika na komputerach z systemem Windows i MacOS, należy sformatować go z użyciem systemu plików

A. FAT32
B. NTFS
C. HFS+
D. Ext4
Wybór systemu plików FAT32 w tym pytaniu jest jak najbardziej uzasadniony, szczególnie kiedy zależy nam na kompatybilności między różnymi systemami operacyjnymi. FAT32 to system plików, który funkcjonuje od lat 90. i do dziś jest wspierany przez praktycznie wszystkie wersje Windows oraz macOS. Dzięki temu możesz bez problemu przenosić dane pomiędzy komputerami z obu tych systemów, niezależnie czy pracujesz na starym laptopie z Windows XP, czy na najnowszym MacBooku. Co ciekawe, FAT32 obsługują też konsole do gier, aparaty cyfrowe czy smart TV, więc jak ktoś lubi mieć jeden pendrive do wszystkiego, to właśnie ten format zazwyczaj się sprawdza. Oczywiście, FAT32 ma swoje ograniczenia – na przykład nie zapiszesz pliku większego niż 4 GB, co czasem bywa problematyczne przy filmach w wysokiej jakości czy dużych archiwach. Ale do zwykłego przenoszenia dokumentów, zdjęć czy muzyki sprawdza się znakomicie. W branży IT często rekomenduje się FAT32 jako najbezpieczniejszy wybór, gdy nie mamy pewności, na jakim sprzęcie będą używane nasze dane. Moim zdaniem, mimo że są nowsze formaty jak exFAT (też dość uniwersalny, ale nie zawsze obsługiwany przez starsze urządzenia), to jednak FAT32 cały czas króluje, zwłaszcza gdy liczy się maksymalna kompatybilność.