Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 19:18
  • Data zakończenia: 28 kwietnia 2026 19:33

Egzamin zdany!

Wynik: 33/40 punktów (82,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. LPF
B. HPF
C. LSF
D. HSF
Filtr dolnoprzepustowy (LPF – Low Pass Filter) to naprawdę jedno z podstawowych narzędzi w obróbce dźwięku. Stosuje się go wtedy, gdy chcemy zachować sygnały poniżej określonej częstotliwości granicznej, a wszystko, co jest powyżej tej częstotliwości, po prostu tłumimy lub całkiem usuwamy. Moim zdaniem w praktyce LPF najczęściej przydaje się podczas miksowania – chociażby przy czyszczeniu ścieżek z niepotrzebnych szumów wysokoczęstotliwościowych albo do kształtowania barwy instrumentów (np. wygładzanie ostrych dźwięków hi-hatu albo usuwanie niepożądanych syknięć w wokalu). W pracy w studiu, ale też przy projektowaniu urządzeń audio czy nawet w instalacjach nagłośnieniowych, LPF pozwala ograniczyć zakłócenia i poprawić selektywność dźwięku. Branżowe standardy, na przykład w akustyce budowlanej czy w transmisji sygnałów, zalecają stosowanie filtrów dolnoprzepustowych do eliminowania aliasingu lub ograniczania pasma sygnału. Ciekawostka: większość przenośnych głośników Bluetooth „tnie” wysokie częstotliwości właśnie przez filtr LPF, żeby mały przetwornik nie dostawał sygnału, którego nie da rady odtworzyć. W sumie LPF to taki niewidzialny strażnik porządku w sygnale audio – jak się go dobrze użyje, to dźwięk od razu robi się przyjemniejszy w odbiorze.

Pytanie 2

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 25 GB danych.
B. 20 GB danych.
C. 15 GB danych.
D. 10 GB danych.
Jednowarstwowy nośnik Blu-ray rzeczywiście pozwala na zapis do 25 GB danych, co stanowi obecnie branżowy standard dla tej technologii. Wynika to z konstrukcji samego nośnika optycznego – płyty Blu-ray wykorzystują krótszą falę lasera niebieskiego (405 nm), przez co są w stanie zapisywać dane o wiele gęściej niż tradycyjne płyty DVD czy CD. Dzięki temu na jednej warstwie mieści się nawet kilka godzin materiału Full HD lub spora liczba plików, np. całe archiwa zdjęć, filmów czy kopie zapasowe dysków SSD z laptopów. Branża filmowa i gamingowa od lat korzysta z tej możliwości – gry na PlayStation 4 czy filmy na Blu-ray to najlepszy przykład. 25 GB to też rozwiązanie stosowane w profesjonalnych archiwizacjach, gdzie liczy się nie tylko pojemność, ale też trwałość zapisu. Moim zdaniem to całkiem dużo, patrząc na fizyczne rozmiary płyty! Warto jeszcze wiedzieć, że są też płyty Blu-ray dwuwarstwowe (50 GB), a nawet czterowarstwowe (100 GB i więcej), ale te już wychodzą poza zwykłe zastosowania domowe. Z mojego doświadczenia – jeśli chcesz zarchiwizować dane na długie lata, to Blu-ray wciąż jest dobrą alternatywą np. dla pendrive'ów, bo mniej podatny na uszkodzenia elektromagnetyczne.

Pytanie 3

W której z wymienionych wartości tempa czas trwania oznaczonej wartości rytmicznej wynosi 500 ms?

A. 140 BPM
B. 160 BPM
C. 120 BPM
D. 100 BPM
Tempo 120 BPM oznacza, że w jednej minucie przypada dokładnie 120 uderzeń, a więc każde uderzenie trwa 0,5 sekundy, czyli 500 ms. Moim zdaniem to jedna z tych rzeczy, które warto umieć szybko policzyć, bo przy pracy z metronomem czy edycji MIDI w DAW-ach ciągle się to przydaje. W praktyce, jeśli na przykład ustawiasz w sekwencerze tempo 120 BPM, to półnuty będą trwały sekundę, ćwierćnuty – pół sekundy, a ósemki – 250 ms. To daje dużą precyzję, zwłaszcza gdy trzeba zsynchronizować efekty świetlne z beatem albo automatyzować parametry dźwięku pod konkretną długość taktu. Standardowo tempo 120 BPM jest też często wykorzystywane w muzyce popularnej i elektronicznej, właśnie ze względu na łatwość dzielenia wartości rytmicznych. W branży stosuje się proste kalkulatory BPM, ale warto umieć to policzyć samemu: czas trwania ćwierćnuty = 60 000 ms / BPM, więc przy 120 BPM mamy dokładnie 500 ms. Takie tempo daje sporo elastyczności przy aranżacji różnych gatunków – od popu przez EDM aż po rock.

Pytanie 4

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. De-crackle
B. Noise Reduction
C. De-click
D. Downsampling
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 5

Tłocznia płyt wymaga dostarczenia obrazu nośnika CD lub DVD w formacie

A. ZIP
B. DDP 2.0
C. DMG
D. ISO
DDP 2.0 to taki trochę skarb w branży tłoczenia płyt – jeśli ktoś poważnie podchodzi do przygotowania profesjonalnych wydawnictw CD czy DVD, nie ma chyba lepszej opcji. Ten format został opracowany specjalnie z myślą o tłoczniach, bo zawiera nie tylko obraz ścieżek audio lub danych, ale też wszystkie niezbędne informacje o strukturze płyty. To oznacza, że w DDP mamy zapisane nie tylko audio, ale i indeksy, kody PQ, ISRC, CD-Text, a nawet sumy kontrolne, więc błędy przy tłoczeniu praktycznie nie wchodzą w grę. Co ciekawe, większość nowoczesnych programów do masteringu, jak np. HOFA CD-Burn, WaveLab czy nawet Sequoia, umożliwia wygenerowanie obrazu DDP, bo płyty przesyłane do tłoczni jako zwykłe ISO czy ZIP mogą nie przechowywać wszystkich tych metadanych. Z mojego doświadczenia wynika, że większość profesjonalnych tłoczni wręcz nie przyjmuje już fizycznych płyt-matek, tylko właśnie żąda paczki DDP – przesłanej przez FTP czy przez chmurę. Też warto wiedzieć, że DDP wyeliminowało masę problemów ze zgodnością i błędami, które zdarzały się, gdy wykorzystywano inne formaty. To taki dobry przykład, jak branża audio wypracowała sobie własny, bardzo konkretny standard dla zapewnienia jakości.

Pytanie 6

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. pamięć Memory Stick.
B. dysk twardy.
C. pendrive.
D. płytę CD-R.
Dokładnie, płyta CD-R to klasyczny nośnik wykorzystywany przy optycznej metodzie zapisu danych, w tym materiałów muzycznych. W praktyce polega to na tym, że dane są zapisywane za pomocą lasera na powierzchni płyty, która działa jak swoista "matryca" odbijająca światło w różny sposób, w zależności od tego, czy dany fragment został zapisany czy nie. To rozwiązanie przez długie lata było standardem – nie tylko w branży muzycznej, ale też w archiwizacji danych czy dystrybucji oprogramowania. Co ciekawe, profesjonalne tłoczenie płyt wykorzystuje podobną zasadę, chociaż jest to już bardziej skomplikowany proces przemysłowy. W warunkach domowych lub studyjnych nagranie na CD-R pozwala zachować wysoką jakość dźwięku (format Audio CD, 44,1 kHz/16 bitów), a dodatkowo nośnik ten jest od razu gotowy do odczytu przez zdecydowaną większość sprzętu audio. W branży produkcji muzycznej płyty CD-R często służą do tworzenia tzw. "masterów" lub wersji demonstracyjnych gotowych do dalszej produkcji czy promowania utworów. Sam nie raz przygotowywałem taką płytę na potrzeby przesłuchań czy weryfikacji miksu. Moim zdaniem nadal warto znać tę technologię, bo mimo popularności cyfrowych plików, w niektórych przypadkach CD-R jest wciąż niezastąpiony, zwłaszcza gdy zależy nam na trwałości zapisu i kompatybilności.

Pytanie 7

Który z wymienionych typów plików dźwiękowych nie zapewnia możliwości zastosowania zmiennej przepływności bitowej (VBR)?

A. WAV
B. OGG
C. AAC
D. MP3
MP3, OGG oraz AAC to formaty audio, które powstały po to, żeby skutecznie kompresować dźwięk i dostosowywać jakość do różnych zastosowań, np. odtwarzania w internecie, na urządzeniach przenośnych czy w streamingach. Te formaty obsługują zmienną przepływność bitową (VBR), która pozwala na dynamiczne przydzielanie większego bitrate’u do bardziej skomplikowanych fragmentów utworu, a mniejszego tam, gdzie dźwięk jest prosty. To bardzo praktyczne – w efekcie plik może być mniejszy przy zachowaniu lepszej jakości, zwłaszcza gdy chodzi o muzykę z dużą ilością ciszy czy prostych dźwięków. W praktyce, VBR w MP3 jest wręcz powszechnie używane w ripowaniu płyt czy podcastach; OGG (czyli Ogg Vorbis) również został zaprojektowany z myślą o elastycznym zarządzaniu jakością; AAC (Advanced Audio Coding) z kolei to standard stosowany m.in. przez Apple i serwisy streamingowe, właśnie ze względu na świetną obsługę VBR i wyższą efektywność kompresji względem MP3. Często pojawia się mylne przekonanie, że każdy popularny format audio jest równie ograniczony, jak WAV, bo użytkownicy nie zawsze widzą opcje bitrate przy zapisie pliku. Tymczasem tylko WAV, z racji swojej pierwotnej funkcji archiwizacyjnej i studyjnej, w ogóle nie przewiduje takiej zmienności – tam bitrate jest zawsze stały, bo technicznie to po prostu zapis nieprzetworzonego strumienia dźwięku. Myślę, że wynika to z faktu, że WAV nie został zaprojektowany do kompresji, więc współczesne wymagania użytkowników wykraczają poza to, co ten format oferuje. Jeśli chodzi o praktykę – wybór WAV ma sens, gdy liczy się najwyższa jakość i edycja bez strat, ale nie wtedy, kiedy liczy się optymalizacja rozmiaru pliku czy wydajność strumieniowania. To taki trochę relikt, który wciąż ma swoje miejsce, ale nie do codziennego użycia tam, gdzie ważne są nowoczesne opcje kompresji, jak VBR.

Pytanie 8

Który z wymienionych standardów zapisu płyty CD pozwala na jednoczesny zapis danych binarnych oraz audio?

A. HDCD
B. SACD
C. CD-DA
D. E-CD
Na rynku funkcjonuje kilka różnych formatów płyt CD, które czasem są ze sobą mylone, zwłaszcza jeśli chodzi o możliwości zapisu różnych typów danych. CD-DA, czyli Compact Disc Digital Audio, to zdecydowanie najbardziej podstawowy, historyczny format – zgodny z tzw. Red Bookiem – i służy wyłącznie do zapisywania dźwięku w postaci cyfrowej, nie umożliwia jednak zapisywania żadnych dodatkowych danych komputerowych. Z kolei HDCD (High Definition Compatible Digital) to technologia opracowana przez Pacific Microsonics, która polegała na zapisie dźwięku o zwiększonej dynamice i jakości (16+4 bity), ale to dalej był wyłącznie zapis audio, bez wsparcia dla danych multimedialnych czy plików komputerowych. SACD (Super Audio CD) to jeszcze inna liga – to format stworzony przez Sony i Philipsa do zapisu muzyki w wysokiej rozdzielczości (technologia DSD), ale tutaj znowu nie przewidziano nagrywania dodatkowych danych binarnych na płycie, tylko zaawansowany zapis dźwięku. Wiele osób myli Enhanced CD (E-CD) z innymi formatami, bo faktycznie na pierwszy rzut oka wszystkie płyty wyglądają identycznie, a przecież tylko E-CD, zgodny ze standardem Blue Book, daje możliwość jednoczesnego zapisu utworów muzycznych i plików komputerowych na jednej płycie. To rozwiązanie powstało właśnie z myślą o użytkownikach komputerów, którzy chcieli mieć coś ekstra poza samym dźwiękiem. Moim zdaniem najczęstszym błędem jest przekonanie, że każda płyta CD z muzyką i jakimś filmikiem to SACD albo HDCD, bo brzmi to bardziej „nowocześnie”. W rzeczywistości zarówno SACD, jak i HDCD, koncentrują się wyłącznie na jakości dźwięku i nie oferują obsługi danych binarnych. Praktyka pokazuje, że tylko Enhanced CD spełnia wymagania pytania, pozwalając na pełną integrację muzyki i plików komputerowych na jednym dysku optycznym.

Pytanie 9

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Digital
B. Dolby TrueHD
C. Dolby Stereo
D. Dolby Digital Live
Patrząc na dostępne opcje dźwięku, łatwo pomylić się, bo wszystkie mają w nazwie „Dolby”, ale ich zastosowanie i możliwości są zupełnie różne. Dolby Stereo to stary standard – dziś raczej historyczny. Oferuje tylko dwa kanały (stereo lub matrixowe 4 kanały w kinach), więc nie nadaje się do zapisania ani odtwarzania wielokanałowego dźwięku 7.1. W domowych warunkach często myli się go z prostym stereo, ale to raczej ciekawostka, a nie realny wybór. Dolby Digital, choć bardzo popularny (praktycznie każdy film na DVD czy w telewizji kablowej korzysta z tego kodeka), jest formatem stratnym i obsługuje maksymalnie 5.1 kanałów przy kompresji stratnej, więc także odpada przy wymaganiach 8 kanałów bez utraty jakości. Dolby Digital Live to z kolei technologia zaprojektowana głównie do przesyłania wielokanałowego dźwięku na żywo (np. przez S/PDIF), najczęściej w grach komputerowych, i również bazuje na kompresji stratnej. Moim zdaniem często błędnie zakłada się, że obecność słowa „Dolby” gwarantuje najwyższą jakość czy liczbę kanałów, ale w rzeczywistości to tylko część prawdy – kluczowy jest typ kompresji i liczba wspieranych kanałów. W praktyce na Blu-ray Disc tylko Dolby TrueHD lub konkurencyjny DTS-HD Master Audio umożliwiają zapis dźwięku 7.1 bez strat. Typowym błędem jest też myślenie, że nowsze wersje Dolby Digital (np. Plus) to już bezstratne kodeki – niestety nie, one jedynie poprawiają efektywność kompresji. Warto pamiętać o tych niuansach, bo bez znajomości szczegółów łatwo się pomylić przy wyborze właściwego formatu audio, zwłaszcza jeśli zależy nam na najwyższej jakości i pełnym wykorzystaniu systemu 7.1 na Blu-ray.

Pytanie 10

Przy porównaniu cyfrowych plików dźwiękowych o tej samej rozdzielczości bitowej, teoretycznie najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie, którego poziom szczytowy osiąga

A. -3 dBFS
B. -12 dBFS
C. -6 dBFS
D. -0,3 dBFS
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje charakterystykę rozpiętości dynamicznej w plikach cyfrowych. Chodzi o to, że jeśli nagranie osiąga poziom szczytowy „tylko” -12 dBFS, to całość sygnału jest znacznie ciszej względem maksymalnego możliwego poziomu, który wynosi 0 dBFS w systemach cyfrowych. W praktyce oznacza to, że nie wykorzystujesz pełni dostępnego zakresu dynamiki konwertera A/C lub pliku, przez co sygnał „leży” daleko od maksimum i spada nam stosunek sygnału do szumu, a przez to efektywna rozpiętość dynamiczna staje się mniejsza. W studiach nagraniowych i w masteringach zaleca się, żeby szczyty trafiały blisko 0 dBFS (np. do -1 dBFS dla bezpieczeństwa), bo wtedy najlepiej używamy całego „okna” dostępnego w cyfrowym audio. Ograniczając się do -12 dBFS, z praktycznego punktu widzenia, „marnujemy” 12 dB dynamiki, co może wydawać się dużo – szczególnie przy nagraniach wymagających szerokiej palety dynamicznej, jak muzyka klasyczna czy ścieżki filmowe. Często początkujący inżynierowie dźwięku zostawiają za duży margines bezpieczeństwa, a potem się dziwią, że nagranie brzmi płasko i cicho. Moim zdaniem warto pamiętać, żeby trzymać szczyty jak najbliżej limitu, ale nie doprowadzać do przesteru – to taka złota zasada w cyfrowym audio.

Pytanie 11

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. View
B. Tools
C. File
D. Edit
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 12

Na płycie DVD zawierającej materiał dźwiękowy nagrany w formacie 5.1 należy umieścić opis

A. Dolby Digital.
B. Dolby Digital EX.
C. Dolby Surround.
D. Dolby Stereo.
Z punktu widzenia technicznego, zamieszczanie oznaczenia takiego jak Dolby Stereo czy Dolby Surround na płycie DVD z dźwiękiem zapisanym w formacie 5.1 jest po prostu niepoprawne – to jeden z częstszych błędów, na które można się natknąć w praktyce. Często myli się Dolby Stereo i Dolby Surround z nowoczesnymi systemami wielokanałowymi, bo nazwy są podobne i kojarzą się z przestrzennością, ale w rzeczywistości te technologie dotyczą całkiem innych rozwiązań. Dolby Stereo to system przeznaczony pierwotnie do dźwięku analogowego na taśmie filmowej i kasetach VHS, umożliwiający jedynie bardzo ograniczone efekty surround na bazie zapisu stereo. Dolby Surround to jego rozwinięcie, pozwalające zyskać trochę szerszą scenę dźwiękową, ale wciąż nie zapewnia prawdziwej separacji sześciu kanałów, jak w 5.1. Bardzo często osoby wybierające te odpowiedzi kierują się skojarzeniami z klasycznym kinem domowym sprzed lat albo po prostu mylą pojęcia. Jeżeli chodzi o Dolby Digital EX – to rzeczywiście format wielokanałowy, ale rozszerzony względem klasycznego 5.1 – dodaje dodatkowy kanał tylny centralny (czyli konfigurację 6.1 lub nawet 7.1), co przy DVD raczej spotyka się rzadziej i wymaga specjalnych warunków odtwarzania. Standardowy zapis 5.1 na DVD praktycznie zawsze będzie oznaczany jako Dolby Digital, bo tak przewidują specyfikacje i licencje producentów. Mylenie tych technologii prowadzi do problemów z kompatybilnością sprzętu lub błędnego oczekiwania efektów dźwiękowych. Dlatego zawsze warto sprawdzić, jaki dokładnie format znajduje się na płycie, a do zapisu typowego 5.1 na DVD – po prostu wybiera się Dolby Digital, bo to synonim branżowego standardu. Techniczna precyzja w tym temacie naprawdę się przydaje, zwłaszcza jeśli zajmujesz się produkcją lub postprodukcją materiałów audio-wideo.

Pytanie 13

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 60 klatek.
B. 30 klatek.
C. 15 klatek.
D. 90 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 14

Funkcja Duplicate w procesie edycji regionów służy do tworzenia kopii

A. regionu audio.
B. ścieżki.
C. procesora audio.
D. śladu MIDI.
Funkcja Duplicate w kontekście edycji regionów najczęściej służy do tworzenia kopii wybranego regionu audio w projekcie. To rozwiązanie jest bardzo praktyczne – szczególnie gdy chcesz powielić fragment nagrania, np. refren, pojedynczy takt perkusji czy efekt dźwiękowy, bez konieczności ponownego importowania lub nagrywania. W profesjonalnych stacjach DAW, takich jak Logic Pro, Cubase czy Pro Tools, duplikowanie regionów audio umożliwia szybkie budowanie aranżacji i oszczędza mnóstwo czasu. Moim zdaniem to jedno z tych narzędzi, które pozwala zachować płynność pracy, szczególnie przy produkcji muzycznej, gdzie często pracuje się na powtarzalnych wzorcach. Duplicate zachowuje wszystkie parametry oryginalnego regionu – długość, pozycję względem siatki, a nawet ewentualne automatyki, jeśli są z nim powiązane. Użytkownicy mogą też często wybrać, czy chcą utworzyć kopię niezależną, czy tzw. kopię odwołującą się do tego samego pliku audio (co oszczędza miejsce na dysku). To zgodne z dobrymi praktykami branżowymi: powielanie regionów w ten sposób pozwala na szybkie testowanie różnych wariantów aranżacyjnych bez ryzyka utraty oryginalnego materiału. W praktyce, jeśli masz na przykład fajną frazę gitarową i chcesz ją powtórzyć w innym miejscu utworu, Duplicate robi to jednym kliknięciem. Dla mnie to podstawa ergonomicznej pracy w studiu i coś, czego warto używać na co dzień – nawet jeśli dopiero zaczynasz przygodę z DAW-ami.

Pytanie 15

W celu minimalizacji aliasingu podczas konwersji A/C sygnału fonicznego zawierającego częstotliwości składowe z pasma akustycznego 20 Hz - 20 kHz, wartość częstotliwości próbkowania powinna wynosić minimalnie

A. 10 kHz
B. 20 kHz
C. 40 kHz
D. 30 kHz
Dobrze zauważone, że właśnie 40 kHz powinno być minimalną częstotliwością próbkowania przy digitalizacji sygnału fonicznego obejmującego całe pasmo słyszalne, czyli od 20 Hz do 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał, bez efektu aliasingu, częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości w sygnale. W praktyce dla audio, gdzie najwyższa słyszalna częstotliwość to 20 kHz, oznacza to właśnie 40 kHz. Co ciekawe, standard Compact Disc Audio przyjął jeszcze nieco wyższą wartość: 44,1 kHz, żeby zostawić zapas na niefiltrowane składowe i ograniczyć możliwość zakłóceń. Moim zdaniem, w pracy z dźwiękiem, zawsze warto pamiętać o zapasie powyżej minimum, bo rzeczywiste filtry antyaliasingowe nie są idealne i przepuszczają trochę sygnału poza swoim zakresem. W zastosowaniach profesjonalnych coraz częściej spotyka się próbkowanie na poziomie 48 kHz, a nawet 96 kHz, ale minimalnie – zgodnie z teorią – to właśnie 40 kHz. To dobry przykład, jak teoria matematyczna przekłada się bezpośrednio na wymagania sprzętowe i standardy w branży dźwiękowej.

Pytanie 16

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 48000 Hz/24 bity
C. 44100 Hz/16 bitów
D. 44100 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 17

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. AUDIO
B. MASTER
C. AUX
D. INSTRUMENT
MASTER to absolutnie kluczowa ścieżka w każdej sesji DAW, bo to właśnie ona działa jako główna szyna stereo miksu – taka ostatnia prosta, przez którą przechodzi cały sygnał audio, zanim trafi na głośniki albo zostanie wyeksportowany do pliku. W praktyce, kiedy miksujesz utwór, wszystkie ścieżki (audio, instrumenty, grupy, AUX-y itd.) sumują się właśnie na torze MASTER. To rozwiązanie nie wzięło się znikąd – podobnie działa to w fizycznych stołach mikserskich, gdzie masz tzw. sumę główną (main out) i to ona leci do systemu odsłuchowego lub nagrywania finalnego. Z mojego doświadczenia, nawet jeśli nie zaglądasz do tej ścieżki za każdym razem, warto pamiętać, że wszelkie efekty typu limiter, kompresor czy masteringowe EQ najlepiej umieścić właśnie tutaj. To też miejsce, gdzie najwygodniej kontrolować poziom końcowy miksu, żeby nie przesterować sygnału. W większości DAW-ów MASTER jest ustawiony domyślnie jako wyjście główne i nie trzeba tego ruszać, chyba że eksperymentujesz z routingiem. Fajne jest też to, że MASTER daje możliwość szybkiego sprawdzenia, jak miks brzmi po zgraniu, bez konieczności renderowania do pliku. Moim zdaniem, opanowanie pracy z tą ścieżką to absolutna podstawa dla każdego, kto chce produkować muzykę na przyzwoitym poziomie.

Pytanie 18

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 90 minut.
B. 80 minut.
C. 60 minut.
D. 70 minut.
Płyta CD-Audio o pojemności 700 MB rzeczywiście pozwala na zapis maksymalnie około 80 minut muzyki w standardzie audio. To wynika bezpośrednio ze specyfikacji formatu CD-DA (Compact Disc Digital Audio), który został opracowany przez Sony i Philipsa. W praktyce na jednej płycie mieści się dokładnie 700 MB danych, co przekłada się właśnie na 80 minut nieskompresowanego dźwięku stereo o parametrach 16 bitów, 44,1 kHz. To są bardzo konkretne wartości, na których bazuje cała branża muzyczna od lat 80. W sklepach muzycznych praktycznie wszystkie albumy wydawane na CD mieszczą się w tym limicie, dlatego bardzo często dłuższe płyty dzielone są na dwie części albo skraca się materiał. Co ciekawe, CD-Audio nie używa kompresji, więc zapis jest liniowy, bez strat jakości, co wciąż jest cenione przez audiofilów. Przy masteringu utworów warto pamiętać, że nawet niewielkie przekroczenie 80 minut może spowodować problemy z odczytem na niektórych odtwarzaczach. Z mojego doświadczenia w pracy ze sprzętem audio wynika, że niektóre nagrywarki próbują zapisywać ponad standardową pojemność płyty (tzw. overburning), ale jest to niezalecane i często prowadzi do błędów. Jeśli ktoś planuje tworzyć własne składanki na CD, powinien zawsze brać pod uwagę te granice i korzystać z dedykowanego oprogramowania, które podsumowuje czas nagrania. To ułatwia uniknięcie problemów podczas odtwarzania na różnych urządzeniach.

Pytanie 19

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. time stretch.
C. ogranicznik.
D. reverb.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 20

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. CD Burn.
B. mp3 CD.
C. ISRC CD Code.
D. CD Text.
Rozszerzenie CD Text jest dokładnie tym, co pozwala na zapisanie dodatkowych informacji tekstowych na płycie CD-Audio. Chodzi tu głównie o dane takie jak tytuły utworów, nazwy wykonawców, albumów czy nawet krótkie opisy. Standard CD Text został wprowadzony przez Sony i Philips w latach 90., a jego obsługa pojawiła się najpierw w lepszych odtwarzaczach stacjonarnych i wieżach stereo. Co ciekawe, większość nagrywarek komputerowych też potrafi już dodać te dane podczas tworzenia płyty, ale nie każdy program do nagrywania oferuje tę opcję – warto na to zwracać uwagę w ustawieniach. Z praktycznego punktu widzenia, CD Text jest bardzo przydatny na przykład w samochodowych radioodtwarzaczach – od razu wiadomo, co leci, bez potrzeby zgadywania. Co ciekawe, informacje z CD Text są przechowywane w specjalnych sektorach płyty (tzw. subkanał Q), nie wpływając na samą jakość audio. Z mojego doświadczenia, jeśli ktoś chce profesjonalnie przygotować płytę demo lub prezentacyjną, zdecydowanie warto zadbać o ten dodatek – ułatwia to identyfikację i podnosi walory użytkowe nośnika. Szkoda tylko, że starsze odtwarzacze nie zawsze rozpoznają te dane, ale wymagania branżowe wciąż promują stosowanie CD Text przy wydawaniu fizycznych nośników muzycznych.

Pytanie 21

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z próbkowaniem dla transmisji zakresu mowy.
B. z próbkowaniem na potrzeby płyty CD-Audio.
C. z próbkowaniem na potrzeby płyty DVD-Audio.
D. z niską rozdzielczością procesu próbkowania.
Częstotliwość próbkowania 96 kHz zdecydowanie kojarzy się z zaawansowanymi systemami audio, zwłaszcza z płytami DVD-Audio. W branży muzycznej i filmowej wysokie próbkowanie pozwala na uzyskanie znacznie lepszej jakości dźwięku – chodzi tutaj o zachowanie większej ilości szczegółów, a także szerszego pasma przenoszenia. DVD-Audio, w przeciwieństwie do klasycznych płyt CD (gdzie mamy 44,1 kHz), umożliwia odtwarzanie dźwięku o wyższej rozdzielczości, co doceniają zarówno profesjonaliści, jak i audiofile. Jest to szczególnie ważne przy nagraniach wielokanałowych lub materiałach do masteringu. Co ciekawe, 96 kHz przydaje się również w studiach nagrań – przy edycji i miksowaniu pozwala na większą swobodę przy późniejszej konwersji czy przetwarzaniu efektów cyfrowych, bo większa liczba próbek na sekundę po prostu daje większy margines błędu i lepszą jakość końcową. Moim zdaniem warto pamiętać, że standard DVD-Audio został stworzony właśnie po to, żeby pozwolić na dużo wyższą jakość niż ta dostępna na płytach CD i to próbkowanie 96 kHz jest jednym z jego najbardziej rozpoznawalnych wyróżników. Z mojego doświadczenia wynika, że jeśli ktoś pracuje profesjonalnie z dźwiękiem, to od razu kojarzy 96 kHz z zaawansowanymi zastosowaniami studyjnymi i archiwizacją na wysokim poziomie.

Pytanie 22

W celu zminimalizowania latencji przy przetwarzaniu dźwięku w oprogramowaniu DAW, należy

A. zmniejszyć częstotliwość próbkowania dźwięku.
B. użyć szybkiego dysku zewnętrznego.
C. zmniejszyć przepływność bitową sygnału.
D. zmniejszyć rozmiar bufora programowego.
Zmniejszenie rozmiaru bufora programowego to jedna z najskuteczniejszych metod na obniżenie latencji podczas pracy z dźwiękiem w DAW. Wynika to z faktu, że bufor odpowiada za przetwarzanie i przekazywanie porcji danych – im mniejszy rozmiar bufora, tym szybciej sygnał przechodzi przez system, a opóźnienie między wejściem a wyjściem maleje. W praktyce, przy nagrywaniu czy graniu na żywo, bardzo istotne jest, by dźwięk reagował natychmiast na działania muzyka czy realizatora, bo każdy zauważalny lag potrafi mocno utrudnić pracę. Profesjonalne studia oraz osoby zajmujące się miksowaniem live praktycznie zawsze zaczynają od ustawienia minimalnej akceptowalnej wartości bufora, dopiero kiedy pojawią się problemy z wydajnością, podnoszą go. Warto pamiętać, że zbyt niski bufor może powodować artefakty dźwiękowe czy trzaski, więc trzeba znaleźć złoty środek. Coraz częściej interfejsy audio i DAW pozwalają dynamicznie zmieniać bufor, co jest mega pomocne. Moim zdaniem, zwłaszcza przy nagrywkach wokali lub instrumentów na żywo, różnica jest kosmicznie odczuwalna – latencja potrafi spaść do poziomu, gdzie praktycznie jej nie zauważamy.

Pytanie 23

Który format plików audio należy wybrać, aby po przekonwertowaniu zajmował najmniej miejsca na dysku komputera?

A. .wave
B. .mp3
C. .flac
D. .aiff
Format MP3 to zdecydowanie najlepszy wybór, gdy zależy Ci na minimalnym rozmiarze pliku audio po konwersji. To format stratny (lossy), co oznacza, że podczas kompresji traci się część informacji dźwiękowych, ale zyskuje się na tym drastyczne zmniejszenie wielkości pliku. Standard MP3 powstał właśnie po to, by móc przechowywać lub przesyłać muzykę przez internet, kiedy miejsce na dysku czy przepustowość łącza były na wagę złota. Moim zdaniem, nawet dziś, gdy dyski są większe, to w zastosowaniach masowych (np. serwisy streamingowe, podcasty, audiobooki) MP3 jest niezastąpiony ze względu na balans jakości do wielkości pliku. Jeśli chodzi o bitrate, to np. plik MP3 o jakości 128 kbps waży często kilkukrotnie mniej niż ten sam utwór w formacie WAV czy AIFF. Oczywiście, tracimy trochę na jakości dźwięku, ale dla większości codziennych zastosowań to praktycznie niezauważalne. To też jest powód, dla którego większość osób wrzucając muzykę na telefon czy odtwarzacz mp3 wybiera właśnie ten format. Z mojego doświadczenia, jeśli zależy Ci na szybkim udostępnianiu czy wysyłce plików audio, MP3 to po prostu standard branżowy i nie ma co kombinować. Warto pamiętać, że MP3 jest obsługiwany praktycznie przez każde urządzenie, od komputerów, przez samochody, aż po stare odtwarzacze. Przy konwersji audio zawsze trzeba jednak pamiętać o kompromisie między rozmiarem a jakością – im niższy bitrate, tym mniejszy plik, ale i gorszy dźwięk.

Pytanie 24

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. częstotliwości próbkowania sygnału w sesji.
C. kształtu fade in i fade out w sesji.
D. koloru ścieżek w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 25

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -16 LUFS
B. -23 RMS
C. -23 LUFS
D. -16 RMS
Odpowiedź -23 LUFS jest zgodna z europejskim standardem EBU R128. To właśnie ta wytyczna została przyjęta w branży radiowej i telewizyjnej w Europie, żeby zapewnić spójny poziom głośności wszystkich audycji. LUFS – skrót od Loudness Units relative to Full Scale – to obecnie najpowszechniej stosowana jednostka do pomiaru subiektywnej głośności materiału audio. Z mojego doświadczenia wynika, że coraz więcej inżynierów dźwięku i realizatorów nie wyobraża sobie pracy bez tej skali, bo pozwala ona zapanować nad różnicami w postrzeganiu głośności, które wcześniej często irytowały słuchaczy (np. głośniejsze reklamy). Warto pamiętać, że -23 LUFS nie oznacza po prostu nagrania „cichego” – to punkt odniesienia pozwalający zachować optymalną dynamikę, uniknąć przesterowań i mieć pewność, że słuchacze nie będą musieli ciągle regulować głośności odbiornika. Dla przykładu: jeśli przygotowujesz podcast albo materiał do radia, znormalizowanie do -23 LUFS to podstawa – zarówno w emisji FM, jak i w streamingu cyfrowym, choć tam czasem są inne wymagania, np. -16 LUFS dla podcastów na Spotify. W telewizji publicznej czy dużych rozgłośniach radiowych nieprzestrzeganie tego progu może skutkować odrzuceniem materiału. To taka branżowa gwarancja jakości, zgodnie z zasadą „jeden poziom dla wszystkich”, i moim zdaniem wprowadziła sporo ładu do świata broadcastu. Warto więc od razu przyzwyczaić się do mierników LUFS i pracy z R128 – to standard praktycznie obowiązkowy.

Pytanie 26

Plik sesji montażowej o rozszerzeniu nazwy .sesx utworzony został przez program

A. Avid Pro Tools
B. Apple Logic Pro X
C. Adobe Audition
D. Presonus Studio One
Pliki sesji montażowej zazwyczaj mają unikatowe rozszerzenia dla każdego z popularnych programów DAW, co czasem prowadzi do mylnego przypisywania formatów. Zdarza się, że osoby pracujące z audio kojarzą .sesx z podobnymi nazwami, np. z Pro Tools, który jednak zapisuje swoje sesje w formacie .ptx (dawniej .pts i .ptf), co wynika z zupełnie odmiennego podejścia do organizowania projektów – Avid stosuje własny, zamknięty system plików i katalogów dla sesji. Z kolei Logic Pro X korzysta ze swojego formatu .logicx, który zawiera całą strukturę projektu, ścieżki, ustawienia i instrumenty MIDI. Niektórzy mogą też odruchowo wskazać Studio One, jednak tutaj spotkamy się z rozszerzeniem .song dla projektów sesyjnych. To dość typowe, że myli się te rozszerzenia, bo cała branża audio korzysta z różnych systemów i czasem nazwy są łudząco podobne. Błędne skojarzenia mogą wynikać z pracy w kilku DAWach naraz lub korzystania z uniwersalnych plików audio, które nie są powiązane z konkretnym środowiskiem. Warto zwracać uwagę na te detale, bo wybór właściwego formatu sesji pozwala uniknąć problemów z kompatybilnością, archiwizacją i przenoszeniem projektów – szczególnie gdy pracujemy w większym zespole czy przekazujemy projekt do innego studia. Kluczowe jest, żeby rozumieć te niuanse, bo od tego zależy płynność pracy i bezpieczeństwo naszych danych.

Pytanie 27

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Audio File Type
B. Sample Rate
C. Channels
D. Bit Resolution
Częstotliwość próbkowania, czyli po angielsku sample rate, to absolutnie kluczowa właściwość każdego pliku audio – w sumie bez niej nie dałoby się nagrać dźwięku cyfrowego. Sample rate określa, ile razy na sekundę komputer pobiera próbkę sygnału analogowego podczas konwersji na postać cyfrową. Typowe wartości to 44,1 kHz (CD-audio), 48 kHz (wideo i broadcast), czasem też 96 kHz i więcej – to już bardziej zaawansowana produkcja studyjna. Z mojego doświadczenia, przy niskiej częstotliwości próbkowania ograniczamy pasmo przenoszenia dźwięku – im wyższy sample rate, tym lepsze odwzorowanie wysokich częstotliwości i subtelnych szczegółów, choć to też oznacza większe pliki. Branża trzyma się standardu 44,1 kHz dla muzyki i 48 kHz dla filmów, bo to kompromis między jakością a wagą pliku. Pracując w DAW, zawsze trzeba zwracać uwagę, żeby sample rate projektu zgadzał się z plikami audio, bo inaczej może pojawić się nieprzyjemna zmiana wysokości dźwięku albo tempo zacznie wariować. Tak na marginesie, sample rate nie ma nic wspólnego z głośnością czy ilością bitów – to wyłącznie parametr odpowiadający za dokładność czasową rejestracji dźwięku cyfrowego. Dobra praktyka to ustawić sample rate zgodnie z przeznaczeniem projektu i nie konwertować plików niepotrzebnie, bo każde przetwarzanie może wpłynąć na jakość. Warto o tym pamiętać przy eksporcie i pracy z różnymi DAW.

Pytanie 28

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 3 ścieżki.
B. 2 ścieżki.
C. 1 ścieżkę.
D. 4 ścieżki.
Przygotowanie czterech ścieżek monofonicznych w sesji DAW do montażu kwartetu smyczkowego nagranego techniką MM (czyli mikrofonu monofonicznego na każdy instrument) to absolutny standard, który wynika z charakterystyki samego zespołu. Kwartet smyczkowy składa się z czterech indywidualnych instrumentów: dwóch skrzypiec, altówki i wiolonczeli. Każdy z nich najczęściej nagrywany jest oddzielnie, osobnym mikrofonem, aby uzyskać pełną kontrolę nad brzmieniem każdego głosu w miksie. Takie podejście pozwala na niezależną edycję, panoramowanie, korekcję czy zastosowanie efektów w postprodukcji. Branżowe workflow zakłada, że jedna ścieżka odpowiada jednemu mikrofonowi, a tym samym jednemu instrumentowi – i to jest dobra praktyka, bo daje maksimum możliwości podczas miksowania. Moim zdaniem, jeśli ktoś próbowałby ograniczyć się do jednej czy dwóch ścieżek, to ograniczałby swobodę pracy i detaliczność miksu – po prostu nie da się uzyskać tej samej precyzji. Dodatkowo, jeśli planujesz rozbudować aranżacje czy korzystać z różnych ujęć mikrofonowych w większych składach, taka zasada – jedna ścieżka na każdy głos lub mikrofon – znacznie ułatwia późniejszą organizację sesji. Warto też pamiętać, że przygotowanie odpowiedniej liczby ścieżek już na etapie sesji nagraniowej to domena profesjonalistów i gwarancja sprawnego przebiegu pracy.

Pytanie 29

Czym jest normalizacja nagrania (peak normalization)?

A. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
B. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
C. Obniżeniem szczytowego poziomu nagrania o 3 dB
D. Obniżeniem średniego poziomu nagrania o 3 dB
Normalizacja szczytowa (ang. peak normalization) polega na zwiększeniu poziomu sygnału tak, żeby najwyższy punkt (czyli szczyt) nagrania osiągnął określony poziom — najczęściej 0 dBFS w przypadku pracy ze ścieżkami cyfrowymi. To jest standard w audio, szczególnie jeśli chcemy wycisnąć maksimum z głośności materiału, ale nie dopuścić do przesteru. Taki zabieg nie zmienia proporcji między cichszymi a głośniejszymi fragmentami nagrania, więc charakterystyka dynamiczna pozostaje nietknięta. Moim zdaniem to właśnie czyni normalizację szczytową bardzo bezpieczną i przewidywalną — nie ma tu zagrożenia, że nagle środek utworu zrobi się za głośny albo cisza w tle zniknie. W praktyce stosuje się ją np. przed masteringiem albo przygotowując pliki do publikacji, żeby uniknąć niepotrzebnych niespodzianek z poziomami między różnymi utworami. Trzeba mieć na uwadze, że 0 dBFS to granica w świecie cyfrowym — wyżej już się po prostu nie da, bo pojawi się clipping. Warto jeszcze dodać, że normalizacja szczytowa bywa często mylona z normalizacją RMS (średnią), która zmienia całościową głośność odbieraną przez ucho, jednak w branży audio peak normalization to taki 'must-have', szczególnie przy zgrywaniu miksu na master track.

Pytanie 30

Który z formatów plików audio nie używa kodowania stratnego?

A. .rm
B. .wav
C. .ra
D. .ogg
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 31

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .aif
B. .mp3
C. .mp4
D. .wma
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 32

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Split
C. Mute
D. Copy
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 33

Ogranicznik w procesie masteringu wpływa

A. na przestrzeń nagrania.
B. na zmianę barwy pliku wynikowego.
C. na pasmo nagrania.
D. na ograniczenie maksymalnego poziomu nagrania.
Odpowiedź jest prawidłowa, bo limiter (ogranicznik) w masteringu stosuje się przede wszystkim do kontrolowania maksymalnego poziomu sygnału audio. Jego głównym zadaniem jest zatrzymanie przesterowań i zapewnienie, że sygnał wyjściowy nie przekroczy ustalonej wartości granicznej, najczęściej 0 dBFS w środowisku cyfrowym. To jest taka ostatnia linia obrony przed clipowaniem, które mogłoby zniszczyć jakość materiału czy nawet uszkodzić sprzęt odtwarzający. W praktyce, limiter pozwala uzyskać głośniejsze brzmienie bez ryzyka przekroczenia progu, a to bardzo pożądane na etapie masteringu, zwłaszcza kiedy utwór idzie do radia albo na streamingi. Współczesne standardy branżowe, jak loudness normalization (np. EBU R128 czy LUFS), zakładają pewien maksymalny poziom, którego nie należy przekraczać – limiter jest tu wręcz niezbędny. Z mojego doświadczenia, użycie limitera to taki etap, na którym cała praca nad brzmieniem może się rozstrzygnąć – za mocne ustawienie może zabić dynamikę, za słabe nie da stabilnego poziomu. Dobry masteringowiec wie, jak balansować te kwestie, żeby utrzymać energię nagrania, a jednocześnie nie doprowadzić do przesterowań. Generalnie, bez limitera nie ma współczesnego masteringu.

Pytanie 34

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 10 GB danych.
B. 50 GB danych.
C. 25 GB danych.
D. 100 GB danych.
Jednowarstwowy nośnik Blu-ray pozwala na zapisanie do 25 GB danych i jest to wartość oficjalnie potwierdzona przez specyfikacje tego standardu – dokładnie Blu-ray Disc Association przyjęła taką pojemność dla podstawowej, pojedynczej warstwy. W praktyce oznacza to, że taki nośnik mieści około 5-6 razy więcej danych niż klasyczna płyta DVD, której pojemność wynosi zwykle 4,7 GB. Dla przykładu, na jednym jednowarstwowym Blu-ray bez problemu zmieści się film w jakości Full HD z wieloma ścieżkami dźwiękowymi, dodatkowymi napisami czy galeriami zdjęć. Moim zdaniem to ogromny przeskok, jeśli chodzi o archiwizowanie danych czy dystrybucję materiałów multimedialnych – dlatego w branży filmowej czy wśród producentów gier komputerowych standard Blu-ray zyskał taką popularność. Warto wiedzieć, że w przypadku płyt dwuwarstwowych Blu-ray pojemność rośnie do 50 GB, a są też wersje wielowarstwowe, ale te są wykorzystywane raczej profesjonalnie. W codziennych zastosowaniach, takich jak tworzenie kopii zapasowych lub przechowywanie dużych plików, 25 GB to naprawdę spora przestrzeń – sam pamiętam, jak kiedyś musiałem dzielić filmy na kilka płyt DVD, żeby się wszystko zmieściło. Z technicznego punktu widzenia kluczowa była zmiana długości fali lasera z czerwonego (DVD) na niebiesko-fioletowy (Blu-ray), co pozwoliło na znacznie większą gęstość zapisu i właśnie dzięki temu uzyskano tę pojemność. Takie podstawy zdecydowanie warto znać i stosować w praktyce.

Pytanie 35

Do korekcji błędów intonacyjnych nagranego wokalu należy użyć

A. expandera.
B. equalizera.
C. autotunera.
D. de-essera.
Autotuner to narzędzie, które faktycznie służy do korekcji błędów intonacyjnych w nagranym wokalu. Jego głównym zadaniem jest analizowanie wysokości dźwięku ścieżki wokalnej i automatyczne dostosowywanie jej do wybranej tonacji lub skali. Stosowanie autotunera jest już absolutnym standardem w praktycznie każdym studiu nagrań, zarówno w muzyce pop jak i w hip-hopie czy nawet w elektronice. W praktyce, jeśli wokalista zaśpiewa lekko "obok" dźwięku lub nie trafi w tonację, autotuner potrafi szybko i niemal niezauważalnie skorygować takie niedoskonałości – oczywiście wszystko zależy od ustawień, bo przecież nie zawsze chodzi o efekt typu "robot" jak u Cher czy T-Paina. Często używa się subtelnych ustawień, żeby poprawić intonację, a nie zniekształcić głosu. Moim zdaniem, nawet jeśli ktoś nie jest zwolennikiem tego efektu, ciężko sobie dziś wyobrazić profesjonalną produkcję wokalną bez autotunera, chociażby jako narzędzia do lekkiego wyrównania śpiewu. Praktyka pokazuje, że odpowiednio użyty, potrafi uratować niejedno nagranie. Warto też pamiętać, że jest wiele różnych wtyczek do tego celu, jak Antares Auto-Tune, Waves Tune czy Melodyne – każde z nich daje trochę inne możliwości, a zawodowi realizatorzy często dobierają narzędzie do konkretnej sytuacji i efektu, jaki chcą uzyskać.

Pytanie 36

Który z wymienionych procesorów efektów służy do zmiany wysokości dźwięku o określony interwał muzyczny?

A. Pitch Shifter
B. Classic Phaser
C. HF Exciter
D. Multivoice Chorus
Pitch Shifter to procesor efektów, który rzeczywiście pozwala na zmianę wysokości dźwięku o określony interwał muzyczny. Ten efekt jest powszechnie stosowany zarówno w produkcji muzycznej, jak i podczas występów na żywo. Moim zdaniem to jedno z bardziej kreatywnych narzędzi, szczególnie jeśli chodzi o wokale – umożliwia uzyskanie efektu harmonizatora, tworzenie podwójnych partii czy nawet całkowitą zmianę charakteru głosu. Standardowo pitch shifter pozwala na przesunięcie dźwięku w górę lub w dół o półtony, całe tony, kwinty, oktawy czy nawet bardziej niestandardowe interwały. Co ciekawe, to rozwiązanie jest wykorzystywane też do korekty intonacji instrumentalnej, na przykład w gitarach podczas nagrań, jeśli trzeba coś „podciągnąć” bez konieczności ponownego rejestrowania ścieżki. W świecie audio pitch shifting jest też podstawą efektów wokalnych w EDM czy popie – na przykład popularny efekt „chipmunk” to nic innego jak przetworzenie wokalu przez shifter ustawiony na wyższą oktawę. Z punktu widzenia realizatora dźwięku, stosowanie pitch shiftera wymaga pewnej ostrożności – przesadzenie z ustawieniami może prowadzić do niepożądanych artefaktów, dlatego najlepszą praktyką jest, moim zdaniem, subtelne dawkowanie tego efektu i słuchanie, jak całość wpisuje się w miks.

Pytanie 37

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. wilgotności powietrza.
B. pola elektrostatycznego.
C. pola magnetycznego.
D. promieniowania ultrafioletowego.
Promieniowanie ultrafioletowe rzeczywiście jest jednym z największych zagrożeń dla nośników optycznych, takich jak płyty CD. Wynika to z faktu, że promieniowanie UV stopniowo degraduje warstwę poliwęglanową oraz barwnik, którym pokryta jest płyta. Efektem tego jest utrata integralności danych zapisanych na dysku, co w praktyce może oznaczać nieczytelność plików lub całkowitą utratę danych. Od lat w branży informatycznej mówi się, żeby płyty przechowywać w ciemnych miejscach, najlepiej w pudełkach, osłonięte przed światłem słonecznym i lampami UV. To nie jest czcza teoria – liczne testy pokazały, że nawet kilkugodzinne wystawienie płyty na bezpośrednie słońce może sprawić, że stanie się ona bezużyteczna. Moim zdaniem niewiele osób zdaje sobie sprawę, że zwykła żarówka LED nie stanowi zagrożenia, ale już świetlówki czasem emitują pewną ilość UV, która na przestrzeni lat może zaszkodzić nośnikowi. Branża zaleca też przechowywanie płyt w pozycji pionowej, w miejscu suchym i chłodnym, ale to właśnie ochrona przed UV jest absolutnym priorytetem. Pamiętaj, że nawet najnowocześniejsze płyty z powłoką ochronną nie są stuprocentowo odporne – UV robi swoje. To dlatego archiwa cyfrowe czy muzea mają specjalne, zaciemnione pomieszczenia na nośniki optyczne. Takie są realia, jeśli myślisz o długoterminowym przechowywaniu danych.

Pytanie 38

Która z funkcji dostępnych w sesji montażowej programu DAW umożliwia efekt płynnego przejścia między dwoma fragmentami nagrania ułożonymi na tej samej ścieżce?

A. Overlap.
B. Cross-fade.
C. Detect transient.
D. Slide.
Właśnie o to chodzi w cross-fade! Ta funkcja jest jednym z najczęściej używanych narzędzi podczas montażu audio w DAW-ach, takich jak Ableton Live, Cubase czy Pro Tools. Cross-fade polega na równoczesnym wygaszaniu końcówki pierwszego fragmentu i narastaniu początku drugiego, co pozwala na uzyskanie płynnego, niemalże niewyczuwalnego przejścia między dwoma nagraniami na tej samej ścieżce. Dzięki temu unikamy charakterystycznych kliknięć, nagłych skoków głośności albo nienaturalnych zmian brzmienia, które mogą powstać przy zwykłym sklejeniu plików. Z mojego doświadczenia przy obróbce wokali czy gitar cross-fade jest absolutnie nie do przecenienia – pozwala zatuszować wszelkie drobne nierówności albo pokryć przejścia, które bez tego byłyby po prostu słyszalne jako cięcia. Branżowym standardem jest zawsze stosować cross-fady tam, gdzie łączymy dwa fragmenty tej samej partii – to nie tylko wygoda, ale i profesjonalizm, bo słuchacz nie ma prawa zauważyć, że cokolwiek było edytowane. Warto wspomnieć, że DAW-y często pozwalają regulować kształt krzywej cross-fade (np. liniowa, logarytmiczna, S-curve), co dodatkowo daje kontrolę nad charakterem przejścia. Takie narzędzie to podstawa warsztatu montażysty audio, niezależnie od stylu muzycznego czy poziomu zaawansowania.

Pytanie 39

Uzyskanie dynamiki dźwięku o wartości 192 dB możliwe jest przy rozdzielczości przetwarzania wynoszącej

A. 24 bity.
B. 32 bity.
C. 8 bitów.
D. 16 bitów.
Temat dynamiki dźwięku i rozdzielczości bitowej bywa mylący, bo łatwo go uprościć i uznać, że już przy 16 czy 24 bitach da się osiągnąć ekstremalnie wysoki zakres dynamiki, taki jak 192 dB. W rzeczywistości każda rozdzielczość bitowa ogranicza maksymalny teoretyczny zakres dynamiki, jaki można uzyskać przy cyfrowym przetwarzaniu dźwięku. Dla 8 bitów to zaledwie ok. 48 dB, co nawet jak na zastosowania amatorskie jest bardzo mało – ten format spotykało się w dawnych komputerach czy pierwszych konsolach, gdzie liczył się głównie rozmiar danych, nie jakość. Przy 16 bitach zakres ten rośnie do ok. 96 dB, co odpowiada standardowi CD Audio i dla większości słuchaczy jest już zadowalające, choć przy profesjonalnej pracy studyjnej to za mało, bo każde dodatkowe przetworzenie sygnału może wprowadzić szumy i zniekształcenia. 24 bity to już około 144 dB dynamiki – wykorzystywane w studiach nagraniowych, bo pozwala na precyzyjne nagrywanie i miksowanie bez ryzyka utraty szczegółów. Jednak do osiągnięcia 192 dB trzeba aż 32 bitów. Pominięcie tej zależności bywa częstym błędem – myśli się, że wzrost bitów przekłada się tylko na subtelną poprawę jakości, a tymczasem skok w dynamice jest ogromny. Warto pamiętać, że przesadne zaufanie do niższych rozdzielczości ogranicza pole manewru w profesjonalnych zastosowaniach. Dopiero 32 bity pozwalają uzyskać teoretyczną dynamikę, która może być przydatna przy masteringu, nagrywaniu instrumentów o dużej zmienności głośności czy w zaawansowanej obróbce dźwięku. W praktyce sprzęt często nie osiąga tych wartości przez szumy własne, ale z punktu widzenia specyfikacji cyfrowej – tylko 32 bity dają szansę na te 192 dB. Stąd wybór niższych rozdzielczości to typowy błąd wynikający z niedoszacowania wymagań profesjonalnej pracy z dźwiękiem.

Pytanie 40

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. bitów na sekundę w transmisji danych.
B. próbek opisanych jednym bitem.
C. próbek na sekundę w transmisji danych.
D. bitów dostępnych do opisu każdej próbki sygnału.
Rozdzielczość bitowa sygnału cyfrowego to po prostu liczba bitów, które są używane do zakodowania jednej próbki sygnału. To właśnie od tej wartości zależy, jak dokładnie (czyli z jaką precyzją) możemy opisać wartość sygnału w każdej chwili jego próbkowania. Przykładowo – 8 bitów daje 256 możliwych poziomów sygnału, a 16 bitów już aż 65536 poziomów. Im wyższa rozdzielczość bitowa, tym mniej zauważalna jest tzw. kwantyzacja, czyli 'schodkowanie' sygnału po konwersji z analogowego na cyfrowy. W praktyce – to dlatego muzyka w jakości CD brzmi tak dobrze, bo tam każda próbka ma 16 bitów. Branżowe standardy, takie jak PCM (Pulse Code Modulation), wprost definiują rozdzielczość bitową jako ilość bitów na próbkę. Z mojego doświadczenia wynika, że w zastosowaniach profesjonalnych – np. rejestracja dźwięku w studio – często używa się nawet 24 bitów na próbkę. To pozwala uchwycić bardzo subtelne detale i dynamikę. Generalnie, jeśli chcesz mieć dobrej jakości sygnał cyfrowy, to warto zadbać o odpowiednią rozdzielczość bitową, bo nie da się jej potem „dodać” w postprodukcji – to trochę jak ostrość zdjęcia, jak złapiesz za mało szczegółów na początku, to już nic nie zrobisz. Przy projektowaniu systemów cyfrowych (np. przetworników ADC/DAC) właściwy dobór rozdzielczości to podstawa dobrych praktyk w inżynierii dźwięku i elektronice.