Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 17:14
  • Data zakończenia: 30 kwietnia 2026 17:21

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. MBR
B. CBR
C. VBR
D. ABR
CBR to skrót od „Constant Bit Rate”, czyli stała przepływność bitowa. W praktyce oznacza to, że niezależnie od zawartości przesyłanego sygnału cyfrowego (na przykład wideo albo audio), ilość przesyłanych bitów na sekundę jest zawsze taka sama. To rozwiązanie jest stosowane np. w transmisjach strumieniowych na żywo, gdzie bardzo istotny jest brak wahań przepustowości sieci, albo w telewizji cyfrowej czy nawet podczas nagrywania na nośniki optyczne. Z mojego doświadczenia, CBR jest często wybierane w sytuacjach, gdzie najważniejsza jest przewidywalność obciążenia sieci lub zachowanie kompatybilności z prostszymi urządzeniami odtwarzającymi. Standardy takie jak MPEG-2, używane w DVB, zalecają tryb CBR do transmisji broadcastowych, bo ogranicza on ryzyko buforowania i pozwala na łatwiejsze zarządzanie zasobami. Przy CBR nie ma też problemu z rozjechaniem się synchronizacji audio i wideo, co jest ważne np. w systemach CCTV albo VoIP. Warto jednak pamiętać, że CBR czasem zużywa więcej przepustowości niż to konieczne, bo nie dostosowuje się elastycznie do złożoności przesyłanej treści. Moim zdaniem dla osób zaczynających przygodę ze streamingiem czy montażem, zrozumienie CBR to podstawa, bo pozwala od razu uniknąć wielu irytujących problemów z transmisją.

Pytanie 2

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LF
B. LPF
C. BPF
D. HPF
Skrót LPF pochodzi od angielskiego wyrażenia Low Pass Filter, czyli filtr dolnoprzepustowy. To jedno z podstawowych i najczęściej spotykanych rozwiązań w elektronice, elektroakustyce oraz cyfrowym przetwarzaniu sygnałów. Filtry dolnoprzepustowe przepuszczają sygnały o częstotliwościach niższych od określonego progu (tzw. częstotliwości odcięcia), a tłumią te wyższe. W praktyce, takie filtry znajdziesz na przykład w zwrotnicach głośnikowych, gdzie odcinają wysokie tony dla subwoofera, w układach zasilania (eliminacja zakłóceń), czy w przetwarzaniu sygnałów analogowych i cyfrowych (redukcja szumów wysokoczęstotliwościowych). Moim zdaniem, znajomość skrótu LPF to taka absolutna podstawa – spotyka się go wszędzie, nawet w amatorskich projektach audio DIY. Warto też zauważyć, że branżowe schematy i dokumentacje techniczne zawsze operują właśnie tym oznaczeniem. Standardy IEC i IEEE również stosują LPF, więc dobrze mieć to zakodowane w głowie. Tak zupełnie szczerze, w pracy inżyniera czy technika, kiedy widzisz LPF, to od razu wiesz, że chodzi o ochronę czy czyszczenie sygnału z niechcianych, wyższych częstotliwości – no i to jest właśnie cała magia filtrów dolnoprzepustowych.

Pytanie 3

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SD
B. SD A1
C. SDHC
D. SDXC
Wybór karty SDXC to strzał w dziesiątkę, jeśli chodzi o największą pojemność. Standard SDXC (Secure Digital eXtended Capacity) to obecnie jeden z najbardziej zaawansowanych formatów kart pamięci SD, jeśli patrzymy pod kątem pojemności, bo obsługuje wartości aż do 2 TB – co, nie ukrywam, robi duże wrażenie nawet na osobach, które na co dzień pracują z dużą ilością danych. Z mojego doświadczenia, karty SDXC najczęściej wykorzystywane są w sprzęcie wymagającym dużych mocy przerobowych i sporej przestrzeni, np. w aparatach do profesjonalnego filmu, nowoczesnych lustrzankach czy rejestratorach wideo 4K. Warto pamiętać, że wybierając SDXC, zyskujesz nie tylko większą pojemność, ale i wsparcie nowocześniejszych systemów plików, jak exFAT – co ułatwia przesyłanie większych plików bez ograniczenia typowego dla FAT32. Branżowe normy jasno określają, że standard SD (do 2 GB), SDHC (do 32 GB), a dopiero SDXC zaczyna się od 32 GB wzwyż. SD A1 to specjalizacja pod kątem wydajności w aplikacjach mobilnych, ale sama pojemność nie różni jej od klasycznych SDHC czy SDXC. W praktyce, jeśli zależy Ci na przechowywaniu długich nagrań wideo, dużych bibliotek zdjęć czy plików RAW, to SDXC jest pewniakiem. Moim zdaniem, obecnie ciężko znaleźć praktyczne zastosowanie, gdzie SDXC byłoby ograniczeniem pod względem pojemności.

Pytanie 4

Ile kanałów audio stosowanych jest w reprodukcji techniką 5.1?

A. 7 kanałów.
B. 12 kanałów.
C. 6 kanałów.
D. 8 kanałów.
Technika 5.1 to obecnie jeden z najczęściej stosowanych standardów dźwięku przestrzennego, zwłaszcza w kinie domowym, grach wideo czy transmisjach telewizyjnych. Liczba „5” oznacza pięć pełnopasmowych kanałów audio: front lewy, front prawy, centralny, surround lewy oraz surround prawy. Ta konfiguracja pozwala uzyskać bardzo realistyczne wrażenie przestrzeni, gdzie dźwięki mogą być precyzyjnie przypisane do otoczenia wokół widza. Ten szósty kanał, czyli „.1”, odnosi się do kanału niskich częstotliwości LFE (Low Frequency Effects), dedykowanego subwooferowi. Dzięki temu subwoofer odtwarza głównie efekty specjalne, takie jak wybuchy czy dudnienia, wzmacniając doznania dźwiękowe. Dla mnie, jako fana kina domowego, różnicę między zwykłym stereo a 5.1 słychać od razu – szczególnie przy filmach akcji albo grach wyścigowych. Standard 5.1 został formalnie zdefiniowany przez organizacje takie jak ITU-R BS.775 oraz Dolby Digital i DTS. Warto dodać, że instalacja systemu 5.1 jest dość uniwersalna i nie wymaga bardzo zaawansowanego sprzętu, przez co jest szeroko dostępna. Rozumienie tej konfiguracji to podstawa, jeśli myślisz o pracy z dźwiękiem, bo praktycznie każdy profesjonalny system audio, czy w studio, czy w kinie, potrafi obsłużyć układ 5.1. Z mojego doświadczenia sam podział na 5+1 kanałów znacznie ułatwia miksowanie ścieżek dźwiękowych, bo pozwala lepiej rozplanować brzmienie i efekty, żeby publiczność naprawdę miała poczucie przestrzeni.

Pytanie 5

Lista oznaczona skrótem FX to lista

A. ścieżek lektorskich.
B. plików MIDI.
C. efektów specjalnych.
D. klipów.
Skrót FX w technice audio-wideo oznacza efekty specjalne (ang. effects), co jest powszechnie stosowane nie tylko w profesjonalnych studiach filmowych, ale też w prostych programach do montażu dźwięku czy obrazu. Lista FX to nic innego jak zestaw efektów, które możesz zastosować do pojedynczych klipów, ścieżek czy całych projektów. W praktyce, w programach takich jak Adobe Premiere, Cubase czy nawet DaVinci Resolve, masz specjalną zakładkę FX, gdzie wrzucasz takie rzeczy jak pogłos, korekcja barwy, echa, filtry czy bardziej zaawansowane przekształcenia obrazu. To zdecydowanie nie jest lista klipów ani plików MIDI, bo te mają osobne kategorie i oznaczenia. Spotkasz się z tym w branży praktycznie na każdym kroku – wystarczy spojrzeć na listy presetów czy gotowych łańcuchów efektów, gdzie pod FX kryją się te wszystkie „bajery”, które nadają brzmieniu lub obrazowi charakter. Moim zdaniem warto pamiętać, że dobra organizacja efektów pod FX ułatwia szybkie eksperymentowanie i workflow, a w dużych projektach bez tego można się pogubić. Profesjonaliści zawsze starają się trzymać efekty pod ręką i mieć porządek na liście FX – to po prostu ułatwia życie i przyspiesza pracę. Z mojego doświadczenia, jeśli ktoś mówi „dopisz to do FX”, wiadomo od razu, że chodzi o efekty specjalne, nie żadne lektorskie ścieżki czy MIDI. No, taka branżowa oczywistość.

Pytanie 6

Wskaż narzędzie przeznaczone do powiększania lub zmniejszania obrazu obszaru roboczego w sesji montażowej programu DAW.

A. Zoom Tool.
B. Test Tool.
C. Scissor Tool.
D. Solo Tool.
Zoom Tool to faktycznie narzędzie, które w praktycznie każdym nowoczesnym DAW umożliwia szybkie powiększanie albo zmniejszanie widoku obszaru roboczego. Moim zdaniem, to jedno z tych narzędzi, z których korzysta się niemal cały czas, zwłaszcza przy bardziej rozbudowanych projektach – czy to w Cubase, Logic Pro, Abletonie czy Pro Tools. Dzięki Zoom Tool możemy dokładnie przyjrzeć się szczegółom edytowanej ścieżki lub na odwrót: zobaczyć szerszy kontekst całego aranżu. To bardzo ważne, bo często trzeba na przykład wyłapać precyzyjnie miejsce cięcia, ustawić dokładnie punkt edycji lub znaleźć fragment, który wymaga poprawki. Używanie Zoom Toola to nie tylko wygoda, ale też oszczędność czasu – nie musisz przewijać ani gubić się w gąszczu ścieżek. W branży standardem jest szybkie przełączanie się pomiędzy różnymi zakresami widoku, zwłaszcza przy pracy na wielu ścieżkach lub dużej liczbie klipów. Dobrą praktyką jest również łączenie Zoom Tool z funkcjami skrótów klawiaturowych, bo pozwala to jeszcze szybciej reagować na potrzeby projektu. Warto pamiętać, że niektóre DAWy pozwalają nawet na tworzenie własnych presetów powiększenia, co dodatkowo usprawnia workflow. Z mojego doświadczenia – im sprawniej opanujesz obsługę Zoom Toola, tym płynniej i efektywniej pójdzie ci każda sesja montażowa.

Pytanie 7

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Lock
C. Mute
D. Split
Wyciszenie (Mute) regionu w programie DAW to podstawa codziennej pracy producenta czy realizatora dźwięku. To właśnie ta funkcja pozwala na szybkie wyłączenie z odtwarzania konkretnego fragmentu materiału – bez potrzeby jego usuwania czy przesuwania. Bardzo często wykorzystuje się to podczas aranżacji piosenki, kiedy eksperymentujemy z różnymi kombinacjami ścieżek, chcąc np. sprawdzić, jak utwór zabrzmi bez wybranego instrumentu lub wokalu w danym fragmencie. Z mojego doświadczenia, mute jest też niezastąpiony przy edycji nagrań – jeśli trafia się fragment z jakimś błędem lub niepożądanym dźwiękiem, wyciszenie regionu pozwala szybko zapanować nad chaosem i skupić się na właściwej części projektu. Branżowe standardy jasno wskazują, że użycie mute jest bezpieczniejsze niż kasowanie, bo umożliwia cofnięcie decyzji w każdej chwili. Bardzo polecam korzystać z tego narzędzia zamiast pochopnego kasowania klipów – można potem wrócić do oryginału, jeśli koncepcja się zmieni. W praktyce większość DAW-ów (np. Cubase, Logic, Pro Tools) pozwala wyciszyć pojedyncze regiony, a nie tylko całe ścieżki, więc rozwiązanie jest bardzo elastyczne. Warto też pamiętać, że domyślny skrót do mute różni się między programami, więc dobrze sobie to skonfigurować, by nie tracić czasu w pracy.

Pytanie 8

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. FILE
B. EDIT
C. SESSION
D. I/O
Sekcja I/O w oprogramowaniu DAW (czyli Input/Output) to absolutna podstawa, jeśli chodzi o komunikację z zewnętrznymi urządzeniami audio, zwłaszcza kartami dźwiękowymi. To właśnie tutaj użytkownik może określić, które wejścia i wyjścia fizyczne z karty dźwiękowej będą wykorzystywane przez projekt – na przykład wybierając konkretne wejście mikrofonowe czy liniowe do nagrania wokalu lub gitary. W praktyce, kiedy masz kilka mikrofonów albo chcesz jednocześnie nagrywać różne instrumenty, konfiguracja I/O pozwala przypisać osobne ścieżki do konkretnych portów, co mocno ułatwia pracę na większych sesjach. Samo ustawienie sterowników ASIO, wybór częstotliwości próbkowania czy rozdzielczości bitowej – to już bardziej globalne opcje, ale routing I/O to jest codzienność każdego, kto pracuje z zewnętrznym sprzętem audio. Moim zdaniem, jeśli ktoś chce uniknąć problemów z nagrywaniem lub odtwarzaniem dźwięku, to naprawdę warto dobrze poznać tę sekcję i umiejętnie z niej korzystać. Do tego, większość DAW-ów (np. Pro Tools, Cubase, Ableton Live) promuje dobre praktyki organizacji wejść i wyjść właśnie przez czytelną mapę I/O, co znacznie zwiększa przejrzystość sesji i minimalizuje ryzyko pomyłek przy większych projektach.

Pytanie 9

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Music Player.
B. Audacity.
C. Samplitude.
D. Windows Media Player.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 10

Który z wymienionych rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji programu DAW?

A. 64 próbki.
B. 256 próbek.
C. 32 próbki.
D. 128 próbek.
Wybranie bufora o rozmiarze 32 próbek to zdecydowanie najbardziej sensowna opcja, jeśli zależy nam na absolutnie minimalnej latencji podczas nagrywania dźwięku w DAW. Mówiąc wprost, im mniejszy bufor, tym krótszy czas oczekiwania na reakcję systemu – sygnał praktycznie od razu trafia z wejścia audio do wyjścia. To kluczowe dla wokalistów, instrumentalistów czy live performerów, gdzie nawet drobne opóźnienie potrafi totalnie wybić z rytmu. W środowiskach profesjonalnych, np. w studiach nagraniowych, standardem jest schodzenie do najniższych możliwych wartości, często właśnie na poziomie 32 czy 64 próbek, jeśli tylko sprzęt na to pozwala. Oczywiście, taki bufor zwiększa obciążenie procesora – tutaj już trzeba mieć porządną kartę dźwiękową i stabilne sterowniki, np. ASIO w Windows czy Core Audio na Macu. Z mojego doświadczenia: przy nagraniach w domowych warunkach też warto próbować zejść jak najniżej, byleby nie pojawiały się trzaski, dropy czy inne artefakty. Moim zdaniem to taki złoty standard dla tych, którym zależy na responsywności DAW podczas nagrywania na żywo. W materiałach firm takich jak Steinberg, Ableton czy Avid znajdziesz potwierdzenie, że to właśnie minimalizacja bufora daje najbardziej naturalne wrażenia podczas nagrania. Warto pamiętać, że później przy miksie czy masteringu można podnieść bufor, bo wtedy liczy się wydajność, nie latencja.

Pytanie 11

Który z folderów zawiera pliki regionów dźwiękowych sesji DAW?

A. Session File Backups
B. Plug-In Settings
C. Audio Files
D. Fades Files
Folder 'Audio Files' to naprawdę kluczowe miejsce w każdym projekcie DAW, szczególnie jeśli pracujesz na systemach typu Pro Tools, Logic Pro czy Cubase. W tym folderze przechowywane są wszystkie surowe pliki audio, czyli tzw. regiony dźwiękowe, które potem układasz w aranżacji. To trochę jak magazyn dla Twoich nagrań i importowanych sampli – cokolwiek wrzucisz na ścieżkę audio, ląduje właśnie tutaj. Co ciekawe, nawet jeśli pracujesz na podziałach, kopiuj-wklejasz fragmenty czy eksportujesz segmenty, źródłem zawsze będą pliki z tego folderu. Branżowy standard mówi jasno: porządek w folderze 'Audio Files' to podstawa, zwłaszcza kiedy przenosisz sesję między komputerami albo wysyłasz projekt do współpracy. Moim zdaniem, pilnowanie tych plików to takie DAW-owe BHP – jak się coś zgubi, to potem zaczynają się kłopoty z brakującymi ścieżkami. Praktycznie każda profesjonalna sesja zapisuje ścieżki audio w tym jednym miejscu, żeby unikać bałaganu. Dobrą praktyką jest nie przenosić ręcznie tych plików i nie edytować ich poza DAW, bo można łatwo popsuć całą strukturę projektu. Z mojego doświadczenia, kiedy archiwizujesz sesję – warto zawsze sprawdzić, czy folder 'Audio Files' zawiera wszystko, co być powinno. To taki fundament workflow w każdej poważnej pracy z dźwiękiem.

Pytanie 12

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. grup.
B. znaczników.
C. regionów.
D. ścieżek.
W przypadku pracy z materiałem dźwiękowym w sesji DAW, korzystanie ze znaczników (ang. markers) to naprawdę jeden z kluczowych elementów sprawnej organizacji projektu. Znaczniki pozwalają na bardzo szybkie i precyzyjne odnalezienie konkretnych miejsc na osi czasu — na przykład punktów cięcia, miejsc wejścia instrumentów czy ważnych fragmentów aranżacji. W praktyce, gdy projekt staje się skomplikowany, a liczba ścieżek i edytowanych fragmentów rośnie, bez markerów łatwo się pogubić. Moim zdaniem, większość realizatorów dźwięku i producentów, których znam, stosuje znaczniki przy niemal każdej większej sesji – to już taki standard branżowy, trochę jak nawyk zapisywania projektu co chwilę. Warto wiedzieć, że w większości profesjonalnych DAW, takich jak Cubase, Pro Tools czy Logic, znaczniki można nie tylko szybko wstawiać, ale też nazywać i kolorować, dzięki czemu jeszcze łatwiej ogarnąć duże formy muzyczne albo materiały do postprodukcji. To nie tylko przyspiesza montaż, ale też minimalizuje ryzyko błędów przy intensywnych edycjach. Osobiście nie wyobrażam sobie montażu podcastu czy miksu rozbudowanego utworu bez sensownie poustawianych markerów. Warto się tego nauczyć i korzystać regularnie – to na dłuższą metę oszczędza czas i nerwy. W branży, gdzie liczy się workflow i szybkość reakcji, dobre oznaczanie kluczowych miejsc na osi czasu to podstawa.

Pytanie 13

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.riff
B. *.aiff
C. *.mp3
D. *.wav
Kodek LAME jest bardzo popularny w środowisku audio, szczególnie jeśli chodzi o tworzenie plików w formacie MP3. To właśnie LAME odpowiada za kodowanie dźwięku do tego formatu, wykorzystując kompresję stratną, czyli umożliwiając znaczne zmniejszenie rozmiaru pliku przy minimalnej utracie jakości (oczywiście zależy też od ustawionych parametrów bitrate). MP3 to obecnie jeden z najbardziej rozpoznawalnych i najczęściej używanych formatów audio na całym świecie – spotykamy go zarówno w odtwarzaczach muzycznych, telefonach, jak i radiu internetowym. LAME jest otwartoźródłowym kodekiem i często jest wykorzystywany przez różne aplikacje do konwersji plików audio z formatu WAV czy AIFF właśnie do plików MP3. W branży muzycznej, szczególnie przy przygotowywaniu podkładów lub dystrybucji muzyki w sieci, konwersja do MP3 jest standardową praktyką – pozwala to na szybkie udostępnianie utworów bez zajmowania zbyt dużo miejsca na serwerze lub dysku użytkownika. Z mojego doświadczenia warto pamiętać, że LAME pozwala na wybór różnych ustawień kompresji, a więc można balansować pomiędzy jakością dźwięku a wielkością pliku. W praktyce, jeśli ktoś ma do czynienia z montażem lub produkcją audio, LAME staje się nieodzownym narzędziem, właśnie ze względu na wsparcie dla plików .mp3. Żaden z pozostałych wymienionych formatów nie jest docelowym wyjściem dla LAME – to właśnie MP3 jest tym, co wyróżnia ten kodek na tle innych.

Pytanie 14

W której z wymienionych wartości tempa czas trwania oznaczonej wartości rytmicznej wynosi 500 ms?

A. 100 BPM
B. 120 BPM
C. 140 BPM
D. 160 BPM
Tempo 120 BPM oznacza, że w jednej minucie przypada dokładnie 120 uderzeń, a więc każde uderzenie trwa 0,5 sekundy, czyli 500 ms. Moim zdaniem to jedna z tych rzeczy, które warto umieć szybko policzyć, bo przy pracy z metronomem czy edycji MIDI w DAW-ach ciągle się to przydaje. W praktyce, jeśli na przykład ustawiasz w sekwencerze tempo 120 BPM, to półnuty będą trwały sekundę, ćwierćnuty – pół sekundy, a ósemki – 250 ms. To daje dużą precyzję, zwłaszcza gdy trzeba zsynchronizować efekty świetlne z beatem albo automatyzować parametry dźwięku pod konkretną długość taktu. Standardowo tempo 120 BPM jest też często wykorzystywane w muzyce popularnej i elektronicznej, właśnie ze względu na łatwość dzielenia wartości rytmicznych. W branży stosuje się proste kalkulatory BPM, ale warto umieć to policzyć samemu: czas trwania ćwierćnuty = 60 000 ms / BPM, więc przy 120 BPM mamy dokładnie 500 ms. Takie tempo daje sporo elastyczności przy aranżacji różnych gatunków – od popu przez EDM aż po rock.

Pytanie 15

Proces zmiany częstotliwości próbkowania dźwięku to

A. kompresja.
B. konwersja.
C. korekcja.
D. kompensacja.
Proces zmiany częstotliwości próbkowania dźwięku fachowo nazywamy konwersją, a konkretnie – konwersją częstotliwości próbkowania, po angielsku sample rate conversion. To jest bardzo ważne w obróbce audio, zwłaszcza jeśli nagrania z różnych źródeł mają być zintegrowane w jednym projekcie czy miksie. Na przykład, jeśli masz plik nagrany w 44,1 kHz, a chcesz go użyć w projekcie, który bazuje na 48 kHz – musisz wykonać konwersję. W profesjonalnych programach DAW (Digital Audio Workstation) są do tego wyspecjalizowane algorytmy. Warto podkreślić, że dobrze przeprowadzona konwersja zachowuje maksymalną jakość sygnału i nie wprowadza zniekształceń typu aliasing. W branży audio stosuje się do tego np. algorytmy sinc interpolation lub asynchroniczne konwertery SRC. Warto pamiętać, że konwersja próbkowania nie jest tym samym co kompresja, bo tu nie chodzi o zmniejszenie rozmiaru pliku, tylko o dostosowanie parametrów technicznych sygnału do wymagań sprzętu lub projektu. Z mojego doświadczenia, bardzo ważne jest, żeby nie robić tego „byle czym”, bo słabe algorytmy potrafią bardzo zepsuć brzmienie – profesjonalne narzędzia od iZotope czy r8brain są tu w czołówce. Takie podejście jest zgodne z najlepszymi praktykami produkcji audio i masteringu.

Pytanie 16

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. LPF
B. High Shelf
C. HPF
D. Comb Filter
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 17

Która z wymienionych funkcji w programie DAW standardowo umożliwia płynne przejście między dwoma sąsiadującymi regionami umieszczonymi na ścieżce w sesji montażowej?

A. Select
B. Split
C. Group
D. Crossfade
Crossfade to jedna z tych funkcji w DAW, których praktycznie nie da się zastąpić niczym innym, jeśli zależy Ci na płynnym, naturalnym połączeniu dwóch fragmentów audio lub MIDI na jednej ścieżce. Działa to tak, że na styku dwóch regionów program automatycznie tworzy nakładające się wyciszenie (fade out) i narastanie (fade in), przez co dźwięki nie urywają się gwałtownie, nie słychać charakterystycznych kliknięć i artefaktów. To podstawa przy montażu np. wokali czy gitar – bez crossfade'ów każda zmiana nagrania jest jak nożyczki, które tną bez litości. W praktyce wystarczy zaznaczyć dwa sąsiadujące regiony i wybrać opcję crossfade, a DAW zrobi resztę za nas. W większości programów jak Cubase, Pro Tools, Studio One, ta funkcja jest dostępna praktycznie od ręki – branżowy standard i nie wyobrażam sobie sensownego montażu bez niej. Warto też wiedzieć, że można edytować kształt przejścia (np. liniowe, logarytmiczne), co daje ogromną kontrolę nad brzmieniem. Moim zdaniem osoby, które opanowały crossfade'y, popełniają mniej błędów montażowych, a ich produkcje brzmią po prostu bardziej profesjonalnie. Warto się tym bawić i eksperymentować nawet na prostych projektach, bo to narzędzie, które oszczędza mnóstwo czasu i nerwów.

Pytanie 18

Która z podanych funkcji oprogramowania DAW służy do utworzenia nowej sesji montażowej?

A. New
B. Open
C. Load
D. Import
Wybór funkcji „New” jest podstawą pracy w każdym nowoczesnym DAW-ie, no bo właśnie ona służy do rozpoczęcia nowej sesji montażowej. Kiedy chcesz zacząć świeży projekt – czy to utwór, czy podcast albo jakiekolwiek nagranie – zawsze szukasz tej opcji. W branży to już praktycznie standard, że funkcja „New” odpowiada za tworzenie pustej sesji, w której od podstaw możesz budować aranżację, importować ślady, ustawiać tempo czy nawet konfigurować routing. Moim zdaniem bardzo fajne jest to, że każdy DAW – od Pro Tools, przez Abletona, aż po Cubase – trzyma się tego schematu, więc nie gubisz się, nawet zmieniając program. Dla wielu realizatorów czy producentów to codzienność: uruchamiasz DAW, klikasz „New” i masz czyste pole do pracy twórczej. Warto też pamiętać, że robienie nowej sesji od zera to dobra praktyka, bo chroni przed bałaganem i przypadkowymi zmianami w starych projektach. Czasem nawet branżowe workflow zakłada, żeby każdy klient czy projekt miał swoją dedykowaną sesję, co ułatwia zarządzanie plikami i backup. Z mojego doświadczenia, korzystanie z opcji „New” pozwala lepiej zorganizować pracę, a potem szybciej wrócić do konkretnego projektu bez stresu, że coś się pomieszało. Niby taka prosta opcja, a jednak kluczowa dla profesjonalnej produkcji dźwiękowej.

Pytanie 19

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
B. obniżanie poziomu nagrania.
C. degradację wyłącznie wysokich częstotliwości.
D. sukcesywny spadek dynamiki nagrania.
To jest właśnie ta kluczowa rzecz związana z kopiowaniem analogowych nagrań – fizyka nie daje tutaj taryfy ulgowej. Przy każdym kolejnym kopiowaniu nagrania analogowego zawsze pojawia się pogorszenie jakości. Przede wszystkim dochodzi do ograniczenia pasma przenoszenia, czyli oryginalnie szeroki zakres częstotliwości zaczyna się zawężać. Głównie ucierpią wysokie tony, ale nie tylko – ogólnie całe spektrum robi się jakby bardziej 'ściśnięte'. Co ważne, z każdym kolejnym kopiowaniem szumy własne urządzenia rosną. Czyli po prostu – powstaje coraz więcej niechcianych dźwięków, które nie były częścią oryginalnego materiału. Właśnie dlatego w profesjonalnych studiach dźwiękowych od zawsze tak pilnowano ilości generacji taśm – im mniej pośrednich kopii, tym lepiej. Moim zdaniem to jeden z głównych powodów, dla których branża tak mocno przeskoczyła na cyfrowe systemy – tam kopiowanie nie wpływa na jakość. W praktyce, jeśli zdarzyło Ci się słuchać starej kasety kopiowanej kilka razy, wiesz o co chodzi – dźwięk robi się matowy i szumiący, a czasami nie da się już tego słuchać. Branżowe normy (np. IEC, AES) jasno podkreślają, że kopiowanie analogowe zawsze naraża sygnał na degradację. Staraj się więc – jeśli już musisz kopiować analogowo – ograniczać ilość takich operacji do minimum lub korzystać z wysokiej klasy urządzeń, żeby te straty były jak najmniejsze.

Pytanie 20

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. promieniowania ultrafioletowego.
B. wilgotności powietrza.
C. pola magnetycznego.
D. pola elektrostatycznego.
Promieniowanie ultrafioletowe rzeczywiście jest jednym z największych zagrożeń dla nośników optycznych, takich jak płyty CD. Wynika to z faktu, że promieniowanie UV stopniowo degraduje warstwę poliwęglanową oraz barwnik, którym pokryta jest płyta. Efektem tego jest utrata integralności danych zapisanych na dysku, co w praktyce może oznaczać nieczytelność plików lub całkowitą utratę danych. Od lat w branży informatycznej mówi się, żeby płyty przechowywać w ciemnych miejscach, najlepiej w pudełkach, osłonięte przed światłem słonecznym i lampami UV. To nie jest czcza teoria – liczne testy pokazały, że nawet kilkugodzinne wystawienie płyty na bezpośrednie słońce może sprawić, że stanie się ona bezużyteczna. Moim zdaniem niewiele osób zdaje sobie sprawę, że zwykła żarówka LED nie stanowi zagrożenia, ale już świetlówki czasem emitują pewną ilość UV, która na przestrzeni lat może zaszkodzić nośnikowi. Branża zaleca też przechowywanie płyt w pozycji pionowej, w miejscu suchym i chłodnym, ale to właśnie ochrona przed UV jest absolutnym priorytetem. Pamiętaj, że nawet najnowocześniejsze płyty z powłoką ochronną nie są stuprocentowo odporne – UV robi swoje. To dlatego archiwa cyfrowe czy muzea mają specjalne, zaciemnione pomieszczenia na nośniki optyczne. Takie są realia, jeśli myślisz o długoterminowym przechowywaniu danych.

Pytanie 21

Aby zarchiwizować sesję programu DAW, należy zachować

A. skopiowane pliki dźwiękowe.
B. skopiowany plik sesji.
C. skopiowane ustawienia wtyczek efektowych oraz pliki dźwiękowe.
D. skopiowany plik sesji oraz skopiowane pliki dźwiękowe.
Właśnie na tym polega solidne archiwizowanie sesji DAW – trzeba zabezpieczyć zarówno plik projektu (czyli plik sesji), jak i wszystkie użyte w nim pliki dźwiękowe. Sam plik sesji zawiera tylko ustawienia, ścieżki, automatyzacje, rozstawienie klipów czy wtyczki, ale nie przechowuje w sobie bezpośrednio wygenerowanych lub zaimportowanych plików audio. Bez plików audio sesja będzie po prostu pusta lub wyświetli błędy brakujących plików. Z mojego doświadczenia, szczególnie jeśli planujesz przenieść projekt na inny komputer, oddać komuś do miksu lub zarchiwizować na lata, zawsze warto korzystać z opcji typu "Zapisz jako nowy folder" albo "Collect and Save" (różnie to się nazywa w różnych DAW-ach). Wtedy program sam kopiuje całą zawartość projektu razem z wszystkimi plikami audio do jednego miejsca. To naprawdę ratuje skórę, gdy po kilku miesiącach chcesz wrócić do starego projektu, a dysk już wygląda zupełnie inaczej. Co więcej, w branży muzycznej jest to praktyka absolutnie podstawowa – archiwum bez kompletu plików dźwiękowych to właściwie bezużyteczny zbiór ustawień. No i zawsze warto robić kopie zapasowe, bo awarie dysków nie pytają o pozwolenie, serio.

Pytanie 22

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W znacznikach.
B. W skrypcie.
C. W komentarzu reżyserskim.
D. W harmonogramie produkcji.
Za docelowe nazwy plików dźwiękowych w projekcie multimedialnym najczęściej odpowiada właśnie skrypt. Chodzi tu oczywiście o scenariusz techniczny lub plik kontrolujący, w którym precyzyjnie opisuje się, jakie ścieżki dźwiękowe, efekty czy dialogi powinny znaleźć się w finalnej wersji produktu. Skrypt jest podstawą komunikacji między dźwiękowcem, montażystą a resztą zespołu produkcyjnego. Z mojego doświadczenia wynika, że dobrze napisany skrypt zawiera nie tylko nazwy techniczne plików, ale także szczegóły dotyczące momentów użycia tych dźwięków, czasami nawet format czy dokładną lokalizację na serwerze produkcyjnym. Mało kto o tym pamięta, ale stosując takie podejście zgodnie z praktykami branżowymi (np. przy pracy w środowiskach postprodukcyjnych typu Pro Tools czy Adobe Audition), łatwiej zachować porządek i unikać bałaganu w archiwum projektu. W dużych zespołach, zwłaszcza przy projektach filmowych czy grach, jasna dokumentacja w skrypcie to oszczędność setek godzin późniejszego szukania plików. Warto też dodać, że standardy branżowe zalecają wersjonowanie i stosowanie jasnych, logicznych nazw, a to wszystko można ustalić właśnie w skrypcie na samym początku pracy. Takie planowanie to po prostu zdrowy rozsądek i mniej stresu na deadline.

Pytanie 23

Która z wymienionych kart charakteryzuje się największą pojemnością maksymalną?

A. SDXC
B. SD
C. SDHC
D. SD A1
SDXC to obecnie najnowocześniejszy i najbardziej pojemny standard kart pamięci z rodziny Secure Digital. Co ciekawe, SDXC (czyli Secure Digital eXtended Capacity) pozwala na przechowywanie danych o pojemności od 32 GB do aż 2 TB, co jest ogromną różnicą w porównaniu do starszych rozwiązań takich jak SD czy SDHC. Moim zdaniem, praktyczne zastosowania SDXC są już wszędzie – od nowoczesnych kamer 4K, przez profesjonalne aparaty fotograficzne, aż do laptopów i konsol do gier. W branży multimedialnej to właściwie standard, bo duże pliki wideo, wysokiej rozdzielczości zdjęcia czy nawet gry potrzebują takiej pojemności. Warto też pamiętać, że SDXC wykorzystuje system plików exFAT, który nie ma ograniczeń co do rozmiaru pojedynczego pliku, w przeciwieństwie do FAT32 używanego w SDHC. W praktyce oznacza to, że można wrzucać pliki większe niż 4 GB bez żadnych kombinacji. Dobrą praktyką jest sprawdzanie, czy sprzęt obsługuje ten standard – starsze urządzenia często nie rozpoznają SDXC, bo wymagają nowszego firmware’u albo są po prostu ograniczone do SD lub SDHC. Z mojego doświadczenia wynika, że inwestycja w SDXC to rozsądny wybór na przyszłość, szczególnie jeśli ktoś planuje rozbudowę aparatu czy kamery, żeby nie martwić się o brak miejsca. Tak w skrócie, to właśnie dlatego SDXC wygrywa pod kątem maksymalnej pojemności.

Pytanie 24

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji barwy.
B. Po korekcji dynamiki.
C. Bez korekcji barwy i dynamiki.
D. Po korekcji barwy i dynamiki.
To jest właśnie to, o co chodzi w profesjonalnej pracy z dźwiękiem. Zapis sygnału na wielośladzie bez żadnej korekcji barwy ani dynamiki to podstawa, bo daje największą elastyczność podczas późniejszej obróbki. Moim zdaniem, to jak zostawiasz sobie otwartą furtkę na etapie miksu: masz czysty, nieprzetworzony surowiec i możesz z nim zrobić wszystko, co tylko przyjdzie Ci do głowy. Branżowa praktyka pokazuje, że wszelkie korekcje – czy to EQ, czy kompresja – wprowadzone zbyt wcześnie często są nieodwracalne. Jak coś przetniesz albo skompresujesz już w trakcie nagrań, potem nie da się tego „cofnąć”, a to utrudnia pracę przy miksowaniu. Standardy studyjne są tutaj jednoznaczne – inżynierowie dźwięku trzymają się zasady, żeby nagrywać sygnał jak najczystszy, bez dodatkowych ingerencji. Oczywiście, są wyjątki, na przykład kiedy chcesz zachować konkretny charakter brzmienia z używanego urządzenia czy efektu – wtedy czasem warto coś dodać przy nagraniu. Ale w większości sytuacji to właśnie nieprzetworzony sygnał daje najwięcej możliwości. Tak robią zawodowcy w studiach nagraniowych, gdzie każdy etap obróbki jest przemyślany i możliwy do dopasowania do końcowej wizji brzmieniowej.

Pytanie 25

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Wibrato.
B. Tremolo.
C. Reverb.
D. Pitchshifter.
Reverb to procesor, który faktycznie umożliwia zmianę właściwości przestrzennych nagrania – nic dziwnego, że stosuje się go praktycznie w każdym profesjonalnym miksie. Jego główną rolą jest symulacja pogłosu, czyli tego, jak dźwięk rozchodzi się i odbija w różnych pomieszczeniach: od małych pokojów aż po wielkie sale koncertowe. Dzięki temu możesz „osadzić” instrument albo wokal w określonej przestrzeni, przez co nagranie brzmi bardziej naturalnie, głębiej, czasem wręcz kinowo. W praktyce inżynierowie dźwięku wykorzystują reverb do uzyskania efektu odległości – można sprawić, że wokal stanie się jakby dalszy, a perkusja trafi „na tyły” miksu. To też jeden z podstawowych sposobów na rozdzielanie planów dźwiękowych w miksie, zgodnie z dobrymi praktykami produkcji muzycznej. Takie podejście jest zgodne z klasycznymi technikami stosowanymi w studiach nagraniowych od lat, gdzie reverb pozwala na kreatywne kształtowanie przestrzeni dźwięku. Moim zdaniem, umiejętne użycie pogłosu to jedna z kluczowych umiejętności realizatora – łatwo z tym przesadzić, ale bez tego miks często wydaje się suchy lub nienaturalny. Warto eksperymentować z różnymi typami reverbów: sprężynowy, płytowy, algorytmiczny czy konwolucyjny – każdy daje inne, ciekawe efekty. No i – dla porządku – reverb to jeden z niewielu efektów, które rzeczywiście ingerują w poczucie przestrzenności nagrania, a nie tylko w barwę czy wysokość dźwięku.

Pytanie 26

Charakterystyczne punkty na osi czasu w sesji oprogramowania DAW oznaczyć można za pomocą

A. punktorów.
B. znaczników.
C. taktów.
D. tagów.
To właśnie znaczniki są podstawowym narzędziem do oznaczania charakterystycznych punktów na osi czasu w sesji DAW (Digital Audio Workstation). W praktyce, znaczniki pozwalają szybko zaznaczyć istotne fragmenty projektu, np. wejścia refrenu, przejścia między zwrotkami czy miejsca do edycji, bez konieczności przewijania całej sesji. Moim zdaniem, korzystanie ze znaczników to rzecz absolutnie niezbędna nie tylko przy większych produkcjach, ale nawet przy prostych projektach – szukanie danego miejsca w długim nagraniu bez znaczników to istna katorga. Profesjonaliści zawsze polecają, żeby już na etapie nagrywania czy aranżowania umieszczać znaczniki wszędzie tam, gdzie pojawia się coś wartego uwagi: zmiana tempa, wejście nowego instrumentu, a nawet wskazówki dla miksu („tu zrobić fade-out”, „tutaj rozbić wokal na stereo”). Większość DAW-ów, jak Ableton Live, Cubase, FL Studio czy Pro Tools, domyślnie wspiera funkcję znaczników (ang. markerów), bo to już standard branżowy. Umożliwia to sprawną komunikację w zespole oraz pozwala zachować porządek w projekcie, co później bardzo przyspiesza wszelkie poprawki i edycje. Szczerze, nie znam praktyka, który by ignorował znaczniki – to taki must-have w codziennej pracy z DAW.

Pytanie 27

W jakim celu normalizuje się pliki dźwiękowe?

A. Wyrównania pików nagrania do tej samej wartości.
B. Ustalenia minimalnego poziomu nagrania.
C. Ustalenia maksymalnego poziomu nagrania.
D. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
Często spotykam się z nieporozumieniami dotyczącymi normalizacji dźwięku, zwłaszcza jeśli chodzi o to, co dokładnie jest jej celem. Wiele osób błędnie zakłada, że normalizacja wyrównuje piki nagrania do tej samej wartości. W rzeczywistości normalizacja ustawia jedynie globalny, maksymalny poziom sygnału, nie zaś poziomy poszczególnych pików w różnych miejscach nagrania. To już zadanie limiterów czy narzędzi do kompresji – one potrafią bardziej „wygładzić” nierówności w sygnale. Z drugiej strony niektórzy sądzą, że normalizacja to ustalanie minimalnego poziomu nagrania. To też nie jest prawda – minimalny poziom nie ma znaczenia, bo liczy się szczyt (peak) sygnału. Ustalanie minimalnego poziomu mogłoby prowadzić do sztucznego podnoszenia ciszy tła, co kończy się szumami i ogólnym pogorszeniem jakości. Równie często pojawia się przekonanie, że normalizacja służy do wyrównania poziomu głośności poszczególnych fragmentów nagrania. Takie działanie wymagałoby zastosowania automatyzacji głośności lub kompresji dynamiki, które są dużo bardziej zaawansowanymi procesami, analizującymi zmiany sygnału w czasie i reagującymi na nie. Normalizacja działa na całym pliku jako całości, biorąc pod uwagę tylko jego najsilniejszy fragment. Moim zdaniem to najczęstszy błąd – mylić normalizację z procesami, które wpływają na dynamikę czy głośność w poszczególnych miejscach ścieżki. Branżowe standardy, np. zalecenia EBU R128 czy AES, jasno rozdzielają te pojęcia. Podsumowując: normalizacja ustala maksymalny poziom sygnału w pliku, a nie koryguje różnic między poszczególnymi fragmentami ani nie ustawia wartości minimalnej.

Pytanie 28

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.oem
B. *.edl
C. *.fls
D. *.ldm
Format pliku *.edl oznacza „Edit Decision List” i jest to absolutny standard w postprodukcji filmowej od wielu lat. Taki plik zawiera dokładny zapis decyzji montażowych – czyli instrukcje, które fragmenty klipów wideo i audio mają być połączone, w jakiej kolejności, z jakimi przejściami i na jakiej osi czasu. Moim zdaniem EDL to taki cyfrowy „przepis” na montaż, który pozwala przenosić projekt pomiędzy różnymi systemami montażowymi, np. Adobe Premiere, Avid, DaVinci Resolve czy Final Cut Pro. Dużą zaletą EDL jest jego prostota i uniwersalność – można go łatwo edytować zwykłym edytorem tekstu, bo to zwykły plik tekstowy, nie żaden skomplikowany binarny format. W praktyce wygląda to tak, że reżyser i montażysta pracują nad projektem, a potem eksportują EDL, żeby wymienić się efektami pracy z dźwiękowcem czy coloristą. Często spotykałem się z sytuacją, gdzie tylko dzięki EDL-owi można było odzyskać czy przemapować cały montaż na innym komputerze czy w innym programie. Dla osób pracujących w branży filmowej, znajomość EDL i jego możliwości to po prostu podstawa. Warto też dodać, że choć istnieją nowsze formaty, takie jak XML czy AAF, to EDL wciąż pozostaje niezastąpionym narzędziem przy szybkiej wymianie montażu, szczególnie w środowiskach, gdzie liczy się kompatybilność i niezawodność.

Pytanie 29

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik w formacie MP3.
B. plik w formacie MP3 oraz plik odszumiony.
C. plik o parametrach 44.1 kHz/16 bit.
D. plik o parametrach 48 kHz/16 bit.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 30

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. AUX
B. AUDIO
C. INSTRUMENT
D. MASTER
MASTER to absolutnie kluczowa ścieżka w każdej sesji DAW, bo to właśnie ona działa jako główna szyna stereo miksu – taka ostatnia prosta, przez którą przechodzi cały sygnał audio, zanim trafi na głośniki albo zostanie wyeksportowany do pliku. W praktyce, kiedy miksujesz utwór, wszystkie ścieżki (audio, instrumenty, grupy, AUX-y itd.) sumują się właśnie na torze MASTER. To rozwiązanie nie wzięło się znikąd – podobnie działa to w fizycznych stołach mikserskich, gdzie masz tzw. sumę główną (main out) i to ona leci do systemu odsłuchowego lub nagrywania finalnego. Z mojego doświadczenia, nawet jeśli nie zaglądasz do tej ścieżki za każdym razem, warto pamiętać, że wszelkie efekty typu limiter, kompresor czy masteringowe EQ najlepiej umieścić właśnie tutaj. To też miejsce, gdzie najwygodniej kontrolować poziom końcowy miksu, żeby nie przesterować sygnału. W większości DAW-ów MASTER jest ustawiony domyślnie jako wyjście główne i nie trzeba tego ruszać, chyba że eksperymentujesz z routingiem. Fajne jest też to, że MASTER daje możliwość szybkiego sprawdzenia, jak miks brzmi po zgraniu, bez konieczności renderowania do pliku. Moim zdaniem, opanowanie pracy z tą ścieżką to absolutna podstawa dla każdego, kto chce produkować muzykę na przyzwoitym poziomie.

Pytanie 31

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Kaseta CC.
B. Dysk M.O.
C. Płyta DVD.
D. Kaseta DAT.
Wybór płyty DVD jako nośnika odpornego na silne pole magnetyczne to strzał w dziesiątkę. DVD to nośnik optyczny, na którym dane zapisywane są za pomocą wiązki lasera. Co ważne, zasada działania dysków optycznych sprawia, że nie są one podatne na wpływ zewnętrznego pola magnetycznego. Cały zapis opiera się na fizycznych zmianach struktury warstw poliwęglanowych i barwników, z których zbudowana jest płyta, a nie na orientacji domen magnetycznych jak w kasetach czy klasycznych dyskach magnetycznych. W praktyce oznacza to, że nawet dość silne pole magnetyczne nie wpłynie negatywnie na integralność zapisanych danych. Jest to bardzo istotne w branżach, gdzie bezpieczeństwo przechowywania informacji ma kluczowe znaczenie, np. w archiwizacji, edukacji, sądownictwie czy szpitalach. Często właśnie z tego powodu instytucje przechowujące wrażliwe dane decydują się na backupy na płytach DVD. Moim zdaniem warto też pamiętać, że choć DVD jest odporne na pole magnetyczne, to trzeba je chronić przed zarysowaniami i wysoką temperaturą, bo to już inna bajka. Ale jeśli chodzi o zabezpieczenie przed magnesem – żaden z magnetycznych nośników nie ma z DVD szans. Takie rozwiązania są zgodne z dobrymi praktykami branżowymi, np. ISO/IEC 27040 wskazuje właśnie na odporność nośników optycznych na czynniki elektromagnetyczne.

Pytanie 32

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 2 ścieżki.
D. 3 ścieżki.
W przypadku nagrania chóru z użyciem techniki XY oraz dwóch mikrofonów podpórkowych, przygotowanie czterech monofonicznych ścieżek w sesji DAW to absolutna podstawa, żeby zachować pełną kontrolę nad całością materiału podczas miksu. Technika XY polega na ustawieniu dwóch mikrofonów o charakterystyce kardioidalnej pod kątem 90 stopni względem siebie, co daje stereo, ale każda kapsuła to osobny sygnał, więc już na starcie potrzebujemy dwóch ścieżek dla XY. Mikrofony podpórkowe, często nazywane spotami lub mikrofonami sekcyjnymi, również rejestrują niezależne ślady – najczęściej służą do podkreślenia sekcji lub solistów. W sumie daje to cztery ścieżki: dwa kanały z XY i dwa z mikrofonów podpórkowych. Moim zdaniem, nie da się tego zrobić sensownie na mniejszej liczbie ścieżek bez utraty kontroli, szczególnie jeśli chodzi o panoramowanie, obróbkę dynamiki czy ewentualne kompensacje fazowe. Takie podejście pozwala na swobodny balans pomiędzy ogólnym brzmieniem chóru uchwyconym techniką stereo a detalem uzyskanym z mikrofonów spotowych. Praktyka studyjna pokazuje, że profesjonalne produkcje zawsze rozdzielają te ślady, bo potem łatwiej jest korygować proporcje, efekty czy nawet opóźnienia. W branży to wręcz standard – nawet jeśli finalnie miksujemy wszystkie ślady razem, rozdzielenie ich na etapie montażu daje pełną elastyczność. Z mojego doświadczenia, kombinowanie z miksowaniem tych sygnałów na jednym śladzie zawsze kończy się kompromisami, których można uniknąć, przygotowując cztery niezależne ścieżki.

Pytanie 33

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. dwukrotnie.
B. trzykrotnie.
C. siedmiokrotnie.
D. pięciokrotnie.
Podana odpowiedź jest jak najbardziej zgodna z tym, co się przyjmuje w akustyce i elektroakustyce. Wzrost poziomu ciśnienia akustycznego o 10 dB powoduje, że dźwięk odbierany jest przez nasze ucho jako dwukrotnie głośniejszy. To nie jest takie oczywiste, bo decybele rosną logarytmicznie i często myli się ich przyrost z liniową zmianą odczuwanej głośności, a to dwie różne bajki. W praktyce – np. przy nagłaśnianiu koncertów czy w pracy realizatora dźwięku – taka wiedza jest naprawdę bezcenna. Jeśli masz sygnał o poziomie 70 dB SPL i zwiększysz go do 80 dB SPL, publiczność odbierze ten dźwięk jako dwa razy głośniejszy, mimo że z technicznego punktu widzenia to tylko 10 dB różnicy. Takie podejście jest zgodne ze standardami IEC i normami ISO dotyczącymi pomiarów i percepcji głośności. Często mówi się o tzw. skali sone, gdzie 1 sone to głośność tonu 1 kHz na poziomie 40 dB SPL, a każde kolejne podwojenie głośności następuje właśnie co 10 dB. To pozwala lepiej rozumieć, jak projektować systemy nagłośnieniowe czy dobierać poziomy alarmów akustycznych w różnych środowiskach. Z mojego doświadczenia wynika, że to jedna z tych reguł, która naprawdę się przydaje – szczególnie, gdy ktoś pracuje z dźwiękiem i chce zapanować nad subiektywnym odbiorem przez ludzi.

Pytanie 34

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Ducker.
B. Expander.
C. Delay.
D. Declicker.
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.

Pytanie 35

Normalizacja z opcją korekty RMS wpływa

A. wyłącznie na poziom średni.
B. na szum kwantyzacji.
C. wyłącznie na poziom szczytowy.
D. na poziom średni i szczytowy.
Normalizacja z opcją korekty RMS (Root Mean Square) to coś więcej niż zwykłe podbicie głośności do maksymalnego możliwego poziomu bez przesterowania. W praktyce, gdy korzystasz z RMS, nie tylko szczytowe wartości sygnału są brane pod uwagę, ale kluczowe staje się także to, jak sygnał zachowuje się w ujęciu średnim – czyli jak odbieramy głośność utworu jako całość. Przykładowo, w masteringu muzyki RMS pozwala ustawić materiał tak, żeby zarówno ciche fragmenty nie były zbyt wyciszone, a głośne nie przesterowywały. To zapewnia wyższy komfort odsłuchu na różnych urządzeniach i w różnych warunkach. Standardy branżowe, jak EBU R128 czy AES, podkreślają wagę pomiarów średniego poziomu sygnału, bo to właśnie one są bliższe temu, jak ludzkie ucho odbiera głośność. Przy normalizacji z RMS nie wzmacniamy tylko samych szczytów, ale poprawiamy ogólną percepcję dynamiki utworu. Fajnie też zauważyć, że w produkcji podcastów czy materiałów radiowych ta metoda jest wręcz nieodzowna, żeby uniknąć sytuacji, gdzie cisze są niezrozumiałe, a głośne partie bolą w uszy. Moim zdaniem, kto raz spróbuje normalizacji RMS, nie wróci do samego Peak, bo różnica w odbiorze bywa kolosalna. W praktyce – RMS wpływa na oba poziomy: średni i szczytowy, co daje lepszą kontrolę nad całym sygnałem.

Pytanie 36

Wykonując dogrywki wokalisty do istniejących śladów, należy zwrócić szczególnie uwagę na zgodność

A. tempa.
B. poziomu głośności.
C. stroju.
D. barwy.
Zwrócenie szczególnej uwagi na zgodność stroju przy dogrywaniu wokalisty do już istniejących śladów jest absolutną podstawą – bez tego nie da się uzyskać profesjonalnie brzmiącego miksu. Chodzi tu o to, żeby głos wokalisty był idealnie nastrojony względem już nagranych instrumentów. Nawet minimalna rozbieżność w strojeniu – mam tu na myśli nie tylko całą tonację, ale nawet subtelne odchylenia w setnych częściach półtonu – jest błyskawicznie wyłapywana przez ucho i odbierana jako fałsz czy dysonans. W branży muzycznej mówi się często, że strojenie jest „alfą i omegą” nagrań wielośladowych. Używa się do tego specjalistycznych narzędzi, takich jak tunery programowe albo tryby autotune, ale najlepiej, gdy wokalista śpiewa czysto już podczas dogrywki – poprawki to zawsze ostateczność. Z doświadczenia wiem, że nawet świetna barwa głosu czy dobre zgranie z tempem nie uratuje sytuacji, jeśli wokal jest rozstrojony względem reszty. Każdy inżynier dźwięku powie, że drobiazgowe dopilnowanie stroju, zanim wciśnie się „REC”, to najwyższy standard. Zresztą w nowoczesnym studiu sprawdzanie wysokości dźwięku to rutyna – nawet przy nagraniach domowych. Jeżeli ścieżki wokalne są zestrojone, miks brzmi klarownie i profesjonalnie, a całość łatwiej się edytuje i obrabia. Warto też pamiętać, że różne instrumenty mogą być nastrojone nieco inaczej (np. stare pianina czy gitary), więc przed dogrywką wokalu trzeba sprawdzić ich referencyjne strojenie. To taka rzecz, której nie da się naprawić w postprodukcji bez widocznych kompromisów.

Pytanie 37

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. SACD
B. CC
C. ADAT
D. DCC
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 38

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. DVD+R
B. BD-R
C. HD DVD-R
D. CD-RW
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.

Pytanie 39

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade Out.
B. Fade In.
C. Strip Silence.
D. Noise Gate.
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 40

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 5 kanałów.
B. 1 kanału.
C. 7 kanałów.
D. 3 kanałów.
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.