Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 10 maja 2026 13:23
  • Data zakończenia: 10 maja 2026 13:36

Egzamin zdany!

Wynik: 33/40 punktów (82,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 24 bity
B. 12 bitów
C. 8 bitów
D. 16 bitów
Odpowiedź 24 bity to zdecydowanie najlepszy wybór, jeśli chodzi o nagrania o bardzo dużej dynamice, takiej jak 100 dB. Słuchaj, z praktycznego punktu widzenia, każdy dodatkowy bit w rozdzielczości próbkowania daje nam około 6 dB więcej zakresu dynamicznego. Czyli jak sobie policzysz: 16 bitów daje mniej więcej 96 dB, a 24 bity to już aż 144 dB! To oznacza, że nagrania wykonane w 24 bitach pozwalają uchwycić dużo subtelniejsze różnice w głośności – nawet te najcichsze szczegóły nie giną w szumie kwantyzacji. W studiach nagraniowych i przy pracy z dźwiękiem na poważnie, absolutnym standardem są właśnie 24 bity; ciężko sobie wyobrazić profesjonalną produkcję bez tej rozdzielczości, bo pozwala ona na dużo większą swobodę przy miksowaniu, masteringu i późniejszej obróbce. Samo nagranie w wyższej rozdzielczości daje też większą elastyczność, jeśli chodzi o korekcję dynamiki, bez ryzyka wprowadzenia zniekształceń czy utraty szczegółów. Moim zdaniem, nawet jeśli finalnie plik audio trafi do odbiorcy w 16 bitach (np. na płycie CD), to etap produkcji zawsze opłaca się robić w 24 bitach. Przemysł muzyczny właściwie nie uznaje już niższych rozdzielczości, jeśli chodzi o poważniejsze projekty – i to ma sens, bo technologia pozwala na więcej, więc szkoda nie korzystać. Warto też wiedzieć, że taka dynamika jest potrzebna nie tylko w muzyce klasycznej; nawet w produkcjach elektronicznych czy filmowych daje ogromny komfort pracy.

Pytanie 2

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 3 ścieżki.
D. 2 ścieżki.
W przypadku rejestracji chóru z wykorzystaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych, minimalna liczba ścieżek monofonicznych w sesji DAW powinna wynosić cztery. Chodzi o to, że para XY to zawsze dwa osobne mikrofony ustawione blisko siebie pod odpowiednim kątem – każdy z nich wymaga niezależnej ścieżki, żeby zachować możliwość precyzyjnej kontroli panoramy i balansu stereo w miksie. Do tego dochodzą dwa mikrofony podpórkowe (tzw. spot microphones), które najczęściej ustawia się bliżej kluczowych sekcji chóru, aby wyłapać więcej szczegółów lub podkreślić wybrane fragmenty brzmienia. Każdy mikrofon podpórkowy również musi mieć swoją ścieżkę, bo tylko wtedy da się sensownie ustawić proporcje i zrealizować indywidualną korekcję czy kompresję. Z mojego doświadczenia wynika, że rozdzielność tych ścieżek to podstawa profesjonalnego montażu – w praktyce liczy się elastyczność w dalszym miksie, a także bezpieczeństwo: zawsze da się zredukować poziom bądź całkiem wyciszyć niepotrzebne ślady. Takie podejście jest zgodne z typowymi workflow w studiach nagraniowych i pozwala zachować pełną kontrolę nad każdym elementem nagrania. Często nawet w prostszych sesjach stosuje się ten schemat. Można oczywiście dodać więcej ścieżek, jeśli używa się większej liczby mikrofonów, ale w tej konfiguracji cztery to absolutne minimum. Przygotowanie mniejszej ilości ścieżek ograniczyłoby możliwości miksu i mogłoby prowadzić do nieprofesjonalnych rezultatów.

Pytanie 3

Jakie dane zawarte w dokumentacji montażowej przedstawia kod czasowy SMPTE, zobrazowany przez licznik 00:00:00:00?

A. Godziny : minuty : sekundy : milisekundy.
B. Godziny : minuty : sekundy : ramki.
C. Takty : ćwierćnuty : szesnastki : tiki.
D. Takty : ćwierćnuty : ósemki : szesnastki.
Kod czasowy SMPTE, który zapisuje się w formacie 00:00:00:00, to naprawdę jeden z najważniejszych standardów synchronizacji w branży audiowizualnej. Oznaczenia: godziny, minuty, sekundy i ramki (frames) precyzyjnie określają pozycję konkretnego zdarzenia w materiale wideo lub audio pod względem czasu i klatki. To właśnie ta czwarta wartość – ramki – odróżnia SMPTE od innych kodów czasowych, np. tych typowo muzycznych. Dzięki temu montażysta, realizator dźwięku albo grafik komputerowy może dokładnie odnaleźć, wyciąć lub wkleić fragment tam, gdzie trzeba – co do jednej klatki. W praktyce, na przykład przy składaniu filmu fabularnego, synchronizacja dialogów czy efektów specjalnych z obrazem opiera się na tych liczbach. Z mojego doświadczenia, używanie SMPTE to absolutna podstawa podczas pracy w programach typu Adobe Premiere Pro, DaVinci Resolve czy Pro Tools – wszędzie tam licznik startuje właśnie od 00:00:00:00 i pozwala na dokładność, której żaden system oparty na taktach czy milisekundach nie zapewni. SMPTE jest również zgodny z międzynarodowymi standardami nadawania (np. EBU czy AES), co ułatwia współpracę między różnymi działami produkcji. Warto pamiętać, że liczba klatek na sekundę (np. 24, 25, 30) zależy od formatu materiału, ale sam wzór zawsze pozostaje taki sam. Ten sposób notacji jest jednym z filarów profesjonalnej postprodukcji.

Pytanie 4

Który z przedstawionych kodów, będący częścią dokumentacji montażowej, ułatwia rozliczanie praw autorskich?

A. EAN
B. SMPTE
C. MTC
D. ISRC
Wybierając inne kody niż ISRC można łatwo wpaść w pułapkę myślenia, że każdy standardowy kod stosowany w przemyśle gwarantuje równie skuteczne zarządzanie prawami autorskimi, co niestety nie jest prawdą. Weźmy EAN, czyli European Article Number – to jest system przede wszystkim do identyfikacji produktów handlowych, takich jak płyty CD czy opakowania, ale nie odnosi się do samego nagrania czy utworu jako takiego. Daje się go na opakowaniu, więc jest przydatny dla sklepów i hurtowni, ale nie rozwiązuje sprawy autorskich rozliczeń. Ktoś może pomyśleć, że skoro EAN pojawia się na wielu wydawnictwach, to jest równie ważny dla praw autorskich – a to spore uproszczenie. Kod MTC (MIDI Time Code), z kolei, to zupełnie inna bajka: służy do synchronizacji urządzeń muzycznych, zwłaszcza w studiu, ale nie wnosi nic do identyfikacji utworu czy rozliczania autorów. Można powiedzieć, że MTC jest ważny dla montażysty w kontekście technicznym, ale prawnikom czy firmom zarządzającym prawami autorskimi jest kompletnie obojętny. Natomiast SMPTE to standard związany głównie z synchronizacją obrazu i dźwięku w produkcji filmowej i telewizyjnej – tu chodzi o precyzyjne określenie pozycji na osi czasu, a nie o prawa do nagrań. Moim zdaniem, powodem takich pomyłek jest to, że uczniowie często nie rozróżniają funkcji kodów stosowanych równolegle w branży – myślą, że każdy kod z dokumentacji jest uniwersalnym kluczem do zarządzania utworem. W praktyce tylko ISRC daje realną kontrolę nad identyfikacją nagrania i rozliczaniem tantiem. Dobre praktyki branżowe jasno rozdzielają te funkcje i warto się z tym oswoić już na początku zawodowej drogi.

Pytanie 5

Konwersję pliku dźwiękowego wykonuje się w celu

A. zmiany parametrów pliku.
B. zmiany nazwy pliku.
C. zmiany lokalizacji pliku.
D. uzyskania kopii pliku.
Konwersja pliku dźwiękowego to proces zmiany parametrów tego pliku, takich jak format (np. z WAV na MP3), częstotliwość próbkowania, liczba kanałów (mono/stereo), bitrate czy głębokość bitowa. To bardzo przydatna umiejętność – moim zdaniem praktycznie obowiązkowa, jeśli chcesz pracować z dźwiękiem w jakiejkolwiek formie, od podcastu po profesjonalny montaż filmowy. Przykładowo, gdy potrzebujesz wrzucić nagranie do internetu, zazwyczaj musisz je przekonwertować do MP3, bo ten format jest lekki i wszędzie obsługiwany. Z kolei w studiu nagraniowym możesz preferować bezstratne formaty typu FLAC lub WAV dla zachowania najwyższej jakości dźwięku. Branżowe programy, jak Audacity czy Adobe Audition, oferują szeroką gamę opcji konwersji, umożliwiając dostosowanie parametrów do konkretnych potrzeb projektu lub wymagań stawianych przez różne platformy (YouTube, Spotify). Dodatkowo, konwersja może być niezbędna, gdy urządzenie nie obsługuje jakiegoś formatu – wtedy po prostu trzeba dostosować plik. Z mojego doświadczenia, znajomość tych opcji daje dużą swobodę i pozwala oszczędzić sporo czasu, zwłaszcza przy dużych kolekcjach plików. To praktyczna, codzienna czynność, która przekłada się bezpośrednio na komfort pracy z multimediami.

Pytanie 6

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HP
B. LM
C. HM
D. LP
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 7

Możliwość wprowadzania zmian w materiałach zapożyczonych należy potwierdzić umową

A. zamiany.
B. licencyjną.
C. dzierżawy.
D. leasingową.
Umowa licencyjna to podstawowy dokument w obrocie prawami autorskimi, szczególnie kiedy w grę wchodzi korzystanie z cudzych materiałów – czy to tekstów, grafik, muzyki, czy oprogramowania. W praktyce to właśnie licencja określa, na jakich zasadach możemy korzystać z danego utworu. To ona pozwala (lub nie) wprowadzać zmiany, modyfikować materiał, przetwarzać, kompilować czy udostępniać dalej. Z mojego doświadczenia wynika, że bez wyraźnych zapisów w licencji, nawet najdrobniejsza modyfikacja może być naruszeniem prawa autorskiego i prowadzić do nieprzyjemnych konsekwencji, zwłaszcza w pracy zawodowej. Branżowe dobre praktyki, np. te promowane przez Stowarzyszenie Twórców Grafiki Użytkowej czy organizacje zarządzające prawami autorskimi, zawsze podkreślają konieczność jasnej, pisemnej licencji na wszelkie działania wykraczające poza tzw. dozwolony użytek osobisty. Przykład z życia: jeśli kupujesz zdjęcie lub grafikę do projektu reklamowego i chcesz coś w nim zmienić (np. kolorystykę), musisz mieć to wyraźnie zapisane w licencji. W innym przypadku – lepiej nie ryzykować. Słowem, licencja to podstawa wszelkiej legalnej adaptacji cudzych materiałów, nie tylko w informatyce, ale też muzyce, filmie czy literaturze.

Pytanie 8

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. resamplingu.
B. kompresji bezstratnej.
C. kompresji stratnej.
D. oversamplingu.
Kompresja bezstratna to metoda, która pozwala na zmniejszenie rozmiaru pliku dźwiękowego bez utraty jakiejkolwiek informacji z oryginalnego sygnału. To kluczowe, gdy zależy nam na zachowaniu pełnej jakości materiału, tak jak w przypadku archiwizacji nagrań studyjnych czy profesjonalnej produkcji audio. Przykładami kompresji bezstratnej są formaty takie jak FLAC, ALAC czy ZIP dla plików audio. Branża muzyczna, szczególnie w środowiskach audiofilskich albo podczas masteringu, korzysta z tych rozwiązań, ponieważ każda, nawet najmniejsza utrata danych w sygnale może skutkować drobnymi, ale słyszalnymi artefaktami. Uważam, że nie ma sensu oszczędzać miejsca kosztem jakości, jeżeli ktoś chce potem obrabiać lub analizować dźwięk. Standardy takie jak FLAC stały się wręcz domyślnym wyborem do archiwizacji, bo zapewniają identyczny dźwięk przy odtwarzaniu, bez kompromisów. Dla mnie kompresja bezstratna to coś w rodzaju cyfrowej „skrzynki bezpieczeństwa” – zawsze możesz odzyskać oryginał, a przy tym plik jest mniejszy niż WAV czy AIFF. No i jeszcze jedno: jeśli masz do czynienia z nagraniami wielościeżkowymi, praca na plikach bezstratnych to wręcz obowiązek, bo każda kolejna konwersja w formacie stratnym to coraz większa degradacja sygnału. Także kompresja bezstratna to zdecydowanie najlepszy kierunek, jeśli zależy nam na oryginalności i pełnej jakości dźwięku.

Pytanie 9

Różnica między minimalnym a maksymalnym poziomem ciśnienia akustycznego dźwięku, wyrażona w decybelach, to

A. poziom szumu.
B. dynamika dźwięku.
C. zniekształcenia harmoniczne.
D. głośność dźwięku.
Dynamika dźwięku, czyli zakres dynamiczny, to pojęcie, które często pojawia się w branży audio, studiach nagraniowych czy podczas miksowania muzyki na żywo. Chodzi tutaj o różnicę między najcichszym a najgłośniejszym momentem dźwięku, wyrażoną w decybelach (dB). Ten parametr ma ogromne znaczenie praktyczne – na przykład w nagraniach muzycznych dynamika pozwala oddać emocje, subtelność w pianissimo albo potężny akcent w fortissimo. Moim zdaniem, jeśli ktoś chce zrozumieć, dlaczego muzyka z kasety brzmi inaczej niż z płyty winylowej czy z pliku mp3, to właśnie różnice w dynamice są jednym z kluczowych powodów. W profesjonalnej produkcji dźwięku dba się, by nie przesadzić z kompresją, bo wtedy muzyka traci na naturalności. W standardach branżowych (chociażby EBU R128 dla radia i telewizji) dąży się do utrzymania odpowiedniej dynamiki, żeby dźwięk był zrozumiały, a jednocześnie nie męczył odbiorcy. W systemach nagłośnieniowych, nawet w szkołach, warto pamiętać, że za duży zakres dynamiki może sprawić, że część widowni nie usłyszy cichych fragmentów albo głośne będą zbyt szokujące. No i taki drobiazg – dynamika to nie tylko muzyka, ale też np. nagrania filmowe czy nawet przemówienia, gdzie zbyt monotonna dynamika po prostu nudzi słuchacza. To, według mnie, jeden z najważniejszych parametrów w pracy z dźwiękiem.

Pytanie 10

W celu zminimalizowania latencji przy przetwarzaniu dźwięku w oprogramowaniu DAW, należy

A. zmniejszyć przepływność bitową sygnału.
B. zmniejszyć częstotliwość próbkowania dźwięku.
C. użyć szybkiego dysku zewnętrznego.
D. zmniejszyć rozmiar bufora programowego.
Zmniejszenie rozmiaru bufora programowego to jedna z najskuteczniejszych metod na obniżenie latencji podczas pracy z dźwiękiem w DAW. Wynika to z faktu, że bufor odpowiada za przetwarzanie i przekazywanie porcji danych – im mniejszy rozmiar bufora, tym szybciej sygnał przechodzi przez system, a opóźnienie między wejściem a wyjściem maleje. W praktyce, przy nagrywaniu czy graniu na żywo, bardzo istotne jest, by dźwięk reagował natychmiast na działania muzyka czy realizatora, bo każdy zauważalny lag potrafi mocno utrudnić pracę. Profesjonalne studia oraz osoby zajmujące się miksowaniem live praktycznie zawsze zaczynają od ustawienia minimalnej akceptowalnej wartości bufora, dopiero kiedy pojawią się problemy z wydajnością, podnoszą go. Warto pamiętać, że zbyt niski bufor może powodować artefakty dźwiękowe czy trzaski, więc trzeba znaleźć złoty środek. Coraz częściej interfejsy audio i DAW pozwalają dynamicznie zmieniać bufor, co jest mega pomocne. Moim zdaniem, zwłaszcza przy nagrywkach wokali lub instrumentów na żywo, różnica jest kosmicznie odczuwalna – latencja potrafi spaść do poziomu, gdzie praktycznie jej nie zauważamy.

Pytanie 11

Proces podnoszący poziom nagrania w ten sposób, aby jego wartość szczytowa osiągnęła 0 dBFS, to

A. formatowanie.
B. normalizacja.
C. kwantyzacja.
D. skalowanie.
Proces normalizacji to bardzo podstawowy, ale jednocześnie niesamowicie przydatny etap w pracy z dźwiękiem – zarówno w studiu, jak i przy produkcji materiałów do internetu czy radia. Polega na tym, że całość nagrania jest matematycznie przeskalowywana tak, aby jej najwyższy punkt (wartość szczytowa, czyli tzw. peak) był dokładnie na poziomie 0 dBFS. To jest najczęstszy standard przy eksporcie plików cyfrowych, bo 0 dBFS to maksymalny poziom, jaki może przyjąć sygnał cyfrowy bez przesterowania. Moim zdaniem, normalizacja powinna być jednym z podstawowych narzędzi każdego, kto obrabia dźwięk, bo pozwala uniknąć sytuacji, w której materiał jest za cichy lub zanadto „przekręcony” – a niestety to się często zdarza początkującym realizatorom. Warto podkreślić, że normalizacja nie zmienia dynamiki nagrania, a jedynie poziom całości względem maksimum. W większości programów DAW funkcja ta jest dostępna w jednym kliknięciu – wystarczy zaznaczyć fragment lub cały plik i wybrać „Normalize to 0 dBFS”. W praktyce, jeśli planujesz dalsze przetwarzanie, czasem lepiej zostawić trochę marginesu (np. -1 dBFS), bo konwersje formatów czy eksport do mp3 mogą generować nieprzewidziane przesterowania. Generalnie jednak – jeśli chodzi o doprowadzenie nagrania do branżowego standardu głośności cyfrowej bez naruszania dynamiki – normalizacja to właściwe narzędzie.

Pytanie 12

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Mniej niż dwukrotny.
B. Około dziesięciokrotny.
C. Ponad dwudziestokrotny.
D. Około pięciokrotny.
Formaty kompresji stratnej, takie jak MP3, AAC czy OGG Vorbis, zostały stworzone właśnie po to, żeby znacząco redukować rozmiary plików audio, a przy tym utrzymać akceptowalną jakość dźwięku. Gdy mamy do czynienia z plikiem WAV (który zazwyczaj jest nieskompresowany i zajmuje sporo miejsca – na przykład typowe 3-minutowe nagranie stereo 44,1 kHz/16 bit to ponad 30 MB), użycie dobrego kodeka stratnego pozwala zejść z rozmiarem do ok. 3 MB. Z mojego doświadczenia – zarówno przy projektach muzycznych, jak i podczas przygotowywania podcastów – stosuje się najczęściej bitrate na poziomie 128-192 kbps, co daje właśnie około dziesięciokrotną redukcję w stosunku do oryginału. Oczywiście, im wyższy bitrate, tym większy plik i lepsza jakość, ale właśnie 10x jest taką sensowną średnią, przy której większość ludzi nie słyszy większej różnicy w typowym sprzęcie. Standardy branżowe, na przykład w streamingach czy archiwizacji nagrań do internetu, bardzo często opierają się na tej proporcji. Praktycznym przykładem jest przesyłanie utworów do serwisów streamingowych – pliki muszą być jak najmniejsze przy zachowaniu jakości, bo to po prostu opłacalne i wygodne. Moim zdaniem, jeśli ktoś zawodowo obrabia dźwięk, to doskonale zna tę zasadę i zawsze balansuje między jakością a optymalnym rozmiarem pliku.

Pytanie 13

Który z wymienionych nośników cyfrowych zapewnia najdłuższy okres przechowywania danych bez pojawienia się błędów?

A. Mini CD-RW
B. CD-R
C. M-Disc (Millennial Disc)
D. DVD DL (DVD Dual Layer)
M-Disc, czyli Millennial Disc, to nośnik stworzony specjalnie z myślą o bardzo długim okresie przechowywania danych. W odróżnieniu od tradycyjnych płyt CD-R czy DVD, które bazują na barwnikach organicznych i są podatne na degradację pod wpływem promieniowania UV, wilgoci czy zmian temperatury, M-Disc wykorzystuje warstwę zapisywalną z materiału zbliżonego do ceramiki. Dzięki temu dane są odporne na typowe zjawiska starzenia się nośników optycznych. Z moich obserwacji i tego, co można znaleźć w literaturze branżowej, M-Disc potrafi wytrzymać nawet kilkaset lat, stąd ten marketingowy przydomek 'millennial'. To nie jest tylko teoria – testy prowadzone przez amerykański Departament Obrony czy Instytut Informatyki i Automatyki potwierdzają, że M-Disc zachowuje czytelność danych w warunkach, które szybko powodują nierozpoznawalność zwykłych płyt. W praktyce często sięga się po M-Disc do archiwizacji danych medycznych, urzędowych czy rodzinnych archiwów fotograficznych – wszędzie tam, gdzie liczy się niezawodność przez dekady. Oczywiście, warto pamiętać, że do nagrania M-Disc potrzebna jest specjalna nagrywarka, ale potem można je już odczytywać w większości zwykłych czytników Blu-ray czy DVD. To rozwiązanie zgodne z dobrymi praktykami archiwizacji cyfrowej, gdzie kluczowe jest minimalizowanie ryzyka utraty danych na przestrzeni wielu lat.

Pytanie 14

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .omf
B. .wav
C. .ogg
D. .alac
Format pliku .ogg jest związany z kodekiem stratnym, najczęściej wykorzystującym kompresję Vorbis. Ogg Vorbis to uznany w środowisku branżowym sposób na redukcję wielkości plików audio przy zachowaniu stosunkowo wysokiej jakości dźwięku. Moim zdaniem to jeden z najlepszych wyborów, jeśli zależy komuś na bezpłatnym i otwartym standardzie, bez ograniczeń patentowych jak w przypadku MP3. Praktycznie każdy gracz, radio internetowe czy podcast korzystał kiedyś z OGG właśnie po to, by zoptymalizować transfer bez wyraźnej utraty wierności odsłuchu. Co ciekawe, format ten jest popularny w środowisku open source, zwłaszcza w grach komputerowych i aplikacjach linuksowych, bo tam nikt nie chce płacić za MP3. Pliki OGG są też wygodne do strumieniowania, co znacznie odciąża serwery, a użytkownicy nie narzekają na jakość dźwięku. Warto ogarniać różnice pomiędzy stratnymi a bezstratnymi kodekami – jeśli ktoś archiwizuje lub miksuje muzykę, to raczej nie korzysta z OGG, ale do codziennego słuchania, podcastów czy dystrybucji online – ten format naprawdę daje radę. Eksperci zwracają uwagę, że dobór kodeka powinien zależeć od przeznaczenia pliku, a OGG to świetna opcja do multimediów na co dzień.

Pytanie 15

Ile kanałów audio stosowanych jest w reprodukcji techniką 5.1?

A. 6 kanałów.
B. 7 kanałów.
C. 8 kanałów.
D. 12 kanałów.
Technika 5.1 to obecnie jeden z najczęściej stosowanych standardów dźwięku przestrzennego, zwłaszcza w kinie domowym, grach wideo czy transmisjach telewizyjnych. Liczba „5” oznacza pięć pełnopasmowych kanałów audio: front lewy, front prawy, centralny, surround lewy oraz surround prawy. Ta konfiguracja pozwala uzyskać bardzo realistyczne wrażenie przestrzeni, gdzie dźwięki mogą być precyzyjnie przypisane do otoczenia wokół widza. Ten szósty kanał, czyli „.1”, odnosi się do kanału niskich częstotliwości LFE (Low Frequency Effects), dedykowanego subwooferowi. Dzięki temu subwoofer odtwarza głównie efekty specjalne, takie jak wybuchy czy dudnienia, wzmacniając doznania dźwiękowe. Dla mnie, jako fana kina domowego, różnicę między zwykłym stereo a 5.1 słychać od razu – szczególnie przy filmach akcji albo grach wyścigowych. Standard 5.1 został formalnie zdefiniowany przez organizacje takie jak ITU-R BS.775 oraz Dolby Digital i DTS. Warto dodać, że instalacja systemu 5.1 jest dość uniwersalna i nie wymaga bardzo zaawansowanego sprzętu, przez co jest szeroko dostępna. Rozumienie tej konfiguracji to podstawa, jeśli myślisz o pracy z dźwiękiem, bo praktycznie każdy profesjonalny system audio, czy w studio, czy w kinie, potrafi obsłużyć układ 5.1. Z mojego doświadczenia sam podział na 5+1 kanałów znacznie ułatwia miksowanie ścieżek dźwiękowych, bo pozwala lepiej rozplanować brzmienie i efekty, żeby publiczność naprawdę miała poczucie przestrzeni.

Pytanie 16

Który z folderów zawiera pliki regionów dźwiękowych sesji DAW?

A. Plug-In Settings
B. Fades Files
C. Audio Files
D. Session File Backups
Folder 'Audio Files' to naprawdę kluczowe miejsce w każdym projekcie DAW, szczególnie jeśli pracujesz na systemach typu Pro Tools, Logic Pro czy Cubase. W tym folderze przechowywane są wszystkie surowe pliki audio, czyli tzw. regiony dźwiękowe, które potem układasz w aranżacji. To trochę jak magazyn dla Twoich nagrań i importowanych sampli – cokolwiek wrzucisz na ścieżkę audio, ląduje właśnie tutaj. Co ciekawe, nawet jeśli pracujesz na podziałach, kopiuj-wklejasz fragmenty czy eksportujesz segmenty, źródłem zawsze będą pliki z tego folderu. Branżowy standard mówi jasno: porządek w folderze 'Audio Files' to podstawa, zwłaszcza kiedy przenosisz sesję między komputerami albo wysyłasz projekt do współpracy. Moim zdaniem, pilnowanie tych plików to takie DAW-owe BHP – jak się coś zgubi, to potem zaczynają się kłopoty z brakującymi ścieżkami. Praktycznie każda profesjonalna sesja zapisuje ścieżki audio w tym jednym miejscu, żeby unikać bałaganu. Dobrą praktyką jest nie przenosić ręcznie tych plików i nie edytować ich poza DAW, bo można łatwo popsuć całą strukturę projektu. Z mojego doświadczenia, kiedy archiwizujesz sesję – warto zawsze sprawdzić, czy folder 'Audio Files' zawiera wszystko, co być powinno. To taki fundament workflow w każdej poważnej pracy z dźwiękiem.

Pytanie 17

Poprzez zastosowanie filtru Low Pass na ścieżce gitary basowej można

A. usunąć zakłócenia niskotonowe.
B. kształtować obraz stereo nagrania.
C. zredukować przydźwięk sieci.
D. zmniejszyć szumy.
Wiele osób myli funkcje filtrów Low Pass z innymi narzędziami do obróbki dźwięku i to w sumie jest dość częsty błąd początkujących realizatorów. Przykład – redukcja przydźwięku sieciowego, czyli popularnego 50 Hz, to raczej zadanie dla filtru Notch albo High Pass, a nie Low Pass. Filtr dolnoprzepustowy puszcza wszystko poniżej ustawionej częstotliwości, więc ten typowy przydźwięk z instalacji elektrycznej i tak przejdzie przez cały tor sygnałowy. W praktyce zarządzanie przydźwiękiem raczej polega na odcięciu najniższych składowych przez High Pass, a nie na przycinaniu góry. Z kolei usuwanie zakłóceń niskotonowych również nie leży w gestii Low Pass – do tego służy High Pass, bo zależy nam na pozbyciu się niepożądanych dudnień czy buczenia poniżej użytecznego zakresu basu. Tego typu zakłócenia mogą pochodzić np. od mikrofonów zbierających hałas z podłogi czy nawet od samego wzmacniacza, ale Low Pass zupełnie na to nie działa. Jeśli chodzi o kształtowanie obrazu stereo nagrania, to tu mówimy o zupełnie innych narzędziach – panoramie, korekcji Mid/Side czy efektach przestrzennych. Filtr Low Pass nie wpływa na rozłożenie dźwięku w panoramie stereo, a jedynie ogranicza pasmo częstotliwości. Można spotkać się z próbą manipulacji szerokością stereo przez różnicowanie pasma w kanałach, ale to już zaawansowane techniki i nie są bezpośrednio związane z typowym zastosowaniem filtru dolnoprzepustowego. Typowym błędem jest też utożsamianie szumów wyłącznie z wysokimi częstotliwościami – czasem szumy są obecne w pełnym paśmie, ale to właśnie wycinanie góry przynosi największą poprawę czytelności basu. W skrócie: Low Pass to narzędzie do walki z niepożądanymi wysokimi tonami i szumami, a nie z niskotonowymi artefaktami czy problemami ze stereofonią.

Pytanie 18

Zjawisko maskowania dźwięku polega na

A. generowaniu przez ucho tonów harmonicznych.
B. spadku słyszalności tonów wysokich podczas głośnego słuchania.
C. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
D. zmianie barwy dźwięku w zależności od głośności.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 19

Aby uniknąć ewentualnych zniekształceń nieliniowych w montowanym materiale dźwiękowym, należy na bieżąco obserwować

A. pasmo częstotliwościowe odtwarzanych dźwięków.
B. poziom tła towarzyszącego nagraniu.
C. zmianę dynamiki odtwarzanych dźwięków.
D. poziom szczytowy odtwarzanego dźwięku.
Poziom szczytowy odtwarzanego dźwięku to absolutna podstawa, jeśli chodzi o kontrolę jakości w montażu audio. Chodzi o to, że każde urządzenie – czy to mikser, interfejs, DAW, czy wzmacniacz – ma pewien maksymalny poziom sygnału, po przekroczeniu którego pojawiają się zniekształcenia nieliniowe, zwane potocznie przesterowaniem. Dlatego właśnie, kiedy miksujesz albo edytujesz dźwięk, zawsze trzeba patrzeć na wskaźniki peaków (czyli poziomów szczytowych)! To one pokazują, czy przypadkiem nie wchodzisz na czerwone pole, gdzie sygnał jest już za mocny i zaczyna się zniekształcać. Z mojego doświadczenia najlepiej ustawiać tak poziomy, żeby nigdy nie przekraczać 0 dBFS na sumie – wtedy masz pewność, że nie popsujesz jakości nagrania. W praktyce, w profesjonalnych studiach, często zostawia się jeszcze zapas, czyli tzw. headroom, żeby mieć margines bezpieczeństwa. To pozwala uniknąć sytuacji, gdzie nagle coś głośno wybuchnie w miksie i całość się przesteruje. Dobrym nawykiem jest nie tylko patrzenie na wskaźnik, ale też raz na jakiś czas posłuchać, czy coś się nie "charczy". Kontrola peaków to jeden z filarów pracy realizatora dźwięku, no i taka wiedza przydaje się nawet przy prostych projektach domowych.

Pytanie 20

Do płynnego wyciszenia materiału dźwiękowego należy użyć funkcji

A. pan.
B. fade out.
C. crossfade.
D. mute.
Fade out to podstawowa funkcja w edycji dźwięku, szczególnie przy masteringu utworów lub montażu materiału audio. Polega na stopniowym zmniejszaniu głośności dźwięku aż do całkowitej ciszy, co pozwala uzyskać płynne, naturalne zakończenie nagrania. Z mojego doświadczenia, fade out jest absolutnym standardem – praktycznie we wszystkich profesjonalnych produkcjach muzycznych, radiowych czy podcastach stosuje się właśnie tę metodę, by nie urwać dźwięku nagle, bo to brzmi nienaturalnie i wręcz nieprofesjonalnie. W programach typu DAW (Digital Audio Workstation) efekty fade out można stosować zarówno globalnie na ścieżkach, jak i precyzyjnie na wybranych fragmentach materiału audio. Co ciekawe, dobrze zaplanowane fade outy pomagają też ukryć drobne niedoskonałości końcówki nagrania, szumy lub kliknięcia. To taki sprytny myk, którego używa masa realizatorów dźwięku. Osobiście uważam, że warto testować różne długości i krzywe zanikania – czasem lepiej sprawdza się szybkie wyciszenie, a czasem dłuższy, łagodny fade. Zdecydowanie warto opanować tę funkcję, bo to podstawa i podnosi jakość finalnego miksu.

Pytanie 21

Sporządzenie duplikatu źródłowego materiału dźwiękowego należy przeprowadzić na etapie

A. montażu.
B. masteringu.
C. edycji.
D. rejestracji.
To jest właśnie to, o co chodzi w profesjonalnej produkcji dźwięku. Sporządzenie duplikatu źródłowego materiału dźwiękowego — często zwanego safety copy lub backupem — powinno się wykonywać już na etapie rejestracji. Chodzi o to, żeby od samego początku zabezpieczyć materiał przed stratą, uszkodzeniem czy jakimkolwiek przypadkowym nadpisaniem. Jest to absolutny standard w każdej szanującej się realizacji studyjnej czy nawet podczas nagrań plenerowych. Moim zdaniem to jedna z tych rzeczy, na które często się nie zwraca uwagi na początku nauki, a potem, po paru wpadkach, nagle wszyscy zaczynają rozumieć, dlaczego to jest takie ważne. Praktyka jest taka, że zaraz po zakończeniu sesji nagraniowej należy wykonać kopię surowych plików – czy to na inny nośnik, chmurę, czy zewnętrzny dysk. W branży wszyscy wiedzą, że nie istnieje coś takiego jak 'za dużo backupów'. To jest też jeden z tych momentów, gdzie dobre praktyki spotykają się z doświadczeniem – osoby, które przeżyły utratę ważnych nagrań, już zawsze robią kopie natychmiast po rejestracji. Takie podejście pozwala spać spokojnie i bez stresu przechodzić do kolejnych etapów produkcji, wiedząc, że oryginał jest bezpieczny. Bezpieczeństwo danych, jak dla mnie, to podstawa tej roboty.

Pytanie 22

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Digital
B. Dolby Digital Live
C. Dolby TrueHD
D. Dolby Stereo
W przypadku dźwięku wielokanałowego na nośnikach Blu-ray Disc bardzo łatwo pomylić dostępne formaty, bo nazwy takie jak Dolby Digital, Dolby Stereo czy nawet Dolby Digital Live są szeroko znane i często używane, ale nie zawsze oferują te same możliwości techniczne. Wiele osób sądzi, że Dolby Digital nadaje się do zapisu 8 kanałów, jednak w rzeczywistości jest to format stratny – kompresuje dźwięk, przez co część informacji dźwiękowej jest bezpowrotnie tracona. Co więcej, nawet w wersji tzw. „Enhanced”, Dolby Digital zazwyczaj obsługuje do 5.1 kanałów, a 7.1 jest obecne tylko w bardzo specyficznych, mniej popularnych wariantach i nadal nie jest bezstratne. Dolby Stereo to jeszcze starszy standard, zaprojektowany z myślą o kinach analogowych, gdzie dźwięk był kodowany na dwóch kanałach i matrycowo rozdzielany na cztery. Z praktycznego punktu widzenia ten format nie ma nic wspólnego z nowoczesnym zapisem wielokanałowym na Blu-ray. Odpowiedź Dolby Digital Live też jest myląca – to technologia służąca do przesyłania dźwięku w czasie rzeczywistym, np. z komputera do amplitunera przez S/PDIF, i bazuje na tym samym stratnym kodeku co zwykły Dolby Digital, a nie na zapisie studyjnym czy archiwalnym na płytach Blu-ray. To bardzo częsty błąd myślowy – mylenie formatów przeznaczonych do transmisji (Live) z tymi do archiwizacji (TrueHD). Moim zdaniem, kluczową kwestią przy poszukiwaniu formatu umożliwiającego bezstratny zapis dźwięku 7.1 na Blu-ray jest właśnie rozpoznanie, czy dany kodek oferuje bezstratność i pełną obsługę wszystkich kanałów zgodnie z branżową specyfikacją. Tylko Dolby TrueHD spełnia te wymagania w praktyce, a pozostałe propozycje są ograniczone albo pod względem jakości, albo liczby obsługiwanych kanałów. Zwracanie uwagi na te niuanse to dobra praktyka branżowa, bo pozwala uniknąć rozczarowań podczas projektowania systemów kina domowego lub wyboru sprzętu audio.

Pytanie 23

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 7.1
B. 4.0
C. 5.1
D. 9.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.

Pytanie 24

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 88,2 kHz
B. 48 kHz
C. 44,1 kHz
D. 96 kHz
Dobrze, że to zauważyłeś – dwukrotne nadpróbkowanie dźwięku odnosi się bezpośrednio do podwojenia częstotliwości próbkowania względem wartości wyjściowej. Standard CD-Audio pracuje z częstotliwością próbkowania 44,1 kHz, co pozwala na wierne odwzorowanie dźwięków do ok. 22 kHz (zgodnie z twierdzeniem Nyquista). Jeśli więc zastosujemy nadpróbkowanie x2, nowa częstotliwość próbkowania wyniesie 88,2 kHz. Taki zabieg stosuje się często w profesjonalnych studiach nagraniowych czy podczas obróbki audio, żeby uzyskać więcej szczegółów w dźwięku albo żeby mieć większy komfort przy późniejszej edycji sygnału, na przykład przy filtracji czy konwersji do niższych rozdzielczości. Moim zdaniem warto pamiętać, że 88,2 kHz jest naturalną wielokrotnością 44,1 kHz, więc konwersja między tymi częstotliwościami odbywa się bezstratnie i bez żadnych problemów z aliasingiem. To ważne w przypadku masteringu na różne nośniki. W branży audio spotyka się też częstotliwości jak 48 kHz czy 96 kHz, ale one są bardziej związane z video i zastosowaniami broadcastowymi, a nie z typowym audio CD. Także, jak dla mnie, dobrze zapamiętać właśnie ten związek przy nadpróbkowaniu sygnału audio.

Pytanie 25

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Transpozycja.
B. Korekcja.
C. Kompresja.
D. Normalizacja.
Normalizacja to proces, który polega na podniesieniu poziomu całego nagrania w taki sposób, żeby jego najwyższa wartość szczytowa (peak) osiągnęła dokładnie 0 dBFS, czyli maksymalny poziom sygnału cyfrowego bez przesterowania. To jedna z najczęściej wykonywanych operacji podczas pracy z dźwiękiem w studiu czy przy montażu podcastów. Dzięki normalizacji uzyskujemy bardziej równomierny poziom głośności między różnymi nagraniami albo plikami audio, co znacznie ułatwia dalszą obróbkę i miksowanie, zwłaszcza w profesjonalnych workflow. Moim zdaniem, to taka podstawowa „higiena” dźwiękowa — nie poprawia dynamiki jak kompresja, ale daje pewność, że żaden plik nie będzie za cichy lub nieprzewidywalnie głośny. Warto wiedzieć, że normalizacja nie zniekształca proporcji między głośniejszymi i cichszymi fragmentami, bo wszystko podnoszone jest równomiernie, czyli nie ucina transjentów ani nie spłaszcza dynamiki, tylko przesuwa całość w górę. Użycie normalizacji jest szczególnie polecane przed eksportem ścieżek do masteringu albo publikacją materiałów w internecie, gdzie ważne są standardy głośności. W branży muzycznej i radiowej często zwraca się uwagę na to, żeby nie przekraczać 0 dBFS, bo wtedy pojawia się clipping — a normalizacja nam właśnie w tym pomaga. Z doświadczenia wiem, że zbyt częste używanie normalizacji na różnych etapach może prowadzić do zgubienia pierwotnej dynamiki, więc lepiej traktować ją jako jeden z ostatnich kroków w procesie produkcji.

Pytanie 26

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Ekspander.
B. Korektor.
C. Kompresor.
D. Crossover.
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 27

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 10 MB
B. 24 MB
C. 5 MB
D. 16 MB
Nagranie w formacie CD-Audio (standard Red Book) zapisuje dźwięk stereo z parametrami 44,1 kHz próbkowania i 16 bitów na próbkę dla każdego z dwóch kanałów. To daje 16 bitów × 2 kanały × 44 100 próbek na sekundę = 1 411 200 bitów na sekundę, czyli 176 400 bajtów na sekundę (bo 1 bajt to 8 bitów). Dla czasu trwania 1 minuta i 30 sekund, czyli 90 sekund, całkowity rozmiar pliku wynosi 176 400 × 90 = 15 876 000 bajtów. W praktyce to prawie 16 MB (jeżeli 1 MB przyjmiemy jako 1 048 576 bajtów, bo tak jest najczęściej w informatyce). Warto wiedzieć, że formaty nieskompresowane, takie jak WAV bez kompresji albo właśnie CD-Audio, szybko generują duże pliki, dlatego w nagraniach studyjnych czy archiwizowaniu materiału audio zawsze trzeba przewidzieć dużo miejsca na dysku lub płytach. Spotkałem się z sytuacją, że ktoś zaskoczony był rozmiarem zrzutów z płyt CD – z tego właśnie powodu. W branży multimedialnej standardy takie jak Red Book są podstawą, a szybkie wyliczenie rozmiaru pliku to przydatna umiejętność w codziennej pracy z audio. Moim zdaniem warto to umieć, bo często pozwala to lepiej planować zgrywanie, archiwizację czy transport plików między urządzeniami.

Pytanie 28

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 15 MB
C. 45 MB
D. 35 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 29

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 6 dB
B. o 12 dB
C. o 3 dB
D. o 9 dB
Zagadnienie tłumienia sygnału o określoną wartość w decybelach to bardzo częsty temat nie tylko w studiu, ale i na scenie czy w szeroko pojętym inżynierii dźwięku. Często spotykam się z przekonaniem, że aby moc sygnału spadła o połowę, trzeba ściszyć aż o 6 dB albo nawet więcej. To taki mit krążący od lat, głównie przez mylenie pojęć związanych z mocą i napięciem. Warto tu rozróżnić: tłumienie o 6 dB rzeczywiście powoduje spadek napięcia (czyli amplitudy sygnału) o połowę, ale nie mocy. Wynika to z matematycznej definicji decybela – dla mocy stosujemy wzór 10 log(P2/P1), natomiast dla napięcia (lub natężenia prądu) jest to 20 log(U2/U1). Jeśli tłumisz o 6 dB, moc spada czterokrotnie, a nie dwukrotnie, bo (10 log 0,25 = -6 dB). W przypadku tłumienia o 9 dB czy 12 dB, spadek mocy jest jeszcze większy – to już wartości, które w praktyce oznaczają bardzo duże ściszenie sygnału, często spotykane dopiero na końcowych etapach miksu czy podczas „mutowania” śladów. Moim zdaniem najczęstszym błędem prowadzącym do takich pomyłek jest nieodróżnianie tłumienia mocy od tłumienia napięcia, a to są jednak dwa różne światy – w świecie audio liczy się moc (szczególnie przy głośnikach, wzmacniaczach), a nie tylko napięcie. Warto sobie przeliczyć: każdy spadek o kolejne 3 dB to połowa mocy względem poprzedniego poziomu. W praktyce – jak ściszysz ścieżkę w DAW-ie o 6 dB, moc leci czterokrotnie w dół, a nie dwa razy, co może prowadzić do błędnych założeń przy ustawianiu balansu miksu. Szczerze polecam zapamiętać tę różnicę – nie raz uratuje przy szybkim podejmowaniu decyzji podczas miksowania czy nagrywania.

Pytanie 30

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.ogg
C. *.mp3
D. *.aiff
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 31

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 4
B. 2
C. 5
D. 6
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 32

Jaka powinna być minimalna liczba ścieżek materiału dźwiękowego w edytorze audio, pozwalająca na kontrolę każdego z instrumentów kwintetu smyczkowego?

A. 5 ścieżek.
B. 4 ścieżki.
C. 3 ścieżki.
D. 2 ścieżki.
Kwintet smyczkowy to zespół, w którym gra pięciu instrumentalistów: zwykle dwóch skrzypków, altowiolista, wiolonczelista i kontrabasista (czasem drugi wiolonczelista zamiast kontrabasisty – szczegóły zależą od repertuaru, ale zawsze pięć osób). Każdy instrument ma swoją unikalną barwę i funkcję w utworze, dlatego w profesjonalnej pracy studyjnej przyjęło się nagrywać lub przynajmniej oddzielnie edytować każdą partię. Jeśli chcesz mieć pełną kontrolę nad miksem – czyli panoramą, poziomem głośności, efektami czy automatyzacją – każda partia powinna mieć osobną ścieżkę. Tak się to robi w każdym porządnym studiu nagraniowym, bo miksowanie instrumentów razem ogranicza możliwości korekty i kreatywnej obróbki. Moim zdaniem to nie tylko wygoda, ale i duża oszczędność czasu, gdy chcesz np. wyciszyć samą wiolonczelę albo podkreślić altówkę. Dodatkowo, praca na pięciu ścieżkach pozwala np. na precyzyjne usuwanie szumów, stosowanie efektów przestrzennych albo automatyzację dynamiki – to już branżowy standard. Oczywiście, istnieją zespoły, które grają „na żywo” do jednej ścieżki stereo, ale w edytorze audio, gdy masz wybór, zawsze lepiej rozdzielać instrumenty. Przy kwintecie smyczkowym minimum to pięć ścieżek, jeśli zależy ci na jakości i profesjonalnym brzmieniu. W sumie, to taki techniczny kompromis między wygodą a kontrolą – im mniej ścieżek, tym mniej swobody. Dlatego 5 ścieżek to podstawa.

Pytanie 33

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Zmiany barwy wokalu.
B. Zwiększenia subiektywnej głośności nagrania.
C. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
D. Zmiany barwy poszczególnych instrumentów.
Wielu początkujących realizatorów dźwięku utożsamia kompresję z narzędziem do zmiany barwy lub wyciszania fragmentów nagrania, co nieco rozmija się z jej głównym zastosowaniem w masteringu. Zmiana barwy wokalu, jak i barwy instrumentów, to raczej domena korekcji (equalizacji), a nie kompresji. Equalizer pozwala podbijać lub tłumić konkretne zakresy częstotliwości, przez co brzmienie staje się bardziej jasne, ciemne lub po prostu inne – natomiast kompresor skupia się na dynamice, nie na charakterystyce częstotliwościowej. Stosowanie kompresji do „wyciszenia zbyt głośnych fragmentów” jest bardziej typowe dla etapu miksu, gdzie chodzi o kontrolę pojedynczych ścieżek – w masteringu celem jest bardziej spójność całej sumy miksu oraz zwiększenie postrzeganej głośności utworu. To częsty błąd myślowy, gdy ktoś myli narzędzia służące do kontroli dynamiki z procesami typowo barwotwórczymi. W praktyce, kompresja masteringu ma zapewniać, że utwór nie będzie zbyt cichy względem innych produkcji, poradzi sobie w radio czy na streamingu, a jego dynamika będzie przyjazna dla większości słuchaczy. Oczywiście, lekki wpływ na barwę czasem wystąpi (np. przy kompresji z krótkimi czasami reakcji), ale to efekt uboczny, nie cel podstawowy. Z mojego doświadczenia wynika, że rozumienie ról poszczególnych narzędzi w procesie produkcji muzyki bardzo pomaga unikać rozczarowań na etapie gotowego mastera. Dlatego warto rozgraniczać: korekcja barwy – EQ, kontrola dynamiki/głośności – kompresja.

Pytanie 34

Jaki jest czas trwania fragmentu materiału dźwiękowego zawartego pomiędzy wartościami zegara SMPTE 00:01:30:00 i 00:02:45:00?

A. 1 minuta i 30 sekund.
B. 1 godzina i 30 minut.
C. 1 godzina i 15 minut.
D. 1 minuta i 15 sekund.
Twoja odpowiedź idealnie pokazuje rozumienie tematu SMPTE. Jeśli ktoś pracuje z materiałami audio-wideo, zwłaszcza w postprodukcji czy w montażu telewizyjnym, to właśnie takie umiejętności przydają się na co dzień. Zegary SMPTE (Society of Motion Picture and Television Engineers) są uniwersalnym standardem do oznaczania czasu w produkcji audio-wideo – zapis 00:01:30:00 oznacza 1 minutę i 30 sekund, a 00:02:45:00 to 2 minuty i 45 sekund. Odejmując jedno od drugiego, uzyskujemy dokładnie 1 minutę i 15 sekund. Prosta arytmetyka, ale diabeł tkwi w szczegółach – czasem można się łatwo pogubić, zwłaszcza jak ktoś zacznie odliczać godziny lub źle zinterpretuje liczby. W praktyce, podczas montowania dialogów czy synchronizacji dźwięku z obrazem, precyzyjne rozumienie formatu SMPTE pozwala szybko wycinać lub wklejać fragmenty materiału bez ryzyka przesunięć czasowych. Warto pamiętać, że SMPTE jest wykorzystywany nie tylko w telewizji, ale też w radiu, przy produkcji reklam i nawet w systemach automatyzacji wydarzeń na żywo. Moim zdaniem, każdy kto wiąże swoją przyszłość z mediami, musi płynnie poruszać się w tym zapisie. Fajnie, jakby więcej osób zwracało na to uwagę, bo w praktyce często spotykam się z tym, że ktoś źle ustawia punkty cięcia właśnie przez nieznajomość działania SMPTE.

Pytanie 35

Która z wymienionych operacji umożliwia usunięcie z nagranego materiału dźwiękowego zakłócenia w postaci szumu?

A. Noise Reduction
B. Downsampling
C. De-click
D. De-crackle
Noise Reduction to absolutnie podstawowa i jedna z najczęściej stosowanych operacji podczas obróbki dźwięku, jeśli celem jest usunięcie szumu z nagrania. Polega na analizie fragmentów, gdzie występuje sam szum (tzw. próbka szumu), a następnie algorytm odfiltrowuje go z całego materiału dźwiękowego. W praktyce korzystają z tego studia muzyczne, realizatorzy podcastów czy nawet twórcy amatorskich nagrań, bo szum potrafi naprawdę zepsuć odbiór – zwłaszcza na słuchawkach albo gdy nagranie robimy w gorszych warunkach. Co ciekawe, Noise Reduction znajdziesz w praktycznie każdym programie do edycji audio – od darmowych, jak Audacity, po profesjonalne narzędzia typu Adobe Audition czy RX od iZotope. Moim zdaniem, warto znać nie tylko zasadę działania, ale też wiedzieć, że nadmierne użycie tej funkcji może powodować artefakty – dźwięk robi się taki „metaliczny” albo nienaturalny. Standardem branżowym jest wykonywanie redukcji szumu na etapie postprodukcji, czasami nawet w kilku krokach, żeby nie zniszczyć nagrania. Dobrą praktyką jest nagranie „czystej” próbki szumu na początku sesji – potem ten fragment przydaje się podczas obróbki. Jeśli interesujesz się miksowaniem lub postprodukcją dźwięku, to obsługa narzędzi typu Noise Reduction to wręcz obowiązek.

Pytanie 36

Aby zmienić nazwę regionu na ścieżce w sesji programu DAW, należy użyć funkcji

A. Resize.
B. Reset.
C. Rename.
D. Reverse.
Funkcja „Rename” to absolutna podstawa jeśli chodzi o zarządzanie regionami w sesji DAW. W praktyce, kiedy masz dziesiątki ścieżek i fragmentów audio czy MIDI, jasne i logiczne nazewnictwo regionów bardzo ułatwia pracę – zarówno podczas aranżacji, jak i później przy miksie albo eksporcie. Z mojego doświadczenia wynika, że profesjonaliści zawsze kładą nacisk na czytelność projektu, bo potem łatwiej znaleźć konkretne partie czy zrobić edycję. „Rename” umożliwia zmianę nazwy regionu bezpośrednio na ścieżce – wystarczy kliknąć prawym przyciskiem myszy na regionie, wybrać opcję zmiany nazwy i wpisać coś bardziej opisowego, np. „Wokal refren 2” zamiast „Audio 1-22”. To zdecydowanie standardowa praktyka w takich programach jak Ableton Live, Cubase, czy Logic Pro. Warto wiedzieć, że dobre nazewnictwo przydaje się też przy pracy zespołowej, gdy projekt trafia do inżyniera miksu lub innego producenta – wtedy wszyscy szybciej się odnajdują. W wielu studiach panuje zasada, żeby absolutnie każdy region miał nazwę odzwierciedlającą zawartość. Co ciekawe, niektóre DAWy pozwalają nawet na grupową zmianę nazw przez specjalne skróty czy automatyczne narzędzia, co przyspiesza workflow. Podsumowując: „Rename” jest nie tylko poprawnym wyborem, ale wręcz nawykiem, który warto wyrobić sobie od początku pracy z DAW-ami.

Pytanie 37

Który z wymienionych parametrów odpowiada za próg zadziałania funkcji Strip Silence?

A. Minimum Time
B. Post-Release
C. Threshold
D. Pre-Attack
Threshold w funkcji Strip Silence to kluczowy parametr, który decyduje o tym, od jakiego poziomu głośności dany fragment zostaje uznany za "dźwiękowy" i nie jest wycinany. Cała magia Strip Silence polega właśnie na tym, że automatycznie wykrywa ciszę na ścieżce audio i usuwa ją, zostawiając tylko to, co faktycznie gra. Threshold działa trochę jak bramkarz – jeśli sygnał przekroczy ustawiony próg, zostaje wpuszczony, a jeśli jest zbyt cichy, traktowany jest jako cisza. Z mojego doświadczenia warto eksperymentować z jego wartością, bo czasem w nagraniach pojawiają się ciche szumy albo oddechy, które też chcesz usunąć. Branżowe standardy sugerują, żeby zacząć od wartości nieco powyżej tła szumowego i dopasowywać próg do konkretnego materiału. W praktyce – jeśli pracujesz nad wokalami, perkusją czy podcastem, dobrze ustawiony threshold pozwala szybko i czysto oczyścić ścieżkę ze zbędnych fragmentów. Ułatwia to późniejszą edycję i miks, nie musisz ręcznie wycinać każdego milisekundowego szumu. Warto dodać, że dobór thresholdu często zależy od dynamiki nagrania – im większa rozpiętość, tym ostrożniej trzeba ustawić próg, żeby nie wycinać cichych, ale istotnych dźwięków. To trochę taki kompromis między precyzją a wygodą. Moim zdaniem – jak przy każdej automatyzacji – warto na koniec przesłuchać fragmenty, żeby mieć pewność, że nic ważnego nie zostało przypadkowo wyciszone.

Pytanie 38

Ile w przybliżeniu miejsca na twardym dysku zajmie dziesięć 3-minutowych stereofonicznych plików dźwiękowych, o parametrach odpowiadających standardowi CD-Audio?

A. 900 MB
B. 100 MB
C. 300 MB
D. 600 MB
Obliczając ilość miejsca potrzebnego na nagranie audio zgodne ze standardem CD-Audio, łatwo można się pomylić, jeśli nie uwzględnimy dokładnych parametrów technicznych. Częstym błędem jest mylenie plików skompresowanych (jak MP3) ze ścieżkami w jakości CD; w przypadku CD-Audio mamy do czynienia z formatem nieskompresowanym: 44,1 kHz, 16 bitów, stereo. To daje bardzo dużą przepływność – znacznie większą niż w popularnych plikach do słuchania na telefonie czy streamingu. Zakładając 3 minuty dźwięku, pojedynczy plik WAV zgodny ze standardem CD to ponad 30 MB. Dziesięć takich plików to już ponad 300 MB. Przeszacowanie do wartości takich jak 600 MB czy 900 MB bierze się zazwyczaj z nieporozumienia – czasem ludzie myślą o plikach o jeszcze wyższych parametrach (np. 24 bity czy większa częstotliwość), ale wtedy już nie mówimy o standardzie CD. Z kolei niedoszacowanie do 100 MB najczęściej wynika z przyzwyczajenia do rozmiarów plików MP3, gdzie 3-minutowy utwór zajmuje kilka megabajtów, jednak jest to format stratny i nie spełnia wymagań CD-Audio. Dobrą praktyką przy szacowaniu miejsca na dysku pod pliki wysokiej jakości jest zawsze bazowanie na wzorze: częstotliwość × ilość bitów × liczba kanałów, przeliczone na bajty i pomnożone przez czas trwania. Takie podejście pozwala uniknąć pomyłek i lepiej zarządzać przestrzenią dyskową, szczególnie przy pracy z profesjonalnym audio czy kopiowaniu oryginalnych płyt CD. Moim zdaniem, świadomość tych różnic jest bardzo przydatna, bo pozwala lepiej planować archiwizację i nie zaskoczyć się brakiem miejsca na dysku w najmniej odpowiednim momencie.

Pytanie 39

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. TOSLINK
B. TDIF
C. DIN
D. BNC
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 40

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. dBFS
B. dBp
C. LUFS
D. AU
Wiele osób, które zaczynają przygodę z dźwiękiem, myli różne jednostki i pojęcia związane z poziomem nagrań. Częstym błędem jest założenie, że dBFS (decybele w odniesieniu do full scale) mierzy odczuwalną głośność, ale to wskaźnik poziomu sygnału cyfrowego, czyli pokazuje, jak blisko sygnał jest maksymalnej wartości, jaką może zapisać system cyfrowy. dBFS świetnie sprawdza się przy pilnowaniu, żeby nie przesterować ścieżki podczas nagrania lub miksu, ale w ogóle nie uwzględnia tego, jak głośno ludzki słuch odbiera materiał. Z kolei dBp to jednostka bardzo rzadko spotykana w audio, właściwie nieformalna – czasami jako skrót od dB SPL z dopiskiem „p” (peak), ale absolutnie nie odnosi się to do poziomu odczuwalnej głośności. AU natomiast to skrót od Audio Unit, czyli popularnego formatu wtyczek audio w środowisku Apple – nie jest to żadna jednostka miary. Osobiście często widzę, jak początkujący mylą poziom szczytowy (peak) z odczuwalną głośnością (loudness), przez co ich miksy brzmią zupełnie nierówno na różnych platformach. Najważniejsze, co warto zapamiętać, to fakt, że odczuwalna głośność nie zależy tylko od maksymalnego poziomu sygnału, ale także od sposobu, w jaki ludzki słuch odbiera różne częstotliwości i dynamikę. Właśnie dlatego branża przeszła na LUFS, który bierze pod uwagę psychoakustykę. Bez tej wiedzy łatwo popełnić podstawowy błąd w miksowaniu i masteringu, skutkujący nieprzyjemnymi niespodziankami podczas odsłuchu na różnych urządzeniach i platformach. W praktyce LUFS to podstawa, jeśli zależy Ci na profesjonalnej, spójnie brzmiącej produkcji audio.