Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 20:13
  • Data zakończenia: 29 kwietnia 2026 20:19

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Pięciokrotny.
B. Czterokrotny.
C. Dwukrotny.
D. Trzykrotny.
Zmniejszenie poziomu sygnału o 6 dB oznacza, że moc sygnału spada dokładnie czterokrotnie. Wynika to z definicji decybela – 1 dB to logarytmiczna jednostka opisująca stosunek dwóch wartości mocy. Wzór na zmianę mocy w decybelach wygląda tak: dB = 10 * log10(P2/P1). Jeśli podstawimy -6 dB, to: -6 = 10 * log10(P2/P1), czyli log10(P2/P1) = -0,6. Po wyliczeniu: P2/P1 = 10^(-0,6) ≈ 0,25, czyli dokładnie 1/4, co oznacza czterokrotny spadek mocy. Takie przeliczenia przydają się np. w systemach nagłośnieniowych, radiokomunikacji, instalacjach antenowych czy nawet prostych testach wzmacniaczy. W praktyce dużo łatwiej jest operować na decybelach niż na zwykłych wartościach liniowych, bo szybciej wychwycisz zmiany – 3 dB to połowa, 6 dB to ćwiartka, 10 dB to już tylko 1/10 pierwotnej mocy. Z mojego doświadczenia, wielu techników korzysta z tego uproszczenia na co dzień, bo pozwala błyskawicznie ocenić skutki tłumienia czy strat na kablu. Standardy branżowe, np. ITU czy zalecenia EBU, też operują tymi wartościami właśnie dlatego, że są wygodne i uniwersalne. Warto sobie to dobrze zapamiętać – i przydaje się nie tylko na egzaminie, ale i w realnej pracy z elektroniką.

Pytanie 2

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. FILE
B. SESSION
C. I/O
D. EDIT
Sekcja I/O w oprogramowaniu DAW (czyli Input/Output) to absolutna podstawa, jeśli chodzi o komunikację z zewnętrznymi urządzeniami audio, zwłaszcza kartami dźwiękowymi. To właśnie tutaj użytkownik może określić, które wejścia i wyjścia fizyczne z karty dźwiękowej będą wykorzystywane przez projekt – na przykład wybierając konkretne wejście mikrofonowe czy liniowe do nagrania wokalu lub gitary. W praktyce, kiedy masz kilka mikrofonów albo chcesz jednocześnie nagrywać różne instrumenty, konfiguracja I/O pozwala przypisać osobne ścieżki do konkretnych portów, co mocno ułatwia pracę na większych sesjach. Samo ustawienie sterowników ASIO, wybór częstotliwości próbkowania czy rozdzielczości bitowej – to już bardziej globalne opcje, ale routing I/O to jest codzienność każdego, kto pracuje z zewnętrznym sprzętem audio. Moim zdaniem, jeśli ktoś chce uniknąć problemów z nagrywaniem lub odtwarzaniem dźwięku, to naprawdę warto dobrze poznać tę sekcję i umiejętnie z niej korzystać. Do tego, większość DAW-ów (np. Pro Tools, Cubase, Ableton Live) promuje dobre praktyki organizacji wejść i wyjść właśnie przez czytelną mapę I/O, co znacznie zwiększa przejrzystość sesji i minimalizuje ryzyko pomyłek przy większych projektach.

Pytanie 3

Której komendy należy użyć dla przywrócenia ostatnio cofniętej operacji w programie edycyjnym?

A. Redo
B. Undo
C. Rew
D. Back
W przypadku edytorów tekstu, grafiki czy kodu, bardzo często użytkownicy mylą komendy, które wydają się intuicyjne na pierwszy rzut oka, ale nie mają faktycznego przełożenia na funkcjonalność przywracania operacji. Przykładowo, komenda „Rew” nie jest używana w żadnym popularnym oprogramowaniu do edycji danych i raczej kojarzy się ze skrótem od „rewind”, czyli przewijania do tyłu (np. w odtwarzaczach multimediów), a nie przywracania akcji. Z kolei „Back” bardziej sugeruje cofnięcie się do poprzedniego ekranu albo wrócenie do wcześniejszego widoku, co można zobaczyć chociażby w przeglądarkach internetowych, ale nie ma związku z operacjami edycyjnymi typu cofnięcie/ponowienie. Natomiast „Undo” jest zdecydowanie właściwe do cofania ostatniej operacji – czyli wycofania zmian – i pojawia się praktycznie w każdym programie, jednak nie służy do przywracania cofniętych akcji, tylko do ich wycofywania. To dość częsty błąd użytkowników, którzy niesłusznie utożsamiają „Undo” z każdą manipulacją historią operacji, podczas gdy jej przeciwieństwem jest właśnie „Redo”. W praktyce dobre praktyki branżowe wymagają jasnego rozgraniczenia tych funkcji, by użytkownik mógł świadomie zarządzać swoimi zmianami. Używanie niepoprawnej komendy może prowadzić do frustracji i utraty pracy, bo operacja nie zostanie wykonana zgodnie z zamierzeniem. Często osoby początkujące kierują się dosłownym tłumaczeniem nazw lub intuicyjnym zgadywaniem, a nie rzeczywistym działaniem poleceń – stąd takie błędne wybory. Rekomenduję zawsze sprawdzać oznaczenia ikon i skrótów klawiaturowych oraz zapoznać się z dokumentacją programu, bo to pozwala uniknąć zamieszania i przyspiesza pracę.

Pytanie 4

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 100
B. 0,1
C. 10
D. 1
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 5

Różnica między minimalnym a maksymalnym poziomem ciśnienia akustycznego dźwięku, wyrażona w decybelach, to

A. dynamika dźwięku.
B. poziom szumu.
C. głośność dźwięku.
D. zniekształcenia harmoniczne.
Dynamika dźwięku, czyli zakres dynamiczny, to pojęcie, które często pojawia się w branży audio, studiach nagraniowych czy podczas miksowania muzyki na żywo. Chodzi tutaj o różnicę między najcichszym a najgłośniejszym momentem dźwięku, wyrażoną w decybelach (dB). Ten parametr ma ogromne znaczenie praktyczne – na przykład w nagraniach muzycznych dynamika pozwala oddać emocje, subtelność w pianissimo albo potężny akcent w fortissimo. Moim zdaniem, jeśli ktoś chce zrozumieć, dlaczego muzyka z kasety brzmi inaczej niż z płyty winylowej czy z pliku mp3, to właśnie różnice w dynamice są jednym z kluczowych powodów. W profesjonalnej produkcji dźwięku dba się, by nie przesadzić z kompresją, bo wtedy muzyka traci na naturalności. W standardach branżowych (chociażby EBU R128 dla radia i telewizji) dąży się do utrzymania odpowiedniej dynamiki, żeby dźwięk był zrozumiały, a jednocześnie nie męczył odbiorcy. W systemach nagłośnieniowych, nawet w szkołach, warto pamiętać, że za duży zakres dynamiki może sprawić, że część widowni nie usłyszy cichych fragmentów albo głośne będą zbyt szokujące. No i taki drobiazg – dynamika to nie tylko muzyka, ale też np. nagrania filmowe czy nawet przemówienia, gdzie zbyt monotonna dynamika po prostu nudzi słuchacza. To, według mnie, jeden z najważniejszych parametrów w pracy z dźwiękiem.

Pytanie 6

Procesor dźwięku, umożliwiający kompresję sygnału audio, zaliczany jest do grupy procesorów przetwarzających

A. intonację.
B. dynamikę.
C. przestrzeń.
D. barwę.
Procesor dźwięku umożliwiający kompresję sygnału audio faktycznie należy do grupy procesorów przetwarzających dynamikę. Chodzi tutaj o urządzenia lub wtyczki, które wpływają na zakres głośności sygnału – czyli na przykład kompresory, limitery, czy ekspandery. Ich głównym zadaniem jest kontrolowanie różnic między najcichszymi a najgłośniejszymi fragmentami nagrania. Moim zdaniem to absolutnie podstawowe narzędzie w pracy z muzyką, zarówno podczas nagrań studyjnych, jak i przy miksowaniu koncertów na żywo. Kompresor pozwala wyrównać poziomy, przez co wokal nie „znika” w miksie albo nie wybija się nagle, co często się zdarza bez odpowiedniej kontroli dynamiki. Zwróć uwagę, że branża audio od lat uznaje kompresję za kluczowy etap produkcji – trudno sobie wyobrazić profesjonalnie brzmiące nagranie bez odpowiednio użytej kompresji. Często początkujący realizatorzy ignorują ten etap, przez co ich produkcje brzmią płasko albo chaotycznie. Warto wiedzieć, że procesory dynamiki mają zastosowanie nawet w radiu i telewizji, gdzie sygnał musi być zrównoważony, żeby nie zaskoczyć odbiorcy. Praktyka pokazuje, że dobre zrozumienie działania kompresji i innych procesorów dynamiki to podstawa pracy każdego realizatora czy producenta.

Pytanie 7

Zniekształcenia odtwarzanego dźwięku należy ocenić na podstawie

A. komfortu odsłuchu materiału dźwiękowego w długim czasie.
B. równowagi sceny dźwiękowej w materiale muzycznym.
C. obecności syczących i jaskrawych dźwięków.
D. lokalizacji obrazu scenicznego w materiale muzycznym.
Właśnie o to chodzi w praktyce audio – zniekształcenia dźwięku najlepiej rozpoznawać poprzez wsłuchiwanie się w obecność syczących i jaskrawych dźwięków. Przykład? Jeśli słuchasz muzyki i nagle głos wokalisty brzmi jakby miał "syczące S" albo talerze perkusji robią się nieprzyjemnie ostre, to prawie na pewno mamy do czynienia ze zniekształceniami harmonicznymi lub intermodulacyjnymi. Takie artefakty wychodzą na jaw właśnie przy źle ustawionym sprzęcie albo źle dobranych komponentach audio. W branży – zarówno w studiach nagraniowych, jak i na koncertach – inżynierowie dźwięku zawsze zaczynają kontrolę jakości od analizy takich właśnie sybilantów i zniekształceń. Moim zdaniem to jest najprostszy i najbardziej skuteczny sposób, bo nie potrzeba do tego żadnej specjalistycznej aparatury pomiarowej, a tylko własne, dobrze wyćwiczone ucho. Co ciekawe, standardy takie jak ITU-R BS.1116-3 dokładnie opisują takie metody oceny zniekształceń: chodzi o szybkie wychwycenie nienaturalnych, "ostrych" elementów brzmienia. Stąd profesjonalistom często wystarczy krótki odsłuch i już wiedzą, że coś nie gra. W praktyce, im mniej takich nieprzyjemnych, syczących dźwięków, tym lepsza jakość odtwarzania. Takie podejście daje też szybkie rezultaty podczas kalibracji sprzętu – od razu wiadomo, czy coś trzeba poprawić.

Pytanie 8

Do korekcji błędów intonacyjnych nagranego wokalu należy użyć

A. expandera.
B. equalizera.
C. de-essera.
D. autotunera.
Autotuner to narzędzie, które faktycznie służy do korekcji błędów intonacyjnych w nagranym wokalu. Jego głównym zadaniem jest analizowanie wysokości dźwięku ścieżki wokalnej i automatyczne dostosowywanie jej do wybranej tonacji lub skali. Stosowanie autotunera jest już absolutnym standardem w praktycznie każdym studiu nagrań, zarówno w muzyce pop jak i w hip-hopie czy nawet w elektronice. W praktyce, jeśli wokalista zaśpiewa lekko "obok" dźwięku lub nie trafi w tonację, autotuner potrafi szybko i niemal niezauważalnie skorygować takie niedoskonałości – oczywiście wszystko zależy od ustawień, bo przecież nie zawsze chodzi o efekt typu "robot" jak u Cher czy T-Paina. Często używa się subtelnych ustawień, żeby poprawić intonację, a nie zniekształcić głosu. Moim zdaniem, nawet jeśli ktoś nie jest zwolennikiem tego efektu, ciężko sobie dziś wyobrazić profesjonalną produkcję wokalną bez autotunera, chociażby jako narzędzia do lekkiego wyrównania śpiewu. Praktyka pokazuje, że odpowiednio użyty, potrafi uratować niejedno nagranie. Warto też pamiętać, że jest wiele różnych wtyczek do tego celu, jak Antares Auto-Tune, Waves Tune czy Melodyne – każde z nich daje trochę inne możliwości, a zawodowi realizatorzy często dobierają narzędzie do konkretnej sytuacji i efektu, jaki chcą uzyskać.

Pytanie 9

W jakim formacie plików występują znaczniki ID3?

A. .mp3
B. .bwf
C. .aiff
D. .wav
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.

Pytanie 10

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 70 minut.
B. 80 minut.
C. 60 minut.
D. 90 minut.
Poprawnie wybrałeś 80 minut – właśnie tyle maksymalnie można nagrać na standardowej płycie CD-Audio o pojemności 700 MB. Ten format powstał jeszcze w latach 80. XX wieku i od tamtej pory praktycznie się nie zmienił – całość opiera się na zapisie nieskompresowanego dźwięku PCM o częstotliwości próbkowania 44,1 kHz przy 16 bitach i dwóch kanałach (stereo). Przy takich parametrach 1 minuta muzyki zajmuje około 10 MB, dlatego 700 MB wystarcza właśnie na niecałe 80 minut muzyki wysokiej jakości. Standard Red Book (IEC 60908) dokładnie to opisuje, zresztą w branży muzycznej przez lata nikt nie próbował tego modyfikować, bo taka długość płyty idealnie pasowała do większości albumów. W praktyce, jeśli nagrasz płytę o długości 80 minut, nie będzie problemu z jej odtworzeniem w dowolnym klasycznym odtwarzaczu CD. Przekroczenie tej granicy powoduje już spore ryzyko, że płyta nie będzie czytelna wszędzie – producenci sprzętu zawsze trzymają się tych podstawowych parametrów, żeby uniknąć kłopotów z kompatybilnością. Moim zdaniem, właśnie znajomość tych ograniczeń to podstawa dla każdego, kto planuje archiwizować lub publikować dźwięk na CD – nie tylko w teorii, ale i w codziennej praktyce studyjnej. Warto też wiedzieć, że alternatywne formaty, typu CD-MP3, pozwalają zapisać dużo więcej czasu dźwięku, ale tylko na sprzętach, które taką funkcję wspierają. Jednak jeśli chodzi o klasyczny CD-Audio 700 MB – 80 minut to absolutna granica.

Pytanie 11

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD + R SL
B. DVD – R DL
C. CD + R SL
D. CD – R DL
DVD – R DL faktycznie oferuje największą pojemność spośród podanych tu nośników optycznych. To trochę jak dwa standardowe DVD w jednym – technologia DL, czyli Dual Layer (podwójna warstwa), pozwala zapisać dane na dwóch fizycznych warstwach. Dzięki temu na jednym krążku można zmieścić do 8,5 GB danych, a to ponad dwukrotnie więcej niż na klasycznych płytach DVD typu Single Layer (SL), które mają około 4,7 GB. W branży informatycznej płyty DVD – R DL są wykorzystywane wszędzie tam, gdzie trzeba przenieść większe ilości danych – archiwizacja, kopie zapasowe, instalatory systemów operacyjnych, czy dystrybucja zaawansowanego oprogramowania. W praktyce, kiedy trzeba zrobić backup zdjęć z kilku lat albo nagrać filmy w wysokiej rozdzielczości, taki nośnik się sprawdza zdecydowanie lepiej niż płyty CD. Moim zdaniem, jeśli ktoś pracuje z większą ilością danych i nie chce mieć sterty płyt, lepiej wybrać takie rozwiązanie. Oczywiście, płyty optyczne coraz rzadziej się używa, ale w archiwizacji na lata lub tam, gdzie nie można sobie pozwolić na dyski twarde, to dalej jest solidna opcja. Warto pamiętać, że zapis na DVD DL wymaga odpowiedniego napędu obsługującego tę technologię – to taki trochę nieoczywisty szczegół, o którym zapomina sporo osób. Ale jak się już ogarnie sprzęt, to możliwości są dużo większe niż w przypadku CD czy DVD SL.

Pytanie 12

Który z wymienionych skrótów dotyczy określenia liczby klatek na sekundę w sesji montażowej materiału audio-video?

A. SPP
B. FPS
C. BPM
D. MMC
FPS to skrót od angielskiego frames per second, czyli liczba klatek na sekundę. W montażu materiałów wideo, audio-video czy w pracy z animacją, ten parametr jest wręcz podstawowy. Określa, ile pojedynczych obrazów, czyli klatek, jest wyświetlanych w ciągu jednej sekundy filmu. Moim zdaniem, jak ktoś ogarnia montaż, to FPS pojawia się na każdym kroku – bez tego nie da się ustawić płynności ruchu, zsynchronizować dźwięku z obrazem albo przygotować materiału pod różne platformy (YouTube, telewizja, kino). Standardowo spotyka się 24 FPS dla kina, 25 FPS w telewizji europejskiej (PAL), 30 FPS dla NTSC czy wyższe wartości w grach komputerowych i nagraniach slow-motion, gdzie czasem używa się 60 FPS albo nawet dużo więcej. To nie jest tylko liczba – od ustawienia FPS zależy cała dynamika obrazu, płynność ruchu i wrażenia widza. Branżowe oprogramowanie jak Adobe Premiere, DaVinci Resolve czy Avid zawsze wymaga określenia FPS już na etapie zakładania projektu, bo później zmiana tej wartości potrafi sprawić sporo problemów z synchronizacją dźwięku albo ruchem postaci. Z mojego doświadczenia, profesjonaliści zawsze zwracają uwagę, żeby materiały z różnych kamer miały to samo ustawienie FPS, bo inaczej robi się niezły bałagan na timeline. To taki absolutny fundament, który pozwala na profesjonalne podejście do montażu.

Pytanie 13

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 15 GB danych.
B. 10 GB danych.
C. 25 GB danych.
D. 20 GB danych.
Jednowarstwowy nośnik Blu-ray umożliwia zapis do 25 GB danych i to jest dokładnie wartość określona przez oficjalny standard Blu-ray Disc Association. To właśnie dzięki wykorzystaniu niebieskiego lasera (o długości fali około 405 nm) można uzyskać tak dużą gęstość zapisu na tej samej wielkości płycie, co DVD czy CD. W praktyce oznacza to, że na jednej płycie jednowarstwowej można zmieścić nawet dwugodzinny film w jakości Full HD wraz z dodatkowymi materiałami, napisami i ścieżkami dźwiękowymi. Często w pracy spotykam się z sytuacjami, gdzie klienci chcą archiwizować duże ilości zdjęć czy projektów graficznych – Blu-ray sprawdza się wtedy lepiej niż zwykłe DVD, bo nie trzeba dzielić danych na kilka płyt. W branży IT przyjęło się właśnie wykorzystywanie nośników o pojemności 25 GB do tworzenia kopii zapasowych lub dystrybucji oprogramowania, szczególnie tam, gdzie liczy się odporność na uszkodzenia i długi okres przechowywania danych. Trzeba pamiętać, że istnieją również wersje dwuwarstwowe (50 GB) i więcej, ale ta podstawowa, jednowarstwowa płyta zawsze mieści dokładnie 25 GB. To ważny fakt, jeśli chcesz poprawnie dobierać nośniki do określonych zadań lub planować archiwizację danych na konkretną ilość przestrzeni. Moim zdaniem znajomość tych parametrów to podstawa, zwłaszcza jeśli działa się w świecie cyfrowego przetwarzania informacji.

Pytanie 14

Który z wymienionych formatów plików audio stanowi najczęstszą podstawę do pracy montażowej w sesji oprogramowania DAW?

A. .m4a
B. .ogg
C. .mp3
D. .wav
Format .wav jest zdecydowanie najczęściej wykorzystywany w pracy montażowej w DAW (Digital Audio Workstation). To taki branżowy standard i w sumie nie ma się co dziwić, bo pliki wav są nieskompresowane, czyli dźwięk jest w nich zapisany bez żadnych strat jakości. Można je dowolnie edytować, ciąć, nakładać efekty i miksować bez obawy, że coś się popsuje w brzmieniu. DAW-y najchętniej pracują właśnie z tym formatem, bo są one szybkie w odczycie i nie wymagają dodatkowego dekodowania podczas pracy. Z własnego doświadczenia wiem, że gdy dostajesz sesję od innego realizatora lub pracujesz nad projektem na różnych komputerach, .wav po prostu zawsze działa. Jest też bardzo elastyczny – można ustalić różne częstotliwości próbkowania (44.1 kHz, 48 kHz, nawet wyżej) i ilość bitów, w zależności od potrzeb projektu. Co ważne, większość wtyczek, narzędzi masteringowych czy nawet prostych edytorów audio, obsługuje wav bez żadnych problemów. W wielu studiach nagraniowych przyjęło się też, że eksportuje się wszystkie ścieżki w wav, bo potem łatwiej je przesłać do miksu lub masteringu. Inne formaty, jak mp3 czy m4a, raczej nie nadają się do profesjonalnej obróbki, bo są stratne. A .ogg, chociaż czasem spotykany, nie jest popularnym wyborem w produkcji muzycznej. Generalnie, moim zdaniem, jak wchodzisz w temat miksowania czy profesjonalnej produkcji muzyki, wav to podstawa i warto od razu się do tego przyzwyczaić.

Pytanie 15

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 96 dB
B. 64 dB
C. 128 dB
D. 144 dB
Maksymalna teoretyczna dynamika dźwięku możliwa do uzyskania przy rozdzielczości 24-bitowej to właśnie 144 dB. Wynika to z tego, że każdy pojedynczy bit rozdzielczości daje nam około 6 dB zakresu dynamicznego – czyli różnicy między najcichszym a najgłośniejszym możliwym sygnałem, który system potrafi obsłużyć bez zniekształceń. Przy 24 bitach to 24 x 6 dB, co daje właśnie 144 dB. Takie wartości są wykorzystywane zwłaszcza w profesjonalnych środowiskach audio, gdzie miksowanie, mastering albo nagrywanie na żywo wymaga jak najczystszego sygnału i jak największego zapasu ('headroomu'). Oczywiście, w praktyce większość urządzeń audio nie osiąga aż tak wysokiej dynamiki ze względu na szumy elektroniki oraz ograniczenia przetworników, ale właśnie format 24-bitowy jest wykorzystywany wszędzie tam, gdzie chodzi o jakość, na przykład w studiach nagraniowych czy podczas produkcji muzyki filmowej. Moim zdaniem zawsze warto pamiętać, że duża rozdzielczość bitowa to nie tylko lepsza jakość, ale i większa swoboda podczas cyfrowej obróbki dźwięku – łatwiej uniknąć niechcianych przesterów i artefaktów. Branżowy standard DAW-ów czy profesjonalnych kart dźwiękowych to już praktycznie zawsze 24 bity, bo to daje możliwość uzyskania właśnie takiego szerokiego zakresu dynamiki.

Pytanie 16

W produkcji dźwiękowej pod obraz, synchronizacja dźwięku i obrazu jest realizowana za pomocą kodu

A. MIDI Clock
B. LTC
C. SMPTE
D. MTC
Kod SMPTE to w praktyce absolutny fundament, jeśli chodzi o profesjonalną synchronizację dźwięku i obrazu w produkcjach filmowych czy telewizyjnych. Pozwala on na precyzyjne określenie czasu w formacie godzina:minuta:sekunda:klatka, co jest po prostu nie do zastąpienia, gdy trzeba zgrać ścieżki dźwiękowe z poszczególnymi ujęciami wideo. W branży praktycznie wszystko opiera się na SMPTE, bo to właśnie ten standard jest rozpoznawalny przez oprogramowanie do montażu, miksery, rejestratory, a nawet sprzęt do efektów specjalnych. Co ciekawe, SMPTE występuje zarówno jako zapis cyfrowy, jak i analogowy (np. jako sygnał audio na jednej ze ścieżek taśmy), więc daje sporo elastyczności. Można powiedzieć, że bez SMPTE nie byłoby możliwe powtarzalne, profesjonalne łączenie audio i wideo, bo inne systemy są po prostu mniej dokładne albo służą do czegoś zupełnie innego. Z mojego doświadczenia wynika, że jeśli ktoś poważnie podchodzi do postprodukcji, to kod SMPTE zna i rozumie bardzo dobrze – bo to podstawa workflow. Przykład z życia: podczas montażu filmu nawet niewielkie przesunięcie dźwięku względem obrazu psuje cały efekt, więc kod SMPTE gwarantuje spokój ducha i techniczną pewność, że wszystko się zgadza co do klatki.

Pytanie 17

Która z podanych operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Korekcja.
B. Kompresja.
C. Normalizacja.
D. Transpozycja.
Normalizacja to proces, który polega na podniesieniu poziomu całego nagrania w taki sposób, żeby jego najwyższa wartość szczytowa (peak) osiągnęła dokładnie 0 dBFS, czyli maksymalny poziom sygnału cyfrowego bez przesterowania. To jedna z najczęściej wykonywanych operacji podczas pracy z dźwiękiem w studiu czy przy montażu podcastów. Dzięki normalizacji uzyskujemy bardziej równomierny poziom głośności między różnymi nagraniami albo plikami audio, co znacznie ułatwia dalszą obróbkę i miksowanie, zwłaszcza w profesjonalnych workflow. Moim zdaniem, to taka podstawowa „higiena” dźwiękowa — nie poprawia dynamiki jak kompresja, ale daje pewność, że żaden plik nie będzie za cichy lub nieprzewidywalnie głośny. Warto wiedzieć, że normalizacja nie zniekształca proporcji między głośniejszymi i cichszymi fragmentami, bo wszystko podnoszone jest równomiernie, czyli nie ucina transjentów ani nie spłaszcza dynamiki, tylko przesuwa całość w górę. Użycie normalizacji jest szczególnie polecane przed eksportem ścieżek do masteringu albo publikacją materiałów w internecie, gdzie ważne są standardy głośności. W branży muzycznej i radiowej często zwraca się uwagę na to, żeby nie przekraczać 0 dBFS, bo wtedy pojawia się clipping — a normalizacja nam właśnie w tym pomaga. Z doświadczenia wiem, że zbyt częste używanie normalizacji na różnych etapach może prowadzić do zgubienia pierwotnej dynamiki, więc lepiej traktować ją jako jeden z ostatnich kroków w procesie produkcji.

Pytanie 18

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. CUT
B. FREEZE
C. DELETE
D. SPLIT
Funkcja SPLIT to absolutny standard w każdym szanującym się programie typu DAW, od prostych edytorów po zaawansowane stacje robocze jak Pro Tools czy Cubase. Z jej pomocą możesz błyskawicznie podzielić jeden plik audio na kilka mniejszych fragmentów, co jest niesamowicie wygodne przy edycji dialogów, cięciu sampli czy przygotowywaniu pętli rytmicznych. Moim zdaniem, to jedna z najczęściej używanych funkcji na ścieżkach audio, bo pozwala zyskać pełną kontrolę nad aranżacją i montażem – nie trzeba kopiować całych plików, ciąć na zewnątrz i ponownie importować do projektu. SPLIT praktycznie zawsze działa w miejscu kursora albo w wybranym zakresie, więc szybko dzielisz materiał dokładnie tam, gdzie tego chcesz. Dodatkowo większość DAW pozwala odwrócić ten podział bez utraty oryginalnych danych, co jest ogromnym plusem przy pracy nieniszczącej. Trochę z doświadczenia – bez SPLIT praca z podcastami czy muzyką elektroniczną byłaby o wiele bardziej uciążliwa. Profesjonaliści branży audio zawsze korzystają z tej funkcji, bo jest szybka, precyzyjna i nie wpływa negatywnie na jakość dźwięku. Warto też wiedzieć, że podział ścieżki przez SPLIT nie powoduje automatycznie usunięcia żadnej jej części, tylko wygodnie je oddziela, żebyś mógł osobno przesuwać, kopiować czy edytować każde z nich. To taki must-have każdej sesji edycyjnej.

Pytanie 19

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Bass
B. Cello
C. Violin
D. Viola
Prawidłowe nazwanie ścieżki jako „Violin” w projekcie DAW to nie tylko kwestia porządku, ale przede wszystkim dobrych praktyk pracy w środowisku studyjnym. Właściwe etykietowanie śladów – tu konkretnie nagrania partii skrzypiec – niesamowicie ułatwia późniejszą edycję, miksowanie czy współpracę z innymi realizatorami i muzykami. Pracując nad rozbudowanym projektem, gdzie często pojawia się kilkadziesiąt ścieżek instrumentów, szybkie zlokalizowanie skrzypiec (Violin) dzięki poprawnej nazwie oszczędza masę czasu i pozwala uniknąć nieporozumień. Z mojego doświadczenia wynika, że nawet jeśli pracujesz solo, po paru dniach wracając do projektu możesz zapomnieć, co kryje się pod „Track 1” – natomiast „Violin” mówi wszystko jasno. Branżowe standardy, zwłaszcza w większych studiach czy przy pracy z zagranicznymi realizatorami, są wręcz bezlitosne dla chaotycznego nazewnictwa – tu liczy się precyzja i konsekwencja. Warto też zauważyć, że część DAW-ów automatycznie eksportuje nazwy śladów do plików STEM czy sesji AAF/OMF, co jest nieocenione przy dalszym transferze materiału. Oprócz tego, jasne nazewnictwo ścieżek pomaga automatyzować różne procesy, np. routing czy grupowanie w mikserze. Moim zdaniem, to taki prosty nawyk, który po prostu trzeba sobie wyrobić, jeśli chce się być profesjonalistą w tej branży.

Pytanie 20

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. SOLO
B. MUTE
C. RECORD
D. INPUT
Funkcja SOLO na ścieżkach w sesji DAW to absolutna podstawa pracy z wieloma kanałami dźwiękowymi. Włączając SOLO na konkretnej ścieżce, powodujesz, że tylko ten tor (lub grupa zaznaczonych ścieżek solo) jest słyszalny w odsłuchu, a cała reszta zostaje automatycznie wyciszona. To bardzo przydatne np. podczas miksowania, kiedy chcesz dokładnie usłyszeć, co się dzieje z dźwiękiem jednej stopy perkusyjnej albo wokalu, bez rozpraszających elementów innych śladów. W każdym poważniejszym DAW – czy to Pro Tools, Cubase, Ableton, Reaper, Studio One – SOLO działa praktycznie identycznie, więc to taki uniwersalny język producentów. Moim zdaniem, bez SOLO nie da się pracować szybko i precyzyjnie, bo wyłuskanie niuansów w gąszczu śladów bez tej funkcji to prawdziwa męka. Często używa się SOLO w połączeniu np. z automatyzacją lub korekcją – bo dopiero na czystym odsłuchu da się „wyłapać” niechciane dźwięki czy precyzyjnie ustawić efekty. Warto pamiętać, że są różne tryby SOLO, np. solo destrukcyjne (mute dla reszty ścieżek) czy solo PFL (pre-fader listen) – to już bardziej zaawansowane, ale w każdym razie, SOLO to kluczowy przyjaciel każdego realizatora.

Pytanie 21

Jakiej długości będzie materiał stereofoniczny w formacie CD-Audio o rozmiarze 30 MB?

A. 100 s
B. 10 s
C. 120 s
D. 180 s
Dokładnie tak, trzy minuty, czyli 180 sekund, to właściwy wynik dla materiału stereofonicznego w formacie CD-Audio o rozmiarze 30 MB. Chodzi tutaj o zrozumienie, jak działa standard CD-Audio – mamy do czynienia z dwoma kanałami (stereo), próbkowanie 44,1 kHz oraz rozdzielczość 16 bitów na próbkę. W praktyce wygląda to tak: (44100 próbek/s) × (2 kanały) × (16 bitów) = 1 411 200 bitów na sekundę, czyli mniej więcej 176,4 kB/s. Dzieląc 30 MB przez tę wartość, wychodzi właśnie około 170–180 sekund. Takie przeliczanie przydaje się nie tylko przy archiwizacji muzyki, ale też w planowaniu przestrzeni na płycie CD czy ocenie jakości kompresji audio. Sam nieraz spotkałem się z sytuacją, gdzie trzeba było „na oko” określić, czy na płytę wejdzie dany kawałek czy dwie piosenki. Warto pamiętać, że format CD to ciągły, bezstratny zapis – nie ma tu kompresji, wszystko „pożera” dużo miejsca. Dlatego branżowo często podkreśla się wagę właściwego planowania przy produkcji muzycznej i masteringu, żeby potem nie okazało się, że materiału zwyczajnie nie da się zmieścić na nośniku. Przy okazji można zauważyć, że standard CD-Audio jest zaskakująco „ciężki” w porównaniu do plików MP3 czy AAC o tej samej długości, co zresztą wpływa na wybory nośników w różnych zastosowaniach.

Pytanie 22

LTC, VITC, MTC to niektóre z formatów

A. kodu czasowego.
B. plików dźwiękowych bez kompresji.
C. kodeka MPEG.
D. plików projektu DAW.
LTC, VITC i MTC to trzy najważniejsze formaty kodu czasowego wykorzystywane w profesjonalnych zastosowaniach audio-wideo. To właśnie za ich pomocą synchronizuje się różne urządzenia – na przykład magnetofony wielośladowe, miksery cyfrowe, rekordery czy systemy montażowe w studiu filmowym. Każdy z tych formatów ma swoje konkretne zastosowania: LTC (Linear Time Code) to kod czasowy zapisany liniowo jako sygnał analogowy, często wykorzystywany na taśmach magnetycznych lub przesyłany kablem. VITC (Vertical Interval Time Code) wpisywany jest bezpośrednio w niewidoczną część sygnału wizyjnego, co umożliwia odczyt nawet przy bardzo niskich prędkościach odtwarzania. MTC (MIDI Time Code) bazuje na protokole MIDI i służy głównie w środowiskach muzycznych oraz DAW-ach do synchronizacji programów i urządzeń. Moim zdaniem zrozumienie różnic pomiędzy tymi trzema kodami czasowymi to absolutna podstawa dla każdego, kto chce profesjonalnie zajmować się dźwiękiem lub postprodukcją wideo. W praktyce, jeżeli np. synchronizujesz nagrania z kilku kamer albo chcesz, żeby automat do efektów światła chodził równo z dźwiękiem, kod czasowy to jedyne sensowne rozwiązanie. W branży stosuje się te standardy od dekad – bez nich trudno wyobrazić sobie profesjonalne studio czy plan filmowy.

Pytanie 23

Sporządzenie duplikatu źródłowego materiału dźwiękowego należy przeprowadzić na etapie

A. masteringu.
B. edycji.
C. rejestracji.
D. montażu.
To jest właśnie to, o co chodzi w profesjonalnej produkcji dźwięku. Sporządzenie duplikatu źródłowego materiału dźwiękowego — często zwanego safety copy lub backupem — powinno się wykonywać już na etapie rejestracji. Chodzi o to, żeby od samego początku zabezpieczyć materiał przed stratą, uszkodzeniem czy jakimkolwiek przypadkowym nadpisaniem. Jest to absolutny standard w każdej szanującej się realizacji studyjnej czy nawet podczas nagrań plenerowych. Moim zdaniem to jedna z tych rzeczy, na które często się nie zwraca uwagi na początku nauki, a potem, po paru wpadkach, nagle wszyscy zaczynają rozumieć, dlaczego to jest takie ważne. Praktyka jest taka, że zaraz po zakończeniu sesji nagraniowej należy wykonać kopię surowych plików – czy to na inny nośnik, chmurę, czy zewnętrzny dysk. W branży wszyscy wiedzą, że nie istnieje coś takiego jak 'za dużo backupów'. To jest też jeden z tych momentów, gdzie dobre praktyki spotykają się z doświadczeniem – osoby, które przeżyły utratę ważnych nagrań, już zawsze robią kopie natychmiast po rejestracji. Takie podejście pozwala spać spokojnie i bez stresu przechodzić do kolejnych etapów produkcji, wiedząc, że oryginał jest bezpieczny. Bezpieczeństwo danych, jak dla mnie, to podstawa tej roboty.

Pytanie 24

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 300 ms
B. 400 ms
C. 200 ms
D. 500 ms
Dobrze, że wybrałeś 500 ms – to właśnie tyle trwa jedna ćwierćnuta w takcie o metrum 4/4 przy tempie 120 BPM. Wynika to z prostego przeliczenia: 120 BPM oznacza, że w ciągu jednej minuty mamy 120 ćwierćnut, czyli każda ćwierćnuta trwa dokładnie pół sekundy. W praktyce przydaje się to nie tylko przy graniu na instrumencie, ale też podczas pracy z DAW-em, kiedy ustawiamy tempo projektu. Na przykład, jeśli chcesz zsynchronizować automat perkusyjny z resztą ścieżek, musisz wiedzieć jak długo trwa każdy ćwierćnutowy impuls – i właśnie te 500 ms jest kluczowe. W branży muzycznej powszechnie korzysta się z tego typu obliczeń, bo pozwalają one idealnie dopasować efekty, takty czy nawet pętle. Moim zdaniem, znajomość takich podstawowych przeliczeń bardzo się przydaje, zwłaszcza gdy zaczynasz eksperymentować z bardziej zaawansowanymi technikami produkcji czy aranżowania. Często widuję, że profesjonaliści od razu liczą wartości w milisekundach, żeby ustawiać czasy pogłosów, delayów czy nawet automatyzować parametry syntezatorów. Niby prosta sprawa, ale oszczędza sporo nerwów na etapie miksowania. Jeszcze jedna rzecz – w nutach metrum 4/4 jest najczęstsze, więc to przeliczanie na 500 ms naprawdę się często przewija w praktyce.

Pytanie 25

Jakiego rodzaju płyty DVD należy użyć do nagrania największej ilości materiału muzycznego?

A. DVD9
B. DVD10
C. DVD18
D. DVD5
Wybrałeś DVD18, co jest zdecydowanie najbardziej sensowne, jeśli chodzi o maksymalizowanie ilości danych na jednej płycie DVD. DVD18 to tzw. płyta dwustronna, dwuwarstwowa. Oznacza to, że ma dwie warstwy zapisu po każdej stronie, a więc w sumie cztery warstwy do wykorzystania. Dzięki temu DVD18 może pomieścić aż do około 17,1 GB danych, co jest prawie czterokrotnością zwykłej płyty DVD5. W praktyce, jeśli masz bardzo dużo materiałów muzycznych, które chcesz nagrać – np. archiwum płyt, koncerty czy kolekcje plików audio w wysokiej jakości – DVD18 daje największe pole do popisu i nie trzeba się martwić o miejsce. Warto też zauważyć, że takie płyty nie są zbyt popularne w codziennym użyciu, bo wymagają specjalnych nagrywarek, ale w zastosowaniach profesjonalnych lub archiwizacji spotyka się je całkiem często. Moim zdaniem, jeśli ktoś podchodzi na poważnie do tematu archiwizacji muzyki na fizycznych nośnikach, zawsze powinien brać pod uwagę nie tylko pojemność nominalną, ale też kompatybilność sprzętową oraz sposób odczytu – DVD18 wymaga odtwarzania z obu stron, co czasem bywa kłopotliwe, ale coś za coś. Standardy takie jak DVD Forum dokładnie opisują te różnice, więc warto się z nimi zapoznać jeśli planuje się duże projekty nagraniowe.

Pytanie 26

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -6 dBFS
B. -3 dBFS
C. -12 dBFS
D. -0,3 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 27

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .mid
B. .cpr
C. .omf
D. .song
Rozszerzenie .omf to naprawdę bardzo ważny standard w pracy z różnymi programami DAW. OMF, czyli Open Media Framework, został stworzony właśnie po to, żeby umożliwić wymianę sesji audio pomiędzy odmiennymi środowiskami – na przykład przenosząc projekt z Cubase do Pro Tools albo z Logic do Nuendo. Moim zdaniem, jeśli ktoś poważnie myśli o współpracy z różnymi studiami czy producentami, to musi znać OMF, bo często to jedyny sposób na zachowanie struktury sesji, ścieżek, markerów, a nawet podstawowych automatyzacji. Przykładowo, jeśli ktoś dostaje zlecenie masteringu czy miksu, bardzo często klient przesyła właśnie plik .omf – dzięki temu nie trzeba eksportować każdej ścieżki osobno i ręcznie ustawiać ich w nowym DAW. W praktyce, OMF nie przenosi wszystkich ustawień wtyczek czy parametrów miksu, ale zachowuje układ ścieżek i przejścia audio, co w większości przypadków bardzo usprawnia pracę. Warto też wiedzieć, że OMF to branżowy standard, z którego korzysta się nawet w produkcjach filmowych, gdzie synchronizacja materiałów z różnych źródeł jest kluczowa. Pewnie, że formaty typu AAF zaczynają wypierać OMF, ale wciąż mnóstwo studiów korzysta z tego rozwiązania, bo jest po prostu sprawdzone i przewidywalne. Moim zdaniem, znajomość OMF to taki must-have każdego, kto działa z DAW-ami na poważnie.

Pytanie 28

Wskaż narzędzie przeznaczone do powiększania lub zmniejszania obrazu obszaru roboczego w sesji montażowej programu DAW.

A. Zoom Tool.
B. Solo Tool.
C. Scissor Tool.
D. Test Tool.
Zoom Tool to faktycznie narzędzie, które w praktycznie każdym nowoczesnym DAW umożliwia szybkie powiększanie albo zmniejszanie widoku obszaru roboczego. Moim zdaniem, to jedno z tych narzędzi, z których korzysta się niemal cały czas, zwłaszcza przy bardziej rozbudowanych projektach – czy to w Cubase, Logic Pro, Abletonie czy Pro Tools. Dzięki Zoom Tool możemy dokładnie przyjrzeć się szczegółom edytowanej ścieżki lub na odwrót: zobaczyć szerszy kontekst całego aranżu. To bardzo ważne, bo często trzeba na przykład wyłapać precyzyjnie miejsce cięcia, ustawić dokładnie punkt edycji lub znaleźć fragment, który wymaga poprawki. Używanie Zoom Toola to nie tylko wygoda, ale też oszczędność czasu – nie musisz przewijać ani gubić się w gąszczu ścieżek. W branży standardem jest szybkie przełączanie się pomiędzy różnymi zakresami widoku, zwłaszcza przy pracy na wielu ścieżkach lub dużej liczbie klipów. Dobrą praktyką jest również łączenie Zoom Tool z funkcjami skrótów klawiaturowych, bo pozwala to jeszcze szybciej reagować na potrzeby projektu. Warto pamiętać, że niektóre DAWy pozwalają nawet na tworzenie własnych presetów powiększenia, co dodatkowo usprawnia workflow. Z mojego doświadczenia – im sprawniej opanujesz obsługę Zoom Toola, tym płynniej i efektywniej pójdzie ci każda sesja montażowa.

Pytanie 29

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 48 000 Hz, 128 kbps
B. 44 100 Hz, 160 kbps
C. 44 100 Hz, 96 kbps
D. 22 000 Hz, 128 kbps
Wybór parametrów 44 100 Hz i 96 kbps to bardzo rozsądna opcja, jeśli zależy Ci na minimalnym rozmiarze pliku mp3. Kluczowe jest tutaj zrozumienie dwóch rzeczy: częstotliwości próbkowania (czyli 44 100 Hz, co jest standardem dla płyt CD) oraz przepływności bitowej – w tym przypadku 96 kbps. To właśnie bitrate, czyli ilość kilobitów na sekundę, najbardziej wpływa na wagę końcowego pliku. Im niższy bitrate, tym mniej danych jest zapisywanych na sekundę dźwięku, więc sam plik jest mniejszy. Przy 44 100 Hz zachowujemy przyzwoitą jakość dźwięku, a 96 kbps to już taki dość niski bitrate – stosowany często w podcastach albo tam, gdzie liczy się objętość pliku. Z mojego doświadczenia, jeśli komuś zależy na bardzo małym pliku (np. do wysyłki e-mailem albo na starą mp3-kę z małą kartą pamięci), to właśnie taka kombinacja jest najczęściej wybierana. Branżowo rzecz biorąc, przy 44 100 Hz/96 kbps dźwięk jest już wyraźnie skompresowany, ale wciąż nadaje się do słuchania w tle, a pliki są naprawdę lekkie. Warto pamiętać, że jeszcze niższe parametry mocno psują jakość i raczej nie są zalecane. Generalnie, jeśli ktoś pyta o najmniejszy rozmiar mp3, to zawsze trzeba patrzeć przede wszystkim na bitrate – a tutaj 96 kbps wygrywa z pozostałymi opcjami.

Pytanie 30

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .ac3
B. .omf
C. .mp3
D. .aiff
Pliki .mp3, choć są zdecydowanie najpopularniejszym formatem kompresji stratnej audio na świecie, to jednak ich głównym przeznaczeniem jest kodowanie dźwięku w trybie stereo lub mono, ewentualnie jako strumień wielokanałowy, ale bez pełnej obsługi przestrzennej typowej dla standardów kina domowego. W praktyce w branży muzycznej i rozrywkowej .mp3 nigdy nie był wykorzystywany do profesjonalnej dystrybucji dźwięku wielokanałowego, bo po prostu nie daje takiej funkcjonalności ani jakości. Z kolei .aiff to klasyczny, nieskompresowany format audio, rozwijany przez Apple. Pozwala co prawda zapisać wiele ścieżek, ale nie jest zoptymalizowany do zapisu dźwięku przestrzennego w jednym pliku zgodnie ze standardami surround (np. 5.1, 7.1 itd.), które są niezbędne w produkcjach filmowych czy telewizji. Raczej używa się go do archiwizacji lub pracy na pojedynczych ścieżkach podczas miksu. .omf to z kolei format przeznaczony do wymiany projektów multimedialnych między różnymi programami DAW. Umożliwia transport wielu ścieżek audio i informacji o projekcie, ale nie jest formatem docelowym do dystrybucji gotowego materiału audio, a już na pewno nie do masteringu wielokanałowego. Często spotykałem się z mylnym przekonaniem, że skoro format coś „widzi” wiele ścieżek to już obsługuje surround – tu właśnie łatwo się pomylić. Kluczowym kryterium jest to, czy dany format pozwala na zapis dźwięku w układzie przestrzennym i jego odczyt na sprzęcie konsumenckim bez dodatkowej obróbki – a tego nie oferują ani .mp3, ani .aiff, ani .omf. W praktyce, jeżeli gdzieś chcemy, żeby dźwięk otaczał widza lub słuchacza z każdej strony, to formaty specjalistyczne jak .ac3 są absolutnie niezbędne. Warto wiedzieć, że dobór formatu pod kątem docelowego odbiorcy i sprzętu jest kluczowym etapem produkcji audio – tu kompromisy często kończą się utratą efektu, na którym zależy realizatorom.

Pytanie 31

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 8 razy.
B. 2 razy.
C. 6 razy.
D. 4 razy.
Podniesienie poziomu sygnału o 6 dB oznacza podwojenie amplitudy tego sygnału. To wynika bezpośrednio z matematycznej definicji decybela, a dokładniej z tego, że 20 * log10(A2/A1) = 6 dB prowadzi do A2/A1 ≈ 2. Tak jest zawsze, niezależnie czy mówimy o audio, radiu czy innych dziedzinach elektroniki. Moim zdaniem to bardzo praktyczna wiedza – w instalacjach nagłośnieniowych czy np. przy pomiarach sygnałów na oscyloskopie można błyskawicznie ocenić, jak zmiana poziomu w dB przełoży się na realny wzrost napięcia. Trzymanie się tej zależności pomaga unikać nieporozumień w komunikacji między technikami, bo decybel to jednak logarytmiczna miara i łatwo się pomylić. Warto pamiętać, że dla mocy 3 dB to podwojenie, ale dla amplitudy (czyli napięcia) trzeba już 6 dB. Przy projektowaniu układów audio czy transmisji sygnałów zawsze się to przydaje, bo pozwala szybko szacować wymaganą rezerwę sygnału czy określać, czy wzmacniacz poradzi sobie z konkretnym poziomem wejściowym. Z własnego doświadczenia wiem, że to jedna z tych magicznych liczb, które po prostu zapamiętuje się na zawsze.

Pytanie 32

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. VOX
B. LEAD
C. ORG
D. RHYTHM
W branży muzycznej, zwłaszcza podczas realizacji nagrań w studiu, określenie "LEAD" na liście montażowej odnosi się do instrumentu prowadzącego, czyli w tym przypadku gitary prowadzącej. To właśnie ten ślad odpowiada za partie solowe, riffy i różnego rodzaju melodie, które wysuwają się na pierwszy plan miksu. Moim zdaniem, znajomość tego typu oznaczeń jest absolutnie podstawowa, bo pozwala sprawnie komunikować się w zespole realizatorskim i nie pogubić się podczas pracy na sesjach wielośladowych. W praktyce, kiedy inżynier dźwięku dostaje sesję nagraniową, od razu wie, że ślad "LEAD" to właśnie gitara, która gra solówki czy partie charakterystyczne, a nie na przykład rytmikę czy akordy pod wokalem. Standardy takie funkcjonują nie tylko w muzyce rozrywkowej, ale i w innych gatunkach – lead guitar, lead vocal to po prostu utarte, uniwersalne określenia. Dobrą praktyką jest zawsze stosowanie takich jasnych, krótkich oznaczeń w dokumentacji oraz w DAW, bo to skraca czas edycji i miksu. Z mojego doświadczenia wynika, że błędne oznaczenie śladów potrafi zdezorganizować całą pracę. LEAD zawsze oznacza ślad przewodni, przyciągający uwagę słuchacza.

Pytanie 33

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .aiff, 96 kHz, 16 bitów.
B. .wav, 96 kHz, 8 bitów.
C. .wav, 192 kHz, 8 bitów.
D. .aiff, 48 kHz, 16 bitów.
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 34

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 18 dB/okt.
B. 6 dB/okt.
C. 24 dB/okt.
D. 12 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 35

W którym z formatów należy zapisać sesję oprogramowania DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. .mpeg
B. .aup
C. .rmvb
D. .omf
Format .omf (Open Media Framework) to taki trochę złoty standard, jeśli chodzi o przenoszenie projektów między różnymi programami DAW – czyli Digital Audio Workstation. W praktyce oznacza to, że sesję, którą np. zaczniesz w Pro Tools, możesz potem otworzyć w Cubase czy Nuendo, o ile oba programy wspierają OMF. Z mojego doświadczenia to mega przyspiesza współpracę między studiem dźwiękowym a montażystą filmowym albo producentem muzycznym, bo nie musisz eksportować każdego śladu osobno i ręcznie synchronizować wszystkiego od zera. OMF umożliwia przeniesienie nie tylko samych plików audio, ale również podstawowych ustawień ścieżek czy cięć, co w pracy zawodowej bywa wręcz zbawienne. Moim zdaniem, każdy, kto planuje zawodowo zajmować się produkcją audio czy postprodukcją, powinien znać ten format i umieć z niego korzystać. To jest taka dobra praktyka branżowa, żeby zawsze mieć kopię sesji w OMF, bo nigdy nie wiadomo, na czym przyjdzie Ci pracować albo komu będzie trzeba przesłać projekt. Warto też wiedzieć, że są nowsze formaty jak AAF, ale OMF dalej jest bardzo powszechny i każdy szanujący się DAW go obsługuje – przynajmniej w wersji podstawowej.

Pytanie 36

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 160 kb/s
B. 240 kb/s
C. 320 kb/s
D. 480 kb/s
Format MP3, mimo że jest szeroko znany i wykorzystywany praktycznie od lat 90., ma swoje jasno określone limity w zakresie przepływności bitowej. Maksymalna stała przepływność (CBR), jaką przewiduje standard MPEG-1 Layer III – czyli właśnie MP3 – to 320 kb/s. Ten parametr pojawił się po to, żeby zapewnić najlepszą możliwą jakość dźwięku przy zachowaniu rozsądnego rozmiaru pliku, zwłaszcza w czasach, kiedy pojemność płyt CD czy wczesnych dysków twardych była dużo mniejsza. Pliki zakodowane z przepływnością 320 kb/s są praktycznie transparentne dla większości użytkowników – czyli trudno odróżnić je od oryginalnego CD. W praktyce użycie 320 kb/s jest dziś raczej rzadkie, bo nowoczesne kodeki (jak AAC, Opus) oferują podobną lub wyższą jakość przy niższych bitrate’ach, ale wciąż sporo osób archiwizuje muzykę w tym ustawieniu, żeby mieć maksimum jakości w MP3. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem zawodowo albo po prostu lubi mieć wszystko „na bogato”, wybiera właśnie 320 kb/s. Gdyby ktoś próbował ustawić wyższą wartość, np. 480 kb/s, to standardowy enkoder MP3 po prostu nie pozwoli na takie ustawienie, bo limit jest zapisany w specyfikacji. To jeden z tych szczegółów, które warto znać, bo czasem w praktyce spotyka się źle opisane pliki lub dziwnie skonfigurowane konwertery. Generalnie, jeśli widzisz MP3 powyżej 320 kb/s, to coś jest nie tak – albo z plikiem, albo z opisem. Warto o tym pamiętać przy pracy z muzyką, podcastami czy innymi danymi audio. Wybór właściwej przepływności to podstawa dobrej praktyki inżynierskiej i standard branżowy, a 320 kb/s to maksimum, na jakie pozwala MP3.

Pytanie 37

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. CD-RW
B. BD-R
C. DVD+R
D. HD DVD-R
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.

Pytanie 38

Której funkcji programu do konwersji plików dźwiękowych należy użyć, aby zwiększyć dokładność obróbki cyfrowego materiału audio?

A. Nadpróbkowania.
B. Transpozycji.
C. Kompresji.
D. Normalizacji.
Nadpróbkowanie to funkcja, która w praktyce potrafi podnieść dokładność obróbki cyfrowego audio, szczególnie kiedy pracujemy ze ścieżkami dźwiękowymi wymagającymi dalszych edycji, np. miksu czy masteringu. W skrócie – polega to na tym, że zwiększamy liczbę próbek na sekundę (czyli tzw. częstotliwość próbkowania), co pozwala uzyskać więcej szczegółów i precyzji podczas późniejszych operacji. Branżowe standardy, jak np. produkcja muzyczna czy postprodukcja filmowa, bardzo często polegają na nadpróbkowaniu, by uniknąć artefaktów, takich jak aliasing albo zniekształcenia, które mogą pojawić się podczas stosowania efektów cyfrowych. Moim zdaniem, jeśli ktoś chce osiągnąć wysoką jakość i zachować pełną kontrolę nad materiałem, nadpróbkowanie jest wręcz obowiązkowe, zwłaszcza przy bardziej zaawansowanych procesach – chociażby korekcji czy syntezie dźwięku. Warto też pamiętać, że potem można wrócić do niższej częstotliwości próbkowania, ale ten etap pośredni daje nam po prostu większy margines bezpieczeństwa i swobody w pracy. Przykładowo, lepiej brzmiące przesterowania czy bardziej naturalne filtry to właśnie zasługa nadpróbkowania. W sumie to taka branżowa sztuczka, bez której ciężko dziś o naprawdę profesjonalnie brzmiący materiał audio.

Pytanie 39

Podczas tworzenia nowej sesji w programie DAW, można dokonać wyboru

A. częstotliwości próbkowania dźwięku w sesji.
B. typu znaczników używanych w sesji.
C. liczby grup ścieżek w sesji.
D. kształtu fade in i fade out w regionach w sesji.
Wybór częstotliwości próbkowania dźwięku podczas tworzenia nowej sesji w programie DAW to jedna z kluczowych decyzji technicznych, które wpływają na jakość całego projektu audio. Tak naprawdę, to właśnie od tego parametru zależy, jak szczegółowo zostanie zapisana informacja dźwiękowa – im wyższa częstotliwość, tym więcej szczegółów w nagraniu, ale też większe zapotrzebowanie na miejsce na dysku i moc obliczeniową komputera. W profesjonalnych produkcjach muzycznych najczęściej ustawia się 44,1 kHz (standard płyt CD) albo 48 kHz (standard w wideo), ale często stosuje się nawet 88,2 lub 96 kHz, zwłaszcza tam, gdzie priorytetem jest jakość, a nie optymalizacja rozmiaru plików. Moim zdaniem, warto znać różnice i świadomie dobierać próbkowanie do konkretnego zastosowania – na przykład przy podkładach lektorskich do YouTube raczej nie ma sensu iść w kosmiczne wartości, ale już przy masteringu albumu dla dużego wydawcy wybór wyższej częstotliwości daje wymierne korzyści. Dobre praktyki branżowe zalecają ustawić częstotliwość próbkowania na samym początku, bo późniejsza zmiana potrafi być kłopotliwa i powodować konwersje, które mogą obniżyć jakość dźwięku. W wielu DAW-ach nie da się nawet zmienić tego parametru w istniejącej sesji bez utraty pewnych niuansów brzmieniowych. W skrócie, to podstawa w każdym projekcie audio – trochę jak wybór rozdzielczości przed nagraniem filmu.

Pytanie 40

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R DL
B. DVD-R
C. DVD-RW
D. DVD+R
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.