Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 8 maja 2026 08:18
  • Data zakończenia: 8 maja 2026 08:23

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z podanych funkcji oprogramowania DAW służy do utworzenia nowej sesji montażowej?

A. Open
B. Load
C. Import
D. New
Opcja „New” to absolutnie podstawowa funkcja w każdym programie typu DAW, czyli Digital Audio Workstation. Służy ona do utworzenia nowej sesji montażowej, czyli po prostu zaczynasz od zera nowy projekt. To trochę tak, jakbyś w edytorze tekstu klikał „Nowy dokument” – czysta karta do pracy. W branży muzycznej i dźwiękowej jest to standard – zawsze, gdy chcesz rozpocząć nową produkcję, miks, mastering czy nawet eksperymenty z brzmieniem, korzystasz właśnie z tej funkcji. Tworzenie nowej sesji pozwala Ci zdefiniować podstawowe ustawienia: tempo, liczbę ścieżek, format projektu czy nawet wybrać szablon, jeśli producent go przygotował. Dobrą praktyką jest także od razu nadanie nazwy nowej sesji i zapisanie jej w dedykowanym folderze – to naprawdę ułatwia organizację pracy i późniejsze zarządzanie plikami. Z mojego doświadczenia wynika, że wielu początkujących producentów zapomina o tej metodzie pracy i próbuje kombinować z kopiowaniem starych projektów, co może skończyć się niezłym bałaganem. Funkcja „New” to także start czystego środowiska pracy, bez pozostałości z poprzednich sesji, co jest bardzo ważne dla stabilności programu oraz uniknięcia konfliktów wtyczek czy ścieżek. Moim zdaniem to podstawa workflow w każdym DAW, niezależnie czy pracujesz w Cubase, Pro Tools, Ableton Live czy FL Studio. Warto od razu się do tego przyzwyczaić, bo to przyspiesza pracę i pozwala uniknąć problemów w przyszłości.

Pytanie 2

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp4
B. *.mp3
C. *.m4p
D. *.m4a
Rozszerzenie *.mp4 to zdecydowanie najbardziej uniwersalny i powszechnie stosowany format do przechowywania zarówno ścieżek audio, jak i video. Format MP4 (MPEG-4 Part 14) bazuje na standardzie MPEG-4 i jest wspierany praktycznie we wszystkich nowoczesnych urządzeniach – od komputerów, przez smartfony, aż po telewizory Smart TV czy konsole do gier. Co ciekawe, *.mp4 pozwala nie tylko na zapis obrazu i dźwięku, ale też napisów czy metadanych, co przydaje się szczególnie przy produkcji filmów, klipów czy prezentacji multimedialnych. Z mojego doświadczenia, gdy klient prosi o plik zawierający zarówno wideo, jak i audio, to zawsze wybieram MP4 – praktycznie nie ma z nim problemów z kompatybilnością, nawet na starszych sprzętach. Standard ten jest szeroko rekomendowany przez organizacje branżowe, m.in. Moving Picture Experts Group. Czasem spotyka się pliki .avi czy .mkv, ale to MP4 faktycznie stał się złotym standardem dzięki kompresji, jakości i wszechstronności. W codziennej pracy z plikami multimedialnymi osobiście często korzystam z tego formatu, bo nie trzeba się bawić w konwersje i kombinować z kodekami. Moim zdaniem, jeśli ktoś chce mieć pewność, że jego wideo zadziała wszędzie – wybór jest oczywisty. Warto też pamiętać, że MP4 obsługuje różne kodeki (np. H.264, AAC), więc można uzyskać świetną jakość przy relatywnie małym rozmiarze pliku. Dla osób, które myślą o publikacji materiałów w internecie, MP4 to już praktycznie wymóg branżowy.

Pytanie 3

Na której z kaset sygnał audio zostanie zapisany w postaci cyfrowej?

A. VHS
B. CC
C. DAT
D. BETACAM
Odpowiedź DAT jest prawidłowa, bo kasety DAT (Digital Audio Tape) zostały opracowane specjalnie do cyfrowego zapisu dźwięku. DAT to w zasadzie taki techniczny przełom z końca lat 80., który pozwolił na rejestrację dźwięku w postaci cyfrowej, a nie analogowej jak w przypadku większości starszych kaset. Tego typu nośnik zachowuje idealną stabilność sygnału, nie ma szumów charakterystycznych dla zapisu analogowego, nie występują dropy czy zniekształcenia, które często irytowały podczas archiwizacji na kasetach CC czy VHS. Z mojego doświadczenia, DAT-y były i są używane do archiwizacji materiałów studyjnych, miksów, produkcji radiowych, a nawet w masteringach, zanim wszystko przeniosło się na dyski twarde. Szczególnie w branży muzycznej, gdzie wymaga się najwyższej jakości – 16 lub 24 bity przy 48 kHz albo nawet wyżej – DAT po prostu dawał radę przez lata i był zgodny z profesjonalnymi standardami. W dodatku, dane na DAT-ach można było łatwo przenosić między różnymi urządzeniami, co jest zgodne z dobrymi praktykami backupu i archiwizacji w branży AV. Co ciekawe, ten format był też wykorzystywany przy rejestracji dialogów filmowych czy w reportażu, bo urządzenia były względnie małe i mobilne. Dziś już rzadko się tego używa, ale wciąż spotykam się z tymi kasetami w archiwach radiowych. Digital Audio Tape to dobry przykład, jak standard cyfrowy opanował profesjonalny rynek – i trochę szkoda, że ludzie często mylą to z podobnie wyglądającymi, ale całkiem innymi kasetami.

Pytanie 4

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Korektor.
B. Ekspander.
C. Crossover.
D. Kompresor.
Wiele osób myli funkcje takich urządzeń jak korektor, crossover czy kompresor, jeśli chodzi o wpływ na dynamikę nagrania. Korektor (equalizer) przede wszystkim zmienia charakterystykę częstotliwościową dźwięku, czyli pozwala podbijać lub ścinać wybrane pasma – nie wpływa jednak na zakres dynamiki jako taki. Często spotykam się z błędnym przekonaniem, że modyfikacja barwy automatycznie wiąże się ze zmianą dynamiki, ale to dwa zupełnie różne zagadnienia w inżynierii dźwięku. Z kolei crossover rozdziela sygnał audio na odpowiednie zakresy częstotliwości, żeby przekierować je na różne głośniki – np. niskotonowe, średniotonowe, wysokotonowe. Ta funkcja jest kluczowa przy systemach wielodrożnych, ale nie wpływa na rozpiętość dynamiki samego nagrania, tylko na to, które głośniki grają jakie częstotliwości. Kompresor to urządzenie, które wręcz robi coś odwrotnego niż ekspander – ogranicza zakres dynamiki, ściskając różnicę między najgłośniejszymi a najcichszymi fragmentami. To przydatne, żeby uniknąć przesterowania czy lepiej osadzić wokal w miksie, ale nie poszerza dynamiki, tylko ją zawęża. Typowym błędem myślowym jest zakładanie, że każde urządzenie do obróbki sygnału audio może manipulować dynamiką w dowolną stronę – w rzeczywistości każde ma swoje konkretne zadanie i ograniczenia. Dobra praktyka w branży to nie tylko znać podstawowe funkcje tych narzędzi, ale też rozumieć, jak wpływają na poszczególne parametry dźwięku i jakie efekty można osiągnąć w praktyce. Dopiero wtedy miks czy produkcja nabiera profesjonalnego charakteru.

Pytanie 5

Różnica między minimalnym a maksymalnym poziomem ciśnienia akustycznego dźwięku, wyrażona w decybelach, to

A. zniekształcenia harmoniczne.
B. dynamika dźwięku.
C. poziom szumu.
D. głośność dźwięku.
Dynamika dźwięku, czyli zakres dynamiczny, to pojęcie, które często pojawia się w branży audio, studiach nagraniowych czy podczas miksowania muzyki na żywo. Chodzi tutaj o różnicę między najcichszym a najgłośniejszym momentem dźwięku, wyrażoną w decybelach (dB). Ten parametr ma ogromne znaczenie praktyczne – na przykład w nagraniach muzycznych dynamika pozwala oddać emocje, subtelność w pianissimo albo potężny akcent w fortissimo. Moim zdaniem, jeśli ktoś chce zrozumieć, dlaczego muzyka z kasety brzmi inaczej niż z płyty winylowej czy z pliku mp3, to właśnie różnice w dynamice są jednym z kluczowych powodów. W profesjonalnej produkcji dźwięku dba się, by nie przesadzić z kompresją, bo wtedy muzyka traci na naturalności. W standardach branżowych (chociażby EBU R128 dla radia i telewizji) dąży się do utrzymania odpowiedniej dynamiki, żeby dźwięk był zrozumiały, a jednocześnie nie męczył odbiorcy. W systemach nagłośnieniowych, nawet w szkołach, warto pamiętać, że za duży zakres dynamiki może sprawić, że część widowni nie usłyszy cichych fragmentów albo głośne będą zbyt szokujące. No i taki drobiazg – dynamika to nie tylko muzyka, ale też np. nagrania filmowe czy nawet przemówienia, gdzie zbyt monotonna dynamika po prostu nudzi słuchacza. To, według mnie, jeden z najważniejszych parametrów w pracy z dźwiękiem.

Pytanie 6

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Audacity.
B. Windows Media Player.
C. Music Player.
D. Samplitude.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 7

Do płynnego wyciszenia materiału dźwiękowego należy użyć funkcji

A. crossfade.
B. mute.
C. fade out.
D. pan.
Wiele osób podczas edycji dźwięku myli różne funkcje, zwłaszcza gdy dopiero zaczynają przygodę z obróbką audio. Pan służy do ustawiania panoramy, czyli przesuwania dźwięku w lewo lub w prawo w przestrzeni stereo – nie ma to żadnego związku z płynnym wyciszaniem materiału. Ustawienie panoramy może sprawić, że dźwięk wydaje się dochodzić z określonego miejsca, ale jego głośność nie zmienia się płynnie do zera. Z kolei mute to klasyczna funkcja wyciszenia, lecz jest ona natychmiastowa – dźwięk po prostu nagle przestaje być słyszalny. Brakuje tu jakiegokolwiek „zanikania”, co w profesjonalnej postprodukcji brzmi bardzo nienaturalnie i wręcz amatorsko, szczególnie gdy zależy nam na delikatnym wyprowadzeniu słuchacza z nagrania. Crossfade natomiast jest mylący, bo rzeczywiście polega na płynnym przejściu – jednak nie do ciszy, tylko między dwoma fragmentami audio, na przykład nałożenie końcówki jednego utworu na początek drugiego. To świetne narzędzie przy montażu audycji czy miksowaniu utworów, ale nie zastępuje zwykłego zanikania do ciszy. Moim zdaniem najczęstszy błąd, jaki tu się pojawia, to zbyt dosłowne rozumienie nazw funkcji lub kierowanie się wyłącznie intuicją. Warto pamiętać, że fade out jest po prostu branżowym standardem jeśli chodzi o „miękkie” wyciszenie końcówek. W profesjonalnych DAW-ach ta funkcja jest łatwo dostępna i powinna być stosowana zawsze, gdy chcemy, by materiał audio zanikał naturalnie, bez szarpania czy nagłych zmian.

Pytanie 8

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Create Session from Template
B. Create Empty Session
C. Open Recent Session
D. Open Last Session
Opcja „Create Session from Template” to w wielu DAW-ach, takich jak Pro Tools czy Cubase, prawdziwy gamechanger dla tych, którzy chcą pracować szybciej i efektywniej. Dlaczego? Pozwala ona od razu wystartować z gotową strukturą projektu—na przykład z ustawionymi torami, grupami, routingiem, efektami, a nawet wzorcowymi ustawieniami miksera. W branży muzycznej to standardowa praktyka, bo szablony oszczędzają mnóstwo czasu przy powtarzalnych zleceniach, np. nagraniach podcastów czy miksowaniu demówek zespołów. Moim zdaniem, szablony są wręcz nieocenione, gdy trzeba szybko przejść do właściwej pracy, nie bawić się w ustawianie wszystkiego od nowa. Kiedyś sam marnowałem czas na kopiowanie ustawień i zawsze coś pominąłem, a teraz—raz skonfigurowany template i problem znika. Profesjonaliści często budują własne szablony dla różnych typów projektów: osobne do nagrań live, inne do miksu czy masteringu. To też dobry sposób, żeby nie zapomnieć o drobnych szczegółach, które później wychodzą w praniu. Używanie tej opcji to nie tylko wygoda, ale wręcz podstawa workflow w nowoczesnej produkcji audio.

Pytanie 9

Która z wymienionych nazw ścieżek utworzonych w sesji programu DAW oznacza, że na ścieżce tej znajduje się nagranie werbla w zestawie perkusyjnym?

A. TOM
B. FLOOR
C. CRASH
D. SNARE
Nazwa ścieżki „SNARE” w sesji programu DAW niemal zawsze oznacza, że track dotyczy nagrania werbla – jednego z kluczowych elementów zestawu perkusyjnego. Werbel, zwany po angielsku „snare drum”, odpowiada za charakterystyczne, bardzo wyraźne uderzenia, które często definiują groove utworu. W profesjonalnych sesjach nagraniowych oraz mikserskich przyjęło się, że ścieżki werbla opisuje się właśnie słowem SNARE. Takie nazewnictwo jest czytelne nie tylko dla realizatora dźwięku, ale też dla producenta, muzyków czy nawet osób zajmujących się późniejszym masteringiem. To oszczędza czas i zmniejsza ryzyko pomyłek przy pracy z wielośladem. Co ciekawe, w praktyce studyjnej bardzo często dzieli się jeszcze ścieżki na „SNARE TOP” i „SNARE BOTTOM”, co pozwala osobno kontrolować mikrofon skierowany na górę i spód werbla – ale jedna główna ścieżka SNARE zawsze odnosi się właśnie do tego instrumentu. W branży muzycznej porządek w sesji i konsekwentne nazewnictwo ścieżek to trochę taki niepisany standard, którego trzymanie się naprawdę ułatwia życie. Warto przy tym pamiętać, że inne instrumenty bębnowe, jak TOM, FLOOR czy CRASH, to zupełnie odrębne elementy zestawu i ich ścieżki zawsze mają własne, równie precyzyjne oznaczenia.

Pytanie 10

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Filtrowanie.
B. Nadpróbkowanie.
C. Kompresja.
D. Konwersja.
Filtrowanie to absolutna podstawa, jeśli chodzi o eliminację niepożądanych częstotliwości w nagraniu – szczególnie takich jak przydźwięk sieciowy, czyli popularne brumienie 50 Hz (albo 60 Hz w niektórych krajach). W praktyce wykorzystuje się zazwyczaj tzw. filtr grzebieniowy albo filtr Notch (wąskopasmowy filtr wycinający konkretną częstotliwość), który pozwala bardzo precyzyjnie usunąć ten dźwięk bez znacznej utraty jakości całego materiału. Często trzeba dobrać filtr o odpowiednio wąskim zakresie, żeby przypadkiem nie wyciąć przy okazji innych istotnych elementów. No i warto pamiętać, że czasem przydźwięk pojawia się także w postaci harmonicznych (czyli wielokrotności tej częstotliwości) – wtedy najlepiej zastosować kilka filtrów Notch, ustawionych na kolejne harmoniczne: 50, 100, 150 Hz itd. W praktyce studyjnej filtrowanie to podstawowa technika walki z zakłóceniami pochodzącymi z sieci elektrycznej i jest zgodna z dobrymi praktykami branżowymi – praktycznie każdy program DAW, czy to Ableton, Cubase, Pro Tools albo nawet Reaper, ma gotowe narzędzia do tego typu operacji. Moim zdaniem bez umiejętności stosowania filtrów trudno mówić o profesjonalnej postprodukcji dźwięku – to jedna z tych rzeczy, które po prostu się robi, zamiast kombinować z innymi efektami. Filtry są precyzyjne i, przy dobrym ustawieniu, praktycznie nie wpływają negatywnie na resztę miksu.

Pytanie 11

Zjawisko maskowania dźwięku polega na

A. spadku słyszalności tonów wysokich podczas głośnego słuchania.
B. zmianie barwy dźwięku w zależności od głośności.
C. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
D. generowaniu przez ucho tonów harmonicznych.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 12

Które z wymienionych określeń oznacza proces ustalania proporcji głośności dźwięku pomiędzy poszczególnymi ścieżkami w wielośladowej sesji montażowej programu DAW?

A. Recording.
B. Overdubbing.
C. Mixing.
D. Fading.
Mixing to kluczowy etap w pracy z dźwiękiem, szczególnie przy sesjach wielośladowych w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live. Chodzi tu właśnie o umiejętne ustalenie proporcji głośności pomiędzy ścieżkami – np. wokalem, perkusją, gitarą i innymi instrumentami – żeby całość dobrze zabrzmiała jako jeden spójny utwór. To trochę jak z gotowaniem: nie możesz zostawić jednego składnika dominującego, bo zrujnuje cały przepis. W branży muzycznej mówi się, że dobry miks to taki, gdzie każdy element jest słyszalny, ale żaden nie "wychodzi przed szereg" bez powodu. Standardowo najpierw ustawia się poziomy głośności (tzw. balans), potem dodaje się efekty (np. korekcję, kompresję, pogłos). Z mojego doświadczenia bywa, że to właśnie proporcje decydują o tym, czy kawałek brzmi profesjonalnie, czy amatorsko. Praktyczna rada: warto porównywać swój miks z referencyjnymi utworami, to pomaga złapać właściwy balans. Mixing to też sztuka kompromisu – w dużych projektach można korzystać z automatyki, żeby ścieżki zmieniały głośność w określonych momentach. To naprawdę fascynujący i kreatywny proces, który wymaga ucha, wiedzy technicznej i odrobiny wyczucia. Warto zapamiętać, że bez dobrego miksu nawet świetnie nagrane ślady nie będą robić wrażenia.

Pytanie 13

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. MASTER
B. BUS
C. VCA
D. AUX
Szyna AUX to absolutny standard jeśli chodzi o wysyłanie sygnału równolegle do efektów, takich jak reverb, delay czy chorus, w większości programów DAW. Główną zaletą AUX-ów jest to, że pozwalają wysłać określoną ilość sygnału z dowolnej ścieżki do efektu, bez wpływania na sygnał główny tej ścieżki — to tzw. wysyłka równoległa. Dzięki temu można np. nałożyć pogłos tylko na wybraną część miksu, kontrolować poziom efektu niezależnie od poziomu ścieżki bazowej i oszczędzać zasoby, bo jeden efekt obsługuje wiele śladów naraz. Praktycznie, kiedy mikser ma pogłos na AUX-ie, to wokal, werbel i gitary mogą korzystać z tego samego efektu, każdy w innej proporcji. Moim zdaniem, to jedna z najważniejszych funkcji, które odróżniają profesjonalny miks od amatorskiego – umiejętne korzystanie z wysyłek na AUX-y pozwala uzyskać spójność przestrzenną i naturalność brzmienia. Warto też pamiętać, że AUX nie wpływa na poziom sumy miksu, bo to tylko dodatkowa ścieżka sygnału. W branży muzycznej uważa się, że efekty typu time-based (jak delay czy reverb) prawie zawsze lepiej wrzucać na AUX niż wstawiać bezpośrednio na ścieżkę, bo mamy wtedy pełną kontrolę nad proporcjami i całość brzmi dużo bardziej profesjonalnie.

Pytanie 14

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zmniejszenie częstotliwości próbkowania.
B. Zwiększenie rozdzielczości bitowej.
C. Zwiększenie częstotliwości próbkowania.
D. Zmniejszenie rozdzielczości bitowej.
Zmniejszenie rozdzielczości bitowej naprawdę wpływa na rozpiętość dynamiczną nagrania, bo to właśnie głębia bitowa decyduje o tym, jak dokładnie można oddać najcichsze i najgłośniejsze fragmenty sygnału audio. Im mniej bitów, tym zakres dynamiki maleje – czyli różnice między cichymi a głośnymi dźwiękami są coraz bardziej „spłaszczone”. W praktyce np. w profesjonalnych nagraniach studyjnych używa się często 24 bitów, co daje bardzo dużą rozpiętość dynamiczną (aż do około 144 dB). Gdy jednak przejdziemy na 16 bitów (standard CD), to ta wartość spada do około 96 dB. Zmniejszając rozdzielczość bitową jeszcze niżej (na przykład do 8 bitów jak w starych konsolach czy komputerach), dynamika staje się wyraźnie ograniczona – słychać to jako brak subtelności w cichych dźwiękach i bardzo wyraźny szum kwantyzacji. Moim zdaniem, warto pamiętać, że dla materiałów, które mają zachować pełen zakres ekspresji i dynamiki, lepiej unikać zmniejszania głębi bitowej. W postprodukcji czy w miksowaniu często operuje się na 24 bitach i dopiero przy finalnym eksporcie zmniejsza się do 16 (o ile jest to konieczne np. dla CD). Swoją drogą, to często pomijany temat, a bardzo ważny, bo wpływa nie tylko na jakość dźwięku, ale też na komfort słuchania, szczególnie przy bardziej dynamicznej muzyce czy nagraniach koncertowych.

Pytanie 15

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .aiff
B. .wav
C. .riff
D. .mp3
Kodek LAME jest jednym z najbardziej znanych narzędzi służących do kompresji dźwięku do formatu MP3, czyli z rozszerzeniem .mp3. W praktyce ten kodek jest szeroko wykorzystywany w różnych profesjonalnych oraz domowych projektach audio, bo pozwala na uzyskanie dobrego kompromisu między jakością nagrania a wielkością pliku. MP3 to obecnie standardowy format wymiany plików muzycznych, zwłaszcza tam, gdzie liczy się ograniczenie rozmiaru plików, np. streaming, radia internetowe, odtwarzacze przenośne czy nawet niektóre systemy automatyki w samochodach. Warto wiedzieć, że LAME nie służy do tworzenia plików WAV, AIFF czy RIFF – te formaty to raczej kontenery bez kompresji stratnej i są używane do przechowywania dźwięku w formie bezpośredniej, bez strat jakości. Z mojego doświadczenia wynika, że LAME jest najczęściej spotykany tam, gdzie chodzi o szybkie kodowanie dużych zbiorów muzyki, np. w archiwizacji czy przygotowaniu playlist do publikacji online. Standard MP3, opisany przez organizację MPEG, jest jednym z najpopularniejszych formatów kompresji stratnej audio na świecie i kodek LAME jest uznawany za jeden z najlepiej realizujących ten algorytm – daje dobre brzmienie i bardzo szeroką kompatybilność z odtwarzaczami. Dla osób pracujących z dźwiękiem ważne jest zrozumienie, że wybierając LAME, wybieramy efektywną kompresję do formatu MP3, nie zaś do innych formatów typu WAV czy AIFF. Moim zdaniem to podstawowa wiedza dla każdego, kto choć trochę działa w branży muzycznej lub IT.

Pytanie 16

W sesji programu DAW, w której ustawiono tempo 120 BPM i metrum 4/4, metronom wybija ćwierćnutę co

A. 1 000 ms
B. 1 500 ms
C. 500 ms
D. 2 000 ms
Tempo 120 BPM oznacza, że w ciągu minuty wybijanych jest 120 ćwierćnut. Skoro minuta ma 60 sekund, łatwo policzyć, że jedna ćwierćnuta trwa 0,5 sekundy, czyli dokładnie 500 ms. W praktyce pracy z DAW-ami, takich jak Ableton, Cubase czy FL Studio, ustawienie tempa i metrum jest absolutną podstawą, zwłaszcza przy nagrywaniu z metronomem lub synchronizowaniu różnych ścieżek MIDI. Bardzo często podczas aranżowania kawałków albo produkcji beatów trzeba szybko wyczuć, czy syntezator lub automat perkusyjny zgrywa się z tempem projektu – właśnie wtedy taka wiedza się przydaje. Standardowo, metronom w DAW zawsze wyznacza uderzenie ćwierćnuty w metrum 4/4, czyli tzw. beat, a nie np. ósemki czy półnuty (chyba że ktoś specjalnie przestawi ustawienia). Z mojego doświadczenia wynika, że osoby początkujące często mylą jednostki czasu i liczbę uderzeń na minutę, więc warto zapamiętać ten prosty przelicznik: 60 000 ms (czyli jedna minuta) dzielimy przez liczbę BPM – daje nam to czas trwania jednej ćwierćnuty w milisekundach. Ta zasada obowiązuje praktycznie w każdym programie muzycznym, niezależnie od producenta czy wersji. To uniwersalna wiedza, która potem bardzo się przydaje np. przy automatyzacji efektów rytmicznych.

Pytanie 17

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/16 bitów
B. 48000 Hz/16 bitów
C. 44100 Hz/24 bity
D. 48000 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów jest absolutnie zgodna ze standardem CD-Audio, który został przyjęty już w latach 80. przez Sony i Philipsa. W praktyce oznacza to, że jeśli tworzysz projekt w DAW na takich właśnie ustawieniach, plik wynikowy nada się do tłoczenia na płycie CD bez żadnych dodatkowych konwersji czy strat jakości. Samo 44100 Hz to częstotliwość próbkowania, która pozwala na uzyskanie pasma przenoszenia do 20 kHz, czyli tyle, ile słyszy przeciętny człowiek – moim zdaniem to trochę symboliczne, bo uwzględnia „pełne” pasmo audio. 16 bitów daje 96 dB zakresu dynamiki, co na swoje czasy było naprawdę wystarczające (i do dzisiaj zupełnie wystarcza do muzyki popularnej, audiobooków czy podcastów na CD). W studiu czasami pracuje się z wyższymi parametrami, np. 24 bity czy 48 kHz, żeby mieć większy zapas do edycji, ale finalny eksport na CD-Audio zawsze musi być w tych parametrach: 44,1 kHz i 16 bitów. Takie ustawienie sesji od początku minimalizuje konieczność konwertowania plików, co – z mojego doświadczenia – eliminuje ryzyko degradacji jakości i niepotrzebnych błędów przy eksporcie. Dobrze się tego trzymać, szczególnie jeżeli docelowy medium to klasyczna płyta CD.

Pytanie 18

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/4.
B. o 1/2.
C. o 1/6.
D. o 1/3.
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 19

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. LM
B. HM
C. HP
D. LP
Filtr HP, czyli High-Pass (po polsku: filtr górnoprzepustowy), to standard w każdym systemie audio, akustyce czy nawet w elektronice użytkowej. Jego głównym zadaniem jest przepuszczanie dźwięków o częstotliwościach wyższych od tzw. częstotliwości odcięcia, a blokowanie albo tłumienie tych niskich. Taki filtr świetnie sprawdza się na przykład przy nagrywaniu wokalu — wycina szumy o niskich częstotliwościach, buczenie podłogi czy brum sieciowy, które potrafią zepsuć całą ścieżkę dźwiękową. W praktyce często spotykam się z sytuacją, gdzie technicy studyjni od razu włączają HP na mikrofonach, żeby nie zbierał przypadkowych dudnień czy „przewiewów” powietrza. Nawet w prostym mikserze czy interfejsie USB można znaleźć ten filtr pod oznaczeniem HPF albo po prostu z symbolem „górującej rampy”. Moim zdaniem warto pamiętać, że prawidłowe zastosowanie HP to klucz do czystego miksu, zwłaszcza jeżeli nie chcemy, żeby bas lub stopa perkusyjna wszystko nam rozmywała. Jak pokazują podręczniki realizacji dźwięku, HP jest praktycznie obowiązkowy dla wszystkich ścieżek poza tymi, gdzie te niskie częstotliwości są istotne, czyli np. dla basu. To taka trochę podstawa, a jednocześnie prosty sposób na lepszy efekt końcowy.

Pytanie 20

Wskaż optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych.

A. Temperatura 6°C ÷ 15°C, wilgotność 30% ÷ 40%
B. Temperatura 15°C ÷ 18°C, wilgotność 30% ÷ 40%
C. Temperatura 18°C ÷ 24°C, wilgotność 10% ÷ 20%
D. Temperatura 24°C ÷ 30°C, wilgotność 10% ÷ 20%
Wybrałeś optymalne parametry przechowywania archiwalnych taśm i dysków magnetycznych. Temperatura w zakresie 15°C do 18°C oraz wilgotność względna 30% do 40% to wartości zalecane przez producentów nośników oraz normy branżowe, chociażby ISO 18923. Tak ustawione warunki powietrza utrudniają rozwój pleśni i korozji, a jednocześnie nie powodują wysychania lub deformacji warstw magnetycznych. Z mojej praktyki wynika, że zwłaszcza w większych archiwach, gdzie nośniki są przechowywane latami, nawet niewielkie odchylenia od tych parametrów zaczynają prowadzić do przyspieszonego starzenia, rozmagnesowania lub mechanicznych uszkodzeń taśm. Przy wilgotności powyżej 40% sprzęt i opakowania mogą zacząć pochłaniać wilgoć, co sprzyja korozji. Z kolei zbyt niska temperatura nie daje większej ochrony – wręcz przeciwnie, sprzyja kondensacji po wyjęciu taśmy na zewnątrz. Branżowe archiwa i biblioteki cyfrowe, takie jak Naczelna Dyrekcja Archiwów Państwowych czy duże centra danych, stosują właśnie takie ustawienia klimatyzacji i kontroli wilgotności – nie bez powodu. Moim zdaniem, warto jeszcze pamiętać, że ważna jest też stabilność tych parametrów – skoki temperatury i wilgotności szkodzą bardziej niż drobne odchylenia. Jeśli chodzi o praktykę, to nawet w domowych warunkach, dla cennych taśm czy dysków lepiej wygospodarować chłodne, zacienione pomieszczenie niż trzymać je w piwnicy czy gorącym strychu. Wiedza o takich warunkach to podstawa w pracy archiwisty cyfrowego.

Pytanie 21

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. spisu efektów.
B. opisu postsynchronów.
C. opisu taśmy.
D. skryptu.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 22

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. BPF
B. LF
C. LPF
D. HPF
Skrót LPF pochodzi od angielskiego wyrażenia Low Pass Filter, czyli filtr dolnoprzepustowy. To jedno z podstawowych i najczęściej spotykanych rozwiązań w elektronice, elektroakustyce oraz cyfrowym przetwarzaniu sygnałów. Filtry dolnoprzepustowe przepuszczają sygnały o częstotliwościach niższych od określonego progu (tzw. częstotliwości odcięcia), a tłumią te wyższe. W praktyce, takie filtry znajdziesz na przykład w zwrotnicach głośnikowych, gdzie odcinają wysokie tony dla subwoofera, w układach zasilania (eliminacja zakłóceń), czy w przetwarzaniu sygnałów analogowych i cyfrowych (redukcja szumów wysokoczęstotliwościowych). Moim zdaniem, znajomość skrótu LPF to taka absolutna podstawa – spotyka się go wszędzie, nawet w amatorskich projektach audio DIY. Warto też zauważyć, że branżowe schematy i dokumentacje techniczne zawsze operują właśnie tym oznaczeniem. Standardy IEC i IEEE również stosują LPF, więc dobrze mieć to zakodowane w głowie. Tak zupełnie szczerze, w pracy inżyniera czy technika, kiedy widzisz LPF, to od razu wiesz, że chodzi o ochronę czy czyszczenie sygnału z niechcianych, wyższych częstotliwości – no i to jest właśnie cała magia filtrów dolnoprzepustowych.

Pytanie 23

Normalizacja do 0 dB pliku o poziomie szczytowym -3 dB spowoduje podniesienie głośności

A. o połowę.
B. o 1/4.
C. czterokrotnie.
D. dwukrotnie.
Wiele osób myli się, sądząc, że różnica 3 dB to zaledwie niewielka zmiana, na przykład jedna czwarta czy połowa głośności, jednak sprawa jest trochę bardziej złożona przez skalę logarytmiczną, na jakiej operują decybele. Zwiększenie poziomu szczytowego z -3 dB do 0 dB oznacza wzrost amplitudy sygnału o czynnik około 1,41, ale jeśli chodzi o moc, podnosimy ją dokładnie dwukrotnie, bo taka jest definicja zmiany o 3 dB. To częsty błąd, że przelicza się wartości decybeli liniowo, a tak naprawdę 3 dB to podwojenie mocy sygnału, a nie jego połowa czy ćwierć. Zdarza się też, że ludzie myślą, że czterokrotne zwiększenie mocy to 3 dB, ale to już wynosi 6 dB. Często myli się też pojęcie głośności odczuwanej z poziomem sygnału – ucho ludzkie nie reaguje liniowo, więc dla nas różnica może wydawać się mniejsza, ale technicznie jest to precyzyjnie zdefiniowane. W praktyce, jeśli normalizujesz plik do 0 dB, mający wcześniej -3 dB szczytu, uzyskasz dwukrotnie większą moc sygnału, nie tylko subtelny wzrost. To istotne szczególnie przy przygotowywaniu materiałów do masteringu, gdzie każdy decybel może zrobić różnicę między przejrzystym a przesterowanym brzmieniem. Moim zdaniem, warto dobrze zrozumieć te zależności, by unikać błędów w ustawieniach poziomów audio, co potem potrafi popsuć cały miks.

Pytanie 24

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kluczowanie amplitudy.
B. Edycja panoramy.
C. Normalizacja.
D. Szerokopasmowa kompresja.
Normalizacja to operacja, która wprost podnosi poziom całego nagrania tak, żeby jego wartość szczytowa (czyli najwyższy możliwy pik sygnału) dotarła do ustalonego punktu odniesienia – standardowo jest to 0 dBFS (decibels full scale). W praktyce normalizacja jest stosowana, żeby maksymalnie wykorzystać dostępną rozdzielczość sygnału cyfrowego bez ryzyka przesterowania, które pojawia się powyżej 0 dBFS w systemach cyfrowych. Moim zdaniem, to jedna z podstawowych czynności na etapie przygotowania ścieżki audio do dalszego miksu lub masteringu, bo pozwala zachować kontrolę nad dynamiką i uniknąć problemów przy przekazywaniu plików dalej – np. do wydawcy, klienta czy innego realizatora. W branży muzycznej uważa się, że normalizacja jest neutralna dla brzmienia, bo nie zmienia proporcji głośności między fragmentami nagrania, tylko globalnie przesuwa cały sygnał w górę lub w dół, aż szczyt osiągnie wybrany poziom. Bardzo często korzysta się z niej przy zgrywaniu sesji wielośladowych do wspólnego projektu lub przy finalizowaniu materiału do druku. Ciekawostka: niektórzy inżynierowie używają normalizacji do nieco niższych poziomów, np. -1 dBFS, żeby zostawić minimalny margines bezpieczeństwa dla konwersji czy przesyłu strumieniowego. Warto wiedzieć, że normalizacja nie zastępuje kompresji ani limiterów – to zupełnie inne narzędzia do zarządzania dynamiką.

Pytanie 25

W celu zabezpieczenia nagrania wokalu przed powstaniem zakłóceń powodowanych przez spółgłoski zwarte, w dokumentacji nagrania należy zastosować

A. de-esser.
B. equalizer.
C. kompresor.
D. low-cut-filter.
Low-cut-filter, czyli filtr górnoprzepustowy, to jedno z narzędzi, które praktycznie zawsze używam przy nagrywaniu wokalu, szczególnie w profesjonalnym lub półprofesjonalnym studio. Jego zadaniem jest eliminacja najniższych częstotliwości – tych, które często nie są pożądane w nagraniu głosu, a pochodzą na przykład od wstrząsów, stuknięć statywu, czy właśnie spółgłosek zwartych typu „p”, „b”, „t”. Kiedy ktoś śpiewa lub mówi blisko mikrofonu, te spółgłoski powodują swojego rodzaju wybuchowe podmuchy powietrza, które mogą generować zakłócenia na poziomie najniższych Hz. Low-cut pozwala je skutecznie wyciąć, nie ingerując przy tym w klarowność wyższych częstotliwości, więc nie wpływamy negatywnie na barwę wokalu. W studiach nagraniowych często ustawia się taki filtr już na poziomie preampu lub jeszcze przed wejściem sygnału do interfejsu audio. Dla mnie to podstawa workflow, zwłaszcza gdy nie korzystam z pop-filtra lub nagrywam w warunkach domowych. Dobrą praktyką jest nie przesadzać z ustawieniem częstotliwości odcięcia – zwykle 80–120 Hz wystarcza. Moim zdaniem to jeden z podstawowych tricków, który odróżnia amatorskie nagranie od profesjonalnego brzmienia.

Pytanie 26

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista ścieżek.
B. Lista grup.
C. Lista efektów.
D. Lista regionów.
Lista regionów powinna być codziennym narzędziem każdego realizatora czy producenta pracującego w DAW. Regiony to tak naprawdę wycinki materiału dźwiękowego – mogą to być fragmenty audio, MIDI lub nawet automatyki, które zostały podzielone, przemieszczone lub skopiowane w trakcie pracy nad projektem. W praktyce, podczas montażu utworu czy podcastu, najpierw przecina się ścieżkę na mniejsze kawałki, żeby potem łatwo móc przesuwać je, kopiować, wyciszać lub nakładać efekty tylko na wybrane fragmenty. Moim zdaniem właśnie to rozróżnienie regionów daje ogromną elastyczność w montażu i miksie. W większości profesjonalnych DAW, takich jak Pro Tools, Logic Pro czy Cubase, istnieje specjalny panel lub lista regionów, która pozwala szybko odnaleźć i zarządzać wszystkimi fragmentami, które pojawiły się w sesji. To ułatwia kontrolę nad projektem, zapewnia przejrzystość oraz pozwala uniknąć chaosu podczas pracy z dużą liczbą śladów i cięć. Z mojego doświadczenia wynika, że dobre opanowanie pracy z regionami to podstawa szybkiego i wydajnego montażu – nie tylko w studiu, ale nawet w domowych warunkach. W branży powszechnie przyjmuje się, że korzystanie z listy regionów to jedna z dobrych praktyk produkcji dźwięku – bo pozwala na precyzyjne zarządzanie materiałem, bez potrzeby przekopywania się przez całą sesję na timeline. Jeśli ktoś planuje zajmować się edycją audio zawodowo, zdecydowanie powinien nauczyć się wykorzystywać ten element DAW praktycznie na pamięć.

Pytanie 27

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Playlista.
B. Partytura.
C. Scenariusz.
D. Spis efektów.
Partytura to podstawowy dokument wykorzystywany w świecie muzyki, szczególnie w profesjonalnych produkcjach i podczas pracy zespołów muzycznych, orkiestr czy chóru. Jest to zapis nutowy całego utworu, gdzie każda linia odpowiada innemu instrumentowi lub głosowi. Dzięki temu dyrygent, kompozytor czy realizator dźwięku może dokładnie zobaczyć, co i kiedy ma być zagrane przez dany instrument. W praktyce partytura jest niezbędna nie tylko podczas prób, ale także w trakcie nagrań studyjnych czy koncertów na żywo, bo pozwala zachować pełną kontrolę nad wykonaniem utworu. Moim zdaniem, dobrze przygotowana partytura jest dowodem profesjonalizmu – każda licząca się sesja nagraniowa czy spektakl muzyczny opiera się właśnie na niej. Co ciekawe, obecnie coraz częściej korzysta się z cyfrowych partytur, które można łatwo edytować i przesyłać, co znacznie ułatwia pracę całego zespołu produkcyjnego. W branży muzycznej standardem jest, by każda osoba biorąca udział w wykonaniu miała dostęp do swojej własnej linii partytury bądź do całości, w zależności od potrzeb. To naprawdę ułatwia życie i pozwala uniknąć wielu nieporozumień na etapie realizacji projektu.

Pytanie 28

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma regionami dźwiękowymi?

A. PASTE
B. GLUE
C. CROSSFADE
D. MERGE
Crossfade to naprawdę podstawowa funkcja w praktycznie każdym nowoczesnym DAW, bez której ciężko sobie wyobrazić wygodną pracę z edycją audio. Chodzi tutaj o takie płynne połączenie dwóch sąsiednich regionów dźwiękowych, żeby nie było żadnego charakterystycznego kliku, przeskoku czy dziwnego przerywania dźwięku. Crossfade sprawia, że końcówka jednego regionu nakłada się z początkiem drugiego, a całość zostaje automatycznie wymiksowana i zblendowana – efekt to naturalnie brzmiąca całość, która nawet przy gwałtownych cięciach nie zdradza, że coś było edytowane. Moim zdaniem, to jedna z tych opcji, które naprawdę ratują skórę przy montażu wokalu czy perkusji, bo przecież w praktyce nagrania rzadko kiedy są idealnie czyste i zawsze trzeba coś pociąć, przestawić, podmienić. W branży muzycznej i postprodukcyjnej crossfade to po prostu standard – znajdziesz go w Cubase, Logic, Pro Tools czy Ableton Live. Dobrą praktyką jest nawet ustawić automatyczny crossfade dla każdego połączenia regionów, żeby nie musieć poprawiać później artefaktów. Jeśli chcesz, żeby Twój montaż był profesjonalny, ta funkcja to absolutna podstawa i warto ją dobrze poznać, bo można nią też kreatywnie manipulować długością i kształtem przejścia – na przykład dla uzyskania efektu morphingu czy delikatnego zanikania. Krótko mówiąc, crossfade to narzędzie, które znacznie podnosi jakość końcowego miksu i jest nieodłącznym elementem workflow każdego realizatora dźwięku.

Pytanie 29

Która z operacji umożliwia usunięcie przesłuchów obecnych w nagraniu wielośladowym?

A. Pogłosowanie.
B. Edycja panoramy.
C. Bramkowanie.
D. Kompresja.
Bramkowanie to jedna z kluczowych technik stosowanych w pracy z nagraniami wielośladowymi, zwłaszcza kiedy pojawiają się przesłuchy, czyli niepożądane dźwięki z innych źródeł nagranych na śladzie, na przykład kiedy mikrofon perkusji zbiera nie tylko bęben, ale i talerze czy wokal. Bramki szumów (gate) działają na zasadzie przepuszczania sygnału tylko wtedy, gdy jego poziom przekracza określony próg. Dzięki temu możemy sprawić, że w momentach ciszy na danym śladzie nie pojawiają się dźwięki z innych instrumentów, przez co miks staje się czystszy i bardziej selektywny. W praktyce, bramkowanie często wykorzystuje się przy nagrywaniu bębnów, zwłaszcza tomów i werbla, żeby wyeliminować niechciane przesłuchy z talerzy czy stopy. Moim zdaniem, dobrze ustawiona bramka potrafi zrobić naprawdę dużą różnicę, ale trzeba uważać, żeby nie "uciąć" ważnych dźwięków, szczególnie naturalnych wybrzmień instrumentu. W branży to podstawa, zwłaszcza w produkcjach na żywo czy przy miksowaniu sesji z dużą liczbą mikrofonów. Dodatkowo, korzystanie z bramek to nie tylko kwestia eliminacji przesłuchów, ale też ogólnej kontroli nad dynamiką i czystością nagrania. Warto wiedzieć, że profesjonalne DAWy i konsole mikserskie mają dedykowane narzędzia do bramkowania, które pozwalają ustawić czas ataku, podtrzymania i opadania sygnału, co daje jeszcze większą kontrolę nad efektem końcowym. Tak naprawdę bramkowanie to taka trochę sztuka – wymaga wyczucia i znajomości materiału, ale jak już się to opanuje, efekty są naprawdę satysfakcjonujące.

Pytanie 30

Jaką maksymalną ilość danych można zapisać na płycie CD-Audio?

A. 900 MB
B. 716800 kB
C. 50 GB
D. 7000000 kB
No i właśnie o to chodzi! Płyta CD-Audio, zgodnie ze standardem Red Book (czyli tym oryginalnym dla płyt kompaktowych audio), pozwala na zapisanie maksymalnie około 716 800 kB danych, co w praktyce przekłada się na 700 MB. Ten rozmiar to efekt ograniczeń technologicznych i specyfikacji przyjętej jeszcze pod koniec lat 70. XX wieku. Ciekawostka: to umożliwia zapisanie mniej więcej 80 minut muzyki w jakości 16-bit/44,1 kHz stereo, co przez lata było standardem w branży muzycznej. Praktycznie, większość stacjonarnych odtwarzaczy CD nie radzi sobie z płytami o większej pojemności. W codziennym użytkowaniu często spotykasz się z płytami CD-R lub CD-RW, które też deklarują 700 MB pojemności – co jest równoznaczne z tym 716 800 kB, tylko inaczej zapisane. Jeśli musisz archiwizować dźwięk lub przenosić pliki audio, dobrze pamiętać, że większą ilość danych musisz już wrzucać na DVD albo dyski zewnętrzne, bo tradycyjna płyta CD-Audio po prostu nie da rady. Moim zdaniem, świadomość tych ograniczeń pomaga lepiej planować archiwizację i backupy, szczególnie przy pracy z większymi kolekcjami muzycznymi lub projektami dźwiękowymi.

Pytanie 31

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. sekstowe.
B. dwuoktawowe.
C. tercjowe.
D. oktawowe.
Korektor dziesięciopunktowy rzeczywiście dzieli zakres słyszalnych częstotliwości na pasma oktawowe – i to jest bardzo praktyczne podejście, które chyba najczęściej spotyka się w sprzęcie audio przeznaczonym do profesjonalnego i domowego użytku. W skrócie: każda gałka (czy suwak) odpowiada za wzmocnienie albo tłumienie określonego przedziału częstotliwości, przy czym te pasma mają szerokość jednej oktawy. To znaczy, że np. jeśli jedno pasmo obejmuje 100–200 Hz, to następne już 200–400 Hz i tak dalej, każde kolejne dwa razy szersze w sensie wartości liczbowych, ale dla ludzkiego ucha to brzmi naturalnie, bo słyszymy skale logarytmiczne. W branży nagłośnieniowej, studyjnej czy nawet w zaawansowanym sprzęcie car audio taki podział jest bardzo wygodny – pozwala szybko korygować balans dźwięku bez ryzyka, że zmiany będą nienaturalne. Moim zdaniem to też dobre rozwiązanie, bo większość muzyki i dźwięków w praktyce da się sensownie korygować w takich szerokich pasmach. Oczywiście, jeśli ktoś potrzebuje bardziej szczegółowej korekcji, są jeszcze korektory tercjowe czy parametryczne, ale w większości standardowych aplikacji dziesięciopunktowy korektor oktawowy po prostu się sprawdza. To w sumie taki złoty środek między prostotą a skutecznością.

Pytanie 32

Której komendy oprogramowania DAW należy użyć w celu przywrócenia stanu sesji audio do ostatnio zapisanej wersji?

A. Save As
B. Save Copy In
C. Revert to Saved
D. Save
Komenda „Revert to Saved” to naprawdę nieocenione narzędzie w codziennej pracy z DAW-em. Pozwala ona przywrócić projekt dokładnie do ostatniego zapisanego stanu, dosłownie kasując wszystkie zmiany, które zostały wprowadzone po ostatnim zapisie. Przydaje się to szczególnie wtedy, gdy eksperymentujesz z edycją, dodajesz efekty, automatyzacje czy nawet przypadkiem coś usuniesz i nie chcesz cofać każdej czynności po kolei. Wiele osób, zwłaszcza początkujących, czasem nieświadomie nadpisuje projekt, po czym żałuje, że nie mogą wrócić do wcześniejszego układu – właśnie wtedy ta opcja ratuje sytuację. Stosowanie „Revert to Saved” uznaje się za dobrą praktykę w przypadku testowania nowych pomysłów na miks czy aranżację, bo pozwala bezstresowo eksperymentować. Moim zdaniem, warto pamiętać, że ta opcja działa trochę jak „twardy reset” sesji, więc zawsze upewnij się, że nie stracisz w ten sposób czegoś wartościowego. Współczesne DAWy, takie jak Pro Tools, Cubase czy Logic, mają tę funkcjonalność, bo profesjonalne workflow wymaga czasem szybkiego powrotu do zapisanej bazy projektu. Dobrze jest też znać różnicę pomiędzy „Revert” a cofnięciem zmian – ta pierwsza nie patrzy, co się działo wcześniej, po prostu otwiera projekt z ostatniego save’a. Takie podejście jest polecane przez doświadczonych realizatorów i producentów, zwłaszcza w dużych projektach sesyjnych, gdzie każdy błąd potrafi zablokować kreatywność.

Pytanie 33

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. dwukrotnie.
B. trzykrotnie.
C. siedmiokrotnie.
D. pięciokrotnie.
Zwiększenie poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje, że człowiek odczuwa dźwięk jako dwukrotnie głośniejszy. To wynika z nieliniowej charakterystyki słyszenia ludzkiego ucha. W praktyce oznacza to, że jeśli np. radio gra z mocą 60 dB, a potem podkręcisz je do 70 dB, Twoje odczucie będzie takie, jakbyś słyszał dwa razy głośniejszy dźwięk – choć fizycznie moc wzrosła aż dziesięciokrotnie! W branży elektroakustycznej i przy projektowaniu systemów nagłośnienia często korzysta się z tej zależności, szczególnie przy ocenie komfortu pracy w hałasie, czy przy projektowaniu sal koncertowych, gdzie precyzyjnie dobiera się poziomy ciśnienia akustycznego. Standardy branżowe, jak np. ISO 226 (norma krzywych równej głośności), bazują na tej charakterystyce słyszenia. Fajna sprawa – większość ludzi myśli, że wzrost o 10 dB to olbrzymia zmiana, ale tak naprawdę nasze ucho jest dość „leniwe” i musi być różnica aż 10 dB, żeby odczuć dwukrotną zmianę. Moim zdaniem mega ciekawe, jak fizyka dźwięku przekłada się na nasze zmysłowe postrzeganie. W pracy z dźwiękiem warto zawsze pamiętać, że dB to logarytmiczna jednostka i nie przekłada się wprost na nasze odczucia. To trochę jak z pieniędzmi: niby 10 zł i 20 zł, różnica taka sama, ale odczucie zupełnie inne, jak masz milion albo dwadzieścia złotych.

Pytanie 34

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. GATE
B. COMP
C. REV
D. DLY
GATE to skrót, który jednoznacznie kojarzy się z bramką szumów – czyli efektem stosowanym do tłumienia niepożądanych dźwięków poniżej określonego progu. W praktyce – a przynajmniej tak to widzę – bramka szumów jest nieoceniona przy nagrywaniu wokali albo instrumentów, gdzie często pojawiają się szumy tła, trzaski albo oddechy między frazami. W DAW-ach bramkę (czyli gate) stosuje się bardzo często na ślady perkusyjne, np. na werblu czy stopie, żeby skrócić wybrzmiewanie i wyciąć ciche przesłuchy innych bębnów. To jest standard w miksie, zwłaszcza jeśli chodzi o muzykę rockową czy metalową, gdzie czystość i selektywność są kluczowe. Bramki szumów można też ustawiać bardzo precyzyjnie – atak, podtrzymanie, zwolnienie – dzięki czemu użytkownik ma pełną kontrolę nad tym, jak szybko efekt reaguje. Często spotyka się sytuację, że ludzie mylą gate z kompresorem, ale to zupełnie inne narzędzia – gate wycina, a kompresor ściska dynamikę. Generalnie, moim zdaniem, znajomość działania bramki to podstawa dla każdego, kto chce ogarnąć miksowanie w DAW. Warto też pamiętać, że wiele profesjonalnych szablonów sesji ma gate na śladach perkusyjnych domyślnie – to taki branżowy standard, który zdecydowanie warto opanować.

Pytanie 35

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. MIDI.
B. Audio.
C. Instrument.
D. Aux.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 36

Drabinka to dokument, którego używa się

A. do odtworzenia kolejności dialogów w filmie.
B. do ułożenia muzyki do filmu.
C. do opisu kolejności dubbingów w filmie.
D. do odnalezienia nazwy efektu dźwiękowego na taśmie filmowej.
Drabinka to naprawdę ważny dokument podczas produkcji filmowej – szczególnie jeśli chodzi o oprawę muzyczną. Jej główna rola polega na rozpisaniu kolejności, miejsc i długości użycia muzyki w filmie. Brzmi trochę sucho, ale w praktyce to coś, co mocno porządkuje pracę całej ekipy dźwiękowej i montażowej. Kompozytor dzięki drabince dokładnie wie, gdzie ma się pojawić muzyka, ile powinna trwać i jakie emocje towarzyszą danej scenie. To ułatwia nie tylko montaż dźwięku, ale też planowanie sesji nagraniowych. W polskich i zagranicznych produkcjach często nie da się tego obejść – taka drabinka jest potem podstawą do przygotowania tzw. cue sheet (czyli rozpiski do rozliczeń praw autorskich). Moim zdaniem jej największą zaletą jest to, że porządkuje chaos, który nieraz powstaje przy łączeniu obrazu z muzyką. Bez niej łatwo przeoczyć jakieś miejsce, gdzie muzyka powinna wejść lub wyjść płynniej. W branży przyjęło się, że drabinka powstaje już na etapie montażu, zanim muzyka zostanie ostatecznie skomponowana lub dobrana. To taki niepozorny, ale bardzo techniczny dokument – polecam się z nim zaprzyjaźnić, jeśli ktoś chce pracować przy filmie od strony dźwięku czy postprodukcji.

Pytanie 37

Ile kanałów audio stosowanych jest w reprodukcji techniką 5.1?

A. 12 kanałów.
B. 7 kanałów.
C. 6 kanałów.
D. 8 kanałów.
Technika 5.1 to obecnie jeden z najczęściej stosowanych standardów dźwięku przestrzennego, zwłaszcza w kinie domowym, grach wideo czy transmisjach telewizyjnych. Liczba „5” oznacza pięć pełnopasmowych kanałów audio: front lewy, front prawy, centralny, surround lewy oraz surround prawy. Ta konfiguracja pozwala uzyskać bardzo realistyczne wrażenie przestrzeni, gdzie dźwięki mogą być precyzyjnie przypisane do otoczenia wokół widza. Ten szósty kanał, czyli „.1”, odnosi się do kanału niskich częstotliwości LFE (Low Frequency Effects), dedykowanego subwooferowi. Dzięki temu subwoofer odtwarza głównie efekty specjalne, takie jak wybuchy czy dudnienia, wzmacniając doznania dźwiękowe. Dla mnie, jako fana kina domowego, różnicę między zwykłym stereo a 5.1 słychać od razu – szczególnie przy filmach akcji albo grach wyścigowych. Standard 5.1 został formalnie zdefiniowany przez organizacje takie jak ITU-R BS.775 oraz Dolby Digital i DTS. Warto dodać, że instalacja systemu 5.1 jest dość uniwersalna i nie wymaga bardzo zaawansowanego sprzętu, przez co jest szeroko dostępna. Rozumienie tej konfiguracji to podstawa, jeśli myślisz o pracy z dźwiękiem, bo praktycznie każdy profesjonalny system audio, czy w studio, czy w kinie, potrafi obsłużyć układ 5.1. Z mojego doświadczenia sam podział na 5+1 kanałów znacznie ułatwia miksowanie ścieżek dźwiękowych, bo pozwala lepiej rozplanować brzmienie i efekty, żeby publiczność naprawdę miała poczucie przestrzeni.

Pytanie 38

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 88,2 kHz
B. 44,1 kHz
C. 96 kHz
D. 48 kHz
Wybrałeś 96 kHz i faktycznie, to jest ta najwyższa częstotliwość próbkowania z podanych opcji, co oznacza, że jedna próbka sygnału trwa najkrócej. Częstotliwość próbkowania określa, ile razy na sekundę rejestrujemy sygnał – im większa wartość, tym więcej próbek upakowanych w jednej sekundzie, czyli każda pojedyncza próbka reprezentuje krótszy odcinek czasu. W przypadku 96 kHz długość jednej próbki to dokładnie 1/96000 sekundy, czyli ok. 10,4 mikrosekundy. To bardzo krótko! W praktyce, taki standard jest często wykorzystywany w profesjonalnych studiach nagraniowych czy przy produkcji muzyki, gdzie zależy nam na maksymalnie precyzyjnym odwzorowaniu dźwięku i minimalnych zniekształceniach. Moim zdaniem, choć 44,1 kHz czy 48 kHz wystarcza do domowego użytku, to kiedy mamy do czynienia z obróbką dźwięku na wysokim poziomie, wyższa częstotliwość daje większy zapas – łatwiej potem coś edytować, nie tracąc jakości. Warto też zapamiętać, że w branży dźwiękowej obowiązują różne standardy: 44,1 kHz to płyty CD, 48 kHz dominuje w audio wideo, a 96 kHz spotkasz głównie w masteringu. To pokazuje, jak ważne jest dobranie odpowiedniego parametru do konkretnego zastosowania. Ostatecznie, im wyższa częstotliwość próbkowania, tym krótszy czas jednej próbki, co pozwala dokładniej odwzorować szybkie zmiany sygnału audio.

Pytanie 39

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. CBR
B. VBR
C. ABR
D. MBR
VBR to skrót od Variable Bitrate, co oznacza zmienną przepływność bitową. To bardzo charakterystyczne dla nowoczesnych formatów kompresji audio i wideo – na przykład w MP3, MPEG-4 czy H.264. W praktyce VBR polega na tym, że bitrate nie jest sztywnie ustalony, tylko dostosowuje się dynamicznie w zależności od złożoności fragmentu sygnału. Prościej mówiąc – tam, gdzie dużo się dzieje (np. szybka akcja w filmie, dynamiczne sceny, złożona muzyka), bitrate rośnie, żeby zachować jakość. Tam, gdzie sceny statyczne czy prosta cisza w audio – bitrate automatycznie spada i nie marnujemy miejsca. Dzięki temu pliki z VBR zwykle mają lepszy stosunek jakości do rozmiaru niż w przypadku stałego bitrate (CBR). Moim zdaniem, jak ktoś koduje nagrania do archiwum czy przesyła przez sieć o nieregularnej przepustowości, to VBR to jest naprawdę praktyczny wybór. Branżowe standardy bardzo często preferują VBR tam, gdzie zależy na maksymalnej jakości przy oszczędności pasma czy powierzchni dyskowej – np. YouTube czy Spotify korzystają z tego rozwiązania. Z mojego doświadczenia, przy montażu wideo zawsze warto upewnić się, że program eksportuje materiał w VBR, żeby nie tracić jakości na dynamicznych scenach. To takie trochę sprytne podejście do zarządzania ograniczonymi zasobami, wykorzystując je dokładnie tam, gdzie są potrzebne.

Pytanie 40

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 10 GB danych.
B. 15 GB danych.
C. 25 GB danych.
D. 20 GB danych.
Jednowarstwowy nośnik Blu-ray umożliwia zapis do 25 GB danych i to jest dokładnie wartość określona przez oficjalny standard Blu-ray Disc Association. To właśnie dzięki wykorzystaniu niebieskiego lasera (o długości fali około 405 nm) można uzyskać tak dużą gęstość zapisu na tej samej wielkości płycie, co DVD czy CD. W praktyce oznacza to, że na jednej płycie jednowarstwowej można zmieścić nawet dwugodzinny film w jakości Full HD wraz z dodatkowymi materiałami, napisami i ścieżkami dźwiękowymi. Często w pracy spotykam się z sytuacjami, gdzie klienci chcą archiwizować duże ilości zdjęć czy projektów graficznych – Blu-ray sprawdza się wtedy lepiej niż zwykłe DVD, bo nie trzeba dzielić danych na kilka płyt. W branży IT przyjęło się właśnie wykorzystywanie nośników o pojemności 25 GB do tworzenia kopii zapasowych lub dystrybucji oprogramowania, szczególnie tam, gdzie liczy się odporność na uszkodzenia i długi okres przechowywania danych. Trzeba pamiętać, że istnieją również wersje dwuwarstwowe (50 GB) i więcej, ale ta podstawowa, jednowarstwowa płyta zawsze mieści dokładnie 25 GB. To ważny fakt, jeśli chcesz poprawnie dobierać nośniki do określonych zadań lub planować archiwizację danych na konkretną ilość przestrzeni. Moim zdaniem znajomość tych parametrów to podstawa, zwłaszcza jeśli działa się w świecie cyfrowego przetwarzania informacji.