Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 08:43
  • Data zakończenia: 29 kwietnia 2026 08:52

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aplikacje DAW mogą odtwarzać w sesji pliki

A. o tej samej częstotliwości i innej rozdzielczości.
B. tylko o tych samych parametrach.
C. o tej samej rozdzielczości i różnej częstotliwości.
D. skompresowane do mp3 oraz wav.
To pytanie świetnie pokazuje, jak ważne są podstawowe zasady działania aplikacji DAW (Digital Audio Workstation) podczas pracy z plikami audio w jednej sesji. W praktyce, gdy wrzucasz do projektu różne pliki dźwiękowe, to kluczowa jest zgodność częstotliwości próbkowania (sample rate). DAW bez problemu radzi sobie z różną rozdzielczością bitową (czyli np. 16-bit i 24-bit mogą być zmiksowane w jednej sesji), bo silnik programu konwertuje je do ustawionej wartości projektu. Natomiast, gdybyś spróbował wstawić plik z inną częstotliwością niż ta ustawiona w projekcie (np. 44,1 kHz i 48 kHz), w większości DAW pojawi się problem – plik zostanie odtworzony w złym tempie albo wymuszona zostanie konwersja sample rate, co nieraz wpływa na jakość dźwięku. Z mojego doświadczenia, dobrym nawykiem jest zawsze trzymanie się jednej częstotliwości próbkowania w sesji, nawet jeśli różne nagrania mają inne rozdzielczości bitowe. W profesjonalnych studiach to praktycznie standard, bo pozwala uniknąć niepotrzebnych komplikacji i utraty jakości. Ważne też, że pliki można wrzucać zarówno mono, jak i stereo, a DAW przeliczy je do wspólnej postaci. Podsumowując – różne rozdzielczości w jednym projekcie raczej nie stanowią przeszkody, ale różne sample rate to już poważniejszy temat.

Pytanie 2

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. masteringu nagrania.
B. zapisywania pliku wynikowego.
C. edycji nagrania.
D. wciągania plików dźwiękowych do sesji montażowej.
Wybór ostatecznego formatu i parametrów pliku dźwiękowego to, moim zdaniem, jeden z najważniejszych momentów w całym procesie pracy z dźwiękiem. To właśnie podczas zapisywania pliku wynikowego decydujesz, czy Twój utwór będzie w formacie WAV, MP3, FLAC, a może jeszcze innym. Wtedy ustawiasz też takie rzeczy jak częstotliwość próbkowania (na przykład 44,1 kHz lub 48 kHz), głębię bitową (16 bitów, 24 bity), ewentualną kompresję i wiele innych detali. Dlatego branżowym standardem jest, żeby na tym etapie być bardzo uważnym – nie raz już widziałem, jak nawet świetne miksy traciły na jakości przez nieprzemyślany eksport. Przykładowo, jeśli nagrywasz muzykę na CD, musisz wyeksportować plik do WAV 16 bitów 44,1 kHz, bo taki jest wymóg płyty. Z kolei do serwisów streamingowych często zaleca się eksport 24 bity i 48 kHz, nawet jeśli finalnie pliki zostaną przekonwertowane, bo zachowuje się wtedy lepszą jakość źródłową. Dobrym zwyczajem jest też przygotowanie kilku wersji pliku: osobno do masteringu, osobno na streaming i osobno do archiwum – to bardzo pomaga uniknąć późniejszych problemów z kompatybilnością. Ustawienia te nie są wybierane automatycznie ani w trakcie montażu, ani podczas masteringu – zawsze musisz świadomie podjąć decyzję tuż przed eksportem. No i pamiętaj: formaty stratne (MP3, AAC) zawsze pogorszą jakość względem bezstratnych (WAV, FLAC), więc jeśli nie musisz, lepiej używaj bezstratnych. W mojej opinii, to właśnie kontrola nad eksportem decyduje o końcowej jakości pliku.

Pytanie 3

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. View
B. Edit
C. Tools
D. File
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 4

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. dwuoktawowe.
B. tercjowe.
C. sekstowe.
D. oktawowe.
Odpowiedź jest prawidłowa, ponieważ korektor dziesięciopunktowy najczęściej dzieli słyszalne pasmo częstotliwości właśnie na pasma oktawowe. W praktyce oznacza to, że każdy z dziesięciu suwaków lub gałek na korektorze odpowiada za regulację natężenia dźwięku w jednym zakresie odpowiadającym jednej oktawie. To bardzo wygodne rozwiązanie, które pozwala użytkownikowi szybko i precyzyjnie kształtować charakterystykę brzmienia. Z mojego doświadczenia wynika, że taki podział jest najczęściej spotykany w sprzęcie audio przeznaczonym zarówno dla amatorów, jak i profesjonalistów, bo dobrze balansuje pomiędzy szczegółowością a prostotą obsługi. Oktawowe pasma są szerokie na tyle, by wychwycić najważniejsze zmiany w brzmieniu, ale nie za szerokie, by gubić detale. Przykładowo – jeśli chcesz podbić bas w nagraniu, manipulujesz suwakiem odpowiadającym oktawie 60-120 Hz. W branży nagraniowej i estradowej uznaje się taki korektor za standard, bo łatwo go ustawić nawet pod presją czasu. Ważne jest, aby wiedzieć, że im więcej punktów korektora, tym węższe pasma – ale dziesięciopunktowy to zazwyczaj właśnie oktawy, jak pokazują najczęściej stosowane modele od firm takich jak Behringer czy Yamaha. Daje to duże możliwości przy jednoczesnej czytelności obsługi.

Pytanie 5

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD + R SL
B. CD – R DL
C. CD + R SL
D. DVD – R DL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 6

Spośród wymienionych wskaż program dedykowany wyłącznie do edycji audio.

A. Steinberg WaveLab
B. Apple Logic Pro
C. Avid Pro Tools
D. Steinberg Cubase
Steinberg WaveLab to przykład oprogramowania, które od początku projektowano wyłącznie z myślą o edycji i masteringu dźwięku. To narzędzie typowo dla profesjonalistów, którzy skupiają się na pracy z pojedynczymi plikami audio, ich edycją, analizą, korektą i finalnym masteringiem. Nie znajdziesz tu rozbudowanych funkcji typowych dla DAW, jak rozbudowana obsługa MIDI czy wielośladowe nagrywanie sesji muzycznych. Z mojego doświadczenia, WaveLab jest często wybierany przez realizatorów dźwięku przy przygotowywaniu materiału do tłoczenia płyt CD, przygotowywaniu podcastów czy restauracji archiwalnych nagrań, gdzie potrzeba narzędzi do precyzyjnej obróbki fali dźwiękowej – np. usuwania szumów, klików czy korekcji barwy. W branży uznaje się, że dedykowane edytory audio, takie jak WaveLab lub Adobe Audition, zapewniają większą kontrolę nad detalami niż rozbudowane stacje robocze audio (DAW). Takie podejście pozwala uzyskać wyższy poziom jakości końcowego materiału audio, bo narzędzia masteringowe są wyraźnie lepiej zoptymalizowane pod kątem analizy sygnału, renderowania czy eksportu według profesjonalnych standardów (np. Red Book CD, EBU R128). W codziennej pracy z dźwiękiem często korzystam z WaveLab właśnie tam, gdzie liczy się chirurgiczna precyzja i szybkość pracy na plikach audio, np. w radiu albo przy gotowych nagraniach lektorskich.

Pytanie 7

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. złącza Thunderbolt.
B. portu Fire Wire.
C. gniazda USB.
D. czytnika kart flash.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 8

Ile kanałów można jednocześnie transmitować połączeniem S/PDIF?

A. 8 kanałów.
B. 16 kanałów.
C. najwyżej 6 kanałów.
D. 32 kanały.
S/PDIF, czyli Sony/Philips Digital Interface Format, to popularny cyfrowy interfejs audio wykorzystywany w urządzeniach konsumenckich, zwłaszcza przy sprzęcie Hi-Fi, kinie domowym i telewizorach. Ograniczenie do maksymalnie 6 kanałów wynika z parametrów technicznych tego złącza. Standard S/PDIF został zaprojektowany przede wszystkim do przesyłania sygnału audio w formacie stereo PCM (czyli tylko dwa kanały), ale dzięki kompresji (np. Dolby Digital lub DTS) możliwe jest przesłanie do sześciu dyskretnych kanałów, czyli tzw. system 5.1. W praktyce oznacza to, że przez jedno złącze S/PDIF da się przesłać nie tylko zwykły dźwięk stereo, lecz również wielokanałowy sygnał przestrzenny, wykorzystywany chociażby w filmach na DVD. Moim zdaniem, warto pamiętać, że S/PDIF nie nadaje się do transmisji większej liczby kanałów – na przykład nie obsłuży pełnego systemu 7.1 ani profesjonalnych formatów studyjnych. Standardy branżowe jasno to określają, więc przy projektowaniu systemów audio lepiej nie zakładać, że przez S/PDIF „przepchniemy” coś więcej niż 6 kanałów. Z mojego doświadczenia wynika też, że wielu użytkowników myli możliwości S/PDIF z dużo bardziej wydajnymi interfejsami, jak HDMI czy ADAT, które pozwalają już na transmisję kilkunastu czy nawet kilkudziesięciu kanałów. Reasumując – jeśli chcesz przesyłać wielokanałowy dźwięk np. z odtwarzacza Blu-ray do amplitunera przez S/PDIF, musisz liczyć się z tym limitem. Dobrze to mieć na uwadze przy konfiguracji sprzętu domowego.

Pytanie 9

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 44 100 Hz, 96 kbps
B. 44 100 Hz, 160 kbps
C. 22 000 Hz, 128 kbps
D. 48 000 Hz, 128 kbps
Wybierając parametry 44 100 Hz oraz 96 kbps, faktycznie dążysz do minimalizacji rozmiaru pliku mp3. Najważniejsze jest tutaj zrozumienie, jak te dwa wskaźniki wpływają na wagę i jakość dźwięku. Próbkowanie 44 100 Hz to tzw. standard audio dla płyt CD – wystarczające do zachowania przyzwoitej jakości muzyki, nawet po kompresji. Natomiast bitrate 96 kbps jest już mocno oszczędny, jeśli chodzi o ilość przesyłanych danych na sekundę. Im niższy bitrate, tym mniej miejsca zajmuje mp3, ale oczywiście kosztem jakości dźwięku. Z mojego doświadczenia 96 kbps to jest taka granica, gdzie plik jest naprawdę mały, a jakość jeszcze jako tako znośna do słuchania na prostych sprzętach. W praktyce np. przy archiwizowaniu dźwięków do podcastów czy na pamiątkowe nagrania rozmów, taki bitrate w zupełności wystarcza. Większość profesjonalnych programów do masteringu czy konwerterów plików oferuje właśnie 44,1 kHz jako domyślny standard, bo to daje dobrą kompatybilność ze sprzętem i oprogramowaniem. Z drugiej strony, gdy zależy nam tylko na rozmiarze, 96 kbps wygrywa z wyższymi wartościami. Warto pamiętać, że w przypadku plików mp3 zawsze musimy iść na kompromis między jakością a wagą pliku. Do zastosowań, gdzie najważniejsze jest oszczędzanie miejsca – to rozwiązanie jest najrozsądniejsze.

Pytanie 10

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. sekundę.
C. ramkę.
D. godzinę.
Druga para cyfr w zapisie kodu czasowego SMPTE faktycznie odpowiada za minuty. To jest bardzo istotne, szczególnie gdy zajmujemy się montażem wideo albo nagraniami audio, gdzie precyzja synchronizacji jest kluczowa. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) definiuje czteroelementowy format: HH:MM:SS:FF, gdzie właśnie ta druga para cyfr (MM) wskazuje liczbę minut. Moim zdaniem, dobrze rozumieć tę strukturę, bo potem łatwiej jest nawigować w profesjonalnych programach do edycji, takich jak Adobe Premiere, DaVinci Resolve czy Avid. Tam nie ma miejsca na domysły – każde pole odpowiada za konkretną jednostkę czasu, co pozwala np. bardzo szybko znaleźć określony fragment materiału. W praktyce, przy przekładaniu notatek z planu: „akcja zaczyna się w 12:07:15:17”, od razu wiadomo, że „07” to siódma minuta drugiej godziny. To trochę jak czytanie zegarka cyfrowego, tylko z dokładnością do pojedynczej klatki filmu. Z mojego doświadczenia osoby, które dobrze rozumieją ten zapis, dużo mniej się mylą przy przygotowywaniu list montażowych (EDL) albo przy synchronizacji dźwięku z obrazem. Ma to też znaczenie w broadcastingu, gdzie precyzja odliczania minut przekłada się na ramówkę telewizyjną. W skrócie – praktyczna i bardzo istotna wiedza w świecie zawodowego wideo i audio.

Pytanie 11

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Samplitude.
B. Windows Media Player.
C. Audacity.
D. Music Player.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 12

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Ducker.
B. Expander.
C. Delay.
D. Declicker.
Delay to jeden z podstawowych efektów w produkcji dźwięku, który polega na powtarzaniu sygnału audio po określonym czasie. Dzięki temu można uzyskać efekt echa, ale – co ważniejsze w kontekście pytania – umożliwia także tworzenie zapętleń, czyli tzw. looperów. W praktyce ustawiając delay na bardzo krótki czas i dużą liczbę powtórzeń, uzyskujemy efekt ciągłego powtarzania fragmentu dźwięku, co jest wykorzystywane np. w muzyce elektronicznej czy podczas live actów. Loopery bazują właśnie na zasadzie działania delay'a, tylko są bardziej rozbudowane – pozwalają nagrywać i wielokrotnie odtwarzać fragmenty na żywo. W branży często stosuje się delay do kreatywnego budowania przestrzeni czy rytmicznych faktur, nie tylko do prostego echa. Moim zdaniem delay to taki wstęp do zabawy z loopingiem, bo jeśli zrozumiesz, jak działa delay, to potem łatwiej ogarnąć bardziej zaawansowane narzędzia do zapętlania. Często też delay bywa stosowany do eksperymentowania z teksturami dźwiękowymi. W standardach produkcji muzycznej oraz postprodukcji dźwięku delay jest wręcz niezbędny do kontroli powtarzalności, przestrzeni i efektów specjalnych. Warto wiedzieć, że dobrze ustawiony delay może zastąpić nawet proste loopery w wielu zastosowaniach. Z mojego doświadczenia to narzędzie, którego nie da się przecenić w pracy z dźwiękiem.

Pytanie 13

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W znacznikach.
B. W komentarzu reżyserskim.
C. W harmonogramie produkcji.
D. W skrypcie.
Sporo osób zakłada, że informacja o nazwach eksportowanych plików dźwiękowych może pojawić się w różnych miejscach dokumentacji projektu, ale to dość złudne przekonanie. Znaczniki bywają bardzo użyteczne, szczególnie w środowiskach DAW czy przy programowaniu multimediów, jednak ich rola jest raczej tymczasowa – służą oznaczaniu fragmentów ścieżek albo synchronizacji efektów, a nie ustalaniu finalnej nazwy pliku. W komentarzu reżyserskim można znaleźć uwagi dotyczące nastroju, intencji artystycznej czy szczególnych wymagań, ale raczej nie trafiają tam techniczne detale jak nazewnictwo plików. Harmonogram produkcji z kolei opisuje etapy pracy, terminy, odpowiedzialności – nie zawiera szczegółów związanych z organizacją plików na poziomie technicznym. Moim zdaniem to częsty błąd, że szuka się takich danych w zbyt ogólnych dokumentach. W praktyce projektowej każda informacja, która ma bezpośredni wpływ na produkcję materiałów (np. ścieżek dźwiękowych do filmu, gry czy aplikacji), powinna być precyzyjnie udokumentowana w skrypcie. Brak jasnego ustalenia nazw plików na tym etapie powoduje chaos, a potem nietrudno o duplikaty, pomyłki i opóźnienia. Z doświadczenia powiem, że tylko umieszczenie tych danych w skrypcie gwarantuje, że cała ekipa będzie korzystać z tych samych informacji i nie pogubi się w gąszczu roboczych wersji czy niejednoznacznych nazw. Warto więc wyrobić sobie taki nawyk i nie liczyć, że harmonogram albo komentarz reżyserski rozwiążą te problemy.

Pytanie 14

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 10 s
B. 1 s
C. 120 s
D. 60 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 15

Szumy w nagraniu redukować można poprzez

A. bramkę szumów noise gate.
B. korekcję nagrania.
C. kompresję.
D. funkcję noise reduction.
Funkcja noise reduction to zdecydowanie jeden z najczęściej używanych sposobów na walkę z szumami w nagraniach audio. W praktyce wygląda to tak: specjalny algorytm analizuje fragment nagrania, który zawiera wyłącznie szum (najlepiej, gdy jest to tzw. próbka szumu), a potem na tej podstawie usuwa podobne komponenty z całego pliku dźwiękowego. Takie podejście pozwala skutecznie wyciszyć niepożądane tło – szum wentylatora, szelest mikrofonu, brum sieciowy i inne tego typu rzeczy. Narzędzia noise reduction znajdziesz w praktycznie każdym programie do obróbki audio, od darmowych (Audacity) po profesjonalne (np. iZotope RX, Adobe Audition). Z mojego doświadczenia wynika, że właściwie ustawiona funkcja noise reduction pozwala odzyskać naprawdę dużo z nagrania, które na pierwszy rzut ucha wydaje się bezużyteczne. W branży produkcji dźwięku to codzienność, bo nawet najlepszy sprzęt nie zawsze gwarantuje czyste nagranie – czasami coś zaszumi, ktoś zostawi otwarte okno albo mikrofon złapie zakłócenia z sieci. Dobrą praktyką jest ostrożne stosowanie tej funkcji, bo zbyt mocne parametry mogą zniekształcić głos czy inne ważne dźwięki. Najlepiej, jeśli noise reduction jest tylko jednym z etapów pracy – obok dobrej jakości nagrania, prawidłowego ustawienia mikrofonu i unikania źródeł szumu, to właśnie ta funkcja pozwala uzyskać naprawdę profesjonalny rezultat.

Pytanie 16

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik o parametrach 48 kHz/16 bit.
B. plik w formacie MP3 oraz plik odszumiony.
C. plik w formacie MP3.
D. plik o parametrach 44.1 kHz/16 bit.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 17

Który parametr pliku dźwiękowego wskazuje sposób kompresji danych audio?

A. Rodzaj kodowania.
B. Częstotliwość próbkowania.
C. Liczba kanałów.
D. Rozmiar.
Rzeczywiście, to właśnie rodzaj kodowania decyduje o sposobie, w jaki dźwięk zostaje zapisany i skompresowany w pliku audio. Mówiąc prościej, „rodzaj kodowania” to nic innego jak wybrany algorytm lub format, według którego dane audio są kompresowane i potem zapisywane na dysku. Przykładowo, mamy formaty takie jak MP3, AAC, FLAC czy WAV – każdy z nich używa innego sposobu kodowania, co przekłada się na to, czy plik jest stratny czy bezstratny, ile zajmuje miejsca, a także jak brzmi po odtworzeniu. W branży muzycznej czy radiowej dobór właściwego kodowania ma kolosalne znaczenie – czasami chodzi o minimalizację rozmiaru pliku (np. streaming online), a innym razem o zachowanie maksymalnej jakości (produkcja studyjna, archiwizacja). W praktyce, gdy chcesz na przykład przekonwertować płytę CD do pliku, program do ripowania pyta właśnie o rodzaj kodowania, a nie np. o rozmiar czy liczbę kanałów. Moim zdaniem warto znać nie tylko nazwy tych formatów, ale i ich cechy, bo daje to dużą swobodę w wyborze najlepszego rozwiązania do danego zastosowania. Ważne jest też, żeby rozumieć, że standardy takie jak ISO/IEC 11172-3 (dla MP3) czy FLAC (Free Lossless Audio Codec) są powszechnie uznawane i stosowane w profesjonalnych systemach. To nie tylko teoria, ale bardzo praktyczna wiedza przy produkcji, edycji lub nawet prostym słuchaniu muzyki na różnych urządzeniach.

Pytanie 18

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Dwukrotny.
B. Pięciokrotny.
C. Czterokrotny.
D. Trzykrotny.
Zmniejszenie poziomu sygnału o 6 dB powoduje, że moc sygnału spada dokładnie czterokrotnie. Wynika to bezpośrednio ze wzoru na decybele: 10 log(P2/P1), gdzie P2 to moc końcowa, a P1 początkowa. Jeśli mamy spadek o 6 dB, to podstawiając do wzoru: 10 log(P2/P1) = -6, z czego wynika, że P2/P1 = 10^(-6/10) ≈ 0,25, czyli moc końcowa stanowi 1/4 mocy początkowej. Moim zdaniem to jeden z tych tematów, które wydają się trudniejsze niż są w rzeczywistości – wystarczy raz policzyć, aby zrozumieć. W praktyce, zwłaszcza w telekomunikacji czy elektroakustyce, redukcja o 6 dB pojawia się bardzo często, np. przy stosowaniu tłumików sygnału, ocenie strat na kablach albo przy tłumieniu fal radiowych przez przeszkody. Na przykład, jeśli masz nadajnik o mocy 40 W i sygnał zostaje osłabiony o 6 dB, to na wyjściu zostaje 10 W. To bardzo przydatna zależność, bo pozwala szybko ocenić, jak mocno sygnał zostanie osłabiony bez konieczności żmudnych obliczeń. Warto też pamiętać, że spadek o 3 dB daje spadek mocy o połowę, a więc 6 dB to dwa razy po 3 dB, czyli dwa razy po połowie – wychodzi właśnie 1/4, czyli czterokrotnie. To uniwersalna zasada stosowana praktycznie na całym świecie, również w pomiarach i normach międzynarodowych, np. ITU czy EN.

Pytanie 19

Podczas tworzenia nowej sesji w programie DAW, można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. typu znaczników używanych w sesji.
C. częstotliwości próbkowania dźwięku w sesji.
D. kształtu fade in i fade out w regionach w sesji.
Wybór częstotliwości próbkowania dźwięku podczas tworzenia nowej sesji w programie DAW to jedna z kluczowych decyzji technicznych, które wpływają na jakość całego projektu audio. Tak naprawdę, to właśnie od tego parametru zależy, jak szczegółowo zostanie zapisana informacja dźwiękowa – im wyższa częstotliwość, tym więcej szczegółów w nagraniu, ale też większe zapotrzebowanie na miejsce na dysku i moc obliczeniową komputera. W profesjonalnych produkcjach muzycznych najczęściej ustawia się 44,1 kHz (standard płyt CD) albo 48 kHz (standard w wideo), ale często stosuje się nawet 88,2 lub 96 kHz, zwłaszcza tam, gdzie priorytetem jest jakość, a nie optymalizacja rozmiaru plików. Moim zdaniem, warto znać różnice i świadomie dobierać próbkowanie do konkretnego zastosowania – na przykład przy podkładach lektorskich do YouTube raczej nie ma sensu iść w kosmiczne wartości, ale już przy masteringu albumu dla dużego wydawcy wybór wyższej częstotliwości daje wymierne korzyści. Dobre praktyki branżowe zalecają ustawić częstotliwość próbkowania na samym początku, bo późniejsza zmiana potrafi być kłopotliwa i powodować konwersje, które mogą obniżyć jakość dźwięku. W wielu DAW-ach nie da się nawet zmienić tego parametru w istniejącej sesji bez utraty pewnych niuansów brzmieniowych. W skrócie, to podstawa w każdym projekcie audio – trochę jak wybór rozdzielczości przed nagraniem filmu.

Pytanie 20

Który z formatów plików audio nie używa kodowania stratnego?

A. .rm
B. .wav
C. .ogg
D. .ra
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 21

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD – R DL
B. CD + R SL
C. DVD – R DL
D. DVD + R SL
DVD – R DL to faktycznie nośnik o największej pojemności spośród podanych opcji. W branży mówi się, że płyty DVD w wersji dwuwarstwowej (DL, czyli Dual Layer) oferują aż do 8,5 GB miejsca na dane. To już naprawdę sporo, zwłaszcza jeśli porównać do klasycznego CD, który ma tylko 700 MB, albo nawet DVD jednowarstwowego (SL), gdzie mieści się około 4,7 GB. Z mojego doświadczenia, w archiwizacji materiałów wideo czy backupie średnich baz danych, wybiera się właśnie DVD – R DL, bo pozwala zmieścić np. dłuższy film w lepszej jakości lub całą kolekcję zdjęć bez dzielenia na kilka nośników. Warto pamiętać, że różnica między CD a DVD nie dotyczy tylko pojemności – DVD wykorzystuje krótszą falę lasera (650 nm zamiast 780 nm jak w CD), co umożliwia gęstsze upakowanie danych. Dual Layer to jeszcze sprytniejszy patent: druga warstwa leży pod pierwszą, a laser jest odpowiednio ustawiany, by je czytać. W branży IT stosowanie DVD – R DL to wciąż dobra, tania opcja do dystrybucji danych, tam gdzie nie można użyć pendrive’a czy dysków sieciowych. Spotyka się je także przy tworzeniu kopii oprogramowania czy gier. Moim zdaniem warto znać te różnice, bo w praktyce nieraz trzeba dobrać nośnik pod konkretne zadanie, a różnice w pojemności są naprawdę kluczowe.

Pytanie 22

Miejsce na osi czasu, oznaczone kodem SMPTE 00:01:15:00, określa zdarzenie występujące dokładnie

A. w pierwszej minucie, piętnastej sekundzie.
B. w pierwszej godzinie, piętnastej ramce.
C. w pierwszej minucie, piętnastej ramce.
D. w pierwszej godzinie, piętnastej minucie.
Kod SMPTE 00:01:15:00 faktycznie oznacza miejsce na osi czasu, które znajduje się dokładnie w pierwszej minucie i piętnastej sekundzie materiału. W skrócie, format SMPTE (czyli Society of Motion Picture and Television Engineers) zapisuje czas w układzie godzina:minuta:sekunda:klatka. Więc pierwsze dwie cyfry to godzina, kolejne dwie to minuty, następne dwie to sekundy, a ostatnie dwie to klatki. Moim zdaniem, warto ten podział dobrze zapamiętać, bo bardzo często, nawet na montażu amatorskim, bez zrozumienia SMPTE robi się straszny bałagan z synchronizacją. W praktyce, jak edytujesz wideo albo synchronizujesz dźwięk z obrazem, musisz dokładnie wiedzieć, gdzie na osi czasu wstawić jakiś efekt czy cięcie. Gdyby ktoś chciał zsynchronizować np. wybuch czy wejście lektora właśnie w 00:01:15:00, to będzie to dokładnie pierwsza minuta i piętnasta sekunda klipu, niezależnie od liczby klatek na sekundę (zakładając, że materiały są dobrze ustawione). Z mojego doświadczenia, wielu początkujących montażystów myli się tutaj przez nieuwagę, bo myślą, że ostatnia liczba to sekundy lub minuty, a to jednak są klatki – co ma kolosalne znaczenie przy szczegółowym cięciu lub klejeniu materiałów do broadcastu. Standard SMPTE jest wykorzystywany dosłownie wszędzie tam, gdzie liczy się precyzyjne oznaczenie czasu, choćby w telewizji, w kinie cyfrowym, ale i przy nagraniach wielościeżkowych dźwięku. Tak naprawdę bez niego trudno byłoby efektywnie zarządzać dużymi projektami multimedialnymi. Dobrze wiedzieć, że czas SMPTE to nie jest tylko teoria ze szkoły, tylko podstawa pracy każdego profesjonalnego montażysty czy operatora.

Pytanie 23

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 32 próbki.
B. 128 próbek.
C. 256 próbek.
D. 64 próbki.
Wybierając bufor o wielkości 32 próbki, faktycznie osiągasz najniższą możliwą latencję przy nagrywaniu dźwięku w DAW. To jest taki trochę złoty standard dla sytuacji, w których super ważna jest natychmiastowa reakcja systemu, przykładowo kiedy nagrywasz wokale czy grasz partie MIDI na żywo i chcesz uniknąć uczucia opóźnienia między akcją a dźwiękiem. Im mniejszy bufor, tym szybciej komputer przetwarza dźwięk na bieżąco, więc dźwięk praktycznie od razu trafia do słuchawek lub monitorów. Inżynierowie dźwięku często mówią, że przy 32 próbkach latencja jest praktycznie niezauważalna nawet dla bardzo wyczulonego ucha — to takie typowe ustawienie na profesjonalnych sesjach nagraniowych. Jednak warto pamiętać, że tak mały rozmiar bufora wymaga wydajnego sprzętu — słabe komputery mogą nie nadążać z przetwarzaniem, pojawią się wtedy trzaski lub dropy. Ale właśnie do nagrywania głosu czy instrumentów to jest idealne ustawienie. W miksie czy masteringu zwykle zwiększa się bufor, bo wtedy liczy się stabilność, nie szybkość. Moim zdaniem, nawet w domowym studio warto testować 32 próbki — różnica w feelingu nagrywania jest kolosalna, szczególnie przy dynamicznych instrumentach i perkusji. Warto też pamiętać, że w branży muzycznej taka minimalna latencja jest nie tylko komfortowa, ale wręcz wymagana przy pracy z profesjonalistami.

Pytanie 24

Która z operacji umożliwia usunięcie przesłuchów obecnych w nagraniu wielośladowym?

A. Edycja panoramy.
B. Kompresja.
C. Pogłosowanie.
D. Bramkowanie.
Bramkowanie to jedna z kluczowych technik stosowanych w pracy z nagraniami wielośladowymi, zwłaszcza kiedy pojawiają się przesłuchy, czyli niepożądane dźwięki z innych źródeł nagranych na śladzie, na przykład kiedy mikrofon perkusji zbiera nie tylko bęben, ale i talerze czy wokal. Bramki szumów (gate) działają na zasadzie przepuszczania sygnału tylko wtedy, gdy jego poziom przekracza określony próg. Dzięki temu możemy sprawić, że w momentach ciszy na danym śladzie nie pojawiają się dźwięki z innych instrumentów, przez co miks staje się czystszy i bardziej selektywny. W praktyce, bramkowanie często wykorzystuje się przy nagrywaniu bębnów, zwłaszcza tomów i werbla, żeby wyeliminować niechciane przesłuchy z talerzy czy stopy. Moim zdaniem, dobrze ustawiona bramka potrafi zrobić naprawdę dużą różnicę, ale trzeba uważać, żeby nie "uciąć" ważnych dźwięków, szczególnie naturalnych wybrzmień instrumentu. W branży to podstawa, zwłaszcza w produkcjach na żywo czy przy miksowaniu sesji z dużą liczbą mikrofonów. Dodatkowo, korzystanie z bramek to nie tylko kwestia eliminacji przesłuchów, ale też ogólnej kontroli nad dynamiką i czystością nagrania. Warto wiedzieć, że profesjonalne DAWy i konsole mikserskie mają dedykowane narzędzia do bramkowania, które pozwalają ustawić czas ataku, podtrzymania i opadania sygnału, co daje jeszcze większą kontrolę nad efektem końcowym. Tak naprawdę bramkowanie to taka trochę sztuka – wymaga wyczucia i znajomości materiału, ale jak już się to opanuje, efekty są naprawdę satysfakcjonujące.

Pytanie 25

Który format należy wybrać przy eksporcie gotowego materiału dźwiękowego, aby utworzyć master dla tłoczni płyt CD?

A. NRG
B. IMG
C. MDS
D. DDP
Wybór odpowiedniego formatu do eksportu mastera audio dla tłoczni CD bywa mylący, zwłaszcza gdy na liście znajdują się różne typy obrazów płyt. Często spotykam się z sytuacją, gdzie ktoś wybiera IMG, MDS albo NRG, sugerując się tym, że to popularne formaty obrazów płyt, z którymi radzi sobie większość domowych nagrywarek czy programów typu Nero lub Alcohol 120%. Tyle że problem polega na tym, że żaden z tych formatów nie jest branżowym standardem masteringu audio. IMG i NRG to typowe obrazy płyt, ale nie mają wbudowanego wsparcia dla wszystkich niezbędnych informacji, które muszą znaleźć się na profesjonalnym CD Audio – jak chociażby pełne znaczniki PQ, ISRC czy CD-Text. MDS to z kolei format używany głównie do kopiowania płyt DVD lub gier i raczej nie obsługuje specyfiki płyt audio. Co więcej, pliki te nie dają tłoczni żadnej gwarancji, że materiał nie został przypadkowo zmieniony albo uszkodzony – brakuje tam sum kontrolnych oraz procedur autoryzacji całej zawartości. To są po prostu rozwiązania wygodne do archiwizacji lub domowego wypalania, ale nie do profesjonalnego przekazania mastera do produkcji seryjnej. Bardzo często osoby nowe w temacie sugerują się popularnością tych formatów lub mylą je z DDP, ale niestety tłocznie nie przyjmują takich paczek, bo mogą się pojawić błędy, brakujące metadane, a nawet niezgodności z Red Bookiem (czyli specyfikacją płyt CD Audio). Dlatego tak ważne jest, żeby przy eksporcie gotowego materiału na CD używać wyłącznie DDP – to standard, który zapewnia spójność, bezpieczeństwo i pełną kompatybilność z systemami produkcyjnymi.

Pytanie 26

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. AUX
B. FX
C. PREVIEW
D. MASTER
Wiele osób myli oznaczenia ścieżek w DAW, bo rzeczywiście skróty jak FX, AUX czy nawet PREVIEW mogą się wydawać logiczne do automatyki, ale praktyka studyjna pokazuje coś innego. FX to ścieżki efektowe, gdzie wrzucasz np. pogłos, delay, chorus – ich główną funkcją jest przetwarzanie dźwięku przez konkretne efekty, nie zarządzanie głośnością całości miksu. AUX to tzw. tory pomocnicze, używane do wysyłania fragmentów sygnału na efekty czy grupowania śladów; automatykę tam stosuje się raczej do sterowania ilością efektu lub balansowania grupą śladów, a nie całością materiału. PREVIEW natomiast pojawia się częściej przy podglądaniu sampli, pętli, czasem do szybkiego odsłuchu czegoś poza głównym miksem – nie ma tam sensu ustawiać automatyki głośności dla zgranego projektu. Wydaje mi się, że częsty błąd to przekonanie, że ścieżka efektowa czy pomocnicza może sterować sumą miksu, ale to nie jest zgodne z logiką większości DAW i workflow profesjonalnego. Automatykę na MASTERZE stosuje się właśnie po to, by globalnie kontrolować poziom całego utworu lub miksu, zwłaszcza przy końcowym szlifie. To jest standard i dobra praktyka, bo tylko tam masz pewność, że zmiana dotyczy wszystkiego naraz – nie pojedynczych śladów ani grup. Jeśli ktoś automatyzuje głośność na FX albo AUX, może nieświadomie wpływać tylko na wybrane elementy miksu, tracąc kontrolę nad ogólnym poziomem końcowym. MASTER zapewnia czytelność i bezpieczeństwo procesu, a źle ustawiona automatyka na torach innych niż MASTER prowadzi zwykle do chaosu w miksie.

Pytanie 27

„Fade In – 100 ms” oznacza płynne

A. wyciszenie dźwięku, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/10 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 28

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 192 kHz
C. 44,1 kHz
D. 96 kHz
44,1 kHz to częstotliwość próbkowania, która od lat jest uznawana za standardową dla formatu CD-Audio. Tak ustalono już w początkach lat 80., kiedy opracowywano technologię CD. Ta wartość nie wzięła się znikąd – była wynikiem kompromisu technicznego. Chodziło o uzyskanie wystarczająco wysokiej jakości dźwięku, a jednocześnie dopasowanie do ówczesnych możliwości sprzętowych oraz istniejących formatów wideo (między innymi NTSC i PAL). 44,1 kHz pozwala wiernie odtworzyć częstotliwości słyszalne przez ludzkie ucho, czyli do ok. 20 kHz, bo – zgodnie z twierdzeniem Nyquista – aby prawidłowo zarejestrować sygnał, trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa częstotliwość sygnału. W praktyce ta wartość do dziś jest obecna nie tylko w płytach CD, ale też w wielu plikach muzycznych (np. WAV, FLAC czy MP3), które są zgrywane z płyt kompaktowych, albo przygotowywane pod wydanie cyfrowe. Z mojego doświadczenia – większość domowych i studyjnych odtwarzaczy oraz sprzętu audio bez problemu radzi sobie z tym standardem, a wyższe częstotliwości próbkowania, choć bywają stosowane w studiach nagrań, to w codziennym odsłuchu nie wnoszą aż tak dużej różnicy dla przeciętnego słuchacza. Tak więc, jeżeli gdzieś natkniesz się na informację o muzyce z CD, praktycznie zawsze będzie to 44,1 kHz i 16 bitów na próbkę.

Pytanie 29

Ile kanałów audio stosowanych jest w reprodukcji techniką 7.1?

A. 12
B. 8
C. 6
D. 7
Technika 7.1 w audio oznacza, że do dyspozycji mamy aż osiem niezależnych kanałów dźwięku, co pozwala na uzyskanie bardzo przestrzennego efektu podczas odsłuchu. Składa się to z siedmiu kanałów pełnopasmowych (przód lewy, przód centralny, przód prawy, surround lewy, surround prawy, tył lewy, tył prawy) oraz jednego kanału niskotonowego LFE (Low Frequency Effects), czyli popularnego subwoofera. Moim zdaniem to właśnie ta ostatnia ósemka robi często największą robotę, jeśli chodzi o poczucie "uderzenia" i głębi w kinie domowym – nie raz widziałem, jak dobry sub potrafił zmienić zwykły film w prawdziwe widowisko. Standard 7.1 jest obecnie szeroko stosowany w nowoczesnych systemach kina domowego, a także w bardziej zaawansowanych grach komputerowych i produkcjach filmowych na Blu-ray. Branżowe normy, jak np. Dolby Digital Plus czy DTS-HD Master Audio, dokładnie definiują strukturę takich systemów i wyraźnie wskazują 8 kanałów. Z mojego doświadczenia wynika, że dobrze rozplanowana instalacja 7.1 daje naprawdę imponujące efekty przestrzenne – dźwięki dosłownie otaczają słuchacza, a precyzyjne rozmieszczenie głośników wpływa na realizm doznań. Warto też pamiętać, że przejście z 5.1 na 7.1 pozwala wyraźnie poprawić doznania zwłaszcza w większych pomieszczeniach, gdzie dodatkowe tylne kanały robią sporą różnicę. Dla pasjonatów dźwięku przestrzennego to obecnie taki złoty środek między możliwościami technicznymi a rozsądną liczbą głośników.

Pytanie 30

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 2 ścieżki.
B. 8 ścieżek.
C. 6 ścieżek.
D. 4 ścieżki.
Binauralne nagrania opierają się na odwzorowaniu tego, jak ludzkie uszy odbierają dźwięki w rzeczywistości, dlatego do ich prawidłowego montażu wystarczają dokładnie dwie ścieżki audio – lewa i prawa. Jest to w zasadzie odwzorowanie naturalnego słyszenia, gdzie każde ucho odbiera sygnał osobno. Najpopularniejsze mikrofony binauralne mają dwie kapsuły, rozmieszczone na kształt ludzkiej głowy, co pozwala na uchwycenie wszelkich niuansów przestrzennych, takich jak przesunięcia fazowe, mikroróżnice w natężeniu i czasie dotarcia fali akustycznej. Właśnie te szczegóły decydują o efekcie „immersji”, czyli poczuciu zanurzenia w dźwięku – słuchacz zyskuje iluzję, że dźwięki go otaczają, gdy odtwarza nagranie przez słuchawki stereo. Praktyka branżowa wskazuje, że rozdzielczość na więcej niż dwie ścieżki nie tylko nie jest potrzebna przy binaurali, ale wręcz może zaburzyć efekt. Z mojego doświadczenia, montując nagrania binauralne, nie spotkałem sytuacji, w której sensowne byłoby korzystanie z większej liczby ścieżek – cały efekt polega właśnie na zachowaniu naturalnej pary lewa-prawa. Warto też dodać, że standardowe formaty dystrybucji nagrań binauralnych – np. pliki WAV czy FLAC – obsługują dwukanałowe audio. To bardzo wygodne i uniwersalne rozwiązanie, bo nie wymaga specjalistycznego sprzętu odsłuchowego, a jedynie dobre słuchawki. Zresztą, nawet w profesjonalnych studiach nagraniowych, przy miksie binauralnym nie stosuje się więcej ścieżek, bo cały trick polega na prostocie i precyzji właśnie tych dwóch kanałów.

Pytanie 31

Jeśli w dokumentacji montażowej należy wskazać docelowy format pliku stereo z przeplotem, należy użyć określenia

A. multi mono.
B. interleaved.
C. surround.
D. stereo.
Poprawnie wskazałeś, że w kontekście dokumentacji montażowej docelowy format pliku stereo z przeplotem to właśnie „interleaved”. W branży audio- wideo to określenie odnosi się do plików, gdzie kanały lewy i prawy są zapisywane naprzemiennie, czyli próbka z lewego kanału, potem z prawego, potem znowu z lewego i tak dalej. Taki sposób zapisu jest standardem np. w plikach WAV lub AIFF i ułatwia odtwarzanie oraz eksport do profesjonalnych stacji roboczych DAW typu Pro Tools czy Cubase. Często spotyka się to w sytuacji, gdy zależy nam na kompatybilności z różnymi programami oraz sprzętem studyjnym. Co ciekawe, niektóre systemy edycyjne domyślnie generują takie właśnie pliki, bo łatwiej potem obsłużyć stereo i nie trzeba każdorazowo łączyć dwóch osobnych ścieżek. Moim zdaniem, świadomość czym różni się „interleaved” od „multi mono” albo „surround” to podstawa jeżeli ktoś poważnie myśli o pracy z profesjonalnym dźwiękiem. Z mojego doświadczenia wynika też, że wielu początkujących montażystów bagatelizuje te niuanse, a potem ich praca ląduje na poprawkach, bo format pliku nie był zgodny z założeniami projektu. Warto więc zawsze upewnić się, że klient czy producent oczekuje pliku interleaved, nie innego.

Pytanie 32

Które z wymienionych określeń dotyczy funkcji wstawiania znaczników na osi czasu w sesji programu DAW?

A. Markers.
B. Automation.
C. Cycle.
D. Tempo.
Markers, czyli znaczniki, to bardzo praktyczne narzędzie stosowane praktycznie w każdym nowoczesnym DAW-ie, takim jak Cubase, Ableton Live czy Pro Tools. Służą do wstawiania wyraźnych punktów orientacyjnych na osi czasu projektu – można je wykorzystywać, żeby zaznaczyć na przykład początek zwrotki, refren, miejsce zmiany tempa, wejście wokalu czy moment, gdzie trzeba wrócić podczas edycji. Z mojego doświadczenia to ogromne ułatwienie, szczególnie przy dużych sesjach, gdzie szybko można się zgubić albo po prostu człowiek nie pamięta, gdzie co miało być. Znaczniki pomagają organizować aranżację, planować zmiany i sprawniej nawigować po projekcie, co jest zgodne ze standardami pracy w studiach nagraniowych. Często w profesjonalnych projektach oznacza się markerami też miejsca, gdzie trzeba na przykład dograć jakiś instrument albo poprawić miks. Można je też wykorzystać do automatycznego eksportowania poszczególnych sekcji czy tzw. stemów. Mało kto o tym myśli na początku, ale ustawienie markerów na początku pracy bardzo przyspiesza późniejsze działania i minimalizuje ryzyko chaosu w projekcie. Takie podejście poleca wielu producentów i inżynierów dźwięku na kursach i warsztatach – to po prostu dobra praktyka, dzięki której praca staje się bardziej czytelna i profesjonalna. Markerów nie należy mylić z innymi funkcjami, bo ich zadaniem jest właśnie wstawianie tych „flag” na osi czasu.

Pytanie 33

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 4|2|400
B. 3|4|350
C. 2|3|240
D. 1|2|000
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 34

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ppt
B. *.ptx
C. *.wmv
D. *.wmf
Rozszerzenie *.ptx oznacza plik sesji programu Pro Tools, który jest jednym z najbardziej uznanych i szeroko stosowanych cyfrowych stacji roboczych audio (DAW) na świecie. Taki plik zawiera kompletny zapis projektu audio – ścieżki, automatyki, ustawienia efektów, routing sygnałów czy informacje o edycji. To jest taki fundament codziennej pracy realizatorów dźwięku, producentów muzycznych czy nawet postprodukcji filmowej. W praktyce, jeśli ktoś pracuje np. w studiu nagraniowym, projekt w formacie *.ptx pozwala przenieść całą sesję między różnymi stanowiskami – wystarczy ten jeden plik i odpowiednie foldery audio. Szczerze mówiąc, Pro Tools to taki branżowy standard, zwłaszcza w dużych studiach czy telewizji. Moim zdaniem, dobrze znać takie rozszerzenia, bo pozwalają szybko zidentyfikować, z jakim środowiskiem mamy do czynienia. Dla porównania: Cubase zapisuje projekty jako *.cpr, Ableton jako *.als, a Logic Pro jako *.logicx czy *.logic. Ale właśnie *.ptx jest typowy dla Pro Tools (od wersji 10 w górę, wcześniej było *.ptf). To trochę jak plik projektu w Photoshopie – zawiera całość ustawień, nic się nie gubi. Z mojego doświadczenia: jak ktoś chce pracować zawodowo przy dźwięku, to znajomość rozszerzeń plików projektowych to taki must-have. Można powiedzieć, że to podstawa w branży audio – nie raz uratowało mi to czas i nerwy przy przenoszeniu projektów między różnymi komputerami i systemami DAW.

Pytanie 35

ID3v2 umożliwia dodanie do pliku mp3 metadanych w formie

A. tekstu i grafiki.
B. wyłącznie znaków ASCII.
C. wyłącznie grafiki.
D. znaków w systemie szesnastkowym.
ID3v2 to naprawdę bardzo uniwersalny standard oznaczania plików MP3 dodatkowymi informacjami, czyli właśnie metadanymi. Dzięki niemu możemy dołączyć do utworu nie tylko podstawowe dane tekstowe, takie jak tytuł, wykonawca, album, rok wydania czy gatunek muzyczny, ale również grafikę – na przykład okładkę albumu, zdjęcie wykonawcy albo nawet logo radia internetowego. Jest to super praktyczne, bo obecnie właściwie każdy odtwarzacz muzyczny wyświetla te dane – często właśnie na podstawie tagów ID3v2. Co ciekawe, standard ID3v2 nie ogranicza się tylko do tekstu zapisanego w ASCII – obsługuje różne kodowania znaków, nawet Unicode, więc spokojnie można wpisywać polskie znaki czy znaki z innych alfabetów. Moim zdaniem warto znać możliwości ID3v2, bo to otwiera drogę do tworzenia profesjonalnych archiwów muzycznych. W branży muzycznej i radiowej dobre wykorzystanie tagów ID3v2 jest wręcz obowiązkowe – to taka niepisana dobra praktyka. Jeśli kiedyś będziesz edytować muzykę lub przygotowywać własne podcasty, polecam zawsze zadbać o kompletne i poprawne tagi ID3v2, łącznie z dopasowaną grafiką. Tak jest po prostu wygodniej – i profesjonalniej.

Pytanie 36

Które z wymienionych określeń oznacza proces ustalania proporcji głośności dźwięku pomiędzy poszczególnymi ścieżkami w wielośladowej sesji montażowej programu DAW?

A. Mixing.
B. Recording.
C. Fading.
D. Overdubbing.
Mixing to kluczowy etap w pracy z dźwiękiem, szczególnie przy sesjach wielośladowych w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live. Chodzi tu właśnie o umiejętne ustalenie proporcji głośności pomiędzy ścieżkami – np. wokalem, perkusją, gitarą i innymi instrumentami – żeby całość dobrze zabrzmiała jako jeden spójny utwór. To trochę jak z gotowaniem: nie możesz zostawić jednego składnika dominującego, bo zrujnuje cały przepis. W branży muzycznej mówi się, że dobry miks to taki, gdzie każdy element jest słyszalny, ale żaden nie "wychodzi przed szereg" bez powodu. Standardowo najpierw ustawia się poziomy głośności (tzw. balans), potem dodaje się efekty (np. korekcję, kompresję, pogłos). Z mojego doświadczenia bywa, że to właśnie proporcje decydują o tym, czy kawałek brzmi profesjonalnie, czy amatorsko. Praktyczna rada: warto porównywać swój miks z referencyjnymi utworami, to pomaga złapać właściwy balans. Mixing to też sztuka kompromisu – w dużych projektach można korzystać z automatyki, żeby ścieżki zmieniały głośność w określonych momentach. To naprawdę fascynujący i kreatywny proces, który wymaga ucha, wiedzy technicznej i odrobiny wyczucia. Warto zapamiętać, że bez dobrego miksu nawet świetnie nagrane ślady nie będą robić wrażenia.

Pytanie 37

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. 1,4:1
C. 6:1
D. ∞:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest nie dopuszczać do przekroczenia określonego poziomu sygnału – na przykład po to, by uniknąć przesterowania w nagraniu lub transmisji na żywo. Charakterystyczną cechą limitera jest właśnie nieskończony, czyli teoretyczny stopień kompresji: ∞:1. Oznacza to, że każda amplituda sygnału przekraczająca ustawiony threshold (próg) zostaje natychmiast „ścięta” – po prostu limiter nie pozwala, aby poziom sygnału był wyższy od ustalonego limitu. W praktyce, to się objawia bardzo twardym i szybkim działaniem, idealnym do ochrony sprzętu nagłaśniającego albo zapobiegania klipowaniu podczas masteringu. Moim zdaniem limiter to taki ostatni bastion bezpieczeństwa w torze sygnałowym – jeśli wszystko inne zawiedzie, on zadba o to, by sygnał nie wyszedł poza dopuszczalny zakres. W technikach studyjnych często stosuje się limity właśnie o stopniu ∞:1 (albo bardzo bliskim tej wartości), zwłaszcza na wyjściu całego miksu. Co ciekawe, w wielu sytuacjach limiter bywa mylony z kompresorem, ale różnica polega właśnie na tej ekstremalnej wartości ratio i błyskawicznym czasie reakcji. Warto o tym pamiętać projektując własne łańcuchy efektów – limiter to nie tylko narzędzie do „głośności”, ale też do ochrony i kontroli sygnału.

Pytanie 38

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -0,3 dBFS
B. -3 dBFS
C. -12 dBFS
D. -6 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 39

Której funkcji programu do konwersji plików dźwiękowych należy użyć, aby zwiększyć dokładność obróbki cyfrowego materiału audio?

A. Kompresji.
B. Transpozycji.
C. Nadpróbkowania.
D. Normalizacji.
Nadpróbkowanie to funkcja, która w praktyce potrafi podnieść dokładność obróbki cyfrowego audio, szczególnie kiedy pracujemy ze ścieżkami dźwiękowymi wymagającymi dalszych edycji, np. miksu czy masteringu. W skrócie – polega to na tym, że zwiększamy liczbę próbek na sekundę (czyli tzw. częstotliwość próbkowania), co pozwala uzyskać więcej szczegółów i precyzji podczas późniejszych operacji. Branżowe standardy, jak np. produkcja muzyczna czy postprodukcja filmowa, bardzo często polegają na nadpróbkowaniu, by uniknąć artefaktów, takich jak aliasing albo zniekształcenia, które mogą pojawić się podczas stosowania efektów cyfrowych. Moim zdaniem, jeśli ktoś chce osiągnąć wysoką jakość i zachować pełną kontrolę nad materiałem, nadpróbkowanie jest wręcz obowiązkowe, zwłaszcza przy bardziej zaawansowanych procesach – chociażby korekcji czy syntezie dźwięku. Warto też pamiętać, że potem można wrócić do niższej częstotliwości próbkowania, ale ten etap pośredni daje nam po prostu większy margines bezpieczeństwa i swobody w pracy. Przykładowo, lepiej brzmiące przesterowania czy bardziej naturalne filtry to właśnie zasługa nadpróbkowania. W sumie to taka branżowa sztuczka, bez której ciężko dziś o naprawdę profesjonalnie brzmiący materiał audio.

Pytanie 40

Plik w formacie CD-Audio posiada następujące parametry:

A. 24 bit, 48 kHz.
B. 24 bit, 96 kHz.
C. 16 bit, 44,1 kHz.
D. 24 bit, 44,1 kHz.
CD-Audio, czyli popularne płyty kompaktowe odtwarzane przez klasyczne odtwarzacze, mają bardzo sztywno ustalony standard zapisu dźwięku. Jest to dokładnie 16 bitów rozdzielczości próbkowania i 44,1 kHz częstotliwości próbkowania. Nie bez powodu — taki wybór parametrów był kompromisem między jakością, pojemnością płyty i możliwościami technicznymi z lat 80. XX wieku. 16 bitów pozwala na uzyskanie dynamiki na poziomie około 96 dB, co w warunkach domowych w zupełności wystarcza do wiernego odwzorowania większości materiału muzycznego. 44,1 kHz wynika natomiast z teorii Nyquista – pozwala na prawidłowe odwzorowanie dźwięków do 22,05 kHz, czyli ciut ponad granicę słyszalności ludzkiego ucha. Właśnie dlatego większość płyt CD brzmi tak, a nie inaczej, i nie znajdziesz płyty audio z innymi parametrami. Co ciekawe, wyższe wartości jak 24 bit czy 96 kHz spotkasz raczej w plikach studyjnych albo formatach typu FLAC lub SACD, których zwykłe odtwarzacze CD nie odczytują. Moim zdaniem wiedza o tych parametrach bywa bardzo praktyczna – np. przy zgrywaniu (tzw. ripowaniu) płyt CD na komputer, warto ustawić właśnie 16 bit / 44,1 kHz, żeby niepotrzebnie nie powiększać plików bez żadnej korzyści jakościowej.