Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 16:08
  • Data zakończenia: 29 kwietnia 2026 16:14

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych wartości stopnia kompresji charakteryzuje limiter?

A. 2:1
B. 1,4:1
C. 6:1
D. ∞:1
Limiter to specyficzny rodzaj procesora dynamiki, którego głównym zadaniem jest absolutne ograniczenie poziomu sygnału powyżej określonego progu. Stopień kompresji dla limitera teoretycznie wynosi nieskończoność do jednego (∞:1). Co to znaczy w praktyce? Po prostu – niezależnie o ile głośniejszy będzie sygnał wejściowy niż ustawiony threshold, na wyjściu nie będzie on nigdy wyższy od tej wartości. To taka ostatnia linia obrony przed przesterowaniem i klipowaniem, szczególnie przy masteringu, radiu czy streamingu. W branży muzycznej oraz postprodukcji audio, limiter jest wręcz obowiązkowym narzędziem końcowym na sumie miksu albo na pojedynczych ścieżkach – na przykład wokalu. Standardy emisji radiowej i telewizyjnej wymagają ścisłego trzymania się określonego poziomu sygnału (np. -1 dBFS). Wystarczy raz nie użyć limitera na końcu i gotowe – przester lub poważne naruszenie norm loudnessowych. Z mojego doświadczenia nie ma skuteczniejszego sposobu na ochronę sygnału przed zbyt dużą amplitudą niż limiter właśnie. Warto też pamiętać, że w praktyce limitery często posiadają dodatkowe funkcje, takie jak lookahead czy soft clipping, ale kluczowa cecha pozostaje: kompresja z proporcją ∞:1. To właśnie to odróżnia limiter od klasycznych kompresorów nawet tych z wysokimi ratio.

Pytanie 2

Jakiego rodzaju płyty DVD należy użyć do nagrania największej ilości materiału muzycznego?

A. DVD5
B. DVD9
C. DVD10
D. DVD18
Wybrałeś DVD18, co jest zdecydowanie najbardziej sensowne, jeśli chodzi o maksymalizowanie ilości danych na jednej płycie DVD. DVD18 to tzw. płyta dwustronna, dwuwarstwowa. Oznacza to, że ma dwie warstwy zapisu po każdej stronie, a więc w sumie cztery warstwy do wykorzystania. Dzięki temu DVD18 może pomieścić aż do około 17,1 GB danych, co jest prawie czterokrotnością zwykłej płyty DVD5. W praktyce, jeśli masz bardzo dużo materiałów muzycznych, które chcesz nagrać – np. archiwum płyt, koncerty czy kolekcje plików audio w wysokiej jakości – DVD18 daje największe pole do popisu i nie trzeba się martwić o miejsce. Warto też zauważyć, że takie płyty nie są zbyt popularne w codziennym użyciu, bo wymagają specjalnych nagrywarek, ale w zastosowaniach profesjonalnych lub archiwizacji spotyka się je całkiem często. Moim zdaniem, jeśli ktoś podchodzi na poważnie do tematu archiwizacji muzyki na fizycznych nośnikach, zawsze powinien brać pod uwagę nie tylko pojemność nominalną, ale też kompatybilność sprzętową oraz sposób odczytu – DVD18 wymaga odtwarzania z obu stron, co czasem bywa kłopotliwe, ale coś za coś. Standardy takie jak DVD Forum dokładnie opisują te różnice, więc warto się z nimi zapoznać jeśli planuje się duże projekty nagraniowe.

Pytanie 3

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Nie ma wpływu.
B. Wysokość spada dwukrotnie.
C. Wysokość wzrasta dwukrotnie.
D. Wysokość wzrasta w stosunku 48:44,1.
To bardzo dobra odpowiedź, bo faktycznie sama zmiana częstotliwości próbkowania, bez żadnej dodatkowej ingerencji w próbki czy zmianę tempa odtwarzania, nie wpływa w żaden sposób na wysokość słyszanego dźwięku. W praktyce – jeśli mamy plik audio w 44,1 kHz i przekonwertujemy go na 48 kHz, ale zachowamy te same dane audio oraz odtwarzamy z odpowiednio ustawioną prędkością (czyli sprzęt i oprogramowanie wie, jaka jest nowa częstotliwość próbkowania), to ludzkie ucho nie zauważy żadnej zmiany wysokości. Tak działają standardy w branży muzycznej – na przykład płyty CD korzystają z 44,1 kHz, a dźwięk do wideo, radia czy telewizji cyfrowej to zazwyczaj 48 kHz. Konwersja następuje praktycznie cały czas, ale nie ma to wpływu na percepcję tonacji głosu czy instrumentów. Oczywiście, jeśli ktoś by "oszukał" odtwarzacz i kazał mu odtworzyć plik nagrany w 44,1 kHz jako 48 kHz (lub odwrotnie), wtedy rzeczywiście wysokość by się zmieniła – ale to już nie jest prawidłowa konwersja, tylko błąd techniczny. Branża korzysta z wysokiej jakości algorytmów resamplingu, które są projektowane tak, żeby zachować oryginalną barwę i wysokość dźwięku. W praktyce, użytkownik nie powinien martwić się o takie rzeczy, bo sprzęt i oprogramowanie załatwiają to w tle.

Pytanie 4

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 3 kanałów.
B. 5 kanałów.
C. 1 kanału.
D. 7 kanałów.
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.

Pytanie 5

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 24 MB
B. 10 MB
C. 5 MB
D. 16 MB
Nagranie w formacie CD-Audio (standard Red Book) zapisuje dźwięk stereo z parametrami 44,1 kHz próbkowania i 16 bitów na próbkę dla każdego z dwóch kanałów. To daje 16 bitów × 2 kanały × 44 100 próbek na sekundę = 1 411 200 bitów na sekundę, czyli 176 400 bajtów na sekundę (bo 1 bajt to 8 bitów). Dla czasu trwania 1 minuta i 30 sekund, czyli 90 sekund, całkowity rozmiar pliku wynosi 176 400 × 90 = 15 876 000 bajtów. W praktyce to prawie 16 MB (jeżeli 1 MB przyjmiemy jako 1 048 576 bajtów, bo tak jest najczęściej w informatyce). Warto wiedzieć, że formaty nieskompresowane, takie jak WAV bez kompresji albo właśnie CD-Audio, szybko generują duże pliki, dlatego w nagraniach studyjnych czy archiwizowaniu materiału audio zawsze trzeba przewidzieć dużo miejsca na dysku lub płytach. Spotkałem się z sytuacją, że ktoś zaskoczony był rozmiarem zrzutów z płyt CD – z tego właśnie powodu. W branży multimedialnej standardy takie jak Red Book są podstawą, a szybkie wyliczenie rozmiaru pliku to przydatna umiejętność w codziennej pracy z audio. Moim zdaniem warto to umieć, bo często pozwala to lepiej planować zgrywanie, archiwizację czy transport plików między urządzeniami.

Pytanie 6

Podczas tworzenia nowej sesji w programie DAW, można dokonać wyboru

A. kształtu fade in i fade out w regionach w sesji.
B. częstotliwości próbkowania dźwięku w sesji.
C. typu znaczników używanych w sesji.
D. liczby grup ścieżek w sesji.
Wybór częstotliwości próbkowania dźwięku podczas tworzenia nowej sesji w programie DAW to jedna z kluczowych decyzji technicznych, które wpływają na jakość całego projektu audio. Tak naprawdę, to właśnie od tego parametru zależy, jak szczegółowo zostanie zapisana informacja dźwiękowa – im wyższa częstotliwość, tym więcej szczegółów w nagraniu, ale też większe zapotrzebowanie na miejsce na dysku i moc obliczeniową komputera. W profesjonalnych produkcjach muzycznych najczęściej ustawia się 44,1 kHz (standard płyt CD) albo 48 kHz (standard w wideo), ale często stosuje się nawet 88,2 lub 96 kHz, zwłaszcza tam, gdzie priorytetem jest jakość, a nie optymalizacja rozmiaru plików. Moim zdaniem, warto znać różnice i świadomie dobierać próbkowanie do konkretnego zastosowania – na przykład przy podkładach lektorskich do YouTube raczej nie ma sensu iść w kosmiczne wartości, ale już przy masteringu albumu dla dużego wydawcy wybór wyższej częstotliwości daje wymierne korzyści. Dobre praktyki branżowe zalecają ustawić częstotliwość próbkowania na samym początku, bo późniejsza zmiana potrafi być kłopotliwa i powodować konwersje, które mogą obniżyć jakość dźwięku. W wielu DAW-ach nie da się nawet zmienić tego parametru w istniejącej sesji bez utraty pewnych niuansów brzmieniowych. W skrócie, to podstawa w każdym projekcie audio – trochę jak wybór rozdzielczości przed nagraniem filmu.

Pytanie 7

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + V
B. Ctrl + C
C. Ctrl + Z
D. Ctrl + X
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 8

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .mp4
B. .mp3
C. .aif
D. .wma
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 9

Ile kanałów wirtualnego miksera sesji programu DAW należy użyć do dekodowania nagrania dźwiękowego wykonanego techniką Mid/Side, do formatu stereo?

A. 7 kanałów.
B. 3 kanały.
C. 5 kanałów.
D. 1 kanał.
Technika Mid/Side wymaga użycia trzech kanałów miksera DAW do prawidłowego dekodowania sygnału do formatu stereo. Ogólnie wygląda to tak: jeden kanał odpowiada za sygnał Mid (czyli to, co wspólne dla lewego i prawego kanału, zwykle mikrofon skierowany centralnie), a dwa kolejne obsługują Side – zwykle jest to ten sam sygnał Side, ale rozłożony na lewo i prawo, gdzie dla jednego kanału Side odwracamy fazę o 180 stopni. W praktyce, żeby uzyskać poprawny obraz stereo, ustawiamy w DAW trzy oddzielne ścieżki – Mid, Side-L i Side-R. Następnie sumuje się sygnał Mid z Side (dla lewego kanału stereo) i Mid z odwróconym Side (dla prawego). To trochę przypomina pracę z matrycowaniem, ale w miksie daje ogromną kontrolę nad szerokością stereo – to jest często używane w masteringu i miksowaniu chórów, gitar akustycznych czy ambientów. Według standardów branżowych (np. praktyki inżynierów dźwięku w studiach radiowych BBC czy techniki rekomendowane przez firmę Neumann), zawsze pracuje się na trzech kanałach, żeby zachować pełną elastyczność podczas dekodowania M/S. Moim zdaniem, takie podejście oszczędza dużo nerwów w późniejszym etapie miksu, bo możesz jednym suwakiem zwiększyć szerokość stereo bez utraty przejrzystości środka. No i nie da się tego ogarnąć na jednym kanale – szkoda czasu na kombinowanie z uproszczonymi metodami. Warto zapamiętać ten workflow, bo to podstawa przy pracy z mikrofonami pojemnościowymi w trybie M/S.

Pytanie 10

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
D. wyciszenie dźwięku, trwające 1/10 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 11

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Digital
B. Dolby Digital Live
C. Dolby Stereo
D. Dolby TrueHD
Dolby TrueHD to zaawansowany format dźwięku wielokanałowego, który został opracowany specjalnie z myślą o zapewnieniu najwyższej jakości audio na nośnikach Blu-ray Disc. W przeciwieństwie do większości popularnych kodeków, takich jak Dolby Digital, TrueHD pozwala na zapis i odtwarzanie dźwięku w pełni bezstratnie, co oznacza, że nie traci się żadnych informacji względem oryginalnego materiału studyjnego. To rozwiązanie umożliwia obsługę nawet 8 kanałów (czyli konfiguracja 7.1), co jest wykorzystywane w nowoczesnych systemach kina domowego. Sygnał zakodowany w Dolby TrueHD zachowuje wszystkie detale, dynamikę i przestrzenność miksu, co ma ogromne znaczenie podczas projekcji filmów akcji, koncertów czy gier wideo na dużych ekranach i profesjonalnym sprzęcie audio. W branży filmowej i muzycznej Dolby TrueHD jest bardzo ceniony właśnie za tę jakość – można powiedzieć, że jest to takie audiofilskie podejście do domowej rozrywki. Z mojego doświadczenia, jeśli ktoś naprawdę chce poczuć, jak brzmią filmy czy muzyka w wersji zbliżonej do tego, co słyszeli inżynierowie dźwięku w studiu, to właśnie TrueHD jest tym wyborem, zwłaszcza na nośnikach Blu-ray. Producenci sprzętu audio-video od lat wspierają ten standard i jest to bezdyskusyjnie preferowana metoda zapisu wielokanałowego dźwięku bez strat jakości.

Pytanie 12

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. .mp4
B. .m4p
C. .mp3
D. .m4a
Rozszerzenie .mp4 jest obecnie jednym z najpopularniejszych formatów przechowywania zarówno ścieżek wideo, jak i audio w jednym pliku. Moim zdaniem to taki złoty standard w świecie multimediów – większość współczesnych urządzeń, od smartfonów po profesjonalne oprogramowanie do edycji wideo, obsługuje .mp4 bez najmniejszego problemu. Wynika to stąd, że MP4 (czyli dokładniej MPEG-4 Part 14) powstał jako otwarty kontener multimedialny, umożliwiający zapis różnych typów danych: obrazu, dźwięku, napisów, a nawet metadanych w jednym pliku. Przykładowo, jeśli ktoś montuje film w programie DaVinci Resolve czy Adobe Premiere, to zazwyczaj eksportuje gotowy projekt właśnie do .mp4, bo to format kompatybilny praktycznie ze wszystkim, także platformami internetowymi typu YouTube czy Facebook. Z mojego doświadczenia, jeśli zależy Ci na łatwym udostępnianiu materiałów wideo, szybkim przesyłaniu lub archiwizacji, .mp4 jest wyborem niemal oczywistym. Dodatkowo używa się w nim najczęściej kodeków H.264 dla obrazu i AAC dla dźwięku, co zapewnia bardzo dobrą jakość przy stosunkowo niskim rozmiarze plików. Warto pamiętać, że inne rozszerzenia z tej listy nie spełniają tej roli – to jest właśnie przewaga .mp4. Praktycznie zawsze, kiedy widzisz plik .mp4, możesz się spodziewać, że znajdziesz w nim zarówno obraz, jak i dźwięk. To taki branżowy pewniak.

Pytanie 13

Sporządzenie duplikatu źródłowego materiału dźwiękowego należy przeprowadzić na etapie

A. edycji.
B. montażu.
C. rejestracji.
D. masteringu.
To jest właśnie to, o co chodzi w profesjonalnej produkcji dźwięku. Sporządzenie duplikatu źródłowego materiału dźwiękowego — często zwanego safety copy lub backupem — powinno się wykonywać już na etapie rejestracji. Chodzi o to, żeby od samego początku zabezpieczyć materiał przed stratą, uszkodzeniem czy jakimkolwiek przypadkowym nadpisaniem. Jest to absolutny standard w każdej szanującej się realizacji studyjnej czy nawet podczas nagrań plenerowych. Moim zdaniem to jedna z tych rzeczy, na które często się nie zwraca uwagi na początku nauki, a potem, po paru wpadkach, nagle wszyscy zaczynają rozumieć, dlaczego to jest takie ważne. Praktyka jest taka, że zaraz po zakończeniu sesji nagraniowej należy wykonać kopię surowych plików – czy to na inny nośnik, chmurę, czy zewnętrzny dysk. W branży wszyscy wiedzą, że nie istnieje coś takiego jak 'za dużo backupów'. To jest też jeden z tych momentów, gdzie dobre praktyki spotykają się z doświadczeniem – osoby, które przeżyły utratę ważnych nagrań, już zawsze robią kopie natychmiast po rejestracji. Takie podejście pozwala spać spokojnie i bez stresu przechodzić do kolejnych etapów produkcji, wiedząc, że oryginał jest bezpieczny. Bezpieczeństwo danych, jak dla mnie, to podstawa tej roboty.

Pytanie 14

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 44 100 Hz
C. 98 000 Hz
D. 48 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 15

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. MIDI
B. INSTRUMENTS
C. AUX
D. AUDIO
Odpowiedź AUX jako wirtualna szyna do efektów pogłosowych to strzał w dziesiątkę. W większości profesjonalnych DAW-ów (czy to Pro Tools, Cubase, Ableton czy nawet mniej popularnych programach), ścieżka typu AUX jest właśnie stworzona do obsługi efektów globalnych, takich jak pogłos czy delay, które mają być używane na wielu śladach jednocześnie. Przykład z życia: masz miks z kilkoma różnymi instrumentami i chcesz, żeby wszystkie miały ten sam charakter pogłosu – wtedy zamiast nakładać osobny efekt na każdą ścieżkę (co zabija procesor, serio), wysyłasz trochę sygnału z każdej ścieżki na AUX z podpiętym pogłosem. Dzięki temu osiągasz spójność brzmieniową, a poza tym łatwiej kontrolować poziom pogłosu w całym miksie jednym suwakiem. Takie podejście jest super wydajne, bo pozwala na oszczędzanie zasobów systemowych, ale też daje ogromne pole do kreatywności: można zautomatyzować sendy, zmieniać ilość efektu w zależności od aranżu, itd. W profesjonalnym studiu nie spotkałem jeszcze nikogo, kto nie używałby AUX-ów właśnie do takich celów. To trochę jak z dobrym narzędziem – nie wyobrażam sobie pracy bez niego. W sumie, to jest taki trochę fundament pracy w DAWie i warto się tego nauczyć już na początku.

Pytanie 16

Który z wymienionych rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji programu DAW?

A. 32 próbki.
B. 256 próbek.
C. 128 próbek.
D. 64 próbki.
Wybranie bufora o rozmiarze 32 próbek to zdecydowanie najbardziej sensowna opcja, jeśli zależy nam na absolutnie minimalnej latencji podczas nagrywania dźwięku w DAW. Mówiąc wprost, im mniejszy bufor, tym krótszy czas oczekiwania na reakcję systemu – sygnał praktycznie od razu trafia z wejścia audio do wyjścia. To kluczowe dla wokalistów, instrumentalistów czy live performerów, gdzie nawet drobne opóźnienie potrafi totalnie wybić z rytmu. W środowiskach profesjonalnych, np. w studiach nagraniowych, standardem jest schodzenie do najniższych możliwych wartości, często właśnie na poziomie 32 czy 64 próbek, jeśli tylko sprzęt na to pozwala. Oczywiście, taki bufor zwiększa obciążenie procesora – tutaj już trzeba mieć porządną kartę dźwiękową i stabilne sterowniki, np. ASIO w Windows czy Core Audio na Macu. Z mojego doświadczenia: przy nagraniach w domowych warunkach też warto próbować zejść jak najniżej, byleby nie pojawiały się trzaski, dropy czy inne artefakty. Moim zdaniem to taki złoty standard dla tych, którym zależy na responsywności DAW podczas nagrywania na żywo. W materiałach firm takich jak Steinberg, Ableton czy Avid znajdziesz potwierdzenie, że to właśnie minimalizacja bufora daje najbardziej naturalne wrażenia podczas nagrania. Warto pamiętać, że później przy miksie czy masteringu można podnieść bufor, bo wtedy liczy się wydajność, nie latencja.

Pytanie 17

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-RW
B. DVD+R
C. DVD+R DL
D. DVD-R
Płyta DVD-RW to rzeczywiście nośnik wielokrotnego zapisu, czyli taki, na którym można zapisywać i kasować dane naprawdę wiele razy, dopóki się płyta fizycznie nie zużyje. W praktyce oznacza to, że można na niej nagrać film, potem go usunąć i wgrać coś zupełnie innego – trochę jak z pamięcią USB, tylko oczywiście wolniej i mniej wygodnie. W branży informatycznej DVD-RW często bywały wykorzystywane do testowania kopii zapasowych lub do przenoszenia dużych plików pomiędzy komputerami w czasach, gdy dyski twarde były jeszcze dość małe, a pendrive’y dopiero raczkowały. Nośniki RW (czyli ReWritable) są zgodne z odpowiednimi standardami DVD Forum, a oznaczenie „RW” zawsze sugeruje możliwość wielokrotnego wykorzystania. Fajną sprawą jest to, że takie płyty przydają się np. przy archiwizacji danych firmowych, gdzie co tydzień nadpisuje się backup. Moim zdaniem znajomość różnic pomiędzy DVD-R, DVD+R i DVD-RW to absolutna podstawa dla każdego, kto kiedykolwiek miał do czynienia z nośnikami optycznymi w praktyce – szczególnie, że na pierwszy rzut oka wyglądają identycznie. Branżowo, warto wiedzieć: do archiwów lepiej wykorzystać DVD-R lub DVD+R, a do testów czy transportu – właśnie DVD-RW. Reasumując: DVD-RW daje swobodę wielokrotnego użycia, co znacząco różni ją od wersji jednokrotnego zapisu.

Pytanie 18

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. WAV
C. AAC
D. ALAC
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.

Pytanie 19

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania chóru zarejestrowanego z zastosowaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych?

A. 3 ścieżki.
B. 4 ścieżki.
C. 1 ścieżkę.
D. 2 ścieżki.
W przypadku rejestracji chóru z wykorzystaniem techniki mikrofonowej XY oraz dwóch mikrofonów podpórkowych, minimalna liczba ścieżek monofonicznych w sesji DAW powinna wynosić cztery. Chodzi o to, że para XY to zawsze dwa osobne mikrofony ustawione blisko siebie pod odpowiednim kątem – każdy z nich wymaga niezależnej ścieżki, żeby zachować możliwość precyzyjnej kontroli panoramy i balansu stereo w miksie. Do tego dochodzą dwa mikrofony podpórkowe (tzw. spot microphones), które najczęściej ustawia się bliżej kluczowych sekcji chóru, aby wyłapać więcej szczegółów lub podkreślić wybrane fragmenty brzmienia. Każdy mikrofon podpórkowy również musi mieć swoją ścieżkę, bo tylko wtedy da się sensownie ustawić proporcje i zrealizować indywidualną korekcję czy kompresję. Z mojego doświadczenia wynika, że rozdzielność tych ścieżek to podstawa profesjonalnego montażu – w praktyce liczy się elastyczność w dalszym miksie, a także bezpieczeństwo: zawsze da się zredukować poziom bądź całkiem wyciszyć niepotrzebne ślady. Takie podejście jest zgodne z typowymi workflow w studiach nagraniowych i pozwala zachować pełną kontrolę nad każdym elementem nagrania. Często nawet w prostszych sesjach stosuje się ten schemat. Można oczywiście dodać więcej ścieżek, jeśli używa się większej liczby mikrofonów, ale w tej konfiguracji cztery to absolutne minimum. Przygotowanie mniejszej ilości ścieżek ograniczyłoby możliwości miksu i mogłoby prowadzić do nieprofesjonalnych rezultatów.

Pytanie 20

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. BNC
B. DIN
C. TOSLINK
D. TDIF
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 21

W liście utworów, wykorzystanych przy montażu dźwięku, użytej do rozliczenia praw autorskich, nie podaje się

A. systemu kodowania dźwięku.
B. tytułu utworu.
C. autora utworu.
D. długości trwania pliku audio.
Odpowiedź dotycząca systemu kodowania dźwięku jest jak najbardziej prawidłowa. W praktyce, kiedy przygotowuje się listę utworów do rozliczeń praw autorskich (czyli tzw. cue sheet), kluczowe są informacje pozwalające jednoznacznie zidentyfikować utwór oraz jego twórców i właścicieli praw. To właśnie dlatego zawsze podaje się autora utworu, jego tytuł czy długość trwania pliku audio. Natomiast system kodowania dźwięku, czyli np. czy był to plik w formacie PCM, MP3, FLAC czy innym, w ogóle nie jest istotny z punktu widzenia ZAiKS-u czy innych organizacji zarządzających prawami autorskimi. Oni rozliczają się na podstawie faktu użycia danego utworu – kto napisał, kto wykonuje, ile czasu trwała emisja, itp. Nawet jeśli montażysta dźwięku pracuje na różnych kodekach, to do rozliczeń prawnych liczy się tylko to, co zostało faktycznie użyte i pod jakim tytułem. Moim zdaniem to trochę śmieszne, że ktoś mógłby chcieć wpisywać system kodowania, bo przecież nie wpływa on na prawa autorskie czy wysokość tantiem. W branży filmowej i telewizyjnej standardem jest skrupulatność przy dokumentowaniu utworów, ale nikt nie wymaga tam szczegółów technicznych typu kodek. Takie rzeczy są ważne dla techników przy montażu czy archiwizacji, natomiast dla rozliczeń autorskich kompletnie bez znaczenia. Tu liczy się kto i co, nie jak technicznie przygotowane.

Pytanie 22

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R
B. DVD-R
C. DVD+R DL
D. DVD-RW
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 23

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. BPF
B. LF
C. LPF
D. HPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 24

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -6 dBFS
B. -0,3 dBFS
C. -12 dBFS
D. -3 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 25

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .aiff
B. .wav
C. .mp3
D. .omf
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 26

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. File
B. Tools
C. View
D. Edit
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 27

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Time Stretching
B. Invert Phase
C. Pitch Shifting
D. Resample
Resample to w DAW-ach taka funkcja, którą wykorzystuje się, gdy trzeba zmienić częstotliwość próbkowania sygnału – na przykład z 44,1 kHz na 48 kHz. Właściwie, moim zdaniem, to jedna z kluczowych operacji, zwłaszcza jeśli pracujesz z różnymi formatami audio albo przygotowujesz pliki do masteringu pod różne platformy (np. streaming czy CD). Jak to wygląda w praktyce? Jeśli nagrasz coś w 44,1 kHz, a potem chcesz to dodać do projektu, gdzie wszystko jest na 48 kHz, to wtedy właśnie z pomocą przychodzi opcja Resample. Oprogramowanie musi wtedy matematycznie przeliczyć punkty próbkowania, żeby nowy plik zachował oryginalną prędkość i wysokość dźwięku, ale pasował do projektu. Warto wiedzieć, że dobre DAWy (np. Cubase, Pro Tools, Reaper) oferują różne algorytmy resamplingu – im lepszy, tym mniej artefaktów, typu aliasing. Branżowy standard to stosowanie wysokiej jakości algorytmów, takich jak SRC lub iZotope SRC, właśnie po to, aby nie tracić szczegółów czy nie wprowadzać niechcianych szumów. Z mojego doświadczenia lepiej zrobić resampling jeszcze przed końcowym eksportem, bo wtedy masz większą kontrolę nad jakością. Ogólnie, Resample to podstawa przy pracy z projektami, gdzie miksujemy pliki o różnych parametrach.

Pytanie 28

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. SESSION
B. FILE
C. I/O
D. EDIT
Sekcja I/O (Input/Output) w oprogramowaniu typu DAW rzeczywiście odpowiada za konfigurację połączeń z urządzeniami zewnętrznymi, jak interfejsy audio. To właśnie tutaj ustalamy, które wejścia i wyjścia fizyczne (np. linie mikrofonowe czy wyjścia monitorowe) będą widoczne i dostępne dla ścieżek projektu. Najczęściej spotkasz się z tym podczas ustawiania sesji nagraniowej – przykładowo, jeżeli chcesz nagrać gitarę podpiętą do wejścia 3 interfejsu audio, przypisujesz to wejście konkretnej ścieżce właśnie w sekcji I/O. I/O pozwala na zdefiniowanie, które sygnały z DAW mają trafić do konkretnych portów w Twoim sprzęcie oraz odwrotnie. Moim zdaniem, opanowanie tej sekcji to absolutna podstawa dla każdego, kto poważnie myśli o profesjonalnym nagrywaniu i miksowaniu. Bez odpowiedniego skonfigurowania I/O niemożliwe byłoby np. nagranie kilku instrumentów naraz czy skierowanie miksu na osobne tory odsłuchowe. W praktyce, nawet w prostych domowych studiach, dobrze ustawione I/O pozwala zaoszczędzić mnóstwo czasu i nerwów. Często zapomina się o tym kroku, a tak naprawdę to serce komunikacji DAW z całym światem zewnętrznym – od mikrofonu, przez syntezatory, po końcowe wyjście na monitory czy mastering. Z mojego doświadczenia, im szybciej to zrozumiesz i ogarniesz, tym szybciej DAW przestanie być dla Ciebie czarną skrzynką.

Pytanie 29

W celu osiągnięcia maksymalnej wydajności oprogramowania DAW podczas prac montażowych i miksu rozmiar bufora programowego powinien zostać ustawiony na wartość

A. 1 024 próbek.
B. 256 próbek.
C. 512 próbek.
D. 32 próbek.
Ustawienie rozmiaru bufora programowego na 1024 próbki to rozwiązanie, które zdecydowanie zwiększa wydajność systemu DAW podczas montażu i miksu. Przy tak wysokim buforze komputer ma więcej czasu na przetworzenie sygnału audio, dlatego minimalizuje się ryzyko zacięć, pykania czy innych artefaktów dźwiękowych. Z mojego doświadczenia wynika, że większość profesjonalnych realizatorów, kiedy już mają nagrany materiał i przechodzą do miksowania, pracuje właśnie na dużych buforach, często 1024, a nawet 2048 próbek. To jest zgodne z zaleceniami producentów oprogramowania DAW, takich jak Steinberg, Avid czy Ableton. W praktyce, gdy zależy nam na niskiej latencji (np. podczas nagrywania na żywo), schodzimy z buforem niżej, ale przy miksie liczy się przede wszystkim płynność działania, możliwość użycia wielu wtyczek, automatyzacji czy efektów. To pozwala na swobodną pracę bez zrywających się ścieżek lub błędów przetwarzania. Spotkałem się też z opiniami, że niektóre starsze komputery wręcz wymagają większego bufora, żeby w ogóle dało się pracować z bardziej rozbudowanymi projektami. Trochę może przesadzam, ale lepiej mieć ten zapas niż potem borykać się z nieprzewidzianymi problemami. Generalnie, dla miksu i edycji lepiej mieć większy bufor, niż walczyć z brakami wydajności.

Pytanie 30

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. HSF
B. HPF
C. LPF
D. LSF
Filtr LPF, czyli filtr dolnoprzepustowy, to podstawa w obróbce dźwięku, zwłaszcza gdy chodzi o usuwanie niepotrzebnych wysokich częstotliwości. W praktyce oznacza to, że wszystko powyżej ustalonej częstotliwości granicznej zostaje stłumione lub wręcz wycięte, a sygnały poniżej tej wartości przechodzą praktycznie bez zmian. To rozwiązanie jest codziennością w pracy z miksowaniem muzyki, masteringu czy postprodukcji dźwięku – filtr LPF przydaje się np. przy usuwaniu szumów, syczeń czy innych zakłóceń w wysokich pasmach. Moim zdaniem, to jeden z najważniejszych filtrów, bo pozwala na kontrolowanie przejrzystości miksu. Inżynierowie dźwięku korzystają z LPF, by np. „oczyścić” stopę perkusyjną z niepotrzebnych świstów, które mogą przeszkadzać w odbiorze całości utworu. Standardem branżowym jest dobieranie częstotliwości granicznej tak, by nie wpływać negatywnie na naturalność brzmienia instrumentów. Często do tego celu wykorzystuje się filtry Butterwortha lub Bessela, bo mają łagodne zbocza i minimalne zniekształcenia fazowe. Dobrze jest pamiętać, że w systemach Hi-Fi, filtr LPF służy choćby do rozdzielania pasma między subwooferem a satelitami. Odpowiednie ustawienie LPF pozwala zatem uzyskać pełniejsze i bardziej klarowne brzmienie, zgodnie z obecnymi normami pracy w audio.

Pytanie 31

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby TrueHD
B. Dolby Digital EX
C. Dolby AC3
D. Dolby Digital
Dolby TrueHD to faktycznie format wielokanałowej, bezstratnej kompresji dźwięku, który bardzo często spotyka się w domowych systemach kina domowego, a także na płytach Blu-ray. Co ciekawe, moim zdaniem jest to jeden z najbardziej zaawansowanych technologicznie kodeków audio dostępnych dla użytkowników końcowych. Dzięki zastosowaniu technologii bezstratnej kompresji, Dolby TrueHD pozwala na zachowanie jakości dźwięku identycznej z oryginalnym zapisem studyjnym – żaden szczegół nie ginie, nie ma żadnych strat jakości jak w przypadku formatów stratnych takich jak Dolby Digital. W praktyce, jeżeli zależy komuś na słuchaniu muzyki czy oglądaniu filmów z dźwiękiem przestrzennym naprawdę najwyższej jakości (np. 7.1 kanałów), to właśnie TrueHD jest jednym z najlepszych wyborów. Warto dodać, że ten format jest zgodny ze standardem HDMI, co ułatwia integrację z nowoczesnym sprzętem AV. Z mojego doświadczenia, osoby wykorzystujące Dolby TrueHD często podkreślają, że różnica w detaliczności i dynamice dźwięku jest słyszalna nawet na lepszych soundbarach, nie mówiąc już o rozbudowanych systemach głośnikowych. To nie jest taki zwykły kodek jak AC3 – to już wyższa liga, jeśli chodzi o jakość i zastosowanie w branży.

Pytanie 32

Zastosowanie efektu typu Flanger podczas montażu nagrania dźwiękowego spowoduje

A. poszerzenie dynamiki sygnału.
B. modulację dźwięku.
C. odwrócenie fazy sygnału.
D. ograniczenie niskich tonów.
Flanger to efekt, który polega na nakładaniu dwóch identycznych sygnałów audio, z których jeden jest minimalnie opóźniony i dynamicznie modulowany. W praktyce daje to charakterystyczny efekt filtrowania przypominający swego rodzaju „przestrzenne falowanie” czy „szum odrzutowca”. Moim zdaniem to dość efektowny zabieg stosowany często w muzyce elektronicznej, rockowej czy nawet radiowych jinglach. Główna zasada działania flangera opiera się właśnie na modulacji dźwięku przez przesuwanie fazy i czasu opóźnienia jednego z sygnałów względem drugiego. W branży dźwięku uważa się, że użycie flangera potrafi znacznie wzbogacić aranżację, dodać głębi i nieco „kosmicznego” charakteru niektórym partiom, np. gitarze czy wokalowi. Ważne, żeby nie przesadzić, bo efekt jest bardzo wyraźny i łatwo przykryć nim inne istotne elementy miksu. Z mojego doświadczenia najlepiej sprawdza się przy subtelnych ustawieniach, gdzie delikatnie modulowany sygnał staje się ciekawszy, ale nie rozprasza uwagi słuchacza. Warto pamiętać, że flanger nie wpływa bezpośrednio na dynamikę czy barwę dźwięku w sensie ograniczania pasma, za to świetnie nadaje się do eksperymentów i kreatywnego podejścia podczas montażu audio.

Pytanie 33

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Kompresor.
B. Ekspander.
C. Korektor.
D. Crossover.
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 34

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 3 razy.
B. 6 razy.
C. 2 razy.
D. 4 razy.
Zmniejszenie częstotliwości próbkowania o połowę skutkuje tym, że do zapisu jednej sekundy dźwięku potrzeba dokładnie dwa razy mniej próbek. To prosty związek – jeśli próbkowaliśmy np. z częstotliwością 44,1 kHz (standard CD), a potem schodzimy do 22,05 kHz, to każda sekunda nagrania będzie zajmować połowę miejsca na dysku. To się dzieje niezależnie od tego, czy zmieniamy tylko częstotliwość przy zachowaniu tej samej głębi bitowej i liczby kanałów. W praktyce często stosuje się taki zabieg w sytuacjach, gdy kluczowa jest oszczędność miejsca – np. przy nagraniach do podcastów czy notatek głosowych, gdzie jakość nie musi być studyjna. W branży audio jest to jedno z podstawowych narzędzi optymalizacji, zapisane też w standardach, choćby WAV czy MP3 – wszędzie tam rozmiar pliku wprost zależy od ilości próbek na sekundę. Moim zdaniem warto zapamiętać, że przy każdej próbie zmniejszania pliku audio, pierwszym krokiem jest zawsze analiza, jak bardzo można zejść z próbkowaniem, żeby nie stracić zbytnio na jakości, bo to naprawdę daje duże efekty w kwestii oszczędności przestrzeni. Dodatkowo, taka redukcja ma wpływ również na przepustowość przy transmisji strumieniowej, co jest istotne w aplikacjach mobilnych i IoT. Z mojego doświadczenia wynika, że niektórzy zapominają o tej proporcji i próbują szukać innych skomplikowanych rozwiązań, a to jest taki prosty trik, który działa praktycznie zawsze.

Pytanie 35

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zwiększy się 4-krotnie.
B. Zwiększy się 6-krotnie.
C. Zmniejszy się 3-krotnie.
D. Zmniejszy się 2-krotnie.
To właśnie jest prawidłowa odpowiedź, bo zmiana częstotliwości próbkowania z 96 kHz na 48 kHz oznacza, że ilość próbek na sekundę zmniejsza się dokładnie o połowę. Równocześnie redukcja rozdzielczości z 24 bitów do 16 bitów powoduje, że każda próbka waży mniej, konkretnie z 24 bitów (=3 bajty) do 16 bitów (=2 bajty), czyli też o 1/3 mniej. Mnożąc oba te czynniki redukcji: 2 (za częstotliwość) x 1,5 (za rozdzielczość) dostajemy 3-krotną redukcję rozmiaru pliku. To właśnie dlatego plik nieskompresowany, np. PCM WAV, po takiej konwersji będzie ważył trzy razy mniej. Praktycznie – gdy się pracuje z dużymi archiwami audio, taka optymalizacja jest często stosowana, szczególnie przy archiwizacji lub przesyłaniu plików przez sieć, gdzie niepotrzebna jest ekstremalna jakość 24/96, bo już 16/48 w zupełności wystarcza np. do emisji radiowej czy nagrań na płyty CD. Moim zdaniem, warto pamiętać o takich prostych przeliczeniach, bo to ułatwia życie przy masteringu czy codziennej pracy ze ścieżkami dźwiękowymi. No i nie ma tutaj żadnej magii – po prostu matematyka i technika idą w parze. W branży audio to wręcz podstawa, żeby umieć to szybko policzyć w głowie i nie zaskoczyć się potem zbyt dużymi lub za małymi plikami. Swoją drogą, większość profesjonalnych programów DAW (np. Pro Tools, Cubase) wyświetla te parametry na bieżąco i widać od razu, jak zmiany wpływają na rozmiar.

Pytanie 36

Który z wymienionych formatów umożliwia dystrybucję dźwięku wielokanałowego?

A. .aiff
B. .aac
C. .omf
D. .wav
Format .aac to naprawdę ciekawa sprawa w świecie audio – od lat jest wykorzystywany w profesjonalnej i konsumenckiej dystrybucji dźwięku. Advanced Audio Coding (AAC), bo tak oficjalnie się nazywa, to format stratny, ale – co ważne – obsługuje dźwięk wielokanałowy, na przykład 5.1 czy nawet 7.1. Dzięki temu nadaje się do filmów, gier czy transmisji telewizyjnych, gdzie chce się mieć efekt przestrzenny, a jednocześnie plik nie zajmuje zbyt dużo miejsca. Z mojego doświadczenia, .aac jest wykorzystywany nie tylko w iTunes czy Apple Music, ale też w streamingu i DAB+ (czyli cyfrowym radiu). Branża audio od dawna poleca ten format wszędzie tam, gdzie liczy się jakość i efektywność kompresji. Szczerze mówiąc, dzisiaj mało który format kompresji stratnej radzi sobie równie dobrze z przestrzennością dźwięku i kompatybilnością z różnymi urządzeniami. Warto dodać, że .aac to oficjalny następca MP3 i w wielu miejscach zastępuje stare rozwiązania, właśnie dzięki obsłudze wielokanałowości. W praktyce, jeśli chcesz rozprowadzać dźwięk surround w aplikacjach internetowych czy mobilnych, wybór .aac to wręcz standardowa decyzja. Oczywiście, są też formaty bezstratne, ale jeśli chodzi o praktyczne, szerokie zastosowanie i wsparcie, AAC nie ma sobie równych w tym zakresie.

Pytanie 37

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. MUTE
B. PASTE
C. CUT
D. COPY
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 38

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD + R SL
B. CD – R DL
C. CD + R SL
D. DVD – R DL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 39

W celu uniknięcia pogorszenia jakości sygnału audio przy przetwarzaniu z użyciem ośmiobitowego przetwornika A/C należy

A. zwiększyć częstotliwość próbkowania sygnału.
B. wzmocnić sygnał wejściowy przetwornika.
C. zmniejszyć składową stałą sygnału wejściowego przetwornika.
D. skompresować sygnał wejściowy przetwornika.
Zwiększenie częstotliwości próbkowania sygnału to jedno z podstawowych działań pozwalających zminimalizować pogorszenie jakości dźwięku przy ograniczeniach narzuconych przez ośmiobitowy przetwornik A/C. Wynika to wprost z twierdzenia Nyquista-Shannona – im wyższa częstotliwość próbkowania, tym dokładniej oryginalny sygnał analogowy może być odtworzony po konwersji do postaci cyfrowej, nawet jeśli rozdzielczość bitowa (czyli liczba poziomów kwantyzacji) nie jest wysoka. W praktyce branża audio przyjmuje, że dla sygnału muzycznego powinno się stosować przetworniki o co najmniej 16 bitach i 44,1 kHz (standard CD), ale jeśli już musisz korzystać z 8 bitów – wyższa częstotliwość próbkowania pozwala zminimalizować zniekształcenia aliasingu oraz poprawić subiektywną jakość odbioru. Sam miałem kiedyś okazję programować prosty syntezator oparty na 8-bitowym A/C i zauważyłem, że bez zwiększenia częstotliwości próbkowania dźwięk robił się „ziarnisty” i tracił dynamikę. W systemach profesjonalnych podbija się obie wartości, ale jeśli już nie da się podnieść rozdzielczości – zwiększenie liczby próbek na sekundę przynosi bardzo wymierną poprawę. Również wiele systemów embedded i sprzętu retro korzystało z tej metody, żeby choć trochę poprawić ograniczony dźwięk.

Pytanie 40

Normalizacja z opcją korekty RMS wpływa

A. wyłącznie na poziom szczytowy.
B. na poziom średni i szczytowy.
C. na szum kwantyzacji.
D. wyłącznie na poziom średni.
Wokół normalizacji audio narosło sporo nieporozumień, zwłaszcza jeśli chodzi o opcję korekty RMS. Często można spotkać się z przekonaniem, że normalizacja wpływa wyłącznie na poziom szczytowy albo tylko na średni, co nie jest do końca prawdą, szczególnie gdy w grę wchodzi RMS. Założenie, że RMS dotyczy tylko szumów kwantyzacji, jest mylące – RMS w praktyce pomaga dostosować ogólną głośność materiału, a nie ingeruje bezpośrednio w sam poziom szumów wynikających z procesu cyfryzacji. Jeśli zaś chodzi o twierdzenie, że normalizacja RMS wpływa wyłącznie na poziom średni, to również nie oddaje pełnego obrazu – zmiana poziomu RMS z definicji pociąga za sobą także korektę poziomu szczytowego, bo oba są ze sobą powiązane. Skupianie się tylko na szczytach (tzw. Peak) prowadzi często do sytuacji, gdzie materiał jest teoretycznie głośny, ale w realnym odsłuchu brzmi cicho, bo średni poziom pozostaje niski. To dość popularny błąd myślowy, zwłaszcza u osób stawiających pierwsze kroki w montażu dźwięku lub masteringu. W praktyce, gdy korzystasz z normalizacji RMS, automatycznie wpływasz zarówno na odbiór głośności (czyli poziom średni), jak i na to, jak blisko górnej granicy idą szczyty. Branżowe standardy, takie jak EBU R128 czy ITU-R BS.1770, kładą nacisk właśnie na równoważenie tych parametrów, by uzyskać spójny materiał pod względem głośności bez nieprzyjemnych przesterowań. Dlatego patrzenie na normalizację RMS jednostronnie – tylko przez pryzmat szumów, pojedynczych szczytów lub wyłącznie średniej – jest nieścisłe i może skutkować materiałem niespełniającym oczekiwań jakościowych. Dobre praktyki podpowiadają, żeby zawsze myśleć o RMS jako o narzędziu równoważącym oba poziomy, co przekłada się na lepszy efekt końcowy – czy to w muzyce, czy w materiałach mówionych.