Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 11:25
  • Data zakończenia: 28 kwietnia 2026 11:34

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z operacji stanowi podniesienie poziomu nagrania w taki sposób, aby jego wartość szczytowa osiągnęła 0 dBFS?

A. Kluczowanie amplitudy.
B. Normalizacja.
C. Edycja panoramy.
D. Szerokopasmowa kompresja.
Normalizacja to operacja, która wprost podnosi poziom całego nagrania tak, żeby jego wartość szczytowa (czyli najwyższy możliwy pik sygnału) dotarła do ustalonego punktu odniesienia – standardowo jest to 0 dBFS (decibels full scale). W praktyce normalizacja jest stosowana, żeby maksymalnie wykorzystać dostępną rozdzielczość sygnału cyfrowego bez ryzyka przesterowania, które pojawia się powyżej 0 dBFS w systemach cyfrowych. Moim zdaniem, to jedna z podstawowych czynności na etapie przygotowania ścieżki audio do dalszego miksu lub masteringu, bo pozwala zachować kontrolę nad dynamiką i uniknąć problemów przy przekazywaniu plików dalej – np. do wydawcy, klienta czy innego realizatora. W branży muzycznej uważa się, że normalizacja jest neutralna dla brzmienia, bo nie zmienia proporcji głośności między fragmentami nagrania, tylko globalnie przesuwa cały sygnał w górę lub w dół, aż szczyt osiągnie wybrany poziom. Bardzo często korzysta się z niej przy zgrywaniu sesji wielośladowych do wspólnego projektu lub przy finalizowaniu materiału do druku. Ciekawostka: niektórzy inżynierowie używają normalizacji do nieco niższych poziomów, np. -1 dBFS, żeby zostawić minimalny margines bezpieczeństwa dla konwersji czy przesyłu strumieniowego. Warto wiedzieć, że normalizacja nie zastępuje kompresji ani limiterów – to zupełnie inne narzędzia do zarządzania dynamiką.

Pytanie 2

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD + R SL
B. CD – R DL
C. DVD – R DL
D. DVD + R SL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 3

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .aac
B. .aiff
C. .ogg
D. .mp3
Format pliku .aiff (Audio Interchange File Format) jest bardzo ceniony w środowisku profesjonalnym, zwłaszcza w studiach nagrań i przy produkcji muzyki. To dlatego, że .aiff zapisuje dźwięk w postaci nieskompresowanej, czyli bezstratnej, bardzo podobnie jak popularny .wav. Oznacza to, że każda próbka dźwięku jest odwzorowana dokładnie tak, jak została nagrana – nie traci się żadnych informacji, jak to bywa w formatach kompresowanych. Z mojego doświadczenia praca na plikach .aiff daje dużą swobodę przy dalszej obróbce – na przykład przy miksie albo masteringu. W branży muzycznej to wręcz standard przy pracy z wysoką jakością, bo inżynierowie dźwięku chcą mieć dostęp do pełnego pasma, wysokiej rozdzielczości i dużej głębi bitowej (np. 24 bity, 96 kHz). Co ciekawe, .aiff jest formatem rozwiniętym przez Apple, więc często spotyka się go na komputerach Mac, ale bez problemu radzą sobie z nim też inne systemy. Pliki .aiff zajmują sporo miejsca na dysku – to jedyny minus – ale dla czystej jakości nie ma chyba lepszego wyboru. Warto wiedzieć, że archiwizując nagrania czy przygotowując materiał do dalszej produkcji zawsze lepiej sięgać po formaty bezstratne, właśnie takie jak .aiff czy .wav, bo potem można na nich bazować, eksportując do bardziej skompresowanych formatów jak mp3 czy aac – oczywiście wtedy już z utratą części informacji.

Pytanie 4

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 16 bitów.
B. Do 8 bitów.
C. Do 24 bitów.
D. Do 32 bitów.
Dokładnie, płyta CD-Audio zgodnie ze światowym standardem Red Book powinna mieć rozdzielczość 16-bitową. To oznacza, że każda próbka dźwięku zapisana na płycie jest reprezentowana przez 16 bitów, co pozwala na uzyskanie 65 536 różnych możliwych wartości amplitudy. Dzięki temu muzyka odtwarzana z płyt CD charakteryzuje się wystarczająco szerokim zakresem dynamiki – mówi się o ok. 96 dB, co w praktyce całkowicie wystarcza do odsłuchu muzyki w warunkach domowych. Moim zdaniem wybór 16 bitów to taki kompromis pomiędzy jakością dźwięku a ilością miejsca, które można fizycznie zapisać na płycie. Zresztą, profesjonalne studia często nagrywają w wyższej rozdzielczości (24 bity), ale przed wydaniem muzyki na CD wykonuje się tzw. dithering i zgrywanie właśnie do 16 bitów. To pozwala zachować kompatybilność z odtwarzaczami i zapewnia, że każda płyta CD-Audio, niezależnie od wytwórni czy gatunku, ma taki sam techniczny poziom jakości. Podsumowując – 16 bitów to nie przypadek, tylko przemyślany międzynarodowy standard. Warto o tym pamiętać, bo różne formaty cyfrowe mają inne wymagania, a CD-Audio ma właśnie takie – i nie da się tam wcisnąć ani 24, ani 8 bitów bez złamania specyfikacji.

Pytanie 5

Pojemność jednowarstwowej płyty Blu-ray umożliwia nagranie materiałów dźwiękowych o maksymalnym rozmiarze

A. 8,5 GB
B. 4,7 GB
C. 50 GB
D. 25 GB
Płyta Blu-ray w wersji jednowarstwowej to obecnie jeden z najpopularniejszych nośników do przechowywania dużych ilości danych – zwłaszcza tam, gdzie zależy nam na jakości, a niekoniecznie na wielokrotnym nagrywaniu. Jej pojemność wynosi właśnie 25 GB, co czyni ją kilkukrotnie bardziej pojemną od standardowych płyt DVD czy nawet dwuwarstwowych DVD. To, moim zdaniem, naprawdę sporo jak na potrzeby domowego archiwizowania muzyki czy nawet bardziej rozbudowanych projektów dźwiękowych. W praktyce można tam zmieścić tysiące plików audio w wysokiej jakości lub nawet kilka godzin nieskompresowanego materiału dźwiękowego PCM, co zresztą wykorzystywały kiedyś płyty Blu-ray Audio. Warto pamiętać, że technologia Blu-ray to nie tylko filmy w wysokiej rozdzielczości. W branży muzycznej również znalazła swoje miejsce, choć raczej jako nośnik premium. Standardy Blu-ray określają jasno pojemności – 25 GB dla jednowarstwowej i 50 GB dla dwuwarstwowej, a nawet więcej dla wersji BD-XL, ale te są już rzadziej używane w konsumenckich zastosowaniach. Z mojego doświadczenia, korzystanie z jednowarstwowych płyt Blu-ray to dobra praktyka, bo łatwiej je odczytać w większości napędów, a ryzyko błędów przy nagrywaniu jest niższe niż w przypadku bardziej upakowanych nośników. I jeszcze ciekawostka – pliki w formacie FLAC lub WAV bez problemu się tam pomieszczą, a jak ktoś lubi eksperymentować z dźwiękiem przestrzennym, to Blu-ray daje naprawdę spore pole do popisu.

Pytanie 6

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. złącza Thunderbolt.
B. czytnika kart flash.
C. portu Fire Wire.
D. gniazda USB.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 7

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/3.
B. o 1/4.
C. o 1/2.
D. o 1/6.
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 8

W którym z wymienionych obszarów roboczych DAW przygotowuje się zapis w postaci partytury?

A. Mix.
B. Score.
C. Transport.
D. Edit.
Score to właśnie ten obszar w większości cyfrowych stacji roboczych audio (DAW), gdzie przygotowuje się zapis nutowy, czyli partyturę. Moim zdaniem, jest to kluczowy moduł, jeśli pracujesz z muzyką, którą chcesz później przekazać instrumentalistom czy zespołowi – albo po prostu zależy Ci na jasnym przedstawieniu struktur muzycznych w klasyczny sposób. W trybie Score możesz nie tylko oglądać nuty generowane z MIDI, ale i ręcznie je edytować, dodając oznaczenia artykulacyjne, dynamikę, zmiany tempa, takty itp. To bardzo wygodne, bo pozwala szybko przekonwertować pomysły z klawiatury sterującej na czytelny zapis nutowy, praktycznie gotowy do wydruku lub eksportu w formacie PDF albo MusicXML. W profesjonalnych produkcjach często to właśnie w Score przygotowuje się tzw. wyciągi partii dla sesji nagraniowych. Z mojego doświadczenia wynika, że nawet przy produkcjach popowych, w których dominuje MIDI, funkcja Score nieraz ratuje skórę, gdy trzeba coś pokazać sekcji smyczkowej czy dętej. Warto ją znać i wykorzystywać, bo to bardzo przyspiesza pracę i pozwala uniknąć nieporozumień z muzykami.

Pytanie 9

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .cmx
B. .edl
C. .ldm
D. .fla
Plik z rozszerzeniem .edl to tzw. Edit Decision List, czyli cyfrowa lista montażowa. To w zasadzie taki branżowy standard w postprodukcji filmowej i telewizyjnej. Stosuje się go do precyzyjnego opisywania kolejności ujęć, punktów cięcia, przejść oraz innych parametrów montażowych. W praktyce EDL jest czymś w rodzaju „przepisu” dla montażysty – zawiera kolejność i czas trwania poszczególnych ujęć, wskazuje nawet źródła materiałów i konkretne timecode’y do wejścia i wyjścia. Pliki .edl są bardzo uniwersalne, bo da się je wymieniać między różnymi systemami montażowymi, na przykład Avid Media Composer, DaVinci Resolve czy Adobe Premiere Pro. Moim zdaniem, to właśnie ta uniwersalność i prostota tekstowego zapisu sprawiają, że EDL od lat funkcjonuje jako pewien wzorzec wymiany projektów montażowych. Co ciekawe, niektóre firmy wciąż korzystają z EDL-i do archiwizacji lub transferu projektów do korekcji barwnej. Warto dodać, że istnieją też nowsze formaty, jak XML czy AAF, ale EDL pozostaje niezastąpiony przy prostszych projektach albo szybkiej komunikacji między studiem montażowym a np. dźwiękowcami. Jeśli planujesz działać przy postprodukcji, dobrze znać strukturę EDL, bo prędzej czy później na pewno się z nim zetkniesz.

Pytanie 10

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 8 ścieżek.
B. 2 ścieżki.
C. 4 ścieżki.
D. 6 ścieżek.
W nagraniach binauralnych zawsze pracujemy na dwóch ścieżkach – lewej i prawej. To nie przypadek, tylko konsekwencja samej zasady działania tej techniki. Źródło dźwięku rejestruje się za pomocą dwóch mikrofonów umieszczonych w „uszy” sztucznej głowy lub specjalnych wkładek dousznych. Każda ścieżka to osobny kanał – lewy i prawy, które razem tworzą naturalne wrażenie przestrzenne podczas odsłuchu na słuchawkach. Moim zdaniem to niesamowite, bo taki montaż pozwala słuchaczowi dosłownie znaleźć się „w środku” nagrania. W praktyce, żeby przygotować prawidłowy montaż binauralny, nie ma co kombinować z dodatkowymi ścieżkami, bo cała magia polega właśnie na tym, że są tylko dwie – każda oddaje inną perspektywę ucha. Tak robi się to zarówno w nagraniach profesjonalnych (np. dźwiękowe gry VR, słuchowiska), jak i amatorskich eksperymentach. Dobre praktyki podkreślają, żeby nie rozdzielać ani nie mieszać kanałów w postprodukcji, bo wtedy efekt przestrzenny znika. Standard branżowy jest prosty: dwa mikrofony, dwie ścieżki, zero kompromisów. Dla kogoś, kto pierwszy raz pracuje z tą techniką, może to być zaskakujące, bo czasami przy innych systemach surround trzeba montować nawet osiem czy więcej ścieżek. W binauralu jednak liczy się dokładność i naturalność, więc wystarczają te dwa kanały. I to w sumie jest piękne w swojej prostocie.

Pytanie 11

Jaka jest maksymalna pojemność karty RS-MMC?

A. 128 GB
B. 64 GB
C. 2 GB
D. 16 GB
RS-MMC (Reduced Size MultiMedia Card) to rodzaj karty pamięci, która była szczególnie popularna w telefonach komórkowych sprzed kilkunastu lat, np. w starszych modelach Nokii czy niektórych Siemensach. Maksymalna pojemność dla tej technologii to właśnie 2 GB – i to jest wartość wynikająca wprost z ograniczeń kontrolera, jak i samego standardu RS-MMC. Co ciekawe, choć konstrukcyjnie karty RS-MMC bardzo przypominają klasyczne MMC, to jednak ich rozmiar fizyczny jest znacznie mniejszy, stąd były tak chętnie stosowane w urządzeniach mobilnych, gdzie liczył się każdy centymetr przestrzeni. W praktyce, jeżeli ktoś próbowałby używać kart o większej pojemności – nawet jeśli fizycznie by się zmieściły – większość starszych urządzeń po prostu ich nie wykryje albo będzie działać niestabilnie. Z mojego doświadczenia wynika, że to ograniczenie 2 GB jest dość twarde i wynika zarówno z samego interfejsu, jak i specyfikacji logicznej. Obecnie RS-MMC wyszły z powszechnego użycia na rzecz nowszych standardów jak microSD, które obsługują nawet setki gigabajtów, ale to właśnie RS-MMC wyznaczyły pierwszy próg miniaturyzacji pamięci flash. Dobrą praktyką, jeśli trafisz na urządzenie z takim slotem, jest wybierać oryginalne karty z pojemnością do 2 GB – wtedy ryzyko problemów jest praktycznie zerowe. Takie realia branżowe pokazują, jak szybko rozwijały się technologie pamięci przenośnej w ciągu ostatnich lat i jak ważne jest dopasowanie nośnika do wymagań sprzętowych.

Pytanie 12

Wskaż narzędzie przeznaczone do powiększania lub zmniejszania obrazu obszaru roboczego w sesji montażowej programu DAW.

A. Zoom Tool.
B. Scissor Tool.
C. Solo Tool.
D. Test Tool.
Zoom Tool to faktycznie narzędzie, które w praktycznie każdym nowoczesnym DAW umożliwia szybkie powiększanie albo zmniejszanie widoku obszaru roboczego. Moim zdaniem, to jedno z tych narzędzi, z których korzysta się niemal cały czas, zwłaszcza przy bardziej rozbudowanych projektach – czy to w Cubase, Logic Pro, Abletonie czy Pro Tools. Dzięki Zoom Tool możemy dokładnie przyjrzeć się szczegółom edytowanej ścieżki lub na odwrót: zobaczyć szerszy kontekst całego aranżu. To bardzo ważne, bo często trzeba na przykład wyłapać precyzyjnie miejsce cięcia, ustawić dokładnie punkt edycji lub znaleźć fragment, który wymaga poprawki. Używanie Zoom Toola to nie tylko wygoda, ale też oszczędność czasu – nie musisz przewijać ani gubić się w gąszczu ścieżek. W branży standardem jest szybkie przełączanie się pomiędzy różnymi zakresami widoku, zwłaszcza przy pracy na wielu ścieżkach lub dużej liczbie klipów. Dobrą praktyką jest również łączenie Zoom Tool z funkcjami skrótów klawiaturowych, bo pozwala to jeszcze szybciej reagować na potrzeby projektu. Warto pamiętać, że niektóre DAWy pozwalają nawet na tworzenie własnych presetów powiększenia, co dodatkowo usprawnia workflow. Z mojego doświadczenia – im sprawniej opanujesz obsługę Zoom Toola, tym płynniej i efektywniej pójdzie ci każda sesja montażowa.

Pytanie 13

Na jakiej wartości osi czasowej należy ustawić region, jeżeli w dokumentacji jego docelowa lokalizacja jest zapisana w formacie SMPTE w następujący sposób: 00:00:00:16?

A. Na pierwszej nucie szesnastkowej.
B. Na szesnastej klatce.
C. Na szesnastej próbie.
D. Na szesnastej sekundzie.
Odpowiedź jest trafiona, bo format SMPTE (Society of Motion Picture and Television Engineers) dokładnie wskazuje pozycję czasową podając: godziny, minuty, sekundy oraz klatki. Wygląda to tak: hh:mm:ss:ff, gdzie każde „f” to jedna klatka filmu lub materiału wideo. W zapisie 00:00:00:16 liczba 16 odnosi się do szesnastej klatki w pierwszej sekundzie materiału – ważne, żeby pamiętać, że numerowanie klatek zwykle zaczyna się od zera, więc 00:00:00:00 to pierwsza klatka, 00:00:00:01 druga itd. W praktyce, kiedy w dokumentacji widzisz taki zapis, od razu wiesz, gdzie dokładnie na osi czasowej powinien pojawić się region czy dany element montażowy. W montażu telewizyjnym, dźwiękowym czy filmowym to podstawowa umiejętność – bo dzięki temu, niezależnie od platformy czy programu, wszyscy pracują na tej samej siatce czasowej, eliminując nieporozumienia. Moim zdaniem docenienie precyzji SMPTE bardzo ułatwia współpracę, bo standard jest uniwersalny i nie ma tu miejsca na niedomówienia. Dla przykładu: jeśli montujesz efekty dźwiękowe i masz podany kod 00:00:00:16, dokładnie wiesz, że chodzi o szesnastą klatkę, a nie o próbkę czy sekundę dźwiękową. To potem znacząco wpływa na synchroniczność oraz jakość całego projektu.

Pytanie 14

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista grup.
B. Lista efektów.
C. Lista ścieżek.
D. Lista regionów.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 15

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +RW
B. DVD +R
C. DVD –R
D. DVD +R DL
DVD +R DL to płyta, która rzeczywiście umożliwia dwustronny zapis danych – i to jest jej ogromną zaletą w porównaniu do standardowych płyt jednowarstwowych. Skrót DL oznacza tutaj Dual Layer, czyli podwójna warstwa zapisu. Dzięki temu na jednej stronie płyty można zapisać dużo więcej danych, bo nawet do 8,5 GB, co w praktyce sprawdza się przy archiwizacji dużych plików, np. do backupu systemów, filmów w wysokiej rozdzielczości czy dużych paczek projektowych. Moim zdaniem wciąż zbyt mało osób zwraca uwagę na te możliwości, bo coraz częściej korzystamy z chmury, ale jednak w branży IT, szczególnie tam gdzie wymagany jest fizyczny nośnik, takie płyty są nieocenione. Choć DVD +R DL wciąż jest nośnikiem jednokrotnego zapisu, to właśnie konstrukcja pozwalająca na zapis na dwóch warstwach (jednej stronie) lub nawet na obu stronach w wybranych modelach (DVD +R DL Double-Sided) odróżnia je zdecydowanie od zwykłych płyt DVD +R czy -R. W praktyce, przykładając się do standardów archiwizacji danych, warto pamiętać o jakości samych napędów i zgodności sprzętu – nie każdy starszy napęd DVD odczytuje DL. Są to niuanse, które w realnych zastosowaniach, np. w biurze rachunkowym czy w archiwum medycznym, mają spore znaczenie. Trochę żartobliwie – kiedyś to była podstawa, a dziś już powoli odchodzi do lamusa, ale technicznie takie rozwiązanie pokazuje elastyczność standardów DVD. Z mojego doświadczenia, jeśli masz do zarchiwizowania większą ilość danych i musisz korzystać z fizycznych nośników, DVD +R DL to wybór rozsądny, o ile masz kompatybilny sprzęt.

Pytanie 16

Który z wymienionych procesów typowo przeprowadza się w celu redukcji szumu kwantyzacji po przetworzeniu sygnału analogowego do postaci cyfrowej?

A. Normalizację.
B. Kompresję.
C. Dithering.
D. Próbkowanie.
Dithering to jedna z tych technik, które wydają się niepozorne, a potrafią naprawdę uratować jakość sygnału cyfrowego, szczególnie przy niskich rozdzielczościach. Gdy sygnał analogowy zostaje zamieniony na cyfrowy, pojawia się zjawisko szumu kwantyzacji, czyli drobnych błędów wynikających z zaokrąglania wartości do najbliższego poziomu kwantyzacji. Dithering polega na dodaniu do sygnału małego, kontrolowanego szumu przed procesem kwantyzacji – brzmi to trochę paradoksalnie, ale dzięki temu te błędy nie kumulują się i nie tworzą nieprzyjemnych artefaktów, np. zniekształconych alikwotów czy nieprzyjemnego „cyfrowego” brzmienia w nagraniu audio. W audio masteringowym jest to zabieg absolutnie standardowy, szczególnie przy zgrywaniu ścieżki do niższej rozdzielczości, np. z 24 na 16 bitów. Spotkałem się z tym wielokrotnie w studiach nagraniowych – inżynierowie wręcz nie wyobrażają sobie finalizacji ścieżki bez zastosowania ditheringu. Co ciekawe, dithering jest używany także w grafice komputerowej, gdy trzeba zredukować liczbę kolorów w obrazie – tam efekt jest bardzo podobny, czyli wygładzenie przejść i uniknięcie widocznych pasów (bandingu). Moim zdaniem dobrze znać tę technikę, bo pozwala na znacznie lepszą kontrolę nad ostatecznym brzmieniem lub obrazem. Warto pamiętać, że są różne algorytmy ditheringu i ich dobór bywa zależny od zastosowania – na przykład w standardzie CD-Audio (Red Book) dithering jest w zasadzie normą. Jeśli ktoś chce zajmować się obróbką dźwięku profesjonalnie, nie sposób pominąć tej metody.

Pytanie 17

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 48 kHz
B. 44,1 kHz
C. 88,2 kHz
D. 96 kHz
Dobrze, że to zauważyłeś – dwukrotne nadpróbkowanie dźwięku odnosi się bezpośrednio do podwojenia częstotliwości próbkowania względem wartości wyjściowej. Standard CD-Audio pracuje z częstotliwością próbkowania 44,1 kHz, co pozwala na wierne odwzorowanie dźwięków do ok. 22 kHz (zgodnie z twierdzeniem Nyquista). Jeśli więc zastosujemy nadpróbkowanie x2, nowa częstotliwość próbkowania wyniesie 88,2 kHz. Taki zabieg stosuje się często w profesjonalnych studiach nagraniowych czy podczas obróbki audio, żeby uzyskać więcej szczegółów w dźwięku albo żeby mieć większy komfort przy późniejszej edycji sygnału, na przykład przy filtracji czy konwersji do niższych rozdzielczości. Moim zdaniem warto pamiętać, że 88,2 kHz jest naturalną wielokrotnością 44,1 kHz, więc konwersja między tymi częstotliwościami odbywa się bezstratnie i bez żadnych problemów z aliasingiem. To ważne w przypadku masteringu na różne nośniki. W branży audio spotyka się też częstotliwości jak 48 kHz czy 96 kHz, ale one są bardziej związane z video i zastosowaniami broadcastowymi, a nie z typowym audio CD. Także, jak dla mnie, dobrze zapamiętać właśnie ten związek przy nadpróbkowaniu sygnału audio.

Pytanie 18

Jednostką przepływności bitowej pliku w formacie .mp3 jest

A. kb/s
B. MB/s
C. kB/s
D. kB/ms
Jednostką przepływności bitowej dla plików w formacie .mp3 faktycznie jest kb/s, czyli kilobity na sekundę. To się nazywa „bitrate” i określa, ile tysięcy bitów danych jest przesyłane w ciągu jednej sekundy odtwarzania. Moim zdaniem praktycznie każdy, kto miał kiedyś kontakt z edycją lub konwersją plików audio, zetknął się z tym pojęciem – zawsze przy zapisie czy konwersji mp3 wybierasz np. 128 kb/s, 192 kb/s czy 320 kb/s. Im wyższy bitrate, tym lepsza jakość dźwięku, ale i większy rozmiar pliku. W branży muzycznej oraz podczas kompresji dźwięku, właśnie ta jednostka pozwala ocenić jakość nagrania. Standardy mp3 jasno określają stosowanie kilobitów na sekundę jako podstawowej jednostki – to nawet w dokumentacji MPEG jest tak opisane. W praktyce nie spotyka się wartości podanych w kB/s (kilobajtach na sekundę), bo wtedy łatwo się pomylić (1 bajt to 8 bitów). Dla porównania – streaming muzyki w serwisach typu Spotify czy YouTube Music bardzo często podaje bitrate w kb/s, bo to od razu określa, czy dźwięk jest bardziej „skompresowany” czy raczej zbliżony do oryginału. Widać to w programach do odtwarzania muzyki, gdzie np. Winamp czy Foobar informują, że plik .mp3 ma bitrate 192 kb/s. To jest taka branżowa norma, że aż dziwnie by było spotkać coś innego. Przy projektowaniu systemów przesyłania audio, np. przez internet, zawsze stosuje się właśnie te jednostki. W praktyce – wartość bitrate'u decyduje o tym, ile danych zużyjemy słuchając muzyki i jaka będzie jakość. Także bardzo dobrze, że wskazałeś właśnie kb/s.

Pytanie 19

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ćwierćnucie.
B. ramce.
C. milisekundzie.
D. sekundzie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 20

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .wav
B. .ape
C. .flac
D. .m4a
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 21

W celu zabezpieczenia nagrania wokalu przed powstaniem zakłóceń powodowanych przez spółgłoski zwarte, w dokumentacji nagrania należy zastosować

A. low-cut-filter.
B. kompresor.
C. de-esser.
D. equalizer.
Często podczas pracy z wokalem pojawia się pokusa, by każdy problem rozwiązywać za pomocą narzędzi typu de-esser, kompresor czy equalizer, bo brzmią znajomo i profesjonalnie. Jednak nie każda z tych opcji sprawdzi się w kontekście spółgłosek zwartych powodujących zakłócenia. De-esser to bardzo popularny procesor, ale jego zadaniem jest redukcja sybilantów, czyli ostrych dźwięków typu „s” i „sz”, które pojawiają się w wyższych częstotliwościach. Nie radzi sobie ze zbyt niskimi podmuchami powietrza, bo jego zakres działania jest zupełnie inny. Equalizer teoretycznie mógłby pomóc, jeśli bardzo precyzyjnie ustawimy pasmo do wycięcia najniższych częstotliwości, ale w praktyce korzystniej i szybciej działa tutaj dedykowany low-cut-filter, bo jest specjalnie zaprojektowany do tego celu i nie wymaga żmudnego szukania konkretnego pasma. Kompresor natomiast nie rozwiązuje problemu mechanicznych podmuchów ani niskich częstotliwości – on jedynie zmniejsza różnice dynamiczne, czyli „spłaszcza” poziom głośności, ale nie wycina niechcianych dźwięków, tylko je ewentualnie maskuje. Częstym błędem jest przekonanie, że im więcej efektów użyjemy, tym lepiej – a często to właśnie proste, dobrze dobrane narzędzie załatwia sprawę najskuteczniej. Podsumowując, jeśli chodzi o zakłócenia od spółgłosek zwartych, najlepszym wyborem jest low-cut-filter, bo działa szybko, skutecznie i jest standardem w każdym profesjonalnym torze nagraniowym.

Pytanie 22

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Split
B. Copy
C. Mute
D. Lock
Funkcja „Mute” w sesji programu DAW jest podstawowym narzędziem do szybkiego wyciszania wybranych regionów, ścieżek lub nawet pojedynczych dźwięków w aranżacji. To rozwiązanie jest powszechnie stosowane w produkcji muzycznej, bo pozwala na błyskawiczne wyłączenie fragmentu utworu bez kasowania danych – nie tracisz żadnych informacji, zawsze możesz wrócić do tych dźwięków, kiedy tylko chcesz. Przykładowo, gdy miksujesz wokale i chcesz na chwilę usunąć niektóre fragmenty, żeby sprawdzić, jak brzmią inne elementy aranżacji, wystarczy kliknąć „Mute” na odpowiednim regionie. Moim zdaniem to bardzo wygodne, bo daje pełną elastyczność podczas pracy twórczej – nie musisz się stresować, że coś uszkodzisz na stałe. Zgodnie z praktykami branżowymi, korzystanie z „Mute” jest preferowane przed edycją destrukcyjną, gdy chcesz eksperymentować z aranżacją czy układem ścieżek. Funkcja ta jest obecna w praktycznie każdym liczącym się DAW – od Abletona, przez Cubase, aż po Pro Tools. Zaawansowani realizatorzy często używają „Mute” także do przygotowywania alternatywnych wersji miksu, bo pozwala to łatwo porównać różne układy instrumentów bez przeładowywania projektów. Dla mnie „Mute” to jedno z narzędzi, które naprawdę ratuje skórę w sytuacjach, kiedy trzeba coś szybko sprawdzić, a nie ma czasu na żmudne wycinanie czy kopiowanie regionów. W skrócie: praktyczne, szybkie i bezpieczne rozwiązanie na każdą sesję.

Pytanie 23

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 32 kHz
B. 16 kHz
C. 48 kHz
D. 96 kHz
Wiele osób zakłada, że im wyższa częstotliwość próbkowania, tym lepiej i że porty cyfrowe jak ADAT poradzą sobie z każdym ustawieniem. To nie do końca tak działa. Protokół ADAT Optical Lightpipe ma określone limity przepustowości – i choć 96 kHz brzmi zachęcająco z perspektywy jakości, to w praktyce oznacza automatyczne zmniejszenie liczby jednocześnie przesyłanych kanałów do czterech. Ta sama zasada dotyczy nieco niższej wartości 32 kHz – niby można myśleć, że skoro jest poniżej limitu, to uzyskamy więcej kanałów, ale ADAT nie przewiduje takiej opcji w standardowych ustawieniach i najczęściej używany jest właśnie przy 44,1 lub 48 kHz. Z kolei ustawienie 16 kHz to już zupełnie nierealny wybór w profesjonalnych zastosowaniach – tak niska częstotliwość nie gwarantuje nawet minimalnego pasma audio dla muzyki czy mowy, a sprzęt studyjny w ogóle nie pozwala na taką konfigurację. Typowym błędem jest myślenie, że ADAT daje pełną dowolność, podczas gdy standardy jasno określają granice – w praktyce, jeśli chcesz w pełni użyć ośmiu kanałów, musisz pozostać przy 48 kHz. Nieświadome ustawienie sesji na wyższą częstotliwość to częsta przyczyna problemów z „brakującymi” ścieżkami w DAW, a błędne wybory wynikają często z nieznajomości specyfikacji portów cyfrowych, a nie problemów sprzętowych czy konfiguracyjnych. Z mojego doświadczenia wynika, że najwięcej frustracji pojawia się, gdy teoria rozmija się z praktyką – dlatego warto zawsze sprawdzać wymagania sprzętowe i ograniczenia protokołów przed rozpoczęciem pracy, szczególnie w środowiskach, gdzie liczy się niezawodność i powtarzalność procesu nagraniowego.

Pytanie 24

Który z przedstawionych kodów, będący częścią dokumentacji montażowej, ułatwia rozliczanie praw autorskich?

A. SMPTE
B. MTC
C. ISRC
D. EAN
Wybierając inne kody niż ISRC można łatwo wpaść w pułapkę myślenia, że każdy standardowy kod stosowany w przemyśle gwarantuje równie skuteczne zarządzanie prawami autorskimi, co niestety nie jest prawdą. Weźmy EAN, czyli European Article Number – to jest system przede wszystkim do identyfikacji produktów handlowych, takich jak płyty CD czy opakowania, ale nie odnosi się do samego nagrania czy utworu jako takiego. Daje się go na opakowaniu, więc jest przydatny dla sklepów i hurtowni, ale nie rozwiązuje sprawy autorskich rozliczeń. Ktoś może pomyśleć, że skoro EAN pojawia się na wielu wydawnictwach, to jest równie ważny dla praw autorskich – a to spore uproszczenie. Kod MTC (MIDI Time Code), z kolei, to zupełnie inna bajka: służy do synchronizacji urządzeń muzycznych, zwłaszcza w studiu, ale nie wnosi nic do identyfikacji utworu czy rozliczania autorów. Można powiedzieć, że MTC jest ważny dla montażysty w kontekście technicznym, ale prawnikom czy firmom zarządzającym prawami autorskimi jest kompletnie obojętny. Natomiast SMPTE to standard związany głównie z synchronizacją obrazu i dźwięku w produkcji filmowej i telewizyjnej – tu chodzi o precyzyjne określenie pozycji na osi czasu, a nie o prawa do nagrań. Moim zdaniem, powodem takich pomyłek jest to, że uczniowie często nie rozróżniają funkcji kodów stosowanych równolegle w branży – myślą, że każdy kod z dokumentacji jest uniwersalnym kluczem do zarządzania utworem. W praktyce tylko ISRC daje realną kontrolę nad identyfikacją nagrania i rozliczaniem tantiem. Dobre praktyki branżowe jasno rozdzielają te funkcje i warto się z tym oswoić już na początku zawodowej drogi.

Pytanie 25

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 3 dB
B. o 6 dB
C. o 12 dB
D. o 9 dB
Redukcja mocy sygnału o połowę to temat, który często przewija się podczas pracy z dźwiękiem – czy to w miksowaniu, czy w projektowaniu systemów nagłośnieniowych. Odpowiedź o stłumienie o 3 dB jest jak najbardziej trafiona, bo właśnie tyle wynosi różnica, gdy moc spada dwukrotnie. To taki branżowy standard – 3 dB to „wzorcowa połowa mocy”. Wynika to z matematyki decybeli: stosunek mocy wyrażamy jako 10 log(P2/P1). Jeśli P2 to połowa P1, to 10 log(0,5) ≈ -3 dB. Co ciekawe, w przypadku napięcia (lub amplitudy), żeby uzyskać połowę mocy, nie tłumimy sygnału o połowę napięcia, a o około 0,707 (czyli -3 dB napięciowo). W praktyce — jak siedzisz przy DAW-ie i ściszysz ścieżkę o 3 dB, moc naprawdę spada o połowę, choć subiektywnie nie jest to takie oczywiste, bo nasze ucho reaguje logarytmicznie. W branży często mówi się: „Minus 3 dB to połowa mocy, minus 6 dB to połowa napięcia” – warto to zapamiętać, bo często się przydaje przy liczeniu headroomu czy przy projektowaniu torów audio. Moim zdaniem to jedna z najważniejszych liczb do ogarnięcia w audio – pozwala unikać błędów przy ustawianiu poziomów, zwłaszcza grając z sygnałami na pograniczu przesterowania. Wspominasz o DAW: każdy szanujący się program pokazuje wartości tłumienia w dB, więc można łatwo to wypróbować w praktyce, eksperymentując z miernikami RMS lub VU.

Pytanie 26

Zastosowanie opcji Interleaved podczas zgrywania sesji spowoduje zapis danych do

A. odrębnych plików stereo dla każdego kanału.
B. odrębnych plików mono dla każdego kanału.
C. jednego pliku stereo.
D. jednego pliku mono.
Opcja <i>Interleaved</i> podczas zgrywania sesji oznacza, że dane audio z wielu kanałów, na przykład z lewego i prawego w przypadku stereo, są zapisywane naprzemiennie w jednym pliku. To jest bardzo praktyczne, bo potem taki plik można łatwo wykorzystać w niemal każdym programie DAW, odtworzyć bez problemu na większości platform czy przesłać dalej do miksu lub masteringu. W branży muzycznej i postprodukcyjnej jest to już od lat standard, szczególnie jeśli chodzi o eksport stereo miksów czy stemów – praktycznie każdy realizator dźwięku preferuje jeden plik stereo zamiast dwóch osobnych plików mono. Dzięki temu transport i archiwizacja są dużo prostsze. Warto wiedzieć, że formaty takie jak WAV czy AIFF obsługują pliki interleaved, bo są przystosowane do zapisywania danych z kilku kanałów razem, w określonej kolejności próbek. Moim zdaniem, jeśli planujesz pracować z innymi osobami lub przenosić sesje między różnymi stanowiskami, zastosowanie opcji interleaved bardzo ułatwia życie i minimalizuje ryzyko pomyłek, np. zamiany kanałów. Warto pamiętać, że interleaved to nie tylko wygoda, ale też pewien wymóg przy pracy z niektórymi urządzeniami czy oprogramowaniem, które nie radzi sobie z wieloma pojedynczymi plikami mono. Ogólnie polecam pilnować tej opcji przy eksportach stereo – to sprawdzone rozwiązanie w praktyce.

Pytanie 27

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zmniejszy się 2-krotnie.
B. Zmniejszy się 3-krotnie.
C. Zwiększy się 6-krotnie.
D. Zwiększy się 4-krotnie.
To właśnie jest prawidłowa odpowiedź, bo zmiana częstotliwości próbkowania z 96 kHz na 48 kHz oznacza, że ilość próbek na sekundę zmniejsza się dokładnie o połowę. Równocześnie redukcja rozdzielczości z 24 bitów do 16 bitów powoduje, że każda próbka waży mniej, konkretnie z 24 bitów (=3 bajty) do 16 bitów (=2 bajty), czyli też o 1/3 mniej. Mnożąc oba te czynniki redukcji: 2 (za częstotliwość) x 1,5 (za rozdzielczość) dostajemy 3-krotną redukcję rozmiaru pliku. To właśnie dlatego plik nieskompresowany, np. PCM WAV, po takiej konwersji będzie ważył trzy razy mniej. Praktycznie – gdy się pracuje z dużymi archiwami audio, taka optymalizacja jest często stosowana, szczególnie przy archiwizacji lub przesyłaniu plików przez sieć, gdzie niepotrzebna jest ekstremalna jakość 24/96, bo już 16/48 w zupełności wystarcza np. do emisji radiowej czy nagrań na płyty CD. Moim zdaniem, warto pamiętać o takich prostych przeliczeniach, bo to ułatwia życie przy masteringu czy codziennej pracy ze ścieżkami dźwiękowymi. No i nie ma tutaj żadnej magii – po prostu matematyka i technika idą w parze. W branży audio to wręcz podstawa, żeby umieć to szybko policzyć w głowie i nie zaskoczyć się potem zbyt dużymi lub za małymi plikami. Swoją drogą, większość profesjonalnych programów DAW (np. Pro Tools, Cubase) wyświetla te parametry na bieżąco i widać od razu, jak zmiany wpływają na rozmiar.

Pytanie 28

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Music Player.
B. Audacity.
C. Windows Media Player.
D. Samplitude.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 29

Który z parametrów pliku audio wskazuje rodzaj użytego kodeka?

A. Rozszerzenie.
B. Przepływność.
C. Rozmiar.
D. Nazwa.
Rozszerzenie pliku audio to jeden z podstawowych sposobów na szybkie rozpoznanie, jaki kodek został użyty do jego zakodowania. W praktyce, mając do czynienia z plikiem .mp3, praktycznie od razu wiadomo, że do kompresji dźwięku użyto kodeka MPEG-1 Audio Layer III, popularnego właśnie jako MP3. Analogicznie plik z rozszerzeniem .aac będzie zakodowany kodekiem Advanced Audio Coding, a .flac – Free Lossless Audio Codec. Oczywiście, czasami pliki mogą mieć nietypowe rozszerzenia lub umieszczone są w tzw. kontenerach (np. .mkv, .m4a), które zawierają dodatkowe informacje, ale generalnie rozszerzenie daje bardzo cenną wskazówkę dotyczącą kodeka. Z mojego doświadczenia, szybkie rozpoznanie po rozszerzeniu to codzienny nawyk każdego technika, który pracuje z dźwiękiem. Trzeba jednak uważać – rozszerzenie można ręcznie zmienić, przez co faktyczna zawartość pliku nie zawsze musi się zgadzać z jego nazwą, co czasem prowadzi do problemów przy odtwarzaniu lub konwersji. W branży jest to jeden z pierwszych aspektów sprawdzanych przy analizie plików dźwiękowych. Dobre praktyki podpowiadają też, żeby nie polegać wyłącznie na rozszerzeniu, ale traktować je jako wskazówkę. Standardy, takie jak ID3 dla MP3 czy ogólne specyfikacje formatów, dodatkowo regulują poprawność identyfikacji kodeka. To właśnie rozszerzenie daje informację o rodzaju kodeka, a nie np. nazwa pliku czy jego rozmiar.

Pytanie 30

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 96 kHz
B. 44,1 kHz
C. 48 kHz
D. 192 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 31

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .aiff
B. .wav
C. .omf
D. .mp3
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 32

Spośród wymienionych programów wskaż ten, który umożliwia zarówno zapis audio, jak i komunikatów MIDI.

A. Cubase.
B. Audacity.
C. WaveLab.
D. Sound Forge.
Cubase to zdecydowanie jedno z najbardziej rozpoznawalnych narzędzi typu DAW (Digital Audio Workstation) na rynku, zwłaszcza jeśli chodzi o produkcję muzyki zarówno na poziomie profesjonalnym, jak i amatorskim. Wyróżnia się tym, że umożliwia nie tylko nagrywanie i edycję ścieżek audio, ale też bardzo rozbudowaną obsługę komunikatów MIDI – czyli takiego standardu, którym steruje się instrumentami wirtualnymi, syntezatorami czy efektami. Sam często widziałem, jak realizatorzy nagrywają żywe instrumenty, wokale, a jednocześnie dodają partie MIDI np. dla perkusji czy syntezatorów, mając to wszystko w jednym projekcie. Cubase obsługuje też zaawansowane funkcje jak automatyzacja, routing czy integracja z wtyczkami VST, co jest nieocenione przy miksie i masteringu. Z mojego doświadczenia wynika, że jest to program bardzo elastyczny, nadający się zarówno do prostych nagrań domowych, jak i skomplikowanych sesji studyjnych. W branży muzycznej uważany jest za jeden ze standardów, a możliwość płynnej pracy z MIDI i audio znacząco przyspiesza kreatywny proces i ułatwia zachowanie wysokiej jakości produkcji.

Pytanie 33

Który z podanych programów DAW nie przetwarza komunikatów MIDI?

A. Samplitude.
B. Cubase.
C. Audacity.
D. Pro Tools.
Audacity faktycznie nie obsługuje komunikatów MIDI w taki sposób, jak robią to profesjonalne stacje robocze audio (DAW). To narzędzie skupia się głównie na pracy z plikami audio – edycja, nagrywanie, cięcie, zmiana głośności czy nakładanie efektów. Sam, kiedy pierwszy raz go używałem, szukałem opcji do sterowania syntezatorem przez MIDI, ale niestety – Audacity takich funkcji po prostu nie posiada. W branży muzycznej powszechnie przyjmuje się, że dobry DAW powinien bez problemu obsługiwać zarówno ścieżki audio, jak i MIDI, co jest bardzo ważne podczas produkcji muzyki elektronicznej, aranżacji czy obsługi instrumentów wirtualnych. W Cubase, Pro Tools czy Samplitude od razu można zauważyć zaawansowane edytory MIDI do komponowania, kwantyzacji i automatyzacji parametrów instrumentów VST. Audacity natomiast jest świetne do prostych zadań edycyjnych, np. obróbki nagrań podcastów czy cięcia ścieżek wokalnych, ale nie zastąpi pełnoprawnego DAW przy pracy z MIDI. Trochę szkoda, bo czasem przydałoby się takie lekkie narzędzie z obsługą MIDI, ale póki co – takich możliwości po prostu tu nie ma. Jeśli ktoś chce zacząć przygodę z MIDI, to raczej musi sięgnąć po inne oprogramowanie. Warto o tym pamiętać przy wyborze narzędzi do produkcji muzyki.

Pytanie 34

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. BPF
B. LF
C. HPF
D. LPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 35

Której z komend należy użyć w przypadku tworzenia nowego projektu w programie edycyjnym?

A. New.
B. Load.
C. Import.
D. Export.
Komenda „New” to absolutna podstawa w praktycznie każdym programie edycyjnym – niezależnie, czy mówimy o edytorze grafiki, wideo, tekstu czy nawet oprogramowaniu CAD. Jej głównym zadaniem jest utworzenie zupełnie nowego projektu lub dokumentu, czyli czystego miejsca pracy, gdzie użytkownik może rozpocząć swoje zadanie od zera. W większości programów skrót klawiszowy Ctrl+N wywołuje właśnie to polecenie. Moim zdaniem to takie „otwarcie drzwi do pustego pokoju”, gotowego do wypełnienia treścią. Praktycznie rzecz biorąc, bez tej funkcji nie da się zacząć pracy nad czymś zupełnie nowym bez mieszania ze starymi plikami, co jest nieefektywne i niepraktyczne. Warto pamiętać, że branżowe standardy UX przewidują, by funkcja tworzenia nowego projektu była zawsze łatwo dostępna i jednoznacznie opisana – właśnie jako „New”. Dobra praktyka mówi też, żeby przed utworzeniem nowego projektu program pytał o zapisanie bieżących zmian, by nie stracić dotychczasowej pracy. Z mojego doświadczenia, początkujący często mylą „New” z innymi opcjami, przez co tracą czas lub przypadkowo nadpisują ważne dane. Korzystając z „New”, masz pewność, że zaczynasz od czystej kartki i możesz wszystko poukładać dokładnie tak, jak chcesz. To taki techniczny start od zera, bez żadnych „śmieci” z poprzednich projektów.

Pytanie 36

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 12 bitów
B. 8 bitów
C. 16 bitów
D. 24 bity
Wybranie rozdzielczości 24 bity do nagrania materiału dźwiękowego o dynamice 100 dB to bardzo trafna decyzja — to jest standard stosowany w profesjonalnych studiach nagraniowych, szczególnie przy nagrywaniu muzyki na wysokim poziomie. Każdy bit rozdzielczości przybliżeniu odpowiada ok. 6 dB zakresu dynamicznego, więc z prostego rachunku: 16 bitów daje około 96 dB, a 24 bity sięgają aż do ok. 144 dB, co zostawia naprawdę solidny zapas i eliminuje ryzyko zniekształceń związanych z kwantyzacją. Moim zdaniem warto też zwrócić uwagę, że 24 bity zapewniają nie tylko odwzorowanie szerokiej dynamiki, ale również większą odporność na szumy i lepszą jakość edycji w postprocessingu. Nawet jeśli finalnie plik audio ląduje w pliku 16-bitowym (tak jak na płytach CD), to w trakcie miksowania czy masteringu ten wyższy zapas dynamiki jest bardzo pożądany. W branży audiofilskiej czy realizatorskiej 24 bity to dziś właściwie standard, a nagrania o bardziej wymagającej dynamice, np. orkiestra symfoniczna czy muzyka filmowa, wręcz wymagają takiej rozdzielczości. Swoją drogą, coraz częściej nawet domowe interfejsy audio bez problemu oferują tryb 24-bitowy. Z mojego doświadczenia: lepiej mieć trochę za dużo „headroomu” niż za mało — wtedy nie musisz drżeć o trzaski i cyfrowe szumy.

Pytanie 37

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Solo.
C. Fade out.
D. Mute.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 38

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R DL
B. DVD-RW
C. DVD-R
D. DVD+R
Wybrałeś DVD-RW i to jest trafny wybór, bo właśnie ta płyta umożliwia wielokrotny zapis i kasowanie danych. DVD-RW (czyli Digital Versatile Disc – ReWritable) działa trochę jak pendrive, tylko że w postaci płyty optycznej. Możesz nagrywać, kasować i ponownie nagrywać dane – według standardu nawet do tysiąca razy, chociaż w praktyce to już bywa różnie i zależy od jakości nośnika oraz nagrywarki. W zastosowaniach domowych czy w małych firmach takie płyty świetnie się sprawdzają przy backupie np. zdjęć czy dokumentów, które wymagają aktualizacji. Branżowo, kiedyś używano DVD-RW do testowania autorunów, wersji demo oprogramowania czy archiwizacji tymczasowej – przed czasami pendrive'ów i w chmurze to był niezły patent. Warto wiedzieć, że płyty DVD-R oraz DVD+R są jednokrotnego zapisu – jak raz coś nagrasz, to już nie zmienisz, a DVD+R DL to jeszcze wersja dwuwarstwowa, ale też tylko jednokrotnego zapisu. Standardy zapisu optycznego jasno określają, że tylko nośniki z oznaczeniem 'RW' (ReWritable) pozwalają na ponowne użycie, co jest zgodne z praktyką stosowaną w branży IT i elektroniki użytkowej. Moim zdaniem, znając te różnice, można uniknąć wielu nieporozumień przy doborze nośników do różnych zadań – serio, to oszczędza czas i nerwy.

Pytanie 39

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp4
B. *.m4a
C. *.mp3
D. *.m4p
Rozszerzenie *.mp4 to obecnie jeden z najpopularniejszych formatów plików, które pozwalają na przechowywanie zarówno ścieżki wideo, jak i audio w jednym pliku. Jest to standard określony przez MPEG-4 Part 14 i używany praktycznie wszędzie – od smartfonów, przez YouTube, aż po profesjonalne kamery czy montaż materiałów filmowych. Moim zdaniem, trudno znaleźć bardziej uniwersalny format, bo obsługiwany jest właściwie na każdym sprzęcie czy systemie operacyjnym, bez konieczności instalowania dodatkowych kodeków. Oprócz obrazu i dźwięku, plik MP4 może zawierać też napisy, menu, czy inne dane (np. rozdziały). To powoduje, że jest bardzo elastyczny w zastosowaniach, zarówno domowych, jak i komercyjnych. Warto wiedzieć, że w branży IT i multimediów korzystanie z formatu *.mp4 jest standardem, bo zapewnia dobrą jakość przy stosunkowo małym rozmiarze pliku, dzięki efektywnej kompresji (najczęściej H.264/AAC). Przykładowo, gdy eksportujesz film z programów typu Adobe Premiere czy DaVinci Resolve, domyślnie masz MP4 jako główną opcję. W praktyce – jeżeli masz plik .mp4, możesz być niemal pewien, że zawiera on zarówno dźwięk, jak i obraz, co jest kluczowe np. przy prezentacjach, nagraniach lekcji czy udostępnianiu materiałów wideo online.

Pytanie 40

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. INSTRUMENT
B. AUDIO
C. AUX
D. MASTER
MASTER to absolutnie kluczowa ścieżka w każdej sesji DAW, bo to właśnie ona działa jako główna szyna stereo miksu – taka ostatnia prosta, przez którą przechodzi cały sygnał audio, zanim trafi na głośniki albo zostanie wyeksportowany do pliku. W praktyce, kiedy miksujesz utwór, wszystkie ścieżki (audio, instrumenty, grupy, AUX-y itd.) sumują się właśnie na torze MASTER. To rozwiązanie nie wzięło się znikąd – podobnie działa to w fizycznych stołach mikserskich, gdzie masz tzw. sumę główną (main out) i to ona leci do systemu odsłuchowego lub nagrywania finalnego. Z mojego doświadczenia, nawet jeśli nie zaglądasz do tej ścieżki za każdym razem, warto pamiętać, że wszelkie efekty typu limiter, kompresor czy masteringowe EQ najlepiej umieścić właśnie tutaj. To też miejsce, gdzie najwygodniej kontrolować poziom końcowy miksu, żeby nie przesterować sygnału. W większości DAW-ów MASTER jest ustawiony domyślnie jako wyjście główne i nie trzeba tego ruszać, chyba że eksperymentujesz z routingiem. Fajne jest też to, że MASTER daje możliwość szybkiego sprawdzenia, jak miks brzmi po zgraniu, bez konieczności renderowania do pliku. Moim zdaniem, opanowanie pracy z tą ścieżką to absolutna podstawa dla każdego, kto chce produkować muzykę na przyzwoitym poziomie.