Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 2 maja 2026 09:59
  • Data zakończenia: 2 maja 2026 10:04

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .aiff
B. .riff
C. .mp3
D. .wav
Kodek LAME jest jednym z najbardziej znanych narzędzi służących do kompresji dźwięku do formatu MP3, czyli z rozszerzeniem .mp3. W praktyce ten kodek jest szeroko wykorzystywany w różnych profesjonalnych oraz domowych projektach audio, bo pozwala na uzyskanie dobrego kompromisu między jakością nagrania a wielkością pliku. MP3 to obecnie standardowy format wymiany plików muzycznych, zwłaszcza tam, gdzie liczy się ograniczenie rozmiaru plików, np. streaming, radia internetowe, odtwarzacze przenośne czy nawet niektóre systemy automatyki w samochodach. Warto wiedzieć, że LAME nie służy do tworzenia plików WAV, AIFF czy RIFF – te formaty to raczej kontenery bez kompresji stratnej i są używane do przechowywania dźwięku w formie bezpośredniej, bez strat jakości. Z mojego doświadczenia wynika, że LAME jest najczęściej spotykany tam, gdzie chodzi o szybkie kodowanie dużych zbiorów muzyki, np. w archiwizacji czy przygotowaniu playlist do publikacji online. Standard MP3, opisany przez organizację MPEG, jest jednym z najpopularniejszych formatów kompresji stratnej audio na świecie i kodek LAME jest uznawany za jeden z najlepiej realizujących ten algorytm – daje dobre brzmienie i bardzo szeroką kompatybilność z odtwarzaczami. Dla osób pracujących z dźwiękiem ważne jest zrozumienie, że wybierając LAME, wybieramy efektywną kompresję do formatu MP3, nie zaś do innych formatów typu WAV czy AIFF. Moim zdaniem to podstawowa wiedza dla każdego, kto choć trochę działa w branży muzycznej lub IT.

Pytanie 2

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 6 dB/okt.
B. 18 dB/okt.
C. 24 dB/okt.
D. 12 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 3

Sporządzenie duplikatu źródłowego materiału dźwiękowego należy przeprowadzić na etapie

A. masteringu.
B. montażu.
C. rejestracji.
D. edycji.
To jest właśnie to, o co chodzi w profesjonalnej produkcji dźwięku. Sporządzenie duplikatu źródłowego materiału dźwiękowego — często zwanego safety copy lub backupem — powinno się wykonywać już na etapie rejestracji. Chodzi o to, żeby od samego początku zabezpieczyć materiał przed stratą, uszkodzeniem czy jakimkolwiek przypadkowym nadpisaniem. Jest to absolutny standard w każdej szanującej się realizacji studyjnej czy nawet podczas nagrań plenerowych. Moim zdaniem to jedna z tych rzeczy, na które często się nie zwraca uwagi na początku nauki, a potem, po paru wpadkach, nagle wszyscy zaczynają rozumieć, dlaczego to jest takie ważne. Praktyka jest taka, że zaraz po zakończeniu sesji nagraniowej należy wykonać kopię surowych plików – czy to na inny nośnik, chmurę, czy zewnętrzny dysk. W branży wszyscy wiedzą, że nie istnieje coś takiego jak 'za dużo backupów'. To jest też jeden z tych momentów, gdzie dobre praktyki spotykają się z doświadczeniem – osoby, które przeżyły utratę ważnych nagrań, już zawsze robią kopie natychmiast po rejestracji. Takie podejście pozwala spać spokojnie i bez stresu przechodzić do kolejnych etapów produkcji, wiedząc, że oryginał jest bezpieczny. Bezpieczeństwo danych, jak dla mnie, to podstawa tej roboty.

Pytanie 4

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .m4a
B. .ape
C. .flac
D. .wav
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 5

Który z przedstawionych sposobów jest najwłaściwszy do zaznaczenia w scenariuszu słuchowiska radiowego efektów dźwiękowych oraz muzyki?

A. Zastosowanie odnośników w postaci gwiazdek i odpowiadających im opisów na końcu scenariusza.
B. Zastosowanie przypisów dolnych.
C. Zastosowanie nawiasu i dużych liter.
D. Zastosowanie dużo mniejszych liter czcionki w porównaniu z dialogami i opisem akcji.
Zaznaczenie efektów dźwiękowych i muzyki w scenariuszu słuchowiska radiowego przy użyciu nawiasów i dużych liter to sposób, który sprawdził się w praktyce już od wielu lat. Taka forma jest od razu czytelna dla realizatorów, reżyserów czy aktorów – dosłownie wyróżnia się na tle tekstu, więc trudno ją przeoczyć. Standardowo wpisuje się wtedy np. (DŹWIĘK DESZCZU) albo (MUZYKA: NAPIĘCIE), dzięki czemu każda osoba pracująca z tekstem wie, kiedy i jaką ścieżkę dźwiękową należy dodać. To działa, moim zdaniem, najlepiej, bo nie wymaga szukania przypisów czy wertowania końca scenariusza. W branży radiowej i przy produkcji audiobooków uznaje się właśnie taką konwencję za bardzo praktyczną – pozwala na szybki podział tekstu na warstwy: dialogi, akcję i instrukcje dźwiękowe. Dodatkowo, jeśli scenariusz trafia później do montażu, wszystko jest jasne nawet dla osób pierwszy raz widzących ten dokument. Warto pamiętać, że duże litery w nawiasie to taka umowna umowa między twórcami – łatwo się tego nauczyć i nie ma ryzyka błędnej interpretacji. Z mojego doświadczenia wynika, że inne formy po prostu spowalniają pracę lub sprawiają, że ktoś coś przeoczy. Niby drobna rzecz, a robi różnicę. Tak więc, stosowanie nawiasów i wersalików to nie tylko wygoda, ale i pewna gwarancja, że dźwięki i muzyka pojawią się w odpowiednim miejscu, dokładnie tak jak zakładał scenarzysta.

Pytanie 6

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Pięciokrotny.
B. Trzykrotny.
C. Czterokrotny.
D. Dwukrotny.
Zmniejszenie poziomu sygnału o 6 dB to klasyczny przypadek w technice radiowej, telekomunikacji i nagłośnieniu. Praktycy często używają tej wartości jako punktu odniesienia, bo spadek o 6 dB odpowiada bardzo konkretnemu efektowi – moc sygnału spada wtedy dokładnie czterokrotnie. Wynika to z logarytmicznego charakteru skali decybelowej. Wzór na przeliczanie decybeli na stosunek mocy wygląda tak: LdB = 10 * log10(P2/P1). Czyli jeśli LdB = -6, to P2/P1 = 10^(-6/10) ≈ 0,25 – czyli dokładnie 1/4. Jest to bardzo użyteczne np. przy ustawianiu wzmacniaczy, analizie strat sygnału na kablach albo w rozważaniach dotyczących tłumienia sygnałów w instalacjach antenowych. Branżowe standardy, jak np. ITU-T czy rekomendacje IEEE, często wskazują właśnie 3 dB (dwukrotny spadek) oraz 6 dB (czterokrotny spadek) jako kluczowe punkty odniesienia. Moim zdaniem, warto to mieć w małym palcu, bo bardzo często w praktyce się pojawia pytanie: ile to jest spadek o 6 dB i co to oznacza dla jakości sygnału? Takie podstawy naprawdę ułatwiają analizowanie bardziej złożonych przypadków, gdzie na przykład trzeba szacować straty na trasie sygnału albo dobierać odpowiednie parametry urządzeń.

Pytanie 7

Które z wymienionych określeń definiuje cyfrowy plik audio na osi czasu?

A. Długość słowa cyfrowego.
B. Głębia bitowa.
C. Częstotliwość próbkowania.
D. Rozdzielczość.
Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.

Pytanie 8

Które z wymienionych parametrów wskazują na plik o najniższej jakości?

A. 44.1 kHz, 16 bit
B. 48 kHz, 24 bit
C. 32 kHz, 32 bit
D. 96 kHz, 8 bit
Wybierając opcję 96 kHz, 8 bit, zwróciłeś uwagę na bardzo ważną rzecz: liczba bitów w próbkowaniu ma ogromny wpływ na jakość dźwięku. Częstotliwość próbkowania, czyli te 96 kHz, na pierwszy rzut oka wygląda imponująco i rzeczywiście umożliwia rejestrowanie bardzo wysokich częstotliwości – znacznie powyżej słyszalnych dla ludzkiego ucha. Jednak realnie to rozdzielczość bitowa (w tym przypadku tylko 8 bitów) decyduje o dynamice i szczegółowości nagrania. 8 bitów to bardzo mało, daje tylko 256 możliwych poziomów głośności. Oznacza to, że w praktyce taki plik będzie charakteryzował się bardzo wyraźnym szumem kwantyzacji, brakiem szczegółów w cichych fragmentach i ogólnie sztucznym, "płaskim" brzmieniem. W dzisiejszych standardach nawet telefony komórkowe czy nagrania przewidziane do archiwizacji dźwięku mają co najmniej 16 bitów. Przykładowo, format CD Audio to 44,1 kHz/16 bit, co uchodzi za rozsądny kompromis między jakością a wielkością pliku. Moim zdaniem, niezależnie od tego, jak wysoką częstotliwość próbkowania ustawimy, jeśli ilość bitów jest niska, to traci się wszystkie zalety wysokiej częstotliwości. W studiach czy produkcji muzycznej 24 bity to już w zasadzie standard. Pliki 8-bitowe mają sens tylko w archiwalnych rozwiązaniach albo w syntezatorach retro. W praktyce lepiej mieć niższą częstotliwość, ale wyższą rozdzielczość bitową – wtedy dźwięk brzmi naturalniej i ma lepszą dynamikę. To właśnie dlatego opcja 96 kHz, 8 bit jest zdecydowanie najniższej jakości spośród podanych.

Pytanie 9

Jaką nazwę nosi standard zapisu znaczników informujących na przykład o artyście czy tytule utworu w plikach MP3?

A. CD-Text
B. ID3
C. RIFF Tags
D. Vorbis comment
Standard ID3 to coś, co zdecydowanie warto znać, jeśli pracuje się z plikami MP3 – zarówno jako zwykły użytkownik, jak i ktoś, kto trochę grzebie przy tagowaniu muzyki. ID3 to taki specjalny „dodatek” do pliku MP3, który trzyma informacje tekstowe, jak tytuł utworu, nazwa artysty, album, rok, a nawet okładkę. Najczęściej spotyka się dwie wersje – ID3v1 i ID3v2. Ta druga jest nowsza i pozwala zapisać znacznie więcej informacji, w dużo bardziej elastyczny sposób. Moim zdaniem każdy, kto miał do czynienia z biblioteką muzyczną i chciał, żeby wszystko ładnie wyświetlało się np. w telefonie albo Spotify, wie, że bez poprawnych tagów ID3 robi się niezły bałagan. Co ciekawe, sporo programów do edycji muzyki (np. foobar2000, Mp3tag) korzysta właśnie z tego standardu, bo jest on de facto branżowym standardem dla MP3. W praktyce, jeśli na przykład przerzucasz pliki MP3 między różnymi odtwarzaczami czy aplikacjami, to dzięki ID3 nie gubią się podstawowe informacje o utworze. Z mojego doświadczenia, kiedy ktoś zapomina o ID3, to potem się dziwi, że ma same „Unknown Artist” w swojej playliście – serio, widziałem takie przypadki. Dobrą praktyką jest regularne aktualizowanie/uzupełnianie tagów ID3, szczególnie gdy masz dużą kolekcję. To znacznie podnosi komfort korzystania z muzyki, a przy okazji ułatwia zarządzanie danymi.

Pytanie 10

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta w stosunku 48:44,1.
B. Nie ma wpływu.
C. Wysokość spada dwukrotnie.
D. Wysokość wzrasta dwukrotnie.
To bardzo dobra odpowiedź, bo faktycznie sama zmiana częstotliwości próbkowania, bez żadnej dodatkowej ingerencji w próbki czy zmianę tempa odtwarzania, nie wpływa w żaden sposób na wysokość słyszanego dźwięku. W praktyce – jeśli mamy plik audio w 44,1 kHz i przekonwertujemy go na 48 kHz, ale zachowamy te same dane audio oraz odtwarzamy z odpowiednio ustawioną prędkością (czyli sprzęt i oprogramowanie wie, jaka jest nowa częstotliwość próbkowania), to ludzkie ucho nie zauważy żadnej zmiany wysokości. Tak działają standardy w branży muzycznej – na przykład płyty CD korzystają z 44,1 kHz, a dźwięk do wideo, radia czy telewizji cyfrowej to zazwyczaj 48 kHz. Konwersja następuje praktycznie cały czas, ale nie ma to wpływu na percepcję tonacji głosu czy instrumentów. Oczywiście, jeśli ktoś by "oszukał" odtwarzacz i kazał mu odtworzyć plik nagrany w 44,1 kHz jako 48 kHz (lub odwrotnie), wtedy rzeczywiście wysokość by się zmieniła – ale to już nie jest prawidłowa konwersja, tylko błąd techniczny. Branża korzysta z wysokiej jakości algorytmów resamplingu, które są projektowane tak, żeby zachować oryginalną barwę i wysokość dźwięku. W praktyce, użytkownik nie powinien martwić się o takie rzeczy, bo sprzęt i oprogramowanie załatwiają to w tle.

Pytanie 11

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SDHC
B. SDXC
C. SD A1
D. SD
Wybór karty SDXC to strzał w dziesiątkę, jeśli chodzi o największą pojemność. Standard SDXC (Secure Digital eXtended Capacity) to obecnie jeden z najbardziej zaawansowanych formatów kart pamięci SD, jeśli patrzymy pod kątem pojemności, bo obsługuje wartości aż do 2 TB – co, nie ukrywam, robi duże wrażenie nawet na osobach, które na co dzień pracują z dużą ilością danych. Z mojego doświadczenia, karty SDXC najczęściej wykorzystywane są w sprzęcie wymagającym dużych mocy przerobowych i sporej przestrzeni, np. w aparatach do profesjonalnego filmu, nowoczesnych lustrzankach czy rejestratorach wideo 4K. Warto pamiętać, że wybierając SDXC, zyskujesz nie tylko większą pojemność, ale i wsparcie nowocześniejszych systemów plików, jak exFAT – co ułatwia przesyłanie większych plików bez ograniczenia typowego dla FAT32. Branżowe normy jasno określają, że standard SD (do 2 GB), SDHC (do 32 GB), a dopiero SDXC zaczyna się od 32 GB wzwyż. SD A1 to specjalizacja pod kątem wydajności w aplikacjach mobilnych, ale sama pojemność nie różni jej od klasycznych SDHC czy SDXC. W praktyce, jeśli zależy Ci na przechowywaniu długich nagrań wideo, dużych bibliotek zdjęć czy plików RAW, to SDXC jest pewniakiem. Moim zdaniem, obecnie ciężko znaleźć praktyczne zastosowanie, gdzie SDXC byłoby ograniczeniem pod względem pojemności.

Pytanie 12

Proporcja głośności między lewym i prawym kanałem w stereofonicznym torze konsolety mikserskiej regulowana jest za pomocą potencjometru

A. Send.
B. Balance.
C. Volume.
D. Gain.
Odpowiedź 'Balance' jest faktycznie tą właściwą, bo to właśnie ten potencjometr, zarówno na konsoletach analogowych jak i cyfrowych, odpowiada za proporcję głośności między lewym i prawym kanałem w sygnale stereofonicznym. To narzędzie podstawowe – szczególnie kiedy miksujemy sygnały, które powinny być prawidłowo rozmieszczone w panoramie stereo, jak np. gitary, instrumenty klawiszowe czy nawet wokale w niektórych aranżacjach. Potencjometr balance pozwala swobodnie przesuwać dźwięk w stronę lewego lub prawego głośnika, co daje ogromne możliwości w kreowaniu przestrzeni w miksie. Z mojego doświadczenia – nawet niewielka korekta balance potrafi zdecydowanie poprawić separację instrumentów i ogólne wrażenie przestrzenności. W środowisku audio profesjonalnym bardzo często stosuje się tzw. panoramowanie (panning), które pozwala umieścić każdy element miksu tam, gdzie brzmi najczytelniej. Potencjometr balance działa podobnie, tylko dla sygnału stereo jako całości. Takie podejście jest zgodne z praktykami studyjnymi, gdzie właściwe ustawienie balansu pozwala uzyskać równowagę w miksie i uniknąć nieprzyjemnych przesunięć fazowych czy wrażenia „ucięcia” dźwięku w jednym kanale. Krótko mówiąc – balance to podstawa, jeśli chodzi o kontrolę proporcji kanałów w stereo.

Pytanie 13

Które z urządzeń poszerza zakres dynamiki nagrania?

A. Filtr LP.
B. Saturator.
C. Ekspander.
D. Filtr HP.
Ekspander to narzędzie, które faktycznie poszerza zakres dynamiki nagrania, działając odwrotnie niż kompresor. W praktyce oznacza to, że różnica między najcichszymi a najgłośniejszymi fragmentami sygnału staje się większa. Moim zdaniem ekspander jest często niedoceniany, a potrafi zrobić robotę tam, gdzie miks wydaje się 'spłaszczony' i brakuje mu życia. Używa się go na przykład do wygładzania szumów tła – wszystko poniżej określonego progu zostaje jeszcze bardziej wyciszone, dzięki czemu cisza staje się prawdziwie cicha, a dynamika rośnie. W branży przyjmuje się, że ekspandery mogą być stosowane zarówno kreatywnie, jak i stricte narzędziowo, np. na ślady perkusji, wokalu czy ścieżki ambientowe. To świetny patent przy nagraniach live, gdy mikrofony zbierają dużo niepotrzebnych dźwięków z otoczenia. W przeciwieństwie do filtrów czy saturatora, ekspander nie wpływa bezpośrednio na barwę czy harmoniczne, tylko operuje 'głośnością' w sposób bardziej wyrafinowany niż zwykły fader. Standardy miksowania zakładają, żeby przed zastosowaniem kompresji dobrze przemyśleć, czy przypadkiem nie warto najpierw poszerzyć dynamiki tam, gdzie materiał jest zbyt płaski. Z mojego doświadczenia stosowanie ekspandera to często ostatni szlif, który potrafi dodać nagraniu przestrzeni i świeżości. Dobrze wiedzieć, jak to działa, bo daje ogromne możliwości w pracy przy każdym typie muzyki.

Pytanie 14

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + X
B. Ctrl + V
C. Ctrl + Z
D. Ctrl + C
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 15

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 20 bitów.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
24-bitowa rozdzielczość bitowa to dziś taki złoty standard w profesjonalnych zastosowaniach dźwiękowych i nie ma w tym przypadku. Im więcej bitów w próbkowaniu sygnału audio, tym mniejszy poziom szumów kwantyzacji – to po prostu matematyka. Szum kwantyzacji wynika z ograniczonej liczby poziomów, na które dzielimy amplitudę sygnału. Przy 8-bitach tych poziomów jest raptem 256, przy 16 już 65 536, a przy 24 bitach aż ponad 16 milionów. Przekłada się to na bardzo dużą dokładność odtworzenia każdego cichego niuansu nagrania, szczególnie jeśli chodzi o dynamikę, np. w muzyce klasycznej czy przy masteringu nagrań. Profesjonalne studia nagraniowe korzystają z 24 bitów właśnie po to, by zachować jak największą szczegółowość i minimalizować artefakty kwantyzacji. Co ciekawe, standardy dystrybucji muzyki, jak CD-Audio, zatrzymały się na 16 bitach, ale w praktyce podczas nagrywania i produkcji używa się 24, a czasem nawet więcej – potem przy eksporcie się to redukuje. Moim zdaniem, jak ktoś poważnie myśli o pracy z dźwiękiem, powinien znać tę zależność. Z mojego doświadczenia różnica najbardziej słyszalna jest przy obróbce wielokrotnej, bo szumy łatwo się kumulują. Minimum 24 bity to już taka solidna podstawa przy profesjonalnej pracy z dźwiękiem, jak i w zastosowaniach audiofilskich.

Pytanie 16

Której funkcji programu do konwersji plików dźwiękowych należy użyć, aby zwiększyć dokładność obróbki cyfrowego materiału audio?

A. Nadpróbkowania.
B. Kompresji.
C. Normalizacji.
D. Transpozycji.
Nadpróbkowanie to funkcja, która w praktyce potrafi podnieść dokładność obróbki cyfrowego audio, szczególnie kiedy pracujemy ze ścieżkami dźwiękowymi wymagającymi dalszych edycji, np. miksu czy masteringu. W skrócie – polega to na tym, że zwiększamy liczbę próbek na sekundę (czyli tzw. częstotliwość próbkowania), co pozwala uzyskać więcej szczegółów i precyzji podczas późniejszych operacji. Branżowe standardy, jak np. produkcja muzyczna czy postprodukcja filmowa, bardzo często polegają na nadpróbkowaniu, by uniknąć artefaktów, takich jak aliasing albo zniekształcenia, które mogą pojawić się podczas stosowania efektów cyfrowych. Moim zdaniem, jeśli ktoś chce osiągnąć wysoką jakość i zachować pełną kontrolę nad materiałem, nadpróbkowanie jest wręcz obowiązkowe, zwłaszcza przy bardziej zaawansowanych procesach – chociażby korekcji czy syntezie dźwięku. Warto też pamiętać, że potem można wrócić do niższej częstotliwości próbkowania, ale ten etap pośredni daje nam po prostu większy margines bezpieczeństwa i swobody w pracy. Przykładowo, lepiej brzmiące przesterowania czy bardziej naturalne filtry to właśnie zasługa nadpróbkowania. W sumie to taka branżowa sztuczka, bez której ciężko dziś o naprawdę profesjonalnie brzmiący materiał audio.

Pytanie 17

W jakim celu normalizuje się pliki dźwiękowe?

A. Ustalenia minimalnego poziomu nagrania.
B. Ustalenia maksymalnego poziomu nagrania.
C. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
D. Wyrównania pików nagrania do tej samej wartości.
Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.

Pytanie 18

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. opisu taśmy.
B. spisu efektów.
C. opisu postsynchronów.
D. skryptu.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 19

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 4 ścieżki.
B. 3 ścieżki.
C. 2 ścieżki.
D. 1 ścieżkę.
Prawidłowa odpowiedź to 4 ścieżki, bo właśnie tyle potrzeba do zarejestrowania wielościeżkowego nagrania gitary przy użyciu dwóch mikrofonów podpórkowych (close mików) oraz pary mikrofonów ogólnych ustawionych w systemie XY. Każdy mikrofon powinien mieć swoją oddzielną ścieżkę w sesji DAW – to podstawa profesjonalnej rejestracji, bo tylko wtedy masz pełną kontrolę nad edycją, panoramą, EQ czy efektami na każdym z nich. Takie podejście pozwala potem swobodnie miksować – na przykład przesunąć mikrofony XY szerzej w panoramie, dodać inny pogłos na close mikach albo nawet wyciąć niechciany szum tylko z jednej ścieżki. Moim zdaniem, w praktyce studyjnej to absolutny standard i nie znam realizatora, który by wrzucał dwa mikrofony na jedną ścieżkę – później nie da się tego sensownie rozdzielić. Co ciekawe, taka konfiguracja przydaje się nie tylko przy gitarze, bo identyczna logika działa przy nagrywaniu perkusji, fortepianu czy chórów – osobne ścieżki dla każdego mikrofonu! Warto o tym pamiętać, bo potem przy miksie można wyciągnąć z tych nagrań znacznie więcej. A jeszcze na marginesie – zawsze dobrze jest opisać ścieżki w projekcie, bo przy czterech mikrofonach łatwo się pomylić, gdzie jest XY lewy, a gdzie prawy. To drobiazg, ale bardzo pomaga w kolejnych etapach produkcji.

Pytanie 20

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. COPY
B. CUT
C. PASTE
D. MUTE
Funkcja CUT w DAW (Digital Audio Workstation) to jedno z najbardziej podstawowych narzędzi do edycji ścieżek audio i MIDI. Jej użycie pozwala na precyzyjne wycięcie wskazanego fragmentu sygnału na ścieżce, ale – co ważne – wycięty materiał nie jest trwale usuwany z dysku twardego komputera. Oprogramowanie DAW działa w trybie nieniszczącym (non-destructive editing), czyli wszelkie modyfikacje wykonywane na klipach audio (np. cięcia, przesuwanie, wyciszanie, kopiowanie) dotyczą jedynie sposobu, w jaki ścieżka jest prezentowana i odtwarzana w sesji, a nie samego pliku źródłowego na dysku. Dzięki temu można wielokrotnie cofać i powtarzać operacje, bez strachu o utratę oryginalnych nagrań. W praktyce funkcja CUT jest wykorzystywana bardzo często, np. przy montażu wokali, przycinaniu fragmentów instrumentów lub podczas robienia tak zwanych „editów” live. Moim zdaniem warto pamiętać, że praca na klipach w DAW różni się od fizycznego wycinania fragmentów np. na taśmie analogowej – tutaj cały czas działa zasada bezpieczeństwa i elastyczności. Branżowy standard zakłada, by przed finalnym eksportem zawsze dokładnie sprawdzić, które operacje były nieniszczące, a które faktycznie mogły wpłynąć na plik źródłowy (np. „consolidate” czy „bounce”). Sam wielokrotnie korzystałem z CUT do szybkiego porządkowania sesji i nie wyobrażam sobie pracy bez tego narzędzia. Jest to podstawa workflow w studiu cyfrowym.

Pytanie 21

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LF
B. BPF
C. LPF
D. HPF
Skrót LPF pochodzi od angielskiego wyrażenia Low Pass Filter, czyli filtr dolnoprzepustowy. To jedno z podstawowych i najczęściej spotykanych rozwiązań w elektronice, elektroakustyce oraz cyfrowym przetwarzaniu sygnałów. Filtry dolnoprzepustowe przepuszczają sygnały o częstotliwościach niższych od określonego progu (tzw. częstotliwości odcięcia), a tłumią te wyższe. W praktyce, takie filtry znajdziesz na przykład w zwrotnicach głośnikowych, gdzie odcinają wysokie tony dla subwoofera, w układach zasilania (eliminacja zakłóceń), czy w przetwarzaniu sygnałów analogowych i cyfrowych (redukcja szumów wysokoczęstotliwościowych). Moim zdaniem, znajomość skrótu LPF to taka absolutna podstawa – spotyka się go wszędzie, nawet w amatorskich projektach audio DIY. Warto też zauważyć, że branżowe schematy i dokumentacje techniczne zawsze operują właśnie tym oznaczeniem. Standardy IEC i IEEE również stosują LPF, więc dobrze mieć to zakodowane w głowie. Tak zupełnie szczerze, w pracy inżyniera czy technika, kiedy widzisz LPF, to od razu wiesz, że chodzi o ochronę czy czyszczenie sygnału z niechcianych, wyższych częstotliwości – no i to jest właśnie cała magia filtrów dolnoprzepustowych.

Pytanie 22

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Modulation
B. Distortion
C. Reverbs
D. Dynamics
Ekspander to typowy przedstawiciel procesorów z kategorii dynamiki. Jego głównym zadaniem jest kontrolowanie zakresu głośności sygnału audio, ale robi to odwrotnie niż kompresor – zamiast ograniczać różnice głośności, zwiększa je, sprawiając, że cichsze fragmenty stają się jeszcze cichsze. W praktyce, ekspandery stosuje się na przykład do redukowania szumów tła lub niepożądanych dźwięków pomiędzy frazami wokalnymi, czyli tzw. „brudów”, których kompresor nie byłby w stanie wyeliminować bez wpływania na główny sygnał. Moim zdaniem ekspander bywa nieoceniony przy nagraniach perkusji – pozwala wydobyć atak werbla czy stopy, eliminując jednocześnie przesłuchy z innych mikrofonów. Branżowe standardy nagraniowe wręcz zalecają używanie procesorów dynamiki, takich jak kompresory, bramki szumów i właśnie ekspandery, do precyzyjnej kontroli nad sygnałem. W odróżnieniu od efektów typu reverb czy distortion, ekspander nie zmienia charakteru dźwięku, tylko zarządza jego głośnością w bardzo specyficzny sposób. Wielu realizatorów dźwięku uznaje ekspandery za absolutną podstawę, jeśli zależy nam na czystym, klarownym miksie. Szczerze mówiąc, czasem ludzie zapominają o ich istnieniu, a szkoda – bo dobrze użyty ekspander może uratować nawet problematyczne nagranie.

Pytanie 23

W sesji oprogramowania DAW o parametrach tempo 120 BPM i metrum 4/4, ćwierćnuta występować będzie co

A. 500 ms
B. 2 000 ms
C. 1 000 ms
D. 1 500 ms
Tempo 120 BPM oznacza, że w ciągu minuty mamy 120 uderzeń, czyli ćwierćnut. Skoro jedna minuta to 60 sekund, to jedno uderzenie przypada co 0,5 sekundy, czyli właśnie 500 ms. To jest taki klasyczny, bardzo często spotykany w produkcji muzycznej podział czasu – na przykład w muzyce elektronicznej, popie czy nawet rocku. Z praktycznego punktu widzenia: jeżeli masz w DAW ustawione 120 BPM, a chcesz zsynchronizować delay albo LFO z tempem utworu, to ustawiając czas na 500 ms dasz efekt, który idealnie pasuje pod każdą ćwierćnutę. Moim zdaniem warto to po prostu zapamiętać, bo przy miksowaniu automatyzacji czy przy ustawianiu efektów delayowych, większość producentów korzysta właśnie z tego przelicznika. To trochę taki branżowy standard. Warto też wspomnieć, że większość DAW ma funkcję automatycznego przeliczania wartości muzycznych na milisekundy, ale dobrze jest znać tę zależność na pamięć – czasami szybciej policzyć to w głowie niż szukać opcji w programie. Osobiście nieraz spotykałem się z sytuacją, gdy szybkie przeliczenie ćwierćnuty w BPM na ms ratowało sprawę na sesji nagraniowej czy przy szybkim montażu rytmicznych efektów. Krótko mówiąc, 500 ms to podstawa dla 120 BPM, metrum 4/4 i ćwierćnuty – taki złoty środek w pracy z rytmem.

Pytanie 24

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista regionów.
B. Lista efektów.
C. Lista ścieżek.
D. Lista grup.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 25

Który z wymienionych procesorów dostępnych w sesji montażowej programu DAW umożliwia usunięcie przesłuchów występujących np. na ścieżce lektora pomiędzy jego wypowiedziami?

A. Bramka
B. De-esser
C. Limiter
D. Exciter
Bramka szumów (ang. gate) to jedno z tych narzędzi w arsenale inżyniera dźwięku, które naprawdę potrafi zmienić jakość nagrania, zwłaszcza jeśli pracujesz z materiałem, gdzie na ścieżkach pojawiają się niechciane dźwięki czy przesłuchy – typowy przykład to wokal z domieszką dźwięków otoczenia czy szumów pomiędzy frazami lektora. Bramka działa w ten sposób, że automatycznie wycisza fragmenty ścieżki, gdy poziom sygnału spada poniżej ustalonego progu – wtedy po prostu nie przepuszcza sygnału na wyjście. Dzięki temu, w przerwach między wypowiedziami, wszelkie szumy tła, echo z innych mikrofonów czy przesłuchy instrumentów znikają niemal całkowicie. Moim zdaniem, przy miksie podcastów, audiobooków czy nawet nagrań wokalnych, użycie bramki to wręcz podstawa, bo pozwala zachować czystość i przejrzystość nagrania – nieprzypadkowo praktycznie każdy profesjonalny DAW ma wbudowany taki procesor. No i warto dodać, że umiejętne ustawienie parametrów (takich jak threshold, attack, release) pozwala uniknąć nieprzyjemnych artefaktów, na przykład nienaturalnego cięcia końcówek słów. To rozwiązanie zgodne z powszechnie stosowanymi praktykami w branży audio, w tym standardami radia czy telewizji, gdzie jakość i czytelność nagrania lektorskiego jest kluczowa. Sam często zauważam, że początkujący realizatorzy nie doceniają tego narzędzia, a to właśnie ono robi robotę w kontekście eliminowania przesłuchów i utrzymania profesjonalnego brzmienia.

Pytanie 26

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 8
B. 3
C. 4
D. 14
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 27

W jakim celu stosowana jest kompresja w procesie masteringu?

A. Wyciszenia niektórych zbyt głośnych fragmentów nagrania.
B. Zmiany barwy wokalu.
C. Zmiany barwy poszczególnych instrumentów.
D. Zwiększenia subiektywnej głośności nagrania.
Kompresja w procesie masteringu to jedno z najważniejszych narzędzi, które pozwala inżynierom dźwięku uzyskać efekt tzw. „głośnego” nagrania, które dobrze sprawdza się na różnych systemach odsłuchowych. Chodzi tu głównie o zwiększenie subiektywnej głośności nagrania bez nadmiernego podnoszenia poziomu szczytowego (peak). Kompresor niweluje duże różnice dynamiczne, przez co cichsze elementy stają się wyraźniejsze, a te najgłośniejsze nie dominują całości. W praktyce oznacza to, że utwór wydaje się mocniejszy, bardziej „zbity” i jednolity, przez co lepiej znosi odtwarzanie na słabych głośnikach czy radioodbiornikach. W branży muzycznej od lat trwa tzw. „loudness war”, gdzie utwory ścigają się o jak największą głośność – tu kompresja jest kluczowa. Oczywiście, dobry masteringowiec nie przesadza – zbyt intensywna kompresja prowadzi do tzw. „zmęczenia ucha”, braku oddechu w muzyce i zniekształceń. Moim zdaniem, umiejętne użycie kompresji to sztuka łączenia techniki i wyczucia materiału. Warto też pamiętać, że standardy streamingowe (np. Spotify, Apple Music) wprowadzają regulacje dotyczące głośności (np. LUFS), więc celem kompresji jest nie tyle osiągnięcie maksymalnej głośności, co sensownego balansu i uniwersalności brzmienia na różnych nośnikach.

Pytanie 28

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. DIN
B. TOSLINK
C. BNC
D. TDIF
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 29

Co najmniej ilu płyt CD-R należy użyć do zarejestrowania 3-godzinnego nagrania w standardzie CD-Audio?

A. 5 płyt.
B. 4 płyt.
C. 3 płyt.
D. 2 płyt.
Wybranie odpowiedzi „3 płyt” jest w pełni zgodne z technicznymi ograniczeniami standardu CD-Audio. Standardowa płyta CD-R w formacie audio mieści około 80 minut nagrania (czyli 700 MB danych przy próbkowaniu 44,1 kHz, 16 bitów, stereo). Trzy godziny nagrania to 180 minut, co łatwo podzielić: 180 minut / 80 minut ≈ 2,25, ale że nie można zapisać części płyty, to trzeba zaokrąglić w górę – wychodzi 3 płyty. W praktyce oznacza to, że żadna pojedyncza płyta CD-R nie pomieści więcej niż tych 80 minut audio, nawet jeśli używamy płyt dobrej jakości czy próbujemy na siłę coś upchnąć – ograniczenie wynika ze specyfikacji Red Book. Często w pracy z dźwiękiem spotyka się sytuacje, gdzie trzeba dzielić długie nagrania na kilka fizycznych nośników – moim zdaniem, to bardzo ważne umieć szacować takie rzeczy „na oko”, bo zdarza się, że ktoś planuje archiwizację nagrania czy materiał z koncertu i potem jest zdziwiony, że jedna płyta nie wystarczy. Takie rozumowanie przydaje się nie tylko przy CD, ale także przy DVD czy innych nośnikach, bo zawsze trzeba mieć „z tyłu głowy” maksymalną pojemność i ograniczenia formatu. W branży muzycznej i radiowej bardzo często korzysta się właśnie z takich podstawowych kalkulacji pojemności – nie tylko, żeby dobrać liczbę płyt, ale też żeby właściwie podzielić utwory czy segmenty nagrań na części nieprzekraczające limitów nośnika. To naprawdę praktyczna umiejętność, szczególnie przy produkcji płyt demo i archiwizacji.

Pytanie 30

Który z wymienionych formatów plików dźwiękowych charakteryzuje się bezstratnym kodowaniem dźwięku?

A. M4A
B. MP3
C. AAC
D. AIFF
Format AIFF, czyli Audio Interchange File Format, to przykład pliku dźwiękowego, który wykorzystuje bezstratne kodowanie. To znaczy, że zapisuje dźwięk dokładnie tak, jak został on nagrany, bez żadnej kompresji stratnej, która obniżałaby jakość. W praktyce AIFF wykorzystywany jest głównie w środowiskach profesjonalnych — studiach nagraniowych, podczas produkcji muzycznej oraz przez entuzjastów audio, którzy cenią sobie najwyższą jakość dźwięku. Oprogramowanie Apple od lat promuje AIFF, ale pliki te są szeroko obsługiwane także na systemach Windows. Moim zdaniem, jeśli ktoś zajmuje się miksowaniem, masterowaniem czy archiwizowaniem materiału muzycznego, to właśnie AIFF (albo WAV) jest najlepszym wyborem. W branży muzycznej AIFF często konkuruje z WAV i oba te formaty są wręcz standardem w profesjonalnych workflowach. Co ważne, AIFF przechowuje dane PCM (czyli Pulse Code Modulation), co zapewnia pełną zgodność z urządzeniami audio wysokiej klasy. Dla zwykłego słuchacza może to nie mieć aż takiego znaczenia, bo te pliki są większe niż MP3, ale dla realizatorów dźwięku, DJ-ów czy osób przygotowujących podcasty do dalszej edycji — różnica jakości jest kolosalna. Właśnie dlatego AIFF to bezstratny format, który zapewnia dźwięk w oryginalnej jakości, bez kompromisów.

Pytanie 31

Jaki jest przybliżony rozmiar nieskompresowanego stereofonicznego pliku dźwiękowego o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów?

A. Około 5 MB
B. Około 10 MB
C. Około 20 MB
D. Około 30 MB
W tej sytuacji wybrano rozmiar około 20 MB i to jest właśnie poprawne podejście – wszystko wynika z prostych obliczeń i trochę znajomości branżowych standardów. Plik audio o parametrach: 44,1 kHz, 16 bitów, stereo, to tak naprawdę klasyczne ustawienie dla jakości płyt CD Audio, no i w ogóle bardzo często spotykane w produkcji muzyki albo podcastów. Liczysz to w ten sposób: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały × 120 sekund. Szybko wychodzi: 44 100 × 2 × 2 × 120 = 21 168 000 bajtów, czyli mniej więcej 21 MB (przy zamianie na megabajty dzielisz przez 1 048 576). Owszem, czasami ktoś zaokrągla do 20 MB, bo nie liczy nagłówków pliku WAV czy AIFF, ale do praktycznych zastosowań to wystarcza. Takie pliki WAV są często używane przy obróbce dźwięku, bo nie tracą nic na jakości w przeciwieństwie do MP3, no i każdy program do montażu czy rejestrator spokojnie sobie z nimi radzi. Moim zdaniem, warto pamiętać takie wyliczenia, bo potem łatwiej dobrać miejsce na dysku, zwłaszcza jak się nagrywa dłuższe projekty. W branży IT i audio przyjęło się, że 44,1 kHz/16 bitów stereo to taki trochę złoty środek między jakością a rozmiarem – choć dziś już można używać większych parametrów, to do codziennej pracy to w zupełności wystarcza.

Pytanie 32

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. VBR
B. ABR
C. CBR
D. MBR
CBR, czyli Constant Bit Rate, to skrót, który faktycznie oznacza stałą przepływność bitową sygnału cyfrowego. W praktyce, gdy coś jest kodowane z użyciem CBR, ilość danych przesyłanych lub zapisywanych na sekundę jest zawsze taka sama. To bywa bardzo przydatne, zwłaszcza gdy mamy do czynienia z transmisją na żywo, streamingiem albo sieciami o ograniczonej lub przewidywalnej przepustowości, np. radioliniami czy łączami satelitarnymi. Moim zdaniem to jedno z częściej spotykanych ustawień w profesjonalnych systemach nadawczych – pozwala łatwiej przewidzieć obciążenie sieci. Standardy takie jak MPEG-2, MPEG-4 czy H.264 rekomendują stosowanie CBR w sytuacjach, gdy wymagana jest powtarzalność i stabilność przesyłu. Warto też wiedzieć, że CBR jest wykorzystywany np. przy nagrywaniu na płytach DVD lub w telewizji cyfrowej, bo wtedy dużo łatwiej zaplanować miejsce na nośniku czy pasmo transmisji. Z mojego doświadczenia – CBR nie zawsze daje najlepszą jakość przy tej samej objętości pliku, ale za to jest przewidywalny, co w infrastrukturze sieciowej potrafi być kluczowe. Chociaż czasami można usłyszeć, że jest to rozwiązanie „mało elastyczne”, to jednak jego prostota ma ogromną wartość właśnie tam, gdzie nie ma miejsca na skoki bitrate’u.

Pytanie 33

Który z podanych programów DAW nie przetwarza komunikatów MIDI?

A. Pro Tools.
B. Audacity.
C. Cubase.
D. Samplitude.
Audacity faktycznie nie obsługuje komunikatów MIDI w taki sposób, jak robią to profesjonalne stacje robocze audio (DAW). To narzędzie skupia się głównie na pracy z plikami audio – edycja, nagrywanie, cięcie, zmiana głośności czy nakładanie efektów. Sam, kiedy pierwszy raz go używałem, szukałem opcji do sterowania syntezatorem przez MIDI, ale niestety – Audacity takich funkcji po prostu nie posiada. W branży muzycznej powszechnie przyjmuje się, że dobry DAW powinien bez problemu obsługiwać zarówno ścieżki audio, jak i MIDI, co jest bardzo ważne podczas produkcji muzyki elektronicznej, aranżacji czy obsługi instrumentów wirtualnych. W Cubase, Pro Tools czy Samplitude od razu można zauważyć zaawansowane edytory MIDI do komponowania, kwantyzacji i automatyzacji parametrów instrumentów VST. Audacity natomiast jest świetne do prostych zadań edycyjnych, np. obróbki nagrań podcastów czy cięcia ścieżek wokalnych, ale nie zastąpi pełnoprawnego DAW przy pracy z MIDI. Trochę szkoda, bo czasem przydałoby się takie lekkie narzędzie z obsługą MIDI, ale póki co – takich możliwości po prostu tu nie ma. Jeśli ktoś chce zacząć przygodę z MIDI, to raczej musi sięgnąć po inne oprogramowanie. Warto o tym pamiętać przy wyborze narzędzi do produkcji muzyki.

Pytanie 34

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. AUDIO
B. INSTRUMENT
C. AUX
D. MASTER
MASTER jako główna szyna stereo to absolutna podstawa w każdym projekcie DAW – i nie ma tu raczej wyjątków. W profesjonalnych środowiskach pracy, niezależnie od tego, czy korzystamy z Cubase’a, Pro Toolsów czy Abletona, wyjście MASTER jest centralnym punktem miksu. To na nie trafiają wszystkie pozostałe ślady i grupy – po prostu całość dźwięku musi się „zebrać” w jednym miejscu, zanim pójdzie dalej, np. do eksportu czy na odsłuchy. Z mojego doświadczenia, każda modyfikacja na MASTERZE, jak kompresja, limiter czy korekcja, ma wpływ na cały miks – dlatego to właśnie ta ścieżka jest tak strategiczna. Osobiście, zawsze staram się mieć na MASTERZE podstawowe narzędzia kontrolujące poziom wyjściowy i ewentualne zabezpieczenie przed przesterowaniem. Taką organizację projektu DAW wymuszają też standardy branżowe, np. w studiach emisyjnych czy podczas produkcji płyt – łatwo wtedy kontrolować końcową dynamikę i zachować porządek w projekcie. Moim zdaniem, rozumienie roli MASTERa jest kluczowe dla każdego, kto poważnie myśli o miksie i masteringu – bez tego łatwo coś przeoczyć i zgubić się w całej tej cyfrowej dżungli efektów, routingu i poziomów.

Pytanie 35

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 2 ścieżki.
C. 3 ścieżki.
D. 1 ścieżkę.
Minimalna liczba ścieżek monofonicznych do montażu kwartetu smyczkowego zarejestrowanego techniką MM (czyli mikrofonami monofonicznymi skierowanymi na każdy instrument osobno) to właśnie cztery. Wynika to z tego, że kwartet smyczkowy to cztery osobne głosy: skrzypce I, skrzypce II, altówka i wiolonczela. Każdy z tych instrumentów powinien być nagrany na osobnej ścieżce, żeby mieć pełną kontrolę nad balansem, panoramą, dynamiką czy efektami w miksie. Tak się to robi w profesjonalnych studiach, bo dzięki temu można uzyskać czytelny i selektywny miks, a także korygować ewentualne błędy lub niedoskonałości wykonania pojedynczego muzyka. Gdy pracuje się na czterech ścieżkach, można np. delikatnie skompresować samą altówkę, nie naruszając reszty kwartetu, albo ustawić szeroko panoramę – skrzypce I po lewej, wiolonczela po prawej, itd. To klasyczna i chyba najwygodniejsza metoda pracy nie tylko przy klasyce, ale również przy innych kameralnych składach, gdy zależy nam na elastyczności w postprodukcji. No i nie oszukujmy się – w praktyce zawodowej praktycznie zawsze rejestruje się każdy głos osobno, jeżeli tylko pozwala na to sprzęt i warunki. Pozwala to także na swobodne edytowanie, np. sklejanie kilku podejść poszczególnego instrumentu bez naruszania reszty. Tyle z teorii i praktyki, ale z mojego doświadczenia – naprawdę warto trzymać się tej zasady, bo potem w miksie można sporo zyskać na jakości.

Pytanie 36

Które z wymienionych określeń dotyczy nagrania dialogów służącego jako wzorzec do montażu postsynchronów?

A. Ujęcie.
B. Pilot.
C. Dubel.
D. Setka.
Nagranie określane jako „pilot” to absolutny fundament przy pracy z postsynchronami w produkcji filmowej czy telewizyjnej. Pilot to nic innego jak robocze nagranie dźwięku, które rejestruje dialogi aktorów podczas zdjęć na planie, często razem z szumami tła, odgłosami planu czy innymi przypadkowymi dźwiękami. Chociaż taki dźwięk z pilota nie jest używany w finalnym montażu, to jednak pełni kluczową rolę – jest punktem odniesienia dla aktorów oraz realizatorów dźwięku podczas nagrywania postsynchronów w studiu. Bez pilota trudno byłoby zsynchronizować kwestie mówione z obrazem, bo aktorzy muszą odtworzyć dokładnie ten sam rytm, intonację i emocje, jakie były obecne na planie. Moim zdaniem, właśnie takie rozwiązanie znacząco podnosi jakość końcowego dźwięku, bo pozwala uniknąć sztuczności i niezgodności ruchu warg. Stosowanie pilota to też dobra praktyka branżowa, którą zalecają zarówno polskie, jak i międzynarodowe standardy pracy z dźwiękiem filmowym. Co ciekawe, czasem zdarza się, że niektóre fragmenty ścieżki pilotowej zostają w końcowym miksie, gdy np. postsynchrony wypadają gorzej pod względem emocji. Warto więc zawsze o tym pamiętać, bo pilot to nie tylko narzędzie techniczne, ale też ważny element całego procesu dźwiękowego.

Pytanie 37

Który format plików audio należy wybrać, aby po przekonwertowaniu zajmował najmniej miejsca na dysku komputera?

A. .wave
B. .flac
C. .aiff
D. .mp3
Format MP3 to zdecydowanie najlepszy wybór, gdy zależy Ci na minimalnym rozmiarze pliku audio po konwersji. To format stratny (lossy), co oznacza, że podczas kompresji traci się część informacji dźwiękowych, ale zyskuje się na tym drastyczne zmniejszenie wielkości pliku. Standard MP3 powstał właśnie po to, by móc przechowywać lub przesyłać muzykę przez internet, kiedy miejsce na dysku czy przepustowość łącza były na wagę złota. Moim zdaniem, nawet dziś, gdy dyski są większe, to w zastosowaniach masowych (np. serwisy streamingowe, podcasty, audiobooki) MP3 jest niezastąpiony ze względu na balans jakości do wielkości pliku. Jeśli chodzi o bitrate, to np. plik MP3 o jakości 128 kbps waży często kilkukrotnie mniej niż ten sam utwór w formacie WAV czy AIFF. Oczywiście, tracimy trochę na jakości dźwięku, ale dla większości codziennych zastosowań to praktycznie niezauważalne. To też jest powód, dla którego większość osób wrzucając muzykę na telefon czy odtwarzacz mp3 wybiera właśnie ten format. Z mojego doświadczenia, jeśli zależy Ci na szybkim udostępnianiu czy wysyłce plików audio, MP3 to po prostu standard branżowy i nie ma co kombinować. Warto pamiętać, że MP3 jest obsługiwany praktycznie przez każde urządzenie, od komputerów, przez samochody, aż po stare odtwarzacze. Przy konwersji audio zawsze trzeba jednak pamiętać o kompromisie między rozmiarem a jakością – im niższy bitrate, tym mniejszy plik, ale i gorszy dźwięk.

Pytanie 38

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Lock
B. Mute
C. Copy
D. Split
Funkcja „Mute” to jedna z tych opcji, bez których trudno sobie wyobrazić pracę w jakimkolwiek poważniejszym DAW-ie. Służy ona konkretnie do wyciszania wybranych regionów, ścieżek czy pojedynczych klipów, bez potrzeby ich usuwania lub przesuwania. To bardzo wygodne, kiedy chcemy sprawdzić, jak brzmiałby miks bez danego elementu albo po prostu czasowo wyłączyć fragment aranżacji. Mute nie kasuje danych, więc zawsze da się wrócić do pierwotnej wersji – co jest zgodne z zasadami niedestrukcyjnej edycji, które są już standardem w branży muzycznej. Moim zdaniem ta funkcja potrafi naprawdę przyspieszyć proces twórczy, bo pozwala eksperymentować bez ryzyka utraty materiału. Używając Mute, możesz na przykład szybko sprawdzić, jak sekcja rytmiczna radzi sobie bez konkretnego perkusyjnego loopa albo jak wypada wokal solo bez wsparcia chórków – to ogromnie praktyczne, szczególnie gdy dopiero szukasz kierunku dla swojego utworu. W większości DAW-ów, jak Ableton Live, Logic Pro czy Pro Tools, opcja Mute jest łatwo dostępna pod ręką i często także przypisana do wygodnego skrótu, bo inżynierowie zdają sobie sprawę, jak kluczowa jest elastyczność na tym etapie produkcji. Z mojego doświadczenia wynika, że regularne korzystanie z Mute pomaga zachować porządek w sesji i minimalizuje chaos związany z ciągłym przesuwaniem czy wycinaniem regionów, co niepotrzebnie wydłuża pracę.

Pytanie 39

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 15 GB danych.
B. 20 GB danych.
C. 10 GB danych.
D. 25 GB danych.
Jednowarstwowy nośnik Blu-ray rzeczywiście pozwala na zapis do 25 GB danych, co stanowi obecnie branżowy standard dla tej technologii. Wynika to z konstrukcji samego nośnika optycznego – płyty Blu-ray wykorzystują krótszą falę lasera niebieskiego (405 nm), przez co są w stanie zapisywać dane o wiele gęściej niż tradycyjne płyty DVD czy CD. Dzięki temu na jednej warstwie mieści się nawet kilka godzin materiału Full HD lub spora liczba plików, np. całe archiwa zdjęć, filmów czy kopie zapasowe dysków SSD z laptopów. Branża filmowa i gamingowa od lat korzysta z tej możliwości – gry na PlayStation 4 czy filmy na Blu-ray to najlepszy przykład. 25 GB to też rozwiązanie stosowane w profesjonalnych archiwizacjach, gdzie liczy się nie tylko pojemność, ale też trwałość zapisu. Moim zdaniem to całkiem dużo, patrząc na fizyczne rozmiary płyty! Warto jeszcze wiedzieć, że są też płyty Blu-ray dwuwarstwowe (50 GB), a nawet czterowarstwowe (100 GB i więcej), ale te już wychodzą poza zwykłe zastosowania domowe. Z mojego doświadczenia – jeśli chcesz zarchiwizować dane na długie lata, to Blu-ray wciąż jest dobrą alternatywą np. dla pendrive'ów, bo mniej podatny na uszkodzenia elektromagnetyczne.

Pytanie 40

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. CD-RW
B. DVD+R
C. HD DVD-R
D. BD-R
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.