Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 15:18
  • Data zakończenia: 28 kwietnia 2026 15:37

Egzamin zdany!

Wynik: 35/40 punktów (87,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. dysk twardy.
B. chmura dyskowa.
C. karta SD.
D. pendrive.
Karta SD to zdecydowanie najpowszechniejszy nośnik danych wykorzystywany w przenośnych urządzeniach do zapisu sygnałów fonicznych, czyli dźwięku. Moim zdaniem producenci sprzętu od lat wybierają właśnie ten format, bo karta SD łączy w sobie kompaktowe wymiary, wysoką pojemność i niezłą trwałość. Wystarczy zerknąć na rejestratory dźwięku, kamery, aparaty fotograficzne czy nawet niektóre przenośne miksery audio – tam niemal zawsze znajdziesz slot na kartę SD. Branża audio docenia SD-ki także dlatego, że można je łatwo wymieniać i szybko zgrywać dane na komputer, bez kabli czy skomplikowanych procedur. Najlepiej sprawdzają się modele SDHC albo SDXC, bo dają więcej miejsca na dłuższe nagrania w lepszej jakości. Z mojego doświadczenia wynika, że zapis na kartę SD jest stabilny nawet przy dużych plikach WAV czy FLAC, a do tego nie wymaga specjalnej konfiguracji. Standardy, jak SD Association, dbają o kompatybilność i bezpieczeństwo danych – to spory atut w branży. Karta SD to też rozwiązanie praktyczne, bo sprzęt przenośny musi być lekki i niezawodny, a duży dysk twardy czy pendrive zwyczajnie by się nie sprawdziły. Dla osób pracujących z dźwiękiem mobilnie, karta SD od dawna jest takim standardem, jak baterie w latarce – po prostu musi być.

Pytanie 2

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitową.
B. dostępną przepływność bitową.
C. średnią przepływność bitową.
D. zmienną przepływność bitową.
Tryb CBR, czyli Constant Bit Rate, faktycznie oznacza zastosowanie stałej przepływności bitowej podczas konwersji do formatu MP3. To dosyć popularny wybór, zwłaszcza gdy mamy na myśli np. emisję radiową czy archiwizację plików audio na nośnikach o ograniczonej pojemności – płyty CD, stare odtwarzacze MP3 czy nawet niektóre streamy w sieci. W CBR każda sekunda dźwięku kodowana jest zawsze z tą samą liczbą bitów, niezależnie od tego, czy w danym fragmencie utworu jest dużo szczegółów czy akurat jest cisza lub prosty dźwięk. Pozwala to łatwo przewidzieć końcowy rozmiar pliku i utrzymać stałe wymagania transferowe, co bywa kluczowe np. w sieciach o ograniczonej przepustowości. W praktyce branżowej CBR stosuje się też wtedy, gdy zależy nam na kompatybilności – część starszych urządzeń obsługuje wyłącznie nagrania CBR i może mieć problem z innymi trybami. Oczywiście, CBR nie zawsze zapewnia tak dobrą jakość jak VBR (zmienna przepływność), bo czasem "przepłaca" za fragmenty proste, ale za to jest przewidywalny i stabilny. Spotkałem się z tym, że ludzie wybierają CBR nawet w podcastach, żeby nie było niespodzianek z długością pliku. Jeśli komuś zależy na przewidywalności i prostocie, to CBR jest sensownym wyborem – i dokładnie dlatego ta odpowiedź jest prawidłowa.

Pytanie 3

Jak nazywa się dodanie do struktury pliku dźwiękowego informacji w formie tekstowej?

A. Opisanie.
B. Oflagowanie.
C. Otagowanie.
D. Oznaczenie.
Dodanie do pliku dźwiękowego informacji tekstowych, takich jak tytuł, wykonawca, album czy rok wydania, nazywa się właśnie otagowaniem. Ten proces polega na zapisaniu w metadanych pliku odpowiednich znaczników, które później mogą być odczytywane przez odtwarzacze muzyczne czy aplikacje katalogujące muzykę. Najpopularniejsze standardy to ID3 (stosowany głównie w plikach MP3), Vorbis Comments (dla plików OGG i FLAC) czy APE tags. Takie otagowanie umożliwia nie tylko wygodne zarządzanie biblioteką muzyczną, ale też automatyczne tworzenie playlist, sortowanie według artystów czy wyszukiwanie po gatunku muzycznym. Z mojego doświadczenia warto od razu po pobraniu czy nagraniu dźwięku zadbać o poprawne tagi, bo potem łatwiej uniknąć chaosu w zbiorach. Praktycznie każda profesjonalna produkcja muzyczna dba o kompletność i dokładność tagów – to standard branżowy. Często spotyka się sytuację, że pliki pobrane z internetu nie mają prawidłowych tagów i wtedy trzeba je samodzielnie uzupełnić, np. używając programów takich jak Mp3tag czy MusicBrainz Picard. Sumując, otagowanie jest kluczowe, jeśli zależy nam na uporządkowanej i łatwo dostępnej kolekcji utworów.

Pytanie 4

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Korekty barwy poszczególnych śladów.
B. Wzmocnienia cichych fragmentów nagrania.
C. Ustalenia panoramy śladów.
D. Ustalenia poziomów głośności śladów.
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 5

Które z wymienionych okien służy do zarządzania regionami umiejscowionymi na ścieżkach sesji DAW?

A. Mix.
B. Clips.
C. Undo History.
D. Piano Roll.
Okno Clips to naprawdę bardzo istotny element każdego nowoczesnego DAW-a, bo właśnie tutaj wszystko się dzieje, jeśli chodzi o zarządzanie regionami czy fragmentami nagrań poukładanymi na ścieżkach. Gdy tworzysz muzykę albo miksujesz podcast, to najczęściej manipulujesz tzw. klipami, które mogą być MIDI, audio, czasem jeszcze automatyzacją. To właśnie w oknie Clips możesz przesuwać, kopiować, skracać, dzielić albo scalać te regiony – to podstawa pracy na timeline. Moim zdaniem, bez znajomości tego narzędzia ciężko cokolwiek sensownego stworzyć, bo to tu powstaje układ utworu, aranżacja i wstępny montaż. Producenci DAW-ów dbają, żeby obsługa Clips była intuicyjna i szybka, bo wiadomo – każdemu zależy na płynnej pracy. W praktyce, jak masz wokal nagrany w kilku podejściach, to właśnie w oknie Clips wybierzesz najlepsze fragmenty, zsynchronizujesz je i rozplanujesz w kontekście całego utworu. Takie zarządzanie regionami jest też zgodne z workflow obowiązującym praktycznie we wszystkich profesjonalnych studiach. Praktyka pokazuje, że nawet w pracy nad reklamą czy podcastem okno Clips daje największą kontrolę nad przebiegiem projektu. Z mojego doświadczenia wynika, że kto szybko opanuje pracę z regionami w tym oknie, ten później robi miks z zamkniętymi oczami. Warto też dodać, że coraz więcej DAW-ów pozwala na zaawansowane operacje na regionach właśnie w tym widoku, np. grupowanie, kolorowanie czy szybkie przypisywanie nazw, co mocno pomaga w porządkowaniu większych sesji.

Pytanie 6

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. EDIT
B. TRACK
C. EVENT
D. VIEW
Funkcja dodawania nowych ścieżek w sesji DAW praktycznie zawsze ukryta jest pod menu TRACK. To już taki standard, który powtarza się w prawie każdym programie do produkcji muzyki – od prostych, jak Audacity, po zaawansowane typu Cubase, Logic czy Pro Tools. Moim zdaniem, to jest super intuicyjne, bo w końcu „track” to po angielsku właśnie ścieżka, a o to chodzi. Kiedy chcesz powiększyć liczbę ścieżek – audio, MIDI, instrumentów wirtualnych – zawsze szukaj tej opcji właśnie w menu TRACK. W praktyce daje to ogromną elastyczność podczas pracy nad projektem: można szybko dodać dodatkowe ścieżki do nagrywania wokali, warstw instrumentów albo na przykład efektów specjalnych. W większości DAW funkcja „Add Track”, „New Track” czy podobna pozwala od razu określić typ ścieżki (audio/MIDI/aux/bus itd.), co bardzo przyspiesza workflow. Według mnie to jeden z tych elementów, które naprawdę ułatwiają życie i nie ma sensu tego szukać po innych menu. Tak jest zresztą w dokumentacjach, tutorialach czy nawet na forach – wszyscy odsyłają do TRACK, bo to nie tylko wygodne, ale i zgodne z międzynarodową konwencją branżową. Warto to sobie zapamiętać, bo nawet jak przejdziesz na inny DAW, to schemat będzie niemal identyczny.

Pytanie 7

Jaka jest maksymalna pojemność karty RS-MMC?

A. 64 GB
B. 16 GB
C. 128 GB
D. 2 GB
Temat pojemności kart RS-MMC często bywa mylony z możliwościami nowszych standardów, takich jak microSDHC czy SDXC. Wiele osób zakłada, że jeżeli nowe karty pamięci potrafią pomieścić dziesiątki czy nawet setki gigabajtów danych, to stare typy kart również mogłyby to umożliwiać – niestety to nie jest prawda. RS-MMC, mimo swojego podobieństwa do kart MMC czy SD pod względem wyglądu i sposobu działania, mają bardzo ograniczone możliwości, głównie przez specyfikację techniczną i projekt kontrolerów stosowanych w tych kartach. W praktyce karty o pojemności wyższej niż 2 GB po prostu nie będą współpracować z większością sprzętu, który je obsługuje. Pojemności 16 GB, 64 GB czy 128 GB są charakterystyczne dla dużo nowszych rozwiązań – to już domena kart microSDHC i microSDXC, które mają zupełnie inną architekturę, inny protokół komunikacyjny i wymagają nowszych kontrolerów w urządzeniach. Często błędne założenie wynika z tego, że użytkownicy traktują wszystkie karty pamięci jako zamienne, sugerując się samym kształtem bądź rozmiarem, bez uwzględnienia faktycznych ograniczeń standardu. Dobrym nawykiem jest zawsze sprawdzanie oficjalnej specyfikacji urządzenia oraz karty – w przypadku RS-MMC pojemność kończy się na 2 GB i niestety nie da się tego przeskoczyć, nawet jeśli fizycznie karta większa wchodzi do slotu. Warto pamiętać, że gwałtowny rozwój technologii pamięci przenośnej to również ciągłe zmiany w standardach, a starsze urządzenia nie są w stanie korzystać z dobrodziejstw nowych pojemności.

Pytanie 8

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 7 kanałów.
B. 1 kanału.
C. 8 kanałów.
D. 5 kanałów.
Systemy wielokanałowe typu 7.1 to już taki wyższy poziom zaawansowania – nieprzypadkowo są standardem w profesjonalnych instalacjach kina domowego czy niektórych salach konferencyjnych. Oznaczenie „7.1” oznacza łącznie 8 kanałów dźwięku: siedem pełnopasmowych (czyli takich, które przenoszą całe pasmo audio) oraz jeden kanał subwoofera, odpowiedzialny za najniższe częstotliwości (tzw. LFE – Low Frequency Effects). Te siedem kanałów to standardowo: lewy, centralny, prawy, lewy surround, prawy surround, lewy tylny surround, prawy tylny surround. Subwoofer nie jest liczony jako „pełny” kanał, stąd ten „.1”. Moim zdaniem, 7.1 to już coś dla ludzi, którzy naprawdę cenią sobie efekt przestrzenności – przy grach komputerowych albo filmach akcji robi ogromną różnicę, bo dźwięki dosłownie otaczają słuchacza. W profesjonalnych zastosowaniach, jak miksowanie ścieżek w studiu czy mastering filmowy, 7.1 stało się całkiem popularne, bo pozwala na bardzo precyzyjne rozmieszczenie dźwięków. Często spotyka się też w kinach domowych, sprzętach typu amplituner AV z obsługą różnych kodeków przestrzennych (np. Dolby Digital EX, DTS-HD Master Audio). Warto pamiętać, że do pełnego wykorzystania 7.1 trzeba nie tylko odpowiedniego sprzętu, ale i odpowiednio przygotowanego materiału dźwiękowego. Często, jeśli źródło jest „tylko” 5.1, amplituner rozprowadza sygnał na dodatkowe głośniki, ale to już nie to samo co natywne 7.1. Fajnie wiedzieć takie rzeczy, bo to podstawa w każdej pracy z dźwiękiem.

Pytanie 9

Który z wymienionych sposobów opisu osi czasu w sesji programu DAW oznacza, że oś wyskalowana jest w próbkach?

A. Samples
B. Frames
C. Bars
D. Seconds
Odpowiedź „Samples” to faktycznie właściwy wybór, bo w profesjonalnych programach DAW (czyli Digital Audio Workstation) oś czasu skalowana właśnie w próbkach daje najdokładniejszą kontrolę nad nagraniem czy edycją dźwięku. Próbka (sample) to najmniejszy fragment cyfrowego dźwięku – taka pojedyncza wartość amplitudy zapisana w bardzo krótkim odstępie czasu, zależnie od częstotliwości próbkowania. Dla przykładu, przy typowych ustawieniach 44,1 kHz (standard w muzyce), każda sekunda dźwięku to aż 44 100 próbek! W praktyce praca na osi „Samples” przydaje się zwłaszcza tam, gdzie liczy się chirurgiczna precyzja: np. przy edycji transjentów, usuwaniu klików, automatyzacji efektów typu glitch czy nawet synchronizacji różnych ścieżek z dokładnością co do pojedynczej próbki. Warto wiedzieć, że edytowanie w tej skali pozwala uniknąć artefaktów, które mogłyby powstać przy mniej precyzyjnym ustawieniu siatki. Branżowe standardy, zwłaszcza w masteringu i przy pracy z materiałem do broadcastu czy filmu, często wymagają pracy właśnie w próbce, gdy czas lub „frame” nie wystarczą do uzyskania pełnej kontroli. Z mojego doświadczenia wynika, że osoby początkujące rzadko korzystają z tego trybu, ale im bardziej zaawansowana produkcja, tym częściej się do tego wraca. Nawet drobna przesunięcie ścieżki o kilka próbek potrafi całkiem zmienić brzmienie miksu. Dobrą praktyką w studiu jest zawsze sprawdzać, czy precyzja edytora odpowiada wymaganiom projektu – bez świadomości co to są sample, trudno robić naprawdę profesjonalny dźwięk.

Pytanie 10

Jeśli w dokumentacji montażowej należy wskazać docelowy format pliku stereo z przeplotem, należy użyć określenia

A. interleaved.
B. surround.
C. stereo.
D. multi mono.
Poprawnie wskazałeś, że w kontekście dokumentacji montażowej docelowy format pliku stereo z przeplotem to właśnie „interleaved”. W branży audio- wideo to określenie odnosi się do plików, gdzie kanały lewy i prawy są zapisywane naprzemiennie, czyli próbka z lewego kanału, potem z prawego, potem znowu z lewego i tak dalej. Taki sposób zapisu jest standardem np. w plikach WAV lub AIFF i ułatwia odtwarzanie oraz eksport do profesjonalnych stacji roboczych DAW typu Pro Tools czy Cubase. Często spotyka się to w sytuacji, gdy zależy nam na kompatybilności z różnymi programami oraz sprzętem studyjnym. Co ciekawe, niektóre systemy edycyjne domyślnie generują takie właśnie pliki, bo łatwiej potem obsłużyć stereo i nie trzeba każdorazowo łączyć dwóch osobnych ścieżek. Moim zdaniem, świadomość czym różni się „interleaved” od „multi mono” albo „surround” to podstawa jeżeli ktoś poważnie myśli o pracy z profesjonalnym dźwiękiem. Z mojego doświadczenia wynika też, że wielu początkujących montażystów bagatelizuje te niuanse, a potem ich praca ląduje na poprawkach, bo format pliku nie był zgodny z założeniami projektu. Warto więc zawsze upewnić się, że klient czy producent oczekuje pliku interleaved, nie innego.

Pytanie 11

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SDHC
B. SDXC
C. SD
D. SD A1
SDXC to aktualnie karta o największej pojemności spośród wymienionych standardów. W branży przyjęło się, że karty SDXC zaczynają się od 64 GB i mogą teoretycznie sięgać aż 2 TB, choć praktycznie na rynku spotyka się najczęściej do 1 TB. Moim zdaniem to szczególnie ważne, jeśli ktoś pracuje z filmami w wysokiej rozdzielczości czy dużą liczbą zdjęć RAW – tam każda dodatkowa gigabajty robią różnicę. Warto pamiętać, że SDXC to nie tylko pojemność, ale też często wyższa szybkość transferu danych, zgodna z najnowszymi urządzeniami (np. aparaty 4K, rejestratory dźwięku czy laptopy do edycji multimediów). Oczywiście, żeby w pełni wykorzystać możliwości tej karty, sprzęt musi być zgodny ze standardem SDXC – starsze urządzenia mogą jej po prostu nie rozpoznać, co czasem użytkownicy przeoczają. Z mojego doświadczenia wynika, że w nowoczesnym workflow, gdzie pliki ważą coraz więcej a czas transferu jest kluczowy, SDXC to standard branżowy. W przypadku profesjonalnych kamer, dronów czy nawet konsol do gier, inwestycja w SDXC naprawdę się opłaca. Dodatkowo karty te często posiadają lepsze zabezpieczenia przed błędami czy uszkodzeniem danych, co w codziennej pracy doceni każdy, komu zależy na bezpieczeństwie informacji.

Pytanie 12

Której z komend należy użyć w przypadku konieczności cofnięcia operacji w programie edycyjnym?

A. Back
B. Rew
C. Undo
D. Redo
Undo to jedna z tych komend, które praktycznie pojawiają się w każdym programie edycyjnym – od prostego edytora tekstu po zaawansowane narzędzia graficzne czy środowiska programistyczne. Jej podstawowe zadanie to cofnięcie ostatniej operacji, czyli przywrócenie poprzedniego stanu pliku lub projektu. Dzięki temu użytkownik może bezpiecznie eksperymentować, bo wie, że w razie czego zawsze da się wrócić o krok (albo kilka) do tyłu. Moim zdaniem to jeden z fundamentów ergonomii pracy z oprogramowaniem – trudno sobie dziś wyobrazić efektywną edycję czegokolwiek bez tej funkcjonalności. W standardach branżowych, takich jak HIG (Human Interface Guidelines), Undo jest obowiązkową funkcją, a jej skrót klawiszowy (najczęściej Ctrl+Z albo Cmd+Z na Macu) jest już chyba totalnym klasykiem. Często Undo działa w połączeniu z Redo (do ponownego wykonania cofniętej akcji), co daje pełną kontrolę nad historią zmian. Praktyczny przykład? Kiedy przypadkowo usuniesz ważny fragment tekstu w Wordzie czy Photoshopie, po prostu wciskasz Undo i gotowe – wszystko wraca na swoje miejsce. To naprawdę ogromna oszczędność czasu i gwarancja bezpieczeństwa pracy.

Pytanie 13

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. reverb.
B. de-esser.
C. ogranicznik.
D. time stretch.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 14

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.0
B. 2.1
C. 1.1
D. 2.2
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 15

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Split
B. Mute
C. Copy
D. Lock
Funkcja „Mute” to jedna z tych opcji, bez których trudno sobie wyobrazić pracę w jakimkolwiek poważniejszym DAW-ie. Służy ona konkretnie do wyciszania wybranych regionów, ścieżek czy pojedynczych klipów, bez potrzeby ich usuwania lub przesuwania. To bardzo wygodne, kiedy chcemy sprawdzić, jak brzmiałby miks bez danego elementu albo po prostu czasowo wyłączyć fragment aranżacji. Mute nie kasuje danych, więc zawsze da się wrócić do pierwotnej wersji – co jest zgodne z zasadami niedestrukcyjnej edycji, które są już standardem w branży muzycznej. Moim zdaniem ta funkcja potrafi naprawdę przyspieszyć proces twórczy, bo pozwala eksperymentować bez ryzyka utraty materiału. Używając Mute, możesz na przykład szybko sprawdzić, jak sekcja rytmiczna radzi sobie bez konkretnego perkusyjnego loopa albo jak wypada wokal solo bez wsparcia chórków – to ogromnie praktyczne, szczególnie gdy dopiero szukasz kierunku dla swojego utworu. W większości DAW-ów, jak Ableton Live, Logic Pro czy Pro Tools, opcja Mute jest łatwo dostępna pod ręką i często także przypisana do wygodnego skrótu, bo inżynierowie zdają sobie sprawę, jak kluczowa jest elastyczność na tym etapie produkcji. Z mojego doświadczenia wynika, że regularne korzystanie z Mute pomaga zachować porządek w sesji i minimalizuje chaos związany z ciągłym przesuwaniem czy wycinaniem regionów, co niepotrzebnie wydłuża pracę.

Pytanie 16

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 50 GB
B. 200 GB
C. 25 GB
D. 100 GB
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.

Pytanie 17

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 4
B. 8
C. 14
D. 3
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 18

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. próbek opisanych jednym bitem.
B. bitów na sekundę w transmisji danych.
C. próbek na sekundę w transmisji danych.
D. bitów dostępnych do opisu każdej próbki sygnału.
Często spotyka się pewne nieporozumienia wokół pojęcia rozdzielczości bitowej, zwłaszcza w kontekście sygnałów cyfrowych. Wiele osób myli ją z innymi parametrami, takimi jak liczba próbek na sekundę (częstotliwość próbkowania) czy przepływność (bity na sekundę), które odnoszą się do zupełnie innych aspektów transmisji i przetwarzania sygnałów. Rozdzielczość bitowa nie opisuje liczby próbek, ani tego, ile bitów przesyłamy w ciągu sekundy, lecz mówi o tym, ile bitów przeznaczamy na zapis jednej próbki sygnału. To kluczowe, bo decyduje o tym, jak dokładnie możemy odwzorować poziomy sygnału analogowego w postaci cyfrowej. W praktyce, ograniczenie rozdzielczości bitowej skutkuje większym błędem kwantyzacji, czyli tzw. szumem kwantyzacji – co szczególnie słychać np. w niskiej jakości nagraniach dźwiękowych lub w obrazach z małą głębią kolorów. Przepływność (bity na sekundę) jest ważna w transmisji danych, bo określa, ile informacji przesyłamy w jednostce czasu, ale to nie to samo co rozdzielczość próbki. Z kolei liczba próbek na sekundę, czyli częstotliwość próbkowania, decyduje, z jaką szczegółowością czasową rejestrujemy sygnał – ale nie mówi nic o tym, jak precyzyjnie odwzorowujemy wartości amplitudy każdej próbki. Moim zdaniem, błędne utożsamianie tych pojęć wynika najczęściej z pobieżnego podejścia do tematu lub zbyt ogólnych informacji w źródłach popularnonaukowych. W praktycznych zastosowaniach, np. przy konfiguracji sprzętu audio czy doborze przetworników analogowo-cyfrowych, takie nieporozumienia mogą prowadzić do złych wyborów sprzętowych, co potem przekłada się na jakość końcową systemu. Dlatego warto dokładnie wiedzieć, co znaczy rozdzielczość bitowa i jakie ma ona znaczenie w cyfrowym przetwarzaniu sygnałów.

Pytanie 19

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 256 kb/s (48 kHz)
B. 32 kb/s (12 kHz)
C. 320 kb/s (48 kHz)
D. 64 kb/s (24 kHz)
Parametry 320 kb/s i 48 kHz to obecnie praktycznie najwyższy poziom jakości, jaki można uzyskać w formacie MP3. Im wyższy bitrate, tym więcej danych na sekundę przeznaczonych jest na odwzorowanie dźwięku, dzięki czemu mniej informacji zostaje utraconych podczas kompresji stratnej. 320 kb/s to granica, powyżej której już nie uzyska się lepszej jakości dźwięku w tym standardzie – tak to po prostu działa, bo sam MP3 na więcej nie pozwala. Częstotliwość próbkowania 48 kHz jest też bardzo istotna – to właśnie ona decyduje o tym, jak szerokie spektrum częstotliwości zostanie zapamiętane (czyli ile szczegółów zachowa się w wysokich tonach). Co ciekawe, 48 kHz jest często spotykana w branży filmowej oraz profesjonalnej postprodukcji audio, a 44,1 kHz to bardziej standard płyt CD. Z mojego doświadczenia, jeśli komuś zależy na możliwie najlepszym brzmieniu w plikach MP3 – np. do archiwizacji kolekcji muzyki, przygotowania podkładów pod filmy czy po prostu dla własnej satysfakcji słuchowej – to właśnie te parametry będą optymalne. Oczywiście, są formaty lepsze: FLAC czy WAV, ale wtedy nie mówimy już o MP3. Warto pamiętać, że ustawianie niższego bitrate'u albo niższego próbkowania to zawsze kompromis – oszczędność miejsca kosztem jakości. Generalnie, jeśli nie ogranicza Cię pojemność dysku czy transfer, stawiaj zawsze na 320 kb/s i 48 kHz, bo to jest dobry standard nawet wśród profesjonalistów.

Pytanie 20

LTC, VITC, MTC to niektóre z formatów

A. kodeka MPEG.
B. kodu czasowego.
C. plików projektu DAW.
D. plików dźwiękowych bez kompresji.
LTC, VITC i MTC to trzy najważniejsze formaty kodu czasowego wykorzystywane w profesjonalnych zastosowaniach audio-wideo. To właśnie za ich pomocą synchronizuje się różne urządzenia – na przykład magnetofony wielośladowe, miksery cyfrowe, rekordery czy systemy montażowe w studiu filmowym. Każdy z tych formatów ma swoje konkretne zastosowania: LTC (Linear Time Code) to kod czasowy zapisany liniowo jako sygnał analogowy, często wykorzystywany na taśmach magnetycznych lub przesyłany kablem. VITC (Vertical Interval Time Code) wpisywany jest bezpośrednio w niewidoczną część sygnału wizyjnego, co umożliwia odczyt nawet przy bardzo niskich prędkościach odtwarzania. MTC (MIDI Time Code) bazuje na protokole MIDI i służy głównie w środowiskach muzycznych oraz DAW-ach do synchronizacji programów i urządzeń. Moim zdaniem zrozumienie różnic pomiędzy tymi trzema kodami czasowymi to absolutna podstawa dla każdego, kto chce profesjonalnie zajmować się dźwiękiem lub postprodukcją wideo. W praktyce, jeżeli np. synchronizujesz nagrania z kilku kamer albo chcesz, żeby automat do efektów światła chodził równo z dźwiękiem, kod czasowy to jedyne sensowne rozwiązanie. W branży stosuje się te standardy od dekad – bez nich trudno wyobrazić sobie profesjonalne studio czy plan filmowy.

Pytanie 21

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. sekundę.
C. ramkę.
D. godzinę.
Druga para cyfr w zapisie kodu czasowego SMPTE oznacza minuty – to jest właśnie ten fragment kodu, który pokazuje, ile minut upłynęło od początku nagrania. Standard SMPTE (czyli Society of Motion Picture and Television Engineers) przyjął czteroparowy format zapisu: gg:mm:ss:ff – godzina, minuta, sekunda, klatka. Moim zdaniem bez tej wiedzy bardzo łatwo się pogubić, pracując przy montażu wideo czy zgraniach wielościeżkowych. Wyobraź sobie sytuację podczas postprodukcji filmu: reżyser zaznacza ci, że kluczowa scena zaczyna się dokładnie w 00:42:15:12 – i od razu wiadomo, że to 42 minuta, 15 sekunda i 12 klatka. To pomaga idealnie zsynchronizować obraz z dźwiękiem, podmieniać efekty, a nawet dogrywać muzykę, szczególnie jeśli korzystasz z profesjonalnych programów, jak Pro Tools czy Adobe Premiere. Standard SMPTE jest stosowany dosłownie wszędzie w branży telewizyjnej, filmowej czy nawet podczas transmisji na żywo, bo precyzyjne oznaczanie czasu pozwala uniknąć błędów w montażu. Z mojego doświadczenia – warto to mieć w małym palcu, bo gdy liczy się każda sekunda, to te minuty w kodzie czasowym naprawdę robią robotę. Fajnie jest też wiedzieć, że niektóre starsze systemy używały różnych separatorów lub nawet innych kolejności, ale w praktyce branżowej od dekad króluje właśnie to rozwiązanie.

Pytanie 22

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 35 MB
C. 15 MB
D. 45 MB
Temat szacowania rozmiaru plików audio .wav, szczególnie o wysokiej częstotliwości próbkowania i głębi bitowej, bywa mylący – łatwo tu o błędne założenia. Wiele osób zakłada, że wyższa jakość oznacza tylko nieco większy rozmiar, jednak skala rośnie bardzo szybko. Często spotykam się z myśleniem, że wartości typu 15 MB lub 25 MB wystarczą na minutę nagrania stereo w wysokiej rozdzielczości – niestety to typowy błąd wynikający z porównania do plików skompresowanych, np. MP3 czy AAC. WAV nie używa kompresji, więc przechowuje absolutnie wszystkie próbki każdego kanału, co mocno odbija się na wielkości pliku. Przyjęcie wartości 45 MB to z kolei przesada, która może wynikać z machinalnego przeszacowania albo pomylenia parametrów (np. zakładając 32 bity zamiast 24, albo myląc minuty z godzinami). W praktyce, jeśli chodzi o audio studyjne, standardowe wzory zawsze dotyczą: częstotliwości próbkowania razy głębia bitowa razy liczba kanałów razy liczba sekund, a potem dzielimy przez 8, żeby uzyskać bajty, i przez 1024 dwa razy – żeby mieć megabajty. To nie jest aż tak trudne, ale rzeczywiście łatwo przeoczyć, jak szybko objętość rośnie. W codziennej pracy studyjnej często trzeba szacować miejsce na dysku przed dużą sesją nagraniową – błędna ocena sprawia, że kończy się na braku miejsca albo niepotrzebnym przepłacaniu za zbyt wielkie nośniki. Warto też pamiętać, że popularne konwertery audio i programy DAW podają rozmiary plików już podczas eksportu – to podpowiedź, z której warto korzystać. Osobiście uważam, że znajomość tych zależności bardzo pomaga ogarnąć logistykę pracy z dźwiękiem na wysokim poziomie.

Pytanie 23

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 64 dB
B. 96 dB
C. 128 dB
D. 144 dB
Maksymalna teoretyczna dynamika dźwięku możliwa do uzyskania przy rozdzielczości 24-bitowej to właśnie 144 dB. Wynika to z tego, że każdy pojedynczy bit rozdzielczości daje nam około 6 dB zakresu dynamicznego – czyli różnicy między najcichszym a najgłośniejszym możliwym sygnałem, który system potrafi obsłużyć bez zniekształceń. Przy 24 bitach to 24 x 6 dB, co daje właśnie 144 dB. Takie wartości są wykorzystywane zwłaszcza w profesjonalnych środowiskach audio, gdzie miksowanie, mastering albo nagrywanie na żywo wymaga jak najczystszego sygnału i jak największego zapasu ('headroomu'). Oczywiście, w praktyce większość urządzeń audio nie osiąga aż tak wysokiej dynamiki ze względu na szumy elektroniki oraz ograniczenia przetworników, ale właśnie format 24-bitowy jest wykorzystywany wszędzie tam, gdzie chodzi o jakość, na przykład w studiach nagraniowych czy podczas produkcji muzyki filmowej. Moim zdaniem zawsze warto pamiętać, że duża rozdzielczość bitowa to nie tylko lepsza jakość, ale i większa swoboda podczas cyfrowej obróbki dźwięku – łatwiej uniknąć niechcianych przesterów i artefaktów. Branżowy standard DAW-ów czy profesjonalnych kart dźwiękowych to już praktycznie zawsze 24 bity, bo to daje możliwość uzyskania właśnie takiego szerokiego zakresu dynamiki.

Pytanie 24

Jakiej najmniejszej liczby płyt CD-R należy użyć do zapisania 3-godzinnego nagrania w standardzie CD-Audio?

A. 2 płyt.
B. 4 płyt.
C. 3 płyt.
D. 5 płyt.
Odpowiedź jest prawidłowa, bo standardowa płyta CD-R przeznaczona do nagrywania muzyki w formacie CD-Audio ma pojemność około 80 minut. To jest taki typowy, powszechny nośnik, który obsługują praktycznie wszystkie odtwarzacze. Jeśli mamy nagranie trwające 3 godziny (czyli 180 minut), to łatwa matematyka – dzielimy 180 minut przez 80 minut, wychodzi 2,25. Oczywiście nie da się nagrać częściowo na płycie, więc musimy zaokrąglić w górę do pełnych nośników – czyli potrzeba 3 płyt CD-R. To podejście jest zgodne z branżowymi standardami, bo nie ma co upychać danych na siłę albo stosować formatów typu MP3, jeśli chodzi o CD-Audio. Trzeba pamiętać, że format CD-Audio wymaga określonej jakości (44,1 kHz, 16 bitów, stereo), więc nie da się tam wrzucić więcej muzyki poprzez kompresję stratną – jak na pendrive’a czy płytę danych. W praktyce w studiach nagraniowych czy nawet w radiu zawsze liczy się tak właśnie – przeliczając na minuty i dobierając liczbę płyt. Warto też wiedzieć, że stosowanie kilku płyt jest normalną praktyką przy dłuższych materiałach, a użytkownicy domowi po prostu robią składanki na kilku krążkach. Moim zdaniem takie zadania dobrze pokazują, że te podstawowe parametry nośników to podstawa przy planowaniu archiwizacji czy kopiowania muzyki.

Pytanie 25

Rodzaj kodeka użytego przy konwersji pliku dźwiękowego można rozpoznać

A. po nazwie.
B. po rozszerzeniu nazwy.
C. po czasie trwania.
D. po rozmiarze.
Rozszerzenie nazwy pliku to w praktyce najprostszy i najczęściej spotykany sposób na szybkie rozpoznanie, jaki kodek został użyty do zakodowania danego pliku dźwiękowego. Przykładowo, rozszerzenie .mp3 niemal zawsze oznacza, że plik został zakodowany z użyciem kodeka MPEG-1 Layer III (popularnie znanego jako MP3), natomiast .flac wskazuje na bezstratny kodek FLAC, a .aac to zazwyczaj kodek Advanced Audio Coding. W codziennej pracy technika informatyk czy nawet zwykłego użytkownika, spojrzenie na rozszerzenie pliku pozwala szybko ocenić, jakie programy mogą go odtworzyć lub jakie urządzenia będą z nim kompatybilne. Warto pamiętać, że rozszerzenie nie zawsze jest stuprocentowo pewnym wskaźnikiem - plik można nazwać dowolnie, ale w praktyce większość systemów operacyjnych i programów trzyma się tej konwencji, bo to ułatwia życie. Moim zdaniem rozszerzenia są jednym z podstawowych narzędzi rozpoznawania formatu pliku, zwłaszcza w środowiskach Windows czy Linux, gdzie asocjacje plików są oparte właśnie na nich. W branży multimedialnej to rozszerzenie jest pierwszym miejscem, gdzie zaglądasz, chcąc szybko się dowiedzieć, z czym masz do czynienia. Oczywiście, dla pełnej pewności warto czasem skorzystać z narzędzi typu MediaInfo, które jeszcze dokładniej pokażą, jakim kodekiem plik został zakodowany, ale na co dzień rozszerzenie po prostu wystarcza. Standardy organizacji takich jak ISO/IEC lub ITU rekomendują utrzymywanie spójności rozszerzeń plików, co jeszcze bardziej podkreśla wagę tej metody w praktyce.

Pytanie 26

W jaki sposób należy ustawić panoramę dwóch sygnałów monofonicznych, aby uzyskać całkowitą separację przestrzenną tych sygnałów?

A. L0 R0
B. L100 R100
C. L50 L100
D. R50 R100
Ustawienie panoramy dwóch sygnałów monofonicznych na L100 oraz R100 to klasyczne rozwiązanie, które pozwala osiągnąć maksymalną separację przestrzenną w systemie stereo. Co to właściwie znaczy? L100 oznacza pełne wychylenie panoramy na lewo, a R100 — na prawo. W praktyce realizatorskiej jest to jeden z najprostszych sposobów, żeby dwa niezależne dźwięki nie nakładały się na siebie w środku obrazu stereo i każdy z nich zajął „swoją własną” przestrzeń w miksie. Dzięki temu odbiorca słyszy wyraźnie rozdzielone źródła dźwięku — na przykład dwie gitary, wokale lub inne instrumenty — i nie ma wrażenia, że dźwięki się mieszają. Taka technika jest często stosowana w miksie perkusji, kiedy np. hi-hat idzie mocno w lewo, a ride w prawo, żeby uzyskać poczucie szerokości sceny. Moim zdaniem, w sytuacjach, gdzie zależy nam na czytelności i selektywności, takie hard-panning jest wręcz niezastąpione. Oczywiście, warto uważać, bo przesadne korzystanie z tej metody może sprawić, że miks zabrzmi nienaturalnie w mono lub na głośnikach niesymetrycznych, ale w większości nowoczesnych produkcji to standardowa praktyka. Branżowe normy, jak choćby te stosowane w broadcastingu czy nagraniach koncertowych, wręcz zalecają takie ustawienia dla uzyskania maksymalnej rozdzielczości przestrzennej.

Pytanie 27

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 10 MB
C. Około 20 MB
D. Około 1 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 28

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 0,2 ms
B. 0,02 ms
C. 20 ms
D. 2 ms
Odpowiedź 0,02 ms jest prawidłowa, bo przy częstotliwości próbkowania 48 kHz każda próbka pojawia się co dokładnie 1/48000 sekundy. Jeśli przeliczyć to na milisekundy, wychodzi 0,020833... ms – w praktyce zwykle zaokrągla się do 0,02 ms. To bardzo krótki czas, ale pozwala uzyskać wysoką jakość nagrania, bo zgodnie z zasadą Nyquista da się poprawnie zapisać dźwięki o częstotliwościach do połowy tej wartości, czyli do 24 kHz. To wyższa granica niż ludzkie ucho jest w stanie wychwycić, ale taki sampling stosuje się w profesjonalnym audio, produkcji muzyki, nagraniach filmowych czy transmisjach telewizyjnych. Moim zdaniem właśnie to rozróżnia domowe systemy (często 44,1 kHz jak w CD) od zastosowań profesjonalnych, gdzie 48 kHz to taki złoty standard. Sam kiedyś myślałem, że wyższa częstotliwość próbkuje „lepiej”, ale różnice są subtelne – kluczowe jest, żeby próbki były pobierane odpowiednio szybko w stosunku do najwyższych dźwięków, które chcemy zarejestrować. W praktyce, jak miksujesz dźwięk albo przygotowujesz podcast, to 0,02 ms między próbkami daje Ci ogromną precyzję, zwłaszcza przy obróbce czy edycji. Dla porównania, przy 44,1 kHz odstęp to ok. 0,0227 ms – niewiele więcej, ale w broadcastingu te kilka tysięcznych też ma znaczenie. Warto o tym pamiętać, bo w pracy z cyfrowym audio taka matematyka bardzo się przydaje.

Pytanie 29

Który z procesorów umożliwia zmianę właściwości przestrzennych nagrania?

A. Reverb.
B. Wibrato.
C. Pitchshifter.
D. Tremolo.
Procesor Reverb, czyli pogłos, to podstawowe narzędzie używane w realizacji dźwięku do kształtowania przestrzenności nagrania. Dzięki niemu możemy uzyskać wrażenie, że źródło dźwięku znajduje się w określonym pomieszczeniu – czy to w małym pokoju, wielkiej hali koncertowej, kościele albo dowolnie zaprojektowanej przestrzeni. Moim zdaniem żadna inna wtyczka nie daje takiego szerokiego wachlarza możliwości w tym zakresie jak właśnie Reverb. W praktyce, dość często używa się go do „osadzenia” instrumentów w miksie, nadania im głębi albo nawet zamaskowania pewnych niedoskonałości nagrania. Z mojego doświadczenia dobry pogłos sprawia, że miks brzmi bardziej naturalnie, mniej sucho i sterylnie, ale jednocześnie daje kontrolę nad rozmiarem, odległością czy nawet wysokością źródła dźwięku w obrazie stereo. Fachowcy zwracają uwagę, żeby nie przesadzać – zbyt duża ilość pogłosu może zniszczyć selektywność miksu. Dobre praktyki przewidują stosowanie różnych typów pogłosów na różnych śladach, by uzyskać możliwie realistyczny efekt akustyczny. Reverb jest też podstawą w przestrzennym dźwięku filmowym czy grach komputerowych. Wystarczy porównać suchy wokal z wokalem z pogłosem – różnica robi wrażenie nawet na laikach!

Pytanie 30

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 3 dB
B. o 12 dB
C. o 6 dB
D. o 9 dB
W pytaniu chodziło o to, jak bardzo trzeba stłumić sygnał, żeby moc sygnału wyjściowego spadła dokładnie o połowę. Częstym błędem jest utożsamianie decybeli z bezpośrednią zmianą głośności lub mylenie tłumienia napięcia z tłumieniem mocy. W rzeczywistości decybel (dB) jest skalą logarytmiczną, a nie liniową, więc każda zmiana o określoną liczbę dB nie przekłada się wprost na „połowę” lub „dwa razy więcej” w naszym codziennym rozumieniu. Zanotuj, że spadek o 6 dB powoduje zmniejszenie napięcia sygnału o połowę, ale mocy już o cztery razy, co jest sporym nieporozumieniem wśród początkujących realizatorów. Natomiast tłumienie o 9 dB czy 12 dB to już bardzo poważne redukcje mocy – 9 dB to około osiem razy mniej mocy, a 12 dB to aż szesnaście razy mniej. Tak silne tłumienie w miksie praktycznie „chowa” sygnał w tle lub wręcz go usuwa, co rzadko jest pożądane przy zwykłym balansowaniu śladów. Z mojego doświadczenia wynika, że taka pomyłka wynika z nieznajomości formuły na obliczanie decybeli: dB = 10 * log10(P2/P1) dla mocy i dB = 20 * log10(U2/U1) dla napięcia. Wielu ludzi myli te dwa przypadki, co prowadzi do uproszczonych i błędnych odpowiedzi. W branży zawsze warto pamiętać, że 3 dB tłumienia mocy to połowa, a przy napięciu ten sam efekt daje 6 dB – i to rozróżnienie jest kluczowe przy ustawianiu poziomów w DAW czy systemach nagłośnieniowych.

Pytanie 31

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. dBFS
B. AU
C. dBp
D. LUFS
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 32

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. DVD + R SL
B. CD – R DL
C. DVD – R DL
D. CD + R SL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 33

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. SAVE
B. CLOSE
C. NEW
D. OPEN
Opcja OPEN w menu FILE w oprogramowaniu typu DAW (Digital Audio Workstation) służy właśnie do przywoływania wcześniej zapisanych sesji. To absolutna podstawa pracy z każdym projektem muzycznym czy dźwiękowym. Kiedy pracujesz nad utworem, miksujesz albo obrabiasz nagrania, całość zapisujesz w pliku sesji – i żeby do niej wrócić, używasz właśnie polecenia OPEN. W praktyce wygląda to tak: zamykasz DAW, wracasz za kilka dni, chcesz kontynuować miks lub poprawić aranżację – wybierasz FILE → OPEN, wskazujesz plik, program ładuje całą sesję łącznie z ustawieniami, ścieżkami, efektami i automatyzacją. Moim zdaniem, ogarnięcie tej funkcji to taki całkowity must-have – bez niej nie da się wydajnie pracować. OPEN jest też standardem branżowym, zawsze pod tym poleceniem szukamy opcji otwierania plików projektowych, niezależnie czy używasz Cubase, Reapera czy Pro Tools. Dobra praktyka to regularne zapisywanie sesji pod różnymi nazwami, żeby potem móc łatwo je przywołać przez OPEN i ewentualnie wrócić do wcześniejszych wersji projektu. To pozwala uniknąć utraty ważnych etapów pracy i daje większą kontrolę nad historią zmian.

Pytanie 34

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. MIDI
B. AUDIO
C. AUX
D. INSTRUMENTS
Ścieżka AUX w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, jest od lat podstawą do obsługi efektów typu send/return, zwłaszcza pogłosów czy delayów. Wysyłka sygnału na AUX oznacza, że nie musisz instancjonować efektu pogłosowego osobno na każdej ścieżce – wystarczy jedna instancja pogłosu na AUX, a poszczególne kanały wysyłają do niej sygnał przez sendy. To nie tylko ułatwia miksowanie, ale też znacznie oszczędza zasoby komputera, bo nie kopiujesz tego samego efektu kilka razy. Bardzo często ustawia się tam też kompresory równoległe czy efekty modulacyjne, zależnie od potrzeb miksu. Moim zdaniem, to absolutna podstawa workflow w miksie – praktycznie każdy szanujący się realizator pracuje z AUX-ami. Daje to spójną przestrzeń pogłosową dla wszystkich ścieżek, co brzmi znacznie bardziej naturalnie. Warto też wiedzieć, że w nomenklaturze niektórych DAW AUX może być nazywany jako Bus lub Return, ale funkcja pozostaje ta sama. Dobrą praktyką branżową jest też zostawianie sobie kilku AUX-ów na różne typy pogłosów (np. krótszy na wokal, dłuższy na instrumenty). Taki routing pozwala mieć pełną kontrolę nad ilością efektu na każdej ścieżce i daje mega swobodę kreatywną w miksie.

Pytanie 35

„Fade In – 100 ms” oznacza płynne

A. wyciszenie dźwięku, trwające 1/10 sekundy.
B. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
C. wyciszenie dźwięku, trwające 1/100 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
Fade In to taki proces, w którym dźwięk startuje od ciszy i stopniowo narasta do pełnej głośności – dokładnie tak, jak przy otwieraniu drzwi do głośnego pokoju. Parametr „100 ms” oznacza, że całe to przejście trwa 1/10 sekundy, czyli bardzo krótko, ale w praktyce wystarczająco, by uniknąć charakterystycznego kliku czy nieprzyjemnego przesterowania na początku pliku dźwiękowego. W profesjonalnych programach do edycji audio jak Pro Tools czy Cubase, fade in ustawiamy właśnie po to, żeby wejście dźwięku było płynne i naturalne, a nie nagłe i szarpane. Takie wstawianie fade’ów to nie tylko kwestia wygładzenia, ale też standard w branży dźwiękowej, zwłaszcza przy montażu dialogów, efektów czy muzyki do filmu. Moim zdaniem, nawet w amatorskich produkcjach nie powinno się zostawiać ostrych wejść, bo to później słychać – i to dość wyraźnie. Dobrą praktyką jest testowanie różnych długości fade in, lecz przy szybkim materiale 100 ms najczęściej sprawdza się świetnie, bo nie psuje dynamiki, a jednak zabezpiecza przed zniekształceniami. Z mojego doświadczenia, im krótszy fade in, tym bardziej subtelny efekt – ale zawsze zostaje ten miły efekt wygładzenia początku dźwięku, co jest szczególnie ważne przy miksowaniu na żywo czy masteringu. Pamiętaj, że fade in to nie tylko efekt „estetyczny”, ale wręcz fundament przy obróbce audio, bez którego trudno osiągnąć profesjonalne brzmienie.

Pytanie 36

Maksymalna częstotliwość próbkowania obsługiwana przez współczesne interfejsy audio to

A. 192 kHz
B. 48 kHz
C. 96 kHz
D. 384 kHz
Wiele osób uważa, że zakresy 48 kHz, 96 kHz czy nawet 192 kHz to maksimum, jakie da się wycisnąć z nowoczesnych interfejsów audio, bo są to wartości bardzo często spotykane w codziennej pracy z dźwiękiem. Jednak branża rozwija się bardzo szybko i coraz częściej na rynku pojawiają się interfejsy, które obsługują próbkowanie aż do 384 kHz. Myślę, że częsty błąd to utożsamianie standardów używanych w studiu (np. 48 kHz w produkcji wideo albo 44,1 kHz na CD) z faktycznymi możliwościami sprzętu – a przecież interfejsy często oferują dużo wyższe wartości, żeby zapewnić rezerwę jakościową, szczególnie w kontekście profesjonalnej rejestracji czy zaawansowanej postprodukcji. Warto pamiętać, że wyższa częstotliwość próbkowania nie zawsze oznacza lepsze brzmienie dla ludzkiego ucha, bo po przekroczeniu pewnej granicy różnice są minimalne lub wręcz niesłyszalne, ale chodzi tu o techniczne możliwości i elastyczność pracy. Osobiście spotkałem się z przekonaniem, że 192 kHz to już „kosmos” i nikt więcej nie potrzebuje, ale coraz więcej interfejsów, szczególnie tych przeznaczonych dla wymagających użytkowników, pozwala na 384 kHz. To nie jest jeszcze nowy standard rynkowy, tylko raczej opcja dla tych, którzy chcą nagrywać w najwyższej możliwej rozdzielczości – np. do archiwizacji materiałów albo eksperymentów dźwiękowych. Takie wartości są już w normach AES i innych organizacji branżowych, choć w praktyce wystarczają mniejsze próbkowania. Chociaż więc 48, 96 i 192 kHz są najbardziej wykorzystywane, to nie odpowiadają współczesnym możliwościom sprzętu na najwyższym poziomie. Sugerowanie się tylko najpopularniejszymi ustawieniami prowadzi do błędnego przekonania o ograniczeniach technologicznych, które w rzeczywistości są znacznie szersze.

Pytanie 37

Który z podanych nośników umożliwia magnetooptyczny zapis dźwięku?

A. Płyta DVD
B. Dysk MD
C. Dysk SSD
D. Płyta CD
Dysk MD, czyli MiniDisc, to bardzo ciekawy nośnik, który wykorzystywał technologię magnetooptyczną do zapisu i odczytu dźwięku. Co to właściwie znaczy? Zapis na MD polegał na kombinacji działania lasera i pola magnetycznego – dane audio były zapisywane poprzez miejscowe podgrzewanie powierzchni dysku laserem, a następnie zmienianie jej właściwości magnetycznych. To pozwalało na wielokrotny zapis i kasowanie, co w tamtych czasach, szczególnie pod koniec lat 90., było sporą innowacją dla użytkowników sprzętu audio. W praktyce MiniDiski wykorzystywano głównie w profesjonalnych i półprofesjonalnych nagraniach audio, np. przez dziennikarzy radiowych czy muzyków do tworzenia tzw. masterów. Moim zdaniem, pod tym względem MD był jakby prekursorem późniejszych rozwiązań cyfrowych, bo dawał wygodę wielokrotnego zapisu bez utraty jakości, czego nie oferowały tradycyjne kasety magnetofonowe. Warto też wspomnieć, że standard MD był rozwijany przez Sony i zastosował kompresję ATRAC, co było zgodne z ówczesnymi trendami optymalizowania nośników audio. W branży często chwalono MD za trwałość zapisu i odporność na zakłócenia mechaniczne, co sprawia, że do dziś kolekcjonerzy sprzętu audio uznają go za wartościowy kawałek historii.

Pytanie 38

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 4 ścieżki.
B. 2 ścieżki.
C. 8 ścieżek.
D. 6 ścieżek.
W nagraniach binauralnych zawsze pracujemy na dwóch ścieżkach – lewej i prawej. To nie przypadek, tylko konsekwencja samej zasady działania tej techniki. Źródło dźwięku rejestruje się za pomocą dwóch mikrofonów umieszczonych w „uszy” sztucznej głowy lub specjalnych wkładek dousznych. Każda ścieżka to osobny kanał – lewy i prawy, które razem tworzą naturalne wrażenie przestrzenne podczas odsłuchu na słuchawkach. Moim zdaniem to niesamowite, bo taki montaż pozwala słuchaczowi dosłownie znaleźć się „w środku” nagrania. W praktyce, żeby przygotować prawidłowy montaż binauralny, nie ma co kombinować z dodatkowymi ścieżkami, bo cała magia polega właśnie na tym, że są tylko dwie – każda oddaje inną perspektywę ucha. Tak robi się to zarówno w nagraniach profesjonalnych (np. dźwiękowe gry VR, słuchowiska), jak i amatorskich eksperymentach. Dobre praktyki podkreślają, żeby nie rozdzielać ani nie mieszać kanałów w postprodukcji, bo wtedy efekt przestrzenny znika. Standard branżowy jest prosty: dwa mikrofony, dwie ścieżki, zero kompromisów. Dla kogoś, kto pierwszy raz pracuje z tą techniką, może to być zaskakujące, bo czasami przy innych systemach surround trzeba montować nawet osiem czy więcej ścieżek. W binauralu jednak liczy się dokładność i naturalność, więc wystarczają te dwa kanały. I to w sumie jest piękne w swojej prostocie.

Pytanie 39

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. REDO
B. COPY
C. PASTE
D. UNDO
Funkcja UNDO jest podstawowym narzędziem w każdym programie DAW (Digital Audio Workstation), które pozwala na cofnięcie ostatnio wykonanej operacji edycyjnej. To trochę jak zabezpieczenie przed pomyłkami – wystarczy jedno skrócenie klawiszowe, najczęściej Ctrl+Z, i ostatnia czynność znika, a projekt wraca do wcześniejszego stanu. Ja sam ciągle z tego korzystam, zwłaszcza podczas szybkiej edycji ścieżek, kiedy łatwo coś przypadkiem usunąć lub przesunąć. UNDO działa praktycznie wszędzie – czy to cięcie klipu, przesuwanie nut w MIDI, czy nawet zmiana parametrów efektów. W większości DAW można też wielokrotnie cofać kolejne kroki, a historia edycji pozwala szybko naprawić dłuższą serię błędów. To jest taki must-have, bez którego praca nad muzyką byłaby dużo bardziej stresująca i czasochłonna. Swoją drogą, w profesjonalnych workflow zawsze poleca się korzystanie z UNDO zamiast ręcznego poprawiania, bo to nie tylko szybciej, ale i bezpieczniej. Warto też pamiętać, że cofnięcie operacji często działa nie tylko dla edycji dźwięku, ale też dla zmian w automatyce, aranżacji czy nawet we wtyczkach. No i przy dużych projektach UNDO ratuje skórę, gdy przez przypadek zamkniesz sobie pół aranżu. Tak po ludzku – lepiej kilka razy za dużo kliknąć UNDO, niż potem żałować straconej pracy.

Pytanie 40

Aby szybko zlokalizować początki kolejnych utworów zmasterowanych do nagrania w formacie CD-Audio, najlepiej jest wykonać spis

A. fade’ów.
B. setów.
C. znaczników.
D. linków.
Wybranie znaczników jako właściwej odpowiedzi pokazuje zrozumienie, jak rzeczywiście działa profesjonalny mastering i authoring płyt CD-Audio. Znaczniki (ang. track markers lub index markers) to specjalnie umieszczone punkty na ścieżce, które informują odtwarzacz CD o początku każdego kolejnego utworu. Dzięki nim sprzęt audio od razu wie, gdzie zaczyna się dana piosenka i może „przeskoczyć” dokładnie tam, gdzie chcemy. Takie znaczniki umieszcza się już na etapie masteringu, często w oprogramowaniu DAW albo dedykowanych aplikacjach do authoringu CD. Moim zdaniem bez tych znaczników każda płyta brzmi po prostu mniej profesjonalnie, a użytkownik traci wygodę obsługi, bo trzeba przewijać. Standard Red Book (czyli ten, który definiuje CD-Audio) jasno precyzuje, że każda ścieżka musi mieć swój własny początek oznaczony właśnie takim markerem. Warto pamiętać, że przy dużych projektach, gdzie na jednym nośniku mamy kilkanaście czy kilkadziesiąt kawałków, bez tych znaczników nawet najlepszy materiał zwyczajnie się „gubi”. Z mojego doświadczenia praktycznego wynika, że dobrze wstawione znaczniki to podstawa kontroli jakości oraz wygody słuchacza. W branży muzycznej i wszędzie tam, gdzie liczy się precyzja i profesjonalizm, znaczniki są absolutnym must-have. Jeśli ktoś przygotowuje płytę do tłoczenia, to spis znaczników to naprawdę podstawa dokumentacji dla tłoczni.