Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 20:19
  • Data zakończenia: 30 kwietnia 2026 20:24

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SD
B. SDXC
C. SD A1
D. SDHC
SDXC to aktualnie karta o największej pojemności spośród wymienionych standardów. W branży przyjęło się, że karty SDXC zaczynają się od 64 GB i mogą teoretycznie sięgać aż 2 TB, choć praktycznie na rynku spotyka się najczęściej do 1 TB. Moim zdaniem to szczególnie ważne, jeśli ktoś pracuje z filmami w wysokiej rozdzielczości czy dużą liczbą zdjęć RAW – tam każda dodatkowa gigabajty robią różnicę. Warto pamiętać, że SDXC to nie tylko pojemność, ale też często wyższa szybkość transferu danych, zgodna z najnowszymi urządzeniami (np. aparaty 4K, rejestratory dźwięku czy laptopy do edycji multimediów). Oczywiście, żeby w pełni wykorzystać możliwości tej karty, sprzęt musi być zgodny ze standardem SDXC – starsze urządzenia mogą jej po prostu nie rozpoznać, co czasem użytkownicy przeoczają. Z mojego doświadczenia wynika, że w nowoczesnym workflow, gdzie pliki ważą coraz więcej a czas transferu jest kluczowy, SDXC to standard branżowy. W przypadku profesjonalnych kamer, dronów czy nawet konsol do gier, inwestycja w SDXC naprawdę się opłaca. Dodatkowo karty te często posiadają lepsze zabezpieczenia przed błędami czy uszkodzeniem danych, co w codziennej pracy doceni każdy, komu zależy na bezpieczeństwie informacji.

Pytanie 2

Aby wprowadzić plik audio z dysku twardego komputera do wielościeżkowego edytora dźwięku, należy użyć funkcji

A. play.
B. eksport.
C. save.
D. import.
Wybrałeś import i to jest dokładnie to, co powinno się zrobić, kiedy chcemy przenieść plik audio z dysku do projektu w edytorze wielościeżkowym. Funkcja „import” jest jednym z podstawowych narzędzi w każdym profesjonalnym oprogramowaniu do obróbki dźwięku, takim jak Cubase, Audacity, Reaper czy Pro Tools. Pozwala ona wprowadzić do projektu istniejące pliki – najczęściej WAV, MP3, AIFF, FLAC, OGG i inne formaty audio. Z mojego doświadczenia wynika, że korzystanie z importu gwarantuje, że plik zostanie poprawnie załadowany, z zachowaniem parametrów takich jak częstotliwość próbkowania czy długość trwania. Co więcej, funkcja importu często umożliwia wybór ścieżki docelowej, konwersję formatu albo automatyczne dopasowanie pliku do projektu. To zdecydowanie najbezpieczniejszy sposób na rozpoczęcie pracy z zewnętrznymi materiałami dźwiękowymi. W branży muzycznej i postprodukcyjnej stosuje się tę funkcję niemal codziennie, bo pozwala ona na szybkie rozszerzanie sesji o nowe elementy – sample, nagrania lektorskie, ścieżki instrumentalne. Po prostu, bez importu nie da rady sensownie pracować na kilku ścieżkach z różnymi źródłami dźwięku. Takie podejście jest absolutnym standardem w świecie cyfrowej obróbki audio.

Pytanie 3

Którą opcję edycyjną należy zastosować w celu dopasowania długości regionu na ścieżce w sesji programu DAW do zaznaczonego fragmentu?

A. Trim
B. Select
C. Separate
D. Paste
Trim to jedna z tych funkcji, które w DAW-ach są absolutną podstawą podczas edycji regionów audio lub MIDI. Za jej pomocą możesz bardzo szybko przyciąć początek lub koniec wybranego fragmentu, idealnie dopasowując długość regionu do konkretnego zakresu, który sobie zaznaczyłeś – na przykład pod aranżację, wokal czy nawet krótką próbkę perkusyjną. To jest mega wygodne, bo nie musisz przesuwać całego regionu czy bawić się w wycinanie, tylko po prostu łapiesz za krawędź i dopasowujesz do granicy selekcji. W większości programów pokroju Ableton Live, Cubase, Pro Tools czy Logic, właśnie przycinanie (trim) jest zalecane jako pierwszy krok przy porządkowaniu ścieżek. Moim zdaniem to też najbezpieczniejsza metoda, bo zachowujesz oryginalny materiał – po prostu odsłaniasz lub ukrywasz fragmenty nagrania, bez destrukcyjnej edycji. To się też świetnie sprawdza, kiedy musisz ułożyć kilka regionów jeden za drugim, żeby nie było żadnych przerw czy nakładek. W praktyce, stosowanie narzędzia „trim” umożliwia szybkie dopasowanie długości regionu do punktów markerów, automatyzacji czy nawet siatki projektu. Branżowe workflow poleca właśnie takie podejście, bo minimalizuje chaos i pozwala na bardzo szybkie korekty już w trakcie pracy nad aranżem.

Pytanie 4

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce dźwiękowej, aby całkowicie wypełnić przestrzeń do początku taktu piątego?

A. 1 raz.
B. 2 razy.
C. 4 razy.
D. 3 razy.
W tej sytuacji, żeby całkowicie wypełnić przestrzeń od początku pierwszego do początku piątego taktu, musisz powielić region pierwszego taktu dokładnie 3 razy. Pierwszy region masz już na początku, a potem dokładasz trzy kolejne, żeby zapełnić takty od drugiego do czwartego - wtedy kończysz dokładnie na początku taktu piątego. W praktyce, przy pracy z DAW czy innym edytorem muzycznym, to powielanie regionów taktami jest podstawą przy tworzeniu loopów, szablonów rytmicznych czy baz harmonicznych. Często w produkcji muzycznej loopuje się fragmenty, żeby szybko zbudować strukturę utworu. Z mojego doświadczenia, wielu początkujących myśli, że do piątego taktu trzeba np. cztery powielenia, ale wtedy region zahacza już o szósty takt, przez co robi się chaos w aranżacji. Po prostu – startujesz z jednym regionem, powielasz 3 razy i masz równo cztery takty pokryte, co jest zgodne z dobrymi praktykami pracy w DAW, jak Ableton, Cubase czy FL Studio. Takie podejście pozwala zachować porządek w projekcie i unikać przypadkowych nakładek, co w branży jest naprawdę kluczowe, szczególnie przy pracy z klientami czy w większych zespołach. Dobrze to sobie przećwiczyć na kilku różnych utworach, żeby zrozumieć, jak działa powielanie regionów pod kątem długości taktów i całych fraz muzycznych.

Pytanie 5

W celu minimalizacji aliasingu podczas konwersji A/C sygnału fonicznego zawierającego częstotliwości składowe z pasma akustycznego 20 Hz - 20 kHz, wartość częstotliwości próbkowania powinna wynosić minimalnie

A. 40 kHz
B. 30 kHz
C. 10 kHz
D. 20 kHz
Dobrze zauważone, że właśnie 40 kHz powinno być minimalną częstotliwością próbkowania przy digitalizacji sygnału fonicznego obejmującego całe pasmo słyszalne, czyli od 20 Hz do 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał, bez efektu aliasingu, częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości w sygnale. W praktyce dla audio, gdzie najwyższa słyszalna częstotliwość to 20 kHz, oznacza to właśnie 40 kHz. Co ciekawe, standard Compact Disc Audio przyjął jeszcze nieco wyższą wartość: 44,1 kHz, żeby zostawić zapas na niefiltrowane składowe i ograniczyć możliwość zakłóceń. Moim zdaniem, w pracy z dźwiękiem, zawsze warto pamiętać o zapasie powyżej minimum, bo rzeczywiste filtry antyaliasingowe nie są idealne i przepuszczają trochę sygnału poza swoim zakresem. W zastosowaniach profesjonalnych coraz częściej spotyka się próbkowanie na poziomie 48 kHz, a nawet 96 kHz, ale minimalnie – zgodnie z teorią – to właśnie 40 kHz. To dobry przykład, jak teoria matematyczna przekłada się bezpośrednio na wymagania sprzętowe i standardy w branży dźwiękowej.

Pytanie 6

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. WAV
B. RIFF
C. FLAC
D. MP3
Format MP3 to chyba najpowszechniejszy przykład kodowania stratnego w świecie plików audio. Cała idea polega na tym, że dane dźwiękowe są kompresowane w taki sposób, by plik był dużo mniejszy niż oryginał, a dla przeciętnego słuchacza jakość brzmiała prawie identycznie z oryginałem – szczególnie przy wyższych bitrate'ach. Kluczowe jest tutaj to, że MP3 wykorzystuje psychoakustykę, czyli usuwa te fragmenty dźwięku, których ludzki słuch i tak najprawdopodobniej by nie wychwycił. To sprawia, że pliki MP3 są idealne do przechowywania muzyki na urządzeniach mobilnych, wysyłania przez internet czy wykorzystywania w serwisach streamingowych. Standard ISO/IEC 11172-3 dokładnie opisuje, jak ta kompresja ma wyglądać, by zachować jak najlepszą równowagę między wielkością pliku a jakością dźwięku. Z mojego doświadczenia w pracy z dźwiękiem mogę powiedzieć, że MP3 to nie jest format dla audiofilów, ale do codziennego słuchania sprawdza się znakomicie. W praktyce nadal ma ogromne zastosowanie, chociaż coraz częściej wypierany jest przez nowsze rozwiązania jak AAC czy Ogg Vorbis, które dają lepszą jakość przy podobnym rozmiarze pliku. Warto pamiętać, że kodowanie stratne jest kluczowe w sytuacjach, gdzie zależy nam na oszczędności miejsca lub szybkości transmisji – na przykład przy podcastach, muzyce w serwisach internetowych czy dzwonkach telefonicznych.

Pytanie 7

Zakłócenia, w postaci podmuchów wiatru, na nagraniu należy redukować poprzez użycie

A. bramki szumów.
B. filtru dolnoprzepustowego.
C. kompresora.
D. ekspandera.
Filtr dolnoprzepustowy to podstawowe narzędzie w walce z podmuchami wiatru podczas obróbki nagrań audio. Tego typu zakłócenia charakteryzują się tym, że zawierają głównie niskie częstotliwości – często są to właśnie te buczenia i szumy słyszalne w tle, gdy mikrofon rejestruje gwałtowne ruchy powietrza. W praktyce, stosowanie filtru dolnoprzepustowego (zwanego też high-pass filter) pozwala odciąć te najniższe, niepożądane pasma, zostawiając czystszy dźwięk i bardziej czytelny głos. Najczęściej ustawia się taki filtr w okolicach 80–120 Hz, chociaż to mocno zależy od nagrania i typu głosu. Moim zdaniem to wręcz standard przy rejestracji w plenerze lub nawet w studiu przy problemach z popami i innymi zakłóceniami mechanicznymi. Warto pamiętać, że profesjonalne mikrofony lub rejestratory często mają taki filtr już wbudowany – szanujące się studia i realizatorzy dźwięku praktycznie zawsze korzystają z tej funkcji. Dodatkowo, korzystanie z pop-filtrów czy gąbek nie rozwiąże wszystkiego, więc obróbka cyfrowa z użyciem filtru dolnoprzepustowego jest nieodzowna. Taki zabieg nie tylko poprawia komfort słuchania, ale też pozwala zachować naturalność i profesjonalny charakter nagrania, bo nie wycina pasm istotnych dla barwy głosu, jeśli jest umiejętnie ustawiony. W branży audio to jedno z absolutnie podstawowych narzędzi, bez którego trudno wyobrazić sobie skuteczną walkę z niechcianymi podmuchami.

Pytanie 8

Typowo stosowaną jednostką przepływności bitowej cyfrowego dźwięku zapisanego w pliku .mp3 jest

A. kB/s
B. kb/s
C. MB/s
D. kB/ms
Prawidłową jednostką przepływności bitowej w przypadku plików .mp3 jest właśnie kb/s, czyli kilobity na sekundę. Moim zdaniem to dość logiczne – format .mp3 służy kompresji dźwięku cyfrowego, a to, jak szybko przesyłane są bity, decyduje o jakości i wielkości pliku. Im większa przepływność wyrażona właśnie w kb/s (na przykład 128 kb/s, 192 kb/s czy 320 kb/s), tym teoretycznie lepsza jakość dźwięku, ale i większy plik. Producenci sprzętu audio, programów odtwarzających muzykę i serwisów streamingowych wszędzie stosują ten sam zapis – kb/s. Co ciekawe, to jest standard nie tylko dla .mp3, ale też dla ogółu formatów audio, które kompresują dane, jak AAC czy OGG. Branżowo prawie nikt nie używa tu bajtów na sekundę, bo tu się wszystko kręci wokół bitów – to one są podstawą przy kodowaniu i kompresji sygnału audio. W praktyce, gdy np. wybierasz jakość muzyki do pobrania ze Spotify czy innego serwisu, zawsze zobaczysz wartości typu 96 kb/s, 160 kb/s – właśnie te liczby opisują przepływność bitową. Tak się już utarło w całym świecie IT i multimediów.

Pytanie 9

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Decay.
B. Diffusion.
C. Predelay.
D. Type.
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 10

Który z przedstawionych formatów pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .ogg
B. .wav
C. .alac
D. .omf
Format pliku .ogg jest związany z kodekiem stratnym, najczęściej wykorzystującym kompresję Vorbis. Ogg Vorbis to uznany w środowisku branżowym sposób na redukcję wielkości plików audio przy zachowaniu stosunkowo wysokiej jakości dźwięku. Moim zdaniem to jeden z najlepszych wyborów, jeśli zależy komuś na bezpłatnym i otwartym standardzie, bez ograniczeń patentowych jak w przypadku MP3. Praktycznie każdy gracz, radio internetowe czy podcast korzystał kiedyś z OGG właśnie po to, by zoptymalizować transfer bez wyraźnej utraty wierności odsłuchu. Co ciekawe, format ten jest popularny w środowisku open source, zwłaszcza w grach komputerowych i aplikacjach linuksowych, bo tam nikt nie chce płacić za MP3. Pliki OGG są też wygodne do strumieniowania, co znacznie odciąża serwery, a użytkownicy nie narzekają na jakość dźwięku. Warto ogarniać różnice pomiędzy stratnymi a bezstratnymi kodekami – jeśli ktoś archiwizuje lub miksuje muzykę, to raczej nie korzysta z OGG, ale do codziennego słuchania, podcastów czy dystrybucji online – ten format naprawdę daje radę. Eksperci zwracają uwagę, że dobór kodeka powinien zależeć od przeznaczenia pliku, a OGG to świetna opcja do multimediów na co dzień.

Pytanie 11

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.mp3
B. *.flac
C. *.aiff
D. *.ogg
Plik *.aiff jest rzeczywiście najbliższym odpowiednikiem pliku .wav, jeśli chodzi o sposób przechowywania dźwięku. Oba formaty – WAV (Waveform Audio File Format) oraz AIFF (Audio Interchange File Format) – to tzw. pliki nieskompresowane, czyli zapisujące dźwięk w postaci surowych próbek PCM (Pulse-Code Modulation). Różnią się głównie pochodzeniem – WAV to standard kojarzony z systemami Windows, natomiast AIFF powstał z myślą o komputerach Apple. W praktyce, zarówno WAV, jak i AIFF są szeroko stosowane w profesjonalnej produkcji muzycznej, obróbce dźwięku czy studiach nagraniowych, właśnie dlatego, że nie tracą jakości sygnału podczas zapisu i odczytu. Moim zdaniem, jeśli ktoś pracuje na Macu, to AIFF jest niemal domyślnym wyborem przy eksporcie ścieżek audio, a w środowisku Windows najczęściej korzysta się z WAV. Dobrą praktyką jest korzystanie z tych formatów przy masteringu lub archiwizacji, zanim zacznie się kompresować pliki na potrzeby np. internetu. Warto wiedzieć, że oba formaty wspierają różne częstotliwości próbkowania i głębokości bitowe, chociaż w codziennych zastosowaniach najczęściej używa się 44,1 kHz i 16 bitów. Z mojego doświadczenia, to właśnie AIFF i WAV są najbardziej kompatybilne z różnymi aplikacjami DAW (Digital Audio Workstation), więc wybieranie ich to po prostu dobry nawyk branżowy.

Pytanie 12

„Fade In – 100 ms” oznacza płynne

A. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
D. wyciszenie dźwięku, trwające 1/10 sekundy.
Fade In – 100 ms to bardzo typowe określenie wykorzystywane w branży audio, zwłaszcza podczas pracy z nagraniami w programach typu DAW czy nawet przy montażu ścieżek w radiu lub telewizji. Oznacza to, że dźwięk nie pojawia się od razu w pełnej głośności, tylko przez 100 milisekund jest stopniowo zwiększany z ciszy do zaprogramowanego poziomu. 1/10 sekundy – bo właśnie tyle to jest 100 ms – to taki minimalny czas, żeby uniknąć tzw. „kliknięcia” albo nagłego szarpnięcia dźwięku, co potrafi być bardzo nieprzyjemne dla słuchacza. Często w studiach nagraniowych stosuje się fade in nawet dłuższy dla wokali lub instrumentów, ale te 100 ms to dobry kompromis, jeśli chcemy uniknąć artefaktów, a jednocześnie nie opóźniać zanadto wejścia dźwięku. Moim zdaniem, kto raz na żywo usłyszał różnicę z i bez fade in, ten już zawsze będzie z tego korzystał – to taki audiofilowy „must have”. Warto też pamiętać, że Fade In to przeciwieństwo Fade Out (wygaszania dźwięku), a oba te procesy są kluczowe w profesjonalnej realizacji dźwięku, bo pozwalają na znacznie bardziej przyjemny odbiór nagrań. Ogólnie w branży uznaje się, że odpowiednie stosowanie przejść fazowych i automatyki głośności to prawdziwy znak fachowca. Z mojego doświadczenia: jeśli masz wątpliwość, czy robić fade in – zrób, bo zwykle poprawia to odbiór całości.

Pytanie 13

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. EVENT
B. TRACK
C. EDIT
D. VIEW
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 14

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. BPF
B. LPF
C. HPF
D. HSF
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ układu, w którym najczęściej reguluje się dobroć, czyli współczynnik Q. Dobroć (Q) definiuje, jak wąskie lub szerokie jest pasmo przepuszczania filtru – im wyższa wartość Q, tym filtr bardziej selektywny, a jego charakterystyka ostrzejsza. Moim zdaniem, w praktyce to jest szalenie istotne, kiedy projektujesz np. aktywne korektory barwy dźwięku, filtry w układach analogowych syntezatorów albo systemy pomiarowe. W aplikacjach audiofilskich czy DSP często wymaga się bardzo precyzyjnego tłumienia określonych częstotliwości, więc możliwość regulacji dobroci jest naprawdę przydatna. Filtry BPF można też znaleźć w komunikacji radiowej do wyodrębniania wąskich kanałów pasma. W wielu układach, np. w popularnym filtrze typu Sallen-Key, parametr Q bardzo łatwo modyfikować doborem odpowiednich elementów. Dobroć nie jest kluczowa dla LPF (Low Pass Filter) czy HPF (High Pass Filter), bo one mają tylko jedno zbocze, a nie wyodrębniają sygnału wąskiego pasma. Standardy projektowania takich filtrów często podkreślają znaczenie regulacji Q w BPF do adaptacji filtru pod konkretne zastosowanie, co zdecydowanie ułatwia życie inżynierom.

Pytanie 15

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W znacznikach.
B. W harmonogramie produkcji.
C. W skrypcie.
D. W komentarzu reżyserskim.
Za docelowe nazwy plików dźwiękowych w projekcie multimedialnym najczęściej odpowiada właśnie skrypt. Chodzi tu oczywiście o scenariusz techniczny lub plik kontrolujący, w którym precyzyjnie opisuje się, jakie ścieżki dźwiękowe, efekty czy dialogi powinny znaleźć się w finalnej wersji produktu. Skrypt jest podstawą komunikacji między dźwiękowcem, montażystą a resztą zespołu produkcyjnego. Z mojego doświadczenia wynika, że dobrze napisany skrypt zawiera nie tylko nazwy techniczne plików, ale także szczegóły dotyczące momentów użycia tych dźwięków, czasami nawet format czy dokładną lokalizację na serwerze produkcyjnym. Mało kto o tym pamięta, ale stosując takie podejście zgodnie z praktykami branżowymi (np. przy pracy w środowiskach postprodukcyjnych typu Pro Tools czy Adobe Audition), łatwiej zachować porządek i unikać bałaganu w archiwum projektu. W dużych zespołach, zwłaszcza przy projektach filmowych czy grach, jasna dokumentacja w skrypcie to oszczędność setek godzin późniejszego szukania plików. Warto też dodać, że standardy branżowe zalecają wersjonowanie i stosowanie jasnych, logicznych nazw, a to wszystko można ustalić właśnie w skrypcie na samym początku pracy. Takie planowanie to po prostu zdrowy rozsądek i mniej stresu na deadline.

Pytanie 16

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 1|1|000
B. 0|0|000
C. 1|0|000
D. 0|1|000
Wskazanie 1|1|000 na liczniku BARS/BEATS w DAW faktycznie oznacza miejsce początku sesji. To dlatego, że większość programów DAW – takich jak Ableton Live, Cubase, Pro Tools czy FL Studio – przyjęła właśnie taki standard przedstawiania lokalizacji na osi czasu: pierwszy numer wskazuje takt, drugi uderzenie (beat), a trzeci tzw. tick (czyli drobna jednostka podziału taktu, czasem nazywana też sub-beatem). W praktyce, w DAW nigdy nie zobaczysz pozycji 0|0|000, bo nie istnieje taki „zerowy” takt – muzyka zawsze zaczyna się od pierwszego taktu i pierwszego uderzenia, czyli 1|1|000. To bardzo ważne przy ustawianiu markerów, punktów startu loopów, eksportu czy automatyzacji – wszystko synchronizuje się właśnie do tej pozycji. Wiesz, czasem początkujący próbują ustawić coś na „zerowym” takcie, ale wtedy DAWy po prostu nie pozwalają lub przesuwają wszystko na 1|1|000. To też miejsce, gdzie zwykle zaczynam importować ślady lub ustawiać pierwsze wejście MIDI, bo wtedy wszystko jest równo z siatką i nie ma potem problemów z przesuwaniem. Jest to też bardzo wygodne w kontekście pracy zespołowej – jeżeli ktoś wyśle Ci projekt, to możesz być pewien, że początek sesji zawsze jest w 1|1|000. Przyzwyczajenie się do tego ułatwia komunikację w branży, a także sprawia, że praca idzie sprawniej. Tak jest po prostu czytelniej i żaden szanujący się DAW nie robi tego inaczej – to taki branżowy standard, który po prostu warto znać i stosować.

Pytanie 17

Ile minut muzyki można maksymalnie zapisać na płycie CD-Audio?

A. 80 minut.
B. 100 minut.
C. 70 minut.
D. 90 minut.
80 minut to maksymalna długość nagrania na standardowej płycie CD-Audio. Wynika to bezpośrednio z ograniczeń technicznych formatu Compact Disc Digital Audio (CD-DA), który został wprowadzony w latach 80. przez Sony i Philipsa. Zgodnie ze specyfikacją Red Book (czyli podstawowym standardem dla CD-Audio), standardowa płyta CD mieści około 700 MB danych, co przekłada się na 80 minut dźwięku o jakości 16-bitowej/44,1 kHz w trybie stereo. W praktyce większość albumów muzycznych właśnie tyle zajmuje, chociaż często spotyka się płyty krótsze – to kwestia materiału źródłowego. Przekraczanie tych 80 minut nie jest zalecane, bo może to prowadzić do problemów z odczytem na niektórych odtwarzaczach. Czasem można spotkać tzw. płyty overburned, które pozwalają wcisnąć dodatkowe minuty, ale nie jest to zgodne z oficjalnymi normami i nie każdy sprzęt sobie z tym radzi. Moim zdaniem wiedza o tych limitach przydaje się, gdy samemu nagrywasz muzykę na CD – łatwo wtedy uniknąć nieprzyjemnych niespodzianek. Warto też wiedzieć, że dla archiwizacji czy masteringu branża muzyczna trzyma się właśnie tej granicy 80 minut. Tak to już technologia przewidziała – i ten limit dobrze zapamiętać.

Pytanie 18

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. MIDI EDITOR
B. EDIT
C. SCORE EDITOR
D. MIX
Score Editor to specjalistyczne okno dostępne w wielu programach typu DAW (Digital Audio Workstation), które umożliwia edytowanie zapisu nutowego, co jest wyjątkowo przydatne przy pracy z aranżacją utworów opartych na notacji klasycznej albo przy przygotowywaniu partytur dla muzyków. W praktyce, szczególnie przy rozbudowanych projektach, korzystanie ze Score Editora pozwala lepiej kontrolować strukturę muzyczną utworu – można szybko wprowadzać i poprawiać nuty, zmieniać wartości rytmiczne, dodawać artykulacje i dynamikę, praktycznie jak w prawdziwym programie do edycji partytur, np. Finale czy Sibelius. Moim zdaniem, znajomość obsługi Score Editora to spory plus dla każdego producenta czy kompozytora, szczególnie przy współpracy z instrumentalistami, bo łatwo można wygenerować gotową do wydruku partyturę. Warto dodać, że w standardach branżowych, jak np. w Cubase, Logic Pro, czy Studio One, Score Editor jest właśnie przeznaczony do edycji nut, a nie tylko MIDI czy audio – tam możemy zobaczyć ścieżki jako zapis tradycyjny, co jest nieocenione przy pracy z orkiestrą albo chórem. Osobiście bardzo doceniam taką funkcję, bo znacząco przyspiesza korektę błędów i komunikację z muzykami. W praktyce dobre opanowanie Score Editora pozwala uniknąć wielu pomyłek przy przekładaniu pomysłów z głowy na papier i potem do software’u, dlatego jest to jedno z ważniejszych narzędzi w profesjonalnym DAW.

Pytanie 19

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Equalizer.
B. Peak Master.
C. Noise gate.
D. Phaser.
Phaser to bardzo charakterystyczny efekt dźwiękowy, który rzeczywiście bazuje na modulacji fazy sygnału w określonym paśmie częstotliwości. Cała magia polega na tym, że sygnał jest rozdzielany na dwie ścieżki – jedna pozostaje niezmieniona, a druga przechodzi przez filtr all-pass, który przesuwa fazę w zależności od częstotliwości. Następnie oba sygnały są sumowane, co prowadzi do powstawania charakterystycznych efektów konstruktywnej i destruktywnej interferencji. W praktyce daje to dobrze słyszalne "przesuwanie" czy "fazowanie" w dźwięku, bardzo popularne zwłaszcza w gitarach elektrycznych czy syntezatorach – np. klasyczny efekt z muzyki rockowej lat 70. Moim zdaniem to jeden z najfajniejszych efektów, bo potrafi ożywić nawet najprostszy riff. Z punktu widzenia inżynierii dźwięku phasery są projektowane tak, by nie ingerować w głośność sygnału, a tylko modulować fazę. W branży standardem jest stosowanie phaserów właśnie w aranżacjach wymagających przestrzenności lub unikalnego "kosmicznego" brzmienia. Warto jeszcze dodać, że phaser nie jest częstotliwościowym korektorem czy urządzeniem tłumiącym – jego działanie jest unikalne, bo opiera się właśnie na manipulacji fazą, a nie na zmianie amplitudy czy tłumieniu szumów. Jeśli ktoś chce eksperymentować z barwą instrumentu, phaser daje naprawdę szerokie możliwości, a jego obsługa jest całkiem prosta nawet w domowym studio.

Pytanie 20

Które z przedstawionych rozszerzeń pliku audio wskazuje na zastosowanie kodeka stratnego?

A. .aiff
B. .omf
C. .wav
D. .mp3
Rozszerzenie .mp3 to klasyczny przykład pliku audio wykorzystującego kodek stratny. Kiedy słyszysz o plikach MP3, od razu przychodzi na myśl szybkie udostępnianie muzyki w internecie – i nie bez powodu. Format ten, oparty na standardzie MPEG-1 Audio Layer III, stosuje zaawansowane algorytmy kompresji, które celowo usuwają część informacji dźwiękowych, uznawaną przez inżynierów za mniej istotną dla ludzkiego ucha. Dzięki temu plik .mp3 jest nawet kilkanaście razy mniejszy od oryginału WAV, a większość użytkowników nie dostrzega różnicy podczas codziennego słuchania muzyki czy podcastów. Co ciekawe, w profesjonalnych studiach nagrań raczej nie korzysta się z MP3 podczas montażu dźwięku, bo każdy etap kompresji stratnej zmniejsza jakość, ale w zastosowaniach konsumenckich to absolutny standard. Szczególnie tam, gdzie liczy się szybkie przesyłanie i oszczędność miejsca na dysku – streaming, telefony, radia internetowe. Warto też wiedzieć, że standard MP3 jest wspierany praktycznie przez każde urządzenie multimedialne, co czyni go uniwersalnym wyborem. Moim zdaniem, jeśli zależy Ci na szybkim udostępnianiu nagrań lub słuchaniu muzyki w dobrej jakości, a przestrzeń i transfer mają znaczenie, .mp3 jest optymalnym rozwiązaniem. Dla osób, które chcą zrozumieć praktyczną stronę, kodeki stratne jak MP3 pozwalają na redukcję rozmiaru pliku kosztem pewnych informacji, ale bez wyraźnego pogorszenia brzmienia – przynajmniej według większości słuchaczy. To dlatego MP3 zrewolucjonizował sposób, w jaki korzystamy z dźwięku cyfrowego.

Pytanie 21

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. opisu taśmy.
B. opisu postsynchronów.
C. spisu efektów.
D. skryptu.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 22

Który z wymienionych filtrów umożliwia usunięcie niskoczęstotliwościowych zakłóceń pojawiających się w nagraniu plenerowym na skutek podmuchów wiatru na mikrofon?

A. High-Pass Filter.
B. High Shelf Filter.
C. Low-Pass Filter.
D. Comb Filter.
High-Pass Filter to absolutny standard w eliminowaniu niskoczęstotliwościowych zakłóceń, takich jak podmuchy wiatru rejestrowane przez mikrofon w terenie. Działa to w taki sposób, że filtr po prostu „odcina” wszystko, co jest poniżej ustalonej częstotliwości granicznej – najczęściej w okolicach 80–120 Hz w przypadku nagrań terenowych i pracy z głosem. Dzięki temu pozbywamy się niepożądanych dźwięków, np. dudnień, buczenia czy właśnie tych męczących uderzeń powietrza w mikrofon. To rozwiązanie spotkasz zarówno w sprzęcie studyjnym, jak i w polowych rejestratorach dźwięku, a nawet wtyczkach DAW. Moim zdaniem, jeśli ktoś planuje nagrywać na zewnątrz, to korzystanie z high-pass filtra jest trochę jak zapięcie pasów w aucie – po prostu warto. W branży zaleca się, by taki filtr był wręcz aktywowany „na stałe” przy nagrywaniu mowy lub wokalu na zewnątrz, oczywiście z zachowaniem ostrożności, żeby nie wyciąć zbyt dużo z naturalnego brzmienia. To proste narzędzie, ale jego wpływ na czystość i czytelność nagrań jest ogromny. W praktyce często wystarczy jeden klik i nagle nagranie staje się o wiele bardziej profesjonalne i przyjemne w odsłuchu. Warto też pamiętać, że niektóre mikrofony mają takie filtry wbudowane fizycznie, co jeszcze bardziej ułatwia pracę.

Pytanie 23

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Delay.
B. Ducker.
C. Declicker.
D. Expander.
Delay to naprawdę uniwersalny i bardzo często wykorzystywany efekt w produkcji dźwięku. Jego podstawową zasadą działania jest powtarzanie dźwięku po określonym czasie, co pozwala uzyskać wrażenie echa. Jednak przy odpowiednim ustawieniu – szczególnie kiedy czas opóźnienia jest idealnie dopasowany do długości próbki – delay może służyć bezpośrednio do zapętlania fragmentu audio. W praktyce, jeśli ustawisz delay tak, żeby powtarzał dźwięk w nieskończoność (feedback bliski 100%), otrzymujesz efekt podobny do looperów, które wykorzystuje się np. na koncertach albo w produkcji muzyki elektronicznej. W branży muzycznej i postprodukcyjnej delay traktuje się jako podstawowe narzędzie do kształtowania przestrzeni i kreatywnego modulowania dźwięku. Moim zdaniem, wśród wszystkich efektów studyjnych, delay daje jedne z największych możliwości eksperymentowania właśnie dzięki opcji powtarzania i nawarstwiania sygnału. Standardowo stosuje się go nie tylko do zapętlania, ale też do budowania głębi, rytmu czy nawet do fikuśnych, galopujących efektów w stylu dub czy techno. Dobrą praktyką jest testowanie różnych ustawień feedbacku i czasu opóźnienia – czasem przez przypadek można trafić na fajne, inspirujące pętle. Ważne też, żeby pamiętać, że delay z dużym feedbackiem może prowadzić do przesterowań, więc warto to mieć na oku.

Pytanie 24

Jaki przybliżony rozmiar ma nagranie stereo zapisane w formacie CD-Audio, którego długość wyrażona w kodzie czasowym SMPTE wynosi 00:01:30:00?

A. 16 MB
B. 10 MB
C. 5 MB
D. 24 MB
Właśnie o to chodziło – dla nagrania stereo o długości 1 minuty i 30 sekund (czyli 00:01:30:00 w SMPTE) zapisanej w formacie CD-Audio, rozmiar 16 MB jest najbardziej trafny. W praktyce CD-Audio korzysta z próbkowania 44,1 kHz i 16-bitowej głębi dla każdego z dwóch kanałów. To oznacza 44100 próbek na sekundę * 16 bitów (czyli 2 bajty) * 2 kanały = 176400 bajtów na sekundę. Przemnażając to przez czas nagrania (90 sekund), dostajemy 15 876 000 bajtów, co po przeliczeniu na megabajty (dzielimy przez 1 048 576) daje około 15,1 MB. Jednak w praktyce zaokrągla się to do 16 MB ze względu na nadmiarowość sektorów CD lub uproszczone kalkulacje w branży. Tak się to robi w studiach nagraniowych i przy masteringu płyt – warto znać takie przeliczniki i umieć je wykorzystać, bo planowanie przestrzeni na nośniku to wciąż ważny temat. Moim zdaniem fajnie jest pamiętać, że dźwięk nieskompresowany potrafi szybko zajmować dużo miejsca, co tłumaczy popularność kompresji w codziennym użytku. Standard CD-Audio (Red Book) od lat pozostaje wzorem przy archiwizacji i profesjonalnym przygotowaniu ścieżek dźwiękowych. Właśnie dlatego, jeśli ktoś pyta o rozmiar takiego nagrania, 16 MB to najbardziej rzetelna odpowiedź zgodna z praktyką branżową.

Pytanie 25

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. BPF
B. LF
C. HPF
D. LPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 26

Która wartość rozdzielczości bitowej nie jest dostępna w standardzie DVD-Audio?

A. 24
B. 16
C. 8
D. 20
Odpowiedź 8 bitów jako niedostępna rozdzielczość w standardzie DVD-Audio jest jak najbardziej słuszna. W praktyce format DVD-Audio został opracowany tak, żeby zapewniać znacznie wyższą jakość dźwięku niż klasyczne płyty CD. Standard definiuje trzy główne poziomy rozdzielczości bitowej: 16, 20 oraz 24 bity na próbkę. Dzięki większej liczbie bitów mamy możliwość uzyskania znacznie szerszego zakresu dynamiki dźwięku (to jest wyraźnie słyszalne przy odtwarzaniu muzyki klasycznej czy jazzowej, gdzie delikatne niuanse są istotne). 8 bitów po prostu nie daje takiej jakości – to rozdzielczość spotykana raczej w archaicznych systemach komputerowych czy bardzo prostych układach elektronicznych, gdzie jakość dźwięku nie jest najważniejsza (np. stare gry komputerowe, niektóre dzwonki w telefonach). W środowisku profesjonalnego audio 8 bitów to zdecydowanie za mało. Moim zdaniem, dobrze jest pamiętać, że dla audiofilów każdy dodatkowy bit to większa precyzja zapisu – dlatego DVD-Audio stawia na wysokie rozdzielczości, nawet kosztem objętości danych. To też pokazuje, jak bardzo branża audio dąży do jakości i wierności dźwięku. Płyty DVD-Audio z 24-bitowym kodowaniem są wykorzystywane w studiach nagraniowych czy do produkcji hi-fi, a 8-bitową rozdzielczość można w zasadzie uznać za nieprzydatną we współczesnej, ambitnej produkcji dźwięku.

Pytanie 27

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. MP3
B. WMA
C. WAV
D. FLAC
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 28

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. godzinę.
C. sekundę.
D. ramkę.
Druga para cyfr w zapisie kodu czasowego SMPTE rzeczywiście odnosi się do minut. To bardzo ważne, bo przy pracy z materiałem wideo czy audio nieprecyzyjne zarządzanie czasem może prowadzić do błędów zsynchronizowania, szczególnie przy montażu wielościeżkowym. W standardzie SMPTE timecode zapisuje się w formacie HH:MM:SS:FF (godzina:minuta:sekunda:ramka). Przykładowo, jeśli na taśmie mamy fragment oznaczony 01:23:45:12, to oznacza to dokładnie pierwszą godzinę, 23. minutę, 45. sekundę i 12. klatkę. Moim zdaniem świadomość tego układu pozwala dużo szybciej orientować się w timeline’ach podczas montażu albo synchronizacji obrazu z dźwiękiem. W praktyce operatorzy i montażyści bardzo często posługują się oznaczeniami minut, by sprawnie zaznaczać punkty cięcia lub synchronizacji, szczególnie przy dłuższych formach, gdzie sekundy i ramki nie są tak istotne, a przesunięcie np. jednej minuty mogłoby całkowicie rozjechać całą strukturę montażową. Standard SMPTE jest szeroko przyjęty na całym świecie w branży filmowej, telewizyjnej i postprodukcyjnej, więc rozumienie co oznacza każda para cyfr pomaga też przy współpracy zespołowej – każdy wie, gdzie szukać określonego momentu. W różnych programach do edycji (np. Adobe Premiere, AVID) też zawsze ta druga para to minuty, więc nie sposób tego przegapić.

Pytanie 29

Urządzenie pomiarowe służące do wizualnej prezentacji rozkładu natężenia tonów składowych dźwięku w zależności od ich częstotliwości to

A. analizator widma.
B. normalizer panoramy.
C. miernik RMS.
D. wskaźnik VU.
Analizator widma to narzędzie, bez którego trudno wyobrazić sobie poważną pracę z dźwiękiem w studiu czy podczas nagłośnień scenicznych. Jego podstawową zaletą jest to, że pozwala dosłownie zobaczyć, jak rozkładają się poszczególne częstotliwości w sygnale audio. Dzięki temu szybko można wychwycić niepożądane podbicia czy braki w określonych pasmach – co jest istotne np. przy korekcji graficznej lub parametrycznej. W praktyce analizator widma używa się zarówno podczas miksowania muzyki, jak i przy masteringu, czy nawet kalibracji systemów nagłośnieniowych w dużych salach. Niezależnie od formy – czy to jest fizyczny sprzęt, czy plugin w DAW-ie – pozwala on na bieżąco obserwować, jak zmiany wprowadzone korektorem, kompresorem albo nawet samą aranżacją przekładają się na rozkład energii w paśmie akustycznym. To jest w sumie jeden z najlepszych sposobów, by nauczyć się świadomie panować nad brzmieniem – teorii akustyki można sporo wyczytać, ale dopiero zobaczenie tego na ekranie robi różnicę. W branży przyjęło się, żeby regularnie korzystać z analizatora, bo subiektywna ocena ucha często bywa niewystarczająca, zwłaszcza w trudnych warunkach odsłuchowych lub przy pracy z materiałem o dużej dynamice. Moim zdaniem to urządzenie, które spina teorię i praktykę w jedną całość.

Pytanie 30

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. OPEN
B. CLOSE
C. SAVE
D. NEW
Opcja OPEN w menu FILE w oprogramowaniu typu DAW (Digital Audio Workstation) służy właśnie do przywoływania wcześniej zapisanych sesji. To absolutna podstawa pracy z każdym projektem muzycznym czy dźwiękowym. Kiedy pracujesz nad utworem, miksujesz albo obrabiasz nagrania, całość zapisujesz w pliku sesji – i żeby do niej wrócić, używasz właśnie polecenia OPEN. W praktyce wygląda to tak: zamykasz DAW, wracasz za kilka dni, chcesz kontynuować miks lub poprawić aranżację – wybierasz FILE → OPEN, wskazujesz plik, program ładuje całą sesję łącznie z ustawieniami, ścieżkami, efektami i automatyzacją. Moim zdaniem, ogarnięcie tej funkcji to taki całkowity must-have – bez niej nie da się wydajnie pracować. OPEN jest też standardem branżowym, zawsze pod tym poleceniem szukamy opcji otwierania plików projektowych, niezależnie czy używasz Cubase, Reapera czy Pro Tools. Dobra praktyka to regularne zapisywanie sesji pod różnymi nazwami, żeby potem móc łatwo je przywołać przez OPEN i ewentualnie wrócić do wcześniejszych wersji projektu. To pozwala uniknąć utraty ważnych etapów pracy i daje większą kontrolę nad historią zmian.

Pytanie 31

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 6
B. 4
C. 2
D. 5
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 32

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 44 100 Hz
B. 96 000 Hz
C. 32 000 Hz
D. 48 000 Hz
Zasada próbkowania, czyli twierdzenie Nyquista-Shannona, mówi jasno: aby móc poprawnie zdigitalizować sygnał analogowy, musimy próbkować go z częstotliwością co najmniej dwa razy większą niż najwyższa częstotliwość w jego widmie. Przy dźwięku o maksymalnej częstotliwości 20 kHz, to właśnie 40 kHz jest tym absolutnym minimum. Jednak w praktyce, technologia audio przyjęła nieco wyższą wartość, czyli 44 100 Hz, głównie ze względu na potrzeby zapisu na płytach CD oraz rezerwę na filtry antyaliasingowe. Gdybyśmy wybrali niższą częstotliwość, mogłyby się pojawić zniekształcenia aliasingu, które potrafią solidnie namieszać szczególnie w muzyce czy nagraniach mowy, gdzie precyzja jest kluczowa. Warto też zauważyć, że 44 100 Hz to dziś taki złoty standard – spotykany właściwie wszędzie, od odtwarzania muzyki po produkcję materiałów do internetu. Z mojego doświadczenia wynika, że niższe próbkowania bardzo szybko ujawniają swoje ograniczenia, nawet laik wyczuje pogorszenie jakości dźwięku. W branży stosuje się czasem wyższe wartości, ale to już raczej dla specjalistycznych zastosowań, np. w studiach nagraniowych. Moim zdaniem, bez znajomości tej podstawowej zasady ciężko ruszyć dalej w świecie cyfrowego audio, bo każdy etap obróbki opiera się właśnie na tej logice i konsekwencjach wyboru częstotliwości próbkowania.

Pytanie 33

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wfm
B. .ptx
C. .wav
D. .mid
W plikach o rozszerzeniu .wfm zapisywane są dane dotyczące obwiedni (ang. waveform) regionów audio w aplikacjach typu DAW, czyli cyfrowych stacjach roboczych do obróbki dźwięku. Moim zdaniem ten format jest często niedoceniany, bo niby tylko „obrazki”, ale bez nich trudno byłoby wygodnie edytować dźwięk. DAWy takie jak Pro Tools generują pliki .wfm automatycznie – dzięki temu podczas pracy z dużymi sesjami, nawet z wieloma ścieżkami, wyświetlanie przebiegów falowych pozostaje płynne. To jest ogromna pomoc, zwłaszcza gdy robisz szybkie cięcia albo musisz na oko znaleźć transienty czy inne szczegóły w zapisie dźwięku. Pliki .wfm nie zawierają samego audio, lecz tylko dane do wizualizacji – taka „mapka” falowa, która pozwala na szybkie zorientowanie się, co się dzieje w regionie bez konieczności analizowania pełnego pliku .wav. To praktyka zgodna z dobrą organizacją workflow – oddzielanie danych użytkowych od metadanych wizualnych przyspiesza ładowanie sesji i ułatwia współpracę kilku osób nad jednym projektem. Z mojego doświadczenia, kiedy .wfm są usunięte lub uszkodzone, DAW musi je wygenerować od nowa, co potrafi zająć trochę czasu przy większych projektach. Znajomość tego formatu to podstawa, jeśli chcesz świadomie zarządzać plikami projektów audio na poziomie technicznym.

Pytanie 34

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Type.
B. Diffusion.
C. Decay.
D. Predelay.
Predelay w efektach typu Reverb to naprawdę jeden z tych parametrów, które potrafią bardzo mocno wpłynąć na charakterystykę przestrzeni, jaką budujemy w miksie. Pozwala on ustawić czas (w milisekundach) między momentem pojawienia się dźwięku źródłowego a pierwszym słyszalnym odbiciem od „ścian” wirtualnej przestrzeni. To bardzo przydatne, szczególnie gdy chcemy, żeby oryginalny sygnał był bardziej czytelny i nie zlewał się od razu z pogłosem – daje to trochę „oddechu” instrumentom czy wokalom. W praktyce, kiedy miksuję wokal albo gitarę akustyczną, często eksperymentuję z predelay, żeby uzyskać bardziej naturalny efekt i nie zamazać transjentów. Producenci audio i inżynierowie dźwięku od lat zwracają uwagę na ustawienie predelay, szczególnie przy dynamicznych aranżacjach. Branżowe standardy jasno sugerują, żeby predelay dobierać w odniesieniu do tempa utworu – np. 1/16 czy 1/32 nuty, żeby pogłos nie przeszkadzał w groove. Moim zdaniem wiele osób lekceważy ten parametr, a to on decyduje o tym, czy dźwięk jest „z przodu” czy już w głębi miksu. Warto poeksperymentować i przekonać się, jak sporo można uzyskać, dostosowując tylko ten jeden suwak.

Pytanie 35

Które z wymienionych określeń oznacza nagranie lektora?

A. Foley
B. Sound Effects
C. Ambience
D. Voice Over
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.

Pytanie 36

Nową sesję montażową oprogramowania DAW można utworzyć poprzez menu

A. File
B. Edit
C. Window
D. View
Wybór opcji File w menu DAW to zdecydowanie standard, jeśli chodzi o tworzenie nowej sesji montażowej. W praktycznie każdym szanowanym programie do produkcji muzycznej, czy to Pro Tools, Cubase, Ableton Live, czy Reaper, właśnie tam znajdziesz funkcję 'New Session', 'New Project' lub coś w tym stylu. To swego rodzaju wzorzec interfejsu użytkownika, który się przyjął w oprogramowaniu tego typu. Moim zdaniem, to całkiem logiczne – w końcu wszystkie operacje związane z plikami, takie jak otwieranie, zapisywanie, import czy eksport, są zebrane właśnie pod File. Praktyczne korzystanie z DAW wymaga szybkiego orientowania się, gdzie co jest. Dzięki temu rozwiązaniu – wiadomo od razu, gdzie szukać. Nawet jak zmienisz program, nie zaskoczy Cię układ menu. W branży uważa się, że klarowność interfejsu i trzymanie się przyjętych schematów jest bardzo ważna, bo przyspiesza pracę – a w studiu czas to pieniądz. Można tu dodać, że nową sesję zawsze dobrze jest od razu odpowiednio nazwać i ustawić lokalizację zapisu, żeby potem nie szukać plików po całym dysku. To naprawdę pomaga w zachowaniu porządku, szczególnie jak masz dużo projektów. Krótko mówiąc – File to podstawa przy organizacji pracy w DAW, więc wybór tej opcji to nie tylko poprawna, ale i bardzo praktyczna decyzja.

Pytanie 37

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Delay
B. Equaliser
C. Gate
D. Compressor
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 38

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .cmx
B. .edl
C. .fla
D. .ldm
Format .edl, czyli Edit Decision List, to cyfrowa forma listy montażowej używana praktycznie w każdej większej produkcji filmowej czy telewizyjnej. Plik EDL zawiera zestawienie najważniejszych decyzji montażowych: numery ujęć, punkty wejścia i wyjścia, kolejność oraz podstawowe efekty przejść pomiędzy klipami. Moim zdaniem, to taki pomost między starym montażem taśmowym, a współczesnym montażem nieliniowym – bo pozwala przenieść strukturę montażu do różnych programów, jak np. Avid, DaVinci Resolve czy Adobe Premiere. W praktyce montażysta eksportuje EDL z jednego systemu, żeby szybko odtworzyć układ projektu w innym środowisku albo w studiu postprodukcji. Co ciekawe, format EDL jest uznany za branżowy standard – ma już swoje lata, ale do dziś jest mocno używany przy wymianie projektów między stacjami roboczymi. Najważniejsze w praktycznym zastosowaniu jest to, że EDL nie przenosi wszystkich efektów czy warstw, ale świetnie sprawdza się do podstawowej struktury i przyspiesza cały workflow. Jeśli kiedyś trafisz na archiwalne projekty albo będziesz musiał współpracować ze studiem dźwiękowym czy VFX, znajomość EDL naprawdę się przydaje. W sumie ciężko wyobrazić sobie profesjonalny pipeline bez tego typu plików, nawet jeśli współczesne formaty XML czy AAF oferują więcej możliwości.

Pytanie 39

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. częstotliwości próbkowania sygnału w sesji.
B. koloru ścieżek w sesji.
C. liczby grup ścieżek w sesji.
D. kształtu fade in i fade out w sesji.
Częstotliwość próbkowania sygnału w sesji to absolutnie kluczowy parametr, który ustalamy na samym początku, przy tworzeniu nowej sesji w DAW. To od niej zależy, jak szczegółowo dźwięki będą zapisywane i odtwarzane – im wyższa wartość, tym więcej informacji o sygnale jest przechowywane i tym lepsza jakość dźwięku (a przynajmniej w teorii, bo w praktyce czasem bywa różnie). Najczęściej spotykane częstotliwości to 44,1 kHz (standard CD), 48 kHz (audio do wideo) oraz wyższe, np. 96 kHz czy nawet 192 kHz w zastosowaniach profesjonalnych. Wybranie odpowiedniej wartości od razu jest mega ważne, bo późniejsza zmiana podczas pracy nad projektem może prowadzić do problemów z konwersją materiału, stratą jakości albo komplikacjami z kompatybilnością. Moim zdaniem najlepiej od razu wiedzieć, do czego będzie używana sesja – jeśli nagrywasz muzykę na streaming lub płytę CD, spokojnie wystarczy 44,1 kHz. Ale jeśli pracujesz z filmem albo bardzo złożonymi realizacjami, warto rozważyć 48 kHz lub więcej. Profesjonaliści zawsze planują to z wyprzedzeniem, bo późniejsze kombinacje z konwersją mogą być uciążliwe i niepotrzebnie komplikować życie. Wybór częstotliwości próbkowania na starcie jest zgodny z dobrą praktyką branżową i praktycznie każdy poważny DAW pyta o to przy zakładaniu nowej sesji. Także to jest naprawdę podstawowy parametr i trzeba o nim pamiętać zawsze!

Pytanie 40

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Expander.
B. Declicker.
C. Delay.
D. Ducker.
Delay to jeden z podstawowych efektów w produkcji dźwięku, który polega na powtarzaniu sygnału audio po określonym czasie. Dzięki temu można uzyskać efekt echa, ale – co ważniejsze w kontekście pytania – umożliwia także tworzenie zapętleń, czyli tzw. looperów. W praktyce ustawiając delay na bardzo krótki czas i dużą liczbę powtórzeń, uzyskujemy efekt ciągłego powtarzania fragmentu dźwięku, co jest wykorzystywane np. w muzyce elektronicznej czy podczas live actów. Loopery bazują właśnie na zasadzie działania delay'a, tylko są bardziej rozbudowane – pozwalają nagrywać i wielokrotnie odtwarzać fragmenty na żywo. W branży często stosuje się delay do kreatywnego budowania przestrzeni czy rytmicznych faktur, nie tylko do prostego echa. Moim zdaniem delay to taki wstęp do zabawy z loopingiem, bo jeśli zrozumiesz, jak działa delay, to potem łatwiej ogarnąć bardziej zaawansowane narzędzia do zapętlania. Często też delay bywa stosowany do eksperymentowania z teksturami dźwiękowymi. W standardach produkcji muzycznej oraz postprodukcji dźwięku delay jest wręcz niezbędny do kontroli powtarzalności, przestrzeni i efektów specjalnych. Warto wiedzieć, że dobrze ustawiony delay może zastąpić nawet proste loopery w wielu zastosowaniach. Z mojego doświadczenia to narzędzie, którego nie da się przecenić w pracy z dźwiękiem.