Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 2 maja 2026 10:09
  • Data zakończenia: 2 maja 2026 10:18

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który format plików audio należy wybrać, aby po przekonwertowaniu zajmował najmniej miejsca na dysku komputera?

A. .aiff
B. .flac
C. .wave
D. .mp3
Format MP3 to zdecydowanie najlepszy wybór, gdy zależy Ci na minimalnym rozmiarze pliku audio po konwersji. To format stratny (lossy), co oznacza, że podczas kompresji traci się część informacji dźwiękowych, ale zyskuje się na tym drastyczne zmniejszenie wielkości pliku. Standard MP3 powstał właśnie po to, by móc przechowywać lub przesyłać muzykę przez internet, kiedy miejsce na dysku czy przepustowość łącza były na wagę złota. Moim zdaniem, nawet dziś, gdy dyski są większe, to w zastosowaniach masowych (np. serwisy streamingowe, podcasty, audiobooki) MP3 jest niezastąpiony ze względu na balans jakości do wielkości pliku. Jeśli chodzi o bitrate, to np. plik MP3 o jakości 128 kbps waży często kilkukrotnie mniej niż ten sam utwór w formacie WAV czy AIFF. Oczywiście, tracimy trochę na jakości dźwięku, ale dla większości codziennych zastosowań to praktycznie niezauważalne. To też jest powód, dla którego większość osób wrzucając muzykę na telefon czy odtwarzacz mp3 wybiera właśnie ten format. Z mojego doświadczenia, jeśli zależy Ci na szybkim udostępnianiu czy wysyłce plików audio, MP3 to po prostu standard branżowy i nie ma co kombinować. Warto pamiętać, że MP3 jest obsługiwany praktycznie przez każde urządzenie, od komputerów, przez samochody, aż po stare odtwarzacze. Przy konwersji audio zawsze trzeba jednak pamiętać o kompromisie między rozmiarem a jakością – im niższy bitrate, tym mniejszy plik, ale i gorszy dźwięk.

Pytanie 2

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 3|4|350
B. 1|2|000
C. 2|3|240
D. 4|2|400
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 3

Której komendy należy użyć dla przywrócenia ostatnio cofniętej operacji w programie edycyjnym?

A. Redo
B. Undo
C. Back
D. Rew
Poprawna odpowiedź to „Redo”, bo właśnie ta komenda jest standardowo wykorzystywana w praktycznie każdym programie edycyjnym do ponownego wykonania operacji, która została wcześniej cofnięta. Przykładowo, jeśli przypadkowo cofniesz usunięcie fragmentu tekstu w edytorze takim jak Word, Photoshop albo Visual Studio, to właśnie „Redo” (zwykle skrót klawiaturowy Ctrl+Y lub Ctrl+Shift+Z — zależnie od programu) pozwala Ci przywrócić tę zmianę. To jest taki trochę „odwrócony Undo”. Moim zdaniem to chyba najbardziej logiczna funkcja w pakietach biurowych i narzędziach graficznych, bo często się zdarza, że człowiek odruchowo cofa, a potem jednak stwierdza „Chwila, jednak chciałem to zostawić”. Dobrą praktyką w branży jest implementowanie takiej funkcjonalności, bo znacznie poprawia to komfort pracy z dokumentami czy projektami graficznymi. Co więcej, w większości aplikacji historia zmian jest oparta właśnie na tym dwukierunkowym stosie operacji – można więc bezpiecznie przemieszczać się w przód i w tył po własnych akcjach. Producenci oprogramowania dbają, by „Undo” i „Redo” były zawsze pod ręką, bo to już taki branżowy standard. Warto też pamiętać, że jeśli ktoś korzysta z innych języków interfejsu, to angielskie „Redo” jest niemal zawsze obecne, nawet jeśli inne nazwy są przetłumaczone.

Pytanie 4

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .aac
B. .wav
C. .mp3
D. .m4a
Format pliku .wav to chyba najbardziej popularny wybór, jeśli zależy komuś na maksymalnej jakości i zachowaniu wszystkich szczegółów dźwięku. W praktyce .wav jest formatem bezstratnym, co oznacza, że nie kompresuje on danych audio tak, jak robią to np. .mp3 czy .aac. Dzięki temu żadne informacje dźwiękowe nie są usuwane czy upraszczane – nagranie zachowuje oryginalną jakość, jaką udało się zarejestrować podczas nagrywania czy miksowania. Często w studiach nagraniowych, przy obróbce dźwięku do filmów czy podcastów, pliki .wav są uznawane za standard, bo pozwalają na dalszą edycję bez strat jakości. Moim zdaniem, jeśli masz choćby cień wątpliwości, którą ścieżkę wybrać do archiwizacji albo profesjonalnej produkcji, to zawsze .wav będzie pewniakiem. To oczywiście wiąże się z większymi rozmiarami plików, ale w wielu sytuacjach nie ma to aż takiego znaczenia – ważniejsze jest, aby nie tracić żadnych detali. Warto też pamiętać, że wiele systemów multimedialnych, DAW-ów (Digital Audio Workstation) czy nawet starszych konsol lepiej radzi sobie właśnie z .wav. Tak po ludzku: tam, gdzie liczy się czysta jakość i pełna informacja, nie kombinuj, tylko wybierz .wav.

Pytanie 5

Której z wymienionych opcji należy użyć, aby zapisać sesję oprogramowania DAW w postaci szablonu?

A. SAVE COPY IN
B. SAVE AS
C. SAVE AS TEMPLATE
D. SAVE
Opcja „SAVE AS TEMPLATE” to taki trochę złoty środek, jeśli chodzi o pracę w DAW (Digital Audio Workstation), serio. Dzięki niej możesz zapisać bieżącą sesję nie jako zwykły projekt, ale właśnie jako szablon, co jest niesamowicie wygodne na co dzień, zwłaszcza jak pracujesz często nad podobnymi projektami albo masz swoją ulubioną konfigurację torów, efektów czy routingu. Bardzo często w studiach i nawet na lekcjach produkcji audio powtarza się, żeby wyrobić sobie nawyk korzystania z szablonów – to nie jest tylko jakieś tam bicie piany, bo potem można zyskać masę czasu. W wielu DAW-ach (np. Cubase, Studio One, Ableton, FL Studio) funkcja „Save as Template” powoduje, że cała struktura sesji – torów audio, MIDI, ustawień miksera, czasem nawet ustawień pluginów – zostaje zachowana, ale bez ścieżek audio czy danych specyficznych dla konkretnej produkcji. Dzięki temu, przy nowym projekcie nie startujesz od zera, tylko od razu masz gotową bazę pod ręką. Moim zdaniem to jedna z tych rzeczy, które odróżniają początkujących od ogarniętych realizatorów – z szablonami naprawdę praca staje się sprawniejsza i mniej stresująca. Takie podejście wpisuje się też w dobre praktyki branży, gdzie workflow i oszczędność czasu mają ogromne znaczenie. Z własnego doświadczenia powiem, że po kilku próbach człowiek już nie chce wracać do „czystych” projektów – zawsze mam pod ręką kilka szablonów na różne okazje.

Pytanie 6

Który z podanych filtrów służy do eliminowania dźwięków niskoczęstotliwościowych?

A. HP
B. HM
C. LM
D. LP
Filtr HP, czyli High Pass, to właśnie ten, który przepuszcza sygnały powyżej określonej częstotliwości, a tłumi te niższe – stąd idealnie nadaje się do eliminowania dźwięków niskoczęstotliwościowych. Stosuje się go np. w miksie nagrań, żeby pozbyć się szumów czy zbędnego dudnienia od mikrofonu w studiu lub w nagłośnieniu na żywo. Z mojego doświadczenia, większość realizatorów dźwięku od razu włącza HPF na kanałach wokalnych i mikrofonach instrumentalnych, bo po prostu nie chcą, żeby zbędne buczenie psuło klarowność miksu. W praktyce najczęściej ustawia się go na 80–120 Hz, bo tam kończy się większość niepożądanych rezonansów z podłogi czy otoczenia. Słusznie mówi się, że dobrze dobrany filtr HP potrafi uratować cały miks i poprawić czytelność dźwięku. W każdej poważnej konsoletcie, zarówno cyfrowej, jak i analogowej, filtr HP to podstawa, a jego użycie jest wpisane w dobre praktyki branżowe. Dla początkujących polecam popróbować na różnych instrumentach – często dopiero wtedy słychać różnicę i można się przekonać, jak bardzo ten filtr pomaga utrzymać porządek w paśmie niskich częstotliwości. Tak szczerze, to nie wyobrażam sobie pracy bez tej funkcji!

Pytanie 7

Który z wymienionych formatów zapisu dźwięku zapewnia możliwie najmniejszy rozmiar pliku?

A. AIFF
B. MP3
C. WAV
D. FLAC
Format MP3 jest jednym z najpowszechniej używanych standardów kompresji dźwięku, jeśli chodzi o minimalizowanie rozmiaru pliku audio. Moim zdaniem to w ogóle jeden z tych formatów, które zmieniły świat muzyki cyfrowej – głównie przez to, jak bardzo ogranicza zajmowaną przestrzeń na dysku, jednocześnie zachowując jakość dźwięku na akceptowalnym poziomie. MP3 wykorzystuje kompresję stratną, co oznacza, że część informacji dźwiękowych jest po prostu usuwana, ale w taki sposób, aby ludzkie ucho tego nie wychwyciło – to się nazywa psychoakustyka i jest naprawdę sprytne. W praktyce, plik MP3 128 kbps zajmuje często kilka razy mniej miejsca niż plik WAV czy AIFF z tym samym utworem. Taki format bardzo dobrze sprawdza się w streamingu, w publikacjach internetowych albo na nośnikach ograniczonych pojemnością, np. starych odtwarzaczach MP3 czy telefonach. W branży jest to swego rodzaju standard, jeśli dysponujemy małą ilością pamięci albo musimy przesyłać pliki przez wolniejszy internet. To dlatego MP3 wyparło na lata inne formaty tam, gdzie liczył się każdy megabajt. Oczywiście, są nowsze kodeki jak AAC czy OGG, które czasami radzą sobie lepiej przy niskich bitrate’ach, ale MP3 to wciąż najbardziej rozpoznawalny wybór, jeśli chodzi o minimalizację rozmiaru. Warto pamiętać, że niższy rozmiar to jednak zawsze kompromis – coś za coś. Ale jeśli mamy ograniczone miejsce, nie ma lepszej opcji niż dobrze skompresowany MP3.

Pytanie 8

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. MPEG Layer 3
B. Open Media Format
C. Meridian Lossless Packing
D. Free Lossless Audio Codec
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 9

Ile ścieżek powinna zawierać sesja oprogramowania DAW, aby móc w niej zarejestrować wielościeżkowe nagranie gitary wykonane dwoma mikrofonami podpórkowymi oraz mikrofonami ogólnymi w systemie XY?

A. 4 ścieżki.
B. 1 ścieżkę.
C. 2 ścieżki.
D. 3 ścieżki.
W nagraniach wielościeżkowych, zwłaszcza gdy rejestrujemy gitarę przy użyciu kilku różnych mikrofonów, ilość ścieżek w DAW powinna odpowiadać liczbie indywidualnych sygnałów audio. W tym przypadku mamy dwa mikrofony podpórkowe, które zwykle umieszczane są blisko instrumentu, oraz dwa mikrofony ogólne ustawione w systemie XY – to klasyczny układ do uchwycenia przestrzennego obrazu dźwięku. Każdy z tych mikrofonów generuje osobny sygnał audio i dla każdego z nich dobrze jest mieć dedykowaną ścieżkę w DAW. Pozwala to na pełną kontrolę nad każdym mikrofonem podczas miksu, na przykład osobną regulację poziomu, panoramy czy korekcji. Takie podejście daje ogromne możliwości kreowania brzmienia i jest standardem w profesjonalnych studiach nagraniowych. Sam nie raz próbowałem nagrać gitarę z mniejszą liczbą ścieżek i zawsze kończyło się to kompromisem, bo nie mogłem w pełni wydzielić każdego mikrofonu. Cztery ścieżki to tu minimum, jeśli chce się potem swobodnie pracować nad przestrzenią czy charakterem nagrania. Często nawet w projektach domowych, jeśli korzystam z wielu mikrofonów, pilnuję, żeby każda kapsuła miała własną ścieżkę – to po prostu ułatwia późniejszą edycję i miks. Takie rozwiązanie jest zgodne z branżowymi praktykami, bo dzięki temu uzyskujemy elastyczność i profesjonalny workflow.

Pytanie 10

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. kształtowania barwy blach hi-hatu.
B. regulowania barwy stopy perkusji.
C. usunięcia szumów własnych miksera.
D. usunięcia dudnienia i wibracji.
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.

Pytanie 11

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Snap
B. Merge
C. Loop
D. Freeze
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 12

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.tiff
B. *.amr
C. *.ac3
D. *.opus
Rozszerzenie *.tiff w ogóle nie odnosi się do plików dźwiękowych, tylko do plików graficznych, a dokładniej do formatu obrazów rastrowych TIFF (Tagged Image File Format). Jest to bardzo popularny format wykorzystywany w profesjonalnej fotografii, skanowaniu dokumentów czy też w archiwizacji zdjęć wysokiej jakości. Pliki TIFF mogą przechowywać obrazy w bardzo wysokiej rozdzielczości, obsługują głęboką paletę barw i oferują bezstratną kompresję. To powoduje, że są chętnie używane tam, gdzie liczy się jakość grafiki, np. w drukarniach czy studiach graficznych. Moim zdaniem, dobrze kojarzyć to rozszerzenie, bo w praktyce informatyk czy technik często musi szybko rozróżniać rodzaje plików po rozszerzeniu – oszczędza to czas i zapobiega błędom przy np. przesyłaniu lub konwersjach plików. W przeciwieństwie do formatów *.opus, *.amr i *.ac3, które służą do zapisu i odtwarzania dźwięku, TIFF nie ma żadnego związku z audio. Warto też dodać, że niektóre programy mogą próbować 'oszukać' system poprzez zmianę rozszerzenia, ale plik TIFF nigdy nie będzie odtwarzany jako dźwiękowy. To rozszerzenie jest wręcz symbolem branży graficznej, a nie muzycznej czy dźwiękowej.

Pytanie 13

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Dwukrotny.
B. Pięciokrotny.
C. Trzykrotny.
D. Czterokrotny.
Zmniejszenie poziomu sygnału o 6 dB powoduje, że moc sygnału spada dokładnie czterokrotnie. Wynika to bezpośrednio ze wzoru na decybele: 10 log(P2/P1), gdzie P2 to moc końcowa, a P1 początkowa. Jeśli mamy spadek o 6 dB, to podstawiając do wzoru: 10 log(P2/P1) = -6, z czego wynika, że P2/P1 = 10^(-6/10) ≈ 0,25, czyli moc końcowa stanowi 1/4 mocy początkowej. Moim zdaniem to jeden z tych tematów, które wydają się trudniejsze niż są w rzeczywistości – wystarczy raz policzyć, aby zrozumieć. W praktyce, zwłaszcza w telekomunikacji czy elektroakustyce, redukcja o 6 dB pojawia się bardzo często, np. przy stosowaniu tłumików sygnału, ocenie strat na kablach albo przy tłumieniu fal radiowych przez przeszkody. Na przykład, jeśli masz nadajnik o mocy 40 W i sygnał zostaje osłabiony o 6 dB, to na wyjściu zostaje 10 W. To bardzo przydatna zależność, bo pozwala szybko ocenić, jak mocno sygnał zostanie osłabiony bez konieczności żmudnych obliczeń. Warto też pamiętać, że spadek o 3 dB daje spadek mocy o połowę, a więc 6 dB to dwa razy po 3 dB, czyli dwa razy po połowie – wychodzi właśnie 1/4, czyli czterokrotnie. To uniwersalna zasada stosowana praktycznie na całym świecie, również w pomiarach i normach międzynarodowych, np. ITU czy EN.

Pytanie 14

W sesji oprogramowania DAW o parametrach tempo 120 BPM i metrum 4/4, ćwierćnuta występować będzie co

A. 2 000 ms
B. 1 000 ms
C. 500 ms
D. 1 500 ms
Tempo 120 BPM oznacza, że w ciągu minuty mamy 120 uderzeń, czyli ćwierćnut. Skoro jedna minuta to 60 sekund, to jedno uderzenie przypada co 0,5 sekundy, czyli właśnie 500 ms. To jest taki klasyczny, bardzo często spotykany w produkcji muzycznej podział czasu – na przykład w muzyce elektronicznej, popie czy nawet rocku. Z praktycznego punktu widzenia: jeżeli masz w DAW ustawione 120 BPM, a chcesz zsynchronizować delay albo LFO z tempem utworu, to ustawiając czas na 500 ms dasz efekt, który idealnie pasuje pod każdą ćwierćnutę. Moim zdaniem warto to po prostu zapamiętać, bo przy miksowaniu automatyzacji czy przy ustawianiu efektów delayowych, większość producentów korzysta właśnie z tego przelicznika. To trochę taki branżowy standard. Warto też wspomnieć, że większość DAW ma funkcję automatycznego przeliczania wartości muzycznych na milisekundy, ale dobrze jest znać tę zależność na pamięć – czasami szybciej policzyć to w głowie niż szukać opcji w programie. Osobiście nieraz spotykałem się z sytuacją, gdy szybkie przeliczenie ćwierćnuty w BPM na ms ratowało sprawę na sesji nagraniowej czy przy szybkim montażu rytmicznych efektów. Krótko mówiąc, 500 ms to podstawa dla 120 BPM, metrum 4/4 i ćwierćnuty – taki złoty środek w pracy z rytmem.

Pytanie 15

Którego filtra należy użyć do wycięcia w materiale dźwiękowym składowych widma powyżej ustalonej częstotliwości granicznej?

A. LPF
B. HSF
C. LSF
D. HPF
Filtr dolnoprzepustowy (LPF – Low Pass Filter) to naprawdę jedno z podstawowych narzędzi w obróbce dźwięku. Stosuje się go wtedy, gdy chcemy zachować sygnały poniżej określonej częstotliwości granicznej, a wszystko, co jest powyżej tej częstotliwości, po prostu tłumimy lub całkiem usuwamy. Moim zdaniem w praktyce LPF najczęściej przydaje się podczas miksowania – chociażby przy czyszczeniu ścieżek z niepotrzebnych szumów wysokoczęstotliwościowych albo do kształtowania barwy instrumentów (np. wygładzanie ostrych dźwięków hi-hatu albo usuwanie niepożądanych syknięć w wokalu). W pracy w studiu, ale też przy projektowaniu urządzeń audio czy nawet w instalacjach nagłośnieniowych, LPF pozwala ograniczyć zakłócenia i poprawić selektywność dźwięku. Branżowe standardy, na przykład w akustyce budowlanej czy w transmisji sygnałów, zalecają stosowanie filtrów dolnoprzepustowych do eliminowania aliasingu lub ograniczania pasma sygnału. Ciekawostka: większość przenośnych głośników Bluetooth „tnie” wysokie częstotliwości właśnie przez filtr LPF, żeby mały przetwornik nie dostawał sygnału, którego nie da rady odtworzyć. W sumie LPF to taki niewidzialny strażnik porządku w sygnale audio – jak się go dobrze użyje, to dźwięk od razu robi się przyjemniejszy w odbiorze.

Pytanie 16

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Nie ma wpływu.
B. Wysokość wzrasta dwukrotnie.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Wysokość spada dwukrotnie.
Zmiana częstotliwości próbkowania z 44,1 kHz na 48 kHz sama w sobie nie ma żadnego wpływu na odbieraną słuchem wysokość dźwięku, pod warunkiem, że próbki są odtwarzane z tą samą częstotliwością, z jaką były zarejestrowane. To jest bardzo istotny szczegół techniczny. Wysokość dźwięku zależy bezpośrednio od częstotliwości drgań fali akustycznej, a nie od parametrów cyfrowego zapisu. Częstotliwość próbkowania definiuje jedynie, jak często podczas sekundy pobierane są próbki sygnału analogowego, co wpływa na jakość i maksymalną częstotliwość rejestrowanego dźwięku (wynika to z twierdzenia Kotielnikowa-Shannona). Moim zdaniem, takie zamieszanie powstaje często przy konwersji plików lub zmianie platform, jednak jeśli podczas odtwarzania ustawimy tę samą częstotliwość próbkowania co przy nagraniu, żaden słuchacz nie usłyszy zmiany wysokości – to wciąż będzie ten sam dźwięk. W branży muzycznej i postprodukcji audio bardzo często spotyka się te dwie wartości (44,1 kHz – standard CD, 48 kHz – standard wideo), jednak muzycy, reżyserzy dźwięku czy montażystki nie przejmują się wysokością – bo ta zależy od źródła, nie od próbkowania. W praktyce, zmiana częstotliwości próbkowania może wpłynąć na zakres słyszalnych wysokich tonów (np. górne pasmo przenoszenia), ale nie na to, czy dźwięk jest wyższy czy niższy. Dobrą praktyką jest zawsze dbać o zgodność częstotliwości próbkowania w całym torze produkcyjnym – to zapobiega nieprzyjemnym artefaktom i kłopotom z kompatybilnością.

Pytanie 17

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. High Shelf
B. Comb Filter
C. HPF
D. LPF
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 18

Która z wymienionych kart charakteryzuje się największą pojemnością maksymalną?

A. SD A1
B. SD
C. SDXC
D. SDHC
SDXC to obecnie najnowocześniejszy i najbardziej pojemny standard kart pamięci z rodziny Secure Digital. Co ciekawe, SDXC (czyli Secure Digital eXtended Capacity) pozwala na przechowywanie danych o pojemności od 32 GB do aż 2 TB, co jest ogromną różnicą w porównaniu do starszych rozwiązań takich jak SD czy SDHC. Moim zdaniem, praktyczne zastosowania SDXC są już wszędzie – od nowoczesnych kamer 4K, przez profesjonalne aparaty fotograficzne, aż do laptopów i konsol do gier. W branży multimedialnej to właściwie standard, bo duże pliki wideo, wysokiej rozdzielczości zdjęcia czy nawet gry potrzebują takiej pojemności. Warto też pamiętać, że SDXC wykorzystuje system plików exFAT, który nie ma ograniczeń co do rozmiaru pojedynczego pliku, w przeciwieństwie do FAT32 używanego w SDHC. W praktyce oznacza to, że można wrzucać pliki większe niż 4 GB bez żadnych kombinacji. Dobrą praktyką jest sprawdzanie, czy sprzęt obsługuje ten standard – starsze urządzenia często nie rozpoznają SDXC, bo wymagają nowszego firmware’u albo są po prostu ograniczone do SD lub SDHC. Z mojego doświadczenia wynika, że inwestycja w SDXC to rozsądny wybór na przyszłość, szczególnie jeśli ktoś planuje rozbudowę aparatu czy kamery, żeby nie martwić się o brak miejsca. Tak w skrócie, to właśnie dlatego SDXC wygrywa pod kątem maksymalnej pojemności.

Pytanie 19

Która z wymienionych nazw dostępnych na liście montażowej w dokumentacji nagrania muzyki rozrywkowej oznacza gitarę prowadzącą?

A. RHYTHM
B. LEAD
C. VOX
D. ORG
Odpowiedź LEAD jest zdecydowanie właściwa, bo w profesjonalnej dokumentacji nagrań muzyki rozrywkowej określenie „lead guitar” albo po prostu „LEAD” zawsze oznacza gitarę prowadzącą. To właśnie partia LEAD odpowiada najczęściej za solówki, melodyjne wstawki czy charakterystyczne frazy, które wybija się na tle pozostałych instrumentów. Praktyka studyjna pokazuje, że przypisanie śladu oznaczonego jako LEAD ułatwia pracę realizatorom dźwięku, producentom i muzykom podczas miksowania czy edycji materiału. Z mojego doświadczenia wynika, że nawet w bardzo rozbudowanych sesjach, gdzie jest kilka gitar, oznaczenie LEAD od razu wskazuje, którą ścieżkę traktować jako najważniejszą pod kątem ekspozycji w miksie. W nomenklaturze branżowej LEAD funkcjonuje także przy innych instrumentach – na przykład LEAD VOCAL to główny wokal. Ale w kontekście gitar to właśnie LEAD równa się gitara prowadząca. Standardy zapisu sesji Pro Tools, Cubase czy Logic też stosują ten skrót, co jest bardzo przydatne, bo szybko można się odnaleźć w projekcie, nawet jeśli nie pracowało się przy nagraniu od początku. Warto zapamiętać, że LEAD to skrót myślowy, który na stałe wszedł do codziennego słownictwa branżowego i jest uznawany praktycznie na całym świecie – od małych studiów po największe produkcje.

Pytanie 20

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. spisu efektów.
B. opisu taśmy.
C. skryptu.
D. opisu postsynchronów.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 21

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. ograniczenia wielkości pliku.
B. zmiany nazwy pliku.
C. uzyskania jednorodnej kopii pliku.
D. zmiany lokalizacji pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 22

Dokumentacją, stanowiącą podstawę produkcji słuchowiska radiowego, jest

A. scenopis.
B. utwór literacki.
C. licencja.
D. scenariusz.
Scenariusz to absolutna podstawa przy produkcji słuchowiska radiowego. Bez niego ciężko wyobrazić sobie profesjonalną realizację – to właśnie ten dokument dokładnie opisuje przebieg akcji, kwestie bohaterów, didaskalia, wszystkie efekty dźwiękowe i muzyczne, a nawet wskazówki dotyczące intonacji czy tempa wypowiedzi. W praktyce scenariusz pełni taką rolę jak partytura w orkiestrze – każdy członek ekipy wie, kiedy wchodzi jego rola i co dokładnie powinno być zrobione. Standardy branżowe, szczególnie w rozgłośniach publicznych, zakładają, że bez kompletnego scenariusza nie rozpoczyna się prób nagraniowych ani montażu. Z mojego doświadczenia wynika, że dobrze przygotowany scenariusz pozwala uniknąć chaosu i znacznie skraca czas produkcji, bo wszystko jest rozpisane „czarno na białym”. Warto pamiętać, że scenariusz w radiu jest jeszcze ważniejszy niż np. w teatrze, bo medium opiera się wyłącznie na dźwięku i nie ma miejsca na improwizację wizualną. Często spotykałem się z opinią, że dobry scenariusz to połowa sukcesu – w pełni się z tym zgadzam. Dobrą praktyką jest także zostawienie marginesu na drobne adaptacje podczas nagrania, ale zawsze bazą jest właśnie scenariusz. Przy produkcjach profesjonalnych nie istnieje opcja pracy bez tego dokumentu.

Pytanie 23

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Rider techniczny.
B. Partytura.
C. Scenariusz.
D. Lista znaczników.
Scenariusz to absolutna podstawa każdej produkcji słuchowiska radiowego. Bez niego nie da się w ogóle ruszyć z miejsca, bo to właśnie tam rozpisuje się dialogi, opisy dźwięków, kolejność scen, a nawet podpowiedzi reżyserskie. Taki dokument pozwala wszystkim członkom ekipy – od reżysera po realizatora dźwięku i aktorów – dokładnie wiedzieć, co mają robić i jak interpretować swoją rolę. Standardem w branży radiowej jest, by scenariusz zawierał nie tylko teksty postaci, ale również wskazówki dotyczące atmosfery, rodzaju efektów dźwiękowych czy nawet sposobu wypowiadania kwestii. Dzięki temu całość brzmi potem profesjonalnie i spójnie. Moim zdaniem, scenariusz jest wręcz sercem całego procesu – bez niego trudno mówić o pracy twórczej na serio. Praktycznie każda duża produkcja radiowa działa według tego schematu, bo to upraszcza komunikację i minimalizuje błędy. Dodatkowo, dobry scenariusz bardzo ułatwia późniejszą postprodukcję, bo dokładnie wiadomo, jakie elementy dźwiękowe muszą być przygotowane. Także nawet jeśli ktoś myśli, że wystarczy improwizacja, to w praktyce wszyscy profesjonaliści polegają właśnie na solidnym, dobrze opisanym scenariuszu.

Pytanie 24

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. GLUE
B. MERGE
C. CROSSFADE
D. PASTE
Efekt crossfade, czyli płynne przejście między dwoma plikami dźwiękowymi, to absolutna podstawa w codziennej pracy z DAW-ami. Crossfade działa na tej zasadzie, że dźwięk z jednego pliku stopniowo się wycisza (fade out), a dźwięk z drugiego pojawia się coraz mocniej (fade in), dzięki czemu unikasz nieprzyjemnych kliknięć i szumów na łączeniu. Praktycznie w każdym profesjonalnym DAW ta funkcja jest dostępna standardowo, często wręcz jako domyślne narzędzie przy edycji audio. Takie przejście przydaje się nie tylko przy montażu dialogów czy muzyki, ale też w masteringu, kiedy trzeba posklejać różne wersje utworów albo poprawić cięcia. W świecie nagraniowców mówi się nawet, że dobrze wykonany crossfade jest ledwo zauważalny dla słuchacza – i to jest złota zasada. Moim zdaniem w ogóle warto nauczyć się tworzyć różne rodzaje crossfade’ów (np. liniowe, logarytmiczne, S-curve) i testować, jak wpływają na odbiór materiału. To takie małe detale, które w finalnym miksie robią ogromną różnicę. Pamiętaj, że używanie crossfade’ów to nie tylko kwestia estetyki, ale też technicznego bezpieczeństwa – szczególnie jeśli pracuje się z surowym materiałem, gdzie mogą pojawiać się artefakty. W branży standardem jest stosowanie crossfade’ów przy każdej edycji, gdzie pliki audio się stykają lub nakładają. Z mojego doświadczenia, jeśli raz zaczniesz ich używać, nie będziesz już chciał wracać do 'suchych' cięć.

Pytanie 25

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. adaptive limiter.
B. compander.
C. expander.
D. multiband compressor.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 26

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W harmonogramie produkcji.
B. W znacznikach.
C. W skrypcie.
D. W komentarzu reżyserskim.
Informacje o docelowych nazwach eksportowanych plików dźwiękowych powinny znajdować się właśnie w skrypcie projektu multimedialnego. To trochę taki fundament całego procesu, bo skrypt pełni rolę głównego dokumentu sterującego, gdzie opisuje się nie tylko, co ma być nagrane i w jakiej kolejności, ale też precyzuje szczegóły techniczne – na przykład, jakie będą nazwy plików po eksporcie czy do jakich folderów mają trafić. Z mojego doświadczenia, dobrze przygotowany skrypt pozwala uniknąć masy nieporozumień między dźwiękowcem, montażystą a resztą zespołu. W środowiskach profesjonalnych bardzo często stosuje się wzorce takie jak EBU Tech 3281 czy zalecenia SMPTE, które wręcz wymagają precyzyjnego opisu plików w dokumentacji projektowej. Dzięki temu łatwiej potem zapanować nad plikami, szczególnie przy dużych produkcjach, gdzie liczba materiałów potrafi przyprawić o zawrót głowy. W praktyce – jeśli brakuje jasnych nazw w skrypcie, to potem zaczyna się szukanie, kombinowanie i niepotrzebny bałagan. Dlatego branżową normą jest ustalanie wszystkiego z góry właśnie w skrypcie, zanim powstanie pierwszy plik dźwiękowy. To naprawdę oszczędza czas i nerwy całego zespołu.

Pytanie 27

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. MP3
B. WMA
C. FLAC
D. WAV
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 28

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 18 dB/okt.
C. 12 dB/okt.
D. 6 dB/okt.
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.

Pytanie 29

Do przekazywania informacji, dotyczących sposobu montażu wyłącznie plików dźwiękowych w postprodukcji filmowej, wykorzystuje się pliki

A. AAF
B. OEM
C. SDL
D. EDL
Pliki EDL, czyli Edit Decision List, to absolutna podstawa w postprodukcji, jeśli chodzi o przekazywanie informacji montażowych. Chociaż kojarzą się najczęściej z montażem obrazu, to w praktyce bardzo często wykorzystuje się je właśnie do opisu sekwencji dźwiękowych – szczególnie wtedy, gdy montaż dźwięku jest rozdzielony od obrazu i trzeba przekazać dokładnie, które fragmenty ścieżki mają być użyte, jakie są punkty cięcia czy przejścia między ujęciami audio. Moim zdaniem, bez znajomości EDL trudno wyobrazić sobie profesjonalną współpracę między różnymi stanowiskami w studiu postprodukcyjnym. EDL zapisuje informacje w formie tekstowej (zwykle jako pliki .edl) i zawiera dokładne timecode’y wskazujące, które fragmenty mają zostać użyte w finalnym miksie dźwiękowym. To jest taki uniwersalny język dla montażystów: dzięki temu nawet osoby pracujące na różnych systemach (Pro Tools, Avid, DaVinci) są w stanie wymieniać się istotnymi informacjami o montażu. Warto też wiedzieć, że EDL to jeden z najstarszych, ale nadal bardzo popularnych standardów – głównie dlatego, że jest prosty, czytelny i większość programów audio-video potrafi go odczytać bez zająknięcia. Gdyby nie takie narzędzia, cała postprodukcja byłaby dużo wolniejsza i bardziej chaotyczna. W praktyce spotyka się czasem rozbudowane wersje EDL ze specjalnymi adnotacjami właśnie pod kątem dźwięku, np. dialogów czy efektów. Dobrze też pamiętać, że EDL w formacie CMX3600 jest chyba najczęściej używany na rynku i obsługuje większość sytuacji, które pojawiają się w codziennej pracy w studiu filmowym.

Pytanie 30

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. MBR
B. ABR
C. CBR
D. VBR
CBR to skrót od „Constant Bit Rate”, czyli stała przepływność bitowa. W praktyce oznacza to, że niezależnie od zawartości przesyłanego sygnału cyfrowego (na przykład wideo albo audio), ilość przesyłanych bitów na sekundę jest zawsze taka sama. To rozwiązanie jest stosowane np. w transmisjach strumieniowych na żywo, gdzie bardzo istotny jest brak wahań przepustowości sieci, albo w telewizji cyfrowej czy nawet podczas nagrywania na nośniki optyczne. Z mojego doświadczenia, CBR jest często wybierane w sytuacjach, gdzie najważniejsza jest przewidywalność obciążenia sieci lub zachowanie kompatybilności z prostszymi urządzeniami odtwarzającymi. Standardy takie jak MPEG-2, używane w DVB, zalecają tryb CBR do transmisji broadcastowych, bo ogranicza on ryzyko buforowania i pozwala na łatwiejsze zarządzanie zasobami. Przy CBR nie ma też problemu z rozjechaniem się synchronizacji audio i wideo, co jest ważne np. w systemach CCTV albo VoIP. Warto jednak pamiętać, że CBR czasem zużywa więcej przepustowości niż to konieczne, bo nie dostosowuje się elastycznie do złożoności przesyłanej treści. Moim zdaniem dla osób zaczynających przygodę ze streamingiem czy montażem, zrozumienie CBR to podstawa, bo pozwala od razu uniknąć wielu irytujących problemów z transmisją.

Pytanie 31

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-R
B. DVD+R
C. DVD-RW
D. DVD+R DL
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 32

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista ścieżek.
B. Lista regionów.
C. Lista efektów.
D. Lista grup.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 33

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Last Session
B. Create Session from Template
C. Create Empty Session
D. Open Recent Session
Wybrana opcja 'Create Session from Template' to właśnie to, o co chodzi w profesjonalnej pracy z DAW-ami. Tak naprawdę, korzystanie z szablonów przy tworzeniu nowej sesji to ogromna oszczędność czasu, zwłaszcza jeśli często nagrywasz lub miksujesz podobne projekty. W praktyce wygląda to tak: masz przygotowany szablon z ustawionymi torami audio, MIDI, grupami, efektami czy routowaniem – nie musisz za każdym razem wszystkiego konfigurować od zera. Szablony są wykorzystywane nawet w dużych studiach nagraniowych, gdzie workflow musi być szybki i powtarzalny, zgodnie z dobrymi praktykami branżowymi. Moim zdaniem, dobrze jest mieć kilka własnych szablonów, np. do miksowania podcastów, produkcji beatów czy masteringu. Często szablony zawierają już konkretne ustawienia kompresorów, EQ, grup Aux, a nawet specyficzne routing dla wokali, perkusji czy instrumentów wirtualnych. W profesjonalnych środowiskach pracy mówi się wręcz, że szablon to podstawa wydajności. Oczywiście można pracować od zera, ale z mojego doświadczenia – im więcej projektów, tym bardziej docenia się tę opcję. Warto nad tym chwilę posiedzieć i stworzyć własny workflow oparty na szablonach. To nie tylko wygoda – to też konsekwencja w brzmieniu i organizacji sesji.

Pytanie 34

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 48 kHz
B. 96 kHz
C. 44,1 kHz
D. 192 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 35

Który z wymienionych nośników gwarantuje bezpieczne przechowywanie danych w warunkach oddziaływania silnego pola magnetycznego?

A. Kaseta DAT.
B. Kaseta CC.
C. Płyta DVD.
D. Dysk M.O.
Wybór płyty DVD jako nośnika odpornego na silne pole magnetyczne to strzał w dziesiątkę. DVD to nośnik optyczny, na którym dane zapisywane są za pomocą wiązki lasera. Co ważne, zasada działania dysków optycznych sprawia, że nie są one podatne na wpływ zewnętrznego pola magnetycznego. Cały zapis opiera się na fizycznych zmianach struktury warstw poliwęglanowych i barwników, z których zbudowana jest płyta, a nie na orientacji domen magnetycznych jak w kasetach czy klasycznych dyskach magnetycznych. W praktyce oznacza to, że nawet dość silne pole magnetyczne nie wpłynie negatywnie na integralność zapisanych danych. Jest to bardzo istotne w branżach, gdzie bezpieczeństwo przechowywania informacji ma kluczowe znaczenie, np. w archiwizacji, edukacji, sądownictwie czy szpitalach. Często właśnie z tego powodu instytucje przechowujące wrażliwe dane decydują się na backupy na płytach DVD. Moim zdaniem warto też pamiętać, że choć DVD jest odporne na pole magnetyczne, to trzeba je chronić przed zarysowaniami i wysoką temperaturą, bo to już inna bajka. Ale jeśli chodzi o zabezpieczenie przed magnesem – żaden z magnetycznych nośników nie ma z DVD szans. Takie rozwiązania są zgodne z dobrymi praktykami branżowymi, np. ISO/IEC 27040 wskazuje właśnie na odporność nośników optycznych na czynniki elektromagnetyczne.

Pytanie 36

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Czterokrotny.
B. Dwukrotny.
C. Pięciokrotny.
D. Trzykrotny.
Zmniejszenie poziomu sygnału o 6 dB oznacza, że moc sygnału spada dokładnie czterokrotnie. Wynika to z definicji decybela – 1 dB to logarytmiczna jednostka opisująca stosunek dwóch wartości mocy. Wzór na zmianę mocy w decybelach wygląda tak: dB = 10 * log10(P2/P1). Jeśli podstawimy -6 dB, to: -6 = 10 * log10(P2/P1), czyli log10(P2/P1) = -0,6. Po wyliczeniu: P2/P1 = 10^(-0,6) ≈ 0,25, czyli dokładnie 1/4, co oznacza czterokrotny spadek mocy. Takie przeliczenia przydają się np. w systemach nagłośnieniowych, radiokomunikacji, instalacjach antenowych czy nawet prostych testach wzmacniaczy. W praktyce dużo łatwiej jest operować na decybelach niż na zwykłych wartościach liniowych, bo szybciej wychwycisz zmiany – 3 dB to połowa, 6 dB to ćwiartka, 10 dB to już tylko 1/10 pierwotnej mocy. Z mojego doświadczenia, wielu techników korzysta z tego uproszczenia na co dzień, bo pozwala błyskawicznie ocenić skutki tłumienia czy strat na kablu. Standardy branżowe, np. ITU czy zalecenia EBU, też operują tymi wartościami właśnie dlatego, że są wygodne i uniwersalne. Warto sobie to dobrze zapamiętać – i przydaje się nie tylko na egzaminie, ale i w realnej pracy z elektroniką.

Pytanie 37

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Dysk SSD
B. Mini Disc
C. Kaseta DAT
D. Karta SDHC
Mini Disc to ciekawy przykład technologii, która łączy świat magnetyczny z optycznym. Nośniki tego typu, wprowadzone przez Sony w latach 90., wykorzystują zapis magnetooptyczny – dane są zapisywane poprzez nagrzanie warstwy magnetycznej wiązką lasera, a następnie zmianę kierunku namagnesowania za pomocą pola magnetycznego. Takie podejście zapewnia dość wysoką trwałość zapisu oraz odporność na uszkodzenia mechaniczne, przynajmniej w porównaniu do klasycznych kaset czy płyt CD. W praktyce Mini Diski przez wiele lat wykorzystywane były w branży audio, zwłaszcza przez dziennikarzy i muzyków – bardzo ceniono je za możliwość wielokrotnego zapisu bez utraty jakości. Moim zdaniem to w ogóle było fajne rozwiązanie, bo łączyło zalety magnetycznych kaset (możliwość kasowania i ponownego nagrywania) z bardziej nowoczesnymi funkcjami optycznych płyt (szybki dostęp do utworów, cyfrowa jakość dźwięku). Dzięki temu Mini Disc wyprzedzał nieco swoje czasy, a obecnie jest ciekawostką technologiczną, z której można wyciągnąć sporo inspiracji przy analizie różnych metod przechowywania danych. W branżowych standardach zapis magnetooptyczny pojawia się jeszcze np. w droższych rozwiązaniach archiwizacyjnych dla firm, ale dla zwykłego użytkownika Mini Disc był najbardziej znanym nośnikiem tego typu.

Pytanie 38

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Viola
B. Bass
C. Violin
D. Cello
Prawidłowe nazwanie ścieżki jako „Violin” w projekcie DAW to nie tylko kwestia porządku, ale przede wszystkim dobrych praktyk pracy w środowisku studyjnym. Właściwe etykietowanie śladów – tu konkretnie nagrania partii skrzypiec – niesamowicie ułatwia późniejszą edycję, miksowanie czy współpracę z innymi realizatorami i muzykami. Pracując nad rozbudowanym projektem, gdzie często pojawia się kilkadziesiąt ścieżek instrumentów, szybkie zlokalizowanie skrzypiec (Violin) dzięki poprawnej nazwie oszczędza masę czasu i pozwala uniknąć nieporozumień. Z mojego doświadczenia wynika, że nawet jeśli pracujesz solo, po paru dniach wracając do projektu możesz zapomnieć, co kryje się pod „Track 1” – natomiast „Violin” mówi wszystko jasno. Branżowe standardy, zwłaszcza w większych studiach czy przy pracy z zagranicznymi realizatorami, są wręcz bezlitosne dla chaotycznego nazewnictwa – tu liczy się precyzja i konsekwencja. Warto też zauważyć, że część DAW-ów automatycznie eksportuje nazwy śladów do plików STEM czy sesji AAF/OMF, co jest nieocenione przy dalszym transferze materiału. Oprócz tego, jasne nazewnictwo ścieżek pomaga automatyzować różne procesy, np. routing czy grupowanie w mikserze. Moim zdaniem, to taki prosty nawyk, który po prostu trzeba sobie wyrobić, jeśli chce się być profesjonalistą w tej branży.

Pytanie 39

Które z wymienionych urządzeń wykorzystuje modulację fazy w wybranym paśmie częstotliwości sygnału?

A. Noise gate.
B. Phaser.
C. Peak Master.
D. Equalizer.
Phaser to bardzo charakterystyczny efekt dźwiękowy, który rzeczywiście bazuje na modulacji fazy sygnału w określonym paśmie częstotliwości. Cała magia polega na tym, że sygnał jest rozdzielany na dwie ścieżki – jedna pozostaje niezmieniona, a druga przechodzi przez filtr all-pass, który przesuwa fazę w zależności od częstotliwości. Następnie oba sygnały są sumowane, co prowadzi do powstawania charakterystycznych efektów konstruktywnej i destruktywnej interferencji. W praktyce daje to dobrze słyszalne "przesuwanie" czy "fazowanie" w dźwięku, bardzo popularne zwłaszcza w gitarach elektrycznych czy syntezatorach – np. klasyczny efekt z muzyki rockowej lat 70. Moim zdaniem to jeden z najfajniejszych efektów, bo potrafi ożywić nawet najprostszy riff. Z punktu widzenia inżynierii dźwięku phasery są projektowane tak, by nie ingerować w głośność sygnału, a tylko modulować fazę. W branży standardem jest stosowanie phaserów właśnie w aranżacjach wymagających przestrzenności lub unikalnego "kosmicznego" brzmienia. Warto jeszcze dodać, że phaser nie jest częstotliwościowym korektorem czy urządzeniem tłumiącym – jego działanie jest unikalne, bo opiera się właśnie na manipulacji fazą, a nie na zmianie amplitudy czy tłumieniu szumów. Jeśli ktoś chce eksperymentować z barwą instrumentu, phaser daje naprawdę szerokie możliwości, a jego obsługa jest całkiem prosta nawet w domowym studio.

Pytanie 40

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. AAC
C. ALAC
D. WAV
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.