Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 5 maja 2026 13:12
  • Data zakończenia: 5 maja 2026 13:18

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. TOSLINK
B. DIN
C. BNC
D. TDIF
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 2

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.aiff
B. *.ogg
C. *.mp3
D. *.flac
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 3

W nagraniu zakłócenia w postaci szumów należy redukować z zastosowaniem procesu

A. Dither
B. HPF
C. Compression
D. Noise Reduction
Noise Reduction to specjalistyczny proces, który służy właśnie do redukcji szumów w nagraniach – czy to głosu, czy instrumentów, czy ogólnie w miksie. Cały myk polega na tym, że systemy do redukcji szumów analizują sygnał i starają się usunąć tylko to, co uznają za niepożądane zakłócenia, jak np. szum tła, szum taśmy, buczenie czy nawet szumy wynikające z pracy urządzeń czy kiepskich kabli. W praktyce Noise Reduction stosuje się na etapie postprodukcji, często w programach typu DAW (np. Adobe Audition, Izotope RX – swoją drogą RX to czołówka jeśli chodzi o naprawianie nagrań). Bardzo ważne jest, by nie przesadzić z redukcją, bo wtedy brzmi to nienaturalnie, czasem pojawiają się artefakty i nagranie robi się takie... plastikowe. W branży standardem jest, żeby najpierw zadbać o czyste źródło (dobry mikrofon, izolacja akustyczna), a dopiero potem, jeśli coś w nagraniu zostało, działać za pomocą Noise Reduction. Moim zdaniem, jeśli ktoś poważnie podchodzi do produkcji audio, powinien umieć korzystać z tego typu narzędzi, bo one naprawdę ratują skórę, np. kiedy nagranie robione było w trudnych warunkach terenowych albo ze sprzętem nie najwyższych lotów. Dodatkowo, Noise Reduction to nie tylko filtry – to często zaawansowane algorytmy, które porównują fragmenty ciszy i sygnału, ucząc się, co jest szumem. To jest zupełnie inne podejście niż zwykły EQ czy kompresja.

Pytanie 4

Która z operacji umożliwia usunięcie przesłuchów obecnych w nagraniu wielośladowym?

A. Bramkowanie.
B. Kompresja.
C. Edycja panoramy.
D. Pogłosowanie.
Bramkowanie to jeden z tych procesów, które naprawdę się docenia dopiero przy pracy z wielośladem, gdzie przesłuchy (ang. bleed) potrafią napsuć sporo krwi. Chodzi o dźwięki z innych ścieżek, np. mikrofon perkusji zbierający gitarę elektryczną w tle. Bramkowanie, czyli stosowanie bramki szumów (noise gate), pozwala automatycznie wyciszyć te fragmenty ścieżki, w których poziom sygnału spada poniżej ustalonego progu. Dzięki temu tam, gdzie np. mikrofon nie powinien nic nagrywać, nie słychać przypadkowych dźwięków z pozostałych źródeł. To szczególnie ważne przy miksowaniu bębnów, wokali czy instrumentów nagrywanych jednocześnie. Moim zdaniem, bramka szumów to narzędzie obowiązkowe w arsenale realizatora, bo pozwala zachować selektywność i czystość każdego kanału. Oczywiście trzeba jeszcze umiejętnie dobrać parametry – czasem próg ustawi się za wysoko i wytnie się też pożądany sygnał, ale to kwestia wprawy. W standardach branżowych, nawet w profesjonalnych produkcjach, bramkowanie stosuje się praktycznie zawsze tam, gdzie przesłuchy mogłyby popsuć definicję miksu. Dobrą praktyką jest też stosować bramkowanie przed kompresją, żeby niepotrzebnie nie wzmacniać tych przesłuchów. Ciekawostka: niektórzy kreatywnie wykorzystują bramkowanie np. na pogłosach albo automatyzują parametry dla specjalnych efektów, więc to naprawdę narzędzie z potencjałem!

Pytanie 5

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Fade out.
B. Freeze.
C. Solo.
D. Mute.
Fade out to fachowy termin używany w branży audio, który oznacza stopniowe, płynne wyciszanie dźwięku aż do całkowitej ciszy. W praktyce stosuje się go bardzo często – na przykład na końcu utworów muzycznych, w produkcji reklam, filmów, podcastów czy prezentacji multimedialnych. Dzięki fade out dźwięk nie urywa się nagle, tylko elegancko schodzi do zera, co brzmi naturalniej i po prostu przyjemniej dla ucha. Takie rozwiązanie to już branżowy standard, zwłaszcza w miksie i masteringu. W programach typu DAW (Digital Audio Workstation) ustawia się to bardzo intuicyjnie – wystarczy zazwyczaj przeciągnąć końcówkę ścieżki lub dodać automatyzację głośności. Dobrą praktyką jest stosowanie fade out tam, gdzie naturalne zakończenie utworu jest zbyt gwałtowne – można wtedy zapanować nad nastrojem i nie drażnić słuchacza nagłym brakiem dźwięku. Z mojego doświadczenia wynika, że umiejętność prawidłowego używania fade out przekłada się na lepszą jakość całego projektu dźwiękowego. Warto też pamiętać, że niektórzy producenci lubią używać bardzo długiego fade out, żeby zostawić delikatne echo czy szum na końcu. To już takie „smaczki” branżowe.

Pytanie 6

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 96 dB
B. 48 dB
C. 144 dB
D. 192 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 7

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 0,2 ms
B. 2 ms
C. 0,02 ms
D. 20 ms
Odpowiedź 0,02 ms jest prawidłowa, bo przy częstotliwości próbkowania 48 kHz każda próbka pojawia się co dokładnie 1/48000 sekundy. Jeśli przeliczyć to na milisekundy, wychodzi 0,020833... ms – w praktyce zwykle zaokrągla się do 0,02 ms. To bardzo krótki czas, ale pozwala uzyskać wysoką jakość nagrania, bo zgodnie z zasadą Nyquista da się poprawnie zapisać dźwięki o częstotliwościach do połowy tej wartości, czyli do 24 kHz. To wyższa granica niż ludzkie ucho jest w stanie wychwycić, ale taki sampling stosuje się w profesjonalnym audio, produkcji muzyki, nagraniach filmowych czy transmisjach telewizyjnych. Moim zdaniem właśnie to rozróżnia domowe systemy (często 44,1 kHz jak w CD) od zastosowań profesjonalnych, gdzie 48 kHz to taki złoty standard. Sam kiedyś myślałem, że wyższa częstotliwość próbkuje „lepiej”, ale różnice są subtelne – kluczowe jest, żeby próbki były pobierane odpowiednio szybko w stosunku do najwyższych dźwięków, które chcemy zarejestrować. W praktyce, jak miksujesz dźwięk albo przygotowujesz podcast, to 0,02 ms między próbkami daje Ci ogromną precyzję, zwłaszcza przy obróbce czy edycji. Dla porównania, przy 44,1 kHz odstęp to ok. 0,0227 ms – niewiele więcej, ale w broadcastingu te kilka tysięcznych też ma znaczenie. Warto o tym pamiętać, bo w pracy z cyfrowym audio taka matematyka bardzo się przydaje.

Pytanie 8

Który z wymienionych skrótów klawiaturowych służy do zapisania sesji oprogramowania DAW na dysku komputera?

A. CTRL + X (Win) / Command + X (Mac)
B. CTRL + C (Win) / Command + C (Mac)
C. CTRL + S (Win) / Command + S (Mac)
D. CTRL + V (Win) / Command + V (Mac)
CTRL + S (Windows) oraz Command + S (Mac) to chyba najbardziej intuicyjny skrót w każdej aplikacji komputerowej, ale w DAW-ach (Digital Audio Workstation) jest wręcz podstawowym narzędziem pracy. Dzięki niemu można zapisać całą sesję, wszystkie projekty i nagrania bez potrzeby przeklikiwania się przez menu. To ogromna oszczędność czasu, zwłaszcza gdy pracujesz na wielu ścieżkach albo masz rozbudowaną sesję z masą efektów czy automatyzacji. Co ciekawe, praktycznie każdy program audio – od Abletona przez Cubase aż po Pro Tools – korzysta właśnie z tego skrótu do zapisywania projektu. Moim zdaniem to trochę tak jakby w samochodzie mieć szybki dostęp do hamulca – po prostu musisz mieć to pod ręką. W branży mówi się nawet o tzw. muscle memory na ten skrót – odruchowo wciskasz go po każdej większej zmianie, żeby nie stracić efektów pracy. Swoją drogą, nauczenie się zapisywania co parę minut to nawyk, który potrafi uratować całą sesję, zwłaszcza jeśli DAW się zawiesi albo padnie zasilanie. Z mojego doświadczenia wynika, że osoby, które automatycznie korzystają z CTRL + S, rzadziej tracą projekty, mniej się stresują i ogólnie pracują sprawniej. Dla porządku warto wiedzieć, że chociaż DAW-y coraz częściej oferują autozapis, to jednak ręczny zapis zawsze daje ci pełną kontrolę nad wersjami projektu – możesz zrobić backup, zapisać pod inną nazwą, wrócić do wcześniejszej wersji. Mając to wszystko na uwadze, dobrze jest po prostu wyrobić sobie ten nawyk już na początku przygody z DAW-ami.

Pytanie 9

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. expander.
B. compander.
C. adaptive limiter.
D. multiband compressor.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 10

Który z wymienionych parametrów kompresora dynamiki odpowiada za czas odpuszczenia kompresji po spadku poziomu sygnału poniżej progu zadziałania kompresora?

A. Threshold.
B. Release.
C. Attack.
D. Ratio.
Parametr „release” w kompresorze dynamiki określa, jak szybko urządzenie przestaje tłumić sygnał po tym, jak jego poziom spadnie poniżej ustalonego progu (threshold). To właśnie release kontroluje długość powrotu sygnału do normalnej głośności po zakończeniu działania kompresji. Moim zdaniem, to taki trochę niedoceniany parametr, ale bardzo ważny w praktycznej realizacji dźwięku – źle ustawiony release może prowadzić do dziwnych efektów, np. pompującego dźwięku albo nienaturalnego, „oddychającego” miksu. W dobrych praktykach studyjnych zawsze testuje się release na żywym materiale – instrumenty perkusyjne czy wokale często wymagają różnych wartości, żeby wszystko brzmiało naturalnie i bez artefaktów. W branży dźwiękowej mówi się nawet, że release jest kluczem do transparentności kompresji. Dla przykładu, przy miksowaniu nagrania z dynamicznym wokalem, długi release może powodować, że całe frazy będą cichsze niż powinny, a krótki release – że pojawią się niepożądane efekty pulsowania. Dlatego dobrze mieć świadomość, na czym polega działanie tego parametru i jak wpływa na całość brzmienia. Ustawianie release wymaga trochę wyczucia, ale też znajomości materiału – nie zawsze warto kierować się „na oko”, tylko raczej słuchać i eksperymentować. Praktycy często polecają najpierw ustawić krótki release i stopniowo go wydłużać, aż kompresja stanie się mniej zauważalna – to taka branżowa sztuczka, która się sprawdza.

Pytanie 11

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. MASTER
B. BUS
C. VCA
D. AUX
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 12

Procesor, który należy zastosować do redukcji sybilantów w ścieżce wokalu, to

A. de-esser.
B. ogranicznik.
C. reverb.
D. time stretch.
De-esser to narzędzie, które w branży muzycznej i studyjnej jest praktycznie standardem przy obróbce wokali, zwłaszcza jeśli chodzi o walkę z sybilantami. Sybilanty to takie charakterystyczne, nieprzyjemne w odbiorze głoski, głównie „s”, „sz”, „cz”, które często mogą brzmieć zbyt ostro i kłuć w uszy po nagraniu wokalu. De-esser działa trochę jak bardzo selektywny kompresor – skupia się tylko na wybranym paśmie częstotliwości, najczęściej gdzieś między 5 a 10 kHz, tam gdzie te sybilanty są najmocniejsze. Co ciekawe, w dobrych studiach często używa się nawet kilku de-esserów na różnych etapach miksu, dostosowując je do różnych fragmentów utworu. Sam proces polega na chwilowym ściszaniu sybilantów, nie psując przy tym całej barwy wokalu. Dzięki temu głos staje się przyjemniejszy w odbiorze i nie męczy słuchacza. Z mojego doświadczenia najlepiej ustawiać de-esser, słuchając na różnych głośnościach – często to, co na słuchawkach jeszcze brzmi dobrze, w dużych monitorach już jest zbyt agresywne. Branża od lat korzysta z de-esserów, bo to najprostszy i najskuteczniejszy sposób na ujarzmienie tych syczących dźwięków. Warto też pamiętać, że nieumiejętne użycie tego procesora może sprawić, że wokal stanie się matowy, więc wszystko z wyczuciem. Tak czy inaczej, jeśli ktoś pracuje z wokalami, de-esser to absolutna podstawa do walki z sybilantami – tego nie da się przeskoczyć żadnym innym efektem.

Pytanie 13

W celu zminimalizowania latencji przy przetwarzaniu dźwięku w oprogramowaniu DAW, należy

A. zmniejszyć przepływność bitową sygnału.
B. użyć szybkiego dysku zewnętrznego.
C. zmniejszyć rozmiar bufora programowego.
D. zmniejszyć częstotliwość próbkowania dźwięku.
Zmniejszenie rozmiaru bufora programowego to jedna z najskuteczniejszych metod na obniżenie latencji podczas pracy z dźwiękiem w DAW. Wynika to z faktu, że bufor odpowiada za przetwarzanie i przekazywanie porcji danych – im mniejszy rozmiar bufora, tym szybciej sygnał przechodzi przez system, a opóźnienie między wejściem a wyjściem maleje. W praktyce, przy nagrywaniu czy graniu na żywo, bardzo istotne jest, by dźwięk reagował natychmiast na działania muzyka czy realizatora, bo każdy zauważalny lag potrafi mocno utrudnić pracę. Profesjonalne studia oraz osoby zajmujące się miksowaniem live praktycznie zawsze zaczynają od ustawienia minimalnej akceptowalnej wartości bufora, dopiero kiedy pojawią się problemy z wydajnością, podnoszą go. Warto pamiętać, że zbyt niski bufor może powodować artefakty dźwiękowe czy trzaski, więc trzeba znaleźć złoty środek. Coraz częściej interfejsy audio i DAW pozwalają dynamicznie zmieniać bufor, co jest mega pomocne. Moim zdaniem, zwłaszcza przy nagrywkach wokali lub instrumentów na żywo, różnica jest kosmicznie odczuwalna – latencja potrafi spaść do poziomu, gdzie praktycznie jej nie zauważamy.

Pytanie 14

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 80 minut.
B. 70 minut.
C. 60 minut.
D. 90 minut.
Płyta CD-Audio o pojemności 700 MB rzeczywiście pozwala na zapis maksymalnie około 80 minut muzyki w standardzie audio. To wynika bezpośrednio ze specyfikacji formatu CD-DA (Compact Disc Digital Audio), który został opracowany przez Sony i Philipsa. W praktyce na jednej płycie mieści się dokładnie 700 MB danych, co przekłada się właśnie na 80 minut nieskompresowanego dźwięku stereo o parametrach 16 bitów, 44,1 kHz. To są bardzo konkretne wartości, na których bazuje cała branża muzyczna od lat 80. W sklepach muzycznych praktycznie wszystkie albumy wydawane na CD mieszczą się w tym limicie, dlatego bardzo często dłuższe płyty dzielone są na dwie części albo skraca się materiał. Co ciekawe, CD-Audio nie używa kompresji, więc zapis jest liniowy, bez strat jakości, co wciąż jest cenione przez audiofilów. Przy masteringu utworów warto pamiętać, że nawet niewielkie przekroczenie 80 minut może spowodować problemy z odczytem na niektórych odtwarzaczach. Z mojego doświadczenia w pracy ze sprzętem audio wynika, że niektóre nagrywarki próbują zapisywać ponad standardową pojemność płyty (tzw. overburning), ale jest to niezalecane i często prowadzi do błędów. Jeśli ktoś planuje tworzyć własne składanki na CD, powinien zawsze brać pod uwagę te granice i korzystać z dedykowanego oprogramowania, które podsumowuje czas nagrania. To ułatwia uniknięcie problemów podczas odtwarzania na różnych urządzeniach.

Pytanie 15

Która z operacji umożliwia usunięcie przesłuchów obecnych w nagraniu wielośladowym?

A. Kompresja.
B. Edycja panoramy.
C. Bramkowanie.
D. Pogłosowanie.
Bramkowanie to jedna z kluczowych technik stosowanych w pracy z nagraniami wielośladowymi, zwłaszcza kiedy pojawiają się przesłuchy, czyli niepożądane dźwięki z innych źródeł nagranych na śladzie, na przykład kiedy mikrofon perkusji zbiera nie tylko bęben, ale i talerze czy wokal. Bramki szumów (gate) działają na zasadzie przepuszczania sygnału tylko wtedy, gdy jego poziom przekracza określony próg. Dzięki temu możemy sprawić, że w momentach ciszy na danym śladzie nie pojawiają się dźwięki z innych instrumentów, przez co miks staje się czystszy i bardziej selektywny. W praktyce, bramkowanie często wykorzystuje się przy nagrywaniu bębnów, zwłaszcza tomów i werbla, żeby wyeliminować niechciane przesłuchy z talerzy czy stopy. Moim zdaniem, dobrze ustawiona bramka potrafi zrobić naprawdę dużą różnicę, ale trzeba uważać, żeby nie "uciąć" ważnych dźwięków, szczególnie naturalnych wybrzmień instrumentu. W branży to podstawa, zwłaszcza w produkcjach na żywo czy przy miksowaniu sesji z dużą liczbą mikrofonów. Dodatkowo, korzystanie z bramek to nie tylko kwestia eliminacji przesłuchów, ale też ogólnej kontroli nad dynamiką i czystością nagrania. Warto wiedzieć, że profesjonalne DAWy i konsole mikserskie mają dedykowane narzędzia do bramkowania, które pozwalają ustawić czas ataku, podtrzymania i opadania sygnału, co daje jeszcze większą kontrolę nad efektem końcowym. Tak naprawdę bramkowanie to taka trochę sztuka – wymaga wyczucia i znajomości materiału, ale jak już się to opanuje, efekty są naprawdę satysfakcjonujące.

Pytanie 16

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. VBR
C. CBR
D. MBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 17

W którym z wymienionych obszarów roboczych DAW przygotowuje się zapis w postaci partytury?

A. Transport.
B. Score.
C. Edit.
D. Mix.
Score to właśnie ten obszar w większości cyfrowych stacji roboczych audio (DAW), gdzie przygotowuje się zapis nutowy, czyli partyturę. Moim zdaniem, jest to kluczowy moduł, jeśli pracujesz z muzyką, którą chcesz później przekazać instrumentalistom czy zespołowi – albo po prostu zależy Ci na jasnym przedstawieniu struktur muzycznych w klasyczny sposób. W trybie Score możesz nie tylko oglądać nuty generowane z MIDI, ale i ręcznie je edytować, dodając oznaczenia artykulacyjne, dynamikę, zmiany tempa, takty itp. To bardzo wygodne, bo pozwala szybko przekonwertować pomysły z klawiatury sterującej na czytelny zapis nutowy, praktycznie gotowy do wydruku lub eksportu w formacie PDF albo MusicXML. W profesjonalnych produkcjach często to właśnie w Score przygotowuje się tzw. wyciągi partii dla sesji nagraniowych. Z mojego doświadczenia wynika, że nawet przy produkcjach popowych, w których dominuje MIDI, funkcja Score nieraz ratuje skórę, gdy trzeba coś pokazać sekcji smyczkowej czy dętej. Warto ją znać i wykorzystywać, bo to bardzo przyspiesza pracę i pozwala uniknąć nieporozumień z muzykami.

Pytanie 18

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 5 kanałów.
B. 7 kanałów.
C. 8 kanałów.
D. 1 kanału.
System wielokanałowy oznaczony jako 7.1 składa się z ośmiu kanałów, czyli 7 głośników pełnopasmowych i jednego subwoofera dedykowanego do odtwarzania niskich częstotliwości. To oznaczenie jest standardem w branży audio, zwłaszcza w kinie domowym czy profesjonalnych instalacjach dźwiękowych. Te siedem kanałów to zwykle: lewy, środkowy, prawy, lewy surround, prawy surround, lewy tylni i prawy tylni. Subwoofer (czyli ten '.1') zajmuje się generowaniem basów i efektów specjalnych o bardzo niskich częstotliwościach, co daje potężniejszy i bardziej realistyczny odbiór dźwięku, zwłaszcza w filmach akcji czy grach. Moim zdaniem, jeśli ktoś raz usłyszy dobrze ustawiony system 7.1, to już nie będzie chciał wrócić do starego stereo czy nawet 5.1. Takie zestawy są obecnie wspierane przez nowoczesne formaty dźwięku przestrzennego, jak Dolby TrueHD czy DTS-HD Master Audio. Często spotyka się je w salach kinowych, ale coraz częściej także w lepszych pokojach gamingowych i domowych salach audiofilskich. Branża od lat rekomenduje takie rozwiązania tam, gdzie liczy się precyzja pozycjonowania dźwięku i wierność odwzorowania przestrzeni akustycznej. Powiem szczerze, czasem nawet nie zdajemy sobie sprawy, jak wiele szczegółów audio można przegapić, jeśli nie mamy tylu kanałów!

Pytanie 19

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. VBR
B. MBR
C. ABR
D. CBR
CBR, czyli Constant Bit Rate, to skrót, który faktycznie oznacza stałą przepływność bitową sygnału cyfrowego. W praktyce, gdy coś jest kodowane z użyciem CBR, ilość danych przesyłanych lub zapisywanych na sekundę jest zawsze taka sama. To bywa bardzo przydatne, zwłaszcza gdy mamy do czynienia z transmisją na żywo, streamingiem albo sieciami o ograniczonej lub przewidywalnej przepustowości, np. radioliniami czy łączami satelitarnymi. Moim zdaniem to jedno z częściej spotykanych ustawień w profesjonalnych systemach nadawczych – pozwala łatwiej przewidzieć obciążenie sieci. Standardy takie jak MPEG-2, MPEG-4 czy H.264 rekomendują stosowanie CBR w sytuacjach, gdy wymagana jest powtarzalność i stabilność przesyłu. Warto też wiedzieć, że CBR jest wykorzystywany np. przy nagrywaniu na płytach DVD lub w telewizji cyfrowej, bo wtedy dużo łatwiej zaplanować miejsce na nośniku czy pasmo transmisji. Z mojego doświadczenia – CBR nie zawsze daje najlepszą jakość przy tej samej objętości pliku, ale za to jest przewidywalny, co w infrastrukturze sieciowej potrafi być kluczowe. Chociaż czasami można usłyszeć, że jest to rozwiązanie „mało elastyczne”, to jednak jego prostota ma ogromną wartość właśnie tam, gdzie nie ma miejsca na skoki bitrate’u.

Pytanie 20

Jaki stopień zmniejszenia pliku źródłowego WAV oferują formaty kompresji stratnej, przy zachowaniu akceptowalnej jakości dźwięku?

A. Około dziesięciokrotny.
B. Około pięciokrotny.
C. Ponad dwudziestokrotny.
D. Mniej niż dwukrotny.
Formaty kompresji stratnej, takie jak MP3, AAC czy OGG Vorbis, zostały stworzone właśnie po to, żeby znacząco redukować rozmiary plików audio, a przy tym utrzymać akceptowalną jakość dźwięku. Gdy mamy do czynienia z plikiem WAV (który zazwyczaj jest nieskompresowany i zajmuje sporo miejsca – na przykład typowe 3-minutowe nagranie stereo 44,1 kHz/16 bit to ponad 30 MB), użycie dobrego kodeka stratnego pozwala zejść z rozmiarem do ok. 3 MB. Z mojego doświadczenia – zarówno przy projektach muzycznych, jak i podczas przygotowywania podcastów – stosuje się najczęściej bitrate na poziomie 128-192 kbps, co daje właśnie około dziesięciokrotną redukcję w stosunku do oryginału. Oczywiście, im wyższy bitrate, tym większy plik i lepsza jakość, ale właśnie 10x jest taką sensowną średnią, przy której większość ludzi nie słyszy większej różnicy w typowym sprzęcie. Standardy branżowe, na przykład w streamingach czy archiwizacji nagrań do internetu, bardzo często opierają się na tej proporcji. Praktycznym przykładem jest przesyłanie utworów do serwisów streamingowych – pliki muszą być jak najmniejsze przy zachowaniu jakości, bo to po prostu opłacalne i wygodne. Moim zdaniem, jeśli ktoś zawodowo obrabia dźwięk, to doskonale zna tę zasadę i zawsze balansuje między jakością a optymalnym rozmiarem pliku.

Pytanie 21

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 0,1
B. 100
C. 1
D. 10
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 22

Który z wymienionych rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji programu DAW?

A. 32 próbki.
B. 64 próbki.
C. 128 próbek.
D. 256 próbek.
Wybranie bufora o rozmiarze 32 próbek to zdecydowanie najbardziej sensowna opcja, jeśli zależy nam na absolutnie minimalnej latencji podczas nagrywania dźwięku w DAW. Mówiąc wprost, im mniejszy bufor, tym krótszy czas oczekiwania na reakcję systemu – sygnał praktycznie od razu trafia z wejścia audio do wyjścia. To kluczowe dla wokalistów, instrumentalistów czy live performerów, gdzie nawet drobne opóźnienie potrafi totalnie wybić z rytmu. W środowiskach profesjonalnych, np. w studiach nagraniowych, standardem jest schodzenie do najniższych możliwych wartości, często właśnie na poziomie 32 czy 64 próbek, jeśli tylko sprzęt na to pozwala. Oczywiście, taki bufor zwiększa obciążenie procesora – tutaj już trzeba mieć porządną kartę dźwiękową i stabilne sterowniki, np. ASIO w Windows czy Core Audio na Macu. Z mojego doświadczenia: przy nagraniach w domowych warunkach też warto próbować zejść jak najniżej, byleby nie pojawiały się trzaski, dropy czy inne artefakty. Moim zdaniem to taki złoty standard dla tych, którym zależy na responsywności DAW podczas nagrywania na żywo. W materiałach firm takich jak Steinberg, Ableton czy Avid znajdziesz potwierdzenie, że to właśnie minimalizacja bufora daje najbardziej naturalne wrażenia podczas nagrania. Warto pamiętać, że później przy miksie czy masteringu można podnieść bufor, bo wtedy liczy się wydajność, nie latencja.

Pytanie 23

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AIFF
B. AAC
C. ALAC
D. WAV
Format AAC to przykład kodowania stratnego, które jest na co dzień wykorzystywane w usługach streamingowych, takich jak Spotify, YouTube czy Apple Music. W przeciwieństwie do formatów bezstratnych, takich jak ALAC czy WAV, AAC kompresuje dźwięk, usuwając część informacji uznanych za mniej istotne dla ludzkiego ucha. Najważniejsze jest to, że całość procesu opiera się na psychoakustycznych modelach percepcji dźwięku – algorytm stara się zredukować dane, których i tak nie usłyszymy. Moim zdaniem, w praktyce bardzo często nie odróżniamy dobrej jakości plików AAC od oryginału, szczególnie gdy słuchamy w słuchawkach bluetooth albo w aucie. Technologia AAC jest następcą MP3, oferując lepszą jakość przy mniejszym rozmiarze pliku, co jest ogromną zaletą np. przy przesyłaniu muzyki przez sieć lub przechowywaniu dużych bibliotek na telefonie. Standard ten jest szeroko wspierany przez urządzenia mobilne, konsole do gier i smart TV. Warto wiedzieć, że format AAC został zaimplementowany jako domyślny kodek audio w standardzie MPEG-4. To rozwiązanie jest rekomendowane w branży, kiedy zależy nam na kompromisie między jakością a objętością danych – do podcastów, audiobooków czy transmisji na żywo. Nie bez powodu Apple używa AAC w swoim całym ekosystemie. I szczerze, jeśli ktoś korzysta z internetu mobilnego, to kompresja stratna jest po prostu praktyczniejsza.

Pytanie 24

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Viola
B. Bass
C. Violin
D. Cello
Wybranie nazwy „Violin” dla ścieżki zawierającej nagranie partii skrzypiec w sesji programu DAW to rozwiązanie zgodne z najlepszymi praktykami branżowymi. Taka etykieta od razu wskazuje, jaki instrument został zarejestrowany na tej konkretnej ścieżce, co w dużym stopniu ułatwia zarówno organizację pracy, jak i późniejszą edycję czy miks. Moim zdaniem, jasne i jednoznaczne nazewnictwo ścieżek to coś, czego nie da się przecenić – wystarczy sobie wyobrazić projekt, w którym mamy kilkanaście różnych instrumentów smyczkowych i wszystkie są podpisane ogólnie albo błędnie. Kiedy dochodzi do miksu czy nawet szybkiego odsłuchu, nie ma miejsca na domysły – chcemy wiedzieć dokładnie, która ścieżka dotyczy jakiego instrumentu. Takie podejście jest też standardem w studiach nagraniowych na całym świecie, a profesjonalne sesje często mają bardzo szczegółowe nazwy ścieżek, zawierające nawet dodatkowe informacje, np. „Violin 1”, „Violin 2”, „Violin Room Mic”. Tego typu praktyka zapobiega pomyłkom podczas aranżowania, edytowania czy masteringu i znacznie ułatwia współpracę z innymi realizatorami czy muzykami. Z mojego doświadczenia wynika, że niewłaściwe nazewnictwo prowadzi tylko do chaosu w projekcie, a poprawne – oszczędza masę czasu przy dużych produkcjach. W skrócie: zawsze warto nazywać ścieżki zgodnie z tym, co naprawdę się na nich znajduje.

Pytanie 25

Na którą z podanych wartości należy ustawić rozmiar bufora danych dla osiągnięcia maksymalnej wydajności i płynności pracy w środowisku oprogramowania DAW podczas montażu i miksowania materiału dźwiękowego?

A. 1 024 próbek.
B. 32 próbek.
C. 256 próbek.
D. 512 próbek.
Wybór bufora na poziomie 1 024 próbek to zdecydowanie najrozsądniejsza opcja podczas montażu i miksowania materiału dźwiękowego w środowisku DAW. Z mojego doświadczenia wynika, że tak duży bufor pozwala systemowi na przetwarzanie nawet bardzo rozbudowanych projektów audio bez obciążania procesora i ryzyka tzw. przeskoków lub trzasków w dźwięku. Najlepsze studia muzyczne i realizatorzy dźwięku zawsze podnoszą rozmiar bufora podczas etapów, gdzie nie liczy się już niska latencja, tylko stabilność oraz płynność odsłuchu. W miksie często pracujemy z wieloma ścieżkami, pluginami efektowymi i automatyzacją – wtedy większy rozmiar bufora jest wręcz konieczny, żeby nie doprowadzić do przeciążenia systemu. Warto pamiętać, że chociaż większy bufor zwiększa latencję, to w miksie nie ma to już żadnego znaczenia, bo nie nagrywamy na żywo – liczy się komfort pracy. W praktyce 1 024 próbki (czasem nawet 2 048, jeśli DAW na to pozwala) to taka branżowa norma podczas postprodukcji. Daje to czas komputerowi na "ogarnianie" wszystkich procesów w tle i pozwala realizatorowi skupić się na kreatywnym aspekcie miksu, a nie na rozwiązywaniu problemów technicznych. Ja zawsze sugeruję: jeśli miksujesz – wbijaj na 1 024 i nie przejmuj się opóźnieniem. To całkowicie naturalne podejście, sprawdzone u najlepszych.

Pytanie 26

Spośród wymienionych wskaż program dedykowany wyłącznie do edycji audio.

A. Avid Pro Tools
B. Steinberg WaveLab
C. Apple Logic Pro
D. Steinberg Cubase
Steinberg WaveLab to przykład oprogramowania, które od początku projektowano wyłącznie z myślą o edycji i masteringu dźwięku. To narzędzie typowo dla profesjonalistów, którzy skupiają się na pracy z pojedynczymi plikami audio, ich edycją, analizą, korektą i finalnym masteringiem. Nie znajdziesz tu rozbudowanych funkcji typowych dla DAW, jak rozbudowana obsługa MIDI czy wielośladowe nagrywanie sesji muzycznych. Z mojego doświadczenia, WaveLab jest często wybierany przez realizatorów dźwięku przy przygotowywaniu materiału do tłoczenia płyt CD, przygotowywaniu podcastów czy restauracji archiwalnych nagrań, gdzie potrzeba narzędzi do precyzyjnej obróbki fali dźwiękowej – np. usuwania szumów, klików czy korekcji barwy. W branży uznaje się, że dedykowane edytory audio, takie jak WaveLab lub Adobe Audition, zapewniają większą kontrolę nad detalami niż rozbudowane stacje robocze audio (DAW). Takie podejście pozwala uzyskać wyższy poziom jakości końcowego materiału audio, bo narzędzia masteringowe są wyraźnie lepiej zoptymalizowane pod kątem analizy sygnału, renderowania czy eksportu według profesjonalnych standardów (np. Red Book CD, EBU R128). W codziennej pracy z dźwiękiem często korzystam z WaveLab właśnie tam, gdzie liczy się chirurgiczna precyzja i szybkość pracy na plikach audio, np. w radiu albo przy gotowych nagraniach lektorskich.

Pytanie 27

Do ilu bitów należy ograniczyć rozdzielczość bitową, przygotowując płytę CD-Audio?

A. Do 16 bitów.
B. Do 24 bitów.
C. Do 8 bitów.
D. Do 32 bitów.
Dokładnie, płyta CD-Audio zgodnie ze światowym standardem Red Book powinna mieć rozdzielczość 16-bitową. To oznacza, że każda próbka dźwięku zapisana na płycie jest reprezentowana przez 16 bitów, co pozwala na uzyskanie 65 536 różnych możliwych wartości amplitudy. Dzięki temu muzyka odtwarzana z płyt CD charakteryzuje się wystarczająco szerokim zakresem dynamiki – mówi się o ok. 96 dB, co w praktyce całkowicie wystarcza do odsłuchu muzyki w warunkach domowych. Moim zdaniem wybór 16 bitów to taki kompromis pomiędzy jakością dźwięku a ilością miejsca, które można fizycznie zapisać na płycie. Zresztą, profesjonalne studia często nagrywają w wyższej rozdzielczości (24 bity), ale przed wydaniem muzyki na CD wykonuje się tzw. dithering i zgrywanie właśnie do 16 bitów. To pozwala zachować kompatybilność z odtwarzaczami i zapewnia, że każda płyta CD-Audio, niezależnie od wytwórni czy gatunku, ma taki sam techniczny poziom jakości. Podsumowując – 16 bitów to nie przypadek, tylko przemyślany międzynarodowy standard. Warto o tym pamiętać, bo różne formaty cyfrowe mają inne wymagania, a CD-Audio ma właśnie takie – i nie da się tam wcisnąć ani 24, ani 8 bitów bez złamania specyfikacji.

Pytanie 28

Która z wymienionych funkcji w programie DAW standardowo umożliwia płynne przejście między dwoma sąsiadującymi regionami umieszczonymi na ścieżce w sesji montażowej?

A. Split
B. Select
C. Crossfade
D. Group
Crossfade to jedna z tych funkcji w DAW, których praktycznie nie da się zastąpić niczym innym, jeśli zależy Ci na płynnym, naturalnym połączeniu dwóch fragmentów audio lub MIDI na jednej ścieżce. Działa to tak, że na styku dwóch regionów program automatycznie tworzy nakładające się wyciszenie (fade out) i narastanie (fade in), przez co dźwięki nie urywają się gwałtownie, nie słychać charakterystycznych kliknięć i artefaktów. To podstawa przy montażu np. wokali czy gitar – bez crossfade'ów każda zmiana nagrania jest jak nożyczki, które tną bez litości. W praktyce wystarczy zaznaczyć dwa sąsiadujące regiony i wybrać opcję crossfade, a DAW zrobi resztę za nas. W większości programów jak Cubase, Pro Tools, Studio One, ta funkcja jest dostępna praktycznie od ręki – branżowy standard i nie wyobrażam sobie sensownego montażu bez niej. Warto też wiedzieć, że można edytować kształt przejścia (np. liniowe, logarytmiczne), co daje ogromną kontrolę nad brzmieniem. Moim zdaniem osoby, które opanowały crossfade'y, popełniają mniej błędów montażowych, a ich produkcje brzmią po prostu bardziej profesjonalnie. Warto się tym bawić i eksperymentować nawet na prostych projektach, bo to narzędzie, które oszczędza mnóstwo czasu i nerwów.

Pytanie 29

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 12 dB/okt.
C. 6 dB/okt.
D. 18 dB/okt.
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.

Pytanie 30

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-R
B. DVD+R DL
C. DVD-RW
D. DVD+R
Płyta DVD-RW to rzeczywiście nośnik wielokrotnego zapisu, czyli taki, na którym można zapisywać i kasować dane naprawdę wiele razy, dopóki się płyta fizycznie nie zużyje. W praktyce oznacza to, że można na niej nagrać film, potem go usunąć i wgrać coś zupełnie innego – trochę jak z pamięcią USB, tylko oczywiście wolniej i mniej wygodnie. W branży informatycznej DVD-RW często bywały wykorzystywane do testowania kopii zapasowych lub do przenoszenia dużych plików pomiędzy komputerami w czasach, gdy dyski twarde były jeszcze dość małe, a pendrive’y dopiero raczkowały. Nośniki RW (czyli ReWritable) są zgodne z odpowiednimi standardami DVD Forum, a oznaczenie „RW” zawsze sugeruje możliwość wielokrotnego wykorzystania. Fajną sprawą jest to, że takie płyty przydają się np. przy archiwizacji danych firmowych, gdzie co tydzień nadpisuje się backup. Moim zdaniem znajomość różnic pomiędzy DVD-R, DVD+R i DVD-RW to absolutna podstawa dla każdego, kto kiedykolwiek miał do czynienia z nośnikami optycznymi w praktyce – szczególnie, że na pierwszy rzut oka wyglądają identycznie. Branżowo, warto wiedzieć: do archiwów lepiej wykorzystać DVD-R lub DVD+R, a do testów czy transportu – właśnie DVD-RW. Reasumując: DVD-RW daje swobodę wielokrotnego użycia, co znacząco różni ją od wersji jednokrotnego zapisu.

Pytanie 31

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. FLAC
B. WMA
C. AAC
D. AC-4
FLAC to naprawdę świetny wybór, jeśli chodzi o bezstratną kompresję audio. Ten kodek, czyli Free Lossless Audio Codec, od lat uznawany jest przez branżę za wzorcowe rozwiązanie, kiedy komuś zależy na zachowaniu oryginalnej jakości nagrania po kompresji. Pliki FLAC są popularne nie tylko wśród audiofilów, ale też w studiach nagraniowych i archiwizacji dźwięku, bo pozwalają na idealną rekonstrukcję dźwięku po dekompresji – nie ma tu żadnych strat, wszystko brzmi dokładnie jak materiał źródłowy. Podczas codziennej pracy spotykałem się z sytuacjami, gdzie ktoś chciał zaoszczędzić miejsce na dysku, ale nie godził się na utratę jakości – i właśnie wtedy polecałem FLAC. Co ciekawe, to rozwiązanie jest otwarte, więc nie trzeba martwić się o jakieś dziwne licencje czy płatności. W dobrych praktykach branżowych mówi się, że jeśli archiwizujesz ważne nagrania, to najlepiej trzymać je właśnie w formacie bezstratnym, takim jak FLAC, a dopiero do bieżącego słuchania czy w urządzeniach mobilnych możesz robić wersje stratne, np. MP3 czy AAC. Moim zdaniem, warto znać różnicę pomiędzy kodekami bezstratnymi a stratnymi, bo to podstawa w pracy z dźwiękiem, zwłaszcza gdy w grę wchodzi jakość i możliwość późniejszej obróbki materiału.

Pytanie 32

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. NEW
B. CLOSE
C. OPEN
D. SAVE
Odpowiedź OPEN jest tutaj jak najbardziej na miejscu, bo właśnie ta opcja w menu FILE w większości programów typu DAW (czyli Digital Audio Workstation) służy do otwierania już istniejących, wcześniej zapisanych sesji czy projektów. Praktyka pokazuje, że w codziennej pracy realizatora czy producenta muzycznego to jedna z najczęściej używanych funkcji – bez niej praktycznie nie da się wrócić do swojej wcześniejszej pracy, poprawić miksu, dodać nowe ścieżki czy po prostu podejrzeć starsze ustawienia. Zresztą, sama logika menu FILE jest od lat utrzymywana w podobnej formie w większości aplikacji komputerowych, nie tylko muzycznych, co bardzo ułatwia naukę obsługi nowych programów. W typowych DAW-ach, takich jak Cubase, Ableton, Pro Tools czy FL Studio, komenda OPEN pozwala bezpośrednio przywołać plik projektu (najczęściej z rozszerzeniem właściwym dla danego programu), zachowując pełną strukturę ścieżek, ustawienia efektów, automatyki itd. Moim zdaniem, warto zawsze mieć nawyk częstego zapisywania sesji pod różnymi nazwami (np. wersjonowanie plików) i korzystania z opcji OPEN, gdy chcemy przetestować różne warianty miksu czy aranżacji. Co ciekawe, w środowisku profesjonalnym często nawet setupy studyjne mają skróty klawiszowe do szybkiego otwierania projektów, bo liczy się każda sekunda pracy i minimalizacja błędów ludzkich. Podsumowując: OPEN to nie tylko przywrócenie starej sesji, ale filar płynnej i bezpiecznej pracy z projektami muzycznymi.

Pytanie 33

Które z wymienionych określeń oznacza nagranie atmosfery dźwiękowej np. na planie filmowym?

A. Narrator.
B. Commentary.
C. Foley.
D. Ambience.
Ambience to w branży filmowej i dźwiękowej kluczowy termin, który oznacza nagranie naturalnego tła akustycznego danej lokalizacji. Chodzi o to, żeby zebrać dźwięki, które występują w danym miejscu niezależnie od dialogów czy efektów specjalnych – mogą to być szumy uliczne, śpiew ptaków, odgłosy klimatyzacji, wiatr czy nawet charakterystyczne echo pomieszczenia. Taki materiał dźwiękowy jest absolutnie niezbędny do tego, żeby scena w filmie czy serialu brzmiała wiarygodnie i naturalnie. Praktyka zbierania ambience pozwala uniknąć tzw. „martwej ciszy”, która jest nienaturalna dla ucha widza. W nowoczesnych produkcjach często nagrywa się kilka minut czystego tła dźwiękowego każdej lokacji – to się potem świetnie sprawdza na etapie postprodukcji, gdy montażysta i dźwiękowiec muszą „posklejać” sceny kręcone w różnych dniach czy warunkach. Moim zdaniem, każdy kto planuje pracę na planie filmowym, powinien dobrze rozumieć, czym jest ambience, bo bez tego powstają sztuczne, sterylne dialogi oderwane od otoczenia. To raczej podstawa pracy z dźwiękiem, tak jak white balance w obrazie – po prostu must have.

Pytanie 34

Spośród wymienionych typów nośników, największą pojemnością charakteryzuje się płyta

A. DVD + R DL
B. DVD + R SL
C. DVD – R SL
D. DVD – R DL
Dokładnie, płyta DVD – R DL wyróżnia się największą pojemnością spośród wymienionych opcji. Skrót "DL" oznacza Dual Layer, czyli dwie warstwy zapisu, co pozwala na zapisanie aż do 8,5 GB danych na jednej płycie. Standard DVD – R DL jest wykorzystywany przede wszystkim wtedy, gdy potrzebujemy zapisać większe pliki, na przykład filmy w wysokiej jakości lub archiwa projektów. W branży IT i w zastosowaniach domowych wybieranie płyt dwuwarstwowych to całkiem częsta praktyka, zwłaszcza jeśli zależy komuś na nośniku jednorazowego zapisu, a pendrive czy dysk zewnętrzny są niedostępne. Dla porównania, płyty typu SL (czyli Single Layer) mają pojemność do ok. 4,7 GB – to już spora różnica w praktyce. Moim zdaniem warto znać te różnice, bo przy archiwizacji lub kopiowaniu większej ilości danych można się mocno zdziwić, gdy płyta okaże się za mała. DVD – R DL działa na podobnych zasadach jak DVD + R DL, ale w praktyce bywa częściej wybierana w środowiskach, gdzie ważna jest kompatybilność ze starszymi odtwarzaczami albo urządzeniami. Czasem ludzie mylą te oznaczenia i potem mają problem z odczytem albo nagraniem płyty. Dobrze to ogarniać, bo w pracy technika komputerowego takie niuanse się często pojawiają.

Pytanie 35

Jaka powinna być minimalna liczba ścieżek materiału dźwiękowego w edytorze audio, pozwalająca na kontrolę każdego z instrumentów kwintetu smyczkowego?

A. 4 ścieżki.
B. 3 ścieżki.
C. 2 ścieżki.
D. 5 ścieżek.
Kwintet smyczkowy to zespół, w którym gra pięciu instrumentalistów: zwykle dwóch skrzypków, altowiolista, wiolonczelista i kontrabasista (czasem drugi wiolonczelista zamiast kontrabasisty – szczegóły zależą od repertuaru, ale zawsze pięć osób). Każdy instrument ma swoją unikalną barwę i funkcję w utworze, dlatego w profesjonalnej pracy studyjnej przyjęło się nagrywać lub przynajmniej oddzielnie edytować każdą partię. Jeśli chcesz mieć pełną kontrolę nad miksem – czyli panoramą, poziomem głośności, efektami czy automatyzacją – każda partia powinna mieć osobną ścieżkę. Tak się to robi w każdym porządnym studiu nagraniowym, bo miksowanie instrumentów razem ogranicza możliwości korekty i kreatywnej obróbki. Moim zdaniem to nie tylko wygoda, ale i duża oszczędność czasu, gdy chcesz np. wyciszyć samą wiolonczelę albo podkreślić altówkę. Dodatkowo, praca na pięciu ścieżkach pozwala np. na precyzyjne usuwanie szumów, stosowanie efektów przestrzennych albo automatyzację dynamiki – to już branżowy standard. Oczywiście, istnieją zespoły, które grają „na żywo” do jednej ścieżki stereo, ale w edytorze audio, gdy masz wybór, zawsze lepiej rozdzielać instrumenty. Przy kwintecie smyczkowym minimum to pięć ścieżek, jeśli zależy ci na jakości i profesjonalnym brzmieniu. W sumie, to taki techniczny kompromis między wygodą a kontrolą – im mniej ścieżek, tym mniej swobody. Dlatego 5 ścieżek to podstawa.

Pytanie 36

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Microsoft Windows Media Player.
B. Steiberg Cubase.
C. Avid ProTools.
D. Celemony Melodyne.
Rozszerzenie .ptx to format pliku sesji używany wyłącznie przez program Avid Pro Tools. To w zasadzie taki „kontener” na cały projekt – zapisuje wszystkie informacje o ścieżkach, ułożeniu klipów, automatyce, efektach, routingu i wielu innych szczegółach miksu. Pro Tools to jeden z najbardziej rozpoznawalnych programów DAW na świecie, wykorzystywany zarówno w studiach nagraniowych, telewizji, jak i przy produkcji filmowej. Jeśli ktoś pracuje z sesjami od innych realizatorów lub studiów, rozszerzenie .ptx praktycznie od razu mówi, że projekt powstał właśnie w Pro Tools. Z mojego doświadczenia wynika, że profesjonalne wymiany projektów między realizatorami często odbywają się właśnie w tym formacie, bo pozwala on na zachowanie pełnej zgodności i bezpieczeństwa pracy. Standardem branżowym jest też import/eksport ścieżek w plikach .ptx podczas masteringu lub zlecania miksów. Otwieranie plików .ptx w innych DAW zwykle po prostu nie jest możliwe – to zamknięty format, który rozumie tylko Pro Tools. W praktyce, jeśli chcesz dostać się do sesji .ptx, musisz mieć zainstalowanego Pro Toolsa. Warto to wiedzieć, żeby nie tracić czasu na próby otwierania tego typu plików w innych aplikacjach – po prostu się nie da. Takie podejście jest zgodne z dobrymi praktykami pracy przy projektach studyjnych, zwłaszcza w środowisku profesjonalnym.

Pytanie 37

Które z wymienionych określeń oznacza proces ustalania proporcji głośności dźwięku pomiędzy poszczególnymi ścieżkami w wielośladowej sesji montażowej programu DAW?

A. Mixing.
B. Overdubbing.
C. Fading.
D. Recording.
Mixing to kluczowy etap w pracy z dźwiękiem, szczególnie przy sesjach wielośladowych w DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live. Chodzi tu właśnie o umiejętne ustalenie proporcji głośności pomiędzy ścieżkami – np. wokalem, perkusją, gitarą i innymi instrumentami – żeby całość dobrze zabrzmiała jako jeden spójny utwór. To trochę jak z gotowaniem: nie możesz zostawić jednego składnika dominującego, bo zrujnuje cały przepis. W branży muzycznej mówi się, że dobry miks to taki, gdzie każdy element jest słyszalny, ale żaden nie "wychodzi przed szereg" bez powodu. Standardowo najpierw ustawia się poziomy głośności (tzw. balans), potem dodaje się efekty (np. korekcję, kompresję, pogłos). Z mojego doświadczenia bywa, że to właśnie proporcje decydują o tym, czy kawałek brzmi profesjonalnie, czy amatorsko. Praktyczna rada: warto porównywać swój miks z referencyjnymi utworami, to pomaga złapać właściwy balans. Mixing to też sztuka kompromisu – w dużych projektach można korzystać z automatyki, żeby ścieżki zmieniały głośność w określonych momentach. To naprawdę fascynujący i kreatywny proces, który wymaga ucha, wiedzy technicznej i odrobiny wyczucia. Warto zapamiętać, że bez dobrego miksu nawet świetnie nagrane ślady nie będą robić wrażenia.

Pytanie 38

Częstotliwość próbkowania 48 kHz jest wykorzystywana na potrzeby

A. produkcji dźwięku w telewizji.
B. transmisji zakresu mowy.
C. płyt CD-Audio.
D. płyt mp3.
Częstotliwość próbkowania 48 kHz to taki trochę złoty standard właśnie w telewizji i ogólnie w branży związanej z produkcją wideo. Stosuje się ją w większości profesjonalnych środowisk audio-wideo, głównie ze względu na to, jak jest ustawiona infrastruktura broadcastowa i sprzęt studyjny. W praktyce, praktycznie wszystkie kamery, rejestratory dźwięku, miksery czy systemy montażowe pracują domyślnie na 48 kHz. To wynika z faktu, że ta wartość daje bardzo dobrą jakość dźwięku, znacznie przewyższającą ludzkie potrzeby percepcyjne (słyszymy do ok. 20 kHz), ale jednocześnie nie generuje zbyt dużych plików jak wyższe częstotliwości. Jest to kompromis między jakością a wydajnością – przetwarzanie dźwięku w tej rozdzielczości jest szybkie i nie obciąża tak mocno sprzętu. Moim zdaniem, dobrze wiedzieć, że różne branże mają różne standardy: np. płyty CD zawsze trzymają się 44,1 kHz, a telewizja twardo 48 kHz. Dodatkowo, jeśli kiedykolwiek trzeba będzie synchronizować dźwięk z obrazem w filmie czy reklamie, trzymanie się 48 kHz ułatwi współpracę z resztą ekipy. Naprawdę warto to zapamiętać – w telewizji i filmie 48 kHz to praktycznie obowiązek. Tak jako ciekawostka: nawet nagrania do podcastów czy YouTube coraz częściej robi się w tej jakości, żeby potem nie mieć problemów z eksportem do wideo.

Pytanie 39

Który z podanych formatów oferuje wyłącznie bezstratną kompresję cyfrowych danych dźwiękowych?

A. WMA
B. AAC
C. ALAC
D. MP3
ALAC, czyli Apple Lossless Audio Codec, to format, który jak sama nazwa wskazuje, stosuje wyłącznie bezstratną kompresję dźwięku cyfrowego. Oznacza to, że dane audio zakodowane w tym formacie po dekompresji są identyczne bit po bicie z oryginałem – nie tracisz absolutnie żadnej informacji, co jest szczególnie ważne w profesjonalnym audio, archiwizacji czy produkcji muzycznej. Moim zdaniem ALAC jest ciekawą alternatywą dla FLAC, zwłaszcza jeśli ktoś korzysta ze sprzętu Apple, bo systemy tej firmy obsługują go natywnie bez żadnych kombinacji. W branży audio powszechnie stosuje się bezstratne formaty do masteringu czy archiwizacji, bo można potem bez obaw przekonwertować materiał do innych formatów stratnych (jak MP3), nie martwiąc się o degradację jakości. Często spotykam się z opinią, że FLAC jest lepszy, ale to zależy głównie od środowiska, w którym działasz – pod MacOS czy iOS ALAC jest wygodniejszy. Ciekawostka: mimo że pliki ALAC bywają trochę większe od stratnych, to i tak oszczędzają sporo miejsca względem nieskompresowanych WAV czy AIFF. To naprawdę dobry wybór, jeśli chcesz zachować oryginalną jakość dźwięku i jednocześnie nie marnować przestrzeni na dysku.

Pytanie 40

Zniekształcenia odtwarzanego dźwięku należy ocenić na podstawie

A. komfortu odsłuchu materiału dźwiękowego w długim czasie.
B. lokalizacji obrazu scenicznego w materiale muzycznym.
C. obecności syczących i jaskrawych dźwięków.
D. równowagi sceny dźwiękowej w materiale muzycznym.
Właśnie o to chodzi w praktyce audio – zniekształcenia dźwięku najlepiej rozpoznawać poprzez wsłuchiwanie się w obecność syczących i jaskrawych dźwięków. Przykład? Jeśli słuchasz muzyki i nagle głos wokalisty brzmi jakby miał "syczące S" albo talerze perkusji robią się nieprzyjemnie ostre, to prawie na pewno mamy do czynienia ze zniekształceniami harmonicznymi lub intermodulacyjnymi. Takie artefakty wychodzą na jaw właśnie przy źle ustawionym sprzęcie albo źle dobranych komponentach audio. W branży – zarówno w studiach nagraniowych, jak i na koncertach – inżynierowie dźwięku zawsze zaczynają kontrolę jakości od analizy takich właśnie sybilantów i zniekształceń. Moim zdaniem to jest najprostszy i najbardziej skuteczny sposób, bo nie potrzeba do tego żadnej specjalistycznej aparatury pomiarowej, a tylko własne, dobrze wyćwiczone ucho. Co ciekawe, standardy takie jak ITU-R BS.1116-3 dokładnie opisują takie metody oceny zniekształceń: chodzi o szybkie wychwycenie nienaturalnych, "ostrych" elementów brzmienia. Stąd profesjonalistom często wystarczy krótki odsłuch i już wiedzą, że coś nie gra. W praktyce, im mniej takich nieprzyjemnych, syczących dźwięków, tym lepsza jakość odtwarzania. Takie podejście daje też szybkie rezultaty podczas kalibracji sprzętu – od razu wiadomo, czy coś trzeba poprawić.