Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 7 maja 2026 15:37
  • Data zakończenia: 7 maja 2026 15:47

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. MP3
B. WAV
C. CDA
D. RIFF
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 2

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Declicker.
B. Delay.
C. Expander.
D. Ducker.
Delay to jeden z podstawowych efektów w produkcji dźwięku, który polega na powtarzaniu sygnału audio po określonym czasie. Dzięki temu można uzyskać efekt echa, ale – co ważniejsze w kontekście pytania – umożliwia także tworzenie zapętleń, czyli tzw. looperów. W praktyce ustawiając delay na bardzo krótki czas i dużą liczbę powtórzeń, uzyskujemy efekt ciągłego powtarzania fragmentu dźwięku, co jest wykorzystywane np. w muzyce elektronicznej czy podczas live actów. Loopery bazują właśnie na zasadzie działania delay'a, tylko są bardziej rozbudowane – pozwalają nagrywać i wielokrotnie odtwarzać fragmenty na żywo. W branży często stosuje się delay do kreatywnego budowania przestrzeni czy rytmicznych faktur, nie tylko do prostego echa. Moim zdaniem delay to taki wstęp do zabawy z loopingiem, bo jeśli zrozumiesz, jak działa delay, to potem łatwiej ogarnąć bardziej zaawansowane narzędzia do zapętlania. Często też delay bywa stosowany do eksperymentowania z teksturami dźwiękowymi. W standardach produkcji muzycznej oraz postprodukcji dźwięku delay jest wręcz niezbędny do kontroli powtarzalności, przestrzeni i efektów specjalnych. Warto wiedzieć, że dobrze ustawiony delay może zastąpić nawet proste loopery w wielu zastosowaniach. Z mojego doświadczenia to narzędzie, którego nie da się przecenić w pracy z dźwiękiem.

Pytanie 3

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save As
B. Save
C. Save Copy In
D. Revert to Saved
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.

Pytanie 4

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 2 razy.
B. 6 razy.
C. 4 razy.
D. 8 razy.
Wzrost poziomu sygnału o 6 dB odpowiada dokładnie dwukrotnemu zwiększeniu amplitudy, i to jest bardzo popularna zasada stosowana w elektroakustyce, radiotechnice czy nawet w prostych pomiarach na laboratoriach. Wynika to z logarytmicznej skali decybeli – dokładniej, 20 log(A2/A1) = 6 dB, co po rozpisaniu daje A2/A1 = 2. Tak więc, jeśli sygnał miał np. 1 V amplitudy, po podniesieniu poziomu o 6 dB będzie miał 2 V. W praktyce – przy ustawianiu wzmacniaczy, mikserów czy systemów nagłośnieniowych – bardzo często operuje się właśnie tym skokiem; łatwo go zapamiętać i stosować, gdy trzeba szybko porównać poziomy. Spotkałem się z tym też w instrukcjach sprzętu profesjonalnego, gdzie producent zaleca np. nie przekraczać 6 dB przy konkretnych wyjściach, wiedząc, że to podwaja sygnał wejściowy. Oczywiście warto pamiętać, że dla mocy wygląda to trochę inaczej (tam 6 dB to czterokrotność mocy), ale dla samej amplitudy – zawsze dwa razy więcej. Ta wiedza przydaje się też, gdy trzeba ocenić wpływ różnych tłumików czy potencjometrów w torze sygnałowym. To taka podstawowa matematyka audio, której nie można lekceważyć.

Pytanie 5

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WAV
B. FLAC
C. MP3
D. WMA
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 6

Którym z wymienionych programów nie można edytować wielościeżkowej sesji dźwiękowej?

A. ReNOVAtor.
B. Adobe Audition.
C. Samplitude.
D. Pro Tools.
ReNOVAtor to narzędzie wyspecjalizowane raczej do bardzo precyzyjnej edycji dźwięku, głównie usuwania zakłóceń i retuszu pojedynczych ścieżek, a nie do pracy z wielościeżkową sesją dźwiękową. Jeśli ktoś miał do czynienia ze studyjną produkcją audio, na pewno spotkał się z typowymi DAW-ami (Digital Audio Workstation) jak Pro Tools, Samplitude czy Adobe Audition – one właśnie służą do tworzenia, miksowania i edytowania projektów składających się z wielu ścieżek jednocześnie. Natomiast ReNOVAtor, choć technicznie bardzo zaawansowany (szczególnie jeśli chodzi o naprawę nagrań, np. wycinanie trzasków czy kliknięć bez naruszania reszty materiału), nie ma funkcji związanych z zarządzaniem większą liczbą ścieżek czy miksowaniem całości. Z mojego doświadczenia taki program przydaje się bardziej jako „wtyczka naprawcza” w większym workflow, ale nie zastępuje klasycznego DAW-a. To jest trochę jak różnica między edytorem tekstu a narzędziem do naprawiania literówek – jedno to centrum dowodzenia całym projektem, a drugie służy do bardzo konkretnych poprawek. W branży audio powszechnie przyjmuje się, że zaawansowana edycja wielościeżkowych sesji odbywa się tylko w pełnoprawnych DAW-ach. ReNOVAtor może być świetnym dodatkiem, ale nie zastąpi głównego narzędzia do miksu czy aranżacji.

Pytanie 7

Które z poniższych parametrów wskazują na plik o najlepszej jakości?

A. 44.1 kHz, 24 bity
B. 48 kHz, 16 bitów
C. 96 kHz, 8 bitów
D. 48 kHz, 24 bity
Parametry 48 kHz oraz 24 bity to zestawienie, które w świecie dźwięku uznaje się za naprawdę wysoką jakość, szczególnie w produkcji muzycznej czy postprodukcji audio do filmu. Częstotliwość próbkowania 48 kHz jest standardem w profesjonalnych zastosowaniach – na przykład w telewizji, filmie, czy nagraniach na potrzeby internetu. 24 bity natomiast dają bardzo szeroki zakres dynamiki, pozwalając na nagranie zarówno bardzo cichych, jak i bardzo głośnych dźwięków bez tracenia szczegółów. Moim zdaniem, korzystanie z takich parametrów to trochę jak robienie zdjęcia bardzo dobrą lustrzanką – zapisuje się więcej informacji, co potem przekłada się na lepszą jakość końcową. W praktyce pliki audio o parametrach 48 kHz / 24 bitów są bardzo elastyczne w obróbce: inżynierowie dźwięku mają większy zapas do edycji, miksowania czy masteringu, bez ryzyka utraty detali. To też swoisty kompromis między rozmiarem pliku, a jakością – bo wprawdzie 96 kHz wydaje się wyższe, ale przy 8 bitach już totalnie się nie opłaca. Warto wiedzieć, że większość profesjonalnych studiów korzysta właśnie z 48 kHz / 24 bity, bo to daje najlepszy stosunek jakości do ciężaru pliku. Często mówi się: „lepiej więcej bitów niż tylko wyższa częstotliwość próbkowania”, bo zakres dynamiki jest kluczowy dla naturalnego brzmienia. Także – bardzo słuszny wybór, zgodny z realiami branży.

Pytanie 8

Jaka jest maksymalna dynamika nagrania audio zapisanego w rozdzielczości 16 bitowej?

A. 192 dB
B. 48 dB
C. 144 dB
D. 96 dB
Nagrania audio zapisywane w rozdzielczości 16 bitów umożliwiają uzyskanie maksymalnej dynamiki na poziomie około 96 dB. Oznacza to, że różnica między najcichszym a najgłośniejszym możliwym do zarejestrowania sygnałem wynosi właśnie 96 decybeli. Wynika to z tego, że każdy bit kodowania daje około 6 dB dynamiki (dokładna wartość matematyczna to 6,02 dB na bit), więc 16 x 6 = 96 dB – taki wynik to praktyczny standard w nagraniach CD-Audio, które od lat 80. są zapisywane właśnie w tej rozdzielczości. W praktyce, jeśli nagrywamy np. muzykę czy dźwięk do filmu, 96 dB to już bardzo szeroki zakres – pozwala uchwycić zarówno subtelne niuanse cichego pianissima, jak i bardzo głośne fragmenty bez zniekształceń. Tak naprawdę w domowych czy nawet półprofesjonalnych warunkach rzadko kiedy wykorzystuje się pełen potencjał tej dynamiki – ograniczeniem częściej jest jakość mikrofonów, przedwzmacniaczy albo akustyka pomieszczenia. Myślę, że fajnie o tym pamiętać – często ludzie są przekonani, że bez 24 bitów nie da się uzyskać dobrego brzmienia, a prawda jest taka, że 16 bitów spokojnie wystarcza do naprawdę solidnych nagrań, jeśli dobrze opanujemy poziomy sygnału i zadbamy o resztę toru audio. W branży często spotkać można opinię, że CD-Audio to 'złoty środek' – to, co jest powyżej (czyli np. 24 bity) to już domena zaawansowanej produkcji studyjnej, gdzie margines bezpieczeństwa przy edycji i miksie jest po prostu większy.

Pytanie 9

Na który z parametrów sesji programu edycyjnego, biorąc pod uwagę skład zespołu, należy zwrócić szczególną uwagę przy uruchomieniu nowego projektu audio?

A. Liczbę ścieżek.
B. Długość nagrania.
C. Przepływność bitową.
D. Częstotliwość próbkowania.
Liczba ścieżek w projekcie audio to naprawdę kluczowy parametr, szczególnie gdy zaczynasz pracę w zespole. W praktyce, gdy pracujesz z różnymi muzykami, realizatorami czy producentami, każdy może mieć swoje wymagania dotyczące ilości osobnych śladów na wokal, instrumenty, efekty czy nawet próbki dźwiękowe. Jeśli na starcie nie przewidzisz odpowiedniej liczby ścieżek, szybko pojawią się komplikacje – albo zabraknie miejsca na nagrania, albo trzeba będzie kombinować z duplikowaniem kanałów, a to już zamieszanie i bałagan w sesji. Standardem branżowym, zwłaszcza przy dużych projektach (np. nagrania zespołów rockowych, produkcje filmowe), jest przewidywanie nieco większej liczby ścieżek niż wydaje się na początku potrzebne. To daje elastyczność i zabezpiecza przed niespodziankami. Z mojego doświadczenia wynika, że taka ostrożność oszczędza mnóstwo czasu i nerwów. Ważne jest też to, że liczba ścieżek wpływa na organizację projektu i komunikację w zespole – łatwiej się potem odnaleźć w sesji, gdy każdy instrument i wokal są na osobnej ścieżce. Podsumowując: wybierając liczbę ścieżek, myślisz nie tylko o sobie, ale i o komforcie reszty zespołu oraz sprawnym przebiegu pracy.

Pytanie 10

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. RECORD
B. SOLO
C. INPUT
D. MUTE
Wybranie opcji SOLO na ścieżce w DAW to taki trochę klasyk pracy w studiu – każdy, kto choć raz miksował, wie, jak często sięga się po ten przycisk. SOLO pozwala na odsłuchanie tylko konkretnej ścieżki, bez przeszkadzania ze strony pozostałych. To wręcz niezbędne, gdy chcesz się skupić na detalach, np. sprawdzić precyzyjnie czy wokal nie ma niechcianych szumów albo czy syntezator dobrze siedzi w miksie. W praktyce bardzo często używa się SOLO podczas ustawiania poziomów, korekcji czy efektów na pojedynczym instrumencie. Standardowe workflow w studiach – i tych domowych, i profesjonalnych – zakłada, że podczas miksowania regularnie korzysta się z tej funkcji, żeby nie pogubić się w gąszczu dźwięków. Moim zdaniem bez SOLO można by się mocno zamotać, zwłaszcza przy większych projektach. Dobrze wiedzieć, że opcja SOLO nie usuwa dźwięków innych ścieżek, tylko je tymczasowo wycisza, więc nie trzeba się martwić o utratę ustawień. To takie narzędzie podglądu – pozwala wyłapać niuanse i dopracować ślady zanim wrócą do pełnego miksu. Branża przyjmuje to jako absolutny standard, a korzystanie z SOLO jest zalecane przez większość instruktorów i producentów. Warto też pamiętać, że niektóre DAWy mają kilka trybów SOLO, np. SOLO in place albo pre/post fader, więc można dopasować działanie do własnych potrzeb. Dla mnie to podstawa pracy z dźwiękiem i coś, bez czego trudno sobie wyobrazić profesjonalny proces produkcji.

Pytanie 11

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 30 MB
B. Około 5 MB
C. Około 10 MB
D. Około 20 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 12

Która z wymienionych funkcji w sesji programu DAW standardowo umożliwia wielokrotne powtórzenie zaznaczonego fragmentu materiału dźwiękowego na ścieżce?

A. TRIM
B. DUPLICATE
C. RECALL
D. MOVE
Funkcja DUPLICATE to naprawdę jedno z częściej używanych narzędzi podczas pracy w sesji DAW, zwłaszcza jeśli chodzi o szybkie powielanie fragmentów audio czy MIDI. Po prostu zaznaczasz fragment klipu, sekwencji lub regionu, wciskasz DUPLICATE – czy to przez menu, czy typowy skrót klawiszowy, na przykład Ctrl+D w Abletonie czy Pro Tools – i od razu masz kopię tuż obok. Wielu realizatorów pracuje tak z hi-hatami, loopami perkusyjnymi, refrenami, żeby nie marnować czasu na żmudne kopiowanie czy przeciąganie. To jest super wygodne, bo zachowuje synchronizację z siatką tempa i aranżacją. Moim zdaniem, nie wyobrażam sobie efektywnej pracy w DAW bez tej opcji, zwłaszcza przy edycji muzyki elektronicznej czy nawet podcastów, gdzie potrzebne są powtarzalne elementy. Warto dodać, że większość profesjonalnych DAW traktuje funkcję DUPLICATE jako standard, więc niezależnie od programu zasada działania jest praktycznie taka sama. Czasami dopiero po kilku projektach docenia się, jak bardzo oszczędza to czas i minimalizuje ryzyko błędu przy manualnym kopiowaniu. Dla mnie to wręcz podstawa workflow, szczególnie kiedy trzeba szybko budować aranżacje czy eksperymentować z loopami. I jeszcze jedno – DUPLICATE często współpracuje z tzw. funkcją 'repeat', co pozwala od razu powielić fragment nie 1, ale np. 4 czy 8 razy. Naprawdę warto to opanować na pamięć!

Pytanie 13

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. WMA
B. FLAC
C. AC-4
D. AAC
FLAC to naprawdę świetny wybór, jeśli chodzi o bezstratną kompresję audio. Ten kodek, czyli Free Lossless Audio Codec, od lat uznawany jest przez branżę za wzorcowe rozwiązanie, kiedy komuś zależy na zachowaniu oryginalnej jakości nagrania po kompresji. Pliki FLAC są popularne nie tylko wśród audiofilów, ale też w studiach nagraniowych i archiwizacji dźwięku, bo pozwalają na idealną rekonstrukcję dźwięku po dekompresji – nie ma tu żadnych strat, wszystko brzmi dokładnie jak materiał źródłowy. Podczas codziennej pracy spotykałem się z sytuacjami, gdzie ktoś chciał zaoszczędzić miejsce na dysku, ale nie godził się na utratę jakości – i właśnie wtedy polecałem FLAC. Co ciekawe, to rozwiązanie jest otwarte, więc nie trzeba martwić się o jakieś dziwne licencje czy płatności. W dobrych praktykach branżowych mówi się, że jeśli archiwizujesz ważne nagrania, to najlepiej trzymać je właśnie w formacie bezstratnym, takim jak FLAC, a dopiero do bieżącego słuchania czy w urządzeniach mobilnych możesz robić wersje stratne, np. MP3 czy AAC. Moim zdaniem, warto znać różnicę pomiędzy kodekami bezstratnymi a stratnymi, bo to podstawa w pracy z dźwiękiem, zwłaszcza gdy w grę wchodzi jakość i możliwość późniejszej obróbki materiału.

Pytanie 14

Do płynnego wyciszenia materiału dźwiękowego należy użyć funkcji

A. fade out.
B. pan.
C. crossfade.
D. mute.
Wiele osób podczas edycji dźwięku myli różne funkcje, zwłaszcza gdy dopiero zaczynają przygodę z obróbką audio. Pan służy do ustawiania panoramy, czyli przesuwania dźwięku w lewo lub w prawo w przestrzeni stereo – nie ma to żadnego związku z płynnym wyciszaniem materiału. Ustawienie panoramy może sprawić, że dźwięk wydaje się dochodzić z określonego miejsca, ale jego głośność nie zmienia się płynnie do zera. Z kolei mute to klasyczna funkcja wyciszenia, lecz jest ona natychmiastowa – dźwięk po prostu nagle przestaje być słyszalny. Brakuje tu jakiegokolwiek „zanikania”, co w profesjonalnej postprodukcji brzmi bardzo nienaturalnie i wręcz amatorsko, szczególnie gdy zależy nam na delikatnym wyprowadzeniu słuchacza z nagrania. Crossfade natomiast jest mylący, bo rzeczywiście polega na płynnym przejściu – jednak nie do ciszy, tylko między dwoma fragmentami audio, na przykład nałożenie końcówki jednego utworu na początek drugiego. To świetne narzędzie przy montażu audycji czy miksowaniu utworów, ale nie zastępuje zwykłego zanikania do ciszy. Moim zdaniem najczęstszy błąd, jaki tu się pojawia, to zbyt dosłowne rozumienie nazw funkcji lub kierowanie się wyłącznie intuicją. Warto pamiętać, że fade out jest po prostu branżowym standardem jeśli chodzi o „miękkie” wyciszenie końcówek. W profesjonalnych DAW-ach ta funkcja jest łatwo dostępna i powinna być stosowana zawsze, gdy chcemy, by materiał audio zanikał naturalnie, bez szarpania czy nagłych zmian.

Pytanie 15

Czym jest normalizacja nagrania (peak normalization)?

A. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
B. Obniżeniem średniego poziomu nagrania o 3 dB
C. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
D. Obniżeniem szczytowego poziomu nagrania o 3 dB
Normalizacja szczytowa (ang. peak normalization) polega na zwiększeniu poziomu sygnału tak, żeby najwyższy punkt (czyli szczyt) nagrania osiągnął określony poziom — najczęściej 0 dBFS w przypadku pracy ze ścieżkami cyfrowymi. To jest standard w audio, szczególnie jeśli chcemy wycisnąć maksimum z głośności materiału, ale nie dopuścić do przesteru. Taki zabieg nie zmienia proporcji między cichszymi a głośniejszymi fragmentami nagrania, więc charakterystyka dynamiczna pozostaje nietknięta. Moim zdaniem to właśnie czyni normalizację szczytową bardzo bezpieczną i przewidywalną — nie ma tu zagrożenia, że nagle środek utworu zrobi się za głośny albo cisza w tle zniknie. W praktyce stosuje się ją np. przed masteringiem albo przygotowując pliki do publikacji, żeby uniknąć niepotrzebnych niespodzianek z poziomami między różnymi utworami. Trzeba mieć na uwadze, że 0 dBFS to granica w świecie cyfrowym — wyżej już się po prostu nie da, bo pojawi się clipping. Warto jeszcze dodać, że normalizacja szczytowa bywa często mylona z normalizacją RMS (średnią), która zmienia całościową głośność odbieraną przez ucho, jednak w branży audio peak normalization to taki 'must-have', szczególnie przy zgrywaniu miksu na master track.

Pytanie 16

Który tryb edycyjny umożliwia przesuwanie regionów ścieżki dźwiękowej do siatki metro-rytmicznej?

A. Spot
B. Grid
C. Slip
D. Shuffle
Tryb Grid w edytorach DAW, takich jak Pro Tools czy Ableton, to kluczowe narzędzie, kiedy trzeba zachować precyzyjne rozstawienie elementów na osi czasu – szczególnie w produkcjach, gdzie rytm i metrum są świętością. Przesuwając regiony ścieżek w tym trybie, wszystko idealnie dopasowuje się do siatki, czyli punktów podziału wynikających z tempa i podziałki taktu. Moim zdaniem to jest totalny must-have przy edycji perkusji, loopów albo ogólnie materiałów, gdzie każda drobna przesunięcie mogłaby zepsuć groove. Grid eliminuje przypadkowe przesunięcia poza rytm – nie trzeba się martwić, że wokal wyląduje pół milisekundy za wcześnie. Z mojego doświadczenia, przy produkcjach komercyjnych, gdzie klient potrafi wyłapać nawet mikroprzesunięcia, Grid daje spokój ducha i pewność, że wszystko jest tam, gdzie powinno. Warto pamiętać, że Grid to też nie tylko sztywność – w różnych DAW-ach możesz ustawić gęstość tej siatki (np. co ćwierćnutę, ósemkę itd.), co daje elastyczność, a jednocześnie trzyma materiał na właściwej linii czasowej. W branży muzycznej takie podejście jest standardem, bo przekłada się na profesjonalny, równo brzmiący miks. Dobrą praktyką jest wręcz zaczynanie sesji od ustawienia właściwego metrum i siatki – wtedy cała produkcja idzie sprawniej. To rozwiązanie zdecydowanie ułatwia pracę nie tylko realizatorom, ale i muzykom, którzy potem nie muszą walczyć z niedokładnościami edycji.

Pytanie 17

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 96 kHz
C. 44,1 kHz
D. 48 kHz
44,1 kHz to dokładnie ta częstotliwość próbkowania, którą przyjęto jako standard dla formatu CD-Audio. Wynika to z kompromisu pomiędzy jakością dźwięku a ówczesnymi możliwościami technicznymi i kosztami produkcji nośników. W praktyce taka częstotliwość pozwala zapisać dźwięk o paśmie sięgającym do około 20 kHz, czyli praktycznie tyle, ile jest w stanie usłyszeć przeciętny człowiek (zakres słyszenia ludzkiego ucha kończy się mniej więcej w tym miejscu). Z mojego doświadczenia większość profesjonalnych i konsumenckich odtwarzaczy CD jest zoptymalizowana właśnie pod ten standard i każda inna częstotliwość wymagałaby dodatkowych konwersji. 44,1 kHz jest też powszechnie wykorzystywane w produkcji muzycznej – praktycznie każdy utwór wydawany na płycie CD jest miksowany i masterowany właśnie przy tej wartości. Często początkujący dźwiękowcy mylą ten parametr z popularnym w studiach nagraniowych 48 kHz (standard dla dźwięku wideo), ale dla muzyki na CD nie ma dyskusji – tylko 44,1 kHz. To też ciekawostka – wybór tej wartości wynikał trochę z ograniczeń technologii lat 80., a trochę z matematyki konwersji sygnału analogowego na cyfrowy. Moim zdaniem warto zapamiętać tę liczbę, bo przewija się praktycznie wszędzie, gdzie mowa o cyfrowym audio.

Pytanie 18

Który z wymienionych formatów zapisu dźwięku zapewnia możliwie najmniejszy rozmiar pliku?

A. AIFF
B. FLAC
C. MP3
D. WAV
Format MP3 jest jednym z najpowszechniej używanych standardów kompresji dźwięku, jeśli chodzi o minimalizowanie rozmiaru pliku audio. Moim zdaniem to w ogóle jeden z tych formatów, które zmieniły świat muzyki cyfrowej – głównie przez to, jak bardzo ogranicza zajmowaną przestrzeń na dysku, jednocześnie zachowując jakość dźwięku na akceptowalnym poziomie. MP3 wykorzystuje kompresję stratną, co oznacza, że część informacji dźwiękowych jest po prostu usuwana, ale w taki sposób, aby ludzkie ucho tego nie wychwyciło – to się nazywa psychoakustyka i jest naprawdę sprytne. W praktyce, plik MP3 128 kbps zajmuje często kilka razy mniej miejsca niż plik WAV czy AIFF z tym samym utworem. Taki format bardzo dobrze sprawdza się w streamingu, w publikacjach internetowych albo na nośnikach ograniczonych pojemnością, np. starych odtwarzaczach MP3 czy telefonach. W branży jest to swego rodzaju standard, jeśli dysponujemy małą ilością pamięci albo musimy przesyłać pliki przez wolniejszy internet. To dlatego MP3 wyparło na lata inne formaty tam, gdzie liczył się każdy megabajt. Oczywiście, są nowsze kodeki jak AAC czy OGG, które czasami radzą sobie lepiej przy niskich bitrate’ach, ale MP3 to wciąż najbardziej rozpoznawalny wybór, jeśli chodzi o minimalizację rozmiaru. Warto pamiętać, że niższy rozmiar to jednak zawsze kompromis – coś za coś. Ale jeśli mamy ograniczone miejsce, nie ma lepszej opcji niż dobrze skompresowany MP3.

Pytanie 19

Który z wymienionych procesów nie powoduje zmiany rozpiętości dynamicznej nagrania?

A. Kompresja.
B. Normalizacja.
C. Limiting.
D. Ekspansja.
Normalizacja faktycznie nie wpływa na rozpiętość dynamiczną nagrania, czyli różnicę pomiędzy najcichszym a najgłośniejszym sygnałem w ścieżce audio. To taki trochę trik stosowany głównie po to, żeby wyrównać poziom głośności całego materiału do określonego maksimum, najczęściej do 0 dBFS, nie zmieniając przy tym relacji między poszczególnymi fragmentami. W praktyce, jak weźmiesz nagranie i zastosujesz normalizację, to po prostu najgłośniejszy moment zostaje podciągnięty do wybranego poziomu, a cała reszta idzie proporcjonalnie w górę – żadne ściski, żadne „rozpychanie” czy zawężanie dynamiki nie ma miejsca. To się przydaje np. jak miksujesz pliki z różnych źródeł, gdzie jeden utwór jest wyraźnie cichszy od innego – normalizacja pozwala szybko wyrównać te poziomy, żeby potem łatwiej można było porównywać lub montować. W branży to podstawa przy eksporcie czy masteringu, ale nikt nie traktuje tego narzędzia jako proces kształtujący dynamikę. Dla odmiany, limiter, kompresor czy ekspander ingerują już w relacje między głośnymi a cichymi fragmentami – dlatego właśnie tylko normalizacja jest tutaj poprawną odpowiedzią. Moim zdaniem, dobrze znać takie różnice, bo potem bez problemu można przewidzieć skutki każdego używanego narzędzia i nie robić przypadkiem bałaganu w miksie.

Pytanie 20

Oprogramowania DAW umożliwiają odtwarzanie, bez uprzedniej konwersji, plików dźwiękowych zapisanych w formacie

A. .wav
B. .ogg
C. .m4a
D. .mp3
Format .wav to taki klasyk, jeśli chodzi o produkcję muzyczną i pracę w programach typu DAW (Digital Audio Workstation). Nie ma co ukrywać, że praktycznie każdy program muzyczny, czy to profesjonalny, czy nawet ten bardziej podstawowy, obsługuje pliki wav praktycznie „z marszu”, bez żadnej konwersji. Format ten jest nieskompresowany, co oznacza, że dźwięk zachowuje pełną jakość – zero strat, żadnych artefaktów kompresji, po prostu czysty sygnał. W studiu, każdy producent, realizator czy nawet amator wie, że jeśli chcesz mieć pewność, że coś otworzy się poprawnie i zagra bez problemu, wybierasz właśnie wav. Tak naprawdę większość bibliotek sampli, loopów czy profesjonalnych nagrań dostarczana jest właśnie w tym formacie. To jeden z tych standardów, które są po prostu uniwersalne – trochę jak .pdf w dokumentach. Moim zdaniem warto pamiętać, że DAW-y mogą oferować wsparcie dla innych formatów, ale .wav to taki „bezpieczny wybór”, bo zapewnia maksymalną kompatybilność oraz łatwość dalszej obróbki, eksportu i archiwizacji. Dodatkowo, praca na wavach sprzyja lepszej kontroli jakości miksu (nie musisz się martwić, że coś brzmi dziwnie przez kompresję). W praktyce, niezależnie czy korzystasz z Cubase, Ableton Live, Reapera czy FL Studio – plik wav wrzucisz i odtworzysz od ręki, a to już mocny argument za tym formatem.

Pytanie 21

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 240 kb/s
B. 160 kb/s
C. 320 kb/s
D. 480 kb/s
320 kb/s to największa stała przepływność bitowa, jaką przewiduje standard MP3 (MPEG-1 Audio Layer III). To właśnie ta wartość jest górnym limitem dla plików MP3 zapisanych w trybie CBR, czyli z niezmienną szybkością przesyłania danych. Z mojego doświadczenia wynika, że jeśli ktoś oczekuje najwyższej możliwej jakości w ramach pliku MP3, to zawsze wybiera właśnie 320 kb/s. To dlatego w profesjonalnych studiach czy podczas cyfrowego archiwizowania muzyki często wybiera się właśnie ten parametr. Wiadomo, że MP3 jest formatem stratnym, więc nawet przy 320 kb/s nie uzyskamy pełnej jakości oryginału, ale dla większości zastosowań – od odtwarzaczy samochodowych po radio internetowe – ta przepływność jest akceptowalnym kompromisem między rozmiarem pliku a jakością dźwięku. Standard ISO/IEC 11172-3 wyraźnie określa, że próbując ustawić wyższą wartość, np. 480 kb/s, nie osiągniemy zamierzonego efektu – takie pliki nie będą kompatybilne z większością odtwarzaczy. Warto pamiętać, że inne formaty audio, jak AAC czy FLAC, mogą obsługiwać inne zakresy przepływności, ale w świecie MP3 320 kb/s to maksimum. Ja zawsze polecam sprawdzać ustawienia eksportu w programach do kodowania muzyki, bo czasem domyślna wartość to 128 lub 192 kb/s, a szkoda tracić na jakości, skoro można lepiej.

Pytanie 22

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. czytnika kart flash.
B. złącza Thunderbolt.
C. gniazda USB.
D. portu Fire Wire.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 23

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic IIx
B. Pro Logic IIz
C. Pro Logic
D. Pro Logic II
Pro Logic IIx to technologia Dolby, która właśnie wyróżnia się możliwością obsługi systemów 7.1, co w praktyce oznacza rozdzielenie sygnału na siedem kanałów efektowych oraz subwoofer. W praktyce instalacje domowego kina, które bazują na amplitunerach obsługujących Dolby Pro Logic IIx, pozwalają na uzyskanie pełniejszego wrażenia przestrzenności – szczególnie podczas oglądania filmów akcji lub koncertów nagranych w wielokanałowym formacie. Moim zdaniem ten standard to taki złoty środek między prostszymi dekoderami (Pro Logic, II) a już zaawansowanymi technologiami typu Dolby TrueHD czy Atmos. Co ciekawe, Pro Logic IIx pozwala nawet na przekształcenie sygnału stereo lub 5.1 w 6.1 lub 7.1, więc daje dużą elastyczność przy korzystaniu ze starszych nagrań czy gier. Przestrzenność jest tu naprawdę odczuwalna – efekty dźwiękowe zaczynają „chodzić” po pokoju. Z mojego doświadczenia, przy dobrze rozmieszczonych głośnikach, można uzyskać bardzo realistyczny pejzaż dźwiękowy. Warto też pamiętać, że standard ten był długo wykorzystywany w amplitunerach średniej i wyższej klasy, zanim upowszechnił się Dolby Atmos. W porównaniu do wcześniejszych generacji, takich jak Pro Logic II, „ix” to nie tylko więcej kanałów, ale i lepsza separacja sygnału. Zdecydowanie warto znać ten standard, jeśli ktoś interesuje się profesjonalnym nagłośnieniem lub domowymi systemami audio.

Pytanie 24

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -3 dB.
B. Nagrany z maksymalnym poziomem -6 dB.
C. Nagrany z maksymalnym poziomem -12 dB.
D. Nagrany z maksymalnym poziomem -0,3 dB.
Największa rozpiętość dynamiczna (dynamic range) sygnału cyfrowego osiągana jest wtedy, gdy nagrywamy go jak najbliżej maksymalnego możliwego poziomu, czyli tuż pod tzw. 0 dBFS (Full Scale). Odpowiedź „nagranie z maksymalnym poziomem -0,3 dB” jest w tej sytuacji najbardziej poprawna, bo wykorzystuje niemal cały dostępny zakres sygnału, nie wchodząc jeszcze w obszar przesterowania. W praktyce właśnie taki zapas – drobne poniżej 0 dBFS – jest zalecany w profesjonalnych studiach nagraniowych, bo chroni przed przypadkowym clippingiem, a jednocześnie zapewnia optymalną jakość i najlepszy stosunek sygnału do szumu (SNR). Dla przykładu: jeśli nagrasz wokalistę z maksymalnym poziomem -12 dB, to 12 decybeli potencjalnego zakresu zostaje niewykorzystane, przez co wzrasta udział szumów tła i konwertera AD, co wprost zmniejsza rozpiętość dynamiczną nagrania. Moim zdaniem, takie korzystanie z pełnej skali sygnału to podstawa profesjonalnej realizacji dźwięku, czy to w radiu, czy przy masteringu muzyki. Warto pamiętać, że nawet renomowane urządzenia audio są tak projektowane, by najniższy możliwy poziom szumów osiągać przy silnym, ale nieprzesterowanym sygnale wejściowym. Zalecane standardy AES i EBU również sugerują trzymanie się możliwie wysokiego poziomu sygnału, z minimalnym marginesem bezpieczeństwa, właśnie na poziomie -0,3 lub -1 dBFS.

Pytanie 25

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 12 Mb/s
B. 33 Gb/s
C. 15 Gb/s
D. 480 Mb/s
Maksymalna prędkość transmisji danych dla standardu USB 2.0 wynosi właśnie 480 Mb/s (megabitów na sekundę). To była swego czasu ogromna zmiana na rynku, bo wcześniejszy standard USB 1.1 oferował zaledwie 12 Mb/s – różnica jest więc naprawdę kolosalna w codziennym użytkowaniu. USB 2.0, znane też jako High-Speed USB, umożliwiło komfortowe podłączanie zewnętrznych dysków, drukarek czy kamer, które wcześniej po prostu działałyby bardzo wolno. Na przykład kopiowanie pliku o wielkości 1 GB przez USB 2.0 trwało zdecydowanie krócej niż przez starsze porty. Moim zdaniem warto pamiętać, że 480 Mb/s to wartość teoretyczna, w praktyce rzeczywiste transfery są niższe, bo zależą jeszcze od jakości kabla, sprzętu czy nawet systemu operacyjnego. Branża IT przyjęła ten standard na długie lata i do dziś wiele urządzeń, zwłaszcza tańszych, korzysta właśnie z USB 2.0. Dla porównania – nowsze wersje USB, jak 3.0 czy 3.1, podnoszą poprzeczkę nawet do kilku gigabitów na sekundę, ale to już inna bajka. Najważniejsze, żeby rozpoznawać, do jakich zastosowań wystarcza USB 2.0, a kiedy warto sięgnąć po coś szybszego – np. do przesyłania dużych plików wideo. Tak czy inaczej, 480 Mb/s to kluczowa liczba, która powinna się każdemu technikowi od razu kojarzyć właśnie z USB 2.0.

Pytanie 26

Której komendy programu DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Revert to Saved
B. Save
C. Save Copy In
D. Save As
Komenda „Save As” w programach typu DAW (Digital Audio Workstation) jest podstawowym narzędziem, kiedy trzeba zapisać sesję pod inną nazwą lub w zupełnie nowej lokalizacji. To jest coś, co się bardzo często robi, szczególnie podczas pracy nad kilkoma wersjami danego projektu, albo gdy klient prosi o alternatywną edycję – zdecydowanie przydatna sprawa. Dzięki „Save As” nie nadpisujesz oryginalnego pliku, tylko tworzysz niezależną kopię z nową nazwą, co pozwala na bezpieczne eksperymentowanie, cofnięcie się do wcześniejszych etapów czy nawet współpracę z innymi osobami bez ryzyka utraty głównej sesji. Z mojego doświadczenia – to absolutna podstawa workflow, zwłaszcza w większych studiach, gdzie często pracuje się na wielu wersjach jednocześnie. Co ważne, w branży produkcji muzycznej to standardowa praktyka, bo pozwala uniknąć przypadkowego nadpisania cennych danych. Warto pamiętać, że „Save As” zwykle kopiuje cały projekt dokładnie w takim stanie, jak jest otwarty w danym momencie, razem z ustawieniami, automatyzacją i wszystkimi ścieżkami. Często da się też wtedy wybrać folder docelowy, co bardzo ułatwia porządkowanie sesji na dysku. Osobiście polecam stosować „Save As” zawsze przy większych zmianach, przed ryzykownymi edycjami albo jeśli projekt ma trafić na inny komputer. To takie trochę zabezpieczenie na każdą okazję.

Pytanie 27

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 192 dB
B. 48 dB
C. 96 dB
D. 144 dB
Maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów wynosi 96 dB i to jest jedna z takich żelaznych zasad w cyfrowym audio. Bierze się to z tego, że każdy bit rozdzielczości daje około 6 dB dynamiki, więc dla 16 bitów mamy 16 × 6 dB = 96 dB. To wartość, która przez lata weszła do standardów branżowych, szczególnie w przypadku płyt CD-Audio, gdzie stosuje się właśnie 16-bitowe próbkowanie z częstotliwością 44,1 kHz. Dzięki tej dynamice nagrania na CD mogą oddać pełen zakres od bardzo cichych do bardzo głośnych dźwięków – no może nie zupełnie jak w studiu, ale dla większości zastosowań domowych czy rozgłośni radiowych w zupełności wystarcza. Swoją drogą, 96 dB to już naprawdę spory zakres i przeciętne warunki odsłuchowe (np. w domu) raczej nie pozwolą wykorzystać tego w 100%. W praktyce, jeśli ktoś potrzebuje większej dynamiki – na przykład w profesjonalnych studiach nagraniowych albo do masteringu muzyki klasycznej – stosuje się rozdzielczości 24-bitowe, co daje nawet 144 dB, ale to już ekstremum i wymaga doskonałego sprzętu. Moim zdaniem znajomość tej liczby 96 dB jest podstawowa jeśli pracujesz z cyfrowym dźwiękiem, bo pozwala realnie ocenić możliwości sprzętu i dobrać właściwe ustawienia tak, by nie tracić szczegółów i nie przesadzać z wymaganiami.

Pytanie 28

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Microsoft Windows Media Player.
B. Avid ProTools.
C. Steiberg Cubase.
D. Celemony Melodyne.
Rozszerzenie .ptx to format pliku sesji używany wyłącznie przez program Avid Pro Tools. To w zasadzie taki „kontener” na cały projekt – zapisuje wszystkie informacje o ścieżkach, ułożeniu klipów, automatyce, efektach, routingu i wielu innych szczegółach miksu. Pro Tools to jeden z najbardziej rozpoznawalnych programów DAW na świecie, wykorzystywany zarówno w studiach nagraniowych, telewizji, jak i przy produkcji filmowej. Jeśli ktoś pracuje z sesjami od innych realizatorów lub studiów, rozszerzenie .ptx praktycznie od razu mówi, że projekt powstał właśnie w Pro Tools. Z mojego doświadczenia wynika, że profesjonalne wymiany projektów między realizatorami często odbywają się właśnie w tym formacie, bo pozwala on na zachowanie pełnej zgodności i bezpieczeństwa pracy. Standardem branżowym jest też import/eksport ścieżek w plikach .ptx podczas masteringu lub zlecania miksów. Otwieranie plików .ptx w innych DAW zwykle po prostu nie jest możliwe – to zamknięty format, który rozumie tylko Pro Tools. W praktyce, jeśli chcesz dostać się do sesji .ptx, musisz mieć zainstalowanego Pro Toolsa. Warto to wiedzieć, żeby nie tracić czasu na próby otwierania tego typu plików w innych aplikacjach – po prostu się nie da. Takie podejście jest zgodne z dobrymi praktykami pracy przy projektach studyjnych, zwłaszcza w środowisku profesjonalnym.

Pytanie 29

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. CC
B. ADAT
C. DCC
D. SACD
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 30

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Recent Session
B. Create Session from Template
C. Create Empty Session
D. Open Last Session
Odpowiedź „Create Session from Template” jest zdecydowanie tą właściwą i praktyczną opcją w kontekście codziennej pracy z oprogramowaniem DAW. Pozwala na szybkie rozpoczęcie nowego projektu na podstawie przygotowanego wcześniej szablonu. Dzięki temu można od razu mieć pod ręką ustawione ścieżki, routing, efekty, a nawet strukturę aranżacyjną—zamiast zaczynać wszystko od zera. Szablony sesji to niesamowicie praktyczna funkcja, szczególnie jeśli regularnie pracujesz nad podobnymi typami projektów, np. podcastami, nagraniami live czy miksami do muzyki elektronicznej. W wielu profesjonalnych studiach korzystanie z szablonów to standardowa procedura, bo pozwala zaoszczędzić sporo czasu i zminimalizować powtarzalne czynności. Z mojego doświadczenia wynika, że dobrze przygotowany szablon potrafi uratować niejedną sesję, szczególnie gdy czas goni albo klient już czeka w drzwiach. Warto pamiętać, że szablony można modyfikować i rozwijać, co pozwala stopniowo udoskonalać własny workflow. Co ciekawe, większość popularnych DAW, jak Pro Tools, Cubase czy Studio One, zachęca do pracy z szablonami, bo to po prostu się opłaca – mniej frustracji, więcej muzyki. Szczerze, kiedyś sam nie doceniałem tej opcji, a dziś trudno mi sobie wyobrazić pracę bez szablonów.

Pytanie 31

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 18 dB/okt.
B. 6 dB/okt.
C. 12 dB/okt.
D. 24 dB/okt.
Nachylenie zbocza filtru, czyli tzw. stromość opadania charakterystyki częstotliwościowej, to bardzo ważny parametr przy projektowaniu i doborze filtrów w elektronice i akustyce. Odpowiedź 24 dB/okt. oznacza, że sygnał poza zakresem przepuszczania jest tłumiony najszybciej – na każde podwojenie częstotliwości (czyli jedną oktawę) sygnał jest tłumiony aż o 24 decybele. Moim zdaniem właśnie takie filtry są najczęściej wybierane wszędzie tam, gdzie zależy nam na bardzo wyraźnym odcięciu pasma, bez niepotrzebnych 'przecieków' niepożądanych częstotliwości. Przykład z życia: filtry dolnoprzepustowe w profesjonalnych systemach nagłośnieniowych subwooferów czy zwrotnice głośnikowe – bardzo często stosuje się tam stromości 24 dB/okt., żeby mieć pewność, że pasmo nieprzeznaczone dla danej sekcji głośników w ogóle się w niej nie pojawi. W praktyce, im większa stromość, tym bardziej skomplikowany (i często kosztowniejszy) sam filtr – to zwykle oznacza wyższy rząd filtru, np. filtr czwartego rzędu. W standardach branżowych (np. w projektowaniu filtrów aktywnych czy DSP) 24 dB/okt. uchodzi za bardzo ostre cięcie, co pozwala na bardzo precyzyjną selekcję sygnałów. Warto też pamiętać, że zbyt duża stromość może czasami wprowadzać niepożądane zjawiska – np. przesunięcia fazowe czy „dzwonienie” sygnału, ale do typowych zastosowań scenicznych czy studyjnych to raczej nie jest problem. Krótko mówiąc, 24 dB/okt. to najwyższy z wymienionych pragmatycznie i zdecydowanie najbardziej stromy filtr, jaki podano w pytaniu.

Pytanie 32

Która z wymienionych funkcji w sesji programu DAW standardowo umożliwia wielokrotne powtórzenie zaznaczonego fragmentu materiału dźwiękowego na ścieżce?

A. TRIM
B. RECALL
C. MOVE
D. DUPLICATE
Funkcja DUPLICATE w programach typu DAW (Digital Audio Workstation) to naprawdę jeden z podstawowych i zarazem najpraktyczniejszych narzędzi, jakie można sobie wyobrazić podczas pracy z dźwiękiem. Jej główne zadanie polega na natychmiastowym powieleniu zaznaczonego fragmentu materiału na ścieżce – wystarczy jedno kliknięcie lub skrót klawiszowy i mamy kilka kolejnych kopii tego samego fragmentu, ustawionych zaraz obok siebie. Z mojego doświadczenia korzystanie z DUPLICATE znacznie przyspiesza pracę, zwłaszcza jeśli chcemy zbudować np. stały rytm perkusyjny, powtórzyć frazę wokalną czy zrealizować loop oparty na fragmencie MIDI lub audio. To narzędzie jest niemal wszędzie – w Abletonie, Cubase, Logic Pro czy Pro Tools – zawsze działa podobnie, choć czasem pod różnymi skrótami klawiszowymi. Według dobrych praktyk branżowych, korzystanie z funkcji DUPLICATE nie tylko pozwala zachować precyzję czasową (bo kopie są dokładnie wyrównane do siatki), ale też pozwala na szybkie eksperymentowanie z aranżacją utworu bez mozolnego kopiowania i wklejania. Moim zdaniem, kiedyś nie doceniałem tej funkcji, a teraz nie wyobrażam sobie bez niej pracy – szczególnie przy dłuższych sesjach, gdzie każda sekunda się liczy. Warto pamiętać, że powielony fragment można potem niezależnie edytować, co daje ogromną elastyczność przy tworzeniu nowych wariacji czy efektów. Krótko mówiąc, DUPLICATE to must-have każdego, kto chce sprawnie pracować w DAW i poruszać się zgodnie ze standardami profesjonalnych realizatorów dźwięku.

Pytanie 33

Zjawisko maskowania dźwięku polega na

A. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
B. generowaniu przez ucho tonów harmonicznych.
C. spadku słyszalności tonów wysokich podczas głośnego słuchania.
D. zmianie barwy dźwięku w zależności od głośności.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 34

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. 5.1
B. Mono
C. Stereo
D. 6.1
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 35

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Trzykrotny.
B. Pięciokrotny.
C. Dwukrotny.
D. Czterokrotny.
Wzrost poziomu sygnału o 10 dB jest w akustyce uważany za taki, który odpowiada mniej więcej podwojeniu subiektywnie odczuwanej głośności przez człowieka. To wynika z właściwości ludzkiego słuchu – reagujemy logarytmicznie na zmiany natężenia dźwięku, a nie liniowo. Ta zasada jest szeroko stosowana w branży audio, przy projektowaniu sprzętu nagłośnieniowego, systemów alarmowych czy chociażby przy kalibracji studiów nagraniowych. Przykład praktyczny? Jeżeli ustawisz jeden głośnik na 70 dB SPL, a drugi na 80 dB SPL, ten drugi będzie wydawał się mniej więcej dwa razy głośniejszy. W mojej praktyce wielokrotnie spotykałem się z tym, że ludzie nie doceniają, jak powolny jest przyrost subiektywnej głośności, bo 10 dB to wcale nie jest jakaś ogromna różnica, jeśli chodzi o moc sygnału – to jest jej dziesięciokrotny wzrost! Jednak dopiero nasze uszy odbierają to jako dwa razy głośniej. Takie podejście znajdziesz choćby w normach ISO 226 czy zaleceniach EBU dotyczących emisji sygnałów audio. Warto zapamiętać tę zasadę, bo pozwala lepiej ustawiać poziomy w miksie, uniknąć niepotrzebnego przesterowania czy zbyt głośnych reklam – a jednocześnie zrozumieć, dlaczego czasami użytkownikom wydaje się, że podkręcenie głośności nie daje tak dużego efektu, jak oczekiwali. Ogólnie, dobre praktyki nakazują ostrożność przy manipulowaniu poziomami dźwięku – zwłaszcza, że różne osoby mogą też trochę różnie odbierać te zmiany, ale reguła 10 dB = 2x głośniej działa naprawdę nieźle w większości przypadków.

Pytanie 36

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. Free Lossless Audio Codec
B. MPEG Layer 3
C. Meridian Lossless Packing
D. Open Media Format
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 37

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 192 kHz
C. 96 kHz
D. 48 kHz
Fajnie, że wybrałeś 44,1 kHz – to dokładnie ta częstotliwość próbkowania, która od początku istnienia formatu CD-Audio jest obowiązującym standardem. Wikipedia i praktycznie każde źródło branżowe potwierdza, że płyty CD z muzyką mają właśnie takie próbkowanie, czyli 44 100 próbek na sekundę. Dlaczego akurat taka liczba, a nie jakieś równe 48 kHz? Trochę wynika to z kompromisów technologicznych z lat 80-tych – wtedy łatwiej było konstruować układy elektroniczne obsługujące tę częstotliwość, a jednocześnie pozwalała ona wiernie odwzorować słyszalny dla człowieka zakres częstotliwości (do ok. 20 kHz, zasada Nyquista-Shannona). Co ciekawe, format ten jest stosowany do dziś, mimo że w profesjonalnym audio i produkcji muzycznej spotyka się wyższe próbkowania, ale do użytku konsumenckiego 44,1 kHz jest zupełnie wystarczające. Moim zdaniem to dobry przykład, jak wybory technologiczne potrafią przetrwać dekady. Nawet jak masz pliki mp3 czy streaming, to one często bazują na tym samym próbkowaniu. Warto znać tę liczbę, bo może się przydać nawet przy podstawowej obróbce dźwięku na komputerze. Szczerze, trudno znaleźć bardziej rozpoznawalny standard branżowy niż to słynne 44,1 kHz.

Pytanie 38

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 2 000 Hz – 20 000 Hz
B. 1 000 Hz – 1 999 Hz
C. 250 Hz – 999 Hz
D. 20 Hz – 249 Hz
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 39

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. MIDI
B. VIDEO
C. MASTER
D. AUDIO
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 40

Aby zmienić nazwę regionu na ścieżce w sesji programu DAW, należy użyć funkcji

A. Resize.
B. Reset.
C. Reverse.
D. Rename.
Funkcja „Rename” to absolutna podstawa jeśli chodzi o zarządzanie regionami w sesji DAW. W praktyce, kiedy masz dziesiątki ścieżek i fragmentów audio czy MIDI, jasne i logiczne nazewnictwo regionów bardzo ułatwia pracę – zarówno podczas aranżacji, jak i później przy miksie albo eksporcie. Z mojego doświadczenia wynika, że profesjonaliści zawsze kładą nacisk na czytelność projektu, bo potem łatwiej znaleźć konkretne partie czy zrobić edycję. „Rename” umożliwia zmianę nazwy regionu bezpośrednio na ścieżce – wystarczy kliknąć prawym przyciskiem myszy na regionie, wybrać opcję zmiany nazwy i wpisać coś bardziej opisowego, np. „Wokal refren 2” zamiast „Audio 1-22”. To zdecydowanie standardowa praktyka w takich programach jak Ableton Live, Cubase, czy Logic Pro. Warto wiedzieć, że dobre nazewnictwo przydaje się też przy pracy zespołowej, gdy projekt trafia do inżyniera miksu lub innego producenta – wtedy wszyscy szybciej się odnajdują. W wielu studiach panuje zasada, żeby absolutnie każdy region miał nazwę odzwierciedlającą zawartość. Co ciekawe, niektóre DAWy pozwalają nawet na grupową zmianę nazw przez specjalne skróty czy automatyczne narzędzia, co przyspiesza workflow. Podsumowując: „Rename” jest nie tylko poprawnym wyborem, ale wręcz nawykiem, który warto wyrobić sobie od początku pracy z DAW-ami.