Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 22 kwietnia 2026 10:00
  • Data zakończenia: 22 kwietnia 2026 10:11

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 44,1 kHz
B. 48 kHz
C. 88,2 kHz
D. 96 kHz
Częstotliwość próbkowania 96 kHz oznacza, że w ciągu jednej sekundy pobieranych jest aż 96 tysięcy próbek sygnału. Im wyższa częstotliwość próbkowania, tym krótszy odstęp czasowy pomiędzy kolejnymi próbkami – w tym przypadku to ok. 10,4 mikrosekundy na jedną próbkę. To właśnie dlatego w tej odpowiedzi próbka trwa najkrócej. W branży audio taka wysoka częstotliwość jest wykorzystywana między innymi w profesjonalnym nagrywaniu muzyki, postprodukcji dźwięku do filmów czy w zastosowaniach wymagających bardzo wysokiej jakości odwzorowania sygnału analogowego. Standard CD-Audio używa 44,1 kHz, natomiast 48 kHz to popularna wartość w produkcji wideo. Jednak 96 kHz oraz jeszcze wyższe wartości częstotliwości próbkowania (np. 192 kHz) zapewniają jeszcze większą precyzję, co pozwala lepiej zachować niuanse dźwięku przy obróbce i miksie. Moim zdaniem, jeśli ktoś poważnie myśli o edycji audio albo lubi eksperymentować z detalami, to warto poznać praktyczne skutki wyboru tych parametrów. Warto pamiętać, że wyższa częstotliwość próbkowania to nie tylko lepsza jakość, ale też większe wymagania co do przestrzeni dyskowej i wydajności sprzętu. Tu wiedza o zależności między czasem jednej próbki a częstotliwością przyda się w codziennej pracy dźwiękowca – czasami trzeba wybrać kompromis między jakością a zasobami.

Pytanie 2

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. szybszych i o lepszej jakości.
B. wolniejszych i o słabszej jakości.
C. szybszych i o słabszej jakości.
D. wolniejszych i o lepszej jakości.
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 3

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 24 bitowej?

A. 96 dB
B. 144 dB
C. 192 dB
D. 48 dB
Maksymalna dynamika zapisu audio w formacie 24-bitowym wynosi właśnie 144 dB. Wynika to bezpośrednio z ilości bitów użytych do reprezentacji amplitudy sygnału: każdy bit daje teoretycznie 6 dB zakresu dynamiki (24 x 6 dB = 144 dB). To ogromna wartość, szczególnie jeśli porównasz ją ze standardowym CD, który wykorzystuje 16 bitów i ma zakres około 96 dB. W praktyce tak duża dynamika pozwala na bardzo precyzyjne uchwycenie zarówno najcichszych, jak i najgłośniejszych fragmentów nagrania – bez słyszalnych zniekształceń czy szumów tła. Studiom nagraniowym daje to swobodę do dalszej obróbki materiału, np. podczas miksowania czy masteringu, gdzie potrzebny jest zapas dynamiki na różne efekty czy korekcję. Moim zdaniem to jedna z głównych przyczyn, dlaczego poważne produkcje muzyczne rejestruje się w 24 bitach, nawet jeśli później materiał trafia na CD lub streaming w niższej jakości. Warto dodać, że choć ucho ludzkie nie wyłapie całych 144 dB różnicy (w praktyce słyszymy mniej), to jednak taki zapas ogromnie ułatwia pracę inżynierom dźwięku i pozwala uniknąć ryzyka nieodwracalnego ścięcia sygnału. Świetnym przykładem zastosowań są nagrania muzyki klasycznej czy filmowej, gdzie liczy się zachowanie pełnej dynamiki orkiestry – od ledwie słyszalnych smyczków po potężne tutti. Dobrze wiedzieć, że w branży pro audio to już właściwie standard.

Pytanie 4

Która para wielkości oznacza nagranie o najwyższym średnim poziomie głośności?

A. -3 dB Peak/ -12 dB RMS
B. -0,3 dB Peak/ -7 dB RMS
C. -1 dB Peak/ -9 dB RMS
D. -0,1 dB Peak/ -8 dB RMS
Wybrałeś parę -0,3 dB Peak oraz -7 dB RMS, co faktycznie wskazuje na nagranie o najwyższym średnim poziomie głośności. W praktyce RMS (Root Mean Square) to miara uśrednionej energii sygnału, która zdecydowanie lepiej niż peak opisuje realnie odbieraną przez ucho 'moc' dźwięku. W branży muzycznej czy radiowej to właśnie RMS mówi nam, jak głośne odczuwalnie jest nagranie, bo szczytowe wartości (Peak) mogą być wysokie, ale trwać bardzo krótko i nie przekładać się na całościową siłę utworu. Moim zdaniem, jeśli zależy Ci na tzw. loudness wars i przebiciu się na platformach streamingowych, patrzysz przede wszystkim na RMS albo LUFS, bo to one decydują o tym, czy Twój kawałek nie zostanie automatycznie ściszony przez algorytm. Warto pamiętać, że wartości RMS powyżej -8 dB uważane są już za bardzo głośne, zbliżone do popularnych nagrań radiowych, a -7 dB RMS to wręcz granica kompresji, którą łatwo usłyszeć przez utratę dynamiki. W praktyce miksując, dążymy do kompromisu: peak poniżej 0 dBFS, żeby nie przesterować, ale RMS jak najwyższy, nie tracąc przy tym naturalności brzmienia. Standardy radiowe czy streamingowe (np. Spotify, Apple Music) nakazują pilnować tych poziomów, bo za głośne utwory i tak zostaną przyciszone. Z mojego doświadczenia -7 dB RMS to już naprawdę głośno i nie warto przesadzać, bo można zniszczyć detal i przestrzeń. Dobrze wiedzieć, czemu te liczby są tak istotne w praktyce!

Pytanie 5

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 12 dB
B. o 9 dB
C. o 6 dB
D. o 3 dB
Redukcja mocy sygnału o połowę to temat, który często przewija się podczas pracy z dźwiękiem – czy to w miksowaniu, czy w projektowaniu systemów nagłośnieniowych. Odpowiedź o stłumienie o 3 dB jest jak najbardziej trafiona, bo właśnie tyle wynosi różnica, gdy moc spada dwukrotnie. To taki branżowy standard – 3 dB to „wzorcowa połowa mocy”. Wynika to z matematyki decybeli: stosunek mocy wyrażamy jako 10 log(P2/P1). Jeśli P2 to połowa P1, to 10 log(0,5) ≈ -3 dB. Co ciekawe, w przypadku napięcia (lub amplitudy), żeby uzyskać połowę mocy, nie tłumimy sygnału o połowę napięcia, a o około 0,707 (czyli -3 dB napięciowo). W praktyce — jak siedzisz przy DAW-ie i ściszysz ścieżkę o 3 dB, moc naprawdę spada o połowę, choć subiektywnie nie jest to takie oczywiste, bo nasze ucho reaguje logarytmicznie. W branży często mówi się: „Minus 3 dB to połowa mocy, minus 6 dB to połowa napięcia” – warto to zapamiętać, bo często się przydaje przy liczeniu headroomu czy przy projektowaniu torów audio. Moim zdaniem to jedna z najważniejszych liczb do ogarnięcia w audio – pozwala unikać błędów przy ustawianiu poziomów, zwłaszcza grając z sygnałami na pograniczu przesterowania. Wspominasz o DAW: każdy szanujący się program pokazuje wartości tłumienia w dB, więc można łatwo to wypróbować w praktyce, eksperymentując z miernikami RMS lub VU.

Pytanie 6

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 480 kb/s
B. 160 kb/s
C. 320 kb/s
D. 240 kb/s
320 kb/s to największa stała przepływność bitowa, jaką przewiduje standard MP3 (MPEG-1 Audio Layer III). To właśnie ta wartość jest górnym limitem dla plików MP3 zapisanych w trybie CBR, czyli z niezmienną szybkością przesyłania danych. Z mojego doświadczenia wynika, że jeśli ktoś oczekuje najwyższej możliwej jakości w ramach pliku MP3, to zawsze wybiera właśnie 320 kb/s. To dlatego w profesjonalnych studiach czy podczas cyfrowego archiwizowania muzyki często wybiera się właśnie ten parametr. Wiadomo, że MP3 jest formatem stratnym, więc nawet przy 320 kb/s nie uzyskamy pełnej jakości oryginału, ale dla większości zastosowań – od odtwarzaczy samochodowych po radio internetowe – ta przepływność jest akceptowalnym kompromisem między rozmiarem pliku a jakością dźwięku. Standard ISO/IEC 11172-3 wyraźnie określa, że próbując ustawić wyższą wartość, np. 480 kb/s, nie osiągniemy zamierzonego efektu – takie pliki nie będą kompatybilne z większością odtwarzaczy. Warto pamiętać, że inne formaty audio, jak AAC czy FLAC, mogą obsługiwać inne zakresy przepływności, ale w świecie MP3 320 kb/s to maksimum. Ja zawsze polecam sprawdzać ustawienia eksportu w programach do kodowania muzyki, bo czasem domyślna wartość to 128 lub 192 kb/s, a szkoda tracić na jakości, skoro można lepiej.

Pytanie 7

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. regulowania barwy stopy perkusji.
B. kształtowania barwy blach hi-hatu.
C. usunięcia szumów własnych miksera.
D. usunięcia dudnienia i wibracji.
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.

Pytanie 8

Korektor graficzny z pasmem podzielonym na 14 równych obszarów regulacji to korektor

A. tercjowy.
B. oktawowy.
C. dwuoktawowy.
D. kwartowy.
Wiele osób myli się, sądząc, że korektor graficzny z 14 pasmami to urządzenie oktawowe, tercjowe czy dwuoktawowe, ale to akurat nie ma pokrycia w praktyce inżynierii dźwięku. Korektor oktawowy dzieli bowiem pasmo na 10, czasem 12 sekcji, gdzie każda odpowiada jednej pełnej oktawie. To rozwiązanie jest dość „grube” i używane raczej do ogólnych poprawek barwy dźwięku, typowo w prostszych instalacjach nagłośnieniowych czy w domowych zestawach audio. Tercjowy z kolei to już większa precyzja – tutaj mamy 31 pasm, bo każda tercja oktawy jest osobno regulowana. To już narzędzie stricte dla profesjonalistów, którzy chcą naprawdę szczegółowo wyrównać charakterystykę systemu akustycznego, często przy pomocy specjalistycznych analizatorów widma. Natomiast dwuoktawowy to rzadko spotykany typ, gdzie pasmo dzielone jest na jeszcze mniej sekcji – to bardzo ogólna regulacja, która praktycznie nie sprawdza się w nowoczesnych systemach nagłośnieniowych i jest raczej ciekawostką historyczną. Mylenie tych nazw wynika najczęściej z braku praktyki lub pobieżnego podejścia do tematu – ktoś widzi liczbę suwaków i automatycznie przypisuje ją do najczęściej spotykanych typów. Tymczasem w branży obowiązują konkretne standardy i określenia: 14 pasm to dokładnie podział kwartowy – każda ćwierć oktawy daje większe możliwości dopasowania charakterystyki systemu do otoczenia. Takie rozwiązania są wykorzystywane wszędzie tam, gdzie ważna jest precyzja, ale nie potrzeba aż tak „gęstego” podziału jak w tercjowych korektorach. Warto zapamiętać, że dopasowanie typu korektora do sytuacji to jedna z podstawowych umiejętności dobrego dźwiękowca, a błędne założenia w tym zakresie mogą prowadzić do niepotrzebnych problemów z brzmieniem i sprzężeniami.

Pytanie 9

Format pliku dźwiękowego, który zawiera listę komend dla modułu brzmieniowego, to

A. .mid
B. .wav
C. .mod
D. .flac
Plik z rozszerzeniem .mid, czyli plik MIDI (Musical Instrument Digital Interface), faktycznie nie przechowuje dźwięku w tradycyjny sposób. On zawiera instrukcje – coś w rodzaju nut zapisanych cyfrowo. Każda komenda, która jest tam zapisana, mówi modułowi brzmieniowemu (albo syntezatorowi), jaki dźwięk ma zagrać, z jaką głośnością, jak długo, na jakim instrumencie itd. Z mojego doświadczenia to bardzo praktyczne rozwiązanie, bo plik .mid jest malutki – no bo nie ma tam próbek audio, tylko zestaw poleceń. W studiu czy też w produkcji muzyki komputerowej MIDI to podstawa, szczególnie przy sterowaniu zewnętrznymi instrumentami albo w sytuacji, gdy zależy nam na edycji nut w czasie rzeczywistym. Warto wiedzieć, że MIDI to uniwersalny standard, dzięki któremu można łatwo wymieniać aranżacje między programami czy urządzeniami różnych producentów. To, co ciekawe, plik .mid można zagrać na totalnie różnych sprzętach i zawsze zabrzmi inaczej – bo wszystko zależy od tego, jaki moduł brzmieniowy go odczyta. W branży IT i audio uznaje się to za bardzo wydajny i elastyczny format – szczególnie gdy chodzi o kontrolę nad instrumentami wirtualnymi, automatami perkusyjnymi czy nawet oświetleniem scenicznym. Tak szczerze, nie znam lepszego sposobu na przenoszenie pełnej aranżacji bez przenoszenia samych dźwięków.

Pytanie 10

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 3
B. 4
C. 8
D. 14
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 11

Jaka jest długość efektu dźwiękowego w przeliczeniu na ramki, jeżeli trwa on 5,5 sekundy, a w kodzie czasowym w sesji ustawiono wartość 30 fps?

A. 155 ramek.
B. 180 ramek.
C. 170 ramek.
D. 165 ramek.
Z mojego doświadczenia wynika, że błędy w takich obliczeniach bardzo często wynikają z pośpiechu albo z mylnego założenia, jak dokładnie działa przeliczanie czasu na liczbę klatek. Przy pracy z materiałem dźwiękowym czy wideo, kluczowe jest zrozumienie, że fps, czyli liczba klatek na sekundę, dokładnie określa ile ramek mieści się w jednej sekundzie materiału. W przypadku 30 fps, każda sekunda to równo 30 ramek – i nie ma tu miejsca na zaokrąglanie czy „przybliżanie” wyniku. Czasem ktoś popełnia błąd myśląc, że 5,5 sekundy to na przykład 155 klatek, bo może pomylił się w mnożeniu albo zapomniał o tej połówce sekundy, co zresztą dość często się zdarza, zwłaszcza kiedy pracuje się na szybko. Z kolei wybierając wartości znacznie wyższe, jak 170 czy nawet 180 klatek, można się zasugerować, że efekt dźwiękowy trwa dłużej niż w rzeczywistości, albo myli się standard fps – na przykład podświadomie przelicza się jakby to było 32, 33 czy nawet 36 fps, co jednak w tym zadaniu nie ma uzasadnienia. Takie rozbieżności są powodem niespójności między ścieżką dźwiękową a obrazem, co z kolei prowadzi do poważnych problemów podczas finalnego montażu – dźwięk rozjeżdża się z obrazem, a korekta takich błędów bywa czasochłonna. Dlatego tak ważne jest, żeby w profesjonalnej pracy zawsze dokładnie, krok po kroku, przeliczać sekundy na ramki, trzymając się ustawionego fps dla całej sesji. Utrzymywanie spójności to jedna z podstawowych zasad montażu i miksu audio-wideo. Ostatecznie, każda nieścisłość w takim wyliczeniu może skutkować stratą czasu i frustracją całego zespołu produkcyjnego.

Pytanie 12

Teoretyczna maksymalna dynamika cyfrowego sygnału fonicznego przy 20-bitowej rozdzielczości wynosi

A. 120 dB
B. 144 dB
C. 96 dB
D. 192 dB
Wielu osobom wydaje się, że im większa liczba bitów, tym bardziej drastycznie rośnie dynamika sygnału, a wartości typu 144 dB czy nawet 192 dB bywają mylnie utożsamiane z 20-bitową rozdzielczością. To nie do końca tak działa, co zresztą wynika ze wzoru na dynamikę sygnału cyfrowego: 6 dB na każdy bit. Ten przelicznik jest standardem w inżynierii dźwięku i wynika z matematyki kwantyzacji. W praktyce, dla 16 bitów mamy około 96 dB (typowe dla płyt CD), dla 20 bitów to około 120 dB, a 24 bity dają nam około 144 dB – i tyle, żadnych cudów tutaj nie będzie. Często spotykam się z błędnym przekonaniem, że sama rozdzielczość 20 czy 24 bity daje jeszcze większy zapas, niż faktycznie wynika z teorii. Tymczasem realne systemy audio mają jeszcze swoje ograniczenia sprzętowe, przez które osiągnięcie deklarowanej dynamiki bywa i tak nierealne – zwłaszcza w tańszym sprzęcie. Jeśli ktoś wskazuje na 192 dB jako dynamikę dla 20 bitów, to trochę przesadza – taka wartość mogłaby być osiągalna przy 32 bitach, ale to raczej spotyka się w systemach specjalistycznych do rejestracji naukowej, nie w standardowym audio. 96 dB to domena 16 bitów, a 144 dB to właśnie 24 bity. Warto mieć tę wiedzę w małym palcu, bo na rynku audio mnóstwo jest marketingowych mitów, które mieszają ludziom w głowie. Moim zdaniem zawsze warto sięgnąć do podstaw matematycznych i znać wzory – wtedy od razu widać, jakie wartości są możliwe, a co jest tylko pustym chwytem reklamowym. Dobrze jest też pamiętać, że prawdziwy potencjał dużej dynamiki widać dopiero w warunkach studyjnych – w domowym sprzęcie nawet połowa tej wartości często pozostaje niewykorzystana przez szumy czy słabsze przetworniki.

Pytanie 13

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 88,2 kHz
B. 96 kHz
C. 44,1 kHz
D. 48 kHz
Dobrze, że to zauważyłeś – dwukrotne nadpróbkowanie dźwięku odnosi się bezpośrednio do podwojenia częstotliwości próbkowania względem wartości wyjściowej. Standard CD-Audio pracuje z częstotliwością próbkowania 44,1 kHz, co pozwala na wierne odwzorowanie dźwięków do ok. 22 kHz (zgodnie z twierdzeniem Nyquista). Jeśli więc zastosujemy nadpróbkowanie x2, nowa częstotliwość próbkowania wyniesie 88,2 kHz. Taki zabieg stosuje się często w profesjonalnych studiach nagraniowych czy podczas obróbki audio, żeby uzyskać więcej szczegółów w dźwięku albo żeby mieć większy komfort przy późniejszej edycji sygnału, na przykład przy filtracji czy konwersji do niższych rozdzielczości. Moim zdaniem warto pamiętać, że 88,2 kHz jest naturalną wielokrotnością 44,1 kHz, więc konwersja między tymi częstotliwościami odbywa się bezstratnie i bez żadnych problemów z aliasingiem. To ważne w przypadku masteringu na różne nośniki. W branży audio spotyka się też częstotliwości jak 48 kHz czy 96 kHz, ale one są bardziej związane z video i zastosowaniami broadcastowymi, a nie z typowym audio CD. Także, jak dla mnie, dobrze zapamiętać właśnie ten związek przy nadpróbkowaniu sygnału audio.

Pytanie 14

Który z wymienionych parametrów korektora barwy wpływa na szerokość filtrowanego pasma częstotliwości?

A. Frequency
B. Gain
C. Q
D. Output
Parametr Q to kluczowa rzecz, jeśli chodzi o korektory barwy, szczególnie te parametryczne. Q, czyli tzw. dobroć filtra, bezpośrednio decyduje o szerokości pasma częstotliwości, które jest poddawane regulacji – im wyższa wartość Q, tym węższy zakres, który zmieniamy, natomiast niska wartość Q rozszerza wpływ korektora na szersze pasmo. To bardzo praktyczne, bo pozwala „wycinać” lub podbijać bardzo konkretne częstotliwości bez naruszania reszty sygnału. W branży audio, np. podczas miksowania nagrań czy przy pracy live na scenie, umiejętne operowanie parametrem Q jest wręcz niezbędne. Pozwala precyzyjnie eliminować niechciane dźwięki jak np. brumienie lub sybilanty, nie zabierając przy tym charakteru reszcie miksu. Moim zdaniem, każdy kto poważnie myśli o pracy z dźwiękiem, powinien trochę poeksperymentować z Q i zobaczyć, jak diametralnie zmienia się brzmienie, gdy operujemy tym właśnie parametrem. To jedno z tych ustawień, które rozdzielają zwykłe filtry od profesjonalnych narzędzi do kształtowania dźwięku. Warto też wiedzieć, że w standardach branżowych, jak choćby w korektorach graficznych i półparametrycznych, parametr Q jest często predefiniowany, a w tych w pełni parametrycznych można go swobodnie ustawiać. Dlatego Q to podstawa w precyzyjnej korekcji barwy.

Pytanie 15

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Channels
B. Bit Resolution
C. Audio File Type
D. Sample Rate
Częstotliwość próbkowania (Sample Rate) to taka cecha pliku dźwiękowego, która właściwie decyduje, ile razy na sekundę DAW rejestruje próbkę sygnału audio. W praktyce na przykład, plik z sample rate 44,1 kHz zawiera 44 100 próbek dźwięku na każdą sekundę. To jest właśnie ten parametr, który ma kluczowe znaczenie dla jakości nagrania, szczególnie jeśli chodzi o pasmo przenoszenia. Im wyższy sample rate, tym więcej szczegółów dźwiękowych można zachować, ale też plik jest cięższy i obciąża komputer podczas pracy. Branżowym standardem w muzyce jest 44,1 kHz, natomiast w produkcji filmowej często używa się 48 kHz lub nawet wyższych wartości typu 96 kHz. Moim zdaniem, dobrze rozumieć to od podstaw, bo kiedy zaczynasz miksować materiały z różnymi częstotliwościami próbkowania, mogą pojawić się różne nieprzyjemne sytuacje – od degradacji jakości po problemy z synchronizacją. Sample Rate nie tylko wpływa na jakość, ale też na kompatybilność z innym sprzętem i oprogramowaniem. Dla mnie, jeśli ktoś planuje profesjonalną pracę z dźwiękiem, umiejętność świadomego wyboru i konwersji sample rate to absolutna podstawa. Warto pamiętać, żeby w projekcie DAW wszystkie materiały miały tę samą częstotliwość próbkowania – to ułatwia życie i minimalizuje błędy.

Pytanie 16

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 70 minut.
B. 80 minut.
C. 90 minut.
D. 60 minut.
Wiele osób mylnie zakłada, że skoro płyta CD-Audio mieści 700 MB, to czas zapisu dźwięku jest mniejszy lub większy od rzeczywistego limitu 80 minut. To często wynika z nieznajomości standardu CD-DA, gdzie podstawowe parametry to 16 bitów na próbkę, 44,1 kHz i dwa kanały (stereo). Te liczby determinują, ile danych zużywa każda sekunda nagrania. Gdy próbujemy oszacować czas trwania, łatwo pomylić się, zakładając, że płyta typu '700 MB' powinna odpowiadać np. 70 minutom (bo liczba wydaje się podobna) albo nawet 60 minutom, co odpowiada innym formatom jak kaseta magnetofonowa C60. Z drugiej strony pojawia się też przekonanie, że da się nagrać 90 minut muzyki, bo niektóre nagrywarki umożliwiają tzw. overburning – jednak to wykracza poza oficjalny standard i grozi błędami odczytu lub niekompatybilnością z typowymi odtwarzaczami. Z perspektywy praktycznej, jeśli materiał muzyczny trwa ponad 80 minut, zwykle wydawany jest na dwóch płytach lub skracany – właśnie przez ten limit. Pojęcie, że CD-Audio pomieści mniej niż 80 minut (60 czy 70) to błąd myślenia oparty o mylenie formatów lub nieznajomość specyfikacji. Z kolei przekonanie o 90 minutach wynika z prób wykorzystania niestandardowych, ryzykownych technik nagrywania, które nie należą do dobrych praktyk w branży. Standard przemysłowy jasno określa 80 minut jako maksimum i do tego trzeba się stosować, planując produkcję muzyki czy robienie własnych kompilacji.

Pytanie 17

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. kształtu fade in i fade out w sesji.
C. koloru ścieżek w sesji.
D. częstotliwości próbkowania sygnału w sesji.
Częstotliwość próbkowania sygnału w sesji to absolutnie kluczowy parametr, który ustalamy na samym początku, przy tworzeniu nowej sesji w DAW. To od niej zależy, jak szczegółowo dźwięki będą zapisywane i odtwarzane – im wyższa wartość, tym więcej informacji o sygnale jest przechowywane i tym lepsza jakość dźwięku (a przynajmniej w teorii, bo w praktyce czasem bywa różnie). Najczęściej spotykane częstotliwości to 44,1 kHz (standard CD), 48 kHz (audio do wideo) oraz wyższe, np. 96 kHz czy nawet 192 kHz w zastosowaniach profesjonalnych. Wybranie odpowiedniej wartości od razu jest mega ważne, bo późniejsza zmiana podczas pracy nad projektem może prowadzić do problemów z konwersją materiału, stratą jakości albo komplikacjami z kompatybilnością. Moim zdaniem najlepiej od razu wiedzieć, do czego będzie używana sesja – jeśli nagrywasz muzykę na streaming lub płytę CD, spokojnie wystarczy 44,1 kHz. Ale jeśli pracujesz z filmem albo bardzo złożonymi realizacjami, warto rozważyć 48 kHz lub więcej. Profesjonaliści zawsze planują to z wyprzedzeniem, bo późniejsze kombinacje z konwersją mogą być uciążliwe i niepotrzebnie komplikować życie. Wybór częstotliwości próbkowania na starcie jest zgodny z dobrą praktyką branżową i praktycznie każdy poważny DAW pyta o to przy zakładaniu nowej sesji. Także to jest naprawdę podstawowy parametr i trzeba o nim pamiętać zawsze!

Pytanie 18

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Czterokrotny.
B. Trzykrotny.
C. Dwukrotny.
D. Pięciokrotny.
Przy ocenie wzrostu subiektywnie odczuwalnej głośności dźwięku bardzo łatwo pomylić zależność logarytmiczną z liniową. Wiele osób sądzi, że skoro zwiększamy poziom sygnału o 10 dB, to wzrost głośności musi być znacznie większy – na przykład trzykrotny, czterokrotny, a nawet pięciokrotny. Skąd się biorą takie pomyłki? Często z mylenia poziomu ciśnienia akustycznego (mierzonego w decybelach) z subiektywnym odbiorem głośności, który jest kwestią psychoakustyczną. Decybel to jednostka logarytmiczna: wzrost mocy sygnału o 10 dB oznacza dziesięciokrotny wzrost mocy fizycznej, ale nasze uszy nie są na to aż tak wrażliwe. Słyszymy tak, że potrzeba właśnie około 10 dB, by uzyskać wrażenie dwukrotnego wzrostu głośności – to zostało potwierdzone wieloma badaniami, choć czasem różnice indywidualne mogą być spore. Błędne przekonania wynikają też z tego, że skale głośności w sprzęcie często są nieintuicyjne. Na domowym wzmacniaczu czy suwaku w programie wydaje się, że wzrost o kilka kresek to już potężna zmiana, a tymczasem realnie – dla odczuwalnej głośności – potrzeba większych różnic. Branżowe normy, jak ISO 226 czy EBU R128, skupiają się na tym, by poziomy były ustawiane świadomie, z uwzględnieniem logarytmicznej percepcji. Stąd też praktyczne zalecenia w technice dźwiękowej – niezależnie czy miksujemy muzykę, nagłaśniamy koncert czy projektujemy system alarmowy – mówią jasno: +10 dB to podwojenie wrażenia głośności, a nie potrojenie czy więcej. Warto ten fakt dobrze zapamiętać, bo pozwala uniknąć wielu typowych błędów podczas pracy z dźwiękiem i lepiej rozumieć ograniczenia ludzkiego słuchu. Moim zdaniem to jeden z najważniejszych fundamentów w akustyce praktycznej.

Pytanie 19

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. częstotliwości próbkowania sygnału w sesji.
C. koloru ścieżek w sesji.
D. kształtu fade in i fade out w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 20

Który z formatów plików audio nie używa kodowania stratnego?

A. .ogg
B. .wav
C. .ra
D. .rm
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 21

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. oversamplingu.
B. kompresji bezstratnej.
C. kompresji stratnej.
D. resamplingu.
Kompresja bezstratna to metoda, która pozwala na zmniejszenie rozmiaru pliku dźwiękowego bez utraty jakiejkolwiek informacji z oryginalnego sygnału. To kluczowe, gdy zależy nam na zachowaniu pełnej jakości materiału, tak jak w przypadku archiwizacji nagrań studyjnych czy profesjonalnej produkcji audio. Przykładami kompresji bezstratnej są formaty takie jak FLAC, ALAC czy ZIP dla plików audio. Branża muzyczna, szczególnie w środowiskach audiofilskich albo podczas masteringu, korzysta z tych rozwiązań, ponieważ każda, nawet najmniejsza utrata danych w sygnale może skutkować drobnymi, ale słyszalnymi artefaktami. Uważam, że nie ma sensu oszczędzać miejsca kosztem jakości, jeżeli ktoś chce potem obrabiać lub analizować dźwięk. Standardy takie jak FLAC stały się wręcz domyślnym wyborem do archiwizacji, bo zapewniają identyczny dźwięk przy odtwarzaniu, bez kompromisów. Dla mnie kompresja bezstratna to coś w rodzaju cyfrowej „skrzynki bezpieczeństwa” – zawsze możesz odzyskać oryginał, a przy tym plik jest mniejszy niż WAV czy AIFF. No i jeszcze jedno: jeśli masz do czynienia z nagraniami wielościeżkowymi, praca na plikach bezstratnych to wręcz obowiązek, bo każda kolejna konwersja w formacie stratnym to coraz większa degradacja sygnału. Także kompresja bezstratna to zdecydowanie najlepszy kierunek, jeśli zależy nam na oryginalności i pełnej jakości dźwięku.

Pytanie 22

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 60 minut.
B. 70 minut.
C. 80 minut.
D. 90 minut.
Zastanawiając się nad maksymalnym czasem nagrania na płycie CD-Audio o pojemności 700 MB, łatwo wpaść w pułapkę myślenia, że można tam zmieścić więcej lub mniej minut muzyki niż wynika to ze standardu. Wiele osób sądzi, że 60 minut to maksimum – być może przez przyzwyczajenie do starszych płyt o pojemności 650 MB, które rzeczywiście mieściły około godziny muzyki. To już jednak przeszłość – obecnie najpopularniejsze są płyty 700 MB, zwane czasem „CD-80”, bo właśnie tyle minut można na nich nagrać. Wskazanie 70 minut jako granicy to z kolei efekt zaokrągleń lub nieaktualnych danych, bo część starych programów nagrywających pokazywała domyślnie bezpieczny czas, aby mieć margines na ewentualne błędy. Jeszcze innym błędem jest myśleć, że da się na CD-Audio zmieścić aż 90 minut – dostępne są co prawda płyty typu „CD-90” czy „CD-99”, ale one nie spełniają specyfikacji Red Book i nie działają na wszystkich odtwarzaczach, a ich użycie to ryzyko utraty kompatybilności. W praktyce, standardowy zapis nieskompresowanego dźwięku stereo o parametrach 44,1 kHz/16 bit to około 10 MB na minutę, więc łatwo policzyć, że 700 MB daje właśnie 80 minut. To jest wartość, na której opierają się praktycznie wszystkie sprzęty audio – zarówno starsze, jak i nowe. Niedocenienie lub przecenianie tej pojemności prowadzi potem do rozczarowań, kiedy płyta nie działa w samochodzie czy stacjonarnym odtwarzaczu. Moim zdaniem, warto zawsze trzymać się standardów, bo nie tylko zapewnia to pełną kompatybilność, ale i ułatwia planowanie archiwizacji czy wydawania muzyki. Te liczby nie wzięły się z przypadku – są efektem technicznych ograniczeń formatu i potrzeb branży muzycznej sprzed kilku dekad, które zresztą wciąż pozostają aktualne.

Pytanie 23

Której funkcji programu do konwersji plików dźwiękowych należy użyć, aby zwiększyć dokładność obróbki cyfrowego materiału audio?

A. Normalizacji.
B. Kompresji.
C. Nadpróbkowania.
D. Transpozycji.
Nadpróbkowanie to funkcja, która w praktyce potrafi podnieść dokładność obróbki cyfrowego audio, szczególnie kiedy pracujemy ze ścieżkami dźwiękowymi wymagającymi dalszych edycji, np. miksu czy masteringu. W skrócie – polega to na tym, że zwiększamy liczbę próbek na sekundę (czyli tzw. częstotliwość próbkowania), co pozwala uzyskać więcej szczegółów i precyzji podczas późniejszych operacji. Branżowe standardy, jak np. produkcja muzyczna czy postprodukcja filmowa, bardzo często polegają na nadpróbkowaniu, by uniknąć artefaktów, takich jak aliasing albo zniekształcenia, które mogą pojawić się podczas stosowania efektów cyfrowych. Moim zdaniem, jeśli ktoś chce osiągnąć wysoką jakość i zachować pełną kontrolę nad materiałem, nadpróbkowanie jest wręcz obowiązkowe, zwłaszcza przy bardziej zaawansowanych procesach – chociażby korekcji czy syntezie dźwięku. Warto też pamiętać, że potem można wrócić do niższej częstotliwości próbkowania, ale ten etap pośredni daje nam po prostu większy margines bezpieczeństwa i swobody w pracy. Przykładowo, lepiej brzmiące przesterowania czy bardziej naturalne filtry to właśnie zasługa nadpróbkowania. W sumie to taka branżowa sztuczka, bez której ciężko dziś o naprawdę profesjonalnie brzmiący materiał audio.

Pytanie 24

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 64 dB
B. 96 dB
C. 128 dB
D. 144 dB
Maksymalna teoretyczna dynamika dźwięku możliwa do uzyskania przy rozdzielczości 24-bitowej to właśnie 144 dB. Wynika to z tego, że każdy pojedynczy bit rozdzielczości daje nam około 6 dB zakresu dynamicznego – czyli różnicy między najcichszym a najgłośniejszym możliwym sygnałem, który system potrafi obsłużyć bez zniekształceń. Przy 24 bitach to 24 x 6 dB, co daje właśnie 144 dB. Takie wartości są wykorzystywane zwłaszcza w profesjonalnych środowiskach audio, gdzie miksowanie, mastering albo nagrywanie na żywo wymaga jak najczystszego sygnału i jak największego zapasu ('headroomu'). Oczywiście, w praktyce większość urządzeń audio nie osiąga aż tak wysokiej dynamiki ze względu na szumy elektroniki oraz ograniczenia przetworników, ale właśnie format 24-bitowy jest wykorzystywany wszędzie tam, gdzie chodzi o jakość, na przykład w studiach nagraniowych czy podczas produkcji muzyki filmowej. Moim zdaniem zawsze warto pamiętać, że duża rozdzielczość bitowa to nie tylko lepsza jakość, ale i większa swoboda podczas cyfrowej obróbki dźwięku – łatwiej uniknąć niechcianych przesterów i artefaktów. Branżowy standard DAW-ów czy profesjonalnych kart dźwiękowych to już praktycznie zawsze 24 bity, bo to daje możliwość uzyskania właśnie takiego szerokiego zakresu dynamiki.

Pytanie 25

Który z wymienionych poziomów szczytowych jest najwyższym możliwym poziomem sygnału cyfrowego?

A. 0,0 dBFS
B. -0,3 dBFS
C. -6,0 dBFS
D. -18,0 dBFS
W sygnale cyfrowym poziom 0,0 dBFS (decibels relative to full scale) oznacza absolutne maksimum — to jest ten „sufit”, do którego możemy się zbliżyć, ale nie możemy go przekroczyć, bo nie ma już wyższych wartości. Wyobraź sobie, że pracujesz w DAW-ie albo mikserze cyfrowym: jeżeli wskaźnik pokazuje 0,0 dBFS, to znaczy, że twój sygnał dotarł do granicy możliwości przetwarzania przez system cyfrowy. Przekroczenie tej wartości prowadzi od razu do cyfrowych przesterowań (clippingu), co w praktyce brzmi bardzo nieprzyjemnie – sygnał zostaje ucięty, traci dynamikę i pojawiają się zniekształcenia. Właśnie dlatego w profesjonalnych studiach, podczas nagrań czy masteringu, zawsze pilnuje się, żeby poziomy szczytowe nie dobijały do 0,0 dBFS, a zostawia się tzw. „headroom”, czyli np. -0,3 dBFS lub -1 dBFS, żeby uniknąć przypadkowego przekroczenia pełnej skali. Ale jeśli pytamy o absolutnie najwyższy możliwy poziom w zapisie cyfrowym, to jest to właśnie 0,0 dBFS — dalej już nie ma „cyfrowo” nic, bo to jest granica zero-jedynkowego świata. Moim zdaniem warto o tym pamiętać, szczególnie gdy przerabia się ścieżki audio na różnych etapach produkcji, bo łatwo przeoczyć pojedyncze piki, które mogą „przekroczyć” tę granicę. Z praktyki: lepiej ustawić limiter i pracować poniżej tej wartości, ale sama definicja dBFS jasno mówi – 0,0 dBFS to maksimum, punkt odniesienia, do którego mierzymy wszystko poniżej.

Pytanie 26

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .wma
B. .mp4
C. .aif
D. .mp3
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 27

Normalizacja nagrania (peak normalization) to

A. obniżenie szczytowego poziomu nagrania o 3 dB.
B. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS.
C. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
D. obniżenie średniego poziomu nagrania o 3 dB.
Wiele osób, zwłaszcza na początku swojej przygody z realizacją dźwięku, może pomylić różne pojęcia związane z poziomami sygnału i ich normalizacją. Częsty błąd polega na utożsamianiu normalizacji z obniżeniem poziomu, co zupełnie mija się z istotą tej operacji. Normalizacja szczytowa nie polega na obniżaniu czegokolwiek – ani średniego, ani szczytowego poziomu – tylko na podnoszeniu całego sygnału tak, by najwyższy jego punkt zrównał się z ustalonym maksimum, najczęściej 0 dBFS. To zabezpiecza przed przesterowaniem na etapie dalszej produkcji, ale jednocześnie nie zmienia proporcji między głośniejszymi a cichszymi fragmentami nagrania. Błąd polegający na myśleniu, że chodzi o średni poziom, wynika z zamieszania między normalizacją szczytową, a tzw. normalizacją RMS albo loudness normalization, gdzie rzeczywiście patrzy się na poziom średni (czyli RMS albo LUFS). Jednak ta metoda nie dotyczy peak normalization, a raczej zaawansowanych procesów masteringowych, gdzie chodzi o percepcyjną głośność nagrania. Z kolei samo obniżanie poziomu – czy to szczytowego, czy średniego – nie ma nic wspólnego z normalizacją, bo ta operacja zawsze dąży do maksymalnego wykorzystania dostępnej dynamiki bez przekraczania granicy przesterowania. W praktyce, niewłaściwe rozumienie tych procesów może prowadzić do materiału, który będzie za cichy lub nierówno brzmiący na tle innych nagrań. Moim zdaniem warto od razu zrozumieć, że normalizacja szczytowa to mechaniczne ustawienie najwyższego piku na określonym poziomie, zwykle 0 dBFS, zgodnie ze standardami branżowymi i możliwościami systemu cyfrowego. Nie wpływa to na odczuwalną głośność, a tylko na maksymalny poziom sygnału. Wybierając tę opcję, mamy pewność, że nie przekroczymy cyfrowego limitu, ale warto pamiętać, że percepcyjna głośność może się nadal różnić między nagraniami.

Pytanie 28

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 80 minut.
B. 90 minut.
C. 60 minut.
D. 70 minut.
Często wydaje się, że na płycie CD-Audio, skoro ma 700 MB, można zmieścić dużo więcej muzyki – na przykład 90 czy nawet 70 minut. Jednak to niestety nie tak działa. Kluczową sprawą nie jest sama liczba megabajtów, ale format, w jakim zapisujemy dźwięk. Płyty CD-Audio korzystają wyłącznie z nieskompresowanego formatu PCM 16 bitów, 44,1 kHz, stereo, dokładnie jak przewiduje standard Red Book. W praktyce oznacza to, że każda minuta dźwięku zajmuje około 10 MB. Sprawia to, że 700 MB wystarcza na około 80 minut muzyki, a nie więcej. Popularny błąd to myślenie, że jeśli płyta mieści więcej danych, to automatycznie pozwala na dłuższy czas odtwarzania – to byłoby prawdą w przypadku plików MP3 lub innych formatów skompresowanych, ale w przypadku CD-Audio to nie przejdzie. Część osób myli też płyty CD z płytami DVD, które rzeczywiście mają znacznie większą pojemność, jednak to już zupełnie inna technologia i inne standardy zapisu dźwięku. Z mojego doświadczenia, ten problem pojawia się najczęściej wtedy, gdy ktoś próbuje nagrać bardzo długą płytę koncertową i nie rozumie, dlaczego nie może zmieścić 90 minut na jednym krążku – no właśnie, dlatego że odtwarzacze CD bazują na standardzie Red Book, który przewiduje maksymalnie 80 minut na płycie 700 MB. Zbyt optymistyczne szacunki prowadzą potem do frustracji przy nagrywaniu, więc warto to dobrze zrozumieć już na etapie planowania projektu audio. W świecie profesjonalnym to absolutna podstawa – znajomość tych ograniczeń pozwala uniknąć błędów podczas masteringu i produkcji muzycznej. Jeśli masz wątpliwości, zawsze sprawdź specyfikację techniczną nośnika lub sięgnij do dokumentacji Red Book – tam wszystko jest wyłożone czarno na białym.

Pytanie 29

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 48 000 Hz
B. 96 000 Hz
C. 44 100 Hz
D. 32 000 Hz
W temacie cyfrowego przetwarzania dźwięku łatwo się pogubić, bo na pierwszy rzut oka wydaje się, że im większa częstotliwość próbkowania, tym lepsza jakość. To jednak nie do końca prawda i takie myślenie prowadzi do niepotrzebnego zawyżania parametrów, które nie zawsze mają uzasadnienie w praktyce. Zasada Nyquista mówi wyraźnie – trzeba próbkować z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa obecna w sygnale częstotliwość. Dla naszego przykładu, gdzie najwyższe dźwięki mają 20 kHz, daje to minimalne 40 kHz. Częstotliwości niższe niż 44 100 Hz, jak np. 32 000 Hz, mogą być kuszące, bo generują mniej danych i obciążają mniej system, ale niestety nie pozwalają na pełną reprodukcję pasma do 20 kHz – po prostu nie spełniają warunku Nyquista, przez co pojawi się zjawisko aliasingu, czyli niepożądane zakłócenia i zniekształcenia w dźwięku. Z kolei próbkowanie z częstotliwościami wyższymi (48 000 Hz czy 96 000 Hz) jest stosowane w środowiskach profesjonalnych, ale dla zastosowań konsumenckich takie wartości są nadmiarowe – generują większe pliki, więcej danych do obróbki, a różnica jest często niezauważalna albo wręcz nieistotna dla słuchacza. To typowa pułapka myślenia: "im więcej, tym lepiej". W praktyce standard 44 100 Hz ustalił się na rynku jako złoty środek – pozwala zachować wszystkie słyszalne przez człowieka częstotliwości, a zarazem nie generuje nadmiernych wymagań sprzętowych. Warto o tym pamiętać przy wyborze sprzętu lub przy projektach systemów audio – nie zawsze trzeba iść w stronę najwyższych parametrów, bo liczy się optymalizacja i realne potrzeby użytkownika. Właściwe zrozumienie podstaw pozwala dobrać odpowiednie rozwiązania i uniknąć niepotrzebnych komplikacji.

Pytanie 30

Procesor dźwięku realizujący efekt echo wpływa na

A. przestrzenność materiału muzycznego.
B. dynamikę przetwarzanego sygnału.
C. pasmo częstotliwości przetwarzanego sygnału.
D. wysokość przetwarzanych dźwięków.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 31

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. godzinę.
B. sekundę.
C. minutę.
D. ramkę.
Kod SMPTE to taki trochę uniwersalny zegar dla świata audio-wideo, bez którego montaż czy synchronizacja byłaby totalnym chaosem. Druga para cyfr, czyli te dwie środkowe w zapisie np. 01:23:45:17, to właśnie minuty. Moim zdaniem, to kluczowa informacja, bo właśnie minuty są takim mostem między godzinami a sekundami – pozwalają szybko lokalizować dłuższe fragmenty materiału. Praktycznie – jeśli montujesz dłuższy program telewizyjny lub film i masz podane SMPTE 00:07:32:15, od razu wiesz, że chodzi o siódmą minutę, nie musisz liczyć ramek czy sekund. To się naprawdę przydaje, szczególnie przy pracy zespołowej, bo każdy, kto zna standard SMPTE, błyskawicznie odczyta czas. W branży obowiązuje zasada zapisu godzin:minut:sekund:ramek, zgodnie z normą SMPTE 12M oraz EBU Tech 3097-E. Z mojego doświadczenia wynika, że bardzo wielu techników trochę lekceważy znaczenie tej kolejności, a potem mają zamieszanie przy synchronizacji dźwięku z obrazem. Ciekawostka – są też wersje kodu SMPTE z drobnymi różnicami (np. drop-frame w NTSC), ale układ minut zawsze jest w tej samej, drugiej pozycji. Im szybciej opanujesz czytanie kodu SMPTE, tym łatwiej radzić sobie z timecode’em na co dzień – niezależnie czy siedzisz w reżyserce czy przy edycji.

Pytanie 32

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. stałą przepływność bitową.
B. zmienną przepływność bitową.
C. dostępną przepływność bitową.
D. średnią przepływność bitową.
Tryb CBR, czyli Constant Bit Rate, faktycznie oznacza zastosowanie stałej przepływności bitowej podczas konwersji do formatu MP3. To dosyć popularny wybór, zwłaszcza gdy mamy na myśli np. emisję radiową czy archiwizację plików audio na nośnikach o ograniczonej pojemności – płyty CD, stare odtwarzacze MP3 czy nawet niektóre streamy w sieci. W CBR każda sekunda dźwięku kodowana jest zawsze z tą samą liczbą bitów, niezależnie od tego, czy w danym fragmencie utworu jest dużo szczegółów czy akurat jest cisza lub prosty dźwięk. Pozwala to łatwo przewidzieć końcowy rozmiar pliku i utrzymać stałe wymagania transferowe, co bywa kluczowe np. w sieciach o ograniczonej przepustowości. W praktyce branżowej CBR stosuje się też wtedy, gdy zależy nam na kompatybilności – część starszych urządzeń obsługuje wyłącznie nagrania CBR i może mieć problem z innymi trybami. Oczywiście, CBR nie zawsze zapewnia tak dobrą jakość jak VBR (zmienna przepływność), bo czasem "przepłaca" za fragmenty proste, ale za to jest przewidywalny i stabilny. Spotkałem się z tym, że ludzie wybierają CBR nawet w podcastach, żeby nie było niespodzianek z długością pliku. Jeśli komuś zależy na przewidywalności i prostocie, to CBR jest sensownym wyborem – i dokładnie dlatego ta odpowiedź jest prawidłowa.

Pytanie 33

Który z plików posiada najlepszą jakość?

A. 256 kb/s, 24 bit
B. 320 kb/s, 24 bit
C. 256 kb/s, 16 bit
D. 320 kb/s, 16bit
Wybór pliku 320 kb/s, 24 bit to rzeczywiście najbardziej jakościowa opcja z podanych. Przede wszystkim bitrate 320 kb/s oznacza bardzo wysoką przepływność danych przy kompresji stratnej (na przykład MP3), co w praktyce daje bardzo mało słyszalnych artefaktów i zachowuje niemal całość oryginalnego brzmienia. 24 bity głębi próbkowania to kolejny ważny aspekt – oznacza to znacznie większy zakres dynamiki niż standardowe 16 bitów. W realnych warunkach nagrań, szczególnie studyjnych, 24 bity pozwalają na uchwycenie dużo subtelniejszych niuansów dźwiękowych, np. cichych pogłosów czy miękkich przejść między instrumentami. Takie parametry są wykorzystywane przy profesjonalnej produkcji muzyki i masteringu – czasem wręcz wymagane przez wytwórnie czy platformy streamingowe o wysokim standardzie (np. Tidal Masters albo systemy Hi-Res Audio). Moim zdaniem, jeśli ktoś pracuje z dźwiękiem lub zwyczajnie ceni wysoką jakość odsłuchu – to właśnie 320 kb/s w połączeniu z 24-bitową głębią daje najlepsze efekty, szczególnie przy słuchaniu na dobrym sprzęcie. Warto zauważyć, że 16 bitów to wciąż niezły standard (CD Audio), ale te 24 bity, szczególnie przy dobrym bitrate’cie, dają już naprawdę profesjonalny poziom. W praktyce – jeśli robisz miks, master albo po prostu lubisz słyszeć detale, nie idź na kompromisy!

Pytanie 34

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 1 000 Hz – 1 999 Hz
B. 2 000 Hz – 20 000 Hz
C. 20 Hz – 249 Hz
D. 250 Hz – 999 Hz
Formanty charakterystyczne dla sybilantów, czyli takich głosek jak „s”, „sz” czy „ś”, zdecydowanie lokalizują się w paśmie 2 000 Hz – 20 000 Hz. To tam właśnie, w wysokich częstotliwościach, rejestruje się największą energię tych dźwięków. Szczególnie wyraźnie widać to na spektrogramach – sybilanty tworzą tam mocne, jasne pasma powyżej 4 kHz, nierzadko nawet do 8 czy 10 kHz. W praktyce, jeśli na przykład miksujesz nagrania głosu w radiu albo czyścisz ścieżkę wokalną w programach typu Audacity czy Pro Tools, to właśnie te zakresy odfiltrowujesz, żeby ograniczyć szumy czy nieprzyjemne „syczenie”. Z mojego punktu widzenia, zrozumienie gdzie są sybilanty pozwala skutecznie stosować de-essery i różne narzędzia do obróbki mowy – nie wytniesz ich, grzebiąc w niskich częstotliwościach, bo tam ich po prostu nie ma. Branża nagraniowa i fonetyczna od lat podkreśla, że sybilanty są kluczowe dla czytelności mowy, ale jednocześnie łatwo je przesterować, stąd właśnie ta wiedza jest praktyczna. Ogólnie to, praca z głosem na co dzień pokazuje, że kto nie zna specyfiki tych wysokich częstotliwości, ten często popełnia błędy przy miksowaniu lub analizie mowy.

Pytanie 35

Czym jest normalizacja nagrania (peak normalization)?

A. Obniżeniem średniego poziomu nagrania o 3 dB
B. Podniesieniem poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
C. Podniesieniem poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
D. Obniżeniem szczytowego poziomu nagrania o 3 dB
W przypadku pracy z dźwiękiem cyfrowym łatwo pomylić różne pojęcia związane z poziomem sygnału. Obniżenie średniego poziomu nagrania albo szczytowego poziomu o 3 dB to zupełnie inne operacje, często stosowane jako element kreowania dynamiki, ale nie są to metody normalizacji rozumianej przez profesjonalistów. Podnoszenie poziomu tak, żeby wartość średnia osiągnęła 0 dBFS, jest niemożliwe i niepraktyczne, bo wtedy większość nagrania zostałaby przesterowana — dźwięki przekroczyłyby zakres cyfrowy i pojawiłyby się zniekształcenia. To typowy błąd polegający na myleniu poziomu szczytowego (peak) z poziomem średnim (RMS lub LUFS). W branży istotną różnicą jest to, że normalizacja szczytowa nie narusza relacji między głośniejszymi i cichszymi fragmentami — po prostu cały materiał jest przenoszony w górę, aż najwyższy szczyt dotknie ustalonej granicy, zwykle 0 dBFS. Takie podejście pozwala bezpiecznie przygotować ścieżki do dalszej obróbki, miksu lub publikacji, bez ryzyka clippingu. Z mojego doświadczenia wynika, że wiele osób wchodzi na minę, patrząc tylko na średnią głośność albo automatycznie ściszając materiał, nie rozumiejąc, że w tym wypadku chodzi o relację do absolutnego maksimum poziomu sygnału. Najlepiej myśleć o normalizacji szczytowej jako o narzędziu, które daje pewność, że nasz plik nie przekroczy cyfrowego sufitu, a przy tym nie psuje całej dynamiki nagrania. Dobre praktyki branżowe jasno rozdzielają te operacje, dlatego jeśli zależy nam na właściwym przygotowaniu audio, trzeba znać różnicę między normalizacją szczytową, a innymi sposobami regulacji poziomu.

Pytanie 36

Ile razy spadek mocy sygnału zostanie spowodowany zmniejszeniem poziomu sygnału o 6 dB?

A. Trzykrotny.
B. Dwukrotny.
C. Pięciokrotny.
D. Czterokrotny.
Wielu osobom myli się pojęcie decybeli z prostym, liniowym spadkiem mocy i stąd biorą się mylne odpowiedzi. Najczęściej zakłada się, że skoro 3 dB to połowa mocy, to 6 dB to trzy razy mniej, a nawet pięć razy mniej, co niestety nie ma odzwierciedlenia w rzeczywistych obliczeniach logarytmicznych. Decybel to jednostka logarytmiczna – nie przeliczamy jej na zwykłe wartości przez mnożenie czy dzielenie, tylko podstawiając do wzoru dB = 10 * log10(P2/P1). Spadek o 3 dB to dokładnie połowa mocy (P2/P1=0,5), ale gdy spadniemy o kolejne 3 dB (czyli razem 6 dB), to połowa tej połowy, czyli 0,5*0,5=0,25. Oznacza to, że sygnał jest cztery razy słabszy, a nie dwa, trzy czy pięć razy. Często ludzie ulegają złudzeniu, że wzrost liczby dB przekłada się liniowo – niestety, nie w tej skali. 2-krotny spadek to 3 dB, 3-krotny to około 4,77 dB, a 5-krotny aż 7 dB. W praktyce, kiedy pracuje się z systemami audio, w telewizji, radiotechnice czy sieciach komputerowych, takie błędne rozumowanie może prowadzić do poważnych problemów z dostosowaniem poziomów sygnału, naprawą torów przesyłowych czy nawet diagnozą usterek. Takie pomyłki prowadzą do źle dobranych tłumików, przesterowań lub zbyt niskich poziomów sygnału. Warto zapamiętać, że każda kolejna strata 3 dB to zawsze kolejne podzielenie mocy przez dwa. Z doświadczenia wiem, że lepiej mieć pod ręką tabelkę logarytmiczną lub chociaż zapamiętać te podstawowe przeliczniki, bo na egzaminach i w praktyce straty dB pojawiają się praktycznie na każdym kroku.

Pytanie 37

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. Comb Filter
B. HPF
C. LPF
D. High Shelf
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 38

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 6
B. 2
C. 5
D. 4
Technika 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku wielokanałowego, stosowany głównie w kinie domowym, telewizji HD czy grach komputerowych. Oznaczenie „5.1” odnosi się do liczby niezależnych kanałów audio używanych do odtwarzania dźwięku przestrzennego – mamy tutaj pięć pełnopasmowych kanałów (lewy, centralny, prawy, lewy surround oraz prawy surround) oraz jeden kanał niskotonowy, czyli subwoofer (oznaczany jako „.1”, bo obsługuje tylko niskie częstotliwości). W praktyce daje to użytkownikowi bardzo realistyczne wrażenie przestrzeni akustycznej, bo dźwięki mogą być precyzyjnie rozmieszczone wokół słuchacza. Z mojego doświadczenia w pracy z systemami audio, dobrze skonfigurowane 5.1 potrafi zdziałać cuda nawet w niewielkim pomieszczeniu, podnosząc jakość rozrywki na zupełnie inny poziom. Warto dodać, że standard 5.1 został oficjalnie przyjęty przez Dolby Laboratories, pojawił się w kinie już w latach 90., a potem trafił praktycznie do wszystkich urządzeń domowych. Dzisiaj nawet tanie amplitunery czy soundbary obsługują sześć kanałów zgodnie z tą specyfikacją, bo wymaga tego minimum użytkowników oczekujących realistycznego dźwięku przestrzennego. Tak naprawdę, jeśli ktoś chce dobre efekty w grach, filmach czy muzyce – sześć kanałów w 5.1 to absolutna podstawa. Warto zapamiętać tę liczbę, bo pojawia się ona w branżowych pytaniach regularnie.

Pytanie 39

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 24 dB/okt.
B. 6 dB/okt.
C. 12 dB/okt.
D. 18 dB/okt.
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 40

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 64 próbki.
B. 128 próbek.
C. 256 próbek.
D. 32 próbki.
Wybierając bufor o wielkości 32 próbki, faktycznie osiągasz najniższą możliwą latencję przy nagrywaniu dźwięku w DAW. To jest taki trochę złoty standard dla sytuacji, w których super ważna jest natychmiastowa reakcja systemu, przykładowo kiedy nagrywasz wokale czy grasz partie MIDI na żywo i chcesz uniknąć uczucia opóźnienia między akcją a dźwiękiem. Im mniejszy bufor, tym szybciej komputer przetwarza dźwięk na bieżąco, więc dźwięk praktycznie od razu trafia do słuchawek lub monitorów. Inżynierowie dźwięku często mówią, że przy 32 próbkach latencja jest praktycznie niezauważalna nawet dla bardzo wyczulonego ucha — to takie typowe ustawienie na profesjonalnych sesjach nagraniowych. Jednak warto pamiętać, że tak mały rozmiar bufora wymaga wydajnego sprzętu — słabe komputery mogą nie nadążać z przetwarzaniem, pojawią się wtedy trzaski lub dropy. Ale właśnie do nagrywania głosu czy instrumentów to jest idealne ustawienie. W miksie czy masteringu zwykle zwiększa się bufor, bo wtedy liczy się stabilność, nie szybkość. Moim zdaniem, nawet w domowym studio warto testować 32 próbki — różnica w feelingu nagrywania jest kolosalna, szczególnie przy dynamicznych instrumentach i perkusji. Warto też pamiętać, że w branży muzycznej taka minimalna latencja jest nie tylko komfortowa, ale wręcz wymagana przy pracy z profesjonalistami.