Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 10 kwietnia 2026 14:04
  • Data zakończenia: 10 kwietnia 2026 14:15

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość wzrasta dwukrotnie.
B. Nie ma wpływu.
C. Wysokość wzrasta w stosunku 48:44,1.
D. Wysokość spada dwukrotnie.
Często można spotkać się z przekonaniem, że zmiana częstotliwości próbkowania dźwięku może wpływać na odbieraną słuchem wysokość tonu, jednak jest to mylne podejście wynikające z niezrozumienia, czym właściwie jest próbkowanie. Częstotliwość próbkowania określa, jak często sygnał analogowy jest „odczytywany” i zapisywany w formie cyfrowej, co wpływa na rozdzielczość czasową i maksymalną możliwą do zapisania częstotliwość (czyli tzw. pasmo przenoszenia). Natomiast wysokość dźwięku, którą słyszymy, zależy od częstotliwości fali akustycznej, a nie od tego, w ilu próbkach na sekundę ją zapisaliśmy. To błąd sądzić, że samo zwiększenie częstotliwości próbkowania, bez zmiany tempa odtwarzania, spowoduje dwukrotny wzrost czy spadek wysokości – to wymagałoby odtwarzania nagrania w innym tempie lub rekonwersji bez zachowania zgodności parametrów. Takie sytuacje mają miejsce tylko wtedy, kiedy plik nagrany w jednej częstotliwości próbkowania jest odtwarzany w innej bez konwersji (tzw. pitch-shifting przez błąd techniczny), ale to nie jest standardowa praktyka w profesjonalnych systemach audio. Z mojego doświadczenia, większość błędów wynika z nieświadomego mieszania pojęć częstotliwości próbkowania i częstotliwości dźwięku. Praktyczne zastosowanie tej wiedzy w pracy z systemami DAW, mikserami czy konwerterami polega właśnie na pilnowaniu zgodności próbkowania między urządzeniami, bo tylko wtedy unikniemy artefaktów – a wysokość dźwięku zostanie zachowana. Standardy branżowe, takie jak AES czy EBU, jasno definiują, że te parametry są od siebie niezależne i nie powinny być utożsamiane. Warto zwracać uwagę na takie subtelności, bo mają ogromne znaczenie przy produkcji i masteringu dźwięku, szczególnie w środowiskach profesjonalnych.

Pytanie 2

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Bit Resolution
B. Sample Rate
C. Audio File Type
D. Channels
Częstotliwość próbkowania, czyli po angielsku sample rate, to zdecydowanie jeden z najważniejszych parametrów każdego pliku audio w środowisku DAW. To tak naprawdę liczba pomiarów dźwięku wykonywana w ciągu jednej sekundy – wyrażana w hercach (Hz), najczęściej można spotkać wartości typu 44100 Hz, 48000 Hz czy nawet wyższe jak 96000 Hz. Dlaczego to takie istotne? Im wyższy sample rate, tym wierniej cyfrowy zapis oddaje oryginalny sygnał analogowy, co ma ogromne znaczenie przy profesjonalnych produkcjach muzycznych, miksie czy masteringu. Świetnym przykładem jest praca w studiu nagraniowym – tam standardem branżowym jest zazwyczaj 48 kHz dla projektów filmowych lub 44,1 kHz dla muzyki na CD. Co ciekawe, sample rate wpływa również na to, jakich częstotliwości może dotyczyć zapis – zgodnie z tzw. twierdzeniem Nyquista, maksymalna częstotliwość w nagraniu to połowa sample rate. Moim skromnym zdaniem, umiejętność rozpoznania i manipulowania sample rate przydaje się nawet podczas zwykłego eksportu pliku, bo błędnie dobrana wartość potrafi popsuć kompatybilność plików między różnymi urządzeniami lub programami. W branży przyjęło się, że wiedza o sample rate to absolutna podstawa dla każdego, kto poważnie podchodzi do pracy z dźwiękiem w DAW. Warto też pamiętać, że czasem trzeba dopasować częstotliwość próbkowania do wymagań projektu albo klienta – to po prostu codzienność inżyniera dźwięku.

Pytanie 3

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 48000 Hz/16 bitów
B. 44100 Hz/16 bitów
C. 44100 Hz/24 bity
D. 48000 Hz/24 bity
Odpowiedź 44100 Hz/16 bitów to dokładnie te parametry, które są używane w oficjalnym standardzie CD-Audio (Red Book). Płyta kompaktowa audio została zaprojektowana właśnie z myślą o takiej częstotliwości próbkowania i głębi bitowej. Częstotliwość 44100 Hz oznacza, że każda sekunda dźwięku jest reprezentowana przez 44100 próbek, co daje wystarczającą rozdzielczość, żeby dobrze odtworzyć pasmo słyszalne przez człowieka (do ok. 20 kHz – tu działa tzw. twierdzenie Nyquista). 16 bitów na próbkę pozwala uzyskać stosunkowo szeroki zakres dynamiki (teoretycznie aż 96 dB), co dla muzyki popularnej i klasycznej w zupełności wystarcza. W praktyce, przygotowując sesję w DAW do masteringu lub eksportu na płytę CD, te parametry są obowiązkowe – jeśli użyjesz innych, możesz mieć problemy z kompatybilnością lub konieczność dodatkowego konwertowania plików (resampling, dithering, itd.), a wiadomo, że każdy taki proces może wpłynąć na jakość dźwięku. Moim zdaniem, nawet jeśli się pracuje na wyższych parametrach w trakcie miksu, to finalny bounce zawsze powinien być właśnie w 44,1 kHz/16 bitów, gdy celem jest płyta CD. Tak po prostu działa ten format i nie ma co kombinować. To podstawowa wiedza, którą warto pamiętać przy pracy z audio.

Pytanie 4

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 4 razy.
B. 3 razy.
C. 6 razy.
D. 2 razy.
Dobra robota, bo rzeczywiście – jeśli zmniejszymy częstotliwość próbkowania dźwięku o połowę, to dokładnie 2 razy zmniejszy się ilość danych potrzebnych do zapisania tego pliku. Tak działa cyfrowe przetwarzanie sygnału: im niższa częstotliwość próbkowania, tym mniej próbek na sekundę musimy zapisać. Załóżmy, że pierwotnie mieliśmy plik stereo nagrany z częstotliwością 44,1 kHz przy 16 bitach – jak na płycie CD. Jeśli teraz zmniejszymy próbkowanie do 22,05 kHz, to przy tych samych pozostałych parametrach rozmiar pliku spada dokładnie o połowę. Moim zdaniem to jeden z prostszych sposobów na kompresję bez utraty dodatkowych danych – chociaż oczywiście odczujemy wtedy spadek jakości dźwięku, zwłaszcza w wyższych częstotliwościach. W praktyce, na potrzeby np. rejestratorów głosu, podcastów czy archiwizowania rozmów wystarcza często niższe próbkowanie, bo nie zależy nam na pełnym paśmie audio. Najlepsze praktyki branżowe, zwłaszcza w postprodukcji i masteringu, mówią jednak: nie schodź poniżej próbkowania wymaganych przez docelowe medium. Warto też pamiętać, że pozostałe parametry jak liczba bitów próbkowania czy liczba kanałów również wpływają na rozmiar pliku, ale w tym pytaniu skupiamy się tylko na częstotliwości próbkowania. Ważne, żeby takie zależności rozumieć – bo potem łatwo przewidzieć, jak zoptymalizować miejsce na dysku bez zbędnej utraty jakości dźwięku.

Pytanie 5

Aby moc sygnału wyjściowego spadła dwukrotnie, należy stłumić sygnał na ścieżce w sesji oprogramowania DAW

A. o 9 dB
B. o 12 dB
C. o 3 dB
D. o 6 dB
W pytaniu chodziło o to, jak bardzo trzeba stłumić sygnał, żeby moc sygnału wyjściowego spadła dokładnie o połowę. Częstym błędem jest utożsamianie decybeli z bezpośrednią zmianą głośności lub mylenie tłumienia napięcia z tłumieniem mocy. W rzeczywistości decybel (dB) jest skalą logarytmiczną, a nie liniową, więc każda zmiana o określoną liczbę dB nie przekłada się wprost na „połowę” lub „dwa razy więcej” w naszym codziennym rozumieniu. Zanotuj, że spadek o 6 dB powoduje zmniejszenie napięcia sygnału o połowę, ale mocy już o cztery razy, co jest sporym nieporozumieniem wśród początkujących realizatorów. Natomiast tłumienie o 9 dB czy 12 dB to już bardzo poważne redukcje mocy – 9 dB to około osiem razy mniej mocy, a 12 dB to aż szesnaście razy mniej. Tak silne tłumienie w miksie praktycznie „chowa” sygnał w tle lub wręcz go usuwa, co rzadko jest pożądane przy zwykłym balansowaniu śladów. Z mojego doświadczenia wynika, że taka pomyłka wynika z nieznajomości formuły na obliczanie decybeli: dB = 10 * log10(P2/P1) dla mocy i dB = 20 * log10(U2/U1) dla napięcia. Wielu ludzi myli te dwa przypadki, co prowadzi do uproszczonych i błędnych odpowiedzi. W branży zawsze warto pamiętać, że 3 dB tłumienia mocy to połowa, a przy napięciu ten sam efekt daje 6 dB – i to rozróżnienie jest kluczowe przy ustawianiu poziomów w DAW czy systemach nagłośnieniowych.

Pytanie 6

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .aac
B. .aiff
C. .mp3
D. .ogg
Format pliku .aiff (Audio Interchange File Format) jest bardzo ceniony w środowisku profesjonalnym, zwłaszcza w studiach nagrań i przy produkcji muzyki. To dlatego, że .aiff zapisuje dźwięk w postaci nieskompresowanej, czyli bezstratnej, bardzo podobnie jak popularny .wav. Oznacza to, że każda próbka dźwięku jest odwzorowana dokładnie tak, jak została nagrana – nie traci się żadnych informacji, jak to bywa w formatach kompresowanych. Z mojego doświadczenia praca na plikach .aiff daje dużą swobodę przy dalszej obróbce – na przykład przy miksie albo masteringu. W branży muzycznej to wręcz standard przy pracy z wysoką jakością, bo inżynierowie dźwięku chcą mieć dostęp do pełnego pasma, wysokiej rozdzielczości i dużej głębi bitowej (np. 24 bity, 96 kHz). Co ciekawe, .aiff jest formatem rozwiniętym przez Apple, więc często spotyka się go na komputerach Mac, ale bez problemu radzą sobie z nim też inne systemy. Pliki .aiff zajmują sporo miejsca na dysku – to jedyny minus – ale dla czystej jakości nie ma chyba lepszego wyboru. Warto wiedzieć, że archiwizując nagrania czy przygotowując materiał do dalszej produkcji zawsze lepiej sięgać po formaty bezstratne, właśnie takie jak .aiff czy .wav, bo potem można na nich bazować, eksportując do bardziej skompresowanych formatów jak mp3 czy aac – oczywiście wtedy już z utratą części informacji.

Pytanie 7

W którym z podanych pasm lokalizują się formanty charakterystyczne dla sybilantów w nagraniu mowy?

A. 20 Hz – 249 Hz
B. 2 000 Hz – 20 000 Hz
C. 1 000 Hz – 1 999 Hz
D. 250 Hz – 999 Hz
Sybilanty, czyli głoski takie jak „s”, „sz” czy „ś”, charakteryzują się bardzo wyraźnym, szumiącym brzmieniem, które łatwo wychwycić na spektrogramie właśnie w zakresie wysokich częstotliwości. Z mojego doświadczenia analizując nagrania mowy, sybilanty praktycznie zawsze wypadają powyżej 2 000 Hz, a często pikują nawet powyżej 5 000 Hz – szczególnie w języku polskim „s” potrafi sięgnąć do 8–10 kHz. Dlatego odpowiedź obejmująca przedział 2 000 Hz – 20 000 Hz jest tutaj absolutnie poprawna. To pasmo jest kluczowe przy detekcji i obróbce sybilantów, na przykład kiedy stosujemy de-essery podczas produkcji podcastów czy nagrań lektorskich. Standardy branżowe, np. przy masteringu muzyki czy postprodukcji dźwięku, jasno wskazują, że filtry oraz efekty usuwające sybilanty, takie jak de-esser, koncentrują się właśnie na tych wysokich pasmach. Często nawet w korektorach graficznych i parametrycznych można znaleźć fabryczne presety zaprojektowane specjalnie dla tego zakresu. W praktyce oznacza to, że chcąc poprawić czytelność nagrania, wygasić nieprzyjemne „syczenie” czy nawet podczas syntezy mowy, zawsze zwracamy uwagę na zakres 2 000 Hz i wyżej. Moim zdaniem, świadomość tej charakterystyki bardzo ułatwia skuteczną pracę z nagraniami mowy, bo pozwala szybko zlokalizować i wyeliminować problematyczne dźwięki bez niepotrzebnego naruszania pozostałych elementów sygnału.

Pytanie 8

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Gain
B. Balance
C. Volume
D. Send
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 9

Użycie trybu CBR podczas konwersji pliku do formatu MP3 oznacza, że zastosowano

A. zmienną przepływność bitową.
B. dostępną przepływność bitową.
C. stałą przepływność bitową.
D. średnią przepływność bitową.
Średnia, zmienna czy nawet dostępna przepływność bitowa to pojęcia, które nie oddają istoty działania trybu CBR w formacie MP3. Wiele osób myli czasem VBR (Variable Bit Rate) z CBR, zakładając, że każda forma kompresji dźwięku dynamicznie dostosowuje gęstość danych do zawartości audio, ale to właśnie CBR jest od tego wyjątkiem. VBR faktycznie bazuje na analizie treści – tam przepływność rośnie, gdy jest dużo szczegółów, a spada przy prostszych fragmentach, dzięki czemu można uzyskać lepszą jakość przy tym samym średnim rozmiarze pliku. Jednak CBR działa całkowicie inaczej: narzuca zawsze identyczną liczbę bitów na sekundę, bez względu na to, czy fragment utworu jest skomplikowany, czy prosty. Odpowiedź dotycząca średniej przepływności bitowej odnosi się do trybu ABR (Average Bit Rate), który jest czymś pośrednim – dąży do uzyskania określonej średniej wartości, ale dopuszcza niewielkie wahania chwilowej przepływności. Natomiast sformułowanie „dostępna przepływność bitowa” w kontekście kodowania MP3 nie ma sensu technicznego – nie jest to pojęcie spotykane w standardach czy praktyce branżowej. W praktyce spotkałem się z tym, że wybór trybu nie wynika ze zrozumienia technicznego, tylko z mylnego przekonania, że im więcej bitów, tym lepiej – a tutaj kluczowe jest, żeby rozumieć charakterystyki każdego z trybów kodowania. Źle interpretując nazwy trybów, można wygenerować pliki niekompatybilne z niektórymi urządzeniami lub o nieprzewidywalnych rozmiarach. Dlatego ważne jest, żeby odróżniać CBR od VBR i ABR – każdy ma swoje zastosowanie, ale tylko CBR gwarantuje stałą przepływność bitową przez cały plik.

Pytanie 10

Druga para cyfr w zapisie kodu czasowego SMPTE oznacza

A. minutę.
B. sekundę.
C. godzinę.
D. ramkę.
Kod SMPTE to taki trochę uniwersalny zegar dla świata audio-wideo, bez którego montaż czy synchronizacja byłaby totalnym chaosem. Druga para cyfr, czyli te dwie środkowe w zapisie np. 01:23:45:17, to właśnie minuty. Moim zdaniem, to kluczowa informacja, bo właśnie minuty są takim mostem między godzinami a sekundami – pozwalają szybko lokalizować dłuższe fragmenty materiału. Praktycznie – jeśli montujesz dłuższy program telewizyjny lub film i masz podane SMPTE 00:07:32:15, od razu wiesz, że chodzi o siódmą minutę, nie musisz liczyć ramek czy sekund. To się naprawdę przydaje, szczególnie przy pracy zespołowej, bo każdy, kto zna standard SMPTE, błyskawicznie odczyta czas. W branży obowiązuje zasada zapisu godzin:minut:sekund:ramek, zgodnie z normą SMPTE 12M oraz EBU Tech 3097-E. Z mojego doświadczenia wynika, że bardzo wielu techników trochę lekceważy znaczenie tej kolejności, a potem mają zamieszanie przy synchronizacji dźwięku z obrazem. Ciekawostka – są też wersje kodu SMPTE z drobnymi różnicami (np. drop-frame w NTSC), ale układ minut zawsze jest w tej samej, drugiej pozycji. Im szybciej opanujesz czytanie kodu SMPTE, tym łatwiej radzić sobie z timecode’em na co dzień – niezależnie czy siedzisz w reżyserce czy przy edycji.

Pytanie 11

Które z wymienionych parametrów sesji programu DAW należy wybrać, aby utworzyć w niej materiał dźwiękowy odpowiadający formatowi CD-Audio?

A. 44100 Hz/24 bity
B. 44100 Hz/16 bitów
C. 48000 Hz/24 bity
D. 48000 Hz/16 bitów
Odpowiedź 44100 Hz/16 bitów jest absolutnie zgodna ze standardem CD-Audio, który został przyjęty już w latach 80. przez Sony i Philipsa. W praktyce oznacza to, że jeśli tworzysz projekt w DAW na takich właśnie ustawieniach, plik wynikowy nada się do tłoczenia na płycie CD bez żadnych dodatkowych konwersji czy strat jakości. Samo 44100 Hz to częstotliwość próbkowania, która pozwala na uzyskanie pasma przenoszenia do 20 kHz, czyli tyle, ile słyszy przeciętny człowiek – moim zdaniem to trochę symboliczne, bo uwzględnia „pełne” pasmo audio. 16 bitów daje 96 dB zakresu dynamiki, co na swoje czasy było naprawdę wystarczające (i do dzisiaj zupełnie wystarcza do muzyki popularnej, audiobooków czy podcastów na CD). W studiu czasami pracuje się z wyższymi parametrami, np. 24 bity czy 48 kHz, żeby mieć większy zapas do edycji, ale finalny eksport na CD-Audio zawsze musi być w tych parametrach: 44,1 kHz i 16 bitów. Takie ustawienie sesji od początku minimalizuje konieczność konwertowania plików, co – z mojego doświadczenia – eliminuje ryzyko degradacji jakości i niepotrzebnych błędów przy eksporcie. Dobrze się tego trzymać, szczególnie jeżeli docelowy medium to klasyczna płyta CD.

Pytanie 12

W celu uzyskania najmniejszej latencji w oprogramowaniu DAW rozmiar bufora programowego należy ustawić na wartość

A. 512 próbek.
B. 1 024 próbek.
C. 32 próbek.
D. 256 próbek.
Wybierając większy rozmiar bufora w DAW, na przykład 256, 512 czy nawet 1024 próbki, użytkownik uzyskuje wyższą stabilność działania programu, jednak okupione jest to wzrostem latencji. To częsty błąd wśród mniej doświadczonych realizatorów – wydaje się, że większy bufor poprawia ogólną jakość pracy, bo minimalizuje ryzyko przeciążeń procesora czy niepożądanych artefaktów dźwiękowych, szczególnie przy dużych projektach z wieloma pluginami. Tymczasem, kluczowym celem przy nagrywaniu i monitoringu sygnału na żywo jest uzyskanie jak najniższej latencji – a tego nie da się osiągnąć przy dużych buforach. Standardy branżowe jasno wskazują: bufor na poziomie 512 czy 1024 próbek nadaje się bardziej do etapu miksowania czy masteringu, gdzie priorytetem jest stabilność, a nie natychmiastowa reakcja systemu. W tym kontekście, wybór większych wartości bufora świadczy raczej o niezrozumieniu zasady kompromisu między wydajnością a latencją. Z mojego doświadczenia wielu początkujących błędnie sądzi, że zawsze warto zostawić duży bufor, bo „na pewno nie będzie trzasków”, ale przy nagrywaniu wokalu czy gitary nawet kilkadziesiąt milisekund opóźnienia jest już bardzo odczuwalne i utrudnia grę oraz śpiew. W praktyce, jedynym uzasadnieniem dla zwiększania bufora jest mocno obciążony projekt, jednak na etapie rejestracji czy grania w czasie rzeczywistym należy zawsze schodzić z buforem jak najniżej, do wartości takich jak 32 próbki – o ile sprzęt to umożliwia i nie pojawiają się artefakty. To po prostu podstawowa zasada pracy w nowoczesnych DAW-ach, którą warto mieć zawsze z tyłu głowy.

Pytanie 13

Najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie dźwiękowe, którego poziom szczytowy osiąga

A. -0,3 dBFS
B. -6 dBFS
C. -3 dBFS
D. -12 dBFS
Rozpiętość dynamiczna nagrania to różnica pomiędzy najcichszym a najgłośniejszym fragmentem sygnału. Im niższy poziom szczytowy, tym nagranie jest bardziej skompresowane, a jego rozpiętość dynamiczna mniejsza. W przypadku poziomu szczytowego -12 dBFS, materiał jest już dosyć mocno ściśnięty – prawdopodobnie zastosowano kompresję lub limiter, co sprawia, że praktycznie cała muzyka, dialogi czy inne dźwięki są na bardzo wyrównanym poziomie. Takie podejście jest często stosowane np. w radiu, podcastach lub reklamach, gdzie liczy się czytelność i przebicie się przez szumy tła czy głośne otoczenie. Moim zdaniem to trochę zubaża naturalność brzmienia, bo giną niuanse dynamiki, ale w niektórych kontekstach to po prostu konieczność. Standardy broadcastowe (np. EBU R128) i wymagania platform streamingowych często narzucają określone wartości szczytowe – zwykle bliżej -1 lub -2 dBFS, by zostawić "headroom" i uniknąć zniekształceń. Nagranie z poziomem szczytowym -12 dBFS będzie zdecydowanie najcichsze i najwęższe dynamicznie spośród podanych opcji. Ciekawostka – dawniej w muzyce klasycznej rozpiętość dynamiczna była dużo większa, bo liczyło się oddanie pełni ekspresji. Obecnie w muzyce popularnej często się to zaciera, wszystko przez tzw. "loudness war". Generalnie, im bliżej zera dBFS ustawisz szczyt, tym większą masz szansę na zachowanie szerokiej dynamiki, a im dalej – tym bardziej spłaszczasz sygnał.

Pytanie 14

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 64 próbki.
B. 128 próbek.
C. 32 próbki.
D. 256 próbek.
Wielkość bufora w DAW to jedna z tych rzeczy, które na pierwszy rzut oka wydają się mało istotne, a tak naprawdę decydują o całym komforcie pracy przy nagrywaniu. Często spotykam się z przekonaniem, że bufor 64 czy 128 próbek to już wystarczająco mało i nie ma sensu schodzić niżej — przecież komputer będzie bardziej stabilny i nie zabraknie mocy przy cięższych projektach. To tylko połowa prawdy. Owszem, większy bufor (np. 128 albo 256 próbek) daje lepszą stabilność, szczególnie gdy w projekcie jest mnóstwo wtyczek, ale niestety odbywa się to kosztem zwiększonej latencji, czyli opóźnienia między tym, co grasz lub śpiewasz, a tym co słyszysz. A to przy nagrywaniu potrafi być irytujące do granic. Często osoby zaczynające pracę z DAW mylą pojęcia — sądzą, że bufor 128 lub 256 próbek to kompromis między szybkością a stabilnością. Jednak w praktyce nawet bufor 64 próbki, choć daje już sensowną latencję, nadal nie jest tak szybki jak 32 próbki, które są obecnie standardem przy profesjonalnych sesjach nagraniowych. Tu liczy się minimalne opóźnienie — im mniej, tym lepiej dla wykonawcy. Większe bufory są idealne przy miksowaniu czy masteringu, gdzie nie potrzebujemy grania w czasie rzeczywistym i możemy pozwolić sobie na kilkanaście milisekund opóźnienia. Typowy błąd to myślenie, że minimalna latencja zawsze oznacza problemy ze stabilnością — to zależy od mocy komputera. Nowoczesne systemy i interfejsy radzą sobie świetnie przy 32 próbkach. Podsumowując, jeśli naprawdę zależy Ci na minimalnej latencji podczas nagrania, to bufor 32 próbki nie ma sobie równych. Pozostałe opcje mogą być wygodniejsze przy pracy z dużymi sesjami, ale to już zupełnie inny temat.

Pytanie 15

Zjawisko maskowania dźwięku polega na

A. spadku słyszalności tonów wysokich podczas głośnego słuchania.
B. generowaniu przez ucho tonów harmonicznych.
C. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
D. zmianie barwy dźwięku w zależności od głośności.
Zjawiska opisane w niepoprawnych odpowiedziach niestety nie oddają istoty maskowania dźwięku i łatwo tu wpaść w pułapkę myślenia, że chodzi o coś związanego z generowaniem dodatkowych tonów przez ucho albo o proste zmiany barwy czy słyszalności przy różnym natężeniu dźwięku. Generowanie tonów harmonicznych przez ucho to zjawisko zwane wzbudzaniem nieliniowości, ale ono nie jest bezpośrednio związane z maskowaniem. Moim zdaniem często myli się te pojęcia, bo oba odnoszą się do pracy naszego układu słuchowego, jednak mechanizmy są zupełnie inne – maskowanie dotyczy progu słyszalności, a harmoniki są wynikiem pewnych zniekształceń. Z kolei zmiana barwy dźwięku w zależności od głośności to efekt zwany krzywymi Fletchera-Munsona; to prawda, że postrzeganie barwy się zmienia wraz z poziomem natężenia, ale nie jest to maskowanie – choć oba zjawiska mogą współistnieć podczas słuchania głośnej muzyki. Jeśli chodzi o spadek słyszalności tonów wysokich przy głośnym słuchaniu, to faktycznie, przy bardzo wysokim natężeniu dźwięku może dojść do tzw. maskowania zmysłowego, ale nie jest to formalna definicja maskowania dźwięku – to raczej skutek uboczny przeciążenia słuchu. Najważniejszy błąd w tych odpowiedziach to skupienie się na indywidualnych cechach percepcji, a nie na relacji między co najmniej dwoma dźwiękami, gdzie jeden „przykrywa” drugi. W praktyce maskowanie to kluczowe zagadnienie w inżynierii dźwięku, bo pozwala przewidzieć, kiedy dany dźwięk stanie się praktycznie niesłyszalny na tle innego. To wiedza nieoceniona przy projektowaniu systemów nagłośnienia, miksowaniu muzyki czy tworzeniu nowoczesnych formatów kompresji audio. Warto rozgraniczać te pojęcia i szukać ich konkretnych definicji w literaturze branżowej lub podczas praktycznych doświadczeń – to naprawdę pomaga nie tylko w egzaminach, ale i w codziennej pracy z dźwiękiem.

Pytanie 16

Teoretyczna maksymalna dynamika cyfrowego sygnału fonicznego przy 20-bitowej rozdzielczości wynosi

A. 144 dB
B. 120 dB
C. 96 dB
D. 192 dB
Dobra robota, bo właśnie 120 dB to teoretyczna maksymalna dynamika sygnału cyfrowego przy 20-bitowej rozdzielczości. Wynika to z faktu, że każde dodatkowe 1 bit podnosi zakres dynamiki o około 6 dB. Jeśli sobie policzymy: 20 bitów razy 6 dB, wychodzi równo 120 dB. To jest całkiem spora wartość – porównywalna z dynamiką dźwięków od bardzo cichego szeptu po silny hałas w codziennym otoczeniu, jak np. startujący samolot w pobliżu. W praktyce taki zakres dynamiki stosuje się w profesjonalnych systemach nagraniowych czy studyjnych, gdzie ważne jest uchwycenie najdrobniejszych niuansów i detali w nagraniach. Warto też wiedzieć, że popularny standard CD-Audio korzysta z 16 bitów (czyli około 96 dB dynamiki), ale w zastosowaniach audiofilskich czy w produkcji muzyki coraz częściej spotyka się formaty 20-bitowe albo nawet 24-bitowe, które jeszcze bardziej rozszerzają potencjał nagrań. Ja ze swojego doświadczenia mogę powiedzieć, że ta większa dynamika naprawdę robi różnicę, zwłaszcza przy masteringu – można wtedy pracować z naprawdę subtelnymi szczegółami bez strachu o szumy i zniekształcenia. Oczywiście warto pamiętać, że w realnych warunkach szumy sprzętu czy ograniczenia przetworników trochę zawężają tę dynamikę, ale teoretycznie 120 dB dla 20 bitów to już poziom, na którym nawet bardzo wymagające aplikacje audio dostają to, czego potrzebują.

Pytanie 17

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 14
B. 3
C. 4
D. 8
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 18

Na który z parametrów sesji programu edycyjnego, biorąc pod uwagę skład zespołu, należy zwrócić szczególną uwagę przy uruchomieniu nowego projektu audio?

A. Częstotliwość próbkowania.
B. Liczbę ścieżek.
C. Długość nagrania.
D. Przepływność bitową.
Liczba ścieżek w projekcie audio to naprawdę kluczowy parametr, szczególnie gdy zaczynasz pracę w zespole. W praktyce, gdy pracujesz z różnymi muzykami, realizatorami czy producentami, każdy może mieć swoje wymagania dotyczące ilości osobnych śladów na wokal, instrumenty, efekty czy nawet próbki dźwiękowe. Jeśli na starcie nie przewidzisz odpowiedniej liczby ścieżek, szybko pojawią się komplikacje – albo zabraknie miejsca na nagrania, albo trzeba będzie kombinować z duplikowaniem kanałów, a to już zamieszanie i bałagan w sesji. Standardem branżowym, zwłaszcza przy dużych projektach (np. nagrania zespołów rockowych, produkcje filmowe), jest przewidywanie nieco większej liczby ścieżek niż wydaje się na początku potrzebne. To daje elastyczność i zabezpiecza przed niespodziankami. Z mojego doświadczenia wynika, że taka ostrożność oszczędza mnóstwo czasu i nerwów. Ważne jest też to, że liczba ścieżek wpływa na organizację projektu i komunikację w zespole – łatwiej się potem odnaleźć w sesji, gdy każdy instrument i wokal są na osobnej ścieżce. Podsumowując: wybierając liczbę ścieżek, myślisz nie tylko o sobie, ale i o komforcie reszty zespołu oraz sprawnym przebiegu pracy.

Pytanie 19

Który z wymienionych formatów zapisu dźwięku zapewnia możliwie najmniejszy rozmiar pliku?

A. FLAC
B. AIFF
C. MP3
D. WAV
Format MP3 jest jednym z najpowszechniej używanych standardów kompresji dźwięku, jeśli chodzi o minimalizowanie rozmiaru pliku audio. Moim zdaniem to w ogóle jeden z tych formatów, które zmieniły świat muzyki cyfrowej – głównie przez to, jak bardzo ogranicza zajmowaną przestrzeń na dysku, jednocześnie zachowując jakość dźwięku na akceptowalnym poziomie. MP3 wykorzystuje kompresję stratną, co oznacza, że część informacji dźwiękowych jest po prostu usuwana, ale w taki sposób, aby ludzkie ucho tego nie wychwyciło – to się nazywa psychoakustyka i jest naprawdę sprytne. W praktyce, plik MP3 128 kbps zajmuje często kilka razy mniej miejsca niż plik WAV czy AIFF z tym samym utworem. Taki format bardzo dobrze sprawdza się w streamingu, w publikacjach internetowych albo na nośnikach ograniczonych pojemnością, np. starych odtwarzaczach MP3 czy telefonach. W branży jest to swego rodzaju standard, jeśli dysponujemy małą ilością pamięci albo musimy przesyłać pliki przez wolniejszy internet. To dlatego MP3 wyparło na lata inne formaty tam, gdzie liczył się każdy megabajt. Oczywiście, są nowsze kodeki jak AAC czy OGG, które czasami radzą sobie lepiej przy niskich bitrate’ach, ale MP3 to wciąż najbardziej rozpoznawalny wybór, jeśli chodzi o minimalizację rozmiaru. Warto pamiętać, że niższy rozmiar to jednak zawsze kompromis – coś za coś. Ale jeśli mamy ograniczone miejsce, nie ma lepszej opcji niż dobrze skompresowany MP3.

Pytanie 20

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/4.
B. o 1/2.
C. o 1/6.
D. o 1/3.
Przy szacowaniu, jak zmienia się energia najgłośniejszego dźwięku po normalizacji do -3 dB, wiele osób intuicyjnie myśli, że to niewielka różnica albo próbuje przeliczyć ją liniowo. To jest częsty błąd – skala decybelowa jest logarytmiczna, a nie liniowa, więc spadek o 3 dB nie oznacza zmniejszenia energii o jedną trzecią, jedną czwartą czy jedną szóstą. Właściwie, spadek o 3 dB to dokładnie połowa wartości mocy – to standardowa konwencja w elektroakustyce, dźwięku live czy nawet w telekomunikacji. Często spotykam się z przekonaniem, że skoro 3 to mniej niż 6, to zmiana jest nieduża, ale w dźwięku każde 3 dB to już zauważalna różnica. Równie często spotyka się mylenie pojęcia mocy z napięciem – spadek napięcia o 3 dB to nie to samo co spadek energii, bo energia zależy od kwadratu napięcia. Jeśli chodzi o błędne odpowiedzi typu 1/3, 1/4 czy 1/6, to wynikają one właśnie z mylenia proporcji liniowych z logarytmicznymi albo z nieznajomości praktycznych zasad pracy z sygnałem audio. W praktyce, jeśli ustawisz poziom szczytowy na -3 dB, zostawiasz sobie margines bezpieczeństwa i masz pewność, że żaden przypadkowy pik sygnału nie przesteruje toru audio. To jest dobra praktyka, której trzyma się większość profesjonalistów w branży audio, nagłośnieniowej czy postprodukcji. Warto pamiętać, że skala decybelowa jest podstawą w tej dziedzinie i znajomość jej zależności naprawdę pomaga w codziennej pracy.

Pytanie 21

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 8 bitów.
B. 16 bitów.
C. 24 bity.
D. 20 bitów.
24 bity to standard, który w praktyce gwarantuje bardzo niski poziom szumów kwantyzacji w sygnale fonicznym – praktycznie nie do odróżnienia dla ludzkiego ucha, nawet przy bardzo cichych fragmentach. Z mojego doświadczenia, w profesjonalnych studiach nagraniowych oraz przy produkcji muzyki używa się właśnie 24-bitowej rozdzielczości, bo pozwala zachować ogromny zakres dynamiki (ponad 140 dB!), co jest kluczowe, gdy miksuje się wiele ścieżek lub wielokrotnie modyfikuje nagranie. Im wyższa głębia bitowa, tym dokładniej można odwzorować ciche i głośne fragmenty – a szum kwantyzacji praktycznie zanika. To dlatego mastering audio, produkcja filmowa czy sample banki opierają się o 24 bity. Dla porównania, płyta CD wykorzystuje 16 bitów, co też daje bardzo dobrą jakość, ale już mniej miejsca na subtelności, zwłaszcza przy obróbce materiału. Oczywiście, wyższa bitowość wymaga większej pojemności dysku i mocniejszego sprzętu, ale w dzisiejszych czasach to już nie problem. Moim zdaniem, kto raz nagrywał w 24 bitach, ten nie chce wracać do niższych rozdzielczości. Jeśli zależy ci na naprawdę czystym, profesjonalnym dźwięku bez cyfrowych artefaktów, 24 bity to po prostu właściwy wybór.

Pytanie 22

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 256 próbek.
B. 64 próbki.
C. 32 próbki.
D. 128 próbek.
Wybór większego bufora – 64, 128 czy nawet 256 próbek – to dość częsty wybór wśród początkujących, bo wydaje się, że stabilność systemu jest ważniejsza niż latencja. Jednak w praktyce wygląda to trochę inaczej. Zwiększenie bufora faktycznie wpływa pozytywnie na stabilność pracy komputera i zmniejsza ryzyko trzasków czy zawieszania się programu, szczególnie jeżeli projekt jest już rozbudowany i wykorzystuje wiele wtyczek czy instrumentów wirtualnych. Jednak kosztem takiej decyzji jest wyraźnie wyższa latencja, czyli opóźnienie między zagraniem dźwięku a jego usłyszeniem w odsłuchu. W nagraniach na żywo, przy monitoringu, nawet niewielkie opóźnienia potrafią mocno przeszkadzać wykonawcom i psuć całą dynamikę pracy. Często spotykam się z przekonaniem, że bufor 128 lub 256 próbek to „złoty środek”, ale to raczej kompromis wykorzystywany podczas miksowania lub pracy na słabszych komputerach. Tak naprawdę, zgodnie z dobrymi praktykami branżowymi, minimalną latencję zapewnia najniższa wartość bufora, czyli 32 próbki, o ile tylko sprzęt na to pozwala. Przestawianie bufora na wyższe wartości ma sens dopiero wtedy, gdy komputer nie radzi sobie z obciążeniem lub pojawiają się artefakty dźwiękowe. Często osoby początkujące nie zauważają, jak bardzo latencja wpływa na komfort nagrywania – czasem nawet kilka milisekund potrafi rozbić cały groove i utrudnić synchronizację muzyków. Z mojego doświadczenia wynika, że zbyt duży bufor podczas nagrań to jeden z najczęstszych błędów, który potem mści się na efekcie końcowym. Dlatego jeśli mówimy o minimalnej latencji w sesji DAW i nagrywaniu, to tylko najniższy rozmiar bufora – 32 próbki – spełni to zadanie.

Pytanie 23

Który z wymienionych parametrów kompresora dynamiki odpowiada za czas odpuszczenia kompresji po spadku poziomu sygnału poniżej progu zadziałania kompresora?

A. Ratio.
B. Attack.
C. Release.
D. Threshold.
Release to, moim zdaniem, jeden z najważniejszych parametrów w kompresorze dynamiki, szczególnie jeśli chodzi o kontrolę tego, jak naturalnie brzmi przetworzony sygnał. Odpowiada on za czas, jaki zajmuje kompresorowi powrót do stanu nieaktywnego po tym, jak sygnał spadnie poniżej progu (threshold). Jeżeli release ustawimy za krótko, sygnał może stać się nienaturalny, wręcz „pompujący”, co czasem bywa efektem zamierzonym w muzyce elektronicznej, ale na przykład w nagraniach wokalnych czy instrumentów akustycznych raczej unika się takiego efektu. Z kolei zbyt długi czas release może powodować zbyt małą dynamikę, przez co całość będzie brzmiała płasko i bez życia. W praktyce technicy dźwięku często eksperymentują z tym parametrem, żeby znaleźć złoty środek i dopasować charakter kompresji do stylistyki utworu. Release jest też kluczowy w sytuacjach, gdzie utwór ma dynamiczne zmiany – np. w rocku czy jazzie, gdy nagle cichnie gitara lub perkusja, release decyduje, jak szybko kompresor puści sygnał, co wpływa na ogólne wrażenie przestrzeni i oddychania miksu. W dobrze zrealizowanych produkcjach release jest zawsze świadomie dobrany – nieprzypadkowo. Takie rzeczy są omawiane na kursach realizacji dźwięku i naprawdę warto to rozumieć. Jeśli ktoś chce pracować ze sprzętem studyjnym, zdecydowanie powinien nauczyć się wyczuwać ten parametr, bo na papierze wygląda na prosty, a w praktyce potrafi mocno namieszać.

Pytanie 24

Procesor dźwięku realizujący efekt echo wpływa na

A. dynamikę przetwarzanego sygnału.
B. wysokość przetwarzanych dźwięków.
C. przestrzenność materiału muzycznego.
D. pasmo częstotliwości przetwarzanego sygnału.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 25

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 5.1
B. 4.0
C. 9.1
D. 7.1
Oznaczenie 4.0 odnosi się do systemu dźwięku wielokanałowego, który posiada cztery kanały: lewy, prawy, centralny oraz tylny (lub dwa tylne), ale nie zawiera dedykowanego kanału niskoczęstotliwościowego, czyli tzw. LFE (Low Frequency Effects), powszechnie określanego jako „.1” w oznaczeniach takich jak 5.1 czy 7.1. W praktyce oznacza to, że w systemach 4.0 nie ma osobnego głośnika subwoofera odpowiedzialnego za efekty basowe, a niskie częstotliwości są przesyłane do głównych głośników. Moim zdaniem, w domowych zastosowaniach, np. w starszych kinach domowych czy niektórych salach wykładowych, konfiguracja 4.0 była stosunkowo popularna z uwagi na prostotę i niższy koszt wdrożenia, zwłaszcza w czasach, gdy subwoofery nie były jeszcze tak rozpowszechnione. Oznaczenie bez „.1” zawsze wskazuje, że system nie posiada osobnego kanału LFE. Warto zauważyć, że standardy takie jak Dolby Surround czy niektóre konfiguracje kinowe w latach 80. i 90. opierały się właśnie na czterech pełnopasmowych kanałach. To podejście sprawdza się tam, gdzie niekoniecznie zależy nam na bardzo mocnych efektach basowych, a bardziej na precyzyjnym rozmieszczeniu źródeł dźwięku. Z mojego doświadczenia, system 4.0 bywa rozwiązaniem kompromisowym, ale wciąż pozwala na całkiem niezłą przestrzenność dźwięku, szczególnie w mniejszych pomieszczeniach czy przy ograniczonym budżecie.

Pytanie 26

Normalizacja nagrania (peak normalization) to

A. obniżenie szczytowego poziomu nagrania o 3 dB.
B. obniżenie średniego poziomu nagrania o 3 dB.
C. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS.
D. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
Normalizacja szczytowa, czyli tzw. peak normalization, to jedna z najbardziej podstawowych operacji podczas obróbki plików audio. Chodzi w niej o to, żeby podnieść cały poziom nagrania tak, żeby najwyższy szczyt (peak) osiągał dokładnie referencyjną wartość, czyli najczęściej 0 dBFS. To jest taki punkt odniesienia w cyfrowym audio, powyżej którego dźwięk byłby już po prostu przesterowany i zniekształcony, bo sygnał przekracza możliwości systemu cyfrowego. Moim zdaniem warto pamiętać, że normalizacja szczytowa nie wpływa na stosunek sygnału do szumu, tylko wszystko podnosi proporcjonalnie. Często stosuje się ją, gdy chcemy szybko wyrównać głośność kilku plików albo przygotować nagranie do dalszej obróbki, żeby uniknąć przesterowania podczas miksu. Z mojego doświadczenia, wielu początkujących myli normalizację szczytową z normalizacją RMS czy loudness normalization, które opierają się na średniej głośności, a nie na pojedynczym piku. W branżowych DAW-ach, takich jak Pro Tools, Cubase czy Reaper, polecenie „normalize” domyślnie dotyczy właśnie szczytu, czyli peaku, a nie średniej. W praktyce bardzo przydaje się to przy wyrównywaniu materiałów z różnych źródeł, chociaż czasem lepiej wybrać bardziej zaawansowane metody, bo peak normalization nie gwarantuje, że materiał będzie odbierany jako równie głośny przez słuchacza. No, ale jeśli chodzi o czysto techniczne podejście, to właśnie ustawienie najwyższego piku na 0 dBFS jest sednem tej operacji.

Pytanie 27

Aby bezpiecznie przechowywać dane zapisane na płycie CD, należy przede wszystkim zabezpieczyć płytę przed negatywnym wpływem

A. wilgotności powietrza.
B. pola magnetycznego.
C. pola elektrostatycznego.
D. promieniowania ultrafioletowego.
Wiele osób uważa, że największym zagrożeniem dla płyt CD jest pole magnetyczne albo elektrostatyczne, bo przecież na dyskach twardych czy taśmach magnetycznych takie czynniki mogą całkiem skutecznie zniszczyć dane. Jednak CD jest nośnikiem optycznym, a nie magnetycznym – dane są tam zapisane w postaci fizycznych zmian (wypaleń lub wgłębień) w warstwie poliwęglanowej, które są odczytywane przez laser. Pole magnetyczne, nawet dość silne, w ogóle nie oddziałuje na strukturę płyty, więc nie ma ryzyka utraty danych z tego powodu. To samo dotyczy pola elektrostatycznego – owszem, ładunki elektrostatyczne mogą przyciągać kurz do powierzchni płyty i co najwyżej utrudnić odczyt przez zabrudzenie, lecz nie uszkodzą zapisanych danych. Wilgotność powietrza natomiast, choć może wpłynąć na stan fizyczny nośnika przy ekstremalnych poziomach (na przykład przy bardzo wysokiej wilgotności w połączeniu z wysoką temperaturą może powstać ryzyko powolnej delaminacji warstw), nie jest głównym czynnikiem niszczącym płyty w normalnych warunkach domowych. Typowe błędy w tym myśleniu wynikają z utożsamiania wszystkich nośników z magnetycznymi lub nieznajomości mechanizmów zapisu optycznego. Podsumowując, to właśnie promieniowanie ultrafioletowe jest najpoważniejszym czynnikiem degradującym płyty CD, bo uszkadza warstwę zapisu na poziomie chemicznym – dobra praktyka to ochrona przed światłem, a nie przed magnesami czy elektrycznością.

Pytanie 28

Aby wykonać jednoczesny transfer ośmiu ścieżek audio za pomocą portu ADAT, należy ustawić maksymalną częstotliwość próbkowania w sesji oprogramowania DAW na

A. 32 kHz
B. 96 kHz
C. 48 kHz
D. 16 kHz
Port ADAT jest bardzo popularnym rozwiązaniem w środowiskach studyjnych, szczególnie tam, gdzie potrzebny jest szybki i wygodny transfer wielu kanałów audio między interfejsami lub mikserami. Maksymalnie może przesyłać osiem niezależnych ścieżek cyfrowych jednocześnie, ale tylko wtedy, gdy częstotliwość próbkowania nie przekracza 48 kHz. Wynika to bezpośrednio ze specyfikacji ADAT Optical (Lightpipe), która przewiduje ograniczenie przepustowości strumienia danych – przy wyższych częstotliwościach (np. 96 kHz) liczba przesyłanych kanałów automatycznie spada do czterech, ponieważ dane z każdego kanału zajmują dwukrotnie więcej miejsca. W praktyce, jeśli chcesz wykorzystać pełne możliwości ADAT-a i przesłać osiem kanałów – czy to na potrzeby nagrania perkusji, chórków czy wielośladowej sesji, musisz ograniczyć sesję DAW do 48 kHz. To w zupełności wystarcza do większości profesjonalnych zastosowań, również w broadcastingu czy produkcji muzycznej. Często spotykam się z sytuacją, gdy początkujący realizatorzy próbują ustawić projekt na 96 kHz, myśląc, że uzyskają lepszą jakość, a potem zdziwieni zauważają brak wszystkich torów – to typowy błąd. Warto pamiętać, że ADAT był tworzony jeszcze w latach 90., kiedy 48 kHz stanowiło bardzo sensowny kompromis między jakością a wydajnością. Dziś, mimo rozwoju technologii, te ograniczenia fizyczne interfejsów optycznych wciąż obowiązują. Moim zdaniem, umiejętność świadomego doboru parametrów sesji pod kątem sprzętu to podstawa efektywnej pracy w studiu.

Pytanie 29

Który z parametrów pliku audio wskazuje rodzaj użytego kodeka?

A. Przepływność.
B. Nazwa.
C. Rozmiar.
D. Rozszerzenie.
Rozszerzenie pliku audio to jeden z podstawowych sposobów na szybkie rozpoznanie, jaki kodek został użyty do jego zakodowania. W praktyce, mając do czynienia z plikiem .mp3, praktycznie od razu wiadomo, że do kompresji dźwięku użyto kodeka MPEG-1 Audio Layer III, popularnego właśnie jako MP3. Analogicznie plik z rozszerzeniem .aac będzie zakodowany kodekiem Advanced Audio Coding, a .flac – Free Lossless Audio Codec. Oczywiście, czasami pliki mogą mieć nietypowe rozszerzenia lub umieszczone są w tzw. kontenerach (np. .mkv, .m4a), które zawierają dodatkowe informacje, ale generalnie rozszerzenie daje bardzo cenną wskazówkę dotyczącą kodeka. Z mojego doświadczenia, szybkie rozpoznanie po rozszerzeniu to codzienny nawyk każdego technika, który pracuje z dźwiękiem. Trzeba jednak uważać – rozszerzenie można ręcznie zmienić, przez co faktyczna zawartość pliku nie zawsze musi się zgadzać z jego nazwą, co czasem prowadzi do problemów przy odtwarzaniu lub konwersji. W branży jest to jeden z pierwszych aspektów sprawdzanych przy analizie plików dźwiękowych. Dobre praktyki podpowiadają też, żeby nie polegać wyłącznie na rozszerzeniu, ale traktować je jako wskazówkę. Standardy, takie jak ID3 dla MP3 czy ogólne specyfikacje formatów, dodatkowo regulują poprawność identyfikacji kodeka. To właśnie rozszerzenie daje informację o rodzaju kodeka, a nie np. nazwa pliku czy jego rozmiar.

Pytanie 30

Jaką maksymalną dynamikę dźwięku można uzyskać przy rozdzielczości bitowej wynoszącej 24 bity?

A. 64 dB
B. 96 dB
C. 144 dB
D. 128 dB
24-bitowa rozdzielczość to już taki porządny standard jeśli chodzi o audio profesjonalne. Maksymalna teoretyczna dynamika, jaką można wyciągnąć z 24-bitowego zapisu, wynosi właśnie 144 dB. Wynika to z prostego przelicznika – na każdy bit przypada 6 dB (dokładniej 6,02 dB). Czyli 24 bity razy 6 dB daje nam 144 dB. To naprawdę imponująca wartość i znacznie przekracza możliwości percepcyjne człowieka, bo nasze uszy wytrzymują mniej więcej 120 dB różnicy między najcichszym a najgłośniejszym dźwiękiem. W praktyce jednak żaden przetwornik czy tor audio nie osiąga pełnych 144 dB – szumy elektroniki, zakłócenia i ograniczenia sprzętowe trochę tę dynamikę zmniejszają. W studiach nagraniowych i przy miksie wysokiej klasy 24 bity to już standard i daje spory zapas na późniejszą edycję, kompresję czy mastering. Często spotyka się opinie wśród realizatorów, że taka głębokość bitowa daje komfort pracy bez ryzyka przesterowania i zniekształceń, zwłaszcza przy delikatnych instrumentach akustycznych. Tak się przyjęło, że pliki do masteringu czy oryginalne ścieżki z nagrań trzyma się właśnie w 24 bitach – nie bez powodu. Lubię o tym myśleć jak o ogromnym marginesie bezpieczeństwa – nawet jeśli później wszystko i tak ląduje na płycie CD w 16 bitach i 96 dB dynamiki. W audiofilskich rejestracjach klasycznych i ścieżkach filmowych ten zapas dynamiki jest szczególnie cenny i pozwala na zachowanie najdrobniejszych detali. Moim zdaniem warto to wiedzieć, bo rozumienie tej zależności między bitami a dynamiką pozwala lepiej ogarnąć, po co w ogóle są te wszystkie „liczby” na interfejsach dźwiękowych.

Pytanie 31

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Dwukrotny.
B. Pięciokrotny.
C. Czterokrotny.
D. Trzykrotny.
Często pojawiają się nieporozumienia dotyczące tego, jak mocno subiektywna głośność (wrażeń słuchowych) rośnie względem poziomu sygnału podawanego w decybelach. Przykładowo, niektórzy zakładają, że skoro skala dB rośnie szybko, to każda „dziesiątka” oznacza nawet trzykrotny, czterokrotny czy pięciokrotny wzrost słyszalności – ale to niestety nie tak działa. Skala dB to skala logarytmiczna, więc już sam sposób jej przeliczania sugeruje, że wzrost o 10 dB nie da trzykrotności ani większych wzrostów odbieranych przez ucho. W rzeczywistości, nasze ucho ma ograniczoną czułość i rejestruje zmiany głośności zgodnie z tzw. krzywymi równych głośności (Fletchera-Munsona), a te pokazują, że wzrost o 10 dB daje nam odczucie mniej więcej dwa razy głośniejszego dźwięku. Trzykrotny lub czterokrotny wzrost głośności wymagałby znacznie większej zmiany poziomu wyrażonego w dB – odpowiednio około 20 dB dla czterokrotności. To dość częsty błąd: myślenie, że decybele rosną liniowo i od razu przekładają się na takie same zmiany w postrzeganiu dźwięku. Z punktu widzenia praktyki – przy miksie, nagłośnieniu czy nawet obsłudze prostych urządzeń audio – warto znać tę zasadę, bo pozwala realistycznie ocenić, jak dużo zmieni się dla słuchacza przy regulacji poziomu. W branży przyjmuje się, że podwojenie subiektywnej głośności to 10 dB wzrostu, a nie większe wartości. To sprawdzona zasada poparta testami psychoakustycznymi i normami branżowymi, np. wg AES czy EBU. W sumie, moim zdaniem, dobrze znać ten niuans – bo pozwala realnie planować i przewidywać efekty w pracy z dźwiękiem, a nie kręcić gałkami w ciemno.

Pytanie 32

Który z plików dźwiękowych będzie posiadał największy rozmiar przy długości materiału muzycznego 1 h?

A. aiff
B. mpeg2
C. gt
D. mp3Pro
Wiele osób zakłada, że najbardziej znane formaty kompresji audio, takie jak mp3Pro lub mpeg2, generują duże pliki, bo przecież „jakość kosztuje”, ale w rzeczywistości jest zupełnie odwrotnie – to właśnie one powstały po to, by zminimalizować rozmiar plików kosztem części jakości dźwięku. mp3Pro oraz mpeg2 stosują skomplikowane algorytmy kompresji stratnej, które analizują sygnał audio i usuwają te fragmenty, które są najmniej słyszalne dla ludzkiego ucha, dzięki czemu osiąga się bardzo mały rozmiar pliku zachowując zadowalającą jakość odsłuchu. Tego typu pliki to podstawa w branży streamingowej, radiu internetowym czy podczas archiwizacji wielkich bibliotek muzycznych, gdzie miejsce na dysku to cenny zasób. Przekonanie, że mpeg2 (kojarzony głównie z video, ale obsługujący też audio w formie stratnej kompresji) wygeneruje większy plik niż nieskompresowany AIFF, jest typowym błędem wynikającym z niezrozumienia różnicy między kompresją stratną a bezstratną. Z kolei „gt” nie jest powszechnie rozpoznawalnym formatem plików audio, przynajmniej nie w kontekście standardów branżowych – prawdopodobnie pojawił się tu jako zmyłka lub literówka. W praktyce, jeśli mówimy o przechowywaniu godzinnego utworu w najwyższej możliwej jakości, zawsze największy plik uzyskamy w formacie nieskompresowanym, takim jak AIFF czy WAV. Kompresja stratna to kompromis między wielkością pliku a jakością dźwięku, który przydaje się w codziennym użytkowaniu, ale nie spełni oczekiwań profesjonalnych realizatorów dźwięku. Moim zdaniem, to taki typowy przypadek, gdzie myślenie „im nowszy format, tym większy plik” prowadzi na manowce, bo to właśnie stare, nieskompresowane formaty są najbardziej „pazerno” na miejsce na dysku.

Pytanie 33

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 10 MB
B. Około 20 MB
C. Około 1 MB
D. Około 5 MB
To właśnie jest ta wartość, której się spodziewa większość osób znających temat audio i standardów zapisu dźwięku. Jeżeli mamy stereofoniczny plik dźwiękowy (czyli dwa kanały), o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na próbkę, to jest to dokładnie taki sam format jak klasyczny plik WAV z płyty CD-Audio. Obliczenie rozmiaru takiego pliku polega na pomnożeniu liczby kanałów (2) przez częstotliwość próbkowania (44 100 próbek na sekundę), przez liczbę bitów na próbkę (16), przez czas trwania (60 sekund), a potem podzielenie przez 8 (żeby zamienić bity na bajty) i przez 1 048 576 (MB). To daje około 10,1 MB, co jest zgodne z odpowiedzią. W praktyce, studia nagraniowe, radia czy nawet osoby pracujące przy montażu wideo bardzo często korzystają z takiego właśnie formatu. Jest nie tylko powszechnie akceptowany, ale i zapewnia bardzo dobrą jakość dźwięku. Moim zdaniem, dobrze znać tę wartość „na oko”, bo w branży muzycznej i IT często na szybko szacuje się, ile danych zajmie godzina nagrania czy ile miejsca trzeba zarezerwować na dysku twardym. Co ciekawe, jeśli kiedyś będziesz konwertował muzykę do formatu MP3, od razu zauważysz, jak bardzo kompresja zmniejsza rozmiar pliku względem bezstratnego WAV – i to jest właśnie ta praktyczna wiedza, która potem procentuje.

Pytanie 34

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. FLAC
B. MP3
C. WMA
D. WAV
Wybór formatu FLAC jako docelowego do archiwizacji materiału dźwiękowego jest zgodny ze współczesnymi standardami i dobrymi praktykami branżowymi, zwłaszcza gdy zależy nam na oszczędności miejsca bez kompromisów pod względem jakości dźwięku. FLAC, czyli Free Lossless Audio Codec, to format kompresji bezstratnej – oznacza to, że plik dźwiękowy jest mniejszy niż nieskompresowany WAV, ale nie traci przy tym żadnych informacji. Odtwarzając nagranie z pliku FLAC, odzyskujemy dokładnie ten sam sygnał, jaki był zapisany w oryginale. Co ciekawe, wiele archiwów dźwiękowych, bibliotek czy stacji radiowych od lat stosuje FLAC jako standard przy przechowywaniu ważnych nagrań – właśnie ze względu na niezawodność i pewność zachowania jakości. Moim zdaniem, nawet jeśli ktoś dopiero zaczyna przygodę z dźwiękiem, warto od razu przyzwyczaić się do pracy z bezstratnymi formatami, bo potem nie trzeba się martwić o degradację jakości po kolejnych konwersjach. FLAC jest też szeroko wspierany przez większość nowoczesnych odtwarzaczy sprzętowych i programowych, a przy tym jest formatem otwartym i dobrze udokumentowanym, co bywa istotne, gdy myślimy o długoterminowym przechowywaniu danych. Używając FLAC, można bezpiecznie zarchiwizować nagrania i w razie potrzeby w przyszłości przekonwertować je do dowolnego innego formatu bez utraty jakości. Naprawdę ciężko znaleźć lepszy kompromis między rozmiarem pliku a zachowaniem wierności oryginału.

Pytanie 35

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 44 100 Hz
B. 96 000 Hz
C. 48 000 Hz
D. 32 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 36

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. zmiany nazwy pliku.
B. ograniczenia wielkości pliku.
C. uzyskania jednorodnej kopii pliku.
D. zmiany lokalizacji pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 37

Ile kanałów można jednocześnie transmitować połączeniem S/PDIF?

A. najwyżej 6 kanałów.
B. 8 kanałów.
C. 16 kanałów.
D. 32 kanały.
Często można spotkać się z przekonaniem, że S/PDIF pozwala na transmisję bardzo wielu kanałów audio, nawet kilkunastu czy kilkudziesięciu – to jednak typowy błąd wynikający z mylenia tego interfejsu z bardziej zaawansowanymi rozwiązaniami, jak HDMI czy protokoły studyjne typu ADAT czy MADI. S/PDIF to stosunkowo prosty standard, który w założeniu miał umożliwiać cyfrowe przesyłanie dźwięku stereo PCM oraz – po wprowadzeniu odpowiednich kodeków kompresujących, takich jak Dolby Digital (AC-3) czy DTS – sygnału 5.1, czyli sześciu kanałów audio w formie bitstrumienia. Nie ma technologicznej możliwości, by przez pojedyncze połączenie S/PDIF przesłać 8, 16 czy tym bardziej 32 niezależne kanały – ograniczeniem jest zarówno przepustowość interfejsu, jak i specyfika standardu. Wielu użytkowników, zwłaszcza mających styczność z nowymi systemami AV, myli S/PDIF z HDMI, które pozwala przesłać nawet 8 czy więcej kanałów niekompresowanego dźwięku. Nadmiarowe oczekiwania wobec S/PDIF mogą też wynikać z niejasnych oznaczeń na sprzęcie lub z niezrozumienia, w jaki sposób kodowane są wielokanałowe strumienie dźwięku. W rzeczywistości S/PDIF przesyła maksymalnie 2 kanały w PCM i do 6 w formatach kompresowanych, co potwierdzają zapisy standardu IEC 60958. Podejścia zakładające przesyłanie 8, 16 czy 32 kanałów po S/PDIF nie mają pokrycia w dokumentacji technicznej i praktyce. Takie błędne wnioski mogą prowadzić do rozczarowań przy projektowaniu domowych instalacji AV czy podczas prób integracji sprzętu różnych producentów. Dlatego zawsze warto sprawdzić dokumentację urządzenia i nie zakładać na wyrost, że S/PDIF obsłuży tyle kanałów, ile by się chciało. To prosty, ale jednak dość ograniczony standard.

Pytanie 38

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 1 MB
B. Około 10 MB
C. Około 20 MB
D. Około 5 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 39

Konwersję pliku dźwiękowego wykonuje się w celu

A. uzyskania kopii pliku.
B. zmiany lokalizacji pliku.
C. zmiany parametrów pliku.
D. zmiany nazwy pliku.
Konwersja pliku dźwiękowego to proces zmiany parametrów tego pliku, takich jak format (np. z WAV na MP3), częstotliwość próbkowania, liczba kanałów (mono/stereo), bitrate czy głębokość bitowa. To bardzo przydatna umiejętność – moim zdaniem praktycznie obowiązkowa, jeśli chcesz pracować z dźwiękiem w jakiejkolwiek formie, od podcastu po profesjonalny montaż filmowy. Przykładowo, gdy potrzebujesz wrzucić nagranie do internetu, zazwyczaj musisz je przekonwertować do MP3, bo ten format jest lekki i wszędzie obsługiwany. Z kolei w studiu nagraniowym możesz preferować bezstratne formaty typu FLAC lub WAV dla zachowania najwyższej jakości dźwięku. Branżowe programy, jak Audacity czy Adobe Audition, oferują szeroką gamę opcji konwersji, umożliwiając dostosowanie parametrów do konkretnych potrzeb projektu lub wymagań stawianych przez różne platformy (YouTube, Spotify). Dodatkowo, konwersja może być niezbędna, gdy urządzenie nie obsługuje jakiegoś formatu – wtedy po prostu trzeba dostosować plik. Z mojego doświadczenia, znajomość tych opcji daje dużą swobodę i pozwala oszczędzić sporo czasu, zwłaszcza przy dużych kolekcjach plików. To praktyczna, codzienna czynność, która przekłada się bezpośrednio na komfort pracy z multimediami.

Pytanie 40

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 9.1
B. 4.0
C. 7.1
D. 5.1
Odpowiedź 4.0 jest jak najbardziej trafiona, bo właśnie to oznaczenie dotyczy systemu dźwięku wielokanałowego, który nie zawiera tego słynnego kanału niskoczęstotliwościowego (LFE), popularnie zwanego subwooferem. W zapisie takim jak „x.y”, pierwsza cyfra to liczba pełnopasmowych kanałów (czyli głównych głośników, które radzą sobie z całym zakresem częstotliwości), a druga – po kropce – to liczba subwooferów, czyli kanałów LFE. Czyli jak masz 4.0, to są cztery kanały, ale bez żadnego subwoofera. Najczęściej spotyka się takie rozwiązania w zestawach hi-fi albo starszych systemach kina domowego, gdzie nie zawsze był potrzebny oddzielny głośnik niskotonowy. Z mojego doświadczenia, czasem nawet w muzeach albo salach wykładowych używa się układów 4.0, bo nie ma aż takiej potrzeby podkreślania basu, a cztery punkty dźwięku zapewniają już fajne wrażenia przestrzenne. W kinach domowych czy na koncertach raczej sięga się po warianty z LFE, czyli 5.1, 7.1 itd., bo tam bas robi robotę i daje efekt wow. Warto pamiętać, że liczba po kropce, choć wydaje się niepozorna, naprawdę dużo zmienia w odbiorze – zwłaszcza w kinie czy grach. Moim zdaniem, dobrze rozumieć te oznaczenia, bo wtedy łatwiej dobrać sprzęt do własnych potrzeb i nie przepłacić za niepotrzebne bajery.