Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 21 kwietnia 2026 11:49
  • Data zakończenia: 21 kwietnia 2026 11:58

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych procesorów typowo służy do przekształcania przestrzeni w nagraniu dźwiękowym?

A. Invert phase.
B. Reverb.
C. Time stretch.
D. Pitch correction.
Reverb to procesor, który zdecydowanie kojarzy się z przekształcaniem przestrzeni w nagraniu dźwiękowym. Tak naprawdę, pogłos, czyli właśnie reverb, pozwala symulować akustykę różnych pomieszczeń – od małego pokoju, przez salę koncertową, aż po ogromną katedrę. W miksie muzycznym czy postprodukcji dźwięku, stosuje się go po to, żeby nadać nagraniu głębię, przestrzeń i pewnego rodzaju naturalność. Często, gdy słuchasz wokalu, który wydaje się być "blisko" lub "daleko" – to właśnie zasługa odpowiednio ustawionego reverbu. Moim zdaniem, reverb to jedno z najważniejszych narzędzi inżyniera dźwięku, bo bez tego wszystko brzmiałoby nienaturalnie, sucharowo, bez atmosfery. W branży istnieje nawet powiedzenie, że "bez pogłosu nie ma emocji". Ważne jest też to, że reverbu używa się nie tylko do wokali, ale też do instrumentów – perkusji, gitar, smyczków, praktycznie wszystkiego. W profesjonalnych studiach stosuje się najróżniejsze algorytmy pogłosowe – od sprężynowych przez płytowe, po cyfrowe typu convolution. Sztuką jest nie przesadzić, bo zbyt dużo reverbu może zamulić miks, ale odrobina – często robi robotę. Praktycznie każdy DAW oferuje kilka rodzajów reverbów, a niektóre klasyczne urządzenia pogłosowe stały się wręcz legendarne w brzmieniu muzyki. Branżowym standardem jest używanie różnych typów reverbu w zależności od sytuacji – czasem krótkiego, czasem długiego, czasem tylko na jeden instrument. Moim zdaniem reverb to totalna podstawa jeśli chodzi o budowanie przestrzeni w muzyce czy filmie.

Pytanie 2

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Avid ProTools.
B. Celemony Melodyne.
C. Microsoft Windows Media Player.
D. Steiberg Cubase.
W branży audio bardzo często spotykam się z zamieszaniem dotyczącym formatów sesji DAW. Każdy z wymienionych w pytaniu programów ma własne natywne rozszerzenia projektów, ale żaden – poza Avid ProTools – nie obsługuje plików .ptx. Steinberg Cubase to świetne narzędzie do produkcji muzycznej, ale jego plik projektu to .cpr, a nie .ptx. Wielu początkujących myśli, że skoro DAWy obsługują wielościeżkową produkcję, można otwierać sesje z innych programów. Niestety tak nie jest, bo formaty projektów są na ogół zamknięte i bardzo szczegółowo opisują wszystkie niuanse miksu, automatyki czy ustawień efektów – to nie jest po prostu zapis ścieżek audio. Celemony Melodyne z kolei, choć jest potężnym narzędziem do edycji dźwięku (np. korekty intonacji wokalu), w ogóle nie służy do otwierania, a tym bardziej zarządzania pełnymi sesjami DAW. Melodyne jest wtyczką lub samodzielnym programem do manipulacji dźwiękiem, ale nigdy nie był i nie będzie pełnoprawnym środowiskiem do pracy z wielościeżkową sesją. Bardzo typowym błędem jest też próba otwarcia sesji DAW w odtwarzaczach multimedialnych, takich jak Windows Media Player. Odtwarzacz ten obsługuje tylko gotowe pliki audio i wideo: mp3, wav, mp4, ale nie jest w żaden sposób kompatybilny z plikami projektów czy sesji. To tak, jakby próbować otworzyć projekt AutoCADa w Paintcie – technicznie niemożliwe. Z mojego punktu widzenia, nieznajomość tych zależności prowadzi do niepotrzebnej frustracji i straty czasu, zwłaszcza kiedy pracuje się w zespole lub wymienia pliki z innymi użytkownikami różnych DAW. Dobrą praktyką jest zawsze sprawdzić, jaki format pliku projektowego obsługuje dany program i zaplanować ewentualne konwersje lub eksporty ścieżek, jeśli współpracujemy w różnych środowiskach. Dzięki temu unikamy problemów z kompatybilnością i niepotrzebnych rozczarowań podczas pracy nad większymi projektami.

Pytanie 3

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 5 ścieżek.
B. 3 ścieżki.
C. 2 ścieżki.
D. 4 ścieżki.
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 4

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. MBR
B. VBR
C. ABR
D. CBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 5

Funkcja służąca do zgrania zaznaczonego fragmentu materiału dźwiękowego w sesji oprogramowania DAW na dysk komputera znajduje się typowo w menu

A. OPTIONS
B. WINDOW
C. EVENT
D. FILE
Właściwy wybór to FILE, bo to właśnie w tym menu większość programów typu DAW (np. Cubase, Pro Tools, Ableton Live, Reaper) umieszcza funkcje związane z operacjami na plikach – czyli zapisywanie, eksport, import czy zgrywanie materiału na dysk. Kiedy chcesz wyeksportować fragment utworu lub całą sesję do pliku audio (np. wav, mp3), zawsze szukasz opcji pokroju „Export”, „Bounce”, „Render” właśnie pod FILE. To standard branżowy, bo użytkownik spodziewa się tutaj wszystkich operacji, które mają na celu przeniesienie projektu lub jego części poza DAW. Z mojego doświadczenia, im szybciej nauczysz się korzystać z tych funkcji, tym sprawniej ogarniesz przygotowanie ścieżek do miksu, masteringu czy nawet demówek do wysyłki. Dobra praktyka nakazuje regularne wykorzystywanie eksportu do archiwizacji postępów projektu, a także do testowania brzmień na różnych urządzeniach. Co ciekawe, w większości DAW plik wyeksportowany przez FILE zachowuje ustawienia miksu, efekty i automatyzacje – więc to podstawa, jeśli chcesz mieć kontrolę nad finalnym brzmieniem. Oczywiście, w zależności od DAW, szczegóły mogą się różnić, ale ogólna zasada jest zawsze ta sama – FILE to „centrum dowodzenia” jeśli chodzi o zapis i eksport materiałów.

Pytanie 6

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic II
B. Pro Logic
C. Pro Logic IIx
D. Pro Logic IIz
Wiele osób myli starsze technologie Pro Logic z ich późniejszymi, ulepszonymi wersjami, co rzeczywiście łatwo się zdarza. Sam kiedyś zakładałem, że skoro IIz też ma „zaawansowany” indeks, musi być lepszy do 7.1, a to jednak nie do końca tak działa. Pro Logic w najstarszej wersji obsługiwał tylko systemy 4-kanałowe (czyli w praktyce 3.0 albo 4.0), typowe dla pierwszych kin domowych i VHS-ów. Pro Logic II rozszerzył ten standard do 5.1, co było dużym krokiem naprzód, bo pozwoliło już na kinowe efekty z tylnymi głośnikami, bardzo spoko do filmów z początku XXI wieku. Pro Logic IIz, mimo że wydaje się „większy”, wcale nie rozbudowuje systemu do 7.1 – zamiast tego dodaje dwa kanały wysokości (front height), czyli wspiera układy typu 5.1 lub 7.1 z dodatkowymi głośnikami nad frontami, ale nie zwiększa liczby kanałów efektowych do ośmiu. To częsty błąd, mylenie kanałów wysokości z dodatkowymi kanałami surround. Tak naprawdę tylko Pro Logic IIx umożliwia natywną dekodację do 6.1 lub 7.1 – można na nim „rozdzielić” nawet standardowy sygnał stereo na siedem głośników plus subwoofer. W branży audio od lat podkreśla się, żeby nie wybierać technologii wyłącznie po nazwie czy numerze, bo czasem marketingowe oznaczenia są trochę mylące. W praktyce – jeśli zależy komuś na pełnej obsłudze 7.1, to IIx jest jedyną poprawną opcją z tej rodziny. Pozostałe rozwiązania świetnie sprawdzają się w prostszych konfiguracjach, ale nie przeskoczą tej granicy. Dobra praktyka to zawsze sprawdzić, jakie sygnały dany dekoder potrafi rozpoznać i na ile kanałów potrafi je rozbić – to pozwala uniknąć późniejszych rozczarowań przy rozbudowie sprzętu.

Pytanie 7

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 48 kHz
B. 44,1 kHz
C. 96 kHz
D. 88,2 kHz
W pytaniu chodziło o to, przy której częstotliwości próbkowania pojedyncza próbka trwa najkrócej. Często można się tutaj pomylić, zakładając, że niższa częstotliwość próbkowania (np. 44,1 kHz czy 48 kHz) oznacza lepszą jakość lub krótszy czas próbki, bo są to popularne standardy stosowane w codziennym sprzęcie audio – choćby w płytach CD czy w systemach filmowych. Jednak trzeba zrozumieć, że im wyższa częstotliwość próbkowania, tym więcej próbek przypada na jedną sekundę dźwięku, a co za tym idzie – czas trwania pojedynczej próbki maleje. To chyba najczęściej spotykany błąd myślowy: ktoś widzi dużą liczbę i myśli, że oznacza ona coś większego, tymczasem tu działa to odwrotnie. Wyższe częstotliwości, jak 88,2 kHz czy 96 kHz, stosuje się w profesjonalnych zastosowaniach, gdzie precyzja odwzorowania sygnału jest kluczowa – każda próbka trwa tam wyjątkowo krótko, co umożliwia bardzo precyzyjne zarejestrowanie nawet bardzo szybkich zmian dźwięku. Warto pamiętać, że standardy takie jak 44,1 kHz powstały głównie z ograniczeń technicznych (np. architektura płyt CD), natomiast w branży studyjnej i produkcji audio coraz częściej stosuje się nagrywanie w 96 kHz lub nawet wyżej. Gdy wybierzesz niższą częstotliwość, to każda próbka obejmuje dłuższy fragment czasu – więc nie zarejestrujesz tyle szczegółów, ile pozwoliłaby wyższa częstotliwość. Moim zdaniem, zrozumienie tego mechanizmu jest kluczowe dla każdego, kto chce świadomie pracować z dźwiękiem. Zdecydowanie warto zapamiętać: im większa częstotliwość próbkowania, tym krócej trwa pojedyncza próbka, a więc mamy dokładniejszą reprezentację sygnału w dziedzinie czasu.

Pytanie 8

Które z wymienionych określeń dotyczy funkcji wstawiania znaczników na osi czasu w sesji programu DAW?

A. Tempo.
B. Automation.
C. Cycle.
D. Markers.
Markers, czyli znaczniki, to bardzo praktyczne narzędzie stosowane praktycznie w każdym nowoczesnym DAW-ie, takim jak Cubase, Ableton Live czy Pro Tools. Służą do wstawiania wyraźnych punktów orientacyjnych na osi czasu projektu – można je wykorzystywać, żeby zaznaczyć na przykład początek zwrotki, refren, miejsce zmiany tempa, wejście wokalu czy moment, gdzie trzeba wrócić podczas edycji. Z mojego doświadczenia to ogromne ułatwienie, szczególnie przy dużych sesjach, gdzie szybko można się zgubić albo po prostu człowiek nie pamięta, gdzie co miało być. Znaczniki pomagają organizować aranżację, planować zmiany i sprawniej nawigować po projekcie, co jest zgodne ze standardami pracy w studiach nagraniowych. Często w profesjonalnych projektach oznacza się markerami też miejsca, gdzie trzeba na przykład dograć jakiś instrument albo poprawić miks. Można je też wykorzystać do automatycznego eksportowania poszczególnych sekcji czy tzw. stemów. Mało kto o tym myśli na początku, ale ustawienie markerów na początku pracy bardzo przyspiesza późniejsze działania i minimalizuje ryzyko chaosu w projekcie. Takie podejście poleca wielu producentów i inżynierów dźwięku na kursach i warsztatach – to po prostu dobra praktyka, dzięki której praca staje się bardziej czytelna i profesjonalna. Markerów nie należy mylić z innymi funkcjami, bo ich zadaniem jest właśnie wstawianie tych „flag” na osi czasu.

Pytanie 9

Wskaż optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych.

A. Temperatura 18°C ÷ 24°C, wilgotność 10% ÷ 20%
B. Temperatura 24°C ÷ 30°C, wilgotność 10% ÷ 20%
C. Temperatura 15°C ÷ 18°C, wilgotność 30% ÷ 40%
D. Temperatura 6°C ÷ 15°C, wilgotność 30% ÷ 40%
Optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych to temperatura między 15°C a 18°C oraz wilgotność względna na poziomie 30% do 40%. Właśnie takie parametry najbardziej rekomendują branżowe normy, np. ISO 18923 czy zalecenia producentów sprzętu, takich jak IBM czy FujiFilm. Chodzi o to, żeby nośniki były zabezpieczone przed szkodliwym wpływem zbyt wysokiej temperatury, która może powodować rozmagnesowanie, a także przed przesuszeniem lub nadmierną wilgocią, bo to wszystko prowadzi do degradacji warstw magnetycznych i nośnika jako takiego. Z mojego doświadczenia wynika, że niewłaściwe warunki potrafią doprowadzić do nieodwracalnych strat danych, co jest szczególnie bolesne przy archiwach długoterminowych, np. w urzędach, archiwach państwowych czy dużych korporacjach. Warto pamiętać, że nawet niewielkie odchylenia od zalecanych parametrów mogą po kilku latach skutkować poważnymi problemami przy odczycie. Dobrą praktyką jest też cykliczna kontrola parametrów środowiska oraz regularna migracja danych na nowe nośniki, bo nawet przy idealnych warunkach materiał się starzeje. Szczerze mówiąc, większość nowoczesnych serwerowni stosuje do tego specjalne pomieszczenia klimatyzowane, gdzie utrzymywane są właśnie takie zakresy temperatury i wilgotności. W praktyce, jeśli chcesz przechować cenne dane przez kilkanaście lat czy nawet dłużej, nie ma lepszej metody niż trzymanie się tych wytycznych.

Pytanie 10

Pliki dźwiękowe w projekcie należy znormalizować poprzez zastosowanie

A. procesorów dynamicznych Noise Gate.
B. automatyki panoramy.
C. normalizacji.
D. korekcji.
Normalizacja plików dźwiękowych to jedna z podstawowych czynności w obróbce audio, szczególnie jeśli chcemy, żeby wszystkie nagrania w projekcie brzmiały spójnie pod względem głośności. Chodzi w niej o to, żeby zbliżyć maksymalny poziom sygnału do wybranego punktu odniesienia, zwykle 0 dBFS, ale bez przekraczania granicy i wchodzenia w przesterowanie. Moim zdaniem, normalizacja to taki must-have w każdym projekcie, kiedy masz wiele źródeł – na przykład dialogi z różnych mikrofonów, efekty, muzykę – i nie chcesz, żeby coś znienacka było za cicho lub za głośno. W praktyce wygląda to tak: program DAW analizuje poziom najgłośniejszego fragmentu ścieżki i całość odpowiednio „podciąga” lub „zdejmuje”, by ustawić go na zadanym poziomie. To nie zmienia dynamiki materiału (w przeciwieństwie do kompresji), więc cały charakter nagrania zostaje zachowany. W branży filmowej, podcastowej czy nawet przy miksie muzycznym uznaje się to za dobrą praktykę porządkującą projekt. Szczerze mówiąc, jak ktoś zaczyna miks bez normalizacji, to potem może się nieźle namęczyć z nierówną głośnością, a przecież chodzi o komfort słuchacza. Co ciekawe, niektórzy inżynierowie używają jeszcze normalizacji do określonego LUFS (np. -23 LUFS w broadcast), ale to już wyższa szkoła jazdy.

Pytanie 11

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LPF
B. HPF
C. BPF
D. LF
Skrót LPF pochodzi od angielskiego wyrażenia Low Pass Filter, czyli filtr dolnoprzepustowy. To jedno z podstawowych i najczęściej spotykanych rozwiązań w elektronice, elektroakustyce oraz cyfrowym przetwarzaniu sygnałów. Filtry dolnoprzepustowe przepuszczają sygnały o częstotliwościach niższych od określonego progu (tzw. częstotliwości odcięcia), a tłumią te wyższe. W praktyce, takie filtry znajdziesz na przykład w zwrotnicach głośnikowych, gdzie odcinają wysokie tony dla subwoofera, w układach zasilania (eliminacja zakłóceń), czy w przetwarzaniu sygnałów analogowych i cyfrowych (redukcja szumów wysokoczęstotliwościowych). Moim zdaniem, znajomość skrótu LPF to taka absolutna podstawa – spotyka się go wszędzie, nawet w amatorskich projektach audio DIY. Warto też zauważyć, że branżowe schematy i dokumentacje techniczne zawsze operują właśnie tym oznaczeniem. Standardy IEC i IEEE również stosują LPF, więc dobrze mieć to zakodowane w głowie. Tak zupełnie szczerze, w pracy inżyniera czy technika, kiedy widzisz LPF, to od razu wiesz, że chodzi o ochronę czy czyszczenie sygnału z niechcianych, wyższych częstotliwości – no i to jest właśnie cała magia filtrów dolnoprzepustowych.

Pytanie 12

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Bounce
B. Scrubbing
C. Marquee
D. Shuffle
Scrubbing to naprawdę bardzo przydatna funkcja w każdym nowoczesnym DAW-ie. Pozwala na odsłuchanie fragmentu ścieżki dźwiękowej dokładnie w tym miejscu, gdzie przesuwamy kursor po osi czasu. Moim zdaniem to trochę taka lupa dźwiękowa – zamiast odtwarzać cały utwór albo męczyć się z dokładnym ustawieniem playbacku, po prostu łapiemy za kursor i „przeciągamy” nim po wykresie fali. Działa to często podobnie jak przewijanie taśmy w klasycznym magnetofonie, gdzie szybciej lub wolniej przesuwany kursor daje podgląd dźwięku w danym fragmencie. Przydaje się to szczególnie przy precyzyjnym montażu, szukaniu klików, szumów czy ustawianiu punktów cięcia sampli. W branży muzycznej i postprodukcyjnej to wręcz codzienność – standardem jest, że inżynierowie dźwięku używają scrubbingu do szybkiego odnajdywania błędów lub synchronizowania efektów z konkretnym momentem w nagraniu. Warto pamiętać, że scrubbing może działać zarówno w trybie mono, jak i stereo, a niektóre programy pozwalają nawet na „scrubowanie” przez kontrolery fizyczne, co jeszcze bardziej przyspiesza workflow. Osobiście często korzystam z tej opcji podczas edytowania podcastów – słychać wtedy nawet niewielkie szelesty albo niechciane oddechy. Takie podejście nie tylko usprawnia pracę, ale też pozwala na osiągnięcie wysokiego poziomu precyzji, której oczekuje się w profesjonalnych produkcjach audio. Poza tym to po prostu wygodne – nie wyobrażam sobie wracać do pracy bez scrubbingu, szczególnie przy większych sesjach i wielościeżkowych projektach.

Pytanie 13

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 15 klatek.
B. 90 klatek.
C. 60 klatek.
D. 30 klatek.
Wiele osób przy takich pytaniach gubi się przez nieuwagę albo przez zbyt szybkie założenia co do działania timecode’u. Najczęściej pojawiający się błąd to pomieszanie liczby sekund z liczbą klatek albo wręcz mechaniczne dodawanie czy dzielenie tych wartości bez głębszego zastanowienia. Projekt ustawiony na 30 fps oznacza, że każda sekunda filmu to dokładnie 30 klatek – nie więcej i nie mniej, bo to ustalony standard branżowy dla wielu formatów, zwłaszcza w USA i przy produkcjach internetowych. Gdy padają odpowiedzi typu 15 lub 30 klatek dla dwusekundowego fade-outu, to zazwyczaj wynika to z mylnego założenia, że fade-out trwa 1 sekundę (czyli 30 klatek), albo połowę tego czasu (15 klatek), ale to po prostu nie zgadza się z realiami technicznymi. Z kolei 90 klatek to odpowiedź, która sugeruje pomylenie fps z innym standardem, np. myślenie o wyższym klatkażu, albo zwyczajne pomnożenie przez 3 zamiast przez 2 sekundy. W praktyce, jeśli chcesz mieć fade-out, który jest dokładnie dwusekundowy, musisz dokładnie przemnożyć czas trwania w sekundach przez ilość klatek na sekundę: 2 x 30, co daje 60 klatek. To jest taki podstawowy przelicznik, który jest absolutnym fundamentem w postprodukcji wideo. Często widzę, że osoby początkujące próbują ustawiać efekty „na oko”, ale to nigdy nie daje pewności, że efekt faktycznie będzie trwał tyle, ile ma trwać według scenariusza czy wytycznych klienta. W świadomości branżowej liczenie na podstawie fps jest normą i podstawą. Można powiedzieć, że jeśli nie opanujesz tej zasady, szybko zaczniesz mieć problemy przy bardziej skomplikowanych projektach, gdzie wszystko musi się zgadzać co do klatki: od efektów aż po synchronizację z dźwiękiem czy animacjami. Warto więc zawsze liczyć zgodnie z timecodem, żeby uniknąć rozczarowań na etapie finalnego renderu czy przy odbiorze materiału przez klienta.

Pytanie 14

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 5
B. 6
C. 2
D. 4
Wielu osobom wydaje się, że systemy audio składają się tylko z dwóch lub czterech kanałów, bo do niedawna stereo (czyli dwa głośniki – lewy i prawy) było absolutnym standardem w domowych zestawach Hi-Fi czy nawet telewizorach. To podejście jednak nie odpowiada rzeczywistości nowoczesnej technologii dźwięku przestrzennego, gdzie znacznie większy nacisk kładzie się na realizm i lokalizację źródeł dźwięku. Cztery kanały pojawiały się w przeszłości, np. w systemach quadrofoniicznych, ale ich popularność była niewielka i nie przyjęły się szeroko ze względu na skomplikowaną instalację i ograniczone wsparcie treści. W kontekście pytania o 5.1 niektórzy zakładają też, że liczba „5” w nazwie oznacza pięć kanałów, jednak to jest niepełna interpretacja – dodatkowy, szósty kanał to tzw. kanał LFE (Low-Frequency Effects), czyli subwoofer, który odpowiada za efekty niskotonowe, takie jak grzmoty, wybuchy czy filmowe basy. W praktyce to właśnie obecność dedykowanego kanału basowego odróżnia 5.1 od starszych rozwiązań i nadaje mu tę niezwykłą głębię i przestrzenność. Pomijanie subwoofera albo traktowanie go jako niepełnoprawnego kanału to typowy błąd, spotykany nawet u osób związanych z branżą audio. Warto zapamiętać, że poprawna liczba kanałów w systemie 5.1 wynosi sześć – pięć pełnopasmowych i jeden subwooferowy. To standard przyjęty przez Dolby Digital, DTS i praktycznie wszystkie nowoczesne systemy kina domowego. Z mojego punktu widzenia, zrozumienie tych różnic jest kluczowe – pozwala uniknąć rozczarowań podczas kompletowania własnego zestawu czy pracy z dźwiękiem w warunkach profesjonalnych lub edukacyjnych.

Pytanie 15

Który z wymienionych skrótów dotyczy określenia liczby klatek na sekundę w sesji montażowej materiału audio-video?

A. FPS
B. SPP
C. BPM
D. MMC
W pracy z materiałami audio-wideo łatwo można się pomylić wśród różnych skrótów, zwłaszcza jeśli ktoś dopiero zaczyna przygodę z montażem czy produkcją. SPP to zupełnie inne określenie – czasem można się z nim spotkać w kontekście grafiki komputerowej (Samples Per Pixel), najczęściej w renderowaniu obrazów trójwymiarowych, gdzie oznacza liczbę próbek na jeden piksel w celu uzyskania wyższej jakości obrazu. Natomiast nie ma to żadnego związku z ruchem czy liczbą klatek na sekundę w montażu wideo. BPM, czyli Beats Per Minute, spotyka się za to w muzyce, produkcji audio oraz didżejce – dzięki BPM określa się tempo utworu lub miksu, bardzo istotne przy synchronizacji dźwięku, ale nie ma żadnego wpływu na klatki filmu. MMC, czyli MIDI Machine Control, to protokół służący do sterowania urządzeniami audio przez MIDI – wykorzystywany raczej w studiach nagraniowych do automatyzacji nagrywania, synchronizacji różnych sprzętów czy transportu taśm, ale z konkretną liczbą klatek na sekundę nie ma nic wspólnego. Z mojego doświadczenia, osoby nowe w branży często mylą te skróty, bo wyglądają podobnie lub słyszą je w różnych kontekstach technicznych. Warto więc zapamiętać, że tylko FPS jest ściśle związany z obrazem w ruchu i bezpośrednio określa płynność filmu – reszta pełni zupełnie inne funkcje w branży audio i wideo. Branżowe standardy jasno rozdzielają te pojęcia, dlatego tak ważne jest, żeby nie mylić FPS z innymi technicznymi skrótami nawet jeśli wydają się brzmieć znajomo.

Pytanie 16

Procesorem dźwięku, który przy przetwarzaniu sygnału audio wykorzystuje parametr knee jest

A. equalizer.
B. reverb.
C. kompresor.
D. delay.
Delay, reverb i equalizer to procesory dźwięku, które pełnią zupełnie inne zadania niż kompresor i nie wykorzystują parametru „knee” podczas działania. Delay odpowiada za powtarzanie sygnału w określonym odstępie czasu, czyli tworzy echa. To bardzo popularny efekt w muzyce elektronicznej, ale nie ma tam miejsca na kontrolę dynamiki przez „knee” – wszystko polega na ustawianiu czasu opóźnienia, liczby powtórzeń czy zaniku. Reverb, czyli pogłos, symuluje przestrzeń – dodaje głębi, sprawia, że dźwięk brzmi jakby był nagrany w sali koncertowej albo małej łazience. Tutaj liczy się czas wybrzmiewania, wielkość pomieszczenia, czasami pre-delay, ale nigdy nie spotkałem się z parametrem „knee”. Equalizer natomiast służy do kształtowania charakterystyki częstotliwościowej – podbija lub ścina wybrane pasma, pozwala wyeksponować wokal albo usunąć przydźwięki. To zupełnie inna liga procesowania sygnału – wszystko kręci się wokół gałek do bassu, środka i góry, a nie do kompresji dynamiki. Typowym błędem jest myślenie, że każdy procesor ma zaawansowane parametry dynamiki – w praktyce tylko kompresor (i pokrewne bramki czy limitery) oferują coś takiego jak „knee”. Warto pamiętać, że zrozumienie różnic między tymi narzędziami to podstawa pracy z dźwiękiem – bez tego miksowanie staje się tylko zgadywaniem. Moim zdaniem to właśnie precyzyjne rozróżnienie funkcji i parametrów daje najwięcej swobody przy tworzeniu profesjonalnych produkcji – a parametru „knee” po prostu nie znajdziemy w delayu, reverbie ani equalizerze. To domena kompresorów i właśnie w tej roli jest nie do przecenienia.

Pytanie 17

Które z wymienionych określeń definiuje cyfrowy plik audio na osi czasu?

A. Głębia bitowa.
B. Rozdzielczość.
C. Częstotliwość próbkowania.
D. Długość słowa cyfrowego.
Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.

Pytanie 18

Która z wymienionych nazw ścieżek utworzonych w sesji programu DAW oznacza, że na ścieżce tej znajduje się nagranie werbla w zestawie perkusyjnym?

A. SNARE
B. TOM
C. CRASH
D. FLOOR
Nazwa ścieżki „SNARE” w sesji programu DAW niemal zawsze oznacza, że track dotyczy nagrania werbla – jednego z kluczowych elementów zestawu perkusyjnego. Werbel, zwany po angielsku „snare drum”, odpowiada za charakterystyczne, bardzo wyraźne uderzenia, które często definiują groove utworu. W profesjonalnych sesjach nagraniowych oraz mikserskich przyjęło się, że ścieżki werbla opisuje się właśnie słowem SNARE. Takie nazewnictwo jest czytelne nie tylko dla realizatora dźwięku, ale też dla producenta, muzyków czy nawet osób zajmujących się późniejszym masteringiem. To oszczędza czas i zmniejsza ryzyko pomyłek przy pracy z wielośladem. Co ciekawe, w praktyce studyjnej bardzo często dzieli się jeszcze ścieżki na „SNARE TOP” i „SNARE BOTTOM”, co pozwala osobno kontrolować mikrofon skierowany na górę i spód werbla – ale jedna główna ścieżka SNARE zawsze odnosi się właśnie do tego instrumentu. W branży muzycznej porządek w sesji i konsekwentne nazewnictwo ścieżek to trochę taki niepisany standard, którego trzymanie się naprawdę ułatwia życie. Warto przy tym pamiętać, że inne instrumenty bębnowe, jak TOM, FLOOR czy CRASH, to zupełnie odrębne elementy zestawu i ich ścieżki zawsze mają własne, równie precyzyjne oznaczenia.

Pytanie 19

Która z wymienionych kart charakteryzuje się największą pojemnością?

A. SD A1
B. SDXC
C. SD
D. SDHC
SDXC to aktualnie karta o największej pojemności spośród wymienionych standardów. W branży przyjęło się, że karty SDXC zaczynają się od 64 GB i mogą teoretycznie sięgać aż 2 TB, choć praktycznie na rynku spotyka się najczęściej do 1 TB. Moim zdaniem to szczególnie ważne, jeśli ktoś pracuje z filmami w wysokiej rozdzielczości czy dużą liczbą zdjęć RAW – tam każda dodatkowa gigabajty robią różnicę. Warto pamiętać, że SDXC to nie tylko pojemność, ale też często wyższa szybkość transferu danych, zgodna z najnowszymi urządzeniami (np. aparaty 4K, rejestratory dźwięku czy laptopy do edycji multimediów). Oczywiście, żeby w pełni wykorzystać możliwości tej karty, sprzęt musi być zgodny ze standardem SDXC – starsze urządzenia mogą jej po prostu nie rozpoznać, co czasem użytkownicy przeoczają. Z mojego doświadczenia wynika, że w nowoczesnym workflow, gdzie pliki ważą coraz więcej a czas transferu jest kluczowy, SDXC to standard branżowy. W przypadku profesjonalnych kamer, dronów czy nawet konsol do gier, inwestycja w SDXC naprawdę się opłaca. Dodatkowo karty te często posiadają lepsze zabezpieczenia przed błędami czy uszkodzeniem danych, co w codziennej pracy doceni każdy, komu zależy na bezpieczeństwie informacji.

Pytanie 20

Który z wymienionych procesorów efektów służy do zmiany wysokości dźwięku o określony interwał muzyczny?

A. Classic Phaser
B. Multivoice Chorus
C. HF Exciter
D. Pitch Shifter
Pitch Shifter to procesor efektów, który pozwala na zmianę wysokości dźwięku o konkretny interwał muzyczny, bez jednoczesnej zmiany tempa ścieżki audio. W praktyce oznacza to, że dźwięk może zostać przesunięty o określoną ilość półtonów lub centów – na przykład jeśli chcesz, żeby wokal zabrzmiał wyżej jak z dziecięcego filmu albo niżej jak w trailerze horroru, to właśnie pitch shifter sprawdzi się idealnie. To narzędzie jest bardzo popularne w nowoczesnej produkcji muzycznej, także w broadcastingu, sound designie czy podczas miksowania wokali na żywo. Branżowym standardem jest stosowanie pitch shiftera do tworzenia harmonii wokalnych albo kreatywnego obrabiania dźwięku – na przykład w trapie często się to stosuje, żeby uzyskać charakterystyczne, lekko nienaturalne wokale. Z mojego doświadczenia Pitch Shifter jest jednym z najważniejszych narzędzi w arsenale producenta, bo daje dużo swobody twórczej. Odpowiednie użycie tego procesu wymaga jednak wyczucia – nieumiejętna zmiana wysokości może spowodować artefakty lub zniekształcenia, dlatego profesjonaliści często korzystają z zaawansowanych algorytmów, jak te z Antares Auto-Tune czy Eventide. Warto znać ograniczenia i możliwości tego efektu, bo dobrze zastosowany potrafi zupełnie odmienić charakter nagrania, nie tracąc przy tym jakości dźwięku.

Pytanie 21

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W skrypcie.
B. W znacznikach.
C. W harmonogramie produkcji.
D. W komentarzu reżyserskim.
Informacje o docelowych nazwach eksportowanych plików dźwiękowych powinny znajdować się właśnie w skrypcie projektu multimedialnego. To trochę taki fundament całego procesu, bo skrypt pełni rolę głównego dokumentu sterującego, gdzie opisuje się nie tylko, co ma być nagrane i w jakiej kolejności, ale też precyzuje szczegóły techniczne – na przykład, jakie będą nazwy plików po eksporcie czy do jakich folderów mają trafić. Z mojego doświadczenia, dobrze przygotowany skrypt pozwala uniknąć masy nieporozumień między dźwiękowcem, montażystą a resztą zespołu. W środowiskach profesjonalnych bardzo często stosuje się wzorce takie jak EBU Tech 3281 czy zalecenia SMPTE, które wręcz wymagają precyzyjnego opisu plików w dokumentacji projektowej. Dzięki temu łatwiej potem zapanować nad plikami, szczególnie przy dużych produkcjach, gdzie liczba materiałów potrafi przyprawić o zawrót głowy. W praktyce – jeśli brakuje jasnych nazw w skrypcie, to potem zaczyna się szukanie, kombinowanie i niepotrzebny bałagan. Dlatego branżową normą jest ustalanie wszystkiego z góry właśnie w skrypcie, zanim powstanie pierwszy plik dźwiękowy. To naprawdę oszczędza czas i nerwy całego zespołu.

Pytanie 22

„Fade In – 100 ms” oznacza płynne

A. wyciszenie dźwięku, trwające 1/10 sekundy.
B. wyciszenie dźwięku, trwające 1/100 sekundy.
C. wprowadzenie dźwięku z wyciszenia, trwające 1/100 sekundy.
D. wprowadzenie dźwięku z wyciszenia, trwające 1/10 sekundy.
Fade In to taki proces, w którym dźwięk startuje od ciszy i stopniowo narasta do pełnej głośności – dokładnie tak, jak przy otwieraniu drzwi do głośnego pokoju. Parametr „100 ms” oznacza, że całe to przejście trwa 1/10 sekundy, czyli bardzo krótko, ale w praktyce wystarczająco, by uniknąć charakterystycznego kliku czy nieprzyjemnego przesterowania na początku pliku dźwiękowego. W profesjonalnych programach do edycji audio jak Pro Tools czy Cubase, fade in ustawiamy właśnie po to, żeby wejście dźwięku było płynne i naturalne, a nie nagłe i szarpane. Takie wstawianie fade’ów to nie tylko kwestia wygładzenia, ale też standard w branży dźwiękowej, zwłaszcza przy montażu dialogów, efektów czy muzyki do filmu. Moim zdaniem, nawet w amatorskich produkcjach nie powinno się zostawiać ostrych wejść, bo to później słychać – i to dość wyraźnie. Dobrą praktyką jest testowanie różnych długości fade in, lecz przy szybkim materiale 100 ms najczęściej sprawdza się świetnie, bo nie psuje dynamiki, a jednak zabezpiecza przed zniekształceniami. Z mojego doświadczenia, im krótszy fade in, tym bardziej subtelny efekt – ale zawsze zostaje ten miły efekt wygładzenia początku dźwięku, co jest szczególnie ważne przy miksowaniu na żywo czy masteringu. Pamiętaj, że fade in to nie tylko efekt „estetyczny”, ale wręcz fundament przy obróbce audio, bez którego trudno osiągnąć profesjonalne brzmienie.

Pytanie 23

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Modulation
C. Distortion
D. Reverbs
Wybór innej kategorii niż „dynamics” często wynika z mylenia funkcji ekspandera z innymi typami procesorów dźwięku. Ekspander nie jest efektem typu „reverb”, bo nie dodaje pogłosu, czyli nie tworzy wrażenia przestrzeni czy odbić, tak jak robią to wszelkie procesory pogłosowe. „Distortion” to zupełnie inny świat — to efekty, które celowo zniekształcają sygnał, dodając harmonicznych, przesterowując brzmienie, a ekspander tego nie robi i nie ma na celu zmiany charakteru brzmienia w sensie barwy czy saturacji. Z kolei „modulation” to kategoria, do której należą efekty jak chorus, flanger czy phaser, czyli wszystko to, co wpływa na czasowe modyfikacje sygnału, nadając mu ruch lub głębię. Typowy błąd myślowy to utożsamianie ekspandera z bramką szumów i przez to przypisywanie go do jakiejś „specjalnej” kategorii, podczas gdy tak naprawdę obie te rzeczy działają w oparciu o dynamikę sygnału — tylko trochę inaczej. W praktyce ekspander operuje na poziomach głośności i jest wykorzystywany tam, gdzie trzeba rozszerzyć zakres dynamiki, więc według klasyfikacji branżowej znajduje się dokładnie w tej samej grupie co kompresory, bramki czy limitery. Dobra znajomość tej kategorii to podstawa dla każdego realizatora dźwięku, bo pozwala świadomie kształtować dynamikę nagrań czy miksów, zgodnie ze standardami, które funkcjonują w studiach na całym świecie.

Pytanie 24

Który z wymienionych standardów zapisu płyty CD pozwala na jednoczesny zapis danych binarnych oraz audio?

A. SACD
B. CD-DA
C. HDCD
D. E-CD
Na rynku funkcjonuje kilka różnych formatów płyt CD, które czasem są ze sobą mylone, zwłaszcza jeśli chodzi o możliwości zapisu różnych typów danych. CD-DA, czyli Compact Disc Digital Audio, to zdecydowanie najbardziej podstawowy, historyczny format – zgodny z tzw. Red Bookiem – i służy wyłącznie do zapisywania dźwięku w postaci cyfrowej, nie umożliwia jednak zapisywania żadnych dodatkowych danych komputerowych. Z kolei HDCD (High Definition Compatible Digital) to technologia opracowana przez Pacific Microsonics, która polegała na zapisie dźwięku o zwiększonej dynamice i jakości (16+4 bity), ale to dalej był wyłącznie zapis audio, bez wsparcia dla danych multimedialnych czy plików komputerowych. SACD (Super Audio CD) to jeszcze inna liga – to format stworzony przez Sony i Philipsa do zapisu muzyki w wysokiej rozdzielczości (technologia DSD), ale tutaj znowu nie przewidziano nagrywania dodatkowych danych binarnych na płycie, tylko zaawansowany zapis dźwięku. Wiele osób myli Enhanced CD (E-CD) z innymi formatami, bo faktycznie na pierwszy rzut oka wszystkie płyty wyglądają identycznie, a przecież tylko E-CD, zgodny ze standardem Blue Book, daje możliwość jednoczesnego zapisu utworów muzycznych i plików komputerowych na jednej płycie. To rozwiązanie powstało właśnie z myślą o użytkownikach komputerów, którzy chcieli mieć coś ekstra poza samym dźwiękiem. Moim zdaniem najczęstszym błędem jest przekonanie, że każda płyta CD z muzyką i jakimś filmikiem to SACD albo HDCD, bo brzmi to bardziej „nowocześnie”. W rzeczywistości zarówno SACD, jak i HDCD, koncentrują się wyłącznie na jakości dźwięku i nie oferują obsługi danych binarnych. Praktyka pokazuje, że tylko Enhanced CD spełnia wymagania pytania, pozwalając na pełną integrację muzyki i plików komputerowych na jednym dysku optycznym.

Pytanie 25

Które z zamieszczonych wskazań licznika BARS/BEATS na osi czasu w sesji programu DAW oznacza miejsce początku sesji?

A. 1|1|000
B. 1|0|000
C. 0|0|000
D. 0|1|000
Wskazanie 1|1|000 na liczniku BARS/BEATS w DAW faktycznie oznacza miejsce początku sesji. To dlatego, że większość programów DAW – takich jak Ableton Live, Cubase, Pro Tools czy FL Studio – przyjęła właśnie taki standard przedstawiania lokalizacji na osi czasu: pierwszy numer wskazuje takt, drugi uderzenie (beat), a trzeci tzw. tick (czyli drobna jednostka podziału taktu, czasem nazywana też sub-beatem). W praktyce, w DAW nigdy nie zobaczysz pozycji 0|0|000, bo nie istnieje taki „zerowy” takt – muzyka zawsze zaczyna się od pierwszego taktu i pierwszego uderzenia, czyli 1|1|000. To bardzo ważne przy ustawianiu markerów, punktów startu loopów, eksportu czy automatyzacji – wszystko synchronizuje się właśnie do tej pozycji. Wiesz, czasem początkujący próbują ustawić coś na „zerowym” takcie, ale wtedy DAWy po prostu nie pozwalają lub przesuwają wszystko na 1|1|000. To też miejsce, gdzie zwykle zaczynam importować ślady lub ustawiać pierwsze wejście MIDI, bo wtedy wszystko jest równo z siatką i nie ma potem problemów z przesuwaniem. Jest to też bardzo wygodne w kontekście pracy zespołowej – jeżeli ktoś wyśle Ci projekt, to możesz być pewien, że początek sesji zawsze jest w 1|1|000. Przyzwyczajenie się do tego ułatwia komunikację w branży, a także sprawia, że praca idzie sprawniej. Tak jest po prostu czytelniej i żaden szanujący się DAW nie robi tego inaczej – to taki branżowy standard, który po prostu warto znać i stosować.

Pytanie 26

Zastosowanie kompresora wpływa

A. na poszerzenie dynamiki.
B. na zmniejszenie dynamiki.
C. na usunięcie szumów.
D. na ograniczenie niskich tonów.
Kompresor to jedno z podstawowych narzędzi w obróbce dźwięku i miksowaniu muzyki, zwłaszcza w studiach nagraniowych czy podczas produkcji radiowej. Jego głównym zadaniem jest właśnie zmniejszenie dynamiki sygnału, czyli ograniczenie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami nagrania. Po zastosowaniu kompresora głośne dźwięki stają się cichsze, a ciche mogą być podbite – to daje bardziej wyrównany, profesjonalny efekt finalny. Bez kompresora np. wokal bywa zbyt skokowy, czasem ledwo słyszalny, a czasem za bardzo wybija się ponad inne elementy miksu. Moim zdaniem dobry kompresor w rękach doświadczonego realizatora pozwala uzyskać tę charakterystyczną „spójność” brzmienia, którą słychać w komercyjnych produkcjach. Warto też pamiętać, że kompresja jest wręcz standardem w broadcastingu i masteringu – ciężko sobie wyobrazić gotowy materiał audio bez jakiejkolwiek formy kompresji. Oczywiście, jak ze wszystkim, trzeba uważać, żeby nie przesadzić, bo zbyt mocna kompresja może zabić naturalność i ekspresję wykonania. Ale generalnie, jeśli ktoś chce ogarnąć miks, kompresor to absolutna podstawa w zakresie kontroli dynamiki.

Pytanie 27

Która z podanych funkcji oprogramowania DAW służy do utworzenia nowej sesji montażowej?

A. New
B. Load
C. Open
D. Import
Opcja „New” to absolutnie podstawowa funkcja w każdym programie typu DAW, czyli Digital Audio Workstation. Służy ona do utworzenia nowej sesji montażowej, czyli po prostu zaczynasz od zera nowy projekt. To trochę tak, jakbyś w edytorze tekstu klikał „Nowy dokument” – czysta karta do pracy. W branży muzycznej i dźwiękowej jest to standard – zawsze, gdy chcesz rozpocząć nową produkcję, miks, mastering czy nawet eksperymenty z brzmieniem, korzystasz właśnie z tej funkcji. Tworzenie nowej sesji pozwala Ci zdefiniować podstawowe ustawienia: tempo, liczbę ścieżek, format projektu czy nawet wybrać szablon, jeśli producent go przygotował. Dobrą praktyką jest także od razu nadanie nazwy nowej sesji i zapisanie jej w dedykowanym folderze – to naprawdę ułatwia organizację pracy i późniejsze zarządzanie plikami. Z mojego doświadczenia wynika, że wielu początkujących producentów zapomina o tej metodzie pracy i próbuje kombinować z kopiowaniem starych projektów, co może skończyć się niezłym bałaganem. Funkcja „New” to także start czystego środowiska pracy, bez pozostałości z poprzednich sesji, co jest bardzo ważne dla stabilności programu oraz uniknięcia konfliktów wtyczek czy ścieżek. Moim zdaniem to podstawa workflow w każdym DAW, niezależnie czy pracujesz w Cubase, Pro Tools, Ableton Live czy FL Studio. Warto od razu się do tego przyzwyczaić, bo to przyspiesza pracę i pozwala uniknąć problemów w przyszłości.

Pytanie 28

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. powstanie dodatkowych harmonicznych.
B. odtworzenie sygnału identycznego jak oryginał.
C. nieznaczne podbicie środkowej części pasma.
D. dodanie do dźwięku szumu kwantyzacji.
Trzeba dobrze rozróżnić, czym jest kompresja bezstratna, a czym stratna, bo właśnie tu wkradają się najczęstsze nieporozumienia. Sygnał poddany kompresji bezstratnej i potem dekompresji nie zyskuje żadnych dodatkowych szumów ani zniekształceń – nie dodaje szumu kwantyzacji, nie wprowadza nowych harmonicznych, ani nie zmienia charakterystyki częstotliwościowej. Te efekty są typowe dla innych procesów: na przykład szum kwantyzacji pojawia się przy konwersji analog-cyfra lub przy zmianie rozdzielczości bitowej, a kompresja stratna (jak MP3) może powodować artefakty takie jak utrata drobnych detali czy powstawanie nieprzyjemnych zniekształceń, ale nie kompresja bezstratna. Dodatkowe harmoniczne to zjawisko związane z nieliniowymi zniekształceniami, najczęściej w torze analogowym albo przy przesterowaniu sygnału, a nie w procesach cyfrowych i bezstratnych. Podbicie pasma też raczej kojarzy się z korekcją barwy, nie z kompresją plików. Często mylimy pojęcia, bo codziennie używamy formatów stratnych i wtedy rzeczywiście jakość ucieka – ale to właśnie przewaga bezstratnych metod: zachowują oryginalną postać sygnału co do bita, co jest zapisane, to odtworzone. W praktyce, jeśli plik FLAC czy ALAC zostanie poprawnie zdekodowany, nie da się technicznie odróżnić go od oryginału, co jest zgodne z wymaganiami archiwizacji w branży muzycznej i radiowej. Warto pamiętać, że wszelkie modyfikacje czy degradacje pojawiają się dopiero wtedy, gdy korzystamy z formatów stratnych lub zmieniamy parametry konwersji, ale nie w przypadku bezstratnej kompresji i dekompresji.

Pytanie 29

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. De-esser.
B. Filtr LP.
C. De-noiser.
D. Ekspander.
De-esser to bardzo użyteczne narzędzie w obróbce dźwięku, szczególnie gdy mamy do czynienia z nagraniami lektorskimi czy wokalem. Jego główną rolą jest selektywna kompresja pasma częstotliwości, gdzie występują tzw. głoski syczące, czyli głównie „s”, „sz”, „cz” i podobne. Najczęściej są one zlokalizowane gdzieś w zakresie 4–10 kHz, choć wszystko zależy od charakterystyki głosu i mikrofonu. Moim zdaniem, dobrze ustawiony de-esser potrafi zdziałać cuda – usuwa drażniące podbicia sybilantów bez uszczerbku dla reszty nagrania. W praktyce realizatorskiej korzysta się z niego niemal zawsze przy nagraniach głosu, bo nawet bardzo dobre mikrofony studyjne „łapią” czasem zbyt mocne „syczenia”. To urządzenie nie tylko poprawia jakość odsłuchu, ale też sprawia, że głos jest bardziej zrozumiały i mniej męczący dla słuchacza. Poza tym, de-esser często jest wykorzystywany zgodnie z profesjonalnymi workflow w studiach radiowych, podcastowych czy przy produkcji audiobooków. Warto pamiętać, że używanie filtra LP czy de-noisera nie daje takich precyzyjnych efektów, bo one działają szerzej – de-esser skupia się typowo na bardzo wąskim paśmie i reaguje tylko wtedy, gdy poziom sybilantów przekracza ustalone threshold. Z mojego doświadczenia wynika, że regularne stosowanie de-essera to po prostu podstawa nowoczesnego miksu głosu. Warto nauczyć się go dobrze ustawiać, bo wtedy efekty są naprawdę profesjonalne.

Pytanie 30

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 32 000 Hz
B. 44 100 Hz
C. 48 000 Hz
D. 96 000 Hz
Często intuicja podpowiada, że im wyższa częstotliwość próbkowania, tym lepsza jakość dźwięku. Jednak nie zawsze jest to prawda – w praktyce liczy się przede wszystkim dopasowanie do najwyższej częstotliwości występującej w sygnale. Zgodnie z twierdzeniem Nyquista-Shannona, do idealnej rekonstrukcji sygnału wystarczy próbkować go z częstotliwością co najmniej dwukrotnie wyższą niż najwyższa składowa w widmie tego sygnału. W przypadku audio o maksymalnej częstotliwości 20 kHz daje to 40 kHz jako minimum. Wybierając 32 000 Hz, nie spełniamy tego warunku – taka wartość jest zdecydowanie za niska i prowadziłaby do zjawiska aliasingu, czyli nakładania się widm częstotliwości, co skutkuje słyszalnymi artefaktami i nieodwracalną utratą informacji o oryginalnym dźwięku. Z drugiej strony, bardzo popularne w systemach profesjonalnych wartości 48 000 Hz czy nawet 96 000 Hz, choć w pełni poprawne technicznie, nie są najniższymi możliwymi częstotliwościami, które pozwalają na poprawną digitalizację sygnału 20 kHz. Stosuje się je głównie w celu zapewnienia dodatkowej rezerwy jakości lub do zastosowań specjalistycznych, np. w audiofilskich produkcjach czy postprodukcji filmowej. Typowym błędem jest przekonanie, że im wyżej – tym lepiej, nie biorąc pod uwagę ekonomii przetwarzania: wzrost częstotliwości próbkowania oznacza większy rozmiar plików i większe wymagania wobec sprzętu, a korzyści z tego są często marginalne dla standardowego odbiorcy. Dlatego 44 100 Hz to wartość przyjęta za standard, szczególnie w kontekście płyt CD i większości popularnych formatów muzycznych. W praktyce oznacza to, że to właśnie ta wartość pozwala na bezstratną konwersję dźwięku z najwyższymi słyszalnymi częstotliwościami, niepotrzebnie nie obciążając systemu. Warto więc mieć tę zasadę gdzieś z tyłu głowy, bo pozwala ona unikać zarówno zbyt niskiego, jak i przesadnie wysokiego próbkowania, które nie wnosi realnej korzyści.

Pytanie 31

W którym z wymienionych systemów kodowania dźwięku nie wystąpi kanał centralny?

A. Mono
B. 6.1
C. 5.1
D. Stereo
Stereo to taki system kodowania dźwięku, który wykorzystuje dwa kanały – lewy i prawy. W praktyce oznacza to, że nie mamy tu wyodrębnionego kanału centralnego, jak w systemach wielokanałowych typu surround. Moim zdaniem to właśnie przez brak takiego dedykowanego środka wiele nagrań stereo brzmi bardziej „szeroko”, ale mniej precyzyjnie przy rozmieszczaniu dźwięku głosu czy efektów w przestrzeni przed słuchaczem. W standardzie stereo, używanym praktycznie wszędzie – od muzyki na YouTube, przez słuchawki komputerowe po starsze telewizory – nie znajdziesz śladu środkowego kanału. Dopiero technologie wielokanałowe, jak 5.1 czy 6.1, wprowadzają centralny głośnik, specjalnie do odwzorowania dialogów czy głównych wydarzeń na ekranie – to tzw. głośnik „center”. Według mnie to świetna sprawa, zwłaszcza w kinie domowym, bo dialogi są wtedy wyraźnie umieszczone na środku sceny dźwiękowej. W stereo da się symulować ten efekt miksując dźwięk równo do lewej i prawej, ale to nie to samo, bo brak oddzielnego toru sygnału. Przemysł muzyczny i filmowy trzyma się tych zasad od lat i raczej się to nie zmieni – stereo to dwa kanały i tylko dwa.

Pytanie 32

Które dane zawarte w dokumentacji montażowej przedstawia kod czasowy M:B:T zobrazowany przez licznik 00:00:000?

A. takty : ćwierćnuty : tiki
B. takty : ćwierćnuty : ósemki
C. minuty : sekundy : milisekundy
D. minuty : sekundy : ramki
W dokumentacji montażowej, szczególnie tej związanej z produkcją dźwięku czy montażem muzycznym, bardzo łatwo pomylić kod czasowy muzyczny z bardziej znanymi systemami pomiaru czasu, jak minuty, sekundy czy milisekundy. To dość częsty błąd, bo w codziennym życiu posługujemy się tymi jednostkami, a w programach do montażu wideo pojawiają się też ramki (frames). Jednak w świecie muzyki kod czasowy 00:00:000 wyrażony jako M:B:T (gdzie M to takty, B – ćwierćnuty, a T – tiki) odnosi się bezpośrednio do zapisu muzycznego, a nie do pomiaru upływu rzeczywistego czasu. Tik to najmniejsza możliwa podjednostka w takcie, często wykorzystywana przy precyzyjnym ustawianiu zdarzeń MIDI. Minuty, sekundy i milisekundy są typowe raczej dla edytorów audio lub wideo, gdzie ważniejsze są fizyczne ramy czasowe niż struktura rytmiczna. Ramki natomiast to pojęcie ściśle związane z montażem filmowym i synchronizacją obrazu z dźwiękiem, gdzie jedna sekunda dzieli się na określoną liczbę klatek. W zapisie muzycznym (szczególnie MIDI) nie stosuje się ani ramek, ani milisekund – bo granie idealnie w rytmie wymaga odniesienia do wartości muzycznych, a nie zegarka. Często pojawia się też mylenie tiki z ósemkami czy szesnastkami, ale to nie są te same jednostki – tiki są dużo drobniejsze. Z mojego doświadczenia wynika, że zrozumienie tego podziału pozwala lepiej kontrolować nawet najbardziej skomplikowane aranżacje czy automatykę efektów. Prawidłowe rozróżnianie tych systemów to podstawa profesjonalnego podejścia do produkcji muzyki i uniknięcia problemów przy eksporcie, synchronizacji czy dalszej obróbce materiału.

Pytanie 33

Która z wymienionych list umożliwia odnalezienie uprzednio zaznaczonego punktu na osi czasu w sesji oprogramowania DAW?

A. Lista markerów.
B. Lista ścieżek.
C. Lista grup.
D. Lista regionów.
Lista markerów w DAW to narzędzie, które, moim zdaniem, docenia każdy, kto chociaż raz próbował połapać się w większym projekcie muzycznym. Markery pozwalają oznaczyć konkretne punkty na osi czasu – np. wejście zwrotki, refren, miejsce na solówkę czy ważny moment do edycji. Co najważniejsze, lista markerów daje szybki dostęp do tych oznaczeń – nie trzeba przesuwać kursora przez całą sesję, wystarczy kliknąć odpowiedni wpis, żeby od razu przejść do zaznaczonego miejsca. W praktyce bardzo przyspiesza to pracę, szczególnie przy dużych aranżacjach, gdzie łatwo się zgubić. W branży to już standard, żeby używać markerów do organizacji sesji – niektórzy producenci wręcz polecają wrzucenie markera na każdą zmianę w utworze, żeby potem nie szukać po omacku. Warto pamiętać, że markery są zapisywane razem z projektem, więc nawet po dłuższym czasie można łatwo wrócić do kluczowych momentów. Szczerze powiedziawszy, trudno mi wyobrazić sobie efektywną pracę w DAW bez umiejętnego korzystania z listy markerów. To, moim zdaniem, jeden z filarów workflow w środowisku produkcji muzycznej – coś, co po prostu trzeba znać, jeśli chce się pracować szybko i bez frustracji.

Pytanie 34

Jaki jest przybliżony rozmiar nieskompresowanego stereofonicznego pliku dźwiękowego o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów?

A. Około 5 MB
B. Około 30 MB
C. Około 10 MB
D. Około 20 MB
W tej sytuacji wybrano rozmiar około 20 MB i to jest właśnie poprawne podejście – wszystko wynika z prostych obliczeń i trochę znajomości branżowych standardów. Plik audio o parametrach: 44,1 kHz, 16 bitów, stereo, to tak naprawdę klasyczne ustawienie dla jakości płyt CD Audio, no i w ogóle bardzo często spotykane w produkcji muzyki albo podcastów. Liczysz to w ten sposób: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały × 120 sekund. Szybko wychodzi: 44 100 × 2 × 2 × 120 = 21 168 000 bajtów, czyli mniej więcej 21 MB (przy zamianie na megabajty dzielisz przez 1 048 576). Owszem, czasami ktoś zaokrągla do 20 MB, bo nie liczy nagłówków pliku WAV czy AIFF, ale do praktycznych zastosowań to wystarcza. Takie pliki WAV są często używane przy obróbce dźwięku, bo nie tracą nic na jakości w przeciwieństwie do MP3, no i każdy program do montażu czy rejestrator spokojnie sobie z nimi radzi. Moim zdaniem, warto pamiętać takie wyliczenia, bo potem łatwiej dobrać miejsce na dysku, zwłaszcza jak się nagrywa dłuższe projekty. W branży IT i audio przyjęło się, że 44,1 kHz/16 bitów stereo to taki trochę złoty środek między jakością a rozmiarem – choć dziś już można używać większych parametrów, to do codziennej pracy to w zupełności wystarcza.

Pytanie 35

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Mini Disc
C. Dysk SSD
D. Karta SDHC
Mini Disc to ciekawy przykład technologii, która łączy świat magnetyczny z optycznym. Nośniki tego typu, wprowadzone przez Sony w latach 90., wykorzystują zapis magnetooptyczny – dane są zapisywane poprzez nagrzanie warstwy magnetycznej wiązką lasera, a następnie zmianę kierunku namagnesowania za pomocą pola magnetycznego. Takie podejście zapewnia dość wysoką trwałość zapisu oraz odporność na uszkodzenia mechaniczne, przynajmniej w porównaniu do klasycznych kaset czy płyt CD. W praktyce Mini Diski przez wiele lat wykorzystywane były w branży audio, zwłaszcza przez dziennikarzy i muzyków – bardzo ceniono je za możliwość wielokrotnego zapisu bez utraty jakości. Moim zdaniem to w ogóle było fajne rozwiązanie, bo łączyło zalety magnetycznych kaset (możliwość kasowania i ponownego nagrywania) z bardziej nowoczesnymi funkcjami optycznych płyt (szybki dostęp do utworów, cyfrowa jakość dźwięku). Dzięki temu Mini Disc wyprzedzał nieco swoje czasy, a obecnie jest ciekawostką technologiczną, z której można wyciągnąć sporo inspiracji przy analizie różnych metod przechowywania danych. W branżowych standardach zapis magnetooptyczny pojawia się jeszcze np. w droższych rozwiązaniach archiwizacyjnych dla firm, ale dla zwykłego użytkownika Mini Disc był najbardziej znanym nośnikiem tego typu.

Pytanie 36

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby TrueHD
B. Dolby AC3
C. Dolby Digital
D. Dolby Digital EX
Dolby TrueHD to faktycznie format wielokanałowej, bezstratnej kompresji dźwięku, który bardzo często spotyka się w domowych systemach kina domowego, a także na płytach Blu-ray. Co ciekawe, moim zdaniem jest to jeden z najbardziej zaawansowanych technologicznie kodeków audio dostępnych dla użytkowników końcowych. Dzięki zastosowaniu technologii bezstratnej kompresji, Dolby TrueHD pozwala na zachowanie jakości dźwięku identycznej z oryginalnym zapisem studyjnym – żaden szczegół nie ginie, nie ma żadnych strat jakości jak w przypadku formatów stratnych takich jak Dolby Digital. W praktyce, jeżeli zależy komuś na słuchaniu muzyki czy oglądaniu filmów z dźwiękiem przestrzennym naprawdę najwyższej jakości (np. 7.1 kanałów), to właśnie TrueHD jest jednym z najlepszych wyborów. Warto dodać, że ten format jest zgodny ze standardem HDMI, co ułatwia integrację z nowoczesnym sprzętem AV. Z mojego doświadczenia, osoby wykorzystujące Dolby TrueHD często podkreślają, że różnica w detaliczności i dynamice dźwięku jest słyszalna nawet na lepszych soundbarach, nie mówiąc już o rozbudowanych systemach głośnikowych. To nie jest taki zwykły kodek jak AC3 – to już wyższa liga, jeśli chodzi o jakość i zastosowanie w branży.

Pytanie 37

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Invert
B. Cut
C. Crossfade
D. Gain
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 38

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 1|2|000
B. 2|3|240
C. 4|2|400
D. 3|4|350
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 39

Którą wartość częstotliwości próbkowania należy ustawić w programie archiwizującym, aby zapisać materiał dźwiękowy w formacie zgodnym z CD Audio?

A. 196 000 Hz
B. 98 000 Hz
C. 44 100 Hz
D. 48 000 Hz
Odpowiedź 44 100 Hz to absolutna klasyka, jeśli chodzi o format CD Audio. To właśnie ta częstotliwość próbkowania została przyjęta jako standard już w latach 80., kiedy powstawały pierwsze płyty kompaktowe. Próbkowanie na poziomie 44 100 Hz oznacza, że każda sekunda nagrania zamienia się na aż 44 100 próbek dźwięku. Taki wybór nie jest przypadkowy – wynika z teorii Nyquista, która mówi, że żeby wiernie odtworzyć sygnał o określonej częstotliwości, trzeba próbkować go co najmniej dwa razy częściej niż jego najwyższa składowa. Ludzkie ucho słyszy zwykle do 20 kHz, więc 44,1 kHz daje bezpieczny margines. W praktyce, jeśli chcesz stworzyć plik perfekcyjnie zgodny ze standardem CD Audio, nie możesz ustawić innej częstotliwości. To jest wymóg branżowy, każda tłocznia płyt czy studio masteringu od razu rozpozna materiał przygotowany w nieodpowiednich parametrach. Warto dodać, że dziś, mimo dostępności dużo wyższych częstotliwości, większość nagrań muzycznych przeznaczonych do wydania na CD nadal trzyma się tej wartości. Częstotliwość próbkowania 44 100 Hz to swego rodzaju złoty środek – zapewnia dobrą jakość i kompatybilność ze sprzętem odtwarzającym. Moim zdaniem, jeżeli zależy komuś na uniwersalności i „pewniakach” w audio, to 44,1 kHz zawsze będzie bezkonkurencyjny w przypadku płyt CD.

Pytanie 40

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 64 kb/s (24 kHz)
B. 256 kb/s (48 kHz)
C. 320 kb/s (48 kHz)
D. 32 kb/s (12 kHz)
Wybór parametrów 320 kb/s (48 kHz) faktycznie zapewnia najwyższą możliwą jakość dźwięku w formacie mp3, zgodnie z obecnymi standardami branżowymi. Im wyższy bitrate, tym więcej danych o dźwięku jest przechowywanych w pliku, co przekłada się na mniejsze straty kompresji i naturalniejsze brzmienie. 320 kb/s to maksymalny bitrate przewidziany dla mp3 i szczerze mówiąc, różnica pomiędzy tym a niższymi przepływnościami jest bardzo wyraźna zwłaszcza na wysokiej klasy sprzęcie audio czy przy odsłuchu muzyki orkiestrowej, gdzie szczegóły i dynamika mają ogromne znaczenie. Częstotliwość próbkowania 48 kHz jest natomiast standardem np. w produkcji filmowej czy telewizyjnej i pozwala wierniej odtworzyć wysokie częstotliwości dźwięku – po prostu mniej się traci podczas konwersji, szczególnie jeśli źródło też było nagrywane w tej częstotliwości. Moim zdaniem to jest szczególnie istotne tam, gdzie komuś zależy na archiwizowaniu lub profesjonalnym wykorzystaniu materiału audio. Oczywiście dla zwykłego słuchania w samochodzie czy na telefonie czasem nie ma sensu przesadzać z wysokim bitrate, ale do zastosowań profesjonalnych lub gdy zależy nam na jak najmniejszych zniekształceniach, 320 kb/s (48 kHz) to zdecydowanie najlepszy wybór. Warto wiedzieć, że niższe bitrate często powodują tzw. artefakty kompresji, szczególnie słyszalne w cichych fragmentach utworów lub przy złożonych dźwiękach. Z mojego doświadczenia – lepiej mieć pliki trochę większe, ale bez kompromisów na jakości.