Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 23 kwietnia 2026 11:56
  • Data zakończenia: 23 kwietnia 2026 11:56

Egzamin niezdany

Wynik: 0/40 punktów (0,0%)

Wymagane minimum: 20 punktów (50%)

Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Jaki jest przybliżony odstęp czasowy pomiędzy kolejnymi próbkami dźwięku cyfrowego, jeśli częstotliwość próbkowania dźwięku wynosi 48 kHz?

A. 0,02 ms
B. 20 ms
C. 0,2 ms
D. 2 ms

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odstęp czasowy pomiędzy kolejnymi próbkami dźwięku przy częstotliwości 48 kHz wynosi dokładnie 1/48000 sekundy, czyli około 0,0208 ms. To jest wartość bardzo mała, ale właśnie tak działa współczesna cyfrowa rejestracja dźwięku – im większa częstotliwość próbkowania, tym krótszy czas między próbkami i tym lepsza jakość odwzorowania sygnału analogowego. W praktyce 48 kHz to standard w audio-wideo (np. produkcja filmowa, nagrania do telewizji, profesjonalne rejestratory), bo umożliwia uzyskanie wysokiej jakości dźwięku przy relatywnie niskim ryzyku zniekształceń wynikających z aliasingu. Naprawdę, wiele interfejsów audio ma domyślnie ustawione właśnie 48 kHz, bo to taki złoty środek między jakością a wydajnością systemu. Często można spotkać wyższe częstotliwości jak 96 kHz, ale to już bardziej domena studiów nagrań „audiofilskich”. Moim zdaniem dobrze jest znać ten przelicznik, bo czasami trzeba ręcznie ustawić parametry konwersji – wtedy łatwo się pomylić, jeśli nie rozumie się, skąd się bierze taki krótki czas pomiędzy próbkami. Warto jeszcze dodać, że błędne ustawienie próbkowania prowadzi do utraty wysokich częstotliwości lub do zniekształceń, które są słyszalne nawet dla niewprawionego ucha. To niby mały parametr, a rzutuje na całe brzmienie nagrania.

Pytanie 2

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. GLUE
B. PASTE
C. CROSSFADE
D. MERGE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Crossfade to jedna z tych funkcji, bez których trudno wyobrazić sobie profesjonalną pracę w DAW-ie, zwłaszcza kiedy obrabia się pliki audio i zależy nam na płynnym przejściu pomiędzy dwoma ścieżkami. Efekt crossfade polega na jednoczesnym wyciszaniu jednej ścieżki dźwiękowej i narastaniu drugiej – dzięki temu nie słychać żadnych klików, nieprzyjemnych przeskoków czy nagłych zmian głośności. Takie rozwiązanie jest standardem nie tylko w muzyce, ale też w postprodukcji filmowej czy radiowej, bo daje bardzo naturalne, „ludzkie” wrażenie płynności. Moim zdaniem, każda osoba, która poważnie myśli o miksowaniu lub edycji dźwięku, powinna ogarnąć temat crossfade’ów jak najszybciej, bo to skraca pracę i pozwala uniknąć żmudnego, ręcznego dopasowywania krzywych głośności. Branżowe DAWy, takie jak Ableton, Cubase, czy Pro Tools, mają opcje crossfade’ów dostępne praktycznie od ręki – często wystarczy po prostu zaznaczyć dwa sąsiadujące klipy audio i kliknąć odpowiednią funkcję. Dobrze wykonany crossfade pozwala nie tylko usunąć trzaski, ale też kreatywnie łączyć różne próbki, np. perkusyjne lub wokalne. Najlepsi realizatorzy dźwięku korzystają z tego codziennie i zwracają uwagę nawet na kształt krzywej crossfade’u (logarytmiczna, liniowa, eksponencjalna), żeby mieć pełną kontrolę nad charakterem przejścia. Warto też pamiętać, że crossfade nie ingeruje w oryginalny materiał, tylko nakłada efekt na styku klipów, co daje sporą swobodę edycyjną.

Pytanie 3

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Split
C. Mute
D. Lock

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wyciszenie (Mute) regionu w programie DAW to podstawa codziennej pracy producenta czy realizatora dźwięku. To właśnie ta funkcja pozwala na szybkie wyłączenie z odtwarzania konkretnego fragmentu materiału – bez potrzeby jego usuwania czy przesuwania. Bardzo często wykorzystuje się to podczas aranżacji piosenki, kiedy eksperymentujemy z różnymi kombinacjami ścieżek, chcąc np. sprawdzić, jak utwór zabrzmi bez wybranego instrumentu lub wokalu w danym fragmencie. Z mojego doświadczenia, mute jest też niezastąpiony przy edycji nagrań – jeśli trafia się fragment z jakimś błędem lub niepożądanym dźwiękiem, wyciszenie regionu pozwala szybko zapanować nad chaosem i skupić się na właściwej części projektu. Branżowe standardy jasno wskazują, że użycie mute jest bezpieczniejsze niż kasowanie, bo umożliwia cofnięcie decyzji w każdej chwili. Bardzo polecam korzystać z tego narzędzia zamiast pochopnego kasowania klipów – można potem wrócić do oryginału, jeśli koncepcja się zmieni. W praktyce większość DAW-ów (np. Cubase, Logic, Pro Tools) pozwala wyciszyć pojedyncze regiony, a nie tylko całe ścieżki, więc rozwiązanie jest bardzo elastyczne. Warto też pamiętać, że domyślny skrót do mute różni się między programami, więc dobrze sobie to skonfigurować, by nie tracić czasu w pracy.

Pytanie 4

Który z wymienionych nośników jest nośnikiem analogowym?

A. Płyta DVD
B. Kaseta CC
C. Płyta CD
D. Kaseta DAT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kaseta CC, czyli popularna „kaseta magnetofonowa”, to klasyczny przykład nośnika analogowego. Jej działanie opiera się na magnetycznym zapisie sygnału analogowego, czyli płynnie zmieniającego się w czasie sygnału dźwiękowego. Moim zdaniem, właśnie ta płynność odróżnia nośniki analogowe od cyfrowych – na kasecie nie znajdziesz zer i jedynek, a raczej ciągłą ścieżkę namagnesowania, odpowiadającą oryginalnemu przebiegowi dźwięku. W praktyce znaczy to, że odtwarzanie muzyki z kasety CC może dawać charakterystyczne szumy i zniekształcenia, ale też taki „ciepły” dźwięk, na który niektórzy audiofile narzekają, a inni go uwielbiają. W branży technicznej kasety były standardem archiwizacji i przenoszenia dźwięku przez wiele lat – szczególnie w latach 80. i 90. Nadal można spotkać je w archiwach radiowych czy prywatnych kolekcjach. Co ciekawe, standard kasety CC został opracowany już w 1963 roku przez firmę Philips i przez dekady doczekał się wielu ciekawych rozwiązań, jak np. system Dolby do redukcji szumów. Dziś kasety są trochę zapomniane, ale ich analogowy charakter świetnie obrazuje, czym różnią się media analogowe od cyfrowych – właśnie w sposobie zapisu i odtwarzania informacji. Takie nośniki wymagają mechanicznej głowicy, która „czyta” zmiany pola magnetycznego na taśmie, co jest zupełnie innym podejściem niż w przypadku płyt CD czy DVD. Używanie kaset uczy szacunku do fizycznych ograniczeń mediów i pokazuje, jak wyglądała praca z dźwiękiem zanim weszliśmy w cyfrową erę. Z mojego doświadczenia wynika, że nawet dzisiaj warto znać zasady działania takich nośników, bo daje to dobre podstawy do zrozumienia rozwoju techniki zapisu danych.

Pytanie 5

Jakie dane zawarte w dokumentacji montażowej przedstawia kod czasowy SMPTE, zobrazowany przez licznik 00:00:00:00?

A. Godziny : minuty : sekundy : ramki.
B. Takty : ćwierćnuty : szesnastki : tiki.
C. Godziny : minuty : sekundy : milisekundy.
D. Takty : ćwierćnuty : ósemki : szesnastki.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kod czasowy SMPTE, który zapisuje się w formacie 00:00:00:00, to naprawdę jeden z najważniejszych standardów synchronizacji w branży audiowizualnej. Oznaczenia: godziny, minuty, sekundy i ramki (frames) precyzyjnie określają pozycję konkretnego zdarzenia w materiale wideo lub audio pod względem czasu i klatki. To właśnie ta czwarta wartość – ramki – odróżnia SMPTE od innych kodów czasowych, np. tych typowo muzycznych. Dzięki temu montażysta, realizator dźwięku albo grafik komputerowy może dokładnie odnaleźć, wyciąć lub wkleić fragment tam, gdzie trzeba – co do jednej klatki. W praktyce, na przykład przy składaniu filmu fabularnego, synchronizacja dialogów czy efektów specjalnych z obrazem opiera się na tych liczbach. Z mojego doświadczenia, używanie SMPTE to absolutna podstawa podczas pracy w programach typu Adobe Premiere Pro, DaVinci Resolve czy Pro Tools – wszędzie tam licznik startuje właśnie od 00:00:00:00 i pozwala na dokładność, której żaden system oparty na taktach czy milisekundach nie zapewni. SMPTE jest również zgodny z międzynarodowymi standardami nadawania (np. EBU czy AES), co ułatwia współpracę między różnymi działami produkcji. Warto pamiętać, że liczba klatek na sekundę (np. 24, 25, 30) zależy od formatu materiału, ale sam wzór zawsze pozostaje taki sam. Ten sposób notacji jest jednym z filarów profesjonalnej postprodukcji.

Pytanie 6

W jakim formacie plików występują znaczniki ID3?

A. .bwf
B. .aiff
C. .wav
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.

Pytanie 7

Który z przedstawionych kodów, będący częścią dokumentacji montażowej, ułatwia rozliczanie praw autorskich?

A. ISRC
B. MTC
C. SMPTE
D. EAN

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś ISRC i to jest dobry trop, bo to właśnie ten kod ma kluczowe znaczenie przy rozliczaniu praw autorskich w branży muzycznej i audiowizualnej. ISRC, czyli International Standard Recording Code, jest takim trochę „numerem PESEL” dla nagrań dźwiękowych lub wideoklipów – identyfikuje każde nagranie w sposób jednoznaczny, niezależnie od tego, ile razy i w jakiej formie zostanie wydane. W praktyce, gdy utwór pojawia się np. na Spotify czy YouTube albo jest odtwarzany w radiu, to właśnie po ISRC organizacje zbiorowego zarządzania jak ZAiKS czy ZPAV rozliczają tantiemy. Bez tego kodu śledzenie praw do utworu byłoby totalnym chaosem, szczególnie jak tych nagrań są tysiące. Cały świat muzyczny opiera się na tej standaryzacji, bo pozwala wyeliminować nieporozumienia przy przepływie pieniędzy za emisję czy sprzedaż. Na przykład w profesjonalnej dokumentacji montażowej dołączasz ISRC do każdego pliku audio, bo to bardzo pomaga księgowym i prawnikom. Co ciekawe, kody ISRC są przydzielane przez uprawnione organizacje i nie można ich sobie wymyślić samodzielnie – to ważny element całego procesu wydawniczego i potem dystrybucji cyfrowej. Moim zdaniem, znajomość zasad nadawania ISRC i roli tego kodu to dzisiaj absolutna podstawa dla każdego, kto myśli na poważnie o pracy w realizacji dźwięku czy produkcji muzycznej. Szkoda, że wciąż tak wielu początkujących twórców nie zwraca na to uwagi, a potem pojawiają się niepotrzebne komplikacje przy rozliczeniach.

Pytanie 8

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wfm
B. .ptx
C. .mid
D. .wav

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W plikach o rozszerzeniu .wfm zapisywane są dane dotyczące obwiedni (ang. waveform) regionów audio w aplikacjach typu DAW, czyli cyfrowych stacjach roboczych do obróbki dźwięku. Moim zdaniem ten format jest często niedoceniany, bo niby tylko „obrazki”, ale bez nich trudno byłoby wygodnie edytować dźwięk. DAWy takie jak Pro Tools generują pliki .wfm automatycznie – dzięki temu podczas pracy z dużymi sesjami, nawet z wieloma ścieżkami, wyświetlanie przebiegów falowych pozostaje płynne. To jest ogromna pomoc, zwłaszcza gdy robisz szybkie cięcia albo musisz na oko znaleźć transienty czy inne szczegóły w zapisie dźwięku. Pliki .wfm nie zawierają samego audio, lecz tylko dane do wizualizacji – taka „mapka” falowa, która pozwala na szybkie zorientowanie się, co się dzieje w regionie bez konieczności analizowania pełnego pliku .wav. To praktyka zgodna z dobrą organizacją workflow – oddzielanie danych użytkowych od metadanych wizualnych przyspiesza ładowanie sesji i ułatwia współpracę kilku osób nad jednym projektem. Z mojego doświadczenia, kiedy .wfm są usunięte lub uszkodzone, DAW musi je wygenerować od nowa, co potrafi zająć trochę czasu przy większych projektach. Znajomość tego formatu to podstawa, jeśli chcesz świadomie zarządzać plikami projektów audio na poziomie technicznym.

Pytanie 9

Wielokanałowy format dźwięku przestrzennego 5.1 nie zawiera kanału

A. centralnego tylnego.
B. subbasowego.
C. centralnego przedniego.
D. surround L/R.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format 5.1 to obecnie jeden z najpopularniejszych standardów dźwięku przestrzennego wykorzystywany w kinie domowym, grach czy transmisjach telewizyjnych. Składa się z sześciu kanałów: lewy przedni, prawy przedni, centralny przedni, lewy surround, prawy surround oraz subbasowy (czyli ten .1, od Low Frequency Effects). Kluczowe jest to, że nie przewiduje się tu czegoś takiego, jak centralny tylny kanał – to pojawia się dopiero w bardziej rozbudowanych systemach jak 6.1 lub 7.1. Moim zdaniem to dobrze pokazuje, jak czasem łatwo się pomylić, bo nazwy mogą być mylące – „centralny” kojarzy się z przodem, a „tylny” z dodatkowymi kanałami. W praktyce, kiedy ustawiasz kino domowe, właśnie te dwa kanały surround (lewy i prawy) odpowiadają za efekt przestrzenności za słuchaczem, ale nie są to kanały centralne. Standard Dolby Digital oraz DTS rzeczywiście mówią wprost: tylko jeden centralny (przedni). Z mojego doświadczenia wynika, że nawet profesjonaliści czasem mają z tym problem i szukają czegoś, czego nie ma w 5.1. Warto o tym pamiętać zwłaszcza przy projektowaniu instalacji audio lub przy pracy z mikserami cyfrowymi.

Pytanie 10

Aby zapętlić odtwarzanie fragmentu dźwięku na ścieżce w sesji oprogramowania DAW, należy użyć polecenia

A. loop.
B. snap.
C. freeze.
D. merge.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Funkcja 'loop' to jedna z podstawowych i najczęściej używanych opcji w każdym szanującym się DAW-ie. Dzięki niej możesz powtarzać wybrany fragment ścieżki tyle razy, ile tylko chcesz – to mega wygodne podczas miksowania, aranżacji, czy nawet samego nagrywania. W praktyce wygląda to tak: zaznaczasz sobie konkretny zakres na timeline, włączasz tryb loop i możesz bez końca słuchać tego samego fragmentu, co jest genialne np. przy edycji bitu, dogrywaniu wokali czy testowaniu efektów. Moim zdaniem to narzędzie absolutnie niezbędne dla każdego, kto chce pracować szybko i sprawnie, bez ciągłego przewijania czy ręcznego odpalania tego samego miejsca. To jest też standard w workflow – praktycznie każda sesja produkcyjna, jaką widziałem, korzysta z loopowania, choćby przy pracy nad sekcją perkusyjną. Warto też pamiętać, że funkcja loop w DAW-ach często jest powiązana z innymi opcjami, np. automatyzacją czy quantizacją, dzięki czemu można łatwo testować różne rozwiązania bez rozwalania całej aranżacji. Trochę zabawne, ile razy widziałem, jak ktoś zapomina o tej funkcji i męczy się z ręcznym odtwarzaniem fragmentów – szkoda czasu, naprawdę. Dobrą praktyką jest też ustawianie loopa na krótkie fragmenty przy dokładnym montażu lub korekcji błędów w nagraniu. No i na koniec: praktycznie wszystkie popularne DAW-y mają przycisk lub skrót klawiszowy do loopowania, więc warto się tego nauczyć na pamięć, bo to sporo usprawnia pracę.

Pytanie 11

Nową sesję montażową oprogramowania DAW można utworzyć poprzez menu

A. Edit
B. Window
C. File
D. View

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór opcji File w menu DAW to zdecydowanie standard, jeśli chodzi o tworzenie nowej sesji montażowej. W praktycznie każdym szanowanym programie do produkcji muzycznej, czy to Pro Tools, Cubase, Ableton Live, czy Reaper, właśnie tam znajdziesz funkcję 'New Session', 'New Project' lub coś w tym stylu. To swego rodzaju wzorzec interfejsu użytkownika, który się przyjął w oprogramowaniu tego typu. Moim zdaniem, to całkiem logiczne – w końcu wszystkie operacje związane z plikami, takie jak otwieranie, zapisywanie, import czy eksport, są zebrane właśnie pod File. Praktyczne korzystanie z DAW wymaga szybkiego orientowania się, gdzie co jest. Dzięki temu rozwiązaniu – wiadomo od razu, gdzie szukać. Nawet jak zmienisz program, nie zaskoczy Cię układ menu. W branży uważa się, że klarowność interfejsu i trzymanie się przyjętych schematów jest bardzo ważna, bo przyspiesza pracę – a w studiu czas to pieniądz. Można tu dodać, że nową sesję zawsze dobrze jest od razu odpowiednio nazwać i ustawić lokalizację zapisu, żeby potem nie szukać plików po całym dysku. To naprawdę pomaga w zachowaniu porządku, szczególnie jak masz dużo projektów. Krótko mówiąc – File to podstawa przy organizacji pracy w DAW, więc wybór tej opcji to nie tylko poprawna, ale i bardzo praktyczna decyzja.

Pytanie 12

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. FX
C. AUX
D. MASTER

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 13

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + C
B. Ctrl + X
C. Ctrl + V
D. Ctrl + Z

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 14

Urządzenie pomiarowe służące do wizualnej prezentacji rozkładu natężenia tonów składowych dźwięku w zależności od ich częstotliwości to

A. analizator widma.
B. normalizer panoramy.
C. wskaźnik VU.
D. miernik RMS.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Analizator widma to narzędzie, bez którego trudno wyobrazić sobie poważną pracę z dźwiękiem w studiu czy podczas nagłośnień scenicznych. Jego podstawową zaletą jest to, że pozwala dosłownie zobaczyć, jak rozkładają się poszczególne częstotliwości w sygnale audio. Dzięki temu szybko można wychwycić niepożądane podbicia czy braki w określonych pasmach – co jest istotne np. przy korekcji graficznej lub parametrycznej. W praktyce analizator widma używa się zarówno podczas miksowania muzyki, jak i przy masteringu, czy nawet kalibracji systemów nagłośnieniowych w dużych salach. Niezależnie od formy – czy to jest fizyczny sprzęt, czy plugin w DAW-ie – pozwala on na bieżąco obserwować, jak zmiany wprowadzone korektorem, kompresorem albo nawet samą aranżacją przekładają się na rozkład energii w paśmie akustycznym. To jest w sumie jeden z najlepszych sposobów, by nauczyć się świadomie panować nad brzmieniem – teorii akustyki można sporo wyczytać, ale dopiero zobaczenie tego na ekranie robi różnicę. W branży przyjęło się, żeby regularnie korzystać z analizatora, bo subiektywna ocena ucha często bywa niewystarczająca, zwłaszcza w trudnych warunkach odsłuchowych lub przy pracy z materiałem o dużej dynamice. Moim zdaniem to urządzenie, które spina teorię i praktykę w jedną całość.

Pytanie 15

W nagraniu zakłócenia w postaci szumów należy redukować z zastosowaniem procesu

A. Dither
B. Noise Reduction
C. Compression
D. HPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Noise Reduction to specjalistyczny proces, który służy właśnie do redukcji szumów w nagraniach – czy to głosu, czy instrumentów, czy ogólnie w miksie. Cały myk polega na tym, że systemy do redukcji szumów analizują sygnał i starają się usunąć tylko to, co uznają za niepożądane zakłócenia, jak np. szum tła, szum taśmy, buczenie czy nawet szumy wynikające z pracy urządzeń czy kiepskich kabli. W praktyce Noise Reduction stosuje się na etapie postprodukcji, często w programach typu DAW (np. Adobe Audition, Izotope RX – swoją drogą RX to czołówka jeśli chodzi o naprawianie nagrań). Bardzo ważne jest, by nie przesadzić z redukcją, bo wtedy brzmi to nienaturalnie, czasem pojawiają się artefakty i nagranie robi się takie... plastikowe. W branży standardem jest, żeby najpierw zadbać o czyste źródło (dobry mikrofon, izolacja akustyczna), a dopiero potem, jeśli coś w nagraniu zostało, działać za pomocą Noise Reduction. Moim zdaniem, jeśli ktoś poważnie podchodzi do produkcji audio, powinien umieć korzystać z tego typu narzędzi, bo one naprawdę ratują skórę, np. kiedy nagranie robione było w trudnych warunkach terenowych albo ze sprzętem nie najwyższych lotów. Dodatkowo, Noise Reduction to nie tylko filtry – to często zaawansowane algorytmy, które porównują fragmenty ciszy i sygnału, ucząc się, co jest szumem. To jest zupełnie inne podejście niż zwykły EQ czy kompresja.

Pytanie 16

Jaką maksymalną ilość danych można zapisać na płycie CD-Audio?

A. 716800 kB
B. 50 GB
C. 7000000 kB
D. 900 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
No i właśnie o to chodzi! Płyta CD-Audio, zgodnie ze standardem Red Book (czyli tym oryginalnym dla płyt kompaktowych audio), pozwala na zapisanie maksymalnie około 716 800 kB danych, co w praktyce przekłada się na 700 MB. Ten rozmiar to efekt ograniczeń technologicznych i specyfikacji przyjętej jeszcze pod koniec lat 70. XX wieku. Ciekawostka: to umożliwia zapisanie mniej więcej 80 minut muzyki w jakości 16-bit/44,1 kHz stereo, co przez lata było standardem w branży muzycznej. Praktycznie, większość stacjonarnych odtwarzaczy CD nie radzi sobie z płytami o większej pojemności. W codziennym użytkowaniu często spotykasz się z płytami CD-R lub CD-RW, które też deklarują 700 MB pojemności – co jest równoznaczne z tym 716 800 kB, tylko inaczej zapisane. Jeśli musisz archiwizować dźwięk lub przenosić pliki audio, dobrze pamiętać, że większą ilość danych musisz już wrzucać na DVD albo dyski zewnętrzne, bo tradycyjna płyta CD-Audio po prostu nie da rady. Moim zdaniem, świadomość tych ograniczeń pomaga lepiej planować archiwizację i backupy, szczególnie przy pracy z większymi kolekcjami muzycznymi lub projektami dźwiękowymi.

Pytanie 17

Aby uniknąć ewentualnych zniekształceń nieliniowych w montowanym materiale dźwiękowym, należy na bieżąco obserwować

A. zmianę dynamiki odtwarzanych dźwięków.
B. pasmo częstotliwościowe odtwarzanych dźwięków.
C. poziom szczytowy odtwarzanego dźwięku.
D. poziom tła towarzyszącego nagraniu.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Poziom szczytowy odtwarzanego dźwięku to absolutna podstawa, jeśli chodzi o kontrolę jakości w montażu audio. Chodzi o to, że każde urządzenie – czy to mikser, interfejs, DAW, czy wzmacniacz – ma pewien maksymalny poziom sygnału, po przekroczeniu którego pojawiają się zniekształcenia nieliniowe, zwane potocznie przesterowaniem. Dlatego właśnie, kiedy miksujesz albo edytujesz dźwięk, zawsze trzeba patrzeć na wskaźniki peaków (czyli poziomów szczytowych)! To one pokazują, czy przypadkiem nie wchodzisz na czerwone pole, gdzie sygnał jest już za mocny i zaczyna się zniekształcać. Z mojego doświadczenia najlepiej ustawiać tak poziomy, żeby nigdy nie przekraczać 0 dBFS na sumie – wtedy masz pewność, że nie popsujesz jakości nagrania. W praktyce, w profesjonalnych studiach, często zostawia się jeszcze zapas, czyli tzw. headroom, żeby mieć margines bezpieczeństwa. To pozwala uniknąć sytuacji, gdzie nagle coś głośno wybuchnie w miksie i całość się przesteruje. Dobrym nawykiem jest nie tylko patrzenie na wskaźnik, ale też raz na jakiś czas posłuchać, czy coś się nie "charczy". Kontrola peaków to jeden z filarów pracy realizatora dźwięku, no i taka wiedza przydaje się nawet przy prostych projektach domowych.

Pytanie 18

Procesor dźwięku realizujący efekt echo wpływa na

A. wysokość przetwarzanych dźwięków.
B. pasmo częstotliwości przetwarzanego sygnału.
C. przestrzenność materiału muzycznego.
D. dynamikę przetwarzanego sygnału.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 19

Rodzaj kodeka użytego przy konwersji pliku dźwiękowego można rozpoznać

A. po rozmiarze.
B. po rozszerzeniu nazwy.
C. po nazwie.
D. po czasie trwania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie nazwy pliku to w praktyce najprostszy i najczęściej spotykany sposób na szybkie rozpoznanie, jaki kodek został użyty do zakodowania danego pliku dźwiękowego. Przykładowo, rozszerzenie .mp3 niemal zawsze oznacza, że plik został zakodowany z użyciem kodeka MPEG-1 Layer III (popularnie znanego jako MP3), natomiast .flac wskazuje na bezstratny kodek FLAC, a .aac to zazwyczaj kodek Advanced Audio Coding. W codziennej pracy technika informatyk czy nawet zwykłego użytkownika, spojrzenie na rozszerzenie pliku pozwala szybko ocenić, jakie programy mogą go odtworzyć lub jakie urządzenia będą z nim kompatybilne. Warto pamiętać, że rozszerzenie nie zawsze jest stuprocentowo pewnym wskaźnikiem - plik można nazwać dowolnie, ale w praktyce większość systemów operacyjnych i programów trzyma się tej konwencji, bo to ułatwia życie. Moim zdaniem rozszerzenia są jednym z podstawowych narzędzi rozpoznawania formatu pliku, zwłaszcza w środowiskach Windows czy Linux, gdzie asocjacje plików są oparte właśnie na nich. W branży multimedialnej to rozszerzenie jest pierwszym miejscem, gdzie zaglądasz, chcąc szybko się dowiedzieć, z czym masz do czynienia. Oczywiście, dla pełnej pewności warto czasem skorzystać z narzędzi typu MediaInfo, które jeszcze dokładniej pokażą, jakim kodekiem plik został zakodowany, ale na co dzień rozszerzenie po prostu wystarcza. Standardy organizacji takich jak ISO/IEC lub ITU rekomendują utrzymywanie spójności rozszerzeń plików, co jeszcze bardziej podkreśla wagę tej metody w praktyce.

Pytanie 20

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Scenariusz.
B. Rider techniczny.
C. Partytura.
D. Lista znaczników.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To właśnie scenariusz jest podstawą literacką, od której zaczyna się cała przygoda z produkcją słuchowiska radiowego. Bez tego żaden reżyser, realizator czy zespół aktorski nie miałby wyjściowego materiału do pracy. Scenariusz słuchowiskowy nie tylko zawiera teksty dialogów i monologów, ale także precyzyjnie opisuje dźwięki tła, efekty specjalne, momenty muzyczne czy pauzy. Co ciekawe, dobry scenariusz często rozpisuje nawet nastrój scen i emocje bohaterów – to bardzo pomaga aktorom, ale i realizatorom dźwięku. W praktyce, w branży radiowej scenariusz jest dokumentem centralnym, wokół którego kręci się cała produkcja. Bez niego trudno byłoby zachować spójność fabularną, dramaturgiczną i techniczną. Moim zdaniem, umiejętność czytania i interpretacji scenariusza to naprawdę podstawa w pracy przy słuchowiskach – wielu młodych realizatorów zapomina o tym, próbując improwizować, a później efekty bywają... no, różne. Dobrą praktyką jest, by scenariusz był stworzony z myślą o dźwięku, a nie tylko przepisany z opowiadania czy sztuki teatralnej. To wymaga wyczucia specyfiki radia. No i pamiętać trzeba, że tylko scenariusz daje pełen obraz tego, jak historia ma wybrzmieć w eterze.

Pytanie 21

Technika mikrofonowa MS to technika

A. binauralna.
B. ambisoniczna.
C. monofoniczna.
D. stereofonii natężeniowej.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Technika mikrofonowa MS, czyli Mid-Side, to naprawdę ciekawe rozwiązanie w rejestracji dźwięku, szczególnie jeśli zależy nam na elastyczności późniejszej obróbki sygnału stereo. W tej technice korzysta się z dwóch mikrofonów – jeden ustawiony jest na środek (Mid), najczęściej o charakterystyce kardioidalnej, a drugi na boki (Side), co zazwyczaj oznacza charakterystykę ósemkową. Dzięki temu uzyskujemy sygnał, z którego można stworzyć obraz stereofoniczny na podstawie różnic w natężeniu sygnału, a nie tylko fazie. To się nazywa stereofonia natężeniowa, bo opiera się właśnie na różnicy poziomów sygnału w kanałach lewym i prawym. Ogromną zaletą tej techniki jest możliwość regulacji szerokości stereo już po nagraniu – w praktyce wystarczy manipulować proporcją sygnału Mid do Side podczas miksu. W branży studyjnej MS jest wręcz standardem np. przy rejestracji chóru, orkiestry, ale też do nagrań plenerowych czy nawet w broadcastingu, bo zapewnia świetną mono-kompatybilność. Z mojego doświadczenia wynika, że inżynierowie lubią MS za jego wszechstronność – czasem uratuje nagranie, które w klasycznej parze XY nie daje rady. Ciekawostka: obecnie wiele profesjonalnych pluginów DAW pozwala na rozbudowaną edycję MS, więc warto znać tę technikę nawet jeśli nie pracuje się na żywych mikrofonach.

Pytanie 22

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Korektor.
B. Ekspander.
C. Kompresor.
D. Crossover.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to urządzenie, które działa trochę odwrotnie niż kompresor – zamiast zmniejszać różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału, ekspander ją powiększa. Dzięki temu zwiększa się zakres dynamiki nagrania, czyli rozpiętość między najcichszymi a najgłośniejszymi dźwiękami. Moim zdaniem, w praktyce studyjnej ekspander jest często używany na śladach, które mają zbyt dużo szumów albo niechcianych dźwięków w tle, np. na mikrofonach perkusyjnych lub wokalnych. Gdy sygnał spada poniżej określonego progu, ekspander dodatkowo go ścisza – dzięki temu cisza staje się jeszcze cichsza, a kontrasty w nagraniu bardziej wyraźne. W nagraniach orkiestrowych czy muzyce filmowej, gdzie zależy nam na naturalnej dynamice i szerokiej palecie głośności, ekspander potrafi zdziałać cuda. Standardy branżowe, np. w postprodukcji dźwięku czy przy masteringu, zalecają stosowanie ekspanderów z głową, bo za mocne ustawienie tego efektu może sprawić, że nagranie zabrzmi nienaturalnie. Fajnie wiedzieć, że ekspandery są trochę mniej popularne niż kompresory, ale dobrze użyte naprawdę potrafią poprawić czytelność i wyrazistość ścieżki. Z mojego doświadczenia wynika, że jeśli komuś zależy na naturalności i przestrzeni w nagraniu, ekspander jest nieoceniony.

Pytanie 23

Wskaż optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych.

A. Temperatura 18°C ÷ 24°C, wilgotność 10% ÷ 20%
B. Temperatura 15°C ÷ 18°C, wilgotność 30% ÷ 40%
C. Temperatura 6°C ÷ 15°C, wilgotność 30% ÷ 40%
D. Temperatura 24°C ÷ 30°C, wilgotność 10% ÷ 20%

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Optymalne warunki przechowywania archiwalnych taśm i dysków magnetycznych to temperatura między 15°C a 18°C oraz wilgotność względna na poziomie 30% do 40%. Właśnie takie parametry najbardziej rekomendują branżowe normy, np. ISO 18923 czy zalecenia producentów sprzętu, takich jak IBM czy FujiFilm. Chodzi o to, żeby nośniki były zabezpieczone przed szkodliwym wpływem zbyt wysokiej temperatury, która może powodować rozmagnesowanie, a także przed przesuszeniem lub nadmierną wilgocią, bo to wszystko prowadzi do degradacji warstw magnetycznych i nośnika jako takiego. Z mojego doświadczenia wynika, że niewłaściwe warunki potrafią doprowadzić do nieodwracalnych strat danych, co jest szczególnie bolesne przy archiwach długoterminowych, np. w urzędach, archiwach państwowych czy dużych korporacjach. Warto pamiętać, że nawet niewielkie odchylenia od zalecanych parametrów mogą po kilku latach skutkować poważnymi problemami przy odczycie. Dobrą praktyką jest też cykliczna kontrola parametrów środowiska oraz regularna migracja danych na nowe nośniki, bo nawet przy idealnych warunkach materiał się starzeje. Szczerze mówiąc, większość nowoczesnych serwerowni stosuje do tego specjalne pomieszczenia klimatyzowane, gdzie utrzymywane są właśnie takie zakresy temperatury i wilgotności. W praktyce, jeśli chcesz przechować cenne dane przez kilkanaście lat czy nawet dłużej, nie ma lepszej metody niż trzymanie się tych wytycznych.

Pytanie 24

Jednostką przepływności bitowej pliku w formacie .mp3 jest

A. kB/s
B. kB/ms
C. MB/s
D. kb/s

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Jednostką przepływności bitowej dla plików w formacie .mp3 faktycznie jest kb/s, czyli kilobity na sekundę. To się nazywa „bitrate” i określa, ile tysięcy bitów danych jest przesyłane w ciągu jednej sekundy odtwarzania. Moim zdaniem praktycznie każdy, kto miał kiedyś kontakt z edycją lub konwersją plików audio, zetknął się z tym pojęciem – zawsze przy zapisie czy konwersji mp3 wybierasz np. 128 kb/s, 192 kb/s czy 320 kb/s. Im wyższy bitrate, tym lepsza jakość dźwięku, ale i większy rozmiar pliku. W branży muzycznej oraz podczas kompresji dźwięku, właśnie ta jednostka pozwala ocenić jakość nagrania. Standardy mp3 jasno określają stosowanie kilobitów na sekundę jako podstawowej jednostki – to nawet w dokumentacji MPEG jest tak opisane. W praktyce nie spotyka się wartości podanych w kB/s (kilobajtach na sekundę), bo wtedy łatwo się pomylić (1 bajt to 8 bitów). Dla porównania – streaming muzyki w serwisach typu Spotify czy YouTube Music bardzo często podaje bitrate w kb/s, bo to od razu określa, czy dźwięk jest bardziej „skompresowany” czy raczej zbliżony do oryginału. Widać to w programach do odtwarzania muzyki, gdzie np. Winamp czy Foobar informują, że plik .mp3 ma bitrate 192 kb/s. To jest taka branżowa norma, że aż dziwnie by było spotkać coś innego. Przy projektowaniu systemów przesyłania audio, np. przez internet, zawsze stosuje się właśnie te jednostki. W praktyce – wartość bitrate'u decyduje o tym, ile danych zużyjemy słuchając muzyki i jaka będzie jakość. Także bardzo dobrze, że wskazałeś właśnie kb/s.

Pytanie 25

Ilu kanałów wirtualnego miksera sesji oprogramowania DAW należy użyć do dekodowania nagrania dźwiękowego do formatu Stereo, wykonanego techniką Mid/Side,?

A. 3 kanałów.
B. 5 kanałów.
C. 1 kanału.
D. 7 kanałów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dekodowanie nagrania Mid/Side (M/S) do formatu stereo faktycznie wymaga użycia trzech kanałów wirtualnego miksera w sesji DAW. Wynika to z samej istoty tej techniki – nagrywamy osobno sygnał Mid (czyli właściwie sumę prawego i lewego kanału, nagrany mikrofonem skierowanym na źródło dźwięku) oraz Side (mikrofon ustawiony na 90 stopni, rejestrujący różnicę między kanałami). Żeby poprawnie zdekodować taki sygnał do klasycznego stereo, w DAW potrzebujemy trzy kanały: jeden dla ścieżki Mid i dwa dla Side (lewy i prawy, przy czym prawa i lewa strona Side mają być w przeciwfazie względem siebie). Moim zdaniem, to właśnie tu najłatwiej popełnić błąd i myśleć, że wystarczą dwa kanały, ale bez trzech nie zrealizujemy poprawnego sumowania i odejmowania fazowego. W praktyce standardem jest przypisanie: kanał 1 – Mid (center, mono), kanał 2 – Side (lewy, normalna faza), kanał 3 – Side (prawy, odwrócona faza). Potem miksujemy: (Mid + Side) daje lewy kanał stereo, (Mid – Side) daje prawy. Takie podejście gwarantuje, że stereo zachowa szerokość i naturalność, zgodnie z tym, jak przewiduje to technika M/S. Z mojego doświadczenia przy produkcjach muzycznych i dźwiękowych, korzystanie z trzech kanałów zapewnia precyzyjną kontrolę nad obrazem stereo i eliminuje ryzyko błędów fazowych. No i nie ukrywam, że wielu realizatorów dźwięku robi właśnie dokładnie tak, bo to po prostu się sprawdza – zarówno w studiu, jak i przy pracy na żywo. Dodatkowo warto wiedzieć, że wiele profesjonalnych pluginów M/S też opiera się o takie właśnie rozwiązania, więc to jest coś w rodzaju branżowego standardu.

Pytanie 26

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. CLOSE
B. OPEN
C. SAVE
D. NEW

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Opcja OPEN w menu FILE w oprogramowaniu typu DAW (Digital Audio Workstation) służy właśnie do przywoływania wcześniej zapisanych sesji. To absolutna podstawa pracy z każdym projektem muzycznym czy dźwiękowym. Kiedy pracujesz nad utworem, miksujesz albo obrabiasz nagrania, całość zapisujesz w pliku sesji – i żeby do niej wrócić, używasz właśnie polecenia OPEN. W praktyce wygląda to tak: zamykasz DAW, wracasz za kilka dni, chcesz kontynuować miks lub poprawić aranżację – wybierasz FILE → OPEN, wskazujesz plik, program ładuje całą sesję łącznie z ustawieniami, ścieżkami, efektami i automatyzacją. Moim zdaniem, ogarnięcie tej funkcji to taki całkowity must-have – bez niej nie da się wydajnie pracować. OPEN jest też standardem branżowym, zawsze pod tym poleceniem szukamy opcji otwierania plików projektowych, niezależnie czy używasz Cubase, Reapera czy Pro Tools. Dobra praktyka to regularne zapisywanie sesji pod różnymi nazwami, żeby potem móc łatwo je przywołać przez OPEN i ewentualnie wrócić do wcześniejszych wersji projektu. To pozwala uniknąć utraty ważnych etapów pracy i daje większą kontrolę nad historią zmian.

Pytanie 27

Który skrót oznacza filtr z możliwością regulowania dobroci (Q)?

A. LPF
B. BPF
C. HSF
D. HPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr BPF, czyli Band Pass Filter (filtr pasmowoprzepustowy), to właśnie ten typ filtra, w którym najczęściej spotyka się możliwość regulowania dobroci (Q). Dobroć Q to parametr określający, jak wąskie lub szerokie jest przepuszczane pasmo w stosunku do częstotliwości środkowej. Im wyższa wartość Q, tym filtr jest 'ostrzejszy', bardziej selektywny – przepuszcza tylko wąski wycinek sygnału. No i właśnie przy filtrach pasmowoprzepustowych to kluczowe, bo czasami chcemy wyłowić z sygnału bardzo konkretną częstotliwość, a czasami bardziej ogólne pasmo. W praktyce na przykład w korektorach graficznych albo procesorach audio, możliwość regulacji Q pozwala bardzo precyzyjnie kształtować charakterystykę brzmienia – z mojego doświadczenia to zupełnie niezbędna rzecz przy precyzyjnym usuwaniu niechcianych dźwięków czy sprzężeń. Inżynierowie często projektują takie filtry w oparciu o topologie Sallen-Key lub Multiple Feedback ze specjalnym potencjometrem do płynnej regulacji Q. W literaturze i normach branżowych (np. IEC 60268) jednoznacznie wskazuje się, że pełna kontrola dobroci dotyczy filtrów BPF. Dla LPF i HPF regulacja Q praktycznie nie ma takiego znaczenia albo sprowadza się do regulowania tłumienia zbocza, co wcale nie jest tym samym. Podsumowując: jeśli widzisz możliwość ustawienia Q, to niemal zawsze chodzi o filtr pasmowoprzepustowy.

Pytanie 28

Ile ścieżek dźwiękowych będzie zawierał projekt audio nagrany w technice mikrofonowej ORTF Surround?

A. 5 ścieżek.
B. 2 ścieżki.
C. 3 ścieżki.
D. 4 ścieżki.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Technika mikrofonowa ORTF Surround zakłada użycie czterech mikrofonów, rozmieszczonych w odpowiedni sposób dookoła, żeby zarejestrować dźwięk przestrzenny z zachowaniem naturalnej panoramy i głębi. Chodzi o to, żeby uchwycić bardziej realistyczny obraz akustyczny otoczenia – zupełnie tak, jakbyś sam stał w tym miejscu, gdzie nagrywasz. Cztery ścieżki to standard w tego typu realizacjach, bo każda z nich reprezentuje inny kierunek: przód-lewo, przód-prawo, tył-lewo i tył-prawo. To daje później ogromne możliwości w postprodukcji, bo możesz precyzyjnie rozmieścić dźwięki w przestrzeni 360°, np. w miksach do kina domowego czy do nagrań koncertów live na YouTube lub Blu-ray. W zasadzie już od kilku lat takie podejście jest polecane przez realizatorów dźwięku, którzy pracują chociażby dla telewizji czy w branży filmowej. Moim zdaniem, nawet jeśli dopiero zaczynasz przygodę z nagraniami przestrzennymi, to warto zainteresować się ORTF Surround, bo cztery ścieżki dają bardzo naturalny efekt bez potrzeby używania superdrogiego sprzętu. Sporo materiałów szkoleniowych czy warsztatów dla realizatorów nagrań przestrzennych odnosi się właśnie do tej techniki, bo jest ona dość uniwersalna i łatwa do wdrożenia. Praktycy podkreślają, że cztery osobne ścieżki ułatwiają później miksowanie materiału na różne konfiguracje odsłuchowe – od kwadrofonii po kinowe 5.1.

Pytanie 29

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału regionu dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. FREEZE
B. CUT
C. SPLIT
D. DELETE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Funkcja „SPLIT” w programach DAW (czyli Digital Audio Workstation) jest wręcz nieoceniona, jeśli chodzi o precyzyjne dzielenie regionów dźwiękowych na ścieżkach. To rozwiązanie stosowane praktycznie we wszystkich liczących się na rynku DAW-ach, od Cubase przez Logic Pro, aż po Pro Tools czy Reapera – zawsze działa bardzo podobnie. SPLIT pozwala w wybranym miejscu podzielić region, dzięki czemu można osobno edytować poszczególne fragmenty nagrania bez wpływu na resztę. Bardzo często używa się tego do korekty błędów, skracania zbyt długich partii lub robienia tzw. „compingu” wokali, gdzie wybiera się najlepsze fragmenty z kilku podejść i łączy w jedną całość. Z mojego doświadczenia to jedno z tych narzędzi, które po prostu trzeba opanować, jeśli myśli się o sprawnej pracy w jakimkolwiek DAW-ie. SPLIT jest też świetny do kreatywnego podejścia – można pociąć ścieżkę i z tych samych dźwięków zrobić zupełnie nowy groove czy pattern. Warto pamiętać, że operacja SPLIT nie niszczy oryginalnego materiału – wszystko jest nieniszczące, więc jak coś pójdzie nie tak, zawsze można cofnąć. To zgodne z filozofią pracy „non-destructive”, która uznawana jest za branżowy standard od lat. Ogólnie – jeśli chcesz pracować szybko i elastycznie, SPLIT to podstawa. Bez tej funkcji montaż audio byłby po prostu żmudny i niepraktyczny.

Pytanie 30

Który z wymienionych kodeków stosowany jest w plikach o rozszerzeniu .ogg?

A. ALAC
B. FLAC
C. VORBIS
D. LAME

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Vorbis to kodek otwartoźródłowy, który najczęściej łączy się właśnie z plikami o rozszerzeniu .ogg. Samo rozszerzenie .ogg odnosi się do kontenera Ogg, który pozwala na przechowywanie różnych strumieni multimedialnych, ale w praktyce dominuje w nim właśnie dźwięk zakodowany przez Vorbis. Co ciekawe, format ten jest całkowicie wolny od patentów (przynajmniej tak twierdzi organizacja Xiph.Org, która go rozwijała), więc często wykorzystywano go w projektach open source, grach i aplikacjach, gdzie liczy się swoboda dystrybucji i brak ograniczeń prawnych. Ja sam kojarzę, że sporo gier indie oraz serwisów radiowych online korzystało z Ogg Vorbis, bo dawał bardzo dobrą jakość dźwięku przy niewielkich rozmiarach plików – czasem lepiej niż popularny MP3. W praktyce, jeśli widzisz plik .ogg, to niemal pewne, że masz do czynienia właśnie z dźwiękiem w Vorbisie. Chociaż kontener Ogg może obsługiwać też inne kodeki (np. FLAC czy Theora dla wideo), to jednak w zastosowaniach muzycznych Ogg Vorbis stał się swego rodzaju standardem, szczególnie w środowiskach linuksowych czy open source. Warto o tym pamiętać, zwłaszcza jeśli samemu kiedyś przyjdzie Ci kodować audio do formatu .ogg – domyślnym wyborem będzie Vorbis.

Pytanie 31

Jaki jest czas trwania 16 taktów w metrum 4/4, gdy tempo w odniesieniu do ćwierćnuty wynosi 120 BPM?

A. 128 sekund.
B. 16 sekund.
C. 32 sekundy.
D. 64 sekundy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Poprawna odpowiedź wynika z prostych, ale bardzo ważnych dla każdego muzyka obliczeń. Mamy metrum 4/4, czyli w każdym takcie są 4 ćwierćnuty. Tempo to 120 BPM, czyli w każdej minucie mamy 120 ćwierćnut — przekłada się to na 2 ćwierćnuty na sekundę. Przeliczając: w jednym takcie (4 ćwierćnuty) przy 2 ćwierćnutach na sekundę, jeden takt trwa 2 sekundy. 16 taktów to 16 × 2 sekundy = 32 sekundy. To jest całkiem klasyczne zadanie na opanowanie relacji między metrum, tempem i czasem trwania utworu. Moim zdaniem takie liczenie przydaje się nie tylko w teorii, ale i w praktyce, np. podczas aranżacji albo planowania długości utworu w studiu nagraniowym. W branży muzycznej umiejętność szybkiego przeliczania metrum i tempa na realny czas jest podstawą, zwłaszcza podczas pracy z sekwencerami MIDI czy przy produkcji reklam radiowych i telewizyjnych, gdzie wszystko ma być idealnie pod zegar. Warto pamiętać, że większość DAW-ów ustala długość frazy lub loopa właśnie na podstawie takich obliczeń, dlatego dobrze mieć to przećwiczone. No i taki „muzyczny zegarek” w głowie po prostu się przydaje, nawet jak ktoś tylko gra w zespole i chce się nie pogubić podczas przejść między sekcjami utworu.

Pytanie 32

Nową sesję montażową programu DAW standardowo tworzy się poprzez użycie menu

A. Edit
B. View
C. File
D. Tools

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Menu „File” w programach typu DAW (Digital Audio Workstation) to praktycznie fundament wszystkich operacji związanych z zarządzaniem sesjami, projektami czy plikami audio. Tworząc nową sesję montażową, zawsze zaczynam właśnie od tego menu – niezależnie, czy pracuję na Pro Tools, Cubase, Abletonie czy czymś bardziej niszowym. Moim zdaniem, korzystanie z menu „File” to nie tylko kwestia nawyku, ale też zgodności z uniwersalnymi standardami branżowymi. Tutaj znajdziesz opcje typu „New Project”, „Open”, „Save As”, dzięki czemu łatwo zorganizujesz całą pracę od samego początku. Z mojego doświadczenia wynika, że osoby oswojone z logiczną strukturą oprogramowania szybciej odnajdują się w nowych DAW-ach właśnie dzięki podobieństwom w rozmieszczeniu tych kluczowych funkcji. Dodatkowo, trzymanie się tych standardów usprawnia też współpracę w studiu – każdy wie, gdzie szukać podstawowych narzędzi. Warto też pamiętać, że w praktyce, podczas pracy zespołowej czy nauki, korzystanie z „File” przy rozpoczynaniu projektu jest po prostu wygodniejsze i bezpieczniejsze, bo zabezpiecza nas przed przypadkową utratą wcześniejszych projektów czy nadpisaniem danych. W skrócie: menu „File” to po prostu podstawa i punkt wyjścia do każdej poważnej pracy z dźwiękiem.

Pytanie 33

Która z wymienionych funkcji w wielościeżkowej sesji programu DAW umożliwia ukrycie wybranych ścieżek dźwiękowych?

A. Minimize
B. Resize
C. Close
D. Hide

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Opcja 'Hide' w środowisku DAW (Digital Audio Workstation) to bardzo przydatne narzędzie, zwłaszcza kiedy masz do czynienia z dużą liczbą ścieżek w sesji. Ukrywanie ścieżek pomaga utrzymać porządek i przejrzystość podczas miksowania lub edycji, bo można skupić się tylko na tych elementach, które są akurat potrzebne. Wielu producentów korzysta z tej funkcji, kiedy pracuje nad złożonym projektem – na przykład ukrywają ślady perkusji, gdy dopracowują wokale, albo chowają nieużywane wersje partii instrumentalnych, żeby nie rozpraszały uwagi. Moim zdaniem, korzystanie z opcji 'Hide' to już taki standard pracy w profesjonalnych studiach – pozwala zachować czytelność interfejsu i lepiej zarządzać dużymi projektami. Co ciekawe, w większości DAW-ów ukrycie ścieżki nie powoduje jej wyciszenia ani usunięcia – to po prostu organizacyjne rozwiązanie. Przy dłuższych sesjach można sobie oszczędzić mnóstwo frustracji. Z doświadczenia wiem, że osoby, które nie korzystają z tej funkcji, często mają chaos na ekranie i dużo trudniej im znaleźć potrzebne elementy. Warto też pamiętać, że ukrywanie ścieżek to nie tylko kwestia wygody, ale też wydajności – mniej widocznych elementów to szybsza orientacja w sesji, mniej pomyłek i sprawniejsza praca. Można to porównać trochę do porządkowania dokumentów w segregatorach – wszystko jest na swoim miejscu, ale nie zawsze musi być na wierzchu. W sumie – jeśli zależy ci na profesjonalnym workflow, to naprawdę warto korzystać z 'Hide'.

Pytanie 34

Która z wymienionych funkcji umożliwia odsłuchanie materiału dźwiękowego znajdującego się na ścieżce w sesji programu DAW poprzez ręczne przemieszczanie kursora względem osi czasu?

A. Marquee
B. Bounce
C. Scrubbing
D. Shuffle

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Scrubbing to naprawdę bardzo przydatna funkcja w każdym nowoczesnym DAW-ie. Pozwala na odsłuchanie fragmentu ścieżki dźwiękowej dokładnie w tym miejscu, gdzie przesuwamy kursor po osi czasu. Moim zdaniem to trochę taka lupa dźwiękowa – zamiast odtwarzać cały utwór albo męczyć się z dokładnym ustawieniem playbacku, po prostu łapiemy za kursor i „przeciągamy” nim po wykresie fali. Działa to często podobnie jak przewijanie taśmy w klasycznym magnetofonie, gdzie szybciej lub wolniej przesuwany kursor daje podgląd dźwięku w danym fragmencie. Przydaje się to szczególnie przy precyzyjnym montażu, szukaniu klików, szumów czy ustawianiu punktów cięcia sampli. W branży muzycznej i postprodukcyjnej to wręcz codzienność – standardem jest, że inżynierowie dźwięku używają scrubbingu do szybkiego odnajdywania błędów lub synchronizowania efektów z konkretnym momentem w nagraniu. Warto pamiętać, że scrubbing może działać zarówno w trybie mono, jak i stereo, a niektóre programy pozwalają nawet na „scrubowanie” przez kontrolery fizyczne, co jeszcze bardziej przyspiesza workflow. Osobiście często korzystam z tej opcji podczas edytowania podcastów – słychać wtedy nawet niewielkie szelesty albo niechciane oddechy. Takie podejście nie tylko usprawnia pracę, ale też pozwala na osiągnięcie wysokiego poziomu precyzji, której oczekuje się w profesjonalnych produkcjach audio. Poza tym to po prostu wygodne – nie wyobrażam sobie wracać do pracy bez scrubbingu, szczególnie przy większych sesjach i wielościeżkowych projektach.

Pytanie 35

Jednostronna, jednowarstwowa płyta DVD, charakteryzuje się maksymalną pojemnością

A. 4,7 GB
B. 2,7 GB
C. 1,7 GB
D. 8,7 GB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Jednostronna, jednowarstwowa płyta DVD to taki najbardziej typowy nośnik, który przez lata był wręcz podstawą w przechowywaniu filmów, gier czy kopii zapasowych. Jej maksymalna pojemność to właśnie 4,7 GB i to warto zapamiętać, bo ta liczba pojawia się często nawet w specyfikacjach nagrywarek albo przy wyborze nośników do archiwizacji. Z tego, co zauważyłem, branża trzyma się tego standardu już od lat 90. – nawet jeśli dzisiaj korzysta się częściej z pendrive’ów albo chmur, te 4,7 GB to był taki złoty środek między kosztami a pojemnością. Płyty DVD tego typu (czyli DVD-5, tak się je fachowo oznacza) są jednowarstwowe i dane są zapisywane po jednej stronie, więc nie trzeba obracać płyty, żeby je odczytać. W praktyce to wystarczało na mniej więcej dwa filmy w jakości SD albo całkiem sporą ilość zdjęć albo dokumentów – kiedyś używało się tego nawet do instalatorów systemów operacyjnych. Warto też pamiętać, że większą pojemność uzyskuje się dopiero przy płytach dwuwarstwowych (DVD-9) lub dwustronnych, ale wtedy zmienia się już technologia produkcji i cena takiej płyty. Moim zdaniem, jeśli ktoś pracuje z archiwizacją albo starszym sprzętem, znajomość tej wartości to wciąż podstawa, bo czasami spotyka się jeszcze sprzęty, które tego wymagają.

Pytanie 36

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. CD-RW
B. DVD+R
C. BD-R
D. HD DVD-R

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.

Pytanie 37

Który z wymienionych formatów plików dźwiękowych charakteryzuje się stratną kompresją danych?

A. AIFF
B. WAV
C. FLAC
D. AAC

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format AAC to klasyczny przykład pliku dźwiękowego wykorzystującego stratną kompresję. Moim zdaniem, to jeden z najpopularniejszych kodeków w codziennym użytkowaniu – a szczególnie mocno obecny w usługach streamingowych, jak Apple Music czy YouTube. Kompresja stratna polega na tym, że podczas zapisywania dźwięku część informacji jest bezpowrotnie usuwana, żeby mocno zmniejszyć rozmiar pliku. Robi się to tak, żeby ucho przeciętnego człowieka nie zauważyło różnicy albo była ona minimalna. W praktyce, jak mam do wysłania audiobooka albo podcastu i nie chcę przesyłać gigabajtów danych, to wybieram właśnie AAC albo MP3. Branża traktuje AAC jako nowoczesnego następcę MP3 – daje lepszą jakość przy tym samym bitrate'cie. Warto wiedzieć, że AAC jest stosowany w standardzie MPEG-4, czyli wideo z dźwiękiem, na przykład w plikach MP4. Z mojego punktu widzenia to jest bardzo uniwersalny wybór na potrzeby mobilne czy internetowe, gdzie liczy się szybkość transferu i niewielki rozmiar pliku, a nie bezwzględna jakość.

Pytanie 38

Który z wymienionych parametrów korektora barwy wpływa na szerokość filtrowanego pasma częstotliwości?

A. Q
B. Output
C. Gain
D. Frequency

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Parametr Q to kluczowa rzecz, jeśli chodzi o korektory barwy, szczególnie te parametryczne. Q, czyli tzw. dobroć filtra, bezpośrednio decyduje o szerokości pasma częstotliwości, które jest poddawane regulacji – im wyższa wartość Q, tym węższy zakres, który zmieniamy, natomiast niska wartość Q rozszerza wpływ korektora na szersze pasmo. To bardzo praktyczne, bo pozwala „wycinać” lub podbijać bardzo konkretne częstotliwości bez naruszania reszty sygnału. W branży audio, np. podczas miksowania nagrań czy przy pracy live na scenie, umiejętne operowanie parametrem Q jest wręcz niezbędne. Pozwala precyzyjnie eliminować niechciane dźwięki jak np. brumienie lub sybilanty, nie zabierając przy tym charakteru reszcie miksu. Moim zdaniem, każdy kto poważnie myśli o pracy z dźwiękiem, powinien trochę poeksperymentować z Q i zobaczyć, jak diametralnie zmienia się brzmienie, gdy operujemy tym właśnie parametrem. To jedno z tych ustawień, które rozdzielają zwykłe filtry od profesjonalnych narzędzi do kształtowania dźwięku. Warto też wiedzieć, że w standardach branżowych, jak choćby w korektorach graficznych i półparametrycznych, parametr Q jest często predefiniowany, a w tych w pełni parametrycznych można go swobodnie ustawiać. Dlatego Q to podstawa w precyzyjnej korekcji barwy.

Pytanie 39

Zastosowanie efektu typu Flanger w nagraniu dźwiękowym powoduje

A. przesterowanie sygnału.
B. poszerzenie dynamiki sygnału.
C. ograniczenie niskich tonów.
D. modulację dźwięku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Efekt typu Flanger to jeden z najbardziej rozpoznawalnych efektów modulacyjnych wykorzystywanych w produkcji muzycznej, szczególnie w rocku, elektronice i muzyce pop. Działa on na zasadzie mieszania sygnału pierwotnego z jego lekko opóźnioną kopią, gdzie to opóźnienie jest dynamicznie modulowane – zmienia się w czasie, tworząc charakterystyczne przesuwające się brzmienie przypominające dźwięk startującego samolotu albo „fale”. To właśnie modulacja czasu opóźnienia powoduje powstawanie efektu „grzebieniowego” w widmie częstotliwościowym, czyli słyszalne przemieszczanie się dołków oraz wzmocnień w paśmie. Takie zjawisko jest bardzo przydatne do dodania przestrzenności, ruchu lub wręcz psychodelicznego klimatu w nagraniu. Standardowo flanger stosuje się na gitarach, wokalach, a czasem nawet całych ścieżkach perkusyjnych – jednym słowem, wszędzie tam, gdzie potrzebujemy „ożywić” materiał dźwiękowy. Co ciekawe, efekt ten pierwotnie powstał przez ręczne zahamowanie jednej taśmy podczas odtwarzania dwóch identycznych ścieżek, stąd jego nazwa („flange” – kołnierz szpuli taśmy). Dobra praktyka zaleca umiar w stosowaniu flangera, bo przy dużym natężeniu może on zamazać szczegóły i sprawić, że miks stanie się nieczytelny. Moim zdaniem, flanger to świetne narzędzie kreacyjne, jeśli tylko używa się go z głową – można dzięki niemu dodać nowy wymiar nawet bardzo prostym dźwiękom.

Pytanie 40

Największą zgodność ze standardem CD-Audio zapewni archiwizacja nagrań dźwiękowych w formie

A. pliku w formacie MP3 oraz pliku odszumionego.
B. pliku w formacie MP3.
C. pliku o parametrach 44.1 kHz/16 bit stereo.
D. pliku o parametrach 48 kHz/16 bit stereo.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard CD-Audio, czyli Compact Disc Digital Audio, od początku został zaprojektowany z bardzo precyzyjnymi parametrami: 44,1 kHz próbkowania i 16 bitów rozdzielczości na kanał, stereo. Te wartości nie są przypadkowe – zostały wybrane tak, aby umożliwić wierne odwzorowanie zakresu słyszalnego dla człowieka z minimalnymi zakłóceniami jakości. W praktyce każda próba archiwizacji nagrań przeznaczonych do zgodności z nośnikami CD powinna dokładnie trzymać się tego ustawienia. Nawet jeśli masz do dyspozycji sprzęt nagrywający dźwięk w wyższej rozdzielczości (np. 48 kHz, 24 bity), to i tak końcowy materiał na potrzeby audio CD musi przejść konwersję do 44,1 kHz/16 bitów. Moim zdaniem, jeśli zależy komuś na pełnej kompatybilności z odtwarzaczami i dobrych praktykach archiwizacyjnych, nie ma sensu trzymać plików w innym formacie niż dokładnie taki – żadnych MP3, żadnych innych częstotliwości czy głębokości bitowych. Warto pamiętać, że wiele archiwów cyfrowych i profesjonalnych studiów nagraniowych stosuje te parametry jako domyślny punkt odniesienia dla materiałów, które mają być dostępne szerokiej publiczności lub wydane na CD. Osobiście często spotykałem się z sytuacją, gdzie konwersja z innych formatów powodowała nieprzewidziane problemy z kompatybilnością. To taka trochę „złota zasada” w branży muzycznej.