Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 12 kwietnia 2026 19:00
  • Data zakończenia: 12 kwietnia 2026 19:14

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Reverbs
C. Modulation
D. Distortion
Ekspander zdecydowanie należy do kategorii procesorów typu „dynamics”. To urządzenie albo wtyczka, która tak naprawdę działa odwrotnie niż kompresor — zamiast zmniejszać zakres dynamiki, rozszerza go, czyli sprawia, że ciche sygnały stają się jeszcze cichsze, a głośne pozostają bez zmian. Standardowo spotyka się ekspandery w pracy realizatorów dźwięku, zwłaszcza tam, gdzie trzeba pozbyć się tzw. szumów tła albo podkreślić kontrast dynamiczny w nagraniach. Przykład z życia: podczas nagrywania perkusji w studiu, ekspander pomoże wyciszyć niepożądane przesłuchy z innych mikrofonów. Branżowo korzysta się z ekspanderów w broadcastingu, produkcji muzycznej i postprodukcji filmowej, bo pozwalają kontrolować przestrzeń dynamiczną materiału, nie niszcząc naturalności dźwięku. Z mojego doświadczenia wynika, że ekspander bywa niedoceniany, a to świetne narzędzie do „oczyszczenia” nagrania, zwłaszcza gdy nie chcemy używać bramki szumów, która działa bardziej agresywnie. W skrócie – jeśli chcesz zarządzać poziomami głośności i dynamiką w nagraniach, ekspander to solidny wybór, zgodny z dobrymi praktykami w branży.

Pytanie 2

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. karta SD.
B. chmura dyskowa.
C. pendrive.
D. dysk twardy.
Karta SD to zdecydowanie najpowszechniejszy nośnik danych wykorzystywany w przenośnych urządzeniach do zapisu sygnałów fonicznych, czyli dźwięku. Moim zdaniem producenci sprzętu od lat wybierają właśnie ten format, bo karta SD łączy w sobie kompaktowe wymiary, wysoką pojemność i niezłą trwałość. Wystarczy zerknąć na rejestratory dźwięku, kamery, aparaty fotograficzne czy nawet niektóre przenośne miksery audio – tam niemal zawsze znajdziesz slot na kartę SD. Branża audio docenia SD-ki także dlatego, że można je łatwo wymieniać i szybko zgrywać dane na komputer, bez kabli czy skomplikowanych procedur. Najlepiej sprawdzają się modele SDHC albo SDXC, bo dają więcej miejsca na dłuższe nagrania w lepszej jakości. Z mojego doświadczenia wynika, że zapis na kartę SD jest stabilny nawet przy dużych plikach WAV czy FLAC, a do tego nie wymaga specjalnej konfiguracji. Standardy, jak SD Association, dbają o kompatybilność i bezpieczeństwo danych – to spory atut w branży. Karta SD to też rozwiązanie praktyczne, bo sprzęt przenośny musi być lekki i niezawodny, a duży dysk twardy czy pendrive zwyczajnie by się nie sprawdziły. Dla osób pracujących z dźwiękiem mobilnie, karta SD od dawna jest takim standardem, jak baterie w latarce – po prostu musi być.

Pytanie 3

Ile kanałów można jednocześnie transmitować połączeniem S/PDIF?

A. 8 kanałów.
B. najwyżej 6 kanałów.
C. 32 kanały.
D. 16 kanałów.
Często można spotkać się z przekonaniem, że S/PDIF pozwala na transmisję bardzo wielu kanałów audio, nawet kilkunastu czy kilkudziesięciu – to jednak typowy błąd wynikający z mylenia tego interfejsu z bardziej zaawansowanymi rozwiązaniami, jak HDMI czy protokoły studyjne typu ADAT czy MADI. S/PDIF to stosunkowo prosty standard, który w założeniu miał umożliwiać cyfrowe przesyłanie dźwięku stereo PCM oraz – po wprowadzeniu odpowiednich kodeków kompresujących, takich jak Dolby Digital (AC-3) czy DTS – sygnału 5.1, czyli sześciu kanałów audio w formie bitstrumienia. Nie ma technologicznej możliwości, by przez pojedyncze połączenie S/PDIF przesłać 8, 16 czy tym bardziej 32 niezależne kanały – ograniczeniem jest zarówno przepustowość interfejsu, jak i specyfika standardu. Wielu użytkowników, zwłaszcza mających styczność z nowymi systemami AV, myli S/PDIF z HDMI, które pozwala przesłać nawet 8 czy więcej kanałów niekompresowanego dźwięku. Nadmiarowe oczekiwania wobec S/PDIF mogą też wynikać z niejasnych oznaczeń na sprzęcie lub z niezrozumienia, w jaki sposób kodowane są wielokanałowe strumienie dźwięku. W rzeczywistości S/PDIF przesyła maksymalnie 2 kanały w PCM i do 6 w formatach kompresowanych, co potwierdzają zapisy standardu IEC 60958. Podejścia zakładające przesyłanie 8, 16 czy 32 kanałów po S/PDIF nie mają pokrycia w dokumentacji technicznej i praktyce. Takie błędne wnioski mogą prowadzić do rozczarowań przy projektowaniu domowych instalacji AV czy podczas prób integracji sprzętu różnych producentów. Dlatego zawsze warto sprawdzić dokumentację urządzenia i nie zakładać na wyrost, że S/PDIF obsłuży tyle kanałów, ile by się chciało. To prosty, ale jednak dość ograniczony standard.

Pytanie 4

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 24 bity.
B. 8 bitów.
C. 16 bitów.
D. 20 bitów.
Wiele osób mylnie zakłada, że już 8 czy 16 bitów wystarcza do uzyskania dobrej jakości dźwięku, bo przecież na pierwszy rzut ucha szumy nie zawsze są wyraźne. To jednak uproszczenie, które wynika z myślenia kategoriami najniższych standardów – np. dawnych formatów komputerowych czy gier wideo. Im mniejsza liczba bitów, tym mniej poziomów sygnału i większy szum kwantyzacji, czyli taki cyfrowy „pył”, który pojawia się zwłaszcza przy cichych fragmentach lub podczas wielokrotnej edycji pliku. Współczesne realizacje audio, szczególnie profesjonalne, korzystają z wyższych rozdzielczości – 20 czy 24 bity, ponieważ pozwalają one na dużo większą dynamikę i dokładność. 16-bitowy standard CD-Audio powstał jednak głównie przez ograniczenia techniczne lat 80., a nie z powodów jakościowych. Różnica między 20 a 24 bity jest już może mniej słyszalna dla przeciętnego słuchacza, ale w branży audio uważa się, że im wyższa rozdzielczość bitowa, tym lepiej dla końcowej jakości – właśnie przez mniejsze szumy kwantyzacji. Typowym błędem jest też mylenie rozdzielczości bitowej z częstotliwością próbkowania – to dwie zupełnie różne rzeczy. Jeśli ktoś wybiera niższą rozdzielczość, zwykle patrzy na pojemność pliku czy kompatybilność, a nie na realną jakość sygnału. W praktyce, przy masteringu i zaawansowanej produkcji muzycznej, użycie 24 bitów to już niemal obowiązek, bo daje największe pole manewru i minimalizuje cyfrowe artefakty.

Pytanie 5

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 200 GB
B. 25 GB
C. 100 GB
D. 50 GB
Dwuwarstwowa płyta Blu-ray, znana też pod nazwą BD-50, pozwala na zapisanie właśnie 50 GB danych. Wynika to z fizycznej konstrukcji nośnika – każda warstwa może pomieścić około 25 GB, więc przy dwóch warstwach dostajemy razem te 50 GB. To ogromny postęp w stosunku do tradycyjnych płyt DVD, gdzie w przypadku dwuwarstwowych wersji można było zapisać tylko około 8,5 GB. Z mojego doświadczenia w pracy z archiwizacją danych, płyty Blu-ray dość często wykorzystuje się do tworzenia kopii zapasowych dużych plików multimedialnych, a także do dystrybucji filmów w jakości Full HD – i właśnie Full HD na jednym nośniku to ogromna wygoda dla branży filmowej. W branży IT i w firmach zajmujących się przechowywaniem danych taka pojemność znacznie ułatwia backup oraz długoterminową archiwizację, bo jest mniej nośników do obsłużenia, a trwałość zapisu na Blu-ray jest oceniana na dziesiątki lat. Standard Blu-ray został zatwierdzony przez konsorcjum Blu-ray Disc Association i stał się powszechnie akceptowanym wyborem tam, gdzie potrzebny jest duży wolumen danych w formie fizycznej. Co ciekawe, istnieją też płyty o większych pojemnościach, ale one nie są już standardowe i często wymagają specjalistycznych napędów – te spotykane na co dzień to właśnie 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). Moim zdaniem znajomość tych parametrów to podstawa, jeśli ktoś poważnie myśli o pracy z multimediami albo archiwizacją informacji.

Pytanie 6

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 14
B. 3
C. 8
D. 4
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 7

Korektor graficzny z pasmem podzielonym na 14 równych obszarów regulacji to korektor

A. kwartowy.
B. oktawowy.
C. dwuoktawowy.
D. tercjowy.
Wiele osób myli się, sądząc, że korektor graficzny z 14 pasmami to urządzenie oktawowe, tercjowe czy dwuoktawowe, ale to akurat nie ma pokrycia w praktyce inżynierii dźwięku. Korektor oktawowy dzieli bowiem pasmo na 10, czasem 12 sekcji, gdzie każda odpowiada jednej pełnej oktawie. To rozwiązanie jest dość „grube” i używane raczej do ogólnych poprawek barwy dźwięku, typowo w prostszych instalacjach nagłośnieniowych czy w domowych zestawach audio. Tercjowy z kolei to już większa precyzja – tutaj mamy 31 pasm, bo każda tercja oktawy jest osobno regulowana. To już narzędzie stricte dla profesjonalistów, którzy chcą naprawdę szczegółowo wyrównać charakterystykę systemu akustycznego, często przy pomocy specjalistycznych analizatorów widma. Natomiast dwuoktawowy to rzadko spotykany typ, gdzie pasmo dzielone jest na jeszcze mniej sekcji – to bardzo ogólna regulacja, która praktycznie nie sprawdza się w nowoczesnych systemach nagłośnieniowych i jest raczej ciekawostką historyczną. Mylenie tych nazw wynika najczęściej z braku praktyki lub pobieżnego podejścia do tematu – ktoś widzi liczbę suwaków i automatycznie przypisuje ją do najczęściej spotykanych typów. Tymczasem w branży obowiązują konkretne standardy i określenia: 14 pasm to dokładnie podział kwartowy – każda ćwierć oktawy daje większe możliwości dopasowania charakterystyki systemu do otoczenia. Takie rozwiązania są wykorzystywane wszędzie tam, gdzie ważna jest precyzja, ale nie potrzeba aż tak „gęstego” podziału jak w tercjowych korektorach. Warto zapamiętać, że dopasowanie typu korektora do sytuacji to jedna z podstawowych umiejętności dobrego dźwiękowca, a błędne założenia w tym zakresie mogą prowadzić do niepotrzebnych problemów z brzmieniem i sprzężeniami.

Pytanie 8

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 44 100 Hz, 160 kbps
B. 48 000 Hz, 128 kbps
C. 22 000 Hz, 128 kbps
D. 44 100 Hz, 96 kbps
Wybór parametrów 44 100 Hz i 96 kbps to bardzo rozsądna opcja, jeśli zależy Ci na minimalnym rozmiarze pliku mp3. Kluczowe jest tutaj zrozumienie dwóch rzeczy: częstotliwości próbkowania (czyli 44 100 Hz, co jest standardem dla płyt CD) oraz przepływności bitowej – w tym przypadku 96 kbps. To właśnie bitrate, czyli ilość kilobitów na sekundę, najbardziej wpływa na wagę końcowego pliku. Im niższy bitrate, tym mniej danych jest zapisywanych na sekundę dźwięku, więc sam plik jest mniejszy. Przy 44 100 Hz zachowujemy przyzwoitą jakość dźwięku, a 96 kbps to już taki dość niski bitrate – stosowany często w podcastach albo tam, gdzie liczy się objętość pliku. Z mojego doświadczenia, jeśli komuś zależy na bardzo małym pliku (np. do wysyłki e-mailem albo na starą mp3-kę z małą kartą pamięci), to właśnie taka kombinacja jest najczęściej wybierana. Branżowo rzecz biorąc, przy 44 100 Hz/96 kbps dźwięk jest już wyraźnie skompresowany, ale wciąż nadaje się do słuchania w tle, a pliki są naprawdę lekkie. Warto pamiętać, że jeszcze niższe parametry mocno psują jakość i raczej nie są zalecane. Generalnie, jeśli ktoś pyta o najmniejszy rozmiar mp3, to zawsze trzeba patrzeć przede wszystkim na bitrate – a tutaj 96 kbps wygrywa z pozostałymi opcjami.

Pytanie 9

Aplikacje DAW mogą odtwarzać w sesji pliki

A. skompresowane do mp3 oraz wav.
B. o tej samej rozdzielczości i różnej częstotliwości.
C. tylko o tych samych parametrach.
D. o tej samej częstotliwości i innej rozdzielczości.
Najczęstsze nieporozumienia podczas pracy z DAW dotyczą tego, jak aplikacje te radzą sobie z plikami o różnych parametrach audio. Wiele osób zakłada, że wszystkie pliki muszą być identyczne pod każdym względem, czyli mieć tę samą rozdzielczość bitową i częstotliwość próbkowania, bo inaczej nie zadziałają poprawnie. To jednak tylko część prawdy. DAW-y są zaprojektowane tak, by być elastyczne – można miksować pliki o różnej rozdzielczości (np. 16-bit z 24-bit), bo silnik audio i tak konwertuje wszystko do wartości ustawionej w projekcie. Różnica pojawia się przy częstotliwości próbkowania. Jeśli importujesz pliki z innym sample rate niż projekt, najczęściej DAW wymusi konwersję lub odtworzy je nieprawidłowo – co może skutkować zmianą wysokości dźwięku lub tempa. Niektóre DAW-y potrafią automatycznie konwertować sample rate, ale w praktyce lepiej samodzielnie to kontrolować, żeby uniknąć utraty jakości. Co do plików MP3, DAW-y faktycznie pozwalają je importować, ale to nie jest kwestia parametrów technicznych, a raczej formatu i kompresji stratnej – pliki WAV i AIFF są domyślnym wyborem w profesjonalnej produkcji ze względu na jakość. Równie błędne jest przekonanie, że pliki muszą mieć dokładnie te same parametry, bo to ogranicza kreatywność i nie jest poparte rzeczywistymi wymaganiami technicznymi DAW-ów. Także skupiając się na parametrach, najważniejsza jest spójność sample rate, a nie rozdzielczości – na to branża zwraca największą uwagę i tak działają najlepsze praktyki w studiach.

Pytanie 10

Normalizacja poziomu szczytowego nagrania (peak normalization) to

A. obniżenie średniego poziomu nagrania o 3 dB
B. podniesienie poziomu nagrania tak, aby jego wartość szczytowa osiągnęła 0 dBFS
C. podniesienie poziomu nagrania tak, aby jego wartość średnia osiągnęła 0 dBFS
D. obniżenie szczytowego poziomu nagrania o 3 dB
Normalizacja poziomu szczytowego nagrania, czyli tzw. peak normalization, to taki proces, w którym podnosi się poziom całego nagrania tak, żeby najwyższa wartość szczytowa (czyli ten największy pojedynczy impuls w sygnale) sięgnęła dokładnie 0 dBFS. Oczywiście, w praktyce czasem zostawia się minimalny margines, np. do -0,1 dBFS, żeby uniknąć ewentualnych przesterowań przy dalszym przetwarzaniu, ale główny mechanizm polega właśnie na tym jednym – znajdź najwyższy pik i przesuń wszystko w górę tak, żeby był na samym szczycie skali cyfrowej. To bardzo prosty i szybki sposób na wyrównanie głośności różnych plików albo przygotowanie materiału do dalszego masteringu. Spotyka się to właściwie w każdym DAW-ie i nawet podstawowe programy do montażu audio mają taką funkcję. Z mojego doświadczenia bywa to bardzo przydatne, zwłaszcza jak ktoś dostaje miks z różnych źródeł i chce, żeby od razu było równo pod względem potencjału głośności, zanim zacznie głębsze zmiany. Warto pamiętać, że peak normalization nie zmienia relacji między cichymi a głośnymi fragmentami – nie jest to kompresja ani normalizacja RMS/średnia. Z punktu widzenia standardów, to absolutna podstawa i wręcz obowiązkowy krok w wielu workflow, choć na etapie końcowym w radiu czy streamingach częściej używa się normalizacji według LUFS (średniego poziomu głośności), ale peak normalization dalej ma swoje miejsce, zwłaszcza przy przygotowaniu surowych plików.

Pytanie 11

Który sygnał zapewniający dalszą obróbkę powinien być rejestrowany na wielośladzie?

A. Po korekcji barwy.
B. Po korekcji dynamiki.
C. Po korekcji barwy i dynamiki.
D. Bez korekcji barwy i dynamiki.
Wielu początkujących realizatorów dźwięku myśli, że lepiej już na etapie nagrania poprawić barwę lub dynamikę, żeby potem było mniej roboty przy miksie. To taka pułapka, bo wydaje się, że jak coś od razu brzmi lepiej, to tak powinno zostać. Jednak w praktyce wprowadzenie korekcji barwy albo kompresji przed nagraniem na wieloślad jest ryzykowne – raz nałożone zmiany stają się trwałe i nie można ich później odwrócić. Korekcja barwy (EQ) może na tym etapie odciąć ważne częstotliwości, które w miksie okazałyby się przydatne. Kompresja z kolei może spłaszczyć dynamikę do tego stopnia, że nagranie straci naturalność lub przestanie się dobrze układać z innymi śladami w miksie. Oba te procesy są bardzo zależne od kontekstu utworu, aranżacji i ogólnej wizji, która często pojawia się dopiero podczas miksowania wszystkich elementów razem. Dobre praktyki branżowe i doświadczenie realizatorów pokazują, że lepiej mieć w śladach pełne, nieprzetworzone sygnały – wtedy w trakcie miksu można precyzyjnie dobrać charakter dźwięku do całości utworu. Nagrywanie po korekcji barwy lub dynamiki zamyka drogę do wielu opcji kreatywnych i często prowadzi do żałowania pochopnych decyzji. Warto pamiętać, że wyjątkiem mogą być sytuacje, gdy z premedytacją wykorzystuje się kompresor lub EQ jako efekt brzmieniowy, ale to już kwestia świadomego wyboru, a nie standardowego workflow. Najlepiej więc rejestrować sygnał „suchy”, mając świadomość, że całą paletę narzędzi do kształtowania brzmienia zostawia się na później.

Pytanie 12

Która z wymienionych funkcji w sesji oprogramowania DAW służy do płynnego wprowadzenia dźwięku z wyciszenia?

A. FADE OUT
B. FADE IN
C. PAN
D. TEMPO
Fade in to jedna z tych funkcji, które są naprawdę podstawowe, ale często niedoceniane, zwłaszcza jak ktoś dopiero zaczyna zabawę w DAW-ach. Z technicznego punktu widzenia fade in to stopniowe zwiększenie głośności dźwięku od ciszy do pełnej wartości – czyli dźwięk nie pojawia się nagle, tylko płynnie wchodzi, bez żadnych trzasków czy nagłych przeskoków. W praktyce często wykorzystuje się fade in na początku ścieżki audio, żeby wprowadzić słuchacza w nagranie płynnie – nie tylko w muzyce, ale też np. w podcastach, produkcji reklam, czy nawet w filmie, gdzie zależy nam na subtelnym rozpoczęciu sceny dźwiękowej. W branży to taki must-have, szczególnie przy masteringu i miksie utworów, bo pozwala uniknąć nieestetycznych artefaktów i sprawia, że całość brzmi profesjonalnie. Warto pamiętać, że fade in można stosować nie tylko ręcznie, rysując automatyzację głośności, ale wiele DAW-ów ma dedykowaną funkcję do naniesienia fade in na klipie, co przyspiesza pracę. Z mojego doświadczenia, dobrze wykonany fade in robi ogromną różnicę w odbiorze nagrania, bo pozwala zbudować napięcie albo wprowadzić klimat. To jedno z tych narzędzi, bez których ciężko sobie wyobrazić poprawny workflow w każdej poważniejszej produkcji dźwiękowej.

Pytanie 13

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. BD
B. SN
C. FT
D. HH
SN to skrót od angielskiego słowa 'snare', czyli werbel, który jest centralnym elementem większości zestawów perkusyjnych. Werbel wyróżnia się charakterystycznym, ostrym brzmieniem dzięki sprężynom (strunom) umieszczonym pod dolną membraną – to właśnie te sprężyny nadają mu specyficzny, „szeleszczący” dźwięk. W zapisie nutowym, jak i podczas soundchecku czy prób, skrót SN jest standardowo używany w arkuszach ustawień scenicznych oraz notacjach perkusyjnych. Moim zdaniem warto zapamiętać ten skrót, bo spotkasz go praktycznie w każdej profesjonalnej sytuacji nagraniowej czy w riderze technicznym. Werbel jest wykorzystywany do grania akcentów, sygnałów, a także podstawowych rytmów – bez niego większość groove'ów rockowych czy popowych po prostu nie brzmi. Gdy patrzysz na schemat zestawu perkusyjnego w instrukcjach obsługi czy podręcznikach, zawsze SN będzie oznaczał właśnie werbel. W praktyce, na scenie, jeśli ktoś z obsługi pyta o SN, to chodzi o mikrofonowanie lub ustawienie właśnie tego instrumentu. Warto też wiedzieć, że nazewnictwo skrótowe, takie jak SN, BD czy FT, jest międzynarodowym standardem w branży muzycznej – znajomość tych oznaczeń ułatwia komunikację z realizatorami dźwięku, technikami i innymi muzykami.

Pytanie 14

Które z wymienionych określeń oznacza nagranie lektora?

A. Voice Over
B. Foley
C. Ambience
D. Sound Effects
Voice Over to określenie bardzo charakterystyczne dla branży filmowej, telewizyjnej, reklamowej i szeroko pojętego audio. Chodzi tu o ścieżkę dźwiękową nagraną przez lektora, który czyta tekst lub komentuje obraz – zazwyczaj nie będąc widocznym na ekranie. Takie nagrania są często używane w dokumentach, reklamach, zwiastunach, a nawet w grach komputerowych i audiobookach. Moim zdaniem, Voice Over to jedno z najbardziej uniwersalnych narzędzi, które pozwala przekazać widzowi lub słuchaczowi dodatkowe informacje, nastroje czy instrukcje bez zakłócania treści obrazowej. W praktyce nagranie lektora powinno być czyste, pozbawione szumów i dobrze spasowane z innymi elementami ścieżki dźwiękowej – to naprawdę podstawa, jeśli chodzi o profesjonalną produkcję audio. Dobrą praktyką jest korzystanie ze studia do nagrań Voice Over, ale czasem – zwłaszcza przy projektach internetowych – wystarczy dobrej klasy mikrofon i ciche pomieszczenie. Warto wiedzieć, że w standardach branżowych Voice Over traktuje się jako oddzielną warstwę w miksie, co pozwala łatwo ją modyfikować czy zastępować na późniejszych etapach pracy. Często spotykam się z tym, że Voice Over jest zamiennie nazywany "lektorem", ale technicznie rzecz biorąc, lektor może być częścią Voice Over, lecz nie zawsze Voice Over to tylko lektor – czasem jest to narrator lub głos postaci. Tak czy owak, znajomość tego terminu to mocny punkt każdego, kto wiąże przyszłość z mediami czy produkcją dźwięku.

Pytanie 15

Które z wymienionych oprogramowań DAW umożliwia zaawansowaną edycję ścieżek dźwiękowych, bez możliwości łączenia ich ze ścieżkami MIDI?

A. Logic Pro
B. Wavelab
C. Cubase
D. Sonar
Podczas wyboru oprogramowania DAW do określonych zadań trzeba dobrze rozumieć czym się różnią rozwiązania typowo audio od tych przeznaczonych do produkcji muzycznej na szerszą skalę. W przypadku Sonara, Cubase czy Logic Pro to są programy wszechstronne, które łączą zaawansowaną edycję ścieżek dźwiękowych z kompleksową obsługą MIDI. Dają możliwość budowania projektów, gdzie nagrania audio i ścieżki MIDI wzajemnie się uzupełniają – edycja partii instrumentów elektronicznych, syntezatorów czy automatyzacja parametrów to ich codzienność. To właśnie jest sedno nowoczesnych DAW-ów: integracja różnych typów ścieżek i elastyczne zarządzanie nimi na jednej osi czasu. Z mojego punktu widzenia, częsty błąd polega na myleniu programów o profilu edycyjnym, jak Wavelab, z programami służącymi do produkcji muzyki od A do Z. Sonar, Cubase czy Logic Pro wręcz słyną z możliwości łączenia audio z MIDI i miksowania ich w ramach jednego projektu. Branżowe standardy przewidują, że profesjonalna praca z muzyką elektroniczną i aranżowanie utworów w pełni wykorzystuje potencjał pracy z MIDI; wykluczenie tej opcji byłoby dużą stratą dla kreatywności. Moim zdaniem, część osób zakłada, że każde DAW jest do wszystkiego, a tymczasem wybór narzędzia zależy od konkretnego zastosowania – i tu właśnie Wavelab jest wyjątkiem, bo jest nastawiony wyłącznie na pracę z dźwiękiem audio, bez możliwości sekwencjonowania MIDI. Dlatego wskazywanie Sonara, Cubase lub Logic Pro jako DAW-ów pozbawionych obsługi MIDI mija się z prawdą techniczną oraz praktyką branżową.

Pytanie 16

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. ADAT
B. CC
C. SACD
D. DCC
Standard SACD, czyli Super Audio CD, zdecydowanie kojarzy się z nośnikami optycznymi, bo faktycznie oparty jest na płycie bardzo podobnej do klasycznego CD, tylko o większych możliwościach. Główna różnica polega na tym, że SACD korzysta z technologii DSD (Direct Stream Digital), a nie z klasycznego PCM jak zwyczajny CD-Audio. To umożliwia uzyskanie bardzo wysokiej jakości dźwięku, szczególnie cenionej wśród audiofilów czy podczas profesjonalnych masteringów. Moim zdaniem, często pomija się SACD przy okazji rozważań na temat nowych formatów, bo przez streaming trochę o nim zapomniano, ale w branży płytowej wciąż ma fanów. Płyty SACD można odtwarzać na specjalnych odtwarzaczach, które obsługują ten format, i właśnie tu pojawia się praktyczny wymiar – w archiwizacji muzyki czy przy masteringu często sięga się po SACD, kiedy zależy komuś na pełnym spektrum brzmienia i zachowaniu jakości bez strat. Warto pamiętać, że SACD ma także tryb hybrydowy, tzn. niektóre płyty SACD mają dodatkową warstwę kompatybilną z typowymi odtwarzaczami CD, co ułatwia przejście między formatami. Z mojego doświadczenia wynika, że w środowisku profesjonalnym SACD wciąż traktuje się jako wzorzec, jeśli chodzi o jakość zapisu na nośniku fizycznym. To jest prawdziwie optyczny standard, w odróżnieniu od innych z tej listy.

Pytanie 17

Która z wymienionych operacji umożliwia usunięcie zakłócenia w postaci składowej stałej obecnej w zarejestrowanym materiale dźwiękowym?

A. DC Offset Removal
B. Normalize RMS
C. Hard Limit
D. Phase Invert
Hard Limit, Phase Invert i Normalize RMS to operacje często wykorzystywane w obróbce dźwięku, ale ich zadania są zupełnie inne niż eliminacja składowej stałej. Hard Limit służy głównie do ograniczania szczytów sygnału, czyli do ochrony przed przesterowaniem. To narzędzie wykorzystywane w masteringu, żeby nie dopuścić do przekroczenia określonego poziomu amplitudy, ale zupełnie nie wpływa na przesunięcie całego przebiegu względem zera. Czasem ktoś może pomyśleć, że skoro limituje głośność, to może też jakoś 'wyrównuje' sygnał, ale to nie o taki rodzaj wyrównania tutaj chodzi. Z kolei Phase Invert odwraca fazę sygnału o 180 stopni. To bywa przydatne przy eliminacji niepożądanych efektów fazowych lub przy sumowaniu śladów, ale nie zmienia średniej wartości przebiegu – zamienia tylko górę z dołem. Normalize RMS to jeszcze inna bajka: ta operacja służy do ustawiania poziomu głośności całego materiału na określoną wartość RMS, czyli tzw. średnią skuteczną. To przydaje się przy wyrównywaniu głośności wielu utworów w albumie albo podczas przygotowań materiału do emisji radiowej, ale normalize nie usuwa przesunięcia DC. Typowym błędem jest założenie, że operacje głośności czy fazy automatycznie poprawią techniczne właściwości pliku audio – niestety, przesunięcie DC wymaga oddzielnej, specjalistycznej funkcji. Z mojego doświadczenia wynika, że wielu początkujących pomija temat offsetu, a potem pojawiają się dziwne kliknięcia, szumy lub problemy z dalszym przetwarzaniem. Warto pamiętać, że usunięcie składowej stałej to osobny, bardzo ważny element workflow i nie da się go zastąpić żadną z wymienionych tu innych operacji.

Pytanie 18

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. sekundzie.
B. milisekundzie.
C. ćwierćnucie.
D. ramce.
Kod SMPTE, czyli Society of Motion Picture and Television Engineers, to jeden z podstawowych standardów stosowanych w pracy z materiałami wideo i audio, zwłaszcza w montażu oraz synchronizacji. Moim zdaniem każdy, kto chce pracować z profesjonalnym montażem, powinien go mieć w małym palcu. Pozycja 00:00:00:20 oznacza: 0 godzin, 0 minut, 0 sekund oraz 20. ramka w danej sekundzie. To jest bardzo praktyczne, bo pozwala dokładnie wskazać, gdzie na osi czasu znajduje się konkretne zdarzenie – np. cięcie, efekt lub punkt synchronizacyjny. W zależności od ustawień projektu (np. 25 lub 30 klatek na sekundę), liczba ta mówi nam, która dokładnie klatka w sekundzie jest wybrana. Takie podejście gwarantuje precyzję, której nie da się osiągnąć, operując tylko na sekundach czy milisekundach, bo montażowcy i realizatorzy dźwięku często pracują 'na ramki'. W branży jest to standard wykorzystywany podczas pracy w programach takich jak Adobe Premiere Pro, DaVinci Resolve czy Pro Tools. Szczerze mówiąc, nieraz uratowało mi to skórę przy bardzo wymagających projektach, gdzie każde ujęcie musiało być zgrane co do klatki. Dobra praktyka to zawsze sprawdzać, czy liczysz zgodnie z tym kodem, bo błędy w tej materii lubią się mścić na etapie finalnego eksportu.

Pytanie 19

Który z wymienionych dokumentów stanowi literacką podstawę do produkcji słuchowiska radiowego?

A. Rider techniczny.
B. Scenariusz.
C. Lista znaczników.
D. Partytura.
Scenariusz to absolutna podstawa każdej produkcji słuchowiska radiowego. Bez niego nie da się w ogóle ruszyć z miejsca, bo to właśnie tam rozpisuje się dialogi, opisy dźwięków, kolejność scen, a nawet podpowiedzi reżyserskie. Taki dokument pozwala wszystkim członkom ekipy – od reżysera po realizatora dźwięku i aktorów – dokładnie wiedzieć, co mają robić i jak interpretować swoją rolę. Standardem w branży radiowej jest, by scenariusz zawierał nie tylko teksty postaci, ale również wskazówki dotyczące atmosfery, rodzaju efektów dźwiękowych czy nawet sposobu wypowiadania kwestii. Dzięki temu całość brzmi potem profesjonalnie i spójnie. Moim zdaniem, scenariusz jest wręcz sercem całego procesu – bez niego trudno mówić o pracy twórczej na serio. Praktycznie każda duża produkcja radiowa działa według tego schematu, bo to upraszcza komunikację i minimalizuje błędy. Dodatkowo, dobry scenariusz bardzo ułatwia późniejszą postprodukcję, bo dokładnie wiadomo, jakie elementy dźwiękowe muszą być przygotowane. Także nawet jeśli ktoś myśli, że wystarczy improwizacja, to w praktyce wszyscy profesjonaliści polegają właśnie na solidnym, dobrze opisanym scenariuszu.

Pytanie 20

Ile minut muzyki można maksymalnie zapisać na płycie CD-Audio?

A. 100 minut.
B. 90 minut.
C. 80 minut.
D. 70 minut.
80 minut to maksymalna długość nagrania na standardowej płycie CD-Audio. Wynika to bezpośrednio z ograniczeń technicznych formatu Compact Disc Digital Audio (CD-DA), który został wprowadzony w latach 80. przez Sony i Philipsa. Zgodnie ze specyfikacją Red Book (czyli podstawowym standardem dla CD-Audio), standardowa płyta CD mieści około 700 MB danych, co przekłada się na 80 minut dźwięku o jakości 16-bitowej/44,1 kHz w trybie stereo. W praktyce większość albumów muzycznych właśnie tyle zajmuje, chociaż często spotyka się płyty krótsze – to kwestia materiału źródłowego. Przekraczanie tych 80 minut nie jest zalecane, bo może to prowadzić do problemów z odczytem na niektórych odtwarzaczach. Czasem można spotkać tzw. płyty overburned, które pozwalają wcisnąć dodatkowe minuty, ale nie jest to zgodne z oficjalnymi normami i nie każdy sprzęt sobie z tym radzi. Moim zdaniem wiedza o tych limitach przydaje się, gdy samemu nagrywasz muzykę na CD – łatwo wtedy uniknąć nieprzyjemnych niespodzianek. Warto też wiedzieć, że dla archiwizacji czy masteringu branża muzyczna trzyma się właśnie tej granicy 80 minut. Tak to już technologia przewidziała – i ten limit dobrze zapamiętać.

Pytanie 21

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. mp3 CD.
B. CD Text.
C. ISRC CD Code.
D. CD Burn.
Rozszerzenie CD Text jest dokładnie tym, co pozwala na zapisanie dodatkowych informacji tekstowych na płycie CD-Audio. Chodzi tu głównie o dane takie jak tytuły utworów, nazwy wykonawców, albumów czy nawet krótkie opisy. Standard CD Text został wprowadzony przez Sony i Philips w latach 90., a jego obsługa pojawiła się najpierw w lepszych odtwarzaczach stacjonarnych i wieżach stereo. Co ciekawe, większość nagrywarek komputerowych też potrafi już dodać te dane podczas tworzenia płyty, ale nie każdy program do nagrywania oferuje tę opcję – warto na to zwracać uwagę w ustawieniach. Z praktycznego punktu widzenia, CD Text jest bardzo przydatny na przykład w samochodowych radioodtwarzaczach – od razu wiadomo, co leci, bez potrzeby zgadywania. Co ciekawe, informacje z CD Text są przechowywane w specjalnych sektorach płyty (tzw. subkanał Q), nie wpływając na samą jakość audio. Z mojego doświadczenia, jeśli ktoś chce profesjonalnie przygotować płytę demo lub prezentacyjną, zdecydowanie warto zadbać o ten dodatek – ułatwia to identyfikację i podnosi walory użytkowe nośnika. Szkoda tylko, że starsze odtwarzacze nie zawsze rozpoznają te dane, ale wymagania branżowe wciąż promują stosowanie CD Text przy wydawaniu fizycznych nośników muzycznych.

Pytanie 22

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Freeze
B. Merge
C. Loop
D. Snap
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 23

Plik w formacie CD-Audio posiada następujące parametry:

A. 24 bit, 48 kHz.
B. 16 bit, 44,1 kHz.
C. 24 bit, 44,1 kHz.
D. 24 bit, 96 kHz.
CD-Audio, czyli popularne płyty kompaktowe odtwarzane przez klasyczne odtwarzacze, mają bardzo sztywno ustalony standard zapisu dźwięku. Jest to dokładnie 16 bitów rozdzielczości próbkowania i 44,1 kHz częstotliwości próbkowania. Nie bez powodu — taki wybór parametrów był kompromisem między jakością, pojemnością płyty i możliwościami technicznymi z lat 80. XX wieku. 16 bitów pozwala na uzyskanie dynamiki na poziomie około 96 dB, co w warunkach domowych w zupełności wystarcza do wiernego odwzorowania większości materiału muzycznego. 44,1 kHz wynika natomiast z teorii Nyquista – pozwala na prawidłowe odwzorowanie dźwięków do 22,05 kHz, czyli ciut ponad granicę słyszalności ludzkiego ucha. Właśnie dlatego większość płyt CD brzmi tak, a nie inaczej, i nie znajdziesz płyty audio z innymi parametrami. Co ciekawe, wyższe wartości jak 24 bit czy 96 kHz spotkasz raczej w plikach studyjnych albo formatach typu FLAC lub SACD, których zwykłe odtwarzacze CD nie odczytują. Moim zdaniem wiedza o tych parametrach bywa bardzo praktyczna – np. przy zgrywaniu (tzw. ripowaniu) płyt CD na komputer, warto ustawić właśnie 16 bit / 44,1 kHz, żeby niepotrzebnie nie powiększać plików bez żadnej korzyści jakościowej.

Pytanie 24

Kompresja sygnału cyfrowego do formatu bezstratnego oraz ponowna dekompresja do formatu wyjściowego spowoduje

A. odtworzenie sygnału identycznego jak oryginał.
B. nieznaczne podbicie środkowej części pasma.
C. dodanie do dźwięku szumu kwantyzacji.
D. powstanie dodatkowych harmonicznych.
Trzeba dobrze rozróżnić, czym jest kompresja bezstratna, a czym stratna, bo właśnie tu wkradają się najczęstsze nieporozumienia. Sygnał poddany kompresji bezstratnej i potem dekompresji nie zyskuje żadnych dodatkowych szumów ani zniekształceń – nie dodaje szumu kwantyzacji, nie wprowadza nowych harmonicznych, ani nie zmienia charakterystyki częstotliwościowej. Te efekty są typowe dla innych procesów: na przykład szum kwantyzacji pojawia się przy konwersji analog-cyfra lub przy zmianie rozdzielczości bitowej, a kompresja stratna (jak MP3) może powodować artefakty takie jak utrata drobnych detali czy powstawanie nieprzyjemnych zniekształceń, ale nie kompresja bezstratna. Dodatkowe harmoniczne to zjawisko związane z nieliniowymi zniekształceniami, najczęściej w torze analogowym albo przy przesterowaniu sygnału, a nie w procesach cyfrowych i bezstratnych. Podbicie pasma też raczej kojarzy się z korekcją barwy, nie z kompresją plików. Często mylimy pojęcia, bo codziennie używamy formatów stratnych i wtedy rzeczywiście jakość ucieka – ale to właśnie przewaga bezstratnych metod: zachowują oryginalną postać sygnału co do bita, co jest zapisane, to odtworzone. W praktyce, jeśli plik FLAC czy ALAC zostanie poprawnie zdekodowany, nie da się technicznie odróżnić go od oryginału, co jest zgodne z wymaganiami archiwizacji w branży muzycznej i radiowej. Warto pamiętać, że wszelkie modyfikacje czy degradacje pojawiają się dopiero wtedy, gdy korzystamy z formatów stratnych lub zmieniamy parametry konwersji, ale nie w przypadku bezstratnej kompresji i dekompresji.

Pytanie 25

Jak nazywa się dodanie do struktury pliku dźwiękowego informacji w formie tekstowej?

A. Otagowanie.
B. Oznaczenie.
C. Opisanie.
D. Oflagowanie.
Dodanie do pliku dźwiękowego informacji tekstowych, takich jak tytuł, wykonawca, album czy rok wydania, nazywa się właśnie otagowaniem. Ten proces polega na zapisaniu w metadanych pliku odpowiednich znaczników, które później mogą być odczytywane przez odtwarzacze muzyczne czy aplikacje katalogujące muzykę. Najpopularniejsze standardy to ID3 (stosowany głównie w plikach MP3), Vorbis Comments (dla plików OGG i FLAC) czy APE tags. Takie otagowanie umożliwia nie tylko wygodne zarządzanie biblioteką muzyczną, ale też automatyczne tworzenie playlist, sortowanie według artystów czy wyszukiwanie po gatunku muzycznym. Z mojego doświadczenia warto od razu po pobraniu czy nagraniu dźwięku zadbać o poprawne tagi, bo potem łatwiej uniknąć chaosu w zbiorach. Praktycznie każda profesjonalna produkcja muzyczna dba o kompletność i dokładność tagów – to standard branżowy. Często spotyka się sytuację, że pliki pobrane z internetu nie mają prawidłowych tagów i wtedy trzeba je samodzielnie uzupełnić, np. używając programów takich jak Mp3tag czy MusicBrainz Picard. Sumując, otagowanie jest kluczowe, jeśli zależy nam na uporządkowanej i łatwo dostępnej kolekcji utworów.

Pytanie 26

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 1.1
B. 2.2
C. 2.1
D. 2.0
Oznaczenie 2.0 to absolutna podstawa, jeśli chodzi o systemy dźwięku wielokanałowego. Oznacza ono dwa kanały (czyli lewy i prawy), bez żadnego kanału subbasowego. Takie rozwiązanie to klasyczne stereo – znajdziesz je właściwie wszędzie: w telewizorach, komputerach, słuchawkach, a nawet w większości starszych konsol czy wież audio. W praktyce, jak podłączasz dwa głośniki albo słuchawki i nie masz subwoofera, to masz właśnie system 2.0. To bardzo uniwersalne rozwiązanie, bo pozwala słyszeć przestrzeń dźwiękową, lokalizować źródła w panoramie stereo, ale nie dodaje żadnych specjalnych efektów niskotonowych. W branży audio i przy projektowaniu instalacji nagłośnieniowych, 2.0 to standardowy punkt wyjścia. W kinie domowym czy grach komputerowych, kiedy słyszysz, że coś jest w stereo, to chodzi właśnie o 2.0. Kanał po kropce oznacza subwoofer – czyli jeśli go nie ma, jest 0. Warto wiedzieć, że niektóre wzmacniacze czy miksery automatycznie rozdzielają sygnał stereo na dwa kanały i nie mają wyjścia na subbas, co jest typowe dla prostszych systemów. Moim zdaniem dobrze jest znać tę notację, bo przydaje się na każdym kroku, nawet jak ktoś zaczyna przygodę z dźwiękiem. Dodatkowo, w standardach takich jak Dolby czy DTS, 2.0 zawsze oznacza brak osobnego kanału LFE (Low Frequency Effects). Jak ktoś planuje np. mini studio w domu, to właśnie od 2.0 się zaczyna i dopiero później rozważa dodanie subwoofera czy dodatkowych głośników.

Pytanie 27

Który z wymienionych efektów można wykorzystać w celu uzyskania zapętlenia dźwięku?

A. Declicker.
B. Delay.
C. Ducker.
D. Expander.
Delay to jedyny z wymienionych efektów, który faktycznie umożliwia uzyskanie zapętlenia dźwięku, bo polega na wielokrotnym powtarzaniu sygnału po określonym czasie – tak jak echo odbijające się od ściany, tylko że pod pełną kontrolą realizatora. Pozostałe efekty, takie jak ducker, declicker czy expander, mają zupełnie inne zastosowania i nie służą do zapętlania czy powtarzania dźwięku. Ducker to procesor wykorzystywany głównie w miksie, który automatycznie ścisza jeden sygnał, kiedy pojawia się inny – typowy przykład to radio, gdzie muzyka jest automatycznie ciszej, gdy prezenter zaczyna mówić. Taki efekt nie ma nic wspólnego z powtarzaniem fragmentów dźwięku czy generowaniem pętli, raczej z zarządzaniem przestrzenią między sygnałami. Declicker natomiast został stworzony do usuwania trzasków i zakłóceń, które mogą pojawić się na starych nagraniach lub podczas digitalizacji winyli – to narzędzie stricte naprawcze, nie kreatywne. Expander to rodzaj kompresora działający odwrotnie: zwiększa dynamikę sygnału, sprawia, że cichsze fragmenty są jeszcze cichsze, a głośniejsze pozostają bez zmian. Z mojego doświadczenia wynika, że niektórzy mylą expander z efektami typu gate lub kompresor, ale żaden z tych procesorów nie pracuje z powtarzaniem dźwięku. Typowym błędem jest też przekonanie, że każdy efekt, który wpływa na dynamikę lub czystość nagrania, może coś zapętlić – a przecież do tego potrzebne jest narzędzie, które faktycznie multiplikuje sygnał w czasie. Właściwe rozumienie działania poszczególnych efektów studyjnych to klucz do skutecznej pracy z dźwiękiem i unikania takich nieporozumień.

Pytanie 28

Która z funkcji w programie DAW służy do cofnięcia ostatnio wykonanej operacji edycji?

A. UNDO
B. COPY
C. REDO
D. PASTE
Odpowiedź „UNDO” jest jak najbardziej prawidłowa, bo właśnie ta funkcja w programach DAW (Digital Audio Workstation) odpowiada za cofnięcie ostatnio wykonanej operacji edycyjnej. Działa to bardzo podobnie, jak w innych aplikacjach – pozwala szybko naprawić pomyłkę, usunąć niechcianą zmianę lub wycofać eksperyment bez konieczności zaczynania wszystkiego od nowa. W praktyce, przy pracy z dużymi projektami muzycznymi, „UNDO” potrafi uratować sporo nerwów, szczególnie jeśli coś się przypadkowo usunie albo przesunie. Standardowo skrót klawiaturowy to Ctrl+Z (albo Cmd+Z na Macu) – to taki must-have dla każdego, kto pracuje z dźwiękiem. Moim zdaniem, znajomość tej funkcji przyspiesza pracę i zwiększa pewność siebie przy eksperymentowaniu, bo zawsze można się cofnąć o krok, a czasem nawet o kilka kroków. Warto jeszcze pamiętać, że niektóre DAWy pozwalają na tzw. wielokrotne cofanie (multi-level undo) – i to jest już w branży absolutny standard, bez tego trudno sobie wyobrazić efektywną produkcję. Często korzystam z „UNDO” przy korekcji miksu lub edycji MIDI – zanim się człowiek zorientuje, coś przestawi i nagle brzmi gorzej – jedno kliknięcie i po problemie. Dobrą praktyką jest też co jakiś czas zapisywać projekt, bo czasem historia „UNDO” kasuje się np. po zamknięciu sesji, ale to już zależy od konkretnego programu.

Pytanie 29

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 256 próbek.
B. 32 próbki.
C. 64 próbki.
D. 128 próbek.
Wybór większego bufora – 64, 128 czy nawet 256 próbek – to dość częsty wybór wśród początkujących, bo wydaje się, że stabilność systemu jest ważniejsza niż latencja. Jednak w praktyce wygląda to trochę inaczej. Zwiększenie bufora faktycznie wpływa pozytywnie na stabilność pracy komputera i zmniejsza ryzyko trzasków czy zawieszania się programu, szczególnie jeżeli projekt jest już rozbudowany i wykorzystuje wiele wtyczek czy instrumentów wirtualnych. Jednak kosztem takiej decyzji jest wyraźnie wyższa latencja, czyli opóźnienie między zagraniem dźwięku a jego usłyszeniem w odsłuchu. W nagraniach na żywo, przy monitoringu, nawet niewielkie opóźnienia potrafią mocno przeszkadzać wykonawcom i psuć całą dynamikę pracy. Często spotykam się z przekonaniem, że bufor 128 lub 256 próbek to „złoty środek”, ale to raczej kompromis wykorzystywany podczas miksowania lub pracy na słabszych komputerach. Tak naprawdę, zgodnie z dobrymi praktykami branżowymi, minimalną latencję zapewnia najniższa wartość bufora, czyli 32 próbki, o ile tylko sprzęt na to pozwala. Przestawianie bufora na wyższe wartości ma sens dopiero wtedy, gdy komputer nie radzi sobie z obciążeniem lub pojawiają się artefakty dźwiękowe. Często osoby początkujące nie zauważają, jak bardzo latencja wpływa na komfort nagrywania – czasem nawet kilka milisekund potrafi rozbić cały groove i utrudnić synchronizację muzyków. Z mojego doświadczenia wynika, że zbyt duży bufor podczas nagrań to jeden z najczęstszych błędów, który potem mści się na efekcie końcowym. Dlatego jeśli mówimy o minimalnej latencji w sesji DAW i nagrywaniu, to tylko najniższy rozmiar bufora – 32 próbki – spełni to zadanie.

Pytanie 30

Który z wymienionych kodeków stosowany jest w plikach o rozszerzeniu .ogg?

A. ALAC
B. FLAC
C. LAME
D. VORBIS
Moim zdaniem dość łatwo pomylić różne kodeki audio, bo nazwy bywają podobne albo mają wspólne cechy, ale w kontekście rozszerzenia .ogg trzeba spojrzeć na to trochę szerzej. FLAC i ALAC to kodeki bezstratne, ale FLAC jest najczęściej używany w plikach .flac, a ALAC to autorski kodek Apple'a stosowany głównie w iTunes i plikach .m4a, więc nie pasują do kontenera Ogg. LAME z kolei jest tylko implementacją kodeka MP3, więc jego naturalnym miejscem jest rozszerzenie .mp3, a nie .ogg. Z mojego doświadczenia wynika, że częstym błędem jest mylenie kontenera z samym kodekiem – kontener (czyli .ogg) to tylko „opakowanie” na dane audio, a kodek to sposób kodowania samych danych. Owszem, teoretycznie Ogg może przechowywać inne kodeki (np. FLAC), ale to marginalne przypadki i raczej nie spotyka się ich na co dzień, bo wtedy pliki mają inne rozszerzenia albo są opisane wyraźnie jako Ogg FLAC. No i jeszcze jedna rzecz: wybierając kodek do projektu, zawsze warto zwrócić uwagę na kompatybilność i licencjonowanie – o ile FLAC jest otwarty jak Vorbis, to ALAC długo był zamknięty, a MP3 (czyli LAME) przez lata był objęty patentami, co powodowało liczne zamieszanie w branży. Praktyczna wskazówka: jeśli masz odtwarzać albo kodować pliki .ogg, prawie zawsze będzie to Vorbis, bo tak przyjęło się w społeczności open source i linuksowej – to taki nieoficjalny standard. Warto wyrobić sobie nawyk sprawdzania nie tylko rozszerzenia, ale i faktycznego kodeka w środku pliku, bo to decyduje o kompatybilności z odtwarzaczami oraz możliwościach edycji audio.

Pytanie 31

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. szybszych i o słabszej jakości.
B. wolniejszych i o słabszej jakości.
C. szybszych i o lepszej jakości.
D. wolniejszych i o lepszej jakości.
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 32

Której z komend należy użyć w przypadku konieczności cofnięcia operacji w programie edycyjnym?

A. Rew
B. Undo
C. Redo
D. Back
Wybór innej komendy niż Undo świadczy o pewnym nieporozumieniu dotyczącym podstawowej terminologii, jaka funkcjonuje w środowisku programów edycyjnych. Często osoby początkujące kojarzą słowo Redo jako coś związanego z powrotem czy cofaniem, tymczasem Redo służy do wykonania ponownie akcji, którą poprzednio cofnięto za pomocą Undo. To zupełnie inny kierunek działań – Redo działa naprzód, a nie wstecz. Z kolei Rew brzmi trochę jak skrót od „rewind”, ale to określenie raczej spotyka się w kontekście odtwarzaczy multimedialnych, a nie programów edycyjnych. W aplikacjach do edycji tekstu czy grafiki taka komenda praktycznie nie występuje i jej użycie nie przyniosłoby oczekiwanego efektu cofnięcia ostatnich zmian. Komenda Back natomiast może się kojarzyć z powrotem do poprzedniego ekranu, katalogu czy strony, ale nie jest to tożsame z cofaniem operacji edycyjnej wewnątrz dokumentu czy projektu. To częsty błąd myślowy, bo w wielu miejscach Back oznacza cofnięcie się, ale nie w tym konkretnym kontekście. W praktyce zawodowej, niezależnie od branży – czy to grafika, programowanie czy edycja tekstu – korzystanie z Undo jako podstawowego narzędzia do cofania zmian jest standardem. Z mojego doświadczenia wynika, że dobra znajomość tych komend to podstawa płynnej pracy i unikania niepotrzebnych frustracji. Warto zawsze sprawdzić skróty klawiszowe i możliwości edytora, z którym się pracuje, bo nawet drobna pomyłka przy wyborze funkcji może skutkować utratą cennej pracy.

Pytanie 33

Która z wymienionych funkcji w programie do montażu dźwięku pod obraz umożliwia zablokowanie pozycji nagrania głosu lektora względem kodu czasowego obrazu?

A. Nudge.
B. Snap to Grid.
C. SMPTE Lock.
D. No Overlap.
Wiele osób zaczynających pracę z montażem audio może mieć skojarzenia z funkcjami takimi jak Nudge, No Overlap czy Snap to Grid, bo są one dość powszechnie używane w codziennym edytowaniu. Jednak żadna z nich nie daje gwarancji precyzyjnego zablokowania pozycji nagrania względem konkretnego kodu czasowego obrazu. Nudge pozwala tylko na przesuwanie klipu o określone, bardzo małe wartości – fajne przy drobnych korektach, ale nie zabezpiecza przed niechcianym przesunięciem, na przykład przez przypadkowe kliknięcie czy edycję innych elementów. No Overlap, choć brzmi ciekawie, jest raczej narzędziem do zapobiegania nakładaniu się klipów na siebie, co ma sens przy montażu dialogów czy efektów, ale nie ma nic wspólnego z blokowaniem pozycji względem timecode’u. Z kolei Snap to Grid pomaga przy ustawianiu elementów w równych odstępach, korzystając z siatki, co przydaje się przy montażu muzyki czy efektów rytmicznych, ale ta funkcja nie jest wystarczająco precyzyjna i nie „przypina” klipu do konkretnego miejsca na stałe. Typowym błędem jest myślenie, że jak coś jest „przyciągane” do gridu albo blokowane przed nakładaniem się, to już wystarczy – a w praktyce w pracy z obrazem liczy się absolutna stabilność synchronizacji z timecode’em. W branży filmowej i reklamowej to właśnie SMPTE Lock uznaje się za jedyne prawdziwe rozwiązanie gwarantujące, że ścieżka lektora czy efekt nie rozjedzie się z obrazem, niezależnie od tego, co później zrobi montażysta czy reżyser dźwięku. Bez tego naprawdę łatwo o poważną wpadkę synchronizacyjną, która potem kosztuje masę czasu i nerwów na poprawki.

Pytanie 34

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 25 MB
B. 15 MB
C. 45 MB
D. 35 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 35

Która z wymienionych ścieżek sesji oprogramowania DAW wykorzystywana jest typowo jako wirtualna szyna do obsługi efektów pogłosowych?

A. AUDIO
B. AUX
C. INSTRUMENTS
D. MIDI
Odpowiedź AUX jako wirtualna szyna do efektów pogłosowych to strzał w dziesiątkę. W większości profesjonalnych DAW-ów (czy to Pro Tools, Cubase, Ableton czy nawet mniej popularnych programach), ścieżka typu AUX jest właśnie stworzona do obsługi efektów globalnych, takich jak pogłos czy delay, które mają być używane na wielu śladach jednocześnie. Przykład z życia: masz miks z kilkoma różnymi instrumentami i chcesz, żeby wszystkie miały ten sam charakter pogłosu – wtedy zamiast nakładać osobny efekt na każdą ścieżkę (co zabija procesor, serio), wysyłasz trochę sygnału z każdej ścieżki na AUX z podpiętym pogłosem. Dzięki temu osiągasz spójność brzmieniową, a poza tym łatwiej kontrolować poziom pogłosu w całym miksie jednym suwakiem. Takie podejście jest super wydajne, bo pozwala na oszczędzanie zasobów systemowych, ale też daje ogromne pole do kreatywności: można zautomatyzować sendy, zmieniać ilość efektu w zależności od aranżu, itd. W profesjonalnym studiu nie spotkałem jeszcze nikogo, kto nie używałby AUX-ów właśnie do takich celów. To trochę jak z dobrym narzędziem – nie wyobrażam sobie pracy bez niego. W sumie, to jest taki trochę fundament pracy w DAWie i warto się tego nauczyć już na początku.

Pytanie 36

Który z wymienionych nośników cyfrowych zapewnia najdłuższy okres przechowywania danych bez pojawienia się błędów?

A. M-Disc (Millennial Disc)
B. DVD DL (DVD Dual Layer)
C. Mini CD-RW
D. CD-R
Wybierając nośnik cyfrowy do długoterminowej archiwizacji danych, łatwo ulec złudzeniu, że tradycyjne płyty takie jak CD-R, Mini CD-RW czy DVD DL wystarczą na bardzo długi czas. Jednak to nie do końca prawda – wszystkie one wykorzystują warstwy organiczne czułe na światło i wilgoć, przez co ich realna trwałość jest znacznie mniejsza niż się powszechnie uważa. CD-R, choć popularny od lat 90., w praktyce zaczyna tracić dane już po kilku, kilkunastu latach, zwłaszcza jeśli był nagrany tanim sprzętem lub przechowywany w nieoptymalnych warunkach. Mini CD-RW to właściwie ta sama technologia, tyle że płyta jest mniejsza i rewritable, ale niestety przez to jeszcze mniej trwała – wielokrotne kasowanie i zapis powoduje, że warstwa zapisywalna szybko ulega zużyciu. DVD DL, czyli dwuwarstwowe DVD, pozwala co prawda na zapis większej ilości danych, ale nie rozwiązuje podstawowego problemu – barwniki i warstwy zapisu są bardzo wrażliwe na czynniki zewnętrzne. Jest taki mit, że jak coś jest na płycie, to wytrzyma wieki, ale z doświadczenia branżowego wynika, że archiwizacja na tych nośnikach wymaga regularnych migracji danych, zgodnie z dobrą praktyką IT. Kluczowym błędem jest pomijanie aspektu chemicznej trwałości warstwy zapisu – a tu właśnie M-Disc zdecydowanie wygrywa, bo stosuje niebarwnikową, praktycznie niewrażliwą na starzenie się warstwę ceramiczną. Archiwizacja na CD-R, DVD DL czy Mini CD-RW może się sprawdzić na kilka lat, ale jeśli komuś zależy na bezpieczeństwie danych przez dekady, to warto rozważyć inne, bardziej zaawansowane nośniki, właśnie takie jak M-Disc. W praktyce branżowej, a nawet w archiwach państwowych czy korporacyjnych, coraz częściej rezygnuje się z tradycyjnych płyt na rzecz technologii znacznie bardziej odpornych na upływ czasu.

Pytanie 37

Która z wymienionych funkcji w sesji oprogramowania DAW służy do skokowego wyciszenia dźwięku na ścieżce?

A. SOLO
B. MUTE
C. FADE IN
D. ON
Każda z odpowiedzi ma swoje miejsce w pracy z DAW, ale tylko jedna z nich faktycznie realizuje skokowe wyciszenie ścieżki. Wybierając ON, można się łatwo pomylić, bo ten przycisk najczęściej dotyczy włączania lub aktywowania ścieżki bądź konkretnego urządzenia (np. instrumentu wirtualnego, efektu), ale nie odpowiada za szybkie wyciszenie dźwięku. SOLO z kolei bywa mylący, bo naciskając go, faktycznie słyszymy głównie wybraną ścieżkę – jednak cała reszta zostaje czasowo „wyciszona” tylko w odsłuchu. SOLO nie usuwa dźwięku tej ścieżki z miksu, a raczej tymczasowo wyłącza wszystkie inne ścieżki, więc to zupełnie inna funkcjonalność niż typowe MUTE. Dość często początkujący realizatorzy myślą, że to zamienne operacje, ale w praktyce SOLO służy głównie do analizy poszczególnych elementów miksu, a nie do zarządzania aranżacją. FADE IN natomiast odnosi się wyłącznie do efektu płynnego narastania głośności dźwięku na początku ścieżki – to taki zabieg typowo montażowy, stosowany dla łagodniejszego wejścia instrumentu czy wokalu. FADE IN nie „wycina” dźwięku, tylko sprawia, że pojawia się on stopniowo, więc skokowe wyciszenie jest kompletnie poza jego zakresem. Moim zdaniem, częstym błędem jest utożsamianie różnych przycisków DAW na zasadzie prostych skojarzeń, zamiast faktycznie przyjrzeć się ich funkcjom. Warto wyrobić sobie nawyk świadomego używania MUTE, żeby zapanować nad skomplikowanymi aranżacjami i nie wprowadzać niepotrzebnego zamieszania na etapie miksowania.

Pytanie 38

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .ape
B. .flac
C. .wav
D. .m4a
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 39

Która z funkcji programu DAW typowo umożliwia płynne przejście między dwoma sąsiadującymi plikami dźwiękowymi umieszczonymi na ścieżce w sesji montażowej?

A. Select.
B. Crossfade.
C. Group.
D. Split.
Crossfade to bardzo charakterystyczna funkcja spotykana praktycznie w każdym nowoczesnym DAW-ie, która pozwala na zrobienie naprawdę płynnego przejścia między dwoma klipami audio ustawionymi obok siebie na jednej ścieżce. W praktyce polega to na tym, że końcówka wcześniejszego pliku zostaje stopniowo ściszana (fade out), a początek następnego zostaje stopniowo podgłaśniany (fade in). Oba te procesy nakładają się na siebie przez wybrany fragment czasu i dzięki temu nie słychać żadnych trzasków, szumów czy nienaturalnych przerw. Moim zdaniem to wręcz podstawa, jeśli chodzi o montaż muzyczny, podcasty, nagrania lektorskie czy postprodukcję filmową. Branżowe workflow po prostu wymaga korzystania z crossfade'ów, chociażby dlatego, że bez nich bardzo łatwo byłoby o błędy montażowe albo nieprzyjemne artefakty. Warto pamiętać, że różne DAW-y dają sporo opcji kształtowania charakterystyki crossfade'u – można manipulować krzywą wygaszania i narastania, co pozwala dopasować efekt do konkretnych potrzeb. No i jeszcze jedno – crossfade stosuje się nie tylko w edycji audio, ale i przy miksowaniu utworów w DJ-ingu. To takie narzędzie, które jak już raz się opanuje, to trudno sobie potem wyobrazić pracę bez niego.

Pytanie 40

Który z wymienionych formatów należy wybrać jako docelowy podczas archiwizacji materiału dźwiękowego, aby otrzymać plik o zredukowanym rozmiarze, ale przy zachowaniu oryginalnej jakości dźwięku?

A. WAV
B. FLAC
C. WMA
D. MP3
Wybór formatu do archiwizacji materiału dźwiękowego często bywa mylący, bo intuicja podpowiada sięgnięcie po popularne i powszechnie używane rozszerzenia, takie jak MP3 czy WMA. Jednak oba te formaty polegają na kompresji stratnej, co oznacza, że podczas procesu kodowania część danych audio jest nieodwracalnie usuwana. To prowadzi do mniejszego rozmiaru pliku, ale też – nawet przy wysokich bitrate'ach – do utraty detali, spłaszczenia przestrzeni dźwięku i powstawania artefaktów, które mogą być słyszalne na lepszym sprzęcie. MP3 to świetny wybór na odtwarzacze przenośne czy publikowanie w internecie, ale w archiwum, gdzie chodzi o zachowanie oryginału, zupełnie się nie sprawdza. Z kolei WMA, choć czasem reklamowany jako bardziej wydajny niż MP3, również stosuje algorytmy stratne (jest też wersja bezstratna, ale nie jest ona powszechnie wspierana i jest zamknięta). WAV z kolei to absolutny standard, jeśli chodzi o przechowywanie nagrań bez żadnej kompresji. Plik WAV zawiera pełną, nieskompresowaną informację dźwiękową, ale przez to zajmuje bardzo dużo miejsca – dla jednej godziny dźwięku stereo w jakości CD trzeba liczyć się z ponad 600 MB. W praktyce to generuje niepotrzebny problem z przestrzenią, zwłaszcza przy archiwizowaniu dużych zbiorów. Typowym błędem jest utożsamianie jakości z popularnością formatu albo myślenie, że najpopularniejsze pliki audio są równocześnie najlepsze do archiwizacji. W branży za standard uznaje się obecnie formaty bezstratnej kompresji, takie jak FLAC, które redukują rozmiar bez żadnych kompromisów w jakości i są rekomendowane przez specjalistów ds. digitalizacji oraz archiwistów. Warto na to zwracać uwagę, bo wybór formatu to inwestycja w trwałość i jakość archiwum na długie lata.