Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 10:52
  • Data zakończenia: 29 kwietnia 2026 11:07

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 17 MB
B. 14 MB
C. 11 MB
D. 8 MB
Prawidłowo, bo dokładne obliczenie rozmiaru pliku dźwiękowego o parametrach 48 kHz, 24 bity, stereo (czyli dwa kanały), i długości 1 minuty daje wynik bardzo zbliżony do 17 MB. Zasada jest prosta: najpierw obliczamy liczbę próbek na sekundę (48 000), potem mnożymy przez liczbę bitów na próbkę (24), a potem jeszcze przez liczbę kanałów (2, bo stereo). Całość jeszcze przez 60 sekund, żeby dostać sumę bitów dla całej minuty. Później dzielimy przez 8, żeby zamienić bity na bajty, i jeszcze przez 1 048 576 (czyli 1024x1024), żeby dostać wynik w megabajtach. Wychodzi w praktyce 16,5 MB, a biorąc pod uwagę zaokrąglenia i niewielki zapas, przyjęcie 17 MB to bardzo poprawny wybór zgodny z praktyką branżową. W profesjonalnych studiach i przy pracy z urządzeniami audio, zawsze warto zostawić trochę dodatkowej przestrzeni, bo czasem metadane lub nagłówki plików lekko zwiększają rozmiar. Moim zdaniem, znajomość tego typu wyliczeń jest kluczowa przy projektowaniu infrastruktury do archiwizacji i obróbki dźwięku, żeby potem nie było zaskoczenia, że nagle zabrakło miejsca na dysku. Dobrą praktyką jest też stosowanie formatów bezstratnych (jak WAV czy FLAC), a one często trzymają się właśnie tych szacunkowych rozmiarów. Takie podejście przydaje się nie tylko w studiu, ale i w radiu, telewizji czy wszędzie tam, gdzie ważna jest jakość i przewidywalność zapotrzebowania na przestrzeń dyskową.

Pytanie 2

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. CD Text.
B. ISRC CD Code.
C. mp3 CD.
D. CD Burn.
W tym pytaniu łatwo się pomylić, bo różne formaty płyt i standardy bywają mylone, zwłaszcza gdy chodzi o cyfrowe dane i audio. Często spotykam się z przekonaniem, że mp3 CD to to samo co CD-Audio – a to jednak dwa całkiem różne światy. Płyta mp3 CD to po prostu nośnik, na którym zapisujemy pliki mp3, więc ani nie jest to standard audio, ani nie daje możliwości dołączania informacji tekstowych w sposób zgodny z odtwarzaczami CD-Audio. Jasne, pliki mp3 mają swoje tagi ID3, gdzie zapiszemy tytuł, wykonawcę czy okładkę, ale typowy odtwarzacz CD-Audio nie odczyta tych danych, bo nie rozumie struktury mp3. Opcja CD Burn to po prostu nazwa kojarzona z procesem wypalania płyty („burn” znaczy wypalać), a nie żaden format czy rozszerzenie. Możliwe, że ktoś się nabrał na brzmienie tej nazwy, bo wydaje się techniczna, ale nie ma żadnego związku z dodatkowymi danymi na płycie. Z kolei ISRC CD Code to osobny standard – chodzi o unikalny kod identyfikacyjny utworu lub nagrania (International Standard Recording Code). Ten kod jest ważny dla rozliczeń prawnych, licencyjnych i śledzenia emisji muzyki, ale on nie jest przechowywany jako ogólnodostępny tekst widoczny dla użytkownika na odtwarzaczu, tylko raczej do celów organizacyjnych w przemyśle muzycznym. Moim zdaniem, najczęstszy błąd polega na myleniu możliwości różnych formatów cyfrowych z tym, co faktycznie jest obsługiwane przez sprzęt audio zgodny z CD-Audio. Standard CD Text to jedyna z wymienionych opcji, która umożliwia dołączenie opisowych danych zgodnie z oryginalną specyfikacją płyt kompaktowych audio. Warto rozróżniać formaty plików od rozszerzeń funkcjonalnych standardowych nośników – to pomaga uniknąć nieporozumień, zwłaszcza w pracy z archiwizacją muzyki czy przygotowaniem profesjonalnych płyt.

Pytanie 3

W jakim formacie plików występują znaczniki ID3?

A. .mp3
B. .wav
C. .aiff
D. .bwf
Wśród plików audio istnieje kilka popularnych formatów, jednak nie wszystkie z nich obsługują zaawansowane znaczniki metadanych, takie jak ID3. W przypadku plików AIFF (.aiff) i WAV (.wav), chociaż są one szeroko używane w profesjonalnej produkcji dźwiękowej, głównie ze względu na wysoką jakość i brak kompresji stratnej, to jednak nie mają one natywnego wsparcia dla znaczników ID3. Oczywiście, do WAV można czasem dołączyć prostsze metadane (na przykład w chunku INFO), ale to zupełnie inny standard niż ID3. Podobnie pliki BWF (.bwf), czyli Broadcast Wave Format, są rozwinięciem WAV stworzonym głównie na potrzeby profesjonalnych zastosowań radiowych i telewizyjnych. Tam standardem są raczej specjalistyczne metadane związane z czasem nagrania czy identyfikacją materiału, a nie klasyczne tagi ID3 znane z odtwarzaczy muzycznych. Przyznam, że często spotykam się z myleniem możliwości różnych formatów – część osób zakłada, że skoro plik audio, to metadane muszą być zawsze dostępne i uniwersalne. Niestety, to nie takie proste. ID3 zostały stworzone stricte z myślą o MP3 i to ten format jest z nimi najmocniej kojarzony, bo pozwala na łatwe katalogowanie muzyki i wygodne wyświetlanie informacji na ekranach odtwarzaczy. Przenoszenie ID3 do innych formatów nie przyjęło się szeroko, głównie ze względu na różnice w budowie tych plików oraz brak wsparcia przez odtwarzacze audio. Dlatego właśnie wybierając format pliku do muzyki, którą chcemy opublikować z pełnymi metadanymi, najczęściej poleca się właśnie MP3, bo wtedy mamy gwarancję, że wszystko będzie wyświetlane jak należy u praktycznie każdego użytkownika.

Pytanie 4

Częstotliwość próbkowania 96 kHz kojarzona jest najczęściej

A. z próbkowaniem na potrzeby płyty DVD-Audio.
B. z niską rozdzielczością procesu próbkowania.
C. z próbkowaniem dla transmisji zakresu mowy.
D. z próbkowaniem na potrzeby płyty CD-Audio.
Częstotliwość próbkowania 96 kHz zdecydowanie kojarzy się z zaawansowanymi systemami audio, zwłaszcza z płytami DVD-Audio. W branży muzycznej i filmowej wysokie próbkowanie pozwala na uzyskanie znacznie lepszej jakości dźwięku – chodzi tutaj o zachowanie większej ilości szczegółów, a także szerszego pasma przenoszenia. DVD-Audio, w przeciwieństwie do klasycznych płyt CD (gdzie mamy 44,1 kHz), umożliwia odtwarzanie dźwięku o wyższej rozdzielczości, co doceniają zarówno profesjonaliści, jak i audiofile. Jest to szczególnie ważne przy nagraniach wielokanałowych lub materiałach do masteringu. Co ciekawe, 96 kHz przydaje się również w studiach nagrań – przy edycji i miksowaniu pozwala na większą swobodę przy późniejszej konwersji czy przetwarzaniu efektów cyfrowych, bo większa liczba próbek na sekundę po prostu daje większy margines błędu i lepszą jakość końcową. Moim zdaniem warto pamiętać, że standard DVD-Audio został stworzony właśnie po to, żeby pozwolić na dużo wyższą jakość niż ta dostępna na płytach CD i to próbkowanie 96 kHz jest jednym z jego najbardziej rozpoznawalnych wyróżników. Z mojego doświadczenia wynika, że jeśli ktoś pracuje profesjonalnie z dźwiękiem, to od razu kojarzy 96 kHz z zaawansowanymi zastosowaniami studyjnymi i archiwizacją na wysokim poziomie.

Pytanie 5

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 120 s
B. 60 s
C. 10 s
D. 1 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 6

Spośród wymienionych programów wskaż ten, który umożliwia zarówno zapis audio, jak i komunikatów MIDI.

A. WaveLab.
B. Audacity.
C. Sound Forge.
D. Cubase.
Cubase to zdecydowanie jedno z najbardziej rozpoznawalnych narzędzi typu DAW (Digital Audio Workstation) na rynku, zwłaszcza jeśli chodzi o produkcję muzyki zarówno na poziomie profesjonalnym, jak i amatorskim. Wyróżnia się tym, że umożliwia nie tylko nagrywanie i edycję ścieżek audio, ale też bardzo rozbudowaną obsługę komunikatów MIDI – czyli takiego standardu, którym steruje się instrumentami wirtualnymi, syntezatorami czy efektami. Sam często widziałem, jak realizatorzy nagrywają żywe instrumenty, wokale, a jednocześnie dodają partie MIDI np. dla perkusji czy syntezatorów, mając to wszystko w jednym projekcie. Cubase obsługuje też zaawansowane funkcje jak automatyzacja, routing czy integracja z wtyczkami VST, co jest nieocenione przy miksie i masteringu. Z mojego doświadczenia wynika, że jest to program bardzo elastyczny, nadający się zarówno do prostych nagrań domowych, jak i skomplikowanych sesji studyjnych. W branży muzycznej uważany jest za jeden ze standardów, a możliwość płynnej pracy z MIDI i audio znacząco przyspiesza kreatywny proces i ułatwia zachowanie wysokiej jakości produkcji.

Pytanie 7

Płytę CD lub DVD powinno się opisać, bez ryzyka jej uszkodzenia, za pomocą

A. ostrego rysika.
B. flamastra zawierającego alkohol.
C. flamastra niezawierającego alkoholu.
D. długopisu.
Wielu osobom wydaje się, że do opisywania płyt CD czy DVD można użyć praktycznie dowolnego narzędzia do pisania, bo przecież płyta wydaje się dość trwała. To niestety bardzo mylące przekonanie. Użycie długopisu kusi – jest zawsze pod ręką, zostawia wyraźny ślad, ale niestety końcówka długopisu jest na tyle twarda, że może uszkodzić cienką, ochronną warstwę poliwęglanu. W skrajnych przypadkach może dojść wręcz do punktowego pęknięcia powierzchni, szczególnie jeśli ktoś mocniej przyciśnie – a wtedy dane z płyty mogą być nieczytelne. Ostry rysik to już w ogóle zły pomysł – nawet nie chodzi tylko o rysowanie, ale o możliwość fizycznego naruszenia warstw, w których zapisane są dane. Płyty optyczne nie są tak odporne, jak się wydaje; ich powierzchnia jest podatna na mikrouszkodzenia, które potem mogą prowadzić do błędów odczytu. Markery alkoholowe także wydają się z pozoru praktyczne; piszą niemalże na każdej powierzchni, ale niestety ich składniki chemiczne – głównie alkohole i inne rozpuszczalniki – mogą wnikać przez lakier ochronny i uszkadzać warstwę zapisu. Z perspektywy praktyka, wystarczy kilka miesięcy, żeby pojawiły się przebarwienia lub nawet mikropęknięcia na płycie. Często bagatelizuje się te zalecenia, bo wydaje się, że to przesada producentów, ale fakty są takie, że takie błędy prowadzą do szybkiej degradacji nośnika. Najlepszą praktyką, zgodnie z zaleceniami branżowymi i doświadczeniem ludzi zajmujących się archiwizacją danych, jest stosowanie specjalnych markerów bezalkoholowych – są przeznaczone właśnie do tego celu i zapewniają, że opisywanie nie wpłynie negatywnie na trwałość płyty. Ostatecznie, to niewielki koszt w porównaniu z potencjalną utratą ważnych danych.

Pytanie 8

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 1 MB
B. Około 10 MB
C. Około 5 MB
D. Około 20 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 9

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. WAV
B. RIFF
C. CDA
D. MP3
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 10

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 192 kHz
B. 48 kHz
C. 44,1 kHz
D. 96 kHz
Wiele osób myli częstotliwości próbkowania, bo w branży audio przewija się kilka typowych wartości. 48 kHz na przykład najczęściej stosuje się w produkcji wideo, nagraniach telewizyjnych oraz na planie filmowym. To jest taki domyślny wybór przy nagrywaniu ścieżek dźwiękowych do materiałów wideo, bo standardy telewizyjne tego wymagają – ale to nie jest format CD-Audio. 96 kHz i 192 kHz to już tak zwane częstotliwości „hi-res”, używane w profesjonalnych studiach, przy masteringu czy archiwizowaniu bardzo wymagających nagrań. Pozwalają one zarejestrować dużo większą ilość szczegółów, a także znacznie rozszerzyć zakres częstotliwości powyżej tego, co słyszy przeciętny człowiek. Czasem można się nabrać, że skoro te wartości są wyższe, to muszą być stosowane w każdym profesjonalnym formacie, ale w rzeczywistości w standardzie CD-Audio obowiązuje 44,1 kHz. Głównym powodem tej różnicy są wymagania sprzętowe i ograniczenia, które obowiązywały w czasach powstania płyt CD – zarówno jeśli chodzi o pojemność, jak i możliwości przetwarzania sygnału. Często można spotkać się z opinią, że wyższa częstotliwość próbkowania zawsze oznacza lepszą jakość, co nie jest do końca prawdą – dla większości zastosowań konsumenckich 44,1 kHz w zupełności wystarcza, a wręcz wyższe wartości są marnotrawstwem zasobów, jeśli nie pracujemy w środowisku studyjnym. Moim zdaniem to jeden z takich szkolnych błędów: patrzymy na wyższą liczbę i automatycznie myślimy, że to musi być lepszy standard, a nie zawsze uwzględniamy specyfikę konkretnego formatu i historię jego powstania. CD-Audio i tylko 44,1 kHz – tak to zostało zapisane w specyfikacji Red Book i na tym trzeba się wzorować, wybierając odpowiednią wartość.

Pytanie 11

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .aiff
B. .wav
C. .riff
D. .mp3
Wiele osób myli pojęcie formatów plików audio z kodekami, co prowadzi do błędnych przekonań na temat tego, które narzędzia generują jakie typy plików. Na przykład AIFF oraz WAV to tzw. formaty nieskompresowane, wykorzystywane głównie do przechowywania dźwięku w jakości studyjnej – często w produkcji muzycznej, montażu czy archiwizacji. RIFF, natomiast, to struktura kontenera używana przez niektóre formaty, na przykład WAV, ale sam w sobie nie jest popularnym rozszerzeniem pliku audio. LAME nie jest przeznaczony do tworzenia plików WAV czy AIFF, bo te nie wymagają stratnej kompresji – to są formaty, które zachowują pełną jakość dźwięku i raczej się ich nie kompresuje przy użyciu kodeków MP3. Najczęstszym błędem jest założenie, że skoro narzędzie obsługuje dźwięk, to może zapisać dowolny format – a to nie jest prawda. Kodek LAME, zgodnie ze standardami branżowymi i dokumentacją, służy wyłącznie do kodowania plików audio do stratnego formatu MP3. Dokładnie z tego powodu profesjonalne oprogramowanie do konwersji audio daje wybór kodeka pod konkretny format pliku – nie da się na przykład skonwertować pliku WAV do WAV za pomocą LAME, bo ten kodek nie posiada odpowiedniej funkcjonalności. Po prostu, jeśli ktoś próbuje przy jego użyciu uzyskać plik .wav, to trochę tak, jakby próbował młotkiem przykręcić śrubę – narzędzie nie do tego celu. W praktyce, jeśli zależy nam na pliku wysokiej jakości, wybieramy WAV lub AIFF, a jeśli na rozmiarze i szerokiej kompatybilności – wybieramy MP3 i właśnie wtedy korzystamy z LAME. Warto się nauczyć rozróżniać formaty nieskompresowane od stratnych – to podstawa pracy z dźwiękiem i niezbędna wiedza przy wyborze narzędzi w produkcji audio.

Pytanie 12

W celu zachowania pełnej informacji o przebiegu oryginalnego sygnału dźwiękowego w pliku źródłowym, w procesie zmniejszania rozmiaru pliku należy zastosować metodę

A. resamplingu.
B. oversamplingu.
C. kompresji bezstratnej.
D. kompresji stratnej.
Wiele osób myli pojęcia związane z przetwarzaniem sygnałów audio, szczególnie kiedy mowa o zmniejszaniu rozmiaru plików i zachowywaniu jakości. Resampling to proces polegający na zmianie częstotliwości próbkowania sygnału, co może skutkować utratą pewnych informacji o oryginalnym brzmieniu, zwłaszcza jeśli nowa częstotliwość jest niższa. To narzędzie przydatne w określonych przypadkach, na przykład gdy chcemy dostosować dźwięk do odtwarzania na sprzęcie o innych parametrach, ale nie gwarantuje zachowania wszystkich detali oryginału. Oversampling zaś to technika odwrotna – polega na zwiększeniu częstotliwości próbkowania, co może poprawić jakość odtwarzania w specyficznych zastosowaniach, ale nie zmniejsza rozmiaru pliku, wręcz przeciwnie, zwykle go powiększa, więc zupełnie nie rozwiązuje omawianego problemu. Kompresja stratna, którą często stosuje się w popularnych formatach jak MP3 czy AAC, zdecydowanie nie jest metodą do zachowywania pełnej informacji – w tym przypadku część danych jest celowo usuwana, co zmniejsza rozmiar pliku, ale bez możliwości ich odzyskania. To jest dobre podejście tam, gdzie jakość nie jest priorytetem, na przykład w strumieniowaniu muzyki albo na urządzeniach przenośnych z małą pamięcią. W praktyce wybór tych sposobów wynika często z błędnego założenia, że „zmiana parametrów pliku zawsze wystarczy”, ale jeśli komuś zależy na wiernym odwzorowaniu oryginalnego sygnału, tylko kompresja bezstratna spełnia te wymagania. To jest potwierdzone zarówno przez standardy branżowe, jak i doświadczenie realizatorów dźwięku – po prostu nic innego nie daje gwarancji, że wszystkie szczegóły brzmienia zostaną zachowane przy mniejszym rozmiarze pliku.

Pytanie 13

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .m4a
B. .wav
C. .ape
D. .flac
Wiele osób wybierając formaty jak .ape, .flac czy .m4a często kieruje się przekonaniem, że skoro mogą oferować wysoką jakość dźwięku, to zapewniają takie same właściwości techniczne jak .wav. To jednak nie do końca prawda. Zasadniczy błąd wynika ze złego zrozumienia pojęć takich jak stała i zmienna przepływność bitowa. Pliki .ape oraz .flac bazują na kompresji bezstratnej, co oznacza, że zachowują całość informacji audio, ale ich mechanizmy działania pozwalają na stosowanie zarówno CBR, jak i VBR (variable bitrate), czyli przepływność jest dopasowywana do złożoności fragmentu utworu. W praktyce wiele narzędzi kodujących domyślnie używa przepływności zmiennej, żeby optymalizować rozmiar pliku. Jeśli chodzi o .m4a – ten format to w rzeczywistości kontener, który najczęściej stosuje kodeki stratne jak AAC, albo bezstratne jak ALAC. Kodeki stratne, a nawet ALAC, także pozwalają na ustawienia przepływności zmiennej, co ułatwia uzyskanie mniejszych plików bez drastycznego spadku jakości. Typowym błędem jest też mylenie różnych formatów z kodekami – kontener .m4a nie narzuca na stałe sposobu kodowania bitów, to zależy od konkretnego kodeka. Z drugiej strony .wav jest formatem, w którym praktyka branżowa i standardy narzucają stałe parametry – nie ma miejsca na dynamiczne zmiany przepływności. To bardzo ważne, szczególnie tam, gdzie wymagana jest przewidywalność rozmiaru pliku i pełna kompatybilność. Moim zdaniem, w codziennej pracy można się nieźle pogubić w tym gąszczu formatów i kodeków – dlatego warto zawsze doczytać specyfikację konkretnego rozwiązania, a nie bazować tylko na nazwie rozszerzenia pliku.

Pytanie 14

Wskaż nośnik, który można przechowywać w pobliżu głośników, bez obaw o utratę danych.

A. Taśma magnetofonowa.
B. Płyta Blu-ray.
C. MiniDisc.
D. Kaseta VHS.
Płyta Blu-ray to nośnik optyczny, co oznacza, że do zapisu i odczytu danych wykorzystuje światło lasera, a nie pole magnetyczne. Z tego względu nie jest podatna na wpływ pola magnetycznego, jakie wytwarzają głośniki czy inne urządzenia elektroniczne. W praktyce, w branży IT i w zastosowaniach domowych, płyty Blu-ray, podobnie jak DVD czy płyty CD, można spokojnie przechowywać nawet w pobliżu silnych głośników, bez ryzyka utraty danych czy uszkodzenia zawartości. To ogromna przewaga nad nośnikami magnetycznymi, gdzie ryzyko rozmagnesowania i utraty informacji jest całkiem realne. Sam kiedyś przechowywałem filmy na Blu-ray zaraz obok kolumn i nigdy nie miałem z tym problemu. To trochę taki standard branżowy – optyczne nośniki są odporne na pole magnetyczne, co czyni je dużo bezpieczniejszym wyborem w tego typu lokalizacjach. Dodatkowa zaleta to długowieczność – prawidłowo przechowywane płyty Blu-ray mogą przetrwać kilkanaście czy nawet kilkadziesiąt lat, o ile nie porysują się mechanicznie. Warto jednak pamiętać, żeby unikać ekstremalnych temperatur czy ekspozycji na światło słoneczne, bo to rzeczywiście może już im zaszkodzić. W sumie, przechowywanie Blu-ray przy głośnikach nie niesie za sobą żadnego ryzyka związanego z ich konstrukcją i technologią zapisu.

Pytanie 15

Spośród wymienionych wskaż program dedykowany wyłącznie do edycji audio.

A. Apple Logic Pro
B. Avid Pro Tools
C. Steinberg Cubase
D. Steinberg WaveLab
Steinberg WaveLab to przykład oprogramowania, które od początku projektowano wyłącznie z myślą o edycji i masteringu dźwięku. To narzędzie typowo dla profesjonalistów, którzy skupiają się na pracy z pojedynczymi plikami audio, ich edycją, analizą, korektą i finalnym masteringiem. Nie znajdziesz tu rozbudowanych funkcji typowych dla DAW, jak rozbudowana obsługa MIDI czy wielośladowe nagrywanie sesji muzycznych. Z mojego doświadczenia, WaveLab jest często wybierany przez realizatorów dźwięku przy przygotowywaniu materiału do tłoczenia płyt CD, przygotowywaniu podcastów czy restauracji archiwalnych nagrań, gdzie potrzeba narzędzi do precyzyjnej obróbki fali dźwiękowej – np. usuwania szumów, klików czy korekcji barwy. W branży uznaje się, że dedykowane edytory audio, takie jak WaveLab lub Adobe Audition, zapewniają większą kontrolę nad detalami niż rozbudowane stacje robocze audio (DAW). Takie podejście pozwala uzyskać wyższy poziom jakości końcowego materiału audio, bo narzędzia masteringowe są wyraźnie lepiej zoptymalizowane pod kątem analizy sygnału, renderowania czy eksportu według profesjonalnych standardów (np. Red Book CD, EBU R128). W codziennej pracy z dźwiękiem często korzystam z WaveLab właśnie tam, gdzie liczy się chirurgiczna precyzja i szybkość pracy na plikach audio, np. w radiu albo przy gotowych nagraniach lektorskich.

Pytanie 16

Format pliku dźwiękowego, który zawiera listę komend dla modułu brzmieniowego, to

A. .wav
B. .mod
C. .flac
D. .mid
Wiele osób myli rozszerzenia plików audio, bo tak szczerze, niektóre z nich są do siebie bardzo podobne z nazwy, a zupełnie różnią się funkcjonowaniem. Na przykład .wav to format nieskompresowanego dźwięku, gdzie zapisuje się rzeczywiste próbki audio, czyli – mówiąc prosto – to, co mikrofon nagrał albo komputer wygenerował. Z tego powodu .wav jest popularny w profesjonalnej produkcji muzyki, bo daje wysoką jakość, ale kompletnie nie nadaje się do przesyłania poleceń do modułu brzmieniowego. Podobnie .flac, tylko że tu mamy już kompresję bezstratną – znowu chodzi wyłącznie o przechowywanie dźwięku, a nie instrukcji dla syntezatorów czy instrumentów. Co do pliku .mod, to jest to trochę pułapka – bo chociaż format ten był popularny na komputerach Amiga i bazuje na idei zlecania brzmień do odtwarzacza, to jednak zawiera również próbki dźwiękowe, z których buduje muzykę. MOD łączy sample i sekwencje nut, ale nie jest to zestaw suchych poleceń jak w MIDI, bo do odtworzenia potrzebny jest konkretny „silnik” odczytujący dane sample. Często spotykam się z tym, że ludzie myślą, że każdy format muzyczny automatycznie obsługuje sterowanie sprzętem – co nie jest prawdą. Tylko MIDI, czyli .mid, powstało typowo jako język komunikacji między urządzeniami muzycznymi. Tam nie ma ani kawałka dźwięku, tylko cała lista instrukcji, które mogą być wysyłane na żywo do syntezatora lub innych urządzeń. W praktyce wybierając inne formaty, jak .wav, .flac czy .mod, nie uzyskamy efektu sterowania brzmieniem zewnętrznych modułów czy elastycznego edytowania nut – a to przecież kluczowe w profesjonalnej pracy muzycznej czy programowaniu dźwięku. Warto o tym pamiętać, bo błędny wybór formatu może popsuć cały proces produkcji lub współpracy między sprzętem.

Pytanie 17

Którym z wymienionych programów nie można edytować wielościeżkowej sesji dźwiękowej?

A. Samplitude.
B. ReNOVAtor.
C. Pro Tools.
D. Adobe Audition.
ReNOVAtor to narzędzie wyspecjalizowane raczej do bardzo precyzyjnej edycji dźwięku, głównie usuwania zakłóceń i retuszu pojedynczych ścieżek, a nie do pracy z wielościeżkową sesją dźwiękową. Jeśli ktoś miał do czynienia ze studyjną produkcją audio, na pewno spotkał się z typowymi DAW-ami (Digital Audio Workstation) jak Pro Tools, Samplitude czy Adobe Audition – one właśnie służą do tworzenia, miksowania i edytowania projektów składających się z wielu ścieżek jednocześnie. Natomiast ReNOVAtor, choć technicznie bardzo zaawansowany (szczególnie jeśli chodzi o naprawę nagrań, np. wycinanie trzasków czy kliknięć bez naruszania reszty materiału), nie ma funkcji związanych z zarządzaniem większą liczbą ścieżek czy miksowaniem całości. Z mojego doświadczenia taki program przydaje się bardziej jako „wtyczka naprawcza” w większym workflow, ale nie zastępuje klasycznego DAW-a. To jest trochę jak różnica między edytorem tekstu a narzędziem do naprawiania literówek – jedno to centrum dowodzenia całym projektem, a drugie służy do bardzo konkretnych poprawek. W branży audio powszechnie przyjmuje się, że zaawansowana edycja wielościeżkowych sesji odbywa się tylko w pełnoprawnych DAW-ach. ReNOVAtor może być świetnym dodatkiem, ale nie zastąpi głównego narzędzia do miksu czy aranżacji.

Pytanie 18

Kopię materiału muzycznego, przy optycznej metodzie zapisu, należy stworzyć, wykorzystując

A. pendrive.
B. płytę CD-R.
C. dysk twardy.
D. pamięć Memory Stick.
Wiele osób myli się, sądząc, że każdy nowoczesny nośnik danych nadaje się do zapisu muzyki w kontekście optycznym, ale to nie do końca tak działa. Pendrive'y, dyski twarde czy pamięci typu Memory Stick opierają się na zupełnie innych technologiach – korzystają z pamięci flash lub magnetycznych talerzy i nie mają nic wspólnego z zapisem optycznym. Optyczna metoda zapisu polega na wykorzystaniu wiązki lasera, która „wypala” lub modyfikuje strukturę fizyczną nośnika, tak aby później można było odczytywać dane poprzez analizę odbitego światła. Takie rozwiązania oferują wyłącznie płyty typu CD-R, DVD-R czy Blu-ray, natomiast wymienione w pytaniu alternatywy nie posiadają nawet warstwy przystosowanej do pracy z laserem. Z mojego doświadczenia często wynika to z błędnego założenia, że wszelkie nośniki mieszczące pliki muzyczne są równoznaczne z profesjonalnym zapisem audio – niestety, sprzęt audio (np. odtwarzacze CD) nie jest w stanie odczytać pliku mp3 lub wav z pendrive’a czy pamięci flash, jeśli nie są one nagrane według standardu Audio CD na odpowiednim nośniku. Typowe błędy myślenia w tej dziedzinie to mylenie fizycznego zapisu z przesyłaniem plików lub przekonanie, że 'optyczny' znaczy po prostu cyfrowy. W rzeczywistości w branży muzycznej, jeśli ktoś mówi o optycznym zapisie materiału, to prawie zawsze ma na myśli płytę CD-R lub podobną, nagrywaną laserem. Pozostaje jeszcze kwestia trwałości i kompatybilności – większość sprzętu studyjnego i domowego wykorzystuje napędy optyczne, więc tylko taki nośnik gwarantuje odczyt bez żadnych dodatkowych konwersji czy przejściówek. Przemyśl to przy wyborze metody archiwizacji lub udostępniania muzyki – czasem nowoczesność nie idzie w parze z uniwersalnością.

Pytanie 19

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 90 minut.
B. 70 minut.
C. 60 minut.
D. 80 minut.
Płyta CD-Audio o pojemności 700 MB pozwala na zapis materiału dźwiękowego do 80 minut i to jest taka wartość, która praktycznie stała się standardem branżowym dla tego typu nośników. Chociaż na pierwszy rzut oka pojemność 700 MB może wydawać się spora i sugerować możliwość zapisania jeszcze więcej muzyki, to trzeba pamiętać, że format CD-Audio nie korzysta z kompresji danych (jak np. MP3), tylko zapisuje bezstratnie dźwięk w standardzie PCM o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na kanał stereo. To oznacza spory strumień danych – ok. 10 MB na każdą minutę muzyki stereo. Stąd właśnie ta liczba – 80 minut to maksimum, ile da się zmieścić na 700 MB przy zachowaniu jakości wymaganej przez standard Red Book, który określa parametry płyt CD-Audio. Moim zdaniem to całkiem uczciwy kompromis pomiędzy jakością a czasem trwania materiału. W praktyce większość albumów muzycznych mieściła się w tym limicie i nie trzeba było ciąć kawałków. Często w produkcji płyt płyty 80-minutowe były wykorzystywane do albumów kompilacyjnych czy koncertowych, gdzie każda minuta była na wagę złota. Warto pamiętać, że jak już wykraczasz poza te 80 minut, napędy CD mogą mieć problem z odczytem albo płyta w ogóle nie będzie zgodna ze starszym sprzętem. To kolejny przykład, jak ważne jest trzymanie się branżowych norm.

Pytanie 20

W którym z wymienionych plików zapisywane są informacje dotyczące montażu plików obrazu i dźwięku w postprodukcji filmowej?

A. *.ldm
B. *.fls
C. *.oem
D. *.edl
Format pliku *.edl oznacza „Edit Decision List” i jest to absolutny standard w postprodukcji filmowej od wielu lat. Taki plik zawiera dokładny zapis decyzji montażowych – czyli instrukcje, które fragmenty klipów wideo i audio mają być połączone, w jakiej kolejności, z jakimi przejściami i na jakiej osi czasu. Moim zdaniem EDL to taki cyfrowy „przepis” na montaż, który pozwala przenosić projekt pomiędzy różnymi systemami montażowymi, np. Adobe Premiere, Avid, DaVinci Resolve czy Final Cut Pro. Dużą zaletą EDL jest jego prostota i uniwersalność – można go łatwo edytować zwykłym edytorem tekstu, bo to zwykły plik tekstowy, nie żaden skomplikowany binarny format. W praktyce wygląda to tak, że reżyser i montażysta pracują nad projektem, a potem eksportują EDL, żeby wymienić się efektami pracy z dźwiękowcem czy coloristą. Często spotykałem się z sytuacją, gdzie tylko dzięki EDL-owi można było odzyskać czy przemapować cały montaż na innym komputerze czy w innym programie. Dla osób pracujących w branży filmowej, znajomość EDL i jego możliwości to po prostu podstawa. Warto też dodać, że choć istnieją nowsze formaty, takie jak XML czy AAF, to EDL wciąż pozostaje niezastąpionym narzędziem przy szybkiej wymianie montażu, szczególnie w środowiskach, gdzie liczy się kompatybilność i niezawodność.

Pytanie 21

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 96 kHz
B. 44,1 kHz
C. 88,2 kHz
D. 48 kHz
Dobrze, że to zauważyłeś – dwukrotne nadpróbkowanie dźwięku odnosi się bezpośrednio do podwojenia częstotliwości próbkowania względem wartości wyjściowej. Standard CD-Audio pracuje z częstotliwością próbkowania 44,1 kHz, co pozwala na wierne odwzorowanie dźwięków do ok. 22 kHz (zgodnie z twierdzeniem Nyquista). Jeśli więc zastosujemy nadpróbkowanie x2, nowa częstotliwość próbkowania wyniesie 88,2 kHz. Taki zabieg stosuje się często w profesjonalnych studiach nagraniowych czy podczas obróbki audio, żeby uzyskać więcej szczegółów w dźwięku albo żeby mieć większy komfort przy późniejszej edycji sygnału, na przykład przy filtracji czy konwersji do niższych rozdzielczości. Moim zdaniem warto pamiętać, że 88,2 kHz jest naturalną wielokrotnością 44,1 kHz, więc konwersja między tymi częstotliwościami odbywa się bezstratnie i bez żadnych problemów z aliasingiem. To ważne w przypadku masteringu na różne nośniki. W branży audio spotyka się też częstotliwości jak 48 kHz czy 96 kHz, ale one są bardziej związane z video i zastosowaniami broadcastowymi, a nie z typowym audio CD. Także, jak dla mnie, dobrze zapamiętać właśnie ten związek przy nadpróbkowaniu sygnału audio.

Pytanie 22

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 25 GB danych.
B. 15 GB danych.
C. 20 GB danych.
D. 10 GB danych.
Jednowarstwowy nośnik Blu-ray umożliwia zapis do 25 GB danych i to jest dokładnie wartość określona przez oficjalny standard Blu-ray Disc Association. To właśnie dzięki wykorzystaniu niebieskiego lasera (o długości fali około 405 nm) można uzyskać tak dużą gęstość zapisu na tej samej wielkości płycie, co DVD czy CD. W praktyce oznacza to, że na jednej płycie jednowarstwowej można zmieścić nawet dwugodzinny film w jakości Full HD wraz z dodatkowymi materiałami, napisami i ścieżkami dźwiękowymi. Często w pracy spotykam się z sytuacjami, gdzie klienci chcą archiwizować duże ilości zdjęć czy projektów graficznych – Blu-ray sprawdza się wtedy lepiej niż zwykłe DVD, bo nie trzeba dzielić danych na kilka płyt. W branży IT przyjęło się właśnie wykorzystywanie nośników o pojemności 25 GB do tworzenia kopii zapasowych lub dystrybucji oprogramowania, szczególnie tam, gdzie liczy się odporność na uszkodzenia i długi okres przechowywania danych. Trzeba pamiętać, że istnieją również wersje dwuwarstwowe (50 GB) i więcej, ale ta podstawowa, jednowarstwowa płyta zawsze mieści dokładnie 25 GB. To ważny fakt, jeśli chcesz poprawnie dobierać nośniki do określonych zadań lub planować archiwizację danych na konkretną ilość przestrzeni. Moim zdaniem znajomość tych parametrów to podstawa, zwłaszcza jeśli działa się w świecie cyfrowego przetwarzania informacji.

Pytanie 23

Który z wymienionych standardów zapisu dźwięku wykorzystuje nośniki optyczne?

A. DCC
B. CC
C. ADAT
D. SACD
Temat różnych standardów zapisu dźwięku potrafi być zdradliwy, bo wiele z nich łączy się na poziomie technologii, ale rozdziela na szczegółach konstrukcyjnych. Sporo osób myli DCC lub ADAT z formatami opartymi na nośnikach optycznych przez to, że są typowe dla profesjonalnych zastosowań i często brzmią „poważnie”. Tymczasem DCC, czyli Digital Compact Cassette, pomimo swej nazwy i pokrewieństwa z kompaktowym kasetami magnetofonowymi, wykorzystuje klasyczne taśmy magnetyczne, tyle że zapis cyfrowy. Ten format próbował zastąpić analogowe kasety, jednak nigdy nie korzystał z nośników optycznych. ADAT natomiast to system oparty na taśmach S-VHS, więc całkowicie bazuje na magnetycznym zapisie sygnału cyfrowego – był bardzo popularny w studiach nagraniowych, ale z optycznymi płytami nie miał nic wspólnego. Jeśli chodzi o CC, to jest to po prostu klasyczna kaseta kompaktowa, czysto analogowa technologia, praktycznie już przeżytek w profesjonalnym audio. Wydaje mi się, że głównym błędem myślowym jest tu utożsamianie nowocześnie brzmiących nazw z technologią optyczną. W rzeczywistości tylko SACD został specjalnie zaprojektowany do pracy z płytami typu CD/DVD, wykorzystując laser do odczytu danych audio o bardzo wysokiej jakości. W branży dobra praktyka to umiejętne rozróżnianie standardów pod kątem fizycznej postaci nośnika, bo to fundamentalnie wpływa na zastosowania, trwałość i jakość dźwięku. Warto zawsze sprawdzać, czy dany format działa na taśmach, płytach optycznych czy może na zupełnie innych mediach – to kluczowa wiedza przy wyborze sprzętu czy archiwizacji materiałów dźwiękowych.

Pytanie 24

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 20 MB
C. Około 30 MB
D. Około 10 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 25

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.mp3
C. *.ogg
D. *.aiff
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 26

W formularzu zgrania materiału audio do określonego standardu dźwięku wielokanałowego wypełnia się dane, dotyczące

A. nazwy formatu danych audio.
B. użytego kodeka.
C. ilości ścieżek dźwiękowych.
D. rodzaju formatu pliku.
Wiele osób przy wypełnianiu formularza zgrania audio utożsamia temat głównie z wyborem kodeka, ilością ścieżek dźwiękowych czy typem pliku i, szczerze mówiąc, łatwo wpaść w taką pułapkę. W praktyce branżowej, szczególnie w kontekście dźwięku wielokanałowego, te elementy są ważne, ale mają charakter wtórny wobec kluczowego parametru, jakim jest nazwa formatu danych audio. Kodek określa sposób kompresji lub dekompresji dźwięku – czyli odpowiada za to, jak dźwięk jest kodowany i odczytywany pod względem technicznym. Natomiast standardy dźwięku wielokanałowego, takie jak np. 5.1 czy 7.1, odnoszą się do ułożenia kanałów w pliku, a nie do samej metody kodowania. Z kolei ilość ścieżek dźwiękowych to tylko liczba kanałów – ważna przy miksie, ale dopiero w kontekście formatu danych audio nabiera ona rzeczywistego znaczenia (bo na przykład WAV obsługuje różną liczbę ścieżek, a MP3 – nie). Format pliku zaś bywa mylony z formatem danych audio: można mieć plik .wav, który nie spełnia wymagań np. Dolby Atmos, jeśli nie jest zgodny ze specyfikacją layoutu kanałów lub metadanych. Typowym błędem myślowym jest też traktowanie tych pojęć jako zamiennych – a są to różne, choć powiązane warstwy opisu danych. W branży filmowej czy radiowej kluczowe jest wpisanie dokładnej nazwy formatu audio, bo na tej podstawie później dobiera się narzędzia odsłuchowe, edycyjne czy archiwizacyjne. Zwróć uwagę, że kodek i format to nie to samo – nawet najlepszy kodek nie zastąpi poprawnie zdefiniowanego formatu. Z mojego doświadczenia wynika, że zamieszanie najczęściej bierze się stąd, że technologia dźwięku jest pełna podobnie brzmiących, ale znacząco różniących się pojęć. W praktyce, jeśli nazwa formatu danych audio nie zostanie prawidłowo określona, łatwo o poważne konsekwencje na etapie wymiany materiałów między studiem, klientem, a nadawcą.

Pytanie 27

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 172 kB?

A. 10 sekund.
B. 1 sekundę.
C. 60 sekund.
D. 120 sekund.
W formacie CD-Audio obowiązuje bardzo konkretny standard zapisu – jest to 16 bitów (czyli 2 bajty) na próbkę, dwukanałowy dźwięk (stereo), a częstotliwość próbkowania wynosi 44,1 kHz. Oznacza to, że w ciągu jednej sekundy nagrania zapisanej w „jakości płytowej” trzeba zapisać 44 100 próbek na każdy kanał, czyli łącznie 44 100 x 2 = 88 200 próbek, a każda z nich ma 2 bajty. Całkowita liczba bajtów na sekundę to więc 88 200 x 2 = 176 400 bajtów, czyli ok. 172 KB (zakładając zaokrąglenie do najbliższego tysiąca). To właśnie dlatego plik o rozmiarze 172 kB odpowiada jednej sekundzie dźwięku w jakości CD-Audio – format ten jest bardzo „zasobożerny”, zwłaszcza w porównaniu do kompresowanych MP3 czy AAC, gdzie jedna sekunda może zajmować kilkanaście lub kilkadziesiąt razy mniej miejsca. Moim zdaniem warto to zapamiętać, bo w praktyce (np. przy ripowaniu płyt czy pracy ze stacjonarnymi rejestratorami) takie wyliczenia pozwalają od razu ocenić, czy mamy wystarczająco dużo miejsca na dysku. Branżowe standardy, takie jak Red Book Audio, jasno to definiują – 1 sekunda to około 172 kB przy 44,1 kHz/16 bit/stereo, bez żadnej kompresji. Czasem, przy analizie plików lub konwersji do innych formatów, możesz się spotkać z innymi wartościami, ale to już będzie wynikać z zastosowanej kompresji lub zmiany parametrów próbkowania.

Pytanie 28

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -23 LUFS
B. -16 RMS
C. -16 LUFS
D. -23 RMS
Wiele osób, które dopiero zaczynają przygodę z obróbką dźwięku, często myli LUFS z RMS lub nie do końca rozumie, czym różnią się te jednostki. RMS (Root Mean Square) mierzy średnią wartość energii sygnału audio, ale niestety nie uwzględnia wrażliwości ludzkiego ucha na różne częstotliwości czy charakterystykę percepcji głośności. Stosowanie RMS jako głównego wyznacznika w broadcastingu prowadzi do niespójnych rezultatów – materiał o takim samym RMS może być przez odbiorców odbierany jako głośniejszy lub cichszy, w zależności od jego charakterystyki. Dlatego standardy branżowe, takie jak EBU R128, przeszły na system LUFS, który bazuje na modelu subiektywnej głośności. Warto też wiedzieć, że -16 LUFS jest popularnym limitem w serwisach streamingowych albo przy masteringu podcastów, ale dla radia i telewizji w Europie to po prostu za głośno – grożą tu nawet odrzuceniem materiału przez stację. Część osób myli też pojęcia „głośności” (loudness) i „poziomu sygnału” – czasem wydaje się, że jeśli RMS jest podobny, to wszystko gra, ale niestety realia broadcastu są bardziej wymagające. Stosowanie -23 RMS czy -16 RMS nie daje gwarancji zgodności z wytycznymi EBU, bo nie bierze pod uwagę rzeczywistego wrażenia głośności. Z mojego punktu widzenia, takie nieporozumienia wynikają często z przyzwyczajeń do dawnych workflow i braku znajomości nowych narzędzi, np. dokładnych mierników LUFS. Przestawienie się na LUFS i trzymanie się -23 LUFS w produkcji radiowej i telewizyjnej pozwala uniknąć irytujących przeskoków głośności między programami, reklamami czy stacjami. Jeśli chcesz, żeby Twój materiał był profesjonalnie przygotowany, zgodny ze współczesnymi wymogami i nie sprawiał problemów odbiorcom, zdecydowanie warto wdrożyć mierniki LUFS do codziennej pracy i zapamiętać branżowy standard -23 LUFS jako obowiązujący próg dla broadcastu.

Pytanie 29

Który z wymienionych formatów plików dźwiękowych charakteryzuje się bezstratnym kodowaniem dźwięku?

A. M4A
B. AAC
C. MP3
D. AIFF
Format AIFF, czyli Audio Interchange File Format, to przykład pliku dźwiękowego, który wykorzystuje bezstratne kodowanie. To znaczy, że zapisuje dźwięk dokładnie tak, jak został on nagrany, bez żadnej kompresji stratnej, która obniżałaby jakość. W praktyce AIFF wykorzystywany jest głównie w środowiskach profesjonalnych — studiach nagraniowych, podczas produkcji muzycznej oraz przez entuzjastów audio, którzy cenią sobie najwyższą jakość dźwięku. Oprogramowanie Apple od lat promuje AIFF, ale pliki te są szeroko obsługiwane także na systemach Windows. Moim zdaniem, jeśli ktoś zajmuje się miksowaniem, masterowaniem czy archiwizowaniem materiału muzycznego, to właśnie AIFF (albo WAV) jest najlepszym wyborem. W branży muzycznej AIFF często konkuruje z WAV i oba te formaty są wręcz standardem w profesjonalnych workflowach. Co ważne, AIFF przechowuje dane PCM (czyli Pulse Code Modulation), co zapewnia pełną zgodność z urządzeniami audio wysokiej klasy. Dla zwykłego słuchacza może to nie mieć aż takiego znaczenia, bo te pliki są większe niż MP3, ale dla realizatorów dźwięku, DJ-ów czy osób przygotowujących podcasty do dalszej edycji — różnica jakości jest kolosalna. Właśnie dlatego AIFF to bezstratny format, który zapewnia dźwięk w oryginalnej jakości, bez kompromisów.

Pytanie 30

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. Open Media Format
B. MPEG Layer 3
C. Free Lossless Audio Codec
D. Meridian Lossless Packing
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 31

Które z wymienionych rozszerzeń nazwy pliku zgodne jest z Broadcast Wave Format?

A. .ogg
B. .mlp
C. .wav
D. .acc
Broadcast Wave Format, czyli BWF, to tak naprawdę rozszerzenie standardowego formatu WAV, które zostało opracowane specjalnie z myślą o profesjonalnych zastosowaniach w branży audio, zwłaszcza w radiu i telewizji. Pliki BWF mają rozszerzenie .wav, co nie zawsze jest oczywiste, bo łatwo pomyśleć, że powinny mieć jakieś inne, bardziej charakterystyczne rozszerzenie. BWF jest zgodny ze zwykłym WAV-em, ale zawiera dodatkowe metadane, na przykład informacje o czasie, opisy, czy dane identyfikacyjne projektu. W praktyce, kiedy pracuje się z materiałem dźwiękowym do montażu filmowego lub produkcji radiowej, właśnie takie pliki .wav wykorzystuje się do synchronizacji i archiwizacji nagrań. Moim zdaniem, jeśli ktoś myśli o pracy w studiu nagraniowym albo przy postprodukcji, to naprawdę warto znać różnice między zwykłym WAV a Broadcast Wave. Standard BWF został zdefiniowany przez Europejską Unię Nadawców (EBU) i od lat jest podstawą wymiany plików audio w profesjonalnych środowiskach. W codziennej pracy wiele programów DAW czy systemów do montażu dźwięku automatycznie generuje pliki .wav zgodne z BWF, więc znajomość tego rozszerzenia to taki niezbędny fundament dla każdego technika czy realizatora dźwięku. Pliki z innymi rozszerzeniami, typu .ogg czy .acc, nawet nie są rozważane w poważnych zastosowaniach broadcastowych.

Pytanie 32

Jaki jest czas trwania 441 próbek dźwięku cyfrowego, gdy częstotliwość próbkowania dźwięku wynosi 44,1 kHz?

A. 1000 ms
B. 100 ms
C. 10 ms
D. 1 ms
Czas trwania 441 próbek przy częstotliwości próbkowania 44,1 kHz to dokładnie 10 ms. Wynika to z prostego przelicznika: 44 100 próbek na sekundę oznacza, że każda próbka trwa 1/44 100 sekundy. No i jak przemnożysz 441 próbek przez czas jednej próbki (1/44 100 s), wyjdzie 0,01 sekundy, czyli 10 milisekund. To jest taki bardzo typowy fragment w przemyśle audio – dokładnie tyle trwa jedna setna sekundy podczas odtwarzania lub nagrywania CD-Audio. Branża muzyczna czy radiowa często korzysta z takich wartości, bo łatwo na nich operować przy montażu dźwięku. Przykład praktyczny: jeżeli programujesz efekty dźwiękowe albo robisz tzw. crossfading między ścieżkami, to bardzo często ustawienia czasów są podawane właśnie w ms, a 10 ms to taki bardzo klasyczny 'skok'. Z mojego doświadczenia wynika, że zrozumienie tego przelicznika bardzo ułatwia pracę w DAW-ach czy przy obróbce sygnału. No i tak na marginesie, warto wiedzieć: standard 44,1 kHz to nie jest przypadek, tylko tradycja wynikająca z historii płyt CD – taka częstotliwość pozwala na zapisanie całego zakresu słyszalnego przez człowieka, zgodnie z twierdzeniem Nyquista. Także ten temat pojawia się praktycznie wszędzie tam, gdzie mamy do czynienia z cyfrowym audio.

Pytanie 33

Która z nazw oznacza płytę DVD o pojemności 9,4 GB?

A. DVD18
B. DVD10
C. DVD9
D. DVD5
DVD10 to właśnie format płyty DVD, który ma pojemność 9,4 GB, czyli dokładnie dwustronny nośnik opisany jako DVD Double Sided Single Layer. Moim zdaniem to trochę mało znany wariant, bo w praktyce częściej spotyka się DVD5 i DVD9, ale DVD10 bywa wykorzystywany np. do archiwizacji danych tam, gdzie nie da się zastosować płyt blu-ray, a zależy komuś na większej pojemności niż klasyczne DVD5. Oznaczenia są dosyć logiczne – cyfra po „DVD” oznacza tak naprawdę wariant pojemnościowy: DVD5 to 4,7 GB (jedna warstwa, jedna strona), DVD9 to taka „ulepszona” wersja, bo ma dwie warstwy po tej samej stronie i 8,5 GB, natomiast DVD10 to dwie strony po jednej warstwie na każdej – razem daje właśnie 9,4 GB (czyli 4,7 GB + 4,7 GB). No i nie trzeba mieć superzaawansowanego napędu – wystarczy tylko przewrócić płytę. Z mojego doświadczenia w serwisie komputerowym wynika, że DVD10 czasem jest mylone z DVD9, bo różnica w pojemności jest niewielka, ale sposób zapisu i odczytu jest już zupełnie inny. Warto zapamiętać ten wariant, jeśli trafi się na stare archiwa lub starsze zestawy programów do instalacji, gdzie czasem korzystano z takich płyt. Standardy DVD-Forum dokładnie opisują te wersje i jeśli interesujesz się zagadnieniami związanymi z nośnikami optycznymi, to warto to sobie usystematyzować – przydaje się chociażby przy diagnostyce starych napędów lub kopiowaniu danych na potrzeby digitalizacji.

Pytanie 34

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. VIDEO
B. MIDI
C. MASTER
D. AUDIO
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 35

Pojedyncza próbka sygnału trwa najkrócej przy częstotliwości próbkowania

A. 96 kHz
B. 48 kHz
C. 88,2 kHz
D. 44,1 kHz
W pytaniu chodziło o to, przy której częstotliwości próbkowania pojedyncza próbka trwa najkrócej. Często można się tutaj pomylić, zakładając, że niższa częstotliwość próbkowania (np. 44,1 kHz czy 48 kHz) oznacza lepszą jakość lub krótszy czas próbki, bo są to popularne standardy stosowane w codziennym sprzęcie audio – choćby w płytach CD czy w systemach filmowych. Jednak trzeba zrozumieć, że im wyższa częstotliwość próbkowania, tym więcej próbek przypada na jedną sekundę dźwięku, a co za tym idzie – czas trwania pojedynczej próbki maleje. To chyba najczęściej spotykany błąd myślowy: ktoś widzi dużą liczbę i myśli, że oznacza ona coś większego, tymczasem tu działa to odwrotnie. Wyższe częstotliwości, jak 88,2 kHz czy 96 kHz, stosuje się w profesjonalnych zastosowaniach, gdzie precyzja odwzorowania sygnału jest kluczowa – każda próbka trwa tam wyjątkowo krótko, co umożliwia bardzo precyzyjne zarejestrowanie nawet bardzo szybkich zmian dźwięku. Warto pamiętać, że standardy takie jak 44,1 kHz powstały głównie z ograniczeń technicznych (np. architektura płyt CD), natomiast w branży studyjnej i produkcji audio coraz częściej stosuje się nagrywanie w 96 kHz lub nawet wyżej. Gdy wybierzesz niższą częstotliwość, to każda próbka obejmuje dłuższy fragment czasu – więc nie zarejestrujesz tyle szczegółów, ile pozwoliłaby wyższa częstotliwość. Moim zdaniem, zrozumienie tego mechanizmu jest kluczowe dla każdego, kto chce świadomie pracować z dźwiękiem. Zdecydowanie warto zapamiętać: im większa częstotliwość próbkowania, tym krócej trwa pojedyncza próbka, a więc mamy dokładniejszą reprezentację sygnału w dziedzinie czasu.

Pytanie 36

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. TDIF
B. TOSLINK
C. DIN
D. BNC
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 37

Który z wymienionych formatów zapisu dźwięku zapewnia możliwie najmniejszy rozmiar pliku?

A. FLAC
B. AIFF
C. MP3
D. WAV
Format MP3 jest jednym z najpowszechniej używanych standardów kompresji dźwięku, jeśli chodzi o minimalizowanie rozmiaru pliku audio. Moim zdaniem to w ogóle jeden z tych formatów, które zmieniły świat muzyki cyfrowej – głównie przez to, jak bardzo ogranicza zajmowaną przestrzeń na dysku, jednocześnie zachowując jakość dźwięku na akceptowalnym poziomie. MP3 wykorzystuje kompresję stratną, co oznacza, że część informacji dźwiękowych jest po prostu usuwana, ale w taki sposób, aby ludzkie ucho tego nie wychwyciło – to się nazywa psychoakustyka i jest naprawdę sprytne. W praktyce, plik MP3 128 kbps zajmuje często kilka razy mniej miejsca niż plik WAV czy AIFF z tym samym utworem. Taki format bardzo dobrze sprawdza się w streamingu, w publikacjach internetowych albo na nośnikach ograniczonych pojemnością, np. starych odtwarzaczach MP3 czy telefonach. W branży jest to swego rodzaju standard, jeśli dysponujemy małą ilością pamięci albo musimy przesyłać pliki przez wolniejszy internet. To dlatego MP3 wyparło na lata inne formaty tam, gdzie liczył się każdy megabajt. Oczywiście, są nowsze kodeki jak AAC czy OGG, które czasami radzą sobie lepiej przy niskich bitrate’ach, ale MP3 to wciąż najbardziej rozpoznawalny wybór, jeśli chodzi o minimalizację rozmiaru. Warto pamiętać, że niższy rozmiar to jednak zawsze kompromis – coś za coś. Ale jeśli mamy ograniczone miejsce, nie ma lepszej opcji niż dobrze skompresowany MP3.

Pytanie 38

Która z wymienionych nazw odnosi się do formatu wielokanałowej bezstratnej kompresji dźwięku?

A. Dolby Digital
B. Dolby Digital EX
C. Dolby TrueHD
D. Dolby AC3
Wiele osób myli różne formaty Dolby, bo ich nazwy są do siebie podobne, a przecież mają one zupełnie inne zastosowania i właściwości techniczne. Na przykład Dolby Digital (czyli popularny AC3) to format stratnej kompresji, bardzo często używany w telewizji, DVD i niektórych transmisjach cyfrowych, ale nie gwarantuje zachowania pełnej jakości oryginalnego nagrania – zawsze jest jakiś kompromis między jakością a rozmiarem pliku. Dolby Digital EX to po prostu rozszerzenie tego standardu, dodające kanał tylny centralny dla większego efektu przestrzennego, ale nadal korzysta ze stratnej kompresji. Jeszcze większe zamieszanie potrafi się zrobić z nazwami – niektórzy sądzą, że Dolby AC3 to osobny format, a to przecież po prostu techniczna nazwa Dolby Digital. Z mojego doświadczenia dość często spotyka się ten błąd nawet u ludzi pracujących w branży audiowizualnej. Niestety, żaden z tych formatów nie oferuje bezstratnej kompresji. W praktyce oznacza to, że jeśli ktoś jest audiofilem albo montuje materiały, gdzie liczy się studyjna jakość dźwięku, to wybór AC3 albo Dolby Digital EX nie spełni oczekiwań. Z kolei Dolby TrueHD został zaprojektowany właśnie do zachowania pełnej jakości dźwięku i współpracuje z nowoczesnymi systemami kina domowego poprzez HDMI. Warto to zapamiętać, bo różnice nie są tylko teoretyczne – mają spory wpływ na końcowe wrażenia z odsłuchu. Dobre praktyki branżowe mówią wyraźnie: jeśli zależy nam na jakości, warto sięgać po formaty bezstratne jak Dolby TrueHD, a nie te stratne, nawet jeśli są bardzo popularne.

Pytanie 39

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic IIz
B. Pro Logic IIx
C. Pro Logic
D. Pro Logic II
Wiele osób myli starsze technologie Pro Logic z ich późniejszymi, ulepszonymi wersjami, co rzeczywiście łatwo się zdarza. Sam kiedyś zakładałem, że skoro IIz też ma „zaawansowany” indeks, musi być lepszy do 7.1, a to jednak nie do końca tak działa. Pro Logic w najstarszej wersji obsługiwał tylko systemy 4-kanałowe (czyli w praktyce 3.0 albo 4.0), typowe dla pierwszych kin domowych i VHS-ów. Pro Logic II rozszerzył ten standard do 5.1, co było dużym krokiem naprzód, bo pozwoliło już na kinowe efekty z tylnymi głośnikami, bardzo spoko do filmów z początku XXI wieku. Pro Logic IIz, mimo że wydaje się „większy”, wcale nie rozbudowuje systemu do 7.1 – zamiast tego dodaje dwa kanały wysokości (front height), czyli wspiera układy typu 5.1 lub 7.1 z dodatkowymi głośnikami nad frontami, ale nie zwiększa liczby kanałów efektowych do ośmiu. To częsty błąd, mylenie kanałów wysokości z dodatkowymi kanałami surround. Tak naprawdę tylko Pro Logic IIx umożliwia natywną dekodację do 6.1 lub 7.1 – można na nim „rozdzielić” nawet standardowy sygnał stereo na siedem głośników plus subwoofer. W branży audio od lat podkreśla się, żeby nie wybierać technologii wyłącznie po nazwie czy numerze, bo czasem marketingowe oznaczenia są trochę mylące. W praktyce – jeśli zależy komuś na pełnej obsłudze 7.1, to IIx jest jedyną poprawną opcją z tej rodziny. Pozostałe rozwiązania świetnie sprawdzają się w prostszych konfiguracjach, ale nie przeskoczą tej granicy. Dobra praktyka to zawsze sprawdzić, jakie sygnały dany dekoder potrafi rozpoznać i na ile kanałów potrafi je rozbić – to pozwala uniknąć późniejszych rozczarowań przy rozbudowie sprzętu.

Pytanie 40

Które z wymienionych rozszerzeń nazwy pliku oznacza plik sesji programu DAW możliwy do prawidłowego odczytania w różnych programach DAW?

A. .mid
B. .song
C. .omf
D. .cpr
W branży muzycznej i produkcyjnej bardzo łatwo pomylić różne rozszerzenia plików, zwłaszcza jeśli ktoś dopiero zaczyna przygodę z DAW-ami. Często myśli się, że pliki takie jak .cpr, .mid czy .song nadają się do przenoszenia sesji między DAW-ami, bo brzmią znajomo lub są powiązane z muzyką. Jednak to są formaty specyficzne dla konkretnych programów. Plik .cpr to natywna sesja Cubase, która nie otworzy się nigdzie indziej bez tej samej wersji programu. Podobnie .song to własny format PreSonus Studio One – nie przeniesiesz go do Logica czy Pro Toolsa bez eksportu. .mid, czyli MIDI, jest co prawda uniwersalny, ale przechowuje tylko informacje o nutach, kontrolerach i ewentualnie tempie, bez żadnych danych audio, automatyzacji czy struktury sesji. Moim zdaniem, największym błędem jest założenie, że MIDI ogarnie cały projekt – to tylko dane „co i kiedy zagrać”, żadnych sampli, efektów, czy układu aranżacyjnego. Profesjonaliści, którzy pracują w różnych środowiskach, polegają na formatach typu OMF właśnie dlatego, że przenoszą one układ sesji, audio i podstawowe dane projektowe w sposób, który różne DAW-y potrafią odczytać. Dobrym nawykiem jest zawsze sprawdzać, czy dany format otworzy się poza natywnym DAW-em, bo ostatecznie chodzi o płynność współpracy i minimalizację straconego czasu na ręcznej rekonstrukcji projektu. W praktyce, tylko OMF (a coraz częściej też AAF) są uznawane za branżowe standardy do swobodnej wymiany sesji między programami.