Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 21 kwietnia 2026 11:49
  • Data zakończenia: 21 kwietnia 2026 12:03

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który z wymienionych procesorów typowo służy do zawężania zakresu dynamiki nagrania?

A. Delay.
B. Equalizer.
C. Expander.
D. Compressor.
Compressor to taki trochę must-have, jeśli chodzi o kontrolę dynamiki w nagraniach audio. W praktyce polega to na tym, że kompresor automatycznie ścisza te fragmenty sygnału, które są zbyt głośne, dzięki czemu całość brzmi bardziej równo i profesjonalnie. Dobrze ustawiony kompresor pozwala na to, by np. wokal nie wybijał się nagle ponad resztę miksu albo żeby perkusja nie powodowała przesterowań. Z mojego doświadczenia, praktycznie każdy miks – czy to radiowy, telewizyjny, czy koncertowy – zawsze korzysta z kompresji. Standardem w branży jest stosowanie kompresorów zarówno na pojedynczych ścieżkach (np. wokalu), jak i na sumie miksu. Warto pamiętać, że kompresja nie polega wyłącznie na ściszaniu – odpowiednie ustawienie tzw. ataku i release pozwala też nadać dźwiękowi odpowiedniego charakteru, a nawet podkreślić niektóre elementy rytmiczne. O ile na początku łatwo jest z tym przesadzić i zrobić dźwięk za bardzo „ściśnięty”, to jednak bez kompresora trudno o profesjonalnie brzmiącą produkcję. W studio czy na scenie – kompresor to narzędzie pierwszego wyboru do zawężania zakresu dynamiki.

Pytanie 2

Który z plików został skompresowany bezstratnie?

A. .mlp
B. .oga
C. .mp3
D. .wma
Wielu osobom wydaje się, że formaty takie jak .mp3, .wma czy .oga oferują kompresję bezstratną, pewnie przez to, że są szeroko stosowane i dają dość dobrą jakość przy niskim rozmiarze pliku. Jednak tu kryje się właśnie typowy błąd myślowy: te wszystkie formaty to kompresja stratna, czyli de facto przy każdym kodowaniu i dekodowaniu tracimy pewną ilość informacji z oryginalnego sygnału audio. Każdy z wymienionych formatów funkcjonuje według innych algorytmów, np. .mp3 wykorzystuje psychoakustyczne modele, odrzucając dźwięki uznane za niesłyszalne dla ludzkiego ucha, żeby zmniejszyć rozmiar pliku. Owszem, pozwala to na szybkie przesyłanie muzyki i wygodne przechowywanie, ale przy poważniejszych zastosowaniach, jak np. obróbka studyjna, każda kolejna edycja na takim pliku będzie pogarszała jakość. Kolejne, .wma (Windows Media Audio), też podąża tą samą drogą – został zaprojektowany przez Microsoft głównie z myślą o kompresji stratnej, chociaż istnieją wersje bezstratne (WMA Lossless), to zwykłe .wma oznacza stratność. Podobnie .oga, czyli kontener OGG, który zazwyczaj kojarzony jest z kodekiem Vorbis, a ten również kompresuje stratnie. Tu dużo osób myli kontener z kodekiem, co potęguje nieporozumienia – .oga może teoretycznie zawierać dane bezstratne, ale standardowo kryje stratny Vorbis. W praktyce, jeśli zależy nam na jakości i pełnej wierności dźwięku (np. do archiwizacji czy edycji), powinniśmy sięgać po formaty stricte bezstratne, takie jak .mlp, FLAC czy ALAC. W codziennym użytkowaniu stratny format może wystarczyć, ale z mojego doświadczenia, kiedy pojawia się temat dalszych obróbek lub archiwizacji, powracanie do źródła bezstratnego jest niezbędne. Warto dobrze rozumieć różnice pomiędzy tymi podejściami, bo to naprawdę przekłada się na jakość odbioru i profesjonalizm pracy z dźwiękiem.

Pytanie 3

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Karta SD
B. Dysk SSD
C. Płyta DVD
D. Płyta CD
Dysk SSD zdecydowanie wygrywa pod względem szybkości odczytu danych w porównaniu do pozostałych wymienionych nośników. Wynika to przede wszystkim z tego, że SSD (Solid State Drive) wykorzystuje pamięć flash, która nie zawiera żadnych ruchomych części. Dzięki temu dostęp do plików jest praktycznie natychmiastowy, a prędkości transferu danych potrafią sięgać nawet kilku tysięcy megabajtów na sekundę w nowoczesnych modelach NVMe. W praktyce oznacza to, że system operacyjny, gry czy programy uruchamiają się dosłownie w kilka sekund. W branży IT od lat zaleca się stosowanie SSD do zastosowań, gdzie szybkość i płynność pracy są kluczowe – np. montaż wideo, praca z dużymi bazami danych, a nawet standardowe laptopy i komputery stacjonarne. Z mojego doświadczenia najlepiej widać różnicę podczas kopiowania dużych plików lub w trakcie uruchamiania komputera – stare dyski talerzowe potrzebują nawet minuty, a SSD robi to w parę sekund. Również w centrach danych i profesjonalnych serwerowniach od dawna stawia się na SSD, bo niezawodność i prędkość mają tu znaczenie krytyczne. Napędy CD, DVD czy nawet karty SD nie mają szans pod względem szybkości – są dobre do archiwizacji lub przenoszenia danych, ale jeśli komuś zależy na sprawnej pracy, to SSD jest bezdyskusyjnie najlepszym wyborem. Moim zdaniem, w dzisiejszych czasach inwestycja w SSD to podstawa, nawet w komputerze do nauki czy codziennego użytku.

Pytanie 4

Który z wymienionych parametrów określa stromość krzywej nachylenia filtracji filtra HPF?

A. Width
B. Gain
C. Frequency
D. Slope
W pytaniu o stromość filtra HPF łatwo się pomylić, bo pozostałe parametry też często przewijają się przy ustawianiu filtrów, ale każdy z nich oznacza coś zupełnie innego. Gain, czyli wzmocnienie, to po prostu poziom głośności sygnału – nie ma żadnego wpływu na to, jak stromo filtr odcina częstotliwości, on po prostu ustala ile decybeli trafia na wyjście, niezależnie od pasma. Z kolei width pojawia się raczej przy filtrach typu band-pass lub w kontekście korektorów parametrycznych – oznacza szerokość pasma (czasem jako Q), czyli jak szeroki wycinek częstotliwości obejmuje filtr, ale nie mówi nic o nachyleniu zbocza. Frequency, czyli częstotliwość odcięcia, to bardzo ważna rzecz, bo ustala granicę, od której filtr zaczyna działać, ale dalej nie określa, jak szybko następuje tłumienie poniżej tej wartości – za to odpowiada właśnie slope. Bardzo często spotykam się z myleniem tych pojęć, zwłaszcza u osób zaczynających przygodę z realizacją dźwięku; czasem nawet w instrukcjach obsługi sprzętu czy wtyczek można się natknąć na nieprecyzyjne opisy, które tylko potęgują zamieszanie. W praktyce, jeśli ktoś źle dobierze stromość (myśląc, że chodzi np. o gain albo frequency), może się okazać, że filtr nie spełnia swojej roli – np. nie wycina niechcianych dudnień albo wręcz wycina za dużo. Stąd tak mocno podkreśla się w branży audio, by dobrze rozumieć, co właściwie oznacza każdy parametr i nie sugerować się potocznymi skojarzeniami. Na kursach czy warsztatach zawsze tłumaczymy, żeby na spokojnie testować ustawienia slope, bo to właśnie on decyduje, jak dynamicznie i skutecznie filtr działa w rzeczywistych warunkach.

Pytanie 5

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. MUTE
B. CUT
C. COPY
D. PASTE
Funkcja CUT w oprogramowaniu typu DAW (Digital Audio Workstation) jest podstawowym narzędziem edycyjnym, które pozwala na szybkie wycięcie wybranego fragmentu sygnału audio lub MIDI na ścieżce. Trzeba pamiętać, że wykonując tę operację w DAW, najczęściej nie usuwamy nagranego materiału na stałe z dysku – po prostu dany fragment znika z aranżacji, ale plik źródłowy nadal pozostaje nienaruszony w folderze projektu. W praktyce, jeżeli przypadkiem wytniesz coś za dużo, zawsze możesz użyć opcji cofnij lub wstawić wycięty fragment w inne miejsce, korzystając z PASTE. Szczerze mówiąc, to bardzo wygodne rozwiązanie, bo pozwala eksperymentować bez stresu, że coś przepadnie na zawsze – to trochę jak praca z kopiami warstw w programach graficznych. Branżowe standardy, takie jak nieniszcząca edycja, są fundamentem pracy z dźwiękiem i dzięki temu możesz spokojnie testować różne pomysły na aranżację, nie bojąc się o oryginalny materiał. Wielu realizatorów dźwięku ceni sobie CUT właśnie za elastyczność i możliwość błyskawicznego reagowania na potrzeby projektu, a jednocześnie zachowanie porządku w sesji. Warto jeszcze wspomnieć, że niektóre DAWy dają możliwość podglądu historii edycji, więc nawet po serii skomplikowanych cięć można bez problemu wrócić do wcześniejszej wersji projektu. W codziennej pracy taka funkcjonalność po prostu ratuje skórę, zwłaszcza przy dużych projektach lub pracy pod presją czasu.

Pytanie 6

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Kompresor.
B. Ekspander.
C. Korektor tercjowy.
D. Bramka szumów.
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 7

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zmniejszenie rozdzielczości bitowej.
B. Zwiększenie częstotliwości próbkowania.
C. Zwiększenie rozdzielczości bitowej.
D. Zmniejszenie częstotliwości próbkowania.
W technice audio bardzo łatwo pomylić pojęcia rozpiętości dynamicznej z parametrami jak częstotliwość próbkowania czy rozdzielczość bitowa, bo wszystkie te rzeczy brzmią dość technicznie i pozornie podobnie wpływają na jakość nagrania. Jednak tylko głębia bitowa, czyli liczba bitów używanych do zapisu każdej próbki dźwięku, decyduje bezpośrednio o tym, ile poziomów głośności można precyzyjnie zarejestrować i odtworzyć. Zwiększenie rozdzielczości bitowej zawsze oznacza większą rozpiętość dynamiczną, to znaczy, że dźwięki ciche i bardzo głośne mogą być przechwycone bez zniekształceń czy szumów kwantyzacji. Częstotliwość próbkowania natomiast określa, do jakiej maksymalnej częstotliwości (czyli wysokości dźwięku) jesteśmy w stanie wiernie zarejestrować sygnał – im wyższa, tym lepiej dla wysokich tonów, ale rozpiętość dynamiczna pozostaje bez zmian. Zmniejszenie częstotliwości próbkowania po prostu obcina pasmo przenoszenia i może powodować zjawisko aliasingu, ale nie wpływa na zakres dynamiki. Z mojego doświadczenia często ludzie skupiają się na liczbach związanych z częstotliwością próbkowania, bo wydaje się, że „więcej” zawsze znaczy „lepiej”, jednak dla zachowania pełnej dynamiki to właśnie liczba bitów jest kluczowa. W praktyce, jeśli zależy nam na naturalności i bogactwie brzmienia, nie powinniśmy redukować rozdzielczości bitowej, bo to prowadzi do zubożenia nagrania – ciche fragmenty mogą po prostu zniknąć w szumie albo stać się nierozróżnialne. To taki typowy błąd myślowy, że zmiana innych parametrów poprawi lub pogorszy dynamikę – a, niestety, tylko zmiana bitów ma tutaj realny wpływ.

Pytanie 8

Która z wymienionych kaset umożliwia zapis sygnału fonicznego w postaci cyfrowej?

A. DAT
B. CC
C. 8-track
D. Microcassette
Kaseta DAT, czyli Digital Audio Tape, to nośnik, który faktycznie umożliwia zapis dźwięku w formacie cyfrowym. Takie rozwiązanie pojawiło się w latach 80. i wbrew pozorom, do dziś bywa stosowane w archiwizacji dźwięku – głównie w instytucjach, gdzie zależy na zachowaniu wysokiej jakości nagrań analogowych po ich cyfryzacji. DAT był oparty o taśmę magnetyczną, ale różnił się od standardowych kaset tym, że dane zapisywane były nie w sposób analogowy, lecz cyfrowy, podobnie jak na płytach CD czy w plikach muzycznych we współczesnych systemach. Ciekawostka – kasety DAT umożliwiają zapis do 120 minut dźwięku w bardzo wysokiej jakości (częstotliwość próbkowania 48 kHz, rozdzielczość 16 bitów), co przewyższało niejednokrotnie możliwości standardowego nośnika analogowego. Moim zdaniem, to właśnie wejście DAT było pewnego rodzaju rewolucją, bo pozwoliło na swobodne kopiowanie bez strat jakości, co w erze analogowej było praktycznie niemożliwe. W praktyce DAT znalazł zastosowanie w studiach nagraniowych, emisji radiowej oraz tam, gdzie zależało na bezpieczeństwie danych dźwiękowych. Dziś raczej uznaje się tę technologię za historię, ale wciąż można spotkać archiwa czy nawet sprzęt, który pozwala odzyskać nagrania z tych taśm. Pewne standardy branżowe, np. w radiofonii, przez długi czas rekomendowały DAT jako główny format roboczy – właśnie ze względu na odporność na degradację sygnału oraz wygodę kopiowania.

Pytanie 9

Wykonując dogrywki wokalisty do istniejących śladów, należy zwrócić szczególnie uwagę na zgodność

A. barwy.
B. tempa.
C. stroju.
D. poziomu głośności.
Podczas dogrywania wokalisty do istniejących śladów wiele osób instynktownie koncentruje się na takich aspektach jak barwa głosu, tempo czy poziom głośności, jednak te elementy – choć ważne – nie stanowią kluczowego kryterium w tym kontekście. Z mojego doświadczenia najczęstszy błąd polega na myleniu barwy z poprawnością wykonania; oczywiście fajnie, jak wokal zgrywa się kolorystycznie z resztą miksu, ale jeśli nie jest nastrojony względem pozostałych ścieżek, efekt końcowy zawsze będzie drażnił słuchacza. Barwę można delikatnie dopasować w miksie za pomocą EQ, kompresji czy pogłosów, ale rozstrojenie wymaga dużo bardziej inwazyjnych poprawek albo nie da się go naprawić wcale. Kolejna kwestia to tempo – wielu uważa, że ścisłe trzymanie się tempa jest najważniejsze, jednak dogrywki wokalne najczęściej i tak są osadzone na tym samym gridzie, co reszta śladów i pewne drobne wahania tempa są dopuszczalne, szczególnie jeśli wokalista śpiewa z wyczuciem frazy. Gorzej, gdy jest rozstrojony – wtedy każda, nawet idealnie „zgrana” partia brzmi nieprofesjonalnie. Poziom głośności to coś, co ustalamy dopiero na etapie miksowania – wokal może być nagrany cicho, byle był dobrze nastrojony, bo później i tak można go podkręcić lub zautomatyzować. Tak naprawdę to właśnie niezgodność stroju jest najszybciej wyłapywana i najmniej tolerowana przez odbiorców, dlatego w profesjonalnych produkcjach dopilnowanie tego aspektu jest niepodważalnym standardem. Zignorowanie tej zasady prowadzi do sytuacji, w której cała reszta zabiegów traci sens, bo „fałsze” są zbyt wyraźne, by je zamaskować.

Pytanie 10

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. degradację wyłącznie wysokich częstotliwości.
B. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
C. obniżanie poziomu nagrania.
D. sukcesywny spadek dynamiki nagrania.
To jest właśnie ta kluczowa rzecz związana z kopiowaniem analogowych nagrań – fizyka nie daje tutaj taryfy ulgowej. Przy każdym kolejnym kopiowaniu nagrania analogowego zawsze pojawia się pogorszenie jakości. Przede wszystkim dochodzi do ograniczenia pasma przenoszenia, czyli oryginalnie szeroki zakres częstotliwości zaczyna się zawężać. Głównie ucierpią wysokie tony, ale nie tylko – ogólnie całe spektrum robi się jakby bardziej 'ściśnięte'. Co ważne, z każdym kolejnym kopiowaniem szumy własne urządzenia rosną. Czyli po prostu – powstaje coraz więcej niechcianych dźwięków, które nie były częścią oryginalnego materiału. Właśnie dlatego w profesjonalnych studiach dźwiękowych od zawsze tak pilnowano ilości generacji taśm – im mniej pośrednich kopii, tym lepiej. Moim zdaniem to jeden z głównych powodów, dla których branża tak mocno przeskoczyła na cyfrowe systemy – tam kopiowanie nie wpływa na jakość. W praktyce, jeśli zdarzyło Ci się słuchać starej kasety kopiowanej kilka razy, wiesz o co chodzi – dźwięk robi się matowy i szumiący, a czasami nie da się już tego słuchać. Branżowe normy (np. IEC, AES) jasno podkreślają, że kopiowanie analogowe zawsze naraża sygnał na degradację. Staraj się więc – jeśli już musisz kopiować analogowo – ograniczać ilość takich operacji do minimum lub korzystać z wysokiej klasy urządzeń, żeby te straty były jak najmniejsze.

Pytanie 11

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Off
B. Latch
C. Read
D. Touch
Opisując tryby automatyki w DAW, warto zrozumieć, jak naprawdę działają tryby takie jak 'Read', 'Latch' i 'Touch'. Każdy z nich aktywnie wykorzystuje ścieżkę automatyki, czyli steruje parametrami – najczęściej głośnością, panoramą czy efektami – zgodnie z zapisanymi danymi. W trybie 'Read' DAW po prostu odczytuje wszystkie już nagrane dane automatyki i aplikuje je w czasie rzeczywistym, co bezpośrednio wpływa na dźwięk. Z mojego doświadczenia to najczęściej używany tryb podczas odtwarzania i miksowania, bo pozwala słyszeć efekt naszych wcześniejszych ręcznych lub nagranych zmian. 'Latch' i 'Touch' to tryby nagrywania automatyki – oba pozwalają na przechwytywanie nowych ruchów potencjometrami lub suwakami, ale różnią się tym, kiedy wracają do wcześniejszej wartości automatyki. W 'Latch' dopóki trzymasz parametr, jest on nadpisywany, a po puszczeniu zostaje na ostatniej wartości; 'Touch' zaś po puszczeniu wraca do pierwotnego kształtu automatyki. Często osoby uczące się DAW mylą te tryby, zakładając, że nie zawsze muszą wpływać na głośność – a jednak, jak tylko jest aktywna automatyka, każda zmiana zostaje wymuszona przez zapisane lub nagrywane dane. Błąd wynika zazwyczaj z przekonania, że tryb 'Read' np. nie ingeruje, jeśli nie ma nagranej automatyki, ale w praktyce jego rola polega właśnie na czytaniu i stosowaniu tych zmian. Prawidłowo, tylko 'Off' całkowicie ignoruje wszystkie automatyczne zmiany, pozwalając na czysty odsłuch bez ingerencji automatyki. To kluczowe, by rozumieć ten mechanizm, bo błędne ustawienie trybu automatyki bardzo łatwo prowadzi do nieoczekiwanych efektów w miksie i może znacząco utrudnić kontrolę nad finalnym dźwiękiem.

Pytanie 12

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. expander.
B. multiband compressor.
C. adaptive limiter.
D. compander.
Bardzo często osoby, które dopiero zaczynają przygodę z obróbką dźwięku, mylą różne procesory dynamiki ze sobą, bo ich nazwy brzmią podobnie, ale funkcje mają jednak zupełnie inne. Expander i compander to narzędzia, które rzeczywiście modyfikują dynamikę, ale robią to całościowo, bez rozbijania sygnału na pasma częstotliwości. Expander działa odwrotnie do kompresora – zwiększa różnicę między cichymi a głośnymi partiami sygnału, co jest przydatne np. do usuwania szumów w ciszy, ale nie nadaje się do selektywnej kontroli dynamiki w różnych pasmach. Compander to połączenie kompresora i expandera, wykorzystywane czasem np. w systemach transmisji bezprzewodowej, ale znowu: nie daje możliwości pracy w kilku pasmach naraz. Adaptive limiter brzmi nowocześnie, ale jego rola ogranicza się do natychmiastowego ograniczenia szczytów sygnału, by nie dopuścić do przesterowania – nie dzieli natomiast sygnału na pasma i nie pozwala na niezależną obróbkę każdego z nich. Typowym błędem jest więc myślenie, że wystarczy jakikolwiek procesor dynamiki, by kontrolować różne części pasma – niestety, bez narzędzia typu multiband compressor będzie to niemożliwe. W profesjonalnym miksie czy masteringu, gdzie zależy nam na precyzyjnej kontroli różnych elementów brzmieniowych, tylko multiband compressor jest w stanie spełnić te wymagania i jest to standardowa praktyka, szczególnie w rozgłośniach radiowych, telewizji czy przy masteringu muzyki na różne platformy. Dobrze pamiętać, że każdy z tych procesorów ma swoje konkretne zastosowania, ale tylko multiband compressor umożliwia niezależną pracę na różnych fragmentach spektrum częstotliwości.

Pytanie 13

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save Copy In
B. Save As
C. Save
D. Revert to Saved
Wiele osób podczas pracy z DAW myli podstawowe komendy związane z zapisywaniem projektu, co może prowadzić do niepotrzebnego bałaganu lub nawet utraty ważnych danych. Komenda 'Save' służy wyłącznie do nadpisania bieżącego pliku projektu – nie pozwala ani zmienić lokalizacji, ani nazwy. To najprostszy sposób na zachowanie bieżącego stanu, ale jeśli popełnisz błąd, możesz nie mieć odwrotu, bo wcześniejsza wersja zostaje nadpisana. Natomiast 'Save Copy In' jest trochę myląca, bo wydaje się, że robi to samo co 'Save As', ale to tylko pozory – ta opcja tworzy kopię projektu oraz powiązanych plików audio w wybranym miejscu (np. na zewnętrznym dysku), ale w praktyce dalsza praca kontynuowana jest na oryginalnym pliku, a nie na tej nowej kopii. To jest dobre rozwiązanie przy archiwizacji lub przenoszeniu sesji między komputerami, ale nie zmienia głównej lokalizacji czy nazwy projektu, na którym aktualnie pracujesz. Ostatnia komenda, 'Revert to Saved', działa jeszcze inaczej – cofa projekt do ostatniego zapisanego stanu, przez co możesz stracić wszystkie niezapisane zmiany; przydaje się tylko w sytuacjach awaryjnych, gdy coś pójdzie nie tak i trzeba szybko wrócić do wcześniejszej wersji. Moim zdaniem najczęstszy błąd to przekonanie, że 'Save Copy In' pozwala kontynuować pracę na nowej wersji – tymczasem trzeba pamiętać o ręcznym otwarciu kopii, bo inaczej zmiany trafią do starego pliku. W branży audio cały workflow opiera się na umiejętnym zarządzaniu plikami sesji, więc znajomość tych różnic to absolutny fundament nie tylko dla profesjonalistów, ale i dla każdego, kto chce uniknąć przykrych niespodzianek podczas pracy nad muzyką czy podcastem.

Pytanie 14

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik o parametrach 44.1 kHz/16 bit.
B. plik w formacie MP3 oraz plik odszumiony.
C. plik w formacie MP3.
D. plik o parametrach 48 kHz/16 bit.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 15

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 2|3|240
B. 1|2|000
C. 4|2|400
D. 3|4|350
Wskazanie 1|2|000 rzeczywiście oznacza początek drugiej miary w takcie, co jest zgodne z konwencjami stosowanymi praktycznie we wszystkich popularnych DAW-ach, jak Ableton Live, Cubase, czy Pro Tools. Pierwsza liczba (1) to numer taktu, druga (2) – numer miary (czyli beat, czasem nazywany ćwierćnutą w metrum 4/4), a trzecia liczba (000) oznacza początek danego beatu na osi ticków (czyli brak przesunięcia, dokładnie na 'klik'). To bardzo istotne, bo przy edycji MIDI, kwantyzacji czy automatyzacji parametrów precyzyjne wskazanie początku miary pozwala dokładnie synchronizować wydarzenia muzyczne. Często podczas pracy z loopami lub synchronizacją do innych ścieżek musimy ustawić markery właśnie na początku konkretnej miary – wtedy takie oznaczenie jest nieocenione. W praktyce dużo osób myli się i traktuje ticki jako coś mniej ważnego, a to przecież one odpowiadają za mikroskopijną precyzję w ustawianiu nut czy zdarzeń automatyzacji. Moim zdaniem dobrze znać te zapisy, bo pozwala to uniknąć typowych błędów przy aranżacji – na przykład przesunięcia wejścia instrumentu o kilka ticków. Tego typu detale są bardzo ważne, szczególnie przy produkcji elektroniki czy muzyki filmowej, gdzie synchronizacja jest absolutnie kluczowa.

Pytanie 16

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 44,1 kHz
B. 192 kHz
C. 96 kHz
D. 48 kHz
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 17

Aby zarchiwizować sesję programu DAW, należy zachować

A. skopiowany plik sesji oraz skopiowane pliki dźwiękowe.
B. skopiowany plik sesji.
C. skopiowane ustawienia wtyczek efektowych oraz pliki dźwiękowe.
D. skopiowane pliki dźwiękowe.
Wiele osób myśli, że wystarczy zachować wyłącznie plik sesji, bo właśnie tam są wszystkie informacje o projekcie. To jednak spory błąd – plik sesji rejestruje konfigurację, rozmieszczenie ścieżek, automatyzacje czy ustawienia wtyczek, ale nie przechowuje samych plików audio, które działają niejako „na zewnątrz” tego pliku. Jeśli taki plik przeniesiesz na inny komputer bez towarzyszących mu nagrań, DAW wyświetli komunikaty o brakujących plikach i sesja nie będzie kompletna. Z drugiej strony, kopiowanie samych plików dźwiękowych też nie wystarczy – bez pliku sesji nie ma szans odtworzyć struktury miksu, automatyzacji czy nawet kolejności ścieżek. Zdarza się też, że ktoś archiwizuje wyłącznie ustawienia wtyczek i pliki audio, zapominając o całym pliku projektu – taka praktyka, choć może się wydać sensowna na pierwszy rzut oka, w praktyce uniemożliwia szybkie odtworzenie efektów pracy, bo od podstaw trzeba wszystko rekonstruować. Najczęstszy błąd myślowy polega właśnie na przekonaniu, że „plik projektu wszystko zapamiętuje”, a tak naprawdę jest on swego rodzaju mapą, do której potrzebne są jeszcze rzeczywiste pliki audio. Dlatego standardem branżowym jest archiwizacja kompletna, obejmująca plik sesji oraz wszystkie audio – to umożliwia bezproblemowy powrót do projektu nawet po bardzo długim czasie. Każdy zawodowiec działa właśnie w ten sposób, bo tylko tak można mieć pewność, że sesja DAW jest kompletna i gotowa do dalszej pracy w dowolnym środowisku czy na innym komputerze.

Pytanie 18

Znaczniki w sesji programu DAW należy umiejscowić na osi

A. Timeline
B. Meter
C. Tempo
D. Markers
Markers to narzędzie w DAW, które służy do oznaczania konkretnych punktów na osi czasu (timeline) projektu. W praktyce, gdy pracujemy nad większym projektem muzycznym albo postprodukcją audio, bardzo często wstawiamy znaczniki, żeby na szybko wrócić do ważnych miejsc – na przykład refrenu, wejścia wokalu czy początku nowej sceny. W większości profesjonalnych programów DAW, jak Ableton Live, Pro Tools czy Cubase, sekcja Markers znajduje się zwykle nad główną linią czasu i można ją łatwo edytować, przesuwać, opisywać. To właśnie Markers pozwalają na szybkie poruszanie się po projekcie oraz ułatwiają współpracę z innymi osobami (np. ktoś od miksu od razu widzi, gdzie jest bridge albo gdzie trzeba poprawić błąd). Z mojego doświadczenia, bez znaczników praca nad bardziej skomplikowanymi utworami potrafi być naprawdę męcząca – ciągle trzeba przewijać i szukać tych samych miejsc. Warto pamiętać, że korzystanie z Markers jest uważane za dobrą praktykę branżową, bo zwiększa efektywność, porządek i przejrzystość całej sesji. Jeszcze jedna rzecz: Markers nie mają wpływu na dźwięk czy tempo, służą głównie do nawigacji i organizacji, co moim zdaniem jest ich największym atutem.

Pytanie 19

Wybierz z listy maksymalną rozdzielczość plików audio obsługiwaną przez współczesne aplikacje DAW.

A. 16 bitów
B. 24 bity
C. 8 bitów
D. 32 bity
Wiele osób myśli, że nagrywanie lub edycja w 8 czy 16 bitach to już szczyt możliwości, bo przecież przez lata taki poziom był standardem w branży audio. Jednak obecnie to raczej domena starych formatów (np. płyty CD to 16 bitów), a nie profesjonalnych zastosowań. 8-bitowy dźwięk kojarzy się dziś głównie z retro grami komputerowymi czy syntezatorami lo-fi, gdzie akceptuje się szumy i charakterystyczną ziarnistość brzmienia dla efektu stylistycznego, a nie jakości. 16 bitów natomiast, choć jeszcze do niedawna wystarczało do masteringu na CD czy domowego studia, obecnie bywa ograniczeniem, bo przy niższej rozdzielczości łatwiej o szumy kwantyzacyjne, mniejszą dynamikę i problemy przy obróbce z dużą ilością efektów. 24 bity są już szeroko stosowane w profesjonalnym nagrywaniu i miksowaniu – zyskujemy większy zakres dynamiki i swobodę pracy, ale to wciąż nie jest maksimum, jakie DAW-y potrafią przetworzyć. Z mojego doświadczenia wynika, że wiele osób zatrzymuje się na 24 bitach, bo to już 'profesjonalnie brzmi', lecz przy zaawansowanych sesjach, automatyzacjach czy korzystaniu z wielu efektów, 32 bity (szczególnie float) pozwalają uniknąć przesterowań i utraty jakości przy ekstremalnych warunkach miksu. Typowym błędem jest myślenie, że wyższa rozdzielczość nie daje wymiernych korzyści – praktyka pokazuje, że różnica jest odczuwalna szczególnie przy dynamicznych źródłach i wieloetapowej obróbce. Nowoczesne DAW są projektowane tak, by pracować właśnie w 32 bitach, bo to jest najbezpieczniejsze rozwiązanie dla zachowania pełnej jakości dźwięku, nawet jeśli ostateczna publikacja wymaga niższego formatu. Warto wiedzieć, że branżowe standardy idą w kierunku coraz wyższej precyzji, bo oczekiwania słuchaczy i użytkowników sprzętu stale rosną.

Pytanie 20

Gdzie należy szukać informacji o docelowych nazwach eksportowanych plików dźwiękowych w projekcie multimedialnym?

A. W harmonogramie produkcji.
B. W komentarzu reżyserskim.
C. W znacznikach.
D. W skrypcie.
Informacje o docelowych nazwach eksportowanych plików dźwiękowych powinny znajdować się właśnie w skrypcie projektu multimedialnego. To trochę taki fundament całego procesu, bo skrypt pełni rolę głównego dokumentu sterującego, gdzie opisuje się nie tylko, co ma być nagrane i w jakiej kolejności, ale też precyzuje szczegóły techniczne – na przykład, jakie będą nazwy plików po eksporcie czy do jakich folderów mają trafić. Z mojego doświadczenia, dobrze przygotowany skrypt pozwala uniknąć masy nieporozumień między dźwiękowcem, montażystą a resztą zespołu. W środowiskach profesjonalnych bardzo często stosuje się wzorce takie jak EBU Tech 3281 czy zalecenia SMPTE, które wręcz wymagają precyzyjnego opisu plików w dokumentacji projektowej. Dzięki temu łatwiej potem zapanować nad plikami, szczególnie przy dużych produkcjach, gdzie liczba materiałów potrafi przyprawić o zawrót głowy. W praktyce – jeśli brakuje jasnych nazw w skrypcie, to potem zaczyna się szukanie, kombinowanie i niepotrzebny bałagan. Dlatego branżową normą jest ustalanie wszystkiego z góry właśnie w skrypcie, zanim powstanie pierwszy plik dźwiękowy. To naprawdę oszczędza czas i nerwy całego zespołu.

Pytanie 21

Który z wymienionych procesorów typowo służy do przekształcania przestrzeni w nagraniu dźwiękowym?

A. Reverb.
B. Invert phase.
C. Time stretch.
D. Pitch correction.
Reverb to procesor, który zdecydowanie kojarzy się z przekształcaniem przestrzeni w nagraniu dźwiękowym. Tak naprawdę, pogłos, czyli właśnie reverb, pozwala symulować akustykę różnych pomieszczeń – od małego pokoju, przez salę koncertową, aż po ogromną katedrę. W miksie muzycznym czy postprodukcji dźwięku, stosuje się go po to, żeby nadać nagraniu głębię, przestrzeń i pewnego rodzaju naturalność. Często, gdy słuchasz wokalu, który wydaje się być "blisko" lub "daleko" – to właśnie zasługa odpowiednio ustawionego reverbu. Moim zdaniem, reverb to jedno z najważniejszych narzędzi inżyniera dźwięku, bo bez tego wszystko brzmiałoby nienaturalnie, sucharowo, bez atmosfery. W branży istnieje nawet powiedzenie, że "bez pogłosu nie ma emocji". Ważne jest też to, że reverbu używa się nie tylko do wokali, ale też do instrumentów – perkusji, gitar, smyczków, praktycznie wszystkiego. W profesjonalnych studiach stosuje się najróżniejsze algorytmy pogłosowe – od sprężynowych przez płytowe, po cyfrowe typu convolution. Sztuką jest nie przesadzić, bo zbyt dużo reverbu może zamulić miks, ale odrobina – często robi robotę. Praktycznie każdy DAW oferuje kilka rodzajów reverbów, a niektóre klasyczne urządzenia pogłosowe stały się wręcz legendarne w brzmieniu muzyki. Branżowym standardem jest używanie różnych typów reverbu w zależności od sytuacji – czasem krótkiego, czasem długiego, czasem tylko na jeden instrument. Moim zdaniem reverb to totalna podstawa jeśli chodzi o budowanie przestrzeni w muzyce czy filmie.

Pytanie 22

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 8 razy.
B. 6 razy.
C. 4 razy.
D. 2 razy.
Pojęcie decybela jako jednostki logarytmicznej bywa często źle rozumiane, szczególnie przy przełożeniu na konkretne wartości amplitudy czy mocy. Zwiększenie poziomu sygnału o 6 dB oznacza dwukrotny wzrost amplitudy, a nie czterokrotny, sześciokrotny czy ośmiokrotny. Wynika to bezpośrednio z definicji: 6 dB = 20 log(A2/A1), co daje A2/A1 = 10^(6/20) ≈ 2. To jest bardzo istotny aspekt, bo łatwo tu się pomylić przez mylenie skali decybelowej stosowanej do amplitudy (napięcia, prądu) i tej wykorzystywanej do mocy. W przypadku mocy – tak, 6 dB to wzrost czterokrotny (ponieważ 10 log(P2/P1) = 6 dB daje P2/P1 ≈ 4), ale w pytaniu chodzi o amplitudę, więc należy stosować wzór z 20 log. Mylenie tych dwóch sytuacji jest dość częste, zwłaszcza gdy ktoś zaczyna dopiero pracę z dźwiękiem, elektroniką albo systemami transmisyjnymi. Przekonanie, że 6 dB to czterokrotność wynika z automatycznego stosowania wzoru dla mocy, a nie dla napięcia czy prądu. Natomiast odpowiedzi takie jak 6 czy 8 razy to zwykłe przeszacowanie albo brak praktycznego doświadczenia – w rzeczywistości tak duże skoki poziomu odpowiadałyby odpowiednio 15,6 dB i 18 dB. Moim zdaniem najważniejsze jest, by za każdym razem sprawdzić, czy mówimy o napięciu, czy o mocy oraz zawsze korzystać ze wzoru właściwego dla danej sytuacji. To bardzo podstawowa, ale kluczowa umiejętność w branży elektroakustycznej, której nie da się przeskoczyć prostymi skojarzeniami czy zgadywaniem.

Pytanie 23

Która z wymienionych technologii Dolby umożliwia odtwarzanie dźwięku maksymalnie w standardzie 7.1?

A. Pro Logic IIz
B. Pro Logic II
C. Pro Logic
D. Pro Logic IIx
Wiele osób myli starsze technologie Pro Logic z ich późniejszymi, ulepszonymi wersjami, co rzeczywiście łatwo się zdarza. Sam kiedyś zakładałem, że skoro IIz też ma „zaawansowany” indeks, musi być lepszy do 7.1, a to jednak nie do końca tak działa. Pro Logic w najstarszej wersji obsługiwał tylko systemy 4-kanałowe (czyli w praktyce 3.0 albo 4.0), typowe dla pierwszych kin domowych i VHS-ów. Pro Logic II rozszerzył ten standard do 5.1, co było dużym krokiem naprzód, bo pozwoliło już na kinowe efekty z tylnymi głośnikami, bardzo spoko do filmów z początku XXI wieku. Pro Logic IIz, mimo że wydaje się „większy”, wcale nie rozbudowuje systemu do 7.1 – zamiast tego dodaje dwa kanały wysokości (front height), czyli wspiera układy typu 5.1 lub 7.1 z dodatkowymi głośnikami nad frontami, ale nie zwiększa liczby kanałów efektowych do ośmiu. To częsty błąd, mylenie kanałów wysokości z dodatkowymi kanałami surround. Tak naprawdę tylko Pro Logic IIx umożliwia natywną dekodację do 6.1 lub 7.1 – można na nim „rozdzielić” nawet standardowy sygnał stereo na siedem głośników plus subwoofer. W branży audio od lat podkreśla się, żeby nie wybierać technologii wyłącznie po nazwie czy numerze, bo czasem marketingowe oznaczenia są trochę mylące. W praktyce – jeśli zależy komuś na pełnej obsłudze 7.1, to IIx jest jedyną poprawną opcją z tej rodziny. Pozostałe rozwiązania świetnie sprawdzają się w prostszych konfiguracjach, ale nie przeskoczą tej granicy. Dobra praktyka to zawsze sprawdzić, jakie sygnały dany dekoder potrafi rozpoznać i na ile kanałów potrafi je rozbić – to pozwala uniknąć późniejszych rozczarowań przy rozbudowie sprzętu.

Pytanie 24

Która z wymienionych płyt umożliwia dwustronny zapis danych?

A. DVD +RW
B. DVD +R
C. DVD +R DL
D. DVD –R
Wszystkie pozostałe wymienione typy płyt DVD, czyli DVD –R, DVD +R oraz DVD +RW, umożliwiają jedynie zapis na jednej stronie nośnika i w większości przypadków w jednej warstwie. W praktyce oznacza to, że ich maksymalna pojemność wynosi zwykle około 4,7 GB, co w wielu zastosowaniach bywa niewystarczające – szczególnie przy dużych projektach graficznych, filmach czy tworzeniu kopii zapasowych systemów. Częsty błąd polega na utożsamianiu możliwości ponownego zapisu (jak w DVD +RW) lub obsługi różnych standardów (DVD –R czy DVD +R) z możliwością zapisu dwustronnego, tymczasem są to zupełnie inne kategorie. DVD +RW pozwala na wielokrotne nadpisywanie danych, ale tylko po jednej stronie płyty i w jednej warstwie – nie zwiększa jej pojemności ani nie umożliwia rozszerzenia zapisu na drugą stronę. Podobnie DVD –R oraz DVD +R, mimo różnic technologicznych w sposobie zapisu i kompatybilności napędów, pozostają nośnikami jednowarstwowymi i jednostronnymi. W branżowych standardach przy wyborze nośnika zawsze zwraca się uwagę na wymagania dotyczące pojemności oraz zgodności sprzętowej – nie bez powodu płyty dwuwarstwowe i dwustronne zostały wprowadzone, by sprostać zapotrzebowaniu na większą ilość danych bez konieczności użycia kilku nośników. Typowe nieporozumienie wynika często z błędnego założenia, że nowszy lub „bardziej zaawansowany” standard (jak +RW) zawsze oznacza większe możliwości – tymczasem kluczowa jest tu specyfikacja dotycząca warstw oraz stron nośnika. W praktyce, jeśli zależy nam na większej pojemności i elastyczności zapisu, musimy sięgnąć po płyty oznaczone jako DL (Dual Layer) lub DS (Double Sided), czyli właśnie DVD +R DL, które wyraźnie wyróżniają się na tle pozostałych.

Pytanie 25

W jakim celu normalizuje się pliki dźwiękowe?

A. Wyrównania pików nagrania do tej samej wartości.
B. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
C. Ustalenia maksymalnego poziomu nagrania.
D. Ustalenia minimalnego poziomu nagrania.
Często spotykam się z nieporozumieniami dotyczącymi normalizacji dźwięku, zwłaszcza jeśli chodzi o to, co dokładnie jest jej celem. Wiele osób błędnie zakłada, że normalizacja wyrównuje piki nagrania do tej samej wartości. W rzeczywistości normalizacja ustawia jedynie globalny, maksymalny poziom sygnału, nie zaś poziomy poszczególnych pików w różnych miejscach nagrania. To już zadanie limiterów czy narzędzi do kompresji – one potrafią bardziej „wygładzić” nierówności w sygnale. Z drugiej strony niektórzy sądzą, że normalizacja to ustalanie minimalnego poziomu nagrania. To też nie jest prawda – minimalny poziom nie ma znaczenia, bo liczy się szczyt (peak) sygnału. Ustalanie minimalnego poziomu mogłoby prowadzić do sztucznego podnoszenia ciszy tła, co kończy się szumami i ogólnym pogorszeniem jakości. Równie często pojawia się przekonanie, że normalizacja służy do wyrównania poziomu głośności poszczególnych fragmentów nagrania. Takie działanie wymagałoby zastosowania automatyzacji głośności lub kompresji dynamiki, które są dużo bardziej zaawansowanymi procesami, analizującymi zmiany sygnału w czasie i reagującymi na nie. Normalizacja działa na całym pliku jako całości, biorąc pod uwagę tylko jego najsilniejszy fragment. Moim zdaniem to najczęstszy błąd – mylić normalizację z procesami, które wpływają na dynamikę czy głośność w poszczególnych miejscach ścieżki. Branżowe standardy, np. zalecenia EBU R128 czy AES, jasno rozdzielają te pojęcia. Podsumowując: normalizacja ustala maksymalny poziom sygnału w pliku, a nie koryguje różnic między poszczególnymi fragmentami ani nie ustawia wartości minimalnej.

Pytanie 26

Na ile kanałów jest dzielony sygnał audio w reprodukcji techniką 5.1?

A. 5
B. 6
C. 2
D. 4
Wielu osobom wydaje się, że systemy audio składają się tylko z dwóch lub czterech kanałów, bo do niedawna stereo (czyli dwa głośniki – lewy i prawy) było absolutnym standardem w domowych zestawach Hi-Fi czy nawet telewizorach. To podejście jednak nie odpowiada rzeczywistości nowoczesnej technologii dźwięku przestrzennego, gdzie znacznie większy nacisk kładzie się na realizm i lokalizację źródeł dźwięku. Cztery kanały pojawiały się w przeszłości, np. w systemach quadrofoniicznych, ale ich popularność była niewielka i nie przyjęły się szeroko ze względu na skomplikowaną instalację i ograniczone wsparcie treści. W kontekście pytania o 5.1 niektórzy zakładają też, że liczba „5” w nazwie oznacza pięć kanałów, jednak to jest niepełna interpretacja – dodatkowy, szósty kanał to tzw. kanał LFE (Low-Frequency Effects), czyli subwoofer, który odpowiada za efekty niskotonowe, takie jak grzmoty, wybuchy czy filmowe basy. W praktyce to właśnie obecność dedykowanego kanału basowego odróżnia 5.1 od starszych rozwiązań i nadaje mu tę niezwykłą głębię i przestrzenność. Pomijanie subwoofera albo traktowanie go jako niepełnoprawnego kanału to typowy błąd, spotykany nawet u osób związanych z branżą audio. Warto zapamiętać, że poprawna liczba kanałów w systemie 5.1 wynosi sześć – pięć pełnopasmowych i jeden subwooferowy. To standard przyjęty przez Dolby Digital, DTS i praktycznie wszystkie nowoczesne systemy kina domowego. Z mojego punktu widzenia, zrozumienie tych różnic jest kluczowe – pozwala uniknąć rozczarowań podczas kompletowania własnego zestawu czy pracy z dźwiękiem w warunkach profesjonalnych lub edukacyjnych.

Pytanie 27

Którego toru wirtualnego miksera w oprogramowaniu DAW należy użyć do obróbki równoległej ścieżki dźwiękowej za pomocą efektu pogłosowego?

A. Aux.
B. Audio.
C. Instrument.
D. MIDI.
Tor typu Aux w wirtualnym mikserze DAW to w zasadzie podstawa, jeśli chcesz robić obróbkę równoległą – na przykład właśnie z pogłosem. W branży muzycznej to chyba jeden z najczęstszych workflow: tworzysz tor Aux, wrzucasz na niego efekt pogłosowy (np. jakiś reverb typu plate, hall) i wysyłasz na ten tor sygnał z różnych ścieżek przez sendy. Pozwala to miksować czysty dźwięk z oryginalnej ścieżki z przetworzonym, czyli pogłosowym, na osobnym kanale. Z mojego doświadczenia to bardzo wygodne, bo jednym pogłosem obsłużysz kilka ścieżek – nie obciążasz systemu kolejnymi instancjami efektu, a dodatkowo masz pełną kontrolę nad ilością efektu na każdej ścieżce osobno. Tak robią inżynierowie dźwięku praktycznie w każdym profesjonalnym miksie, bo to daje mega elastyczność i pozwala na kreatywność, np. automatyzacje tylko samego pogłosu albo szybkie wyciszenie efektu. W produkcji muzycznej to po prostu standard – stosuje się to nie tylko do pogłosu, ale i do delayów czy kompresji równoległej. Oczywiście, można eksperymentować – ale tor Aux to taki szwajcarski scyzoryk DAW-a. Moim zdaniem, jeśli chcesz miksować „po dorosłemu”, to tor Aux i wysyłki to absolutna podstawa pracy z efektami równoległymi.

Pytanie 28

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 1 ścieżkę.
B. 4 ścieżki.
C. 3 ścieżki.
D. 2 ścieżki.
Wielu początkujących realizatorów może pomyśleć, że do montażu kwartetu smyczkowego wystarczy mniej niż cztery ścieżki, zwłaszcza jeśli chodzi o nagrania dokonywane mikrofonami monofonicznymi (MM). To typowy błąd wynikający z niezrozumienia, jak dużą elastyczność oraz czystość brzmienia zapewnia oddzielenie każdego instrumentu na osobnej ścieżce. Uproszczone podejście, gdzie rejestruje się całość np. na jednej czy dwóch ścieżkach, mocno ogranicza późniejszą pracę – nie da się wtedy indywidualnie poprawić dynamiki, balansu czy ewentualnych błędów konkretnego wykonawcy. Trzy ścieżki to wciąż za mało, bo któryś z instrumentów musiałby być połączony z innym lub pominięty, a wtedy tracimy kontrolę nad miksem i naturalnością panoramy stereofonicznej. Zdarza się, że ktoś sugeruje takie rozwiązania, myśląc o oszczędności czasu czy śladów w projekcie, ale w branży muzycznej standardem jest praca na tylu śladach, ile jest instrumentów lub źródeł dźwięku, właśnie ze względu na jakość i możliwości postprodukcji. Warto mieć świadomość, że nawet w przypadku nagrań na żywo, gdzie stosuje się dodatkowe mikrofony ambientowe, podstawą są osobne ścieżki dla każdego głosu. To pozwala lepiej panować nad całym materiałem i dopasować go do różnych potrzeb artystycznych czy technicznych. Moim zdaniem, jeśli rejestrujemy mniej niż cztery ślady dla kwartetu smyczkowego, po prostu pozbawiamy się wielu narzędzi do dalszej pracy i nie spełniamy podstawowych standardów branżowych. Takie podejścia często wynikają z niedoświadczenia lub niepełnej znajomości praktyk produkcyjnych, ale w profesjonalnym montażu raczej się ich unika.

Pytanie 29

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.m4a
B. *.mp3
C. *.mp4
D. *.m4p
Rozszerzenie *.mp4 to zdecydowanie najbardziej uniwersalny i powszechnie stosowany format do przechowywania zarówno ścieżek audio, jak i video. Format MP4 (MPEG-4 Part 14) bazuje na standardzie MPEG-4 i jest wspierany praktycznie we wszystkich nowoczesnych urządzeniach – od komputerów, przez smartfony, aż po telewizory Smart TV czy konsole do gier. Co ciekawe, *.mp4 pozwala nie tylko na zapis obrazu i dźwięku, ale też napisów czy metadanych, co przydaje się szczególnie przy produkcji filmów, klipów czy prezentacji multimedialnych. Z mojego doświadczenia, gdy klient prosi o plik zawierający zarówno wideo, jak i audio, to zawsze wybieram MP4 – praktycznie nie ma z nim problemów z kompatybilnością, nawet na starszych sprzętach. Standard ten jest szeroko rekomendowany przez organizacje branżowe, m.in. Moving Picture Experts Group. Czasem spotyka się pliki .avi czy .mkv, ale to MP4 faktycznie stał się złotym standardem dzięki kompresji, jakości i wszechstronności. W codziennej pracy z plikami multimedialnymi osobiście często korzystam z tego formatu, bo nie trzeba się bawić w konwersje i kombinować z kodekami. Moim zdaniem, jeśli ktoś chce mieć pewność, że jego wideo zadziała wszędzie – wybór jest oczywisty. Warto też pamiętać, że MP4 obsługuje różne kodeki (np. H.264, AAC), więc można uzyskać świetną jakość przy relatywnie małym rozmiarze pliku. Dla osób, które myślą o publikacji materiałów w internecie, MP4 to już praktycznie wymóg branżowy.

Pytanie 30

Ile kanałów wirtualnego miksera sesji programu DAW należy użyć do dekodowania nagrania dźwiękowego wykonanego techniką Mid/Side, do formatu stereo?

A. 3 kanały.
B. 5 kanałów.
C. 1 kanał.
D. 7 kanałów.
Technika Mid/Side wymaga użycia trzech kanałów miksera DAW do prawidłowego dekodowania sygnału do formatu stereo. Ogólnie wygląda to tak: jeden kanał odpowiada za sygnał Mid (czyli to, co wspólne dla lewego i prawego kanału, zwykle mikrofon skierowany centralnie), a dwa kolejne obsługują Side – zwykle jest to ten sam sygnał Side, ale rozłożony na lewo i prawo, gdzie dla jednego kanału Side odwracamy fazę o 180 stopni. W praktyce, żeby uzyskać poprawny obraz stereo, ustawiamy w DAW trzy oddzielne ścieżki – Mid, Side-L i Side-R. Następnie sumuje się sygnał Mid z Side (dla lewego kanału stereo) i Mid z odwróconym Side (dla prawego). To trochę przypomina pracę z matrycowaniem, ale w miksie daje ogromną kontrolę nad szerokością stereo – to jest często używane w masteringu i miksowaniu chórów, gitar akustycznych czy ambientów. Według standardów branżowych (np. praktyki inżynierów dźwięku w studiach radiowych BBC czy techniki rekomendowane przez firmę Neumann), zawsze pracuje się na trzech kanałach, żeby zachować pełną elastyczność podczas dekodowania M/S. Moim zdaniem, takie podejście oszczędza dużo nerwów w późniejszym etapie miksu, bo możesz jednym suwakiem zwiększyć szerokość stereo bez utraty przejrzystości środka. No i nie da się tego ogarnąć na jednym kanale – szkoda czasu na kombinowanie z uproszczonymi metodami. Warto zapamiętać ten workflow, bo to podstawa przy pracy z mikrofonami pojemnościowymi w trybie M/S.

Pytanie 31

Ile razy zwiększy się amplituda sygnału po zwiększeniu poziomu sygnału o 6 dB?

A. 8 razy.
B. 6 razy.
C. 4 razy.
D. 2 razy.
Zwiększenie poziomu sygnału o 6 dB często bywa błędnie kojarzone z większymi przyrostami amplitudy, niż jest w rzeczywistości. To wynika głównie z nieporozumień dotyczących definicji decybela oraz różnic pomiędzy analizą mocy a napięcia czy prądu. Decybel jest miarą logarytmiczną i różnie interpretuje się go w zależności od tego, czy mówimy o mocy czy o amplitudzie sygnału. W przypadku mocy, 3 dB oznacza dwukrotność mocy, natomiast dla napięcia, czyli właśnie amplitudy, potrzeba już 6 dB, aby uzyskać podwojenie. Zdarza się, że pod wpływem długiego doświadczenia z urządzeniami, gdzie decybele odnoszą się głównie do poziomów mocy, można automatycznie przenosić te same wartości na amplitudy – a to prowadzi do błędnych założeń. Przykładowo, wzrost o 4 lub 8 razy sugeruje, że 6 dB to dużo większa zmiana niż w rzeczywistości – tymczasem każda dodatkowa szóstka decybeli to kolejne podwojenie amplitudy (np. 12 dB to 4 razy, 18 dB to 8 razy itd.). To, moim zdaniem, jest jeden z najczęstszych błędów w praktyce, zwłaszcza przy doborze wzmacniaczy lub analizie sygnałów w systemach audio czy radiowych. Dobrą praktyką jest szybkie przeliczanie dB na rzeczywiste wartości amplitudy, bazując na wzorze 20*log10(A2/A1), co pozwala uniknąć interpretacyjnych pułapek. Jeśli te zasady się opanuje, to praca z poziomami sygnałów staje się znacznie prostsza i bardziej przewidywalna – a o to przecież w życiu technika chodzi.

Pytanie 32

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. LF
B. BPF
C. HPF
D. LPF
Skrót LPF pochodzi od angielskich słów 'Low Pass Filter', czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o niskiej częstotliwości, a tłumią te wyższe. Kluczowe jest to, że ich działanie znajduje masę zastosowań w praktyce, zwłaszcza w elektronice audio, systemach pomiarowych czy nawet w przetwarzaniu obrazów. Nawet proste kolumny głośnikowe mają wbudowane filtry dolnoprzepustowe, żeby odciąć wysokie częstotliwości od subwoofera. Moim zdaniem znajomość tego skrótu to tak naprawdę jedna z podstaw dla każdego, kto zabiera się za projektowanie lub analizę układów elektronicznych. Jeśli spojrzysz na schematy, to prawie zawsze takie filtry są oznaczane właśnie jako LPF – to standard branżowy, nie tylko u nas, ale i na świecie. Sam nieraz projektowałem filtry dolnoprzepustowe na potrzeby odczytu sygnałów z czujników – bez LPF wszystko by pływało w szumie. Warto pamiętać, że charakterystyka filtra (czyli na przykład jego częstotliwość odcięcia) jest kluczowa dla danego zastosowania. W praktyce, jak projektujesz prosty układ RC – już możesz zbudować LPF, nawet nie wiedząc, że to się tak nazywa. Z mojego doświadczenia – bez LPF ani rusz w świecie elektroniki użytkowej.

Pytanie 33

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 44,1 kHz
B. 192 kHz
C. 88,2 kHz
D. 96 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 34

W którym z wymienionych dokumentów normatywnych zapisana jest specyfikacja techniczna płyt CD-DA?

A. W Czerwonej Księdze.
B. W Żółtej Księdze.
C. W Niebieskiej Księdze.
D. W Zielonej Księdze.
Czerwona Księga, czyli Red Book, to absolutna podstawa, jeżeli chodzi o techniczne aspekty płyt CD-DA (Compact Disc Digital Audio). To właśnie w tym dokumencie, stworzonym w latach 80. przez firmy Sony i Philips, szczegółowo opisano nie tylko jak fizycznie wygląda płyta CD, ale też w jaki sposób kodowany jest na niej dźwięk, jakie są parametry próbkowania (44,1 kHz, 16 bitów), odstępy między ścieżkami oraz jak powinno wyglądać zapisywanie informacji kontrolnych. Moim zdaniem, każda osoba związana z audio czy archiwizacją cyfrową powinna choć raz przejrzeć podstawowe założenia Red Booka. W praktyce to właśnie ten standard sprawił, że płyty CD mogły być odtwarzane na dowolnym sprzęcie i zachowywały uniwersalność, co do dziś wykorzystuje się np. w studiach nagraniowych, podczas masteringu lub archiwizacji utworów muzycznych. W branży muzycznej Czerwona Księga to coś jak Biblia dla CD – bez jej wytycznych nie byłoby zgodności między różnymi producentami czy urządzeniami. Fajne jest to, że nawet współczesne odtwarzacze CD bazują na tej specyfikacji, więc nagrania przygotowane zgodnie z Red Bookiem praktycznie zawsze będą prawidłowo odczytywane. To jest właśnie siła standaryzacji i dobrych praktyk technicznych.

Pytanie 35

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 16 bitów.
B. 24 bity.
C. 32 bity.
D. 8 bitów.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 36

W celu uzyskania najmniejszej latencji w oprogramowaniu DAW rozmiar bufora programowego należy ustawić na wartość

A. 1 024 próbek.
B. 512 próbek.
C. 256 próbek.
D. 32 próbek.
Wybór najmniejszego możliwego rozmiaru bufora, czyli 32 próbek, to klucz do uzyskania minimalnej latencji podczas pracy w DAW (Digital Audio Workstation). W praktyce oznacza to, że sygnał audio jest przetwarzany niemal natychmiast po jego wejściu do systemu, co jest szczególnie istotne przy nagrywaniu instrumentów na żywo, wokali czy podczas grania na syntezatorach softwarowych. Branżowe standardy i doświadczenie realizatorów dźwięku jasno pokazują, że im mniejszy bufor, tym mniejsza opóźnienie między wejściem sygnału a jego odsłuchem czy zapisem. Oczywiście, wymaga to mocnego sprzętu, bo przy tak małym buforze procesor musi radzić sobie z szybkim przetwarzaniem danych, jednak w nowoczesnych studiach to już właściwie podstawa. Dobrą praktyką jest testowanie najniższych ustawień i obserwowanie stabilności DAW – jeśli system nie gubi sygnału i nie pojawiają się trzaski czy artefakty dźwiękowe, można spokojnie pracować właśnie na 32 próbkach. Moim zdaniem, nawet jeśli czasem trzeba podnieść bufor przy miksowaniu z dużą ilością pluginów, przy nagrywaniu i monitoringu na żywo zawsze warto zaczynać od tej najmniejszej wartości – daje to największą kontrolę i komfort pracy. No i jeszcze jedno, warto pamiętać, że nie każda karta dźwiękowa pozwala zejść do tak niskiego bufora, ale jeśli się da, to zdecydowanie trzeba z tego korzystać.

Pytanie 37

Które z zamieszczonych określeń odnosi się do procesu wykorzystywanego przy redukcji rozdzielczości bitowej dźwięku cyfrowego, mającego na celu zminimalizowanie cyfrowych zniekształceń sygnału?

A. Authoring.
B. Dithering.
C. Decimating.
D. Downsampling.
Wiele osób myli pojęcia związane z obróbką dźwięku cyfrowego, zwłaszcza przy redukcji rozdzielczości bitowej. Na przykład „authoring” to zupełnie inna dziedzina – odnosi się głównie do przygotowania finalnych nośników czy formatów, jak DVD czy Blu-ray, czyli do składania materiału i przygotowania go do dystrybucji. Z praktycznego punktu widzenia nie ma on bezpośredniego wpływu na jakość bitową dźwięku, a tym bardziej nie zapobiega cyfrowym zniekształceniom sygnału. Z kolei „decimating” to proces redukcji liczby próbek, czyli obniżania częstotliwości próbkowania sygnału (downsampling), co polega na usuwaniu części próbek, często stosowane przy konwersji z wyższej do niższej częstotliwości próbkowania. W tym przypadku mogą pojawić się inne artefakty, na przykład aliasing, jeśli nie zastosuje się odpowiedniego filtrowania, ale nie rozwiązuje to w żaden sposób problemu zniekształceń kwantyzacyjnych przy redukcji rozdzielczości bitowej. Samo „downsampling” dotyczy obniżania częstotliwości próbkowania, a nie rozdzielczości bitowej. Wiele osób błędnie zakłada, że downsampling i dithering to to samo, bo oba dotyczą jakiejś „redukcji” w procesie cyfrowego audio. Tymczasem to zupełnie inne kwestie – downsampling zmienia ilość próbek na sekundę, a dithering zabezpiecza jakość sygnału przy mniejszej liczbie bitów na próbkę. Zaniedbanie ditheringu podczas redukcji bitów prowadzi do wyraźnych cyfrowych zniekształceń, szczególnie słyszalnych na cichych fragmentach czy w delikatnych partiach muzyki. Częsty błąd to myślenie, że sam downsampling lub decimation wystarczy, ale to zupełnie inne narzędzia. Takie nieporozumienia wynikają często z powierzchownego zapoznania się z terminologią lub mylenia procesów związanych z konwersją plików audio. W praktyce tylko dithering jest narzędziem zaprojektowanym specjalnie do walki ze zniekształceniami kwantyzacyjnymi przy redukcji rozdzielczości bitowej i to właśnie tę technikę rekomendują wszyscy doświadczeni realizatorzy dźwięku.

Pytanie 38

Plik w formacie CD-Audio posiada następujące parametry:

A. 24 bit, 96 kHz.
B. 24 bit, 44,1 kHz.
C. 16 bit, 44,1 kHz.
D. 24 bit, 48 kHz.
CD-Audio, czyli popularne płyty kompaktowe odtwarzane przez klasyczne odtwarzacze, mają bardzo sztywno ustalony standard zapisu dźwięku. Jest to dokładnie 16 bitów rozdzielczości próbkowania i 44,1 kHz częstotliwości próbkowania. Nie bez powodu — taki wybór parametrów był kompromisem między jakością, pojemnością płyty i możliwościami technicznymi z lat 80. XX wieku. 16 bitów pozwala na uzyskanie dynamiki na poziomie około 96 dB, co w warunkach domowych w zupełności wystarcza do wiernego odwzorowania większości materiału muzycznego. 44,1 kHz wynika natomiast z teorii Nyquista – pozwala na prawidłowe odwzorowanie dźwięków do 22,05 kHz, czyli ciut ponad granicę słyszalności ludzkiego ucha. Właśnie dlatego większość płyt CD brzmi tak, a nie inaczej, i nie znajdziesz płyty audio z innymi parametrami. Co ciekawe, wyższe wartości jak 24 bit czy 96 kHz spotkasz raczej w plikach studyjnych albo formatach typu FLAC lub SACD, których zwykłe odtwarzacze CD nie odczytują. Moim zdaniem wiedza o tych parametrach bywa bardzo praktyczna – np. przy zgrywaniu (tzw. ripowaniu) płyt CD na komputer, warto ustawić właśnie 16 bit / 44,1 kHz, żeby niepotrzebnie nie powiększać plików bez żadnej korzyści jakościowej.

Pytanie 39

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 20 MB
B. Około 10 MB
C. Około 30 MB
D. Około 5 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 40

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 200 ms
B. 500 ms
C. 300 ms
D. 400 ms
Ćwierćnuta w metrum 4/4 przy tempie 120 BPM trwa dokładnie 500 milisekund, co można łatwo policzyć: tempo 120 BPM oznacza 120 uderzeń na minutę, a każdy „beat” to właśnie ćwierćnuta. Minuta ma 60 sekund, czyli 60 000 milisekund. Dzieląc 60 000 ms przez 120 otrzymujemy równe 500 ms na ćwierćnutę. Ten sposób przeliczania jest powszechnie wykorzystywany w pracy z DAW-ami, automatami perkusyjnymi czy podczas nagrań studyjnych, kiedy ustawiamy precyzyjnie długość nut i synchronizujemy instrumenty. W praktyce wiedza ta przydaje się, gdy korzystasz z funkcji „quantize” albo ustawiasz delay czy arpeggiatory, gdzie trzeba podać wartość w milisekundach. Moim zdaniem, szczególnie w muzyce elektronicznej i popie, takie przeliczenia to codzienność – stąd warto mieć ten schemat w głowie. Często zauważam też, że początkujący mylą pojęcie tempa z długością taktu, a tu wyraźnie widać, że to właśnie liczba uderzeń na minutę determinuje czas trwania pojedynczej ćwierćnuty. W notacji muzycznej na całym świecie właśnie tak to się liczy – i to jest wg standardów branżowych najprostszy i najpewniejszy sposób na ustalenie wartości rytmicznych.