Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 19 kwietnia 2026 15:43
  • Data zakończenia: 19 kwietnia 2026 16:10

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. pendrive.
B. karta SD.
C. dysk twardy.
D. chmura dyskowa.
Karta SD to zdecydowanie najpowszechniejszy nośnik danych wykorzystywany w przenośnych urządzeniach do zapisu sygnałów fonicznych, czyli dźwięku. Moim zdaniem producenci sprzętu od lat wybierają właśnie ten format, bo karta SD łączy w sobie kompaktowe wymiary, wysoką pojemność i niezłą trwałość. Wystarczy zerknąć na rejestratory dźwięku, kamery, aparaty fotograficzne czy nawet niektóre przenośne miksery audio – tam niemal zawsze znajdziesz slot na kartę SD. Branża audio docenia SD-ki także dlatego, że można je łatwo wymieniać i szybko zgrywać dane na komputer, bez kabli czy skomplikowanych procedur. Najlepiej sprawdzają się modele SDHC albo SDXC, bo dają więcej miejsca na dłuższe nagrania w lepszej jakości. Z mojego doświadczenia wynika, że zapis na kartę SD jest stabilny nawet przy dużych plikach WAV czy FLAC, a do tego nie wymaga specjalnej konfiguracji. Standardy, jak SD Association, dbają o kompatybilność i bezpieczeństwo danych – to spory atut w branży. Karta SD to też rozwiązanie praktyczne, bo sprzęt przenośny musi być lekki i niezawodny, a duży dysk twardy czy pendrive zwyczajnie by się nie sprawdziły. Dla osób pracujących z dźwiękiem mobilnie, karta SD od dawna jest takim standardem, jak baterie w latarce – po prostu musi być.

Pytanie 2

Który z formatów plików audio nie używa kodowania stratnego?

A. .ogg
B. .wav
C. .ra
D. .rm
Format pliku .wav, czyli Waveform Audio File Format, rzeczywiście nie stosuje kodowania stratnego. To jeden z najczęściej używanych formatów w profesjonalnym nagrywaniu i edycji dźwięku. Moim zdaniem, jeśli ktoś poważnie podchodzi do pracy z dźwiękiem – chociażby w studiu nagraniowym, radiu czy przy produkcji podcastów – wybiera właśnie .wav, bo zapewnia pełną wierność oryginalnego nagrania. Pliki .wav przechowują dane audio w postaci nieskompresowanej (lub czasem bezstratnie skompresowanej), czyli każdy dźwięk, każdy detal jest zapisany dokładnie tak, jak został nagrany. To ma kluczowe znaczenie przy dalszej obróbce, np. miksowaniu czy masteringu, gdzie kolejne kompresje stratne mogłyby pogorszyć jakość dźwięku. Standard ten wywodzi się z lat 90. i do dziś jest zgodny z wymaganiami branżowymi, co widać choćby w programach typu Pro Tools czy Cubase. Co ciekawe, nagrania w .wav są dużo większe niż w formatach stratnych, ale za to masz gwarancję, że nie tracisz na jakości – to trochę jak cyfrowa taśma-matka. W praktyce .wav używa się też do archiwizacji nagrań i w sytuacjach, gdzie jakość musi być bezkompromisowa – np. w bibliotece dźwięków czy w materiałach do telewizji. Sam nie raz przekonałem się, że praca na .wav pozwala uniknąć nieprzyjemnych niespodzianek podczas końcowego eksportu. Dla mnie to taki złoty standard, jeśli chodzi o bezstratne audio.

Pytanie 3

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. zmiany lokalizacji pliku.
B. zmiany nazwy pliku.
C. uzyskania jednorodnej kopii pliku.
D. ograniczenia wielkości pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 4

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. kształtu fade in i fade out w sesji.
B. liczby grup ścieżek w sesji.
C. częstotliwości próbkowania sygnału w sesji.
D. koloru ścieżek w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 5

Procesory efektów do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Input
B. Send
C. Output
D. Insert
Często spotykam się z przekonaniem, że procesor efektów do obróbki sygnału można podłączyć przez tor Send, Input lub nawet Output, ale to są raczej nieporozumienia wynikające z zamieszania w nazewnictwie albo z braku doświadczenia z routingiem w DAW. Tor Send w mikserze programowym służy głównie do wysyłania części sygnału na efekty równoległe, takie jak pogłosy czy delaye – wtedy oryginalny dźwięk pozostaje niezmieniony w kanale, a efekt jest dodawany gdzieś „z boku”, co świetnie się sprawdza, gdy chcemy mieć np. wspólne echo dla kilku śladów. Jednak przy procesorach szeregowych, jak kompresory albo korektory, taki sposób podłączenia prowadzi do zaburzeń dynamiki i dziwnych artefaktów – sygnał przestaje być kontrolowany w pełni. Input to z kolei miejsce, gdzie wybieramy źródło nagrania, np. mikrofon czy gitarę, i nie ma bezpośredniego wpływu na routing efektów, więc podłączanie procesora przez Input zwyczajnie nie zadziała, bo nie obsłużymy w ten sposób sygnału już nagranego lub miksowanego. Output odnosi się głównie do wyjścia sygnału z kanału lub miksu, czyli do tego, co słyszymy na końcu – umieszczanie efektu tutaj byłoby jak łapanie wody już za kranem zamiast przy zaworze, nie daje to kontroli nad pojedynczym sygnałem. Moim zdaniem sporo osób myli te pojęcia, bo interfejsy DAW bywają różne, ale podstawowa zasada jest taka: efekty szeregowe zawsze wrzucamy na Insert, bo tylko wtedy przetwarzamy cały sygnał, a nie jego fragmenty czy dodatkowe ścieżki. Tak to się robi zarówno w studiu domowym, jak i przy dużych produkcjach – i warto to sobie dobrze zakodować, bo potem wszystko idzie dużo sprawniej.

Pytanie 6

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.opus
B. *.amr
C. *.ac3
D. *.tiff
Rozszerzenie *.tiff w ogóle nie odnosi się do plików dźwiękowych, tylko do plików graficznych, a dokładniej do formatu obrazów rastrowych TIFF (Tagged Image File Format). Jest to bardzo popularny format wykorzystywany w profesjonalnej fotografii, skanowaniu dokumentów czy też w archiwizacji zdjęć wysokiej jakości. Pliki TIFF mogą przechowywać obrazy w bardzo wysokiej rozdzielczości, obsługują głęboką paletę barw i oferują bezstratną kompresję. To powoduje, że są chętnie używane tam, gdzie liczy się jakość grafiki, np. w drukarniach czy studiach graficznych. Moim zdaniem, dobrze kojarzyć to rozszerzenie, bo w praktyce informatyk czy technik często musi szybko rozróżniać rodzaje plików po rozszerzeniu – oszczędza to czas i zapobiega błędom przy np. przesyłaniu lub konwersjach plików. W przeciwieństwie do formatów *.opus, *.amr i *.ac3, które służą do zapisu i odtwarzania dźwięku, TIFF nie ma żadnego związku z audio. Warto też dodać, że niektóre programy mogą próbować 'oszukać' system poprzez zmianę rozszerzenia, ale plik TIFF nigdy nie będzie odtwarzany jako dźwiękowy. To rozszerzenie jest wręcz symbolem branży graficznej, a nie muzycznej czy dźwiękowej.

Pytanie 7

Aby uniknąć ewentualnych zniekształceń nieliniowych w montowanym materiale dźwiękowym, należy na bieżąco obserwować

A. poziom szczytowy odtwarzanego dźwięku.
B. poziom tła towarzyszącego nagraniu.
C. pasmo częstotliwościowe odtwarzanych dźwięków.
D. zmianę dynamiki odtwarzanych dźwięków.
Poziom szczytowy odtwarzanego dźwięku to absolutna podstawa, jeśli chodzi o kontrolę jakości w montażu audio. Chodzi o to, że każde urządzenie – czy to mikser, interfejs, DAW, czy wzmacniacz – ma pewien maksymalny poziom sygnału, po przekroczeniu którego pojawiają się zniekształcenia nieliniowe, zwane potocznie przesterowaniem. Dlatego właśnie, kiedy miksujesz albo edytujesz dźwięk, zawsze trzeba patrzeć na wskaźniki peaków (czyli poziomów szczytowych)! To one pokazują, czy przypadkiem nie wchodzisz na czerwone pole, gdzie sygnał jest już za mocny i zaczyna się zniekształcać. Z mojego doświadczenia najlepiej ustawiać tak poziomy, żeby nigdy nie przekraczać 0 dBFS na sumie – wtedy masz pewność, że nie popsujesz jakości nagrania. W praktyce, w profesjonalnych studiach, często zostawia się jeszcze zapas, czyli tzw. headroom, żeby mieć margines bezpieczeństwa. To pozwala uniknąć sytuacji, gdzie nagle coś głośno wybuchnie w miksie i całość się przesteruje. Dobrym nawykiem jest nie tylko patrzenie na wskaźnik, ale też raz na jakiś czas posłuchać, czy coś się nie "charczy". Kontrola peaków to jeden z filarów pracy realizatora dźwięku, no i taka wiedza przydaje się nawet przy prostych projektach domowych.

Pytanie 8

Które parametry pliku mp3 należy wybrać, aby uzyskać najmniejszy rozmiar pliku?

A. 22 000 Hz, 128 kbps
B. 44 100 Hz, 160 kbps
C. 48 000 Hz, 128 kbps
D. 44 100 Hz, 96 kbps
Wybranie parametrów 44 100 Hz oraz 96 kbps to taki mały trik praktyczny, który bardzo często stosuje się, gdy zależy nam na minimalizacji rozmiaru pliku mp3, ale jednocześnie chcemy zachować akceptowalną jakość dźwięku. 44 100 Hz to standardowa częstotliwość próbkowania używana na płytach CD i w większości plików audio, więc nie ryzykujemy utraty kompatybilności z większością odtwarzaczy czy programów. Z kolei bitrate 96 kbps to już wartość wyraźnie niższa niż popularne 128 kbps, przez co rozmiar pliku spada zauważalnie – szczerze mówiąc, przy muzyce tła albo podcastach różnica w jakości jest często trudna do wychwycenia dla przeciętnego ucha, zwłaszcza w warunkach domowych albo na słuchawkach niższej klasy. Z mojego doświadczenia wynika, że taki kompromis jest idealny np. przy archiwizowaniu dużych ilości nagrań, wysyłaniu plików mailem czy przygotowywaniu materiałów do udostępnienia online, gdzie kluczowe jest ograniczenie rozmiaru. Z punktu widzenia branży, dobrym zwyczajem jest stosowanie jak najniższego bitrate’u, który zapewnia jeszcze użyteczną jakość – a 96 kbps, przy zachowaniu 44 100 Hz, to właśnie taki złoty środek dla zastosowań nieprofesjonalnych. Oczywiście, jeśli ktoś oczekuje najwyższej wierności dźwięku, wybierze coś wyższego, ale w praktyce, do zastosowań codziennych, taka optymalizacja ma duży sens. Myślę, że warto też pamiętać, że pliki mp3, w przeciwieństwie do bezstratnych formatów, zawsze będą pewnym kompromisem – dlatego tak ważne jest umiejętne dobranie parametrów pod swoje potrzeby.

Pytanie 9

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 120 sekund, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 20 MB
B. Około 30 MB
C. Około 10 MB
D. Około 5 MB
Obliczenie objętości nieskompresowanego pliku dźwiękowego warto zacząć od podstawowego wzoru: rozmiar = liczba kanałów × częstotliwość próbkowania × rozdzielczość × czas trwania. Tutaj mamy stereo (czyli 2 kanały), próbkowanie 44,1 kHz, rozdzielczość 16 bitów (czyli 2 bajty), a czas nagrania to 120 sekund. Z prostego przeliczenia: 2 × 44 100 × 2 × 120 = 21 168 000 bajtów. Po podzieleniu przez 1024 dwa razy wychodzi około 20,2 MB. To wynik zbliżony do odpowiedzi „Około 20 MB”. W branży muzycznej i radiowej takie pliki są znane jako WAV lub PCM – standardowo właśnie tak je się przechowuje, zanim podda się je kompresji, np. do formatu MP3. W praktyce, jeśli pracujesz w studiu dźwiękowym albo robisz kopie zapasowe nagrań, zawsze planuj miejsce na dysku uwzględniając, że nieskompresowane pliki audio bardzo szybko wypełniają przestrzeń. Mało kto zdaje sobie sprawę, jak dużo zajmuje zwykła „dwuminutowa piosenka” w wysokiej jakości. Najlepszą praktyką jest zawsze znać podstawowe parametry swoich nagrań, żeby nie dać się zaskoczyć brakiem miejsca – szczególnie przy projektach wielośladowych. Moim zdaniem, znajomość tych przeliczników to podstawa, gdy pracuje się z audio na poważnie, szczególnie jeśli zależy ci na jakości i kompatybilności z różnym sprzętem czy oprogramowaniem.

Pytanie 10

Kompresor dynamiki do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Matrix
B. Insert
C. Aux
D. Master Output
Podłączenie kompresora dynamiki w torze Insert to absolutny standard w obróbce szeregowej sygnału audio w środowisku DAW. Chodzi o to, że Insert dosłownie wstawia urządzenie (czyli w tym przypadku plugin-kompresor) bezpośrednio w ścieżce sygnałowej konkretnego kanału. Dzięki temu cały sygnał jest przetwarzany – nie omija kompresora żaden fragment ścieżki. To właśnie sprawia, że możemy uzyskać pełną kontrolę nad dynamiką danej ścieżki, np. wokalu czy gitary. Tak robią wszyscy realizatorzy – od studiów domowych po największe produkcje, bo Insert pozwala na precyzyjne i szybkie reagowanie na zmiany sygnału. Oczywiście, w miksie często łączy się Insert z innymi technikami (np. równoległą kompresją na Auxach), ale dla podstawowych zastosowań typowy kompresor zawsze ląduje na Insert. Warto pamiętać, że w DAW Insert działa dokładnie tak samo jak na analogowych konsoletach – jest to wirtualny odpowiednik gniazda insertowego, gdzie można 'wpiąć' dowolny efekt przetwarzający całość sygnału. Moim zdaniem to jeden z fundamentów miksu, którego nie można pomijać, bo daje największą przewidywalność i powtarzalność efektów.

Pytanie 11

Którym skrótem oznacza się zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. VBR
C. CBR
D. MBR
Oznaczenie VBR pochodzi od angielskiego terminu Variable Bit Rate, czyli zmienna przepływność bitowa. To właśnie tym skrótem w telekomunikacji, informatyce czy przy kodowaniu multimediów określa się sygnał, którego ilość przesyłanych bitów na sekundę zmienia się dynamicznie, w zależności od zawartości danych i poziomu kompresji. Moim zdaniem to bardzo praktyczne podejście, bo pozwala na optymalizację rozmiaru plików przy zachowaniu dobrej jakości, szczególnie np. w plikach audio MP3 lub wideo MPEG-4. W branży jest to standard wykorzystywany w transmisji strumieniowej, nagraniach studyjnych, a nawet w nowoczesnych systemach CCTV. Przykładowo, jeśli w pewnym fragmencie filmu jest dużo ruchu, algorytm przydziela więcej bitów, a gdy obraz jest statyczny – mniej. Dzięki temu oszczędza się pasmo i miejsce na dysku. Warto też wiedzieć, że alternatywą bywa CBR (stała przepływność), która sprawdza się lepiej tam, gdzie wymagana jest przewidywalność zużycia łącza, np. w transmisjach satelitarnych. VBR natomiast daje większą elastyczność i często lepszą wydajność przy ograniczonych zasobach. Z mojego doświadczenia, jeśli zależy Ci na jakości przy ograniczonym transferze, warto korzystać właśnie z VBR.

Pytanie 12

Jak dużą w przybliżeniu przestrzeń dyskową należy zapewnić do zapisu stereofonicznego pliku dźwiękowego o długości 1 minuty i o parametrach 48 kHz/24 bity?

A. 8 MB
B. 14 MB
C. 11 MB
D. 17 MB
Odpowiedź 17 MB jest trafiona, ponieważ wynika z zastosowania prostego wzoru do obliczania rozmiaru pliku audio w formacie nieskompresowanym PCM. Przy takich parametrach jak 48 kHz i 24 bity na próbkę, a do tego dźwięk stereofoniczny (czyli dwa kanały), sprawa wygląda następująco: liczba próbek na sekundę razy liczba bitów na próbkę, dalej razy liczba kanałów i wreszcie razy liczba sekund. Dla jednej minuty (60 sekund) mamy: 48000 próbek/s × 24 bity × 2 kanały × 60 s = 138 240 000 bitów/s × 60 = 8 294 400 000 bitów. Teraz dzielimy przez 8, żeby uzyskać bajty, czyli mamy 1 036 800 000 bajtów. Dzielimy przez 1 048 576 (czyli liczba bajtów w 1 MB) i wychodzi nam ok. 17 MB. Takie rozmiary plików to codzienność w studiu nagraniowym i wszędzie tam, gdzie mamy do czynienia z profesjonalnym dźwiękiem nieskompresowanym – na przykład przy produkcji muzyki czy postprodukcji filmowej. Moim zdaniem warto pamiętać, że zapisywanie dźwięku w wysokiej jakości wymaga dużo miejsca na dysku – dlatego w branży często inwestuje się w szybkie i pojemne dyski SSD. Często spotyka się praktykę archiwizowania takich plików bez kompresji, właśnie dla zachowania maksymalnej jakości. Również różne DAWy i systemy miksujące domyślnie używają takich parametrów, bo pozwalają na wygodną dalszą edycję bez strat jakości. Dla porównania, plik mp3 o tej samej długości zajmowałby nieporównywalnie mniej, ale wtedy tracimy na jakości, co w zastosowaniach profesjonalnych jest nieakceptowalne.

Pytanie 13

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 192 dB
B. 48 dB
C. 144 dB
D. 96 dB
Dobrze to ująłeś – maksymalna dynamika dźwięku zarejestrowanego w 16-bitowej rozdzielczości rzeczywiście wynosi 96 dB. Wynika to bezpośrednio z konstrukcji sygnału cyfrowego, gdzie każdy dodatkowy bit podwaja liczbę możliwych poziomów, a co za tym idzie – zwiększa zakres dynamiki o ok. 6 dB. Prosta matematyka: 16 bitów × 6 dB = 96 dB. To właśnie dlatego płyty CD, które korzystają z 16-bitowego formatu PCM, zapewniają taką dynamikę. W praktyce daje to bardzo przyzwoity zakres – pozwala oddać zarówno ciche szeptane dźwięki, jak i mocne fortissimo orkiestry symfonicznej, o ile nagranie jest dobrze zrealizowane. Dla porównania, analogowa kaseta magnetofonowa osiąga około 60 dB, więc różnica na korzyść cyfry jest spora. W studiu nagraniowym często używa się wyższych rozdzielczości, 24 bity i więcej (co daje ok. 144 dB), ale do konsumpcji muzyki w domowych warunkach 16 bitów sprawdza się naprawdę dobrze. Niektórzy twierdzą, że taki zakres już przewyższa możliwości naszego słuchu, bo w praktyce rzadko spotyka się tak duże różnice dynamiki w jednym utworze. Warto znać tę zależność, bo łatwo się pogubić w marketingowych hasłach o "hi-res audio" – a liczby są bezlitosne. Właśnie 96 dB to taki złoty standard starego, dobrego formatu CD.

Pytanie 14

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Reverbs
B. Dynamics
C. Distortion
D. Modulation
Ekspander zdecydowanie należy do kategorii procesorów typu „dynamics”. To urządzenie albo wtyczka, która tak naprawdę działa odwrotnie niż kompresor — zamiast zmniejszać zakres dynamiki, rozszerza go, czyli sprawia, że ciche sygnały stają się jeszcze cichsze, a głośne pozostają bez zmian. Standardowo spotyka się ekspandery w pracy realizatorów dźwięku, zwłaszcza tam, gdzie trzeba pozbyć się tzw. szumów tła albo podkreślić kontrast dynamiczny w nagraniach. Przykład z życia: podczas nagrywania perkusji w studiu, ekspander pomoże wyciszyć niepożądane przesłuchy z innych mikrofonów. Branżowo korzysta się z ekspanderów w broadcastingu, produkcji muzycznej i postprodukcji filmowej, bo pozwalają kontrolować przestrzeń dynamiczną materiału, nie niszcząc naturalności dźwięku. Z mojego doświadczenia wynika, że ekspander bywa niedoceniany, a to świetne narzędzie do „oczyszczenia” nagrania, zwłaszcza gdy nie chcemy używać bramki szumów, która działa bardziej agresywnie. W skrócie – jeśli chcesz zarządzać poziomami głośności i dynamiką w nagraniach, ekspander to solidny wybór, zgodny z dobrymi praktykami w branży.

Pytanie 15

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik w formacie MP3 oraz plik odszumiony.
B. plik o parametrach 44.1 kHz/16 bit.
C. plik o parametrach 48 kHz/16 bit.
D. plik w formacie MP3.
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 16

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + V
B. Ctrl + Z
C. Ctrl + C
D. Ctrl + X
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 17

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .riff
B. .aiff
C. .mp3
D. .wav
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 18

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 90 minut.
B. 60 minut.
C. 80 minut.
D. 70 minut.
Poprawnie wybrałeś 80 minut – właśnie tyle maksymalnie można nagrać na standardowej płycie CD-Audio o pojemności 700 MB. Ten format powstał jeszcze w latach 80. XX wieku i od tamtej pory praktycznie się nie zmienił – całość opiera się na zapisie nieskompresowanego dźwięku PCM o częstotliwości próbkowania 44,1 kHz przy 16 bitach i dwóch kanałach (stereo). Przy takich parametrach 1 minuta muzyki zajmuje około 10 MB, dlatego 700 MB wystarcza właśnie na niecałe 80 minut muzyki wysokiej jakości. Standard Red Book (IEC 60908) dokładnie to opisuje, zresztą w branży muzycznej przez lata nikt nie próbował tego modyfikować, bo taka długość płyty idealnie pasowała do większości albumów. W praktyce, jeśli nagrasz płytę o długości 80 minut, nie będzie problemu z jej odtworzeniem w dowolnym klasycznym odtwarzaczu CD. Przekroczenie tej granicy powoduje już spore ryzyko, że płyta nie będzie czytelna wszędzie – producenci sprzętu zawsze trzymają się tych podstawowych parametrów, żeby uniknąć kłopotów z kompatybilnością. Moim zdaniem, właśnie znajomość tych ograniczeń to podstawa dla każdego, kto planuje archiwizować lub publikować dźwięk na CD – nie tylko w teorii, ale i w codziennej praktyce studyjnej. Warto też wiedzieć, że alternatywne formaty, typu CD-MP3, pozwalają zapisać dużo więcej czasu dźwięku, ale tylko na sprzętach, które taką funkcję wspierają. Jednak jeśli chodzi o klasyczny CD-Audio 700 MB – 80 minut to absolutna granica.

Pytanie 19

Notatki dla poszczególnych kanałów w projekcie DAW można wykonać w komórce oznaczonej nazwą

A. Sends.
B. I/O.
C. Inserts.
D. Comments.
Odpowiedź 'Comments' jest właściwa, bo właśnie ta sekcja w większości programów DAW (czyli Digital Audio Workstation) służy do wpisywania indywidualnych notatek dla każdego kanału. Z mojego doświadczenia, to super sprawa, bo kiedy pracujesz nad dużym projektem, łatwo się pogubić, co gdzie miksujesz lub co już zrobiłeś na danej ścieżce. Komórka 'Comments' pozwala zapisać na przykład, że dany kanał to solówka gitary, wymaga jeszcze korekty EQ albo że klient prosił o drobną zmianę efektu. W pracy studyjnej często notuje się tam także rzeczy typu „zrobione na szybko na próbę, do sprawdzenia przy następnym odsłuchu”, co potem serio ułatwia porządkowanie miksu. To nie jest żaden wymysł – takie podejście zalecają nawet doświadczeni realizatorzy i instruktorzy, bo po kilku godzinach albo dniach pracy można zapomnieć o szczegółach. Patrząc szerzej, to w wielu DAW-ach (np. Pro Tools, Cubase, Ableton Live) opcja Comments jest jednym ze standardowych narzędzi workflow, a nawet w dokumentacji producentów sprzętu znajdziesz wzmianki, żeby korzystać z notatek do lepszej organizacji pracy. Szczerze, lepiej wyrobić sobie nawyk używania Comments, bo to potem procentuje, szczególnie w dużych projektach czy pracy zespołowej. Nawet jak pracujesz samemu, chaos w projekcie DAW potrafi wykończyć – a przejrzyste notatki to połowa sukcesu.

Pytanie 20

Uzyskanie dynamiki dźwięku o wartości 192 dB możliwe jest przy rozdzielczości przetwarzania wynoszącej

A. 32 bity.
B. 24 bity.
C. 8 bitów.
D. 16 bitów.
Dobrze wybrana odpowiedź – 32 bity to realnie konieczna rozdzielczość, by osiągnąć zakres dynamiki aż 192 dB. Wynika to z podstawowych wzorów dotyczących przetwarzania sygnałów analogowo-cyfrowych. Teoretycznie, jedna liczba bitowa daje nam około 6,02 dB dynamiki, więc przy 32 bitach mamy ponad 192 dB (dokładniej: 32 × 6,02 ≈ 192,64 dB). W praktyce taki zakres dynamiki znacznie przekracza potrzeby i możliwości percepcyjne człowieka, bo nawet najcichsze i najgłośniejsze dźwięki, które słyszymy, mieszczą się w dużo węższym przedziale – około 120 dB. Jednak sprzęt studyjny klasy high-end, rozwiązania DAW czy formaty typu floating point 32-bit stosuje się tam, gdzie istotna jest pełna swoboda obróbki sygnału, np. w profesjonalnej produkcji muzycznej, masteringu czy archiwizacji dźwięku bez strat jakości. Takie podejście pozwala na zaawansowaną edycję bez ryzyka powstawania zniekształceń czy utraty subtelnych niuansów. Z mojego doświadczenia, nawet jeśli nie zawsze wykorzystamy całe 32 bity w końcowym pliku, to podczas pracy nad nagraniem lepiej mieć ten zapas, bo zabezpiecza to przed tzw. clippingiem oraz utratą informacji. W sumie, 32 bity to już takie „all inclusive” dla zawodowców, a te 192 dB to wartość czysto teoretyczna, ale ważna w kontekście norm ISO i AES, które opisują wymagania dla konwersji sygnałów audio na najwyższym poziomie.

Pytanie 21

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 4|2|400
B. 2|3|240
C. 1|2|000
D. 3|4|350
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 22

Jeśli nagranie ma zostać poddane obróbce dynamiki oddzielnie w różnych pasmach częstotliwości, wówczas należy zastosować

A. adaptive limiter.
B. compander.
C. multiband compressor.
D. expander.
Multiband compressor to taki procesor, który pozwala na niezależną obróbkę dynamiki w kilku różnych pasmach częstotliwości. Czyli, zamiast stosować kompresję globalnie na całym sygnale, dzielisz go na konkretne zakresy – na przykład bas, środek i górę – i każdy z tych fragmentów może mieć inne ustawienia kompresji. To daje bardzo dużą kontrolę nad brzmieniem i pozwala lepiej panować nad problematycznymi elementami miksu, np. podkreślić stopę bez nadmiernego tłumienia wokalu czy wysokich częstotliwości. W profesjonalnych studiach korzysta się z multiband compressorów podczas masteringu, bo pozwalają „poukładać” dynamikę nagrania, nie psując jego barwy i nie wprowadzając artefaktów. Zresztą, moim zdaniem, to jeden z najważniejszych narzędzi, jeśli chodzi o nowoczesną produkcję muzyczną czy miksowanie podcastów, gdzie musisz dopasować dynamikę do różnych platform i standardów emisji. Warto też wiedzieć, że multiband compressor może uratować miks, w którym np. tylko dół jest zbyt dynamiczny – wtedy nie trzeba dokręcać kompresji całościowo, tylko delikatnie ustawić kompresor na dole. Takie podejście jest absolutnie zgodne z dobrymi praktykami branżowymi i daje najbardziej profesjonalne rezultaty.

Pytanie 23

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. WAV
B. ALAC
C. AAC
D. AIFF
Format AAC to przykład kodowania stratnego, które jest na co dzień wykorzystywane w usługach streamingowych, takich jak Spotify, YouTube czy Apple Music. W przeciwieństwie do formatów bezstratnych, takich jak ALAC czy WAV, AAC kompresuje dźwięk, usuwając część informacji uznanych za mniej istotne dla ludzkiego ucha. Najważniejsze jest to, że całość procesu opiera się na psychoakustycznych modelach percepcji dźwięku – algorytm stara się zredukować dane, których i tak nie usłyszymy. Moim zdaniem, w praktyce bardzo często nie odróżniamy dobrej jakości plików AAC od oryginału, szczególnie gdy słuchamy w słuchawkach bluetooth albo w aucie. Technologia AAC jest następcą MP3, oferując lepszą jakość przy mniejszym rozmiarze pliku, co jest ogromną zaletą np. przy przesyłaniu muzyki przez sieć lub przechowywaniu dużych bibliotek na telefonie. Standard ten jest szeroko wspierany przez urządzenia mobilne, konsole do gier i smart TV. Warto wiedzieć, że format AAC został zaimplementowany jako domyślny kodek audio w standardzie MPEG-4. To rozwiązanie jest rekomendowane w branży, kiedy zależy nam na kompromisie między jakością a objętością danych – do podcastów, audiobooków czy transmisji na żywo. Nie bez powodu Apple używa AAC w swoim całym ekosystemie. I szczerze, jeśli ktoś korzysta z internetu mobilnego, to kompresja stratna jest po prostu praktyczniejsza.

Pytanie 24

Do płyty CD-Audio możemy dołączyć dodatkowe dane o wykonawcy, tytule płyty oraz poszczególnych utworach, a także graficzne logo, przy zastosowaniu rozszerzenia

A. CD Text.
B. mp3 CD.
C. CD Burn.
D. ISRC CD Code.
W tym pytaniu łatwo się pomylić, bo różne formaty płyt i standardy bywają mylone, zwłaszcza gdy chodzi o cyfrowe dane i audio. Często spotykam się z przekonaniem, że mp3 CD to to samo co CD-Audio – a to jednak dwa całkiem różne światy. Płyta mp3 CD to po prostu nośnik, na którym zapisujemy pliki mp3, więc ani nie jest to standard audio, ani nie daje możliwości dołączania informacji tekstowych w sposób zgodny z odtwarzaczami CD-Audio. Jasne, pliki mp3 mają swoje tagi ID3, gdzie zapiszemy tytuł, wykonawcę czy okładkę, ale typowy odtwarzacz CD-Audio nie odczyta tych danych, bo nie rozumie struktury mp3. Opcja CD Burn to po prostu nazwa kojarzona z procesem wypalania płyty („burn” znaczy wypalać), a nie żaden format czy rozszerzenie. Możliwe, że ktoś się nabrał na brzmienie tej nazwy, bo wydaje się techniczna, ale nie ma żadnego związku z dodatkowymi danymi na płycie. Z kolei ISRC CD Code to osobny standard – chodzi o unikalny kod identyfikacyjny utworu lub nagrania (International Standard Recording Code). Ten kod jest ważny dla rozliczeń prawnych, licencyjnych i śledzenia emisji muzyki, ale on nie jest przechowywany jako ogólnodostępny tekst widoczny dla użytkownika na odtwarzaczu, tylko raczej do celów organizacyjnych w przemyśle muzycznym. Moim zdaniem, najczęstszy błąd polega na myleniu możliwości różnych formatów cyfrowych z tym, co faktycznie jest obsługiwane przez sprzęt audio zgodny z CD-Audio. Standard CD Text to jedyna z wymienionych opcji, która umożliwia dołączenie opisowych danych zgodnie z oryginalną specyfikacją płyt kompaktowych audio. Warto rozróżniać formaty plików od rozszerzeń funkcjonalnych standardowych nośników – to pomaga uniknąć nieporozumień, zwłaszcza w pracy z archiwizacją muzyki czy przygotowaniem profesjonalnych płyt.

Pytanie 25

Korektor dziesięciopunktowy dzieli zakres częstotliwości słyszalnych na pasma

A. dwuoktawowe.
B. tercjowe.
C. sekstowe.
D. oktawowe.
Korektor dziesięciopunktowy rzeczywiście dzieli zakres słyszalnych częstotliwości na pasma oktawowe – i to jest bardzo praktyczne podejście, które chyba najczęściej spotyka się w sprzęcie audio przeznaczonym do profesjonalnego i domowego użytku. W skrócie: każda gałka (czy suwak) odpowiada za wzmocnienie albo tłumienie określonego przedziału częstotliwości, przy czym te pasma mają szerokość jednej oktawy. To znaczy, że np. jeśli jedno pasmo obejmuje 100–200 Hz, to następne już 200–400 Hz i tak dalej, każde kolejne dwa razy szersze w sensie wartości liczbowych, ale dla ludzkiego ucha to brzmi naturalnie, bo słyszymy skale logarytmiczne. W branży nagłośnieniowej, studyjnej czy nawet w zaawansowanym sprzęcie car audio taki podział jest bardzo wygodny – pozwala szybko korygować balans dźwięku bez ryzyka, że zmiany będą nienaturalne. Moim zdaniem to też dobre rozwiązanie, bo większość muzyki i dźwięków w praktyce da się sensownie korygować w takich szerokich pasmach. Oczywiście, jeśli ktoś potrzebuje bardziej szczegółowej korekcji, są jeszcze korektory tercjowe czy parametryczne, ale w większości standardowych aplikacji dziesięciopunktowy korektor oktawowy po prostu się sprawdza. To w sumie taki złoty środek między prostotą a skutecznością.

Pytanie 26

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 10 MB?

A. 120 s
B. 10 s
C. 60 s
D. 1 s
Dokładnie tak, plik dźwiękowy w formacie CD-Audio o wielkości 10 MB będzie zawierał około 60 sekund nagrania. Wynika to bezpośrednio ze specyfikacji standardu CD-Audio (Red Book), gdzie dane zapisywane są z próbkowaniem 44,1 kHz, 16-bitową rozdzielczością i w trybie stereo (czyli 2 kanały). Oznacza to, że na każdą sekundę przypada około 176 400 bajtów (44 100 próbek/s * 2 bajty * 2 kanały). Prosty rachunek: 10 MB to 10 485 760 bajtów (w zapisie binarnym, bo 1 MB = 1024 * 1024 B). Dzieląc to przez 176 400 bajtów na sekundę, otrzymujemy właśnie około 59,5 sekundy. Takie podstawowe obliczenia mogą się bardzo przydać np. przy planowaniu pojemności płyt CD czy przy archiwizacji nagrań, żeby uniknąć przykrych niespodzianek typu „nagranie się nie zmieściło”. Moim zdaniem, warto znać te liczby na pamięć, bo praktycznie w każdej pracy z dźwiękiem spotkamy się z ograniczeniami przestrzeni dyskowej. Branża od lat opiera się na tym schemacie, a wielu profesjonalistów korzysta z tych przeliczników, gdy szybko muszą określić, ile materiału zmieści się na określonej powierzchni nośnika. Często na zajęciach spotykam się też z pytaniami, czy można jakoś „oszukać” ten limit na CD-Audio, ale w praktyce – bez kompresji stratnej lub zmiany standardu – więcej się po prostu nie da upchnąć. Właśnie takie praktyczne podejście do zrozumienia, ile miejsca zajmuje dźwięk o określonej długości, jest moim zdaniem kluczowe w pracy technika dźwięku czy informatyka zajmującego się multimediami.

Pytanie 27

Która z wymienionych ścieżek sesji oprogramowania DAW skonfigurowana jest domyślnie jako główna szyna stereo?

A. AUDIO
B. INSTRUMENT
C. MASTER
D. AUX
MASTER jako główna szyna stereo to absolutna podstawa w każdym projekcie DAW – i nie ma tu raczej wyjątków. W profesjonalnych środowiskach pracy, niezależnie od tego, czy korzystamy z Cubase’a, Pro Toolsów czy Abletona, wyjście MASTER jest centralnym punktem miksu. To na nie trafiają wszystkie pozostałe ślady i grupy – po prostu całość dźwięku musi się „zebrać” w jednym miejscu, zanim pójdzie dalej, np. do eksportu czy na odsłuchy. Z mojego doświadczenia, każda modyfikacja na MASTERZE, jak kompresja, limiter czy korekcja, ma wpływ na cały miks – dlatego to właśnie ta ścieżka jest tak strategiczna. Osobiście, zawsze staram się mieć na MASTERZE podstawowe narzędzia kontrolujące poziom wyjściowy i ewentualne zabezpieczenie przed przesterowaniem. Taką organizację projektu DAW wymuszają też standardy branżowe, np. w studiach emisyjnych czy podczas produkcji płyt – łatwo wtedy kontrolować końcową dynamikę i zachować porządek w projekcie. Moim zdaniem, rozumienie roli MASTERa jest kluczowe dla każdego, kto poważnie myśli o miksie i masteringu – bez tego łatwo coś przeoczyć i zgubić się w całej tej cyfrowej dżungli efektów, routingu i poziomów.

Pytanie 28

Ile przestrzeni dyskowej zajmuje w przybliżeniu stereofoniczny plik .wav o częstotliwości próbkowania 96 kHz, rozdzielczości bitowej 24 bity i czasie trwania 1 minuty?

A. 35 MB
B. 45 MB
C. 25 MB
D. 15 MB
To właśnie 35 MB jest najbardziej zbliżone do rzeczywistej wielkości takiego pliku WAV. Najlepiej to zrozumieć rozbijając wszystko na czynniki pierwsze – plik stereo (czyli dwa kanały), próbkowanie 96 kHz i rozdzielczość 24 bity. W praktyce to oznacza: 96 000 próbek na sekundę na każdy kanał, każda próbka to 24 bity (czyli 3 bajty), dwa kanały, czas trwania 60 sekund. Jak policzysz: 96 000 × 3 × 2 × 60 = 34 560 000 bajtów. To daje około 34,56 MB, a więc 35 MB to dobry przybliżony wynik – i właśnie tak w branży szacuje się miejsce na dysku pod profesjonalne audio. Takie parametry są spotykane na przykład przy pracy z wysokiej klasy rejestratorami w studiach nagraniowych, gdzie zależy nam na jakości i pełnej zgodności z wymogami masteringowymi. Moim zdaniem warto zapamiętać ten sposób liczenia, bo często w praktyce trzeba szybko przewidzieć, ile miejsca potrzeba na sesję nagraniową czy archiwizację materiału. Standardy branżowe, jak chociażby AES czy EBU, zakładają podobne metody kalkulacji i nie stosują kompresji dla plików WAV. Co ciekawe, w środowisku zawodowym uznaje się, że dla każdej minuty takiego pliku trzeba rezerwować właśnie ok. 35 MB. Czasem nawet lepiej przyjąć zapas 36–38 MB na minutę, żeby uniknąć przykrych niespodzianek. Warto stosować taki sposób myślenia przy planowaniu pracy z dźwiękiem w formacie nieskompresowanym.

Pytanie 29

Który z wymienionych nośników jest nośnikiem analogowym?

A. Płyta CD
B. Płyta DVD
C. Kaseta CC
D. Kaseta DAT
Kaseta CC, czyli popularna „kaseta magnetofonowa”, to klasyczny przykład nośnika analogowego. Jej działanie opiera się na magnetycznym zapisie sygnału analogowego, czyli płynnie zmieniającego się w czasie sygnału dźwiękowego. Moim zdaniem, właśnie ta płynność odróżnia nośniki analogowe od cyfrowych – na kasecie nie znajdziesz zer i jedynek, a raczej ciągłą ścieżkę namagnesowania, odpowiadającą oryginalnemu przebiegowi dźwięku. W praktyce znaczy to, że odtwarzanie muzyki z kasety CC może dawać charakterystyczne szumy i zniekształcenia, ale też taki „ciepły” dźwięk, na który niektórzy audiofile narzekają, a inni go uwielbiają. W branży technicznej kasety były standardem archiwizacji i przenoszenia dźwięku przez wiele lat – szczególnie w latach 80. i 90. Nadal można spotkać je w archiwach radiowych czy prywatnych kolekcjach. Co ciekawe, standard kasety CC został opracowany już w 1963 roku przez firmę Philips i przez dekady doczekał się wielu ciekawych rozwiązań, jak np. system Dolby do redukcji szumów. Dziś kasety są trochę zapomniane, ale ich analogowy charakter świetnie obrazuje, czym różnią się media analogowe od cyfrowych – właśnie w sposobie zapisu i odtwarzania informacji. Takie nośniki wymagają mechanicznej głowicy, która „czyta” zmiany pola magnetycznego na taśmie, co jest zupełnie innym podejściem niż w przypadku płyt CD czy DVD. Używanie kaset uczy szacunku do fizycznych ograniczeń mediów i pokazuje, jak wyglądała praca z dźwiękiem zanim weszliśmy w cyfrową erę. Z mojego doświadczenia wynika, że nawet dzisiaj warto znać zasady działania takich nośników, bo daje to dobre podstawy do zrozumienia rozwoju techniki zapisu danych.

Pytanie 30

Największą zgodność ze standardem CD-Audio zapewni archiwizacja nagrań dźwiękowych w formie

A. pliku o parametrach 48 kHz/16 bit stereo.
B. pliku o parametrach 44.1 kHz/16 bit stereo.
C. pliku w formacie MP3 oraz pliku odszumionego.
D. pliku w formacie MP3.
Standard CD-Audio, czyli Compact Disc Digital Audio, od początku został zaprojektowany z bardzo precyzyjnymi parametrami: 44,1 kHz próbkowania i 16 bitów rozdzielczości na kanał, stereo. Te wartości nie są przypadkowe – zostały wybrane tak, aby umożliwić wierne odwzorowanie zakresu słyszalnego dla człowieka z minimalnymi zakłóceniami jakości. W praktyce każda próba archiwizacji nagrań przeznaczonych do zgodności z nośnikami CD powinna dokładnie trzymać się tego ustawienia. Nawet jeśli masz do dyspozycji sprzęt nagrywający dźwięk w wyższej rozdzielczości (np. 48 kHz, 24 bity), to i tak końcowy materiał na potrzeby audio CD musi przejść konwersję do 44,1 kHz/16 bitów. Moim zdaniem, jeśli zależy komuś na pełnej kompatybilności z odtwarzaczami i dobrych praktykach archiwizacyjnych, nie ma sensu trzymać plików w innym formacie niż dokładnie taki – żadnych MP3, żadnych innych częstotliwości czy głębokości bitowych. Warto pamiętać, że wiele archiwów cyfrowych i profesjonalnych studiów nagraniowych stosuje te parametry jako domyślny punkt odniesienia dla materiałów, które mają być dostępne szerokiej publiczności lub wydane na CD. Osobiście często spotykałem się z sytuacją, gdzie konwersja z innych formatów powodowała nieprzewidziane problemy z kompatybilnością. To taka trochę „złota zasada” w branży muzycznej.

Pytanie 31

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. szybszych i o lepszej jakości.
B. wolniejszych i o lepszej jakości.
C. wolniejszych i o słabszej jakości.
D. szybszych i o słabszej jakości.
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 32

Której z komend należy użyć w przypadku konieczności cofnięcia operacji w programie edycyjnym?

A. Back
B. Undo
C. Rew
D. Redo
Undo to jedna z tych komend, które praktycznie pojawiają się w każdym programie edycyjnym – od prostego edytora tekstu po zaawansowane narzędzia graficzne czy środowiska programistyczne. Jej podstawowe zadanie to cofnięcie ostatniej operacji, czyli przywrócenie poprzedniego stanu pliku lub projektu. Dzięki temu użytkownik może bezpiecznie eksperymentować, bo wie, że w razie czego zawsze da się wrócić o krok (albo kilka) do tyłu. Moim zdaniem to jeden z fundamentów ergonomii pracy z oprogramowaniem – trudno sobie dziś wyobrazić efektywną edycję czegokolwiek bez tej funkcjonalności. W standardach branżowych, takich jak HIG (Human Interface Guidelines), Undo jest obowiązkową funkcją, a jej skrót klawiszowy (najczęściej Ctrl+Z albo Cmd+Z na Macu) jest już chyba totalnym klasykiem. Często Undo działa w połączeniu z Redo (do ponownego wykonania cofniętej akcji), co daje pełną kontrolę nad historią zmian. Praktyczny przykład? Kiedy przypadkowo usuniesz ważny fragment tekstu w Wordzie czy Photoshopie, po prostu wciskasz Undo i gotowe – wszystko wraca na swoje miejsce. To naprawdę ogromna oszczędność czasu i gwarancja bezpieczeństwa pracy.

Pytanie 33

Który format plików audio należy wybrać, aby po przekonwertowaniu zajmował najmniej miejsca na dysku komputera?

A. .flac
B. .aiff
C. .mp3
D. .wave
Format MP3 to zdecydowanie najlepszy wybór, gdy zależy Ci na minimalnym rozmiarze pliku audio po konwersji. To format stratny (lossy), co oznacza, że podczas kompresji traci się część informacji dźwiękowych, ale zyskuje się na tym drastyczne zmniejszenie wielkości pliku. Standard MP3 powstał właśnie po to, by móc przechowywać lub przesyłać muzykę przez internet, kiedy miejsce na dysku czy przepustowość łącza były na wagę złota. Moim zdaniem, nawet dziś, gdy dyski są większe, to w zastosowaniach masowych (np. serwisy streamingowe, podcasty, audiobooki) MP3 jest niezastąpiony ze względu na balans jakości do wielkości pliku. Jeśli chodzi o bitrate, to np. plik MP3 o jakości 128 kbps waży często kilkukrotnie mniej niż ten sam utwór w formacie WAV czy AIFF. Oczywiście, tracimy trochę na jakości dźwięku, ale dla większości codziennych zastosowań to praktycznie niezauważalne. To też jest powód, dla którego większość osób wrzucając muzykę na telefon czy odtwarzacz mp3 wybiera właśnie ten format. Z mojego doświadczenia, jeśli zależy Ci na szybkim udostępnianiu czy wysyłce plików audio, MP3 to po prostu standard branżowy i nie ma co kombinować. Warto pamiętać, że MP3 jest obsługiwany praktycznie przez każde urządzenie, od komputerów, przez samochody, aż po stare odtwarzacze. Przy konwersji audio zawsze trzeba jednak pamiętać o kompromisie między rozmiarem a jakością – im niższy bitrate, tym mniejszy plik, ale i gorszy dźwięk.

Pytanie 34

Podczas tworzenia nowej sesji w programie DAW, można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. typu znaczników używanych w sesji.
C. częstotliwości próbkowania dźwięku w sesji.
D. kształtu fade in i fade out w regionach w sesji.
Wybór częstotliwości próbkowania dźwięku podczas tworzenia nowej sesji w programie DAW to jedna z kluczowych decyzji technicznych, które wpływają na jakość całego projektu audio. Tak naprawdę, to właśnie od tego parametru zależy, jak szczegółowo zostanie zapisana informacja dźwiękowa – im wyższa częstotliwość, tym więcej szczegółów w nagraniu, ale też większe zapotrzebowanie na miejsce na dysku i moc obliczeniową komputera. W profesjonalnych produkcjach muzycznych najczęściej ustawia się 44,1 kHz (standard płyt CD) albo 48 kHz (standard w wideo), ale często stosuje się nawet 88,2 lub 96 kHz, zwłaszcza tam, gdzie priorytetem jest jakość, a nie optymalizacja rozmiaru plików. Moim zdaniem, warto znać różnice i świadomie dobierać próbkowanie do konkretnego zastosowania – na przykład przy podkładach lektorskich do YouTube raczej nie ma sensu iść w kosmiczne wartości, ale już przy masteringu albumu dla dużego wydawcy wybór wyższej częstotliwości daje wymierne korzyści. Dobre praktyki branżowe zalecają ustawić częstotliwość próbkowania na samym początku, bo późniejsza zmiana potrafi być kłopotliwa i powodować konwersje, które mogą obniżyć jakość dźwięku. W wielu DAW-ach nie da się nawet zmienić tego parametru w istniejącej sesji bez utraty pewnych niuansów brzmieniowych. W skrócie, to podstawa w każdym projekcie audio – trochę jak wybór rozdzielczości przed nagraniem filmu.

Pytanie 35

Ile ścieżek należy przygotować do montażu nagrania wykonanego techniką binauralną?

A. 4 ścieżki.
B. 6 ścieżek.
C. 8 ścieżek.
D. 2 ścieżki.
Binauralne nagrania opierają się na odwzorowaniu tego, jak ludzkie uszy odbierają dźwięki w rzeczywistości, dlatego do ich prawidłowego montażu wystarczają dokładnie dwie ścieżki audio – lewa i prawa. Jest to w zasadzie odwzorowanie naturalnego słyszenia, gdzie każde ucho odbiera sygnał osobno. Najpopularniejsze mikrofony binauralne mają dwie kapsuły, rozmieszczone na kształt ludzkiej głowy, co pozwala na uchwycenie wszelkich niuansów przestrzennych, takich jak przesunięcia fazowe, mikroróżnice w natężeniu i czasie dotarcia fali akustycznej. Właśnie te szczegóły decydują o efekcie „immersji”, czyli poczuciu zanurzenia w dźwięku – słuchacz zyskuje iluzję, że dźwięki go otaczają, gdy odtwarza nagranie przez słuchawki stereo. Praktyka branżowa wskazuje, że rozdzielczość na więcej niż dwie ścieżki nie tylko nie jest potrzebna przy binaurali, ale wręcz może zaburzyć efekt. Z mojego doświadczenia, montując nagrania binauralne, nie spotkałem sytuacji, w której sensowne byłoby korzystanie z większej liczby ścieżek – cały efekt polega właśnie na zachowaniu naturalnej pary lewa-prawa. Warto też dodać, że standardowe formaty dystrybucji nagrań binauralnych – np. pliki WAV czy FLAC – obsługują dwukanałowe audio. To bardzo wygodne i uniwersalne rozwiązanie, bo nie wymaga specjalistycznego sprzętu odsłuchowego, a jedynie dobre słuchawki. Zresztą, nawet w profesjonalnych studiach nagraniowych, przy miksie binauralnym nie stosuje się więcej ścieżek, bo cały trick polega na prostocie i precyzji właśnie tych dwóch kanałów.

Pytanie 36

Która z wymienionych funkcji w wielościeżkowej sesji programu DAW umożliwia ukrycie wybranych ścieżek dźwiękowych?

A. Close
B. Resize
C. Hide
D. Minimize
Opcja 'Hide' w środowisku DAW (Digital Audio Workstation) to bardzo przydatne narzędzie, zwłaszcza kiedy masz do czynienia z dużą liczbą ścieżek w sesji. Ukrywanie ścieżek pomaga utrzymać porządek i przejrzystość podczas miksowania lub edycji, bo można skupić się tylko na tych elementach, które są akurat potrzebne. Wielu producentów korzysta z tej funkcji, kiedy pracuje nad złożonym projektem – na przykład ukrywają ślady perkusji, gdy dopracowują wokale, albo chowają nieużywane wersje partii instrumentalnych, żeby nie rozpraszały uwagi. Moim zdaniem, korzystanie z opcji 'Hide' to już taki standard pracy w profesjonalnych studiach – pozwala zachować czytelność interfejsu i lepiej zarządzać dużymi projektami. Co ciekawe, w większości DAW-ów ukrycie ścieżki nie powoduje jej wyciszenia ani usunięcia – to po prostu organizacyjne rozwiązanie. Przy dłuższych sesjach można sobie oszczędzić mnóstwo frustracji. Z doświadczenia wiem, że osoby, które nie korzystają z tej funkcji, często mają chaos na ekranie i dużo trudniej im znaleźć potrzebne elementy. Warto też pamiętać, że ukrywanie ścieżek to nie tylko kwestia wygody, ale też wydajności – mniej widocznych elementów to szybsza orientacja w sesji, mniej pomyłek i sprawniejsza praca. Można to porównać trochę do porządkowania dokumentów w segregatorach – wszystko jest na swoim miejscu, ale nie zawsze musi być na wierzchu. W sumie – jeśli zależy ci na profesjonalnym workflow, to naprawdę warto korzystać z 'Hide'.

Pytanie 37

Która z wymienionych funkcji dostępnych w sesji montażowej programu DAW umożliwia przyciąganie przesuwanych ręcznie regionów dźwiękowych np. do siatki czasu?

A. Shuffle.
B. Split.
C. Quantize.
D. Snap.
Funkcja „Snap” w programach DAW to taki trochę niepozorny, ale bardzo przydatny bajer, bez którego ciężko wyobrazić sobie sprawną pracę z aranżacją audio czy MIDI. Snap, czyli po polsku najczęściej „przyciąganie”, powoduje, że wszelkie regiony dźwiękowe, klipy czy nutki (w pianorollu) przesuwają się i ustawiają równo według określonej siatki czasu – na przykład taktów, ćwierćnut albo nawet jeszcze drobniejszej podziałki. To ogromne ułatwienie, bo bez Snap łatwo przez przypadek rozjechać się z tempem czy przesunąć coś o niezamierzony fragment, co potem daje niechciane efekty brzmieniowe. W praktyce, jeśli chcesz np. szybko zmontować różne ścieżki w piosence do równego tempa lub przygotować aranżację pod dalszy miks, korzystanie ze Snap to podstawa – praktycznie każdy zawodowy producent i realizator dźwięku pracuje z tą funkcją domyślnie włączoną. Z mojego doświadczenia wynika, że Snap nie tylko oszczędza masę czasu, ale też pozwala utrzymać porządek w projekcie i uniknąć pomyłek, które na etapie końcowym potrafią zaboleć. Dla początkujących – polecam eksperymentować i sprawdzać różne ustawienia „gęstości” siatki w Snap, bo w różnych stylach muzycznych przydaje się inna precyzja. Generalnie: Snap to taki cichy bohater sesji montażowych, który robi robotę za kulisami.

Pytanie 38

Która z wymienionych funkcji w sesji programu DAW standardowo umożliwia wielokrotne powtórzenie zaznaczonego fragmentu materiału dźwiękowego na ścieżce?

A. RECALL
B. TRIM
C. DUPLICATE
D. MOVE
Funkcja DUPLICATE w programach typu DAW (Digital Audio Workstation) to naprawdę jeden z podstawowych i zarazem najpraktyczniejszych narzędzi, jakie można sobie wyobrazić podczas pracy z dźwiękiem. Jej główne zadanie polega na natychmiastowym powieleniu zaznaczonego fragmentu materiału na ścieżce – wystarczy jedno kliknięcie lub skrót klawiszowy i mamy kilka kolejnych kopii tego samego fragmentu, ustawionych zaraz obok siebie. Z mojego doświadczenia korzystanie z DUPLICATE znacznie przyspiesza pracę, zwłaszcza jeśli chcemy zbudować np. stały rytm perkusyjny, powtórzyć frazę wokalną czy zrealizować loop oparty na fragmencie MIDI lub audio. To narzędzie jest niemal wszędzie – w Abletonie, Cubase, Logic Pro czy Pro Tools – zawsze działa podobnie, choć czasem pod różnymi skrótami klawiszowymi. Według dobrych praktyk branżowych, korzystanie z funkcji DUPLICATE nie tylko pozwala zachować precyzję czasową (bo kopie są dokładnie wyrównane do siatki), ale też pozwala na szybkie eksperymentowanie z aranżacją utworu bez mozolnego kopiowania i wklejania. Moim zdaniem, kiedyś nie doceniałem tej funkcji, a teraz nie wyobrażam sobie bez niej pracy – szczególnie przy dłuższych sesjach, gdzie każda sekunda się liczy. Warto pamiętać, że powielony fragment można potem niezależnie edytować, co daje ogromną elastyczność przy tworzeniu nowych wariacji czy efektów. Krótko mówiąc, DUPLICATE to must-have każdego, kto chce sprawnie pracować w DAW i poruszać się zgodnie ze standardami profesjonalnych realizatorów dźwięku.

Pytanie 39

Pierwsza para cyfr w zapisie kodu czasowego SMPTE oznacza

A. godzinę.
B. ramkę.
C. sekundę.
D. minutę.
Kod czasowy SMPTE jest powszechnie stosowany w przemyśle filmowym i telewizyjnym, a jego poprawna interpretacja to podstawa sprawnej pracy z materiałami audiowizualnymi. Wiele osób, które dopiero zaczynają przygodę z tym standardem, myli znaczenie poszczególnych segmentów zapisu, myśląc na przykład, że pierwsza para cyfr to minuta albo nawet ramka. To się niestety zdarza – może wynikać z przyzwyczajeń do innych formatów czasowych, gdzie czasem od razu patrzymy na minuty i sekundy, pomijając godziny, bo rzadko się z nich korzysta na co dzień. Równie częsty błąd to przekonanie, że najważniejsze w montażu są właśnie ramki, bo mają bezpośredni wpływ na synchronizację. Owszem, precyzyjne określenie ramki jest kluczowe przy pracy na poziomie klatki, ale w zapisie SMPTE ich miejsce jest zawsze na końcu, nie na początku. Zapis wygląda zawsze tak: godzina:minuta:sekunda:ramka, więc każda para cyfr ma swoje konkretne miejsce i znaczenie. Gdybyśmy przyjęli, że pierwsza para to minuta lub sekunda, całkowicie rozjechałaby się logika obsługi długich nagrań, bo nagle nie moglibyśmy bezproblemowo odczytać, na którym etapie dużego materiału jesteśmy. Z mojego doświadczenia wynika, że dobra praktyka przy pracy ze standardem SMPTE to regularne sprawdzanie, czy odczytujemy kod prawidłowo i nie sugerujemy się intuicją znaną z codziennych zegarów cyfrowych. W profesjonalnych środowiskach nawet drobna pomyłka w interpretacji kodu czasowego może skutkować poważnymi problemami z synchronizacją dźwięku i obrazu, a czasem nawet utratą cennych fragmentów materiału. Warto więc zapamiętać układ SMPTE i zawsze zaczynać analizę kodu od lewej, gdzie znajdują się godziny – to po prostu branżowy standard, który ułatwia życie wszystkim technikom i realizatorom.

Pytanie 40

Który z wymienionych skrótów nazw instrumentów zestawu perkusyjnego oznacza werbel?

A. FT
B. BD
C. SN
D. HH
Skrót SN pochodzi od angielskiego „snare drum”, czyli właśnie werbel. To absolutnie podstawowy element zestawu perkusyjnego – praktycznie każda partytura perkusyjna, nawet najprostsza, zawiera zapis dla snare drum oznaczony jako SN. W notacji perkusyjnej jest to taki punkt odniesienia, najczęściej stawiany na środku pięciolinii lub trochę powyżej, zależnie od używanego zapisu. Werbel, przez swój ostry i charakterystyczny dźwięk, jest odpowiedzialny za budowanie rytmu i akcentowanie fraz muzycznych. W bandach, orkiestrach i zespołach rockowych to właśnie SN daje te mocne „uderzenia” na 2 i 4. Z doświadczenia wiem, że w praktyce studyjnej, jak i na scenie, technicy, realizatorzy oraz muzycy prawie zawsze posługują się skrótami – „podnieś mi SN”, „wytnij trochę 200 Hz na SN” – to standardowe komunikaty. Skrót SN jest stosowany w oprogramowaniu DAW (np. Cubase, Logic, Ableton), w zapisie nutowym, na schematach miksera i przy opisywaniu kanałów na konsoletach dźwiękowych. Warto sobie to zakodować, bo nie znajomość tej nomenklatury często prowadzi do nieporozumień. Moim zdaniem, zrozumienie tej symboliki to absolutna podstawa, jeśli ktoś chce wejść w świat profesjonalnego nagrywania lub miksu perkusji albo nawet grać ze słuchu z nut.