Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 23 kwietnia 2026 10:54
  • Data zakończenia: 23 kwietnia 2026 10:54

Egzamin niezdany

Wynik: 0/40 punktów (0,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Eksport pliku muzycznego wykonuje się głównie w celu zmiany

A. liczby kanałów audio w pliku.
B. lokalizacji pliku.
C. formatu pliku.
D. nazwy pliku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Eksport pliku muzycznego to jedno z podstawowych narzędzi pracy w środowiskach typu DAW (Digital Audio Workstation) czy programach do obróbki dźwięku. Głównym powodem, dla którego korzysta się z funkcji eksportu, jest właśnie zmiana formatu pliku – na przykład z projektu DAW na uniwersalny plik WAV, MP3, FLAC albo inny, który można odtworzyć na różnych urządzeniach czy przesłać dalej. Taki eksport oznacza przełożenie dźwięku do innej struktury pliku, zachowując przy tym określone parametry jak rozdzielczość bitowa, częstotliwość próbkowania czy kompresja. To bardzo praktyczne, bo nie każdy program czy sprzęt czyta natywne formaty projektowe. Często spotykam się z sytuacją, gdzie ktoś kończy miks utworu i musi go wysłać do tłoczni, radia albo streamingów – wszędzie tam wymagany jest inny format pliku. Zresztą, w branży muzycznej istnieje taka niepisana zasada: zawsze trzymaj wersję projektu i eksportuj pliki w formacie, który odpowiada końcowemu zastosowaniu. Dobrze też pamiętać o właściwych ustawieniach eksportu, bo np. serwisy streamingowe mają konkretne wymagania co do formatu rzeczy przesyłanych przez użytkowników. W sumie, bez eksportu do różnych formatów praca z dźwiękiem byłaby bardzo utrudniona, jeśli nie wręcz niemożliwa na większą skalę.

Pytanie 2

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. AUX
B. MASTER
C. VCA
D. BUS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 3

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 1 MB
B. Około 10 MB
C. Około 5 MB
D. Około 20 MB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 4

Który z wymienionych poziomów szczytowych jest najwyższym możliwym poziomem sygnału cyfrowego?

A. -18,0 dBFS
B. -0,3 dBFS
C. -6,0 dBFS
D. 0,0 dBFS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W sygnale cyfrowym poziom 0,0 dBFS (decibels relative to full scale) oznacza absolutne maksimum — to jest ten „sufit”, do którego możemy się zbliżyć, ale nie możemy go przekroczyć, bo nie ma już wyższych wartości. Wyobraź sobie, że pracujesz w DAW-ie albo mikserze cyfrowym: jeżeli wskaźnik pokazuje 0,0 dBFS, to znaczy, że twój sygnał dotarł do granicy możliwości przetwarzania przez system cyfrowy. Przekroczenie tej wartości prowadzi od razu do cyfrowych przesterowań (clippingu), co w praktyce brzmi bardzo nieprzyjemnie – sygnał zostaje ucięty, traci dynamikę i pojawiają się zniekształcenia. Właśnie dlatego w profesjonalnych studiach, podczas nagrań czy masteringu, zawsze pilnuje się, żeby poziomy szczytowe nie dobijały do 0,0 dBFS, a zostawia się tzw. „headroom”, czyli np. -0,3 dBFS lub -1 dBFS, żeby uniknąć przypadkowego przekroczenia pełnej skali. Ale jeśli pytamy o absolutnie najwyższy możliwy poziom w zapisie cyfrowym, to jest to właśnie 0,0 dBFS — dalej już nie ma „cyfrowo” nic, bo to jest granica zero-jedynkowego świata. Moim zdaniem warto o tym pamiętać, szczególnie gdy przerabia się ścieżki audio na różnych etapach produkcji, bo łatwo przeoczyć pojedyncze piki, które mogą „przekroczyć” tę granicę. Z praktyki: lepiej ustawić limiter i pracować poniżej tej wartości, ale sama definicja dBFS jasno mówi – 0,0 dBFS to maksimum, punkt odniesienia, do którego mierzymy wszystko poniżej.

Pytanie 5

Jaką nazwę nosi dokument zawierający „szkielet” fabuły filmu?

A. Spis efektów.
B. Lista znaczników.
C. Playlista.
D. Drabinka scenariuszowa.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Drabinka scenariuszowa to faktycznie podstawa każdego etapu przedprodukcyjnego filmu. To taki dokument, który pozwala rozbić całą fabułę na poszczególne sceny czy sekwencje, jeszcze zanim zacznie się pisać scenariusz właściwy. Pracując w branży filmowej, zauważyłem, że drabinka to świetne narzędzie nie tylko dla scenarzysty, ale też dla reżysera i producenta – pozwala wszystkim złapać ogólny rytm filmu i rozplanować przebieg akcji. Moim zdaniem, bez dobrze przygotowanej drabinki bardzo łatwo pogubić się w kolejności wydarzeń i logice fabularnej, szczególnie przy bardziej skomplikowanych projektach. Standardowo zawiera krótkie opisy poszczególnych scen i ich funkcje, nie wdając się jeszcze w dialogi czy szczegółowe didaskalia. W praktyce, to właśnie na etapie drabinki testuje się, czy historia ma sens, czy są jakieś dziury logiczne albo niepotrzebne przestoje. Wiele ekip filmowych traktuje drabinkę jako rodzaj mapy drogowej. Oczywiście, nie jest to dokument sztywny – w trakcie pracy bywa zmieniany, udoskonalany, bo proces kreatywny bywa nieprzewidywalny. Jednak moim zdaniem, bez solidnej drabinki scenariuszowej trudno mówić o profesjonalnym przygotowaniu produkcji filmowej – to taki branżowy standard, który pozwala uporządkować nawet najbardziej szalone pomysły.

Pytanie 6

W którym z wymienionych formatów należy zapisać sesję programu DAW, aby mogła być prawidłowo odczytana w innym programie DAW?

A. Free Lossless Audio Codec
B. Meridian Lossless Packing
C. MPEG Layer 3
D. Open Media Format

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś Open Media Format i to faktycznie jest najbardziej sensowna opcja, jeśli chodzi o przenoszenie sesji pomiędzy różnymi programami DAW. Ten format – znany też jako OMF – został zaprojektowany specjalnie po to, żeby ułatwić współpracę i wymianę projektów między różnymi środowiskami audio. Chodzi tutaj nie tylko o same ślady audio, ale też o ich kolejność, rozmieszczenie na osi czasu, podstawowe automatyzacje czy informacje o regionach. W praktyce bardzo często spotyka się taką sytuację, że producent zaczyna pracę w jednym DAW, a potem przekazuje projekt komuś innemu, kto używa innego programu. Tutaj właśnie OMF okazuje się niezastąpiony – pozwala zachować porządek w sesji oraz uniknąć żmudnego eksportowania wszystkiego do pojedynczych plików. Moim zdaniem, jeśli ktoś poważnie myśli o pracy w branży muzycznej, to znajomość i rozumienie OMF to absolutna podstawa. Standard ten jest wspierany przez większość popularnych DAW-ów, jak Pro Tools, Cubase, Logic czy Nuendo. Oczywiście, ma swoje ograniczenia – np. nie przenosi zaawansowanej automatyzacji czy instrumentów wirtualnych – ale i tak jest nieoceniony w podstawowych transferach projektów. Warto też pamiętać, że aktualnie rozwijany jest również format AAF, który umożliwia jeszcze bardziej zaawansowaną wymianę danych, ale OMF wciąż pozostaje klasycznym rozwiązaniem, zwłaszcza w pracy studyjnej czy postprodukcji filmowej.

Pytanie 7

Ogranicznik w procesie masteringu wpływa

A. na pasmo nagrania.
B. na ograniczenie maksymalnego poziomu nagrania.
C. na przestrzeń nagrania.
D. na zmianę barwy pliku wynikowego.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź jest prawidłowa, bo limiter (ogranicznik) w masteringu stosuje się przede wszystkim do kontrolowania maksymalnego poziomu sygnału audio. Jego głównym zadaniem jest zatrzymanie przesterowań i zapewnienie, że sygnał wyjściowy nie przekroczy ustalonej wartości granicznej, najczęściej 0 dBFS w środowisku cyfrowym. To jest taka ostatnia linia obrony przed clipowaniem, które mogłoby zniszczyć jakość materiału czy nawet uszkodzić sprzęt odtwarzający. W praktyce, limiter pozwala uzyskać głośniejsze brzmienie bez ryzyka przekroczenia progu, a to bardzo pożądane na etapie masteringu, zwłaszcza kiedy utwór idzie do radia albo na streamingi. Współczesne standardy branżowe, jak loudness normalization (np. EBU R128 czy LUFS), zakładają pewien maksymalny poziom, którego nie należy przekraczać – limiter jest tu wręcz niezbędny. Z mojego doświadczenia, użycie limitera to taki etap, na którym cała praca nad brzmieniem może się rozstrzygnąć – za mocne ustawienie może zabić dynamikę, za słabe nie da stabilnego poziomu. Dobry masteringowiec wie, jak balansować te kwestie, żeby utrzymać energię nagrania, a jednocześnie nie doprowadzić do przesterowań. Generalnie, bez limitera nie ma współczesnego masteringu.

Pytanie 8

W jakim celu normalizuje się pliki dźwiękowe?

A. Wyrównania pików nagrania do tej samej wartości.
B. Ustalenia minimalnego poziomu nagrania.
C. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
D. Ustalenia maksymalnego poziomu nagrania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.

Pytanie 9

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.mp3
B. *.flac
C. *.ogg
D. *.aiff

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 10

Ile razy należy powielić region obejmujący pierwszy takt na ścieżce w sesji programu DAW, aby całkowicie wypełnić przestrzeń na ścieżce do początku taktu piątego?

A. 3 razy.
B. 4 razy.
C. 2 razy.
D. 1 raz.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest właśnie sedno logicznego podejścia do pracy w DAW-ach. Jeśli mamy region obejmujący pierwszy takt – czyli od początku taktu pierwszego do początku taktu drugiego – to powielając go 3 razy, uzyskujemy cztery identyczne regiony: jeden od 1. do 2. taktu, drugi od 2. do 3., trzeci od 3. do 4. i czwarty od 4. do 5. taktu. W praktyce, region z pierwszego taktu trzeba skopiować jeszcze trzy razy, żeby wypełnić przestrzeń od początku do końca czwartego taktu, czyli dokładnie do początku piątego. To bardzo typowe zadanie – wiele osób podczas aranżowania bitu, basu czy perkusji zapętla jedną sekwencję i powiela ją, żeby zbudować strukturę utworu. Prawda jest taka, że większość DAW-ów, jak Ableton, FL Studio czy Cubase, działa właśnie na zasadzie kopiowania regionów/taktów i to jest zgodne z praktyką producencką. Moim zdaniem, rozumienie tego typu operacji nie tylko przyspiesza pracę, ale też pozwala lepiej panować nad aranżem. Warto pamiętać, że kopiowanie regionów w taki sposób jest podstawową umiejętnością i świetnym punktem wyjścia do dalszej edycji – potem można dowolnie modyfikować każdy takt czy dodawać automacje. W środowiskach studyjnych to wręcz codzienność – i każda osoba pracująca profesjonalnie w DAW-ach powinna mieć to w małym palcu.

Pytanie 11

Największą zgodność ze standardem CD-Audio zapewni archiwizacja nagrań dźwiękowych w formie

A. pliku w formacie MP3.
B. pliku w formacie MP3 oraz pliku odszumionego.
C. pliku o parametrach 48 kHz/16 bit stereo.
D. pliku o parametrach 44.1 kHz/16 bit stereo.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard CD-Audio, czyli Compact Disc Digital Audio, od początku został zaprojektowany z bardzo precyzyjnymi parametrami: 44,1 kHz próbkowania i 16 bitów rozdzielczości na kanał, stereo. Te wartości nie są przypadkowe – zostały wybrane tak, aby umożliwić wierne odwzorowanie zakresu słyszalnego dla człowieka z minimalnymi zakłóceniami jakości. W praktyce każda próba archiwizacji nagrań przeznaczonych do zgodności z nośnikami CD powinna dokładnie trzymać się tego ustawienia. Nawet jeśli masz do dyspozycji sprzęt nagrywający dźwięk w wyższej rozdzielczości (np. 48 kHz, 24 bity), to i tak końcowy materiał na potrzeby audio CD musi przejść konwersję do 44,1 kHz/16 bitów. Moim zdaniem, jeśli zależy komuś na pełnej kompatybilności z odtwarzaczami i dobrych praktykach archiwizacyjnych, nie ma sensu trzymać plików w innym formacie niż dokładnie taki – żadnych MP3, żadnych innych częstotliwości czy głębokości bitowych. Warto pamiętać, że wiele archiwów cyfrowych i profesjonalnych studiów nagraniowych stosuje te parametry jako domyślny punkt odniesienia dla materiałów, które mają być dostępne szerokiej publiczności lub wydane na CD. Osobiście często spotykałem się z sytuacją, gdzie konwersja z innych formatów powodowała nieprzewidziane problemy z kompatybilnością. To taka trochę „złota zasada” w branży muzycznej.

Pytanie 12

Który z wymienionych typów ścieżki należy wybrać w sesji programu DAW, aby móc nagrać dźwięk?

A. AUDIO
B. MIDI
C. MASTER
D. VIDEO

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź AUDIO jest tu najwłaściwsza, bo właśnie ścieżka audio w każdym szanującym się DAW-ie (czyli Digital Audio Workstation) służy do nagrywania dźwięku z zewnętrznych źródeł – na przykład mikrofonów, instrumentów przez interfejs audio czy nawet z innych urządzeń analogowych. Gdy tworzysz nową sesję i chcesz, żeby DAW zapisał realny dźwięk, musisz dodać ścieżkę audio, a potem ustawić wejście audio – wybierasz, z którego portu fizycznego (albo softwarowego, zależy jak podpiąłeś sprzęt) sygnał będzie trafiał na ścieżkę. Często spotykam się z tym, że początkujący klikają ścieżkę MIDI myśląc, że to wszystko jedno, ale MIDI to zupełnie inna bajka – to sterowanie nutami, a nie rejestrowanie fal dźwiękowych. Nagrywając wokal, gitarę czy jakiekolwiek inne źródło, zawsze korzystaj z typowego tracku audio – wtedy DAW zapisuje plik typu WAV albo AIFF, co daje ci pełną kontrolę nad edycją, miksowaniem, efektami itd. Zresztą jest to standard w całym świecie produkcji muzycznej, nawet w najbardziej zaawansowanych studiach nikt nie używa do rejestracji dźwięku ścieżki MIDI, bo to po prostu technicznie niemożliwe. Z mojego doświadczenia – lepiej od razu uczyć się dobrych nawyków i rozróżniać typy ścieżek. To bardzo ułatwia późniejszą pracę – zarówno przy nagrywaniu, jak i miksie czy masteringu.

Pytanie 13

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Reverbs
C. Distortion
D. Modulation

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander zdecydowanie należy do kategorii procesorów typu „dynamics”. To urządzenie albo wtyczka, która tak naprawdę działa odwrotnie niż kompresor — zamiast zmniejszać zakres dynamiki, rozszerza go, czyli sprawia, że ciche sygnały stają się jeszcze cichsze, a głośne pozostają bez zmian. Standardowo spotyka się ekspandery w pracy realizatorów dźwięku, zwłaszcza tam, gdzie trzeba pozbyć się tzw. szumów tła albo podkreślić kontrast dynamiczny w nagraniach. Przykład z życia: podczas nagrywania perkusji w studiu, ekspander pomoże wyciszyć niepożądane przesłuchy z innych mikrofonów. Branżowo korzysta się z ekspanderów w broadcastingu, produkcji muzycznej i postprodukcji filmowej, bo pozwalają kontrolować przestrzeń dynamiczną materiału, nie niszcząc naturalności dźwięku. Z mojego doświadczenia wynika, że ekspander bywa niedoceniany, a to świetne narzędzie do „oczyszczenia” nagrania, zwłaszcza gdy nie chcemy używać bramki szumów, która działa bardziej agresywnie. W skrócie – jeśli chcesz zarządzać poziomami głośności i dynamiką w nagraniach, ekspander to solidny wybór, zgodny z dobrymi praktykami w branży.

Pytanie 14

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .wav
B. .aac
C. .m4a
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format pliku .wav to chyba najbardziej popularny wybór, jeśli zależy komuś na maksymalnej jakości i zachowaniu wszystkich szczegółów dźwięku. W praktyce .wav jest formatem bezstratnym, co oznacza, że nie kompresuje on danych audio tak, jak robią to np. .mp3 czy .aac. Dzięki temu żadne informacje dźwiękowe nie są usuwane czy upraszczane – nagranie zachowuje oryginalną jakość, jaką udało się zarejestrować podczas nagrywania czy miksowania. Często w studiach nagraniowych, przy obróbce dźwięku do filmów czy podcastów, pliki .wav są uznawane za standard, bo pozwalają na dalszą edycję bez strat jakości. Moim zdaniem, jeśli masz choćby cień wątpliwości, którą ścieżkę wybrać do archiwizacji albo profesjonalnej produkcji, to zawsze .wav będzie pewniakiem. To oczywiście wiąże się z większymi rozmiarami plików, ale w wielu sytuacjach nie ma to aż takiego znaczenia – ważniejsze jest, aby nie tracić żadnych detali. Warto też pamiętać, że wiele systemów multimedialnych, DAW-ów (Digital Audio Workstation) czy nawet starszych konsol lepiej radzi sobie właśnie z .wav. Tak po ludzku: tam, gdzie liczy się czysta jakość i pełna informacja, nie kombinuj, tylko wybierz .wav.

Pytanie 15

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ppt
B. *.wmv
C. *.wmf
D. *.ptx

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozszerzenie *.ptx to właśnie format pliku sesji montażowej charakterystyczny dla programu Pro Tools, który od lat należy do ścisłej czołówki profesjonalnych DAW (Digital Audio Workstation). Tego typu pliki przechowują dane o układzie ścieżek, automatyce, strukturze sesji, a nawet konfiguracji wtyczek czy routingów sygnału. Można powiedzieć, że to „mapa” całego projektu muzycznego – bez tego pliku ciężko byłoby wrócić do pracy nad mixem, bo żadne pliki audio czy MIDI nie zachowałyby ustawień sesji. W branży muzycznej i postprodukcyjnej *.ptx to absolutny standard, jeśli chodzi o wymianę projektów między studiem A i B, bo praktycznie każde większe studio korzysta z Pro Tools – czy to przy nagraniach, montażu, czy masteringu. Sam miałem okazję pracować z takimi plikami i ułatwiają życie, zwłaszcza podczas archiwizacji i backupów. Co ciekawe, poprzednie wersje Pro Tools używały formatu *.pts lub *.ptf, ale od wersji 10 obowiązuje już *.ptx. Takie drobne szczegóły są ważne, bo czasami trzeba przekonwertować sesję, żeby otworzyć ją w starszym systemie. W praktyce, jeśli dostajesz od kogoś plik z końcówką *.ptx, wiesz, że to cały projekt do dalszej pracy, a nie pojedynczy plik dźwiękowy czy prezentacja. To jest właśnie ten branżowy workflow, który warto znać, bo bardzo usprawnia współpracę z innymi realizatorami i producentami.

Pytanie 16

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 24 bitowej?

A. 192 dB
B. 48 dB
C. 144 dB
D. 96 dB

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Maksymalna dynamika zapisu audio w formacie 24-bitowym wynosi właśnie 144 dB. Wynika to bezpośrednio z ilości bitów użytych do reprezentacji amplitudy sygnału: każdy bit daje teoretycznie 6 dB zakresu dynamiki (24 x 6 dB = 144 dB). To ogromna wartość, szczególnie jeśli porównasz ją ze standardowym CD, który wykorzystuje 16 bitów i ma zakres około 96 dB. W praktyce tak duża dynamika pozwala na bardzo precyzyjne uchwycenie zarówno najcichszych, jak i najgłośniejszych fragmentów nagrania – bez słyszalnych zniekształceń czy szumów tła. Studiom nagraniowym daje to swobodę do dalszej obróbki materiału, np. podczas miksowania czy masteringu, gdzie potrzebny jest zapas dynamiki na różne efekty czy korekcję. Moim zdaniem to jedna z głównych przyczyn, dlaczego poważne produkcje muzyczne rejestruje się w 24 bitach, nawet jeśli później materiał trafia na CD lub streaming w niższej jakości. Warto dodać, że choć ucho ludzkie nie wyłapie całych 144 dB różnicy (w praktyce słyszymy mniej), to jednak taki zapas ogromnie ułatwia pracę inżynierom dźwięku i pozwala uniknąć ryzyka nieodwracalnego ścięcia sygnału. Świetnym przykładem zastosowań są nagrania muzyki klasycznej czy filmowej, gdzie liczy się zachowanie pełnej dynamiki orkiestry – od ledwie słyszalnych smyczków po potężne tutti. Dobrze wiedzieć, że w branży pro audio to już właściwie standard.

Pytanie 17

Który z wymienionych formatów plików audio stanowi najczęstszą podstawę do pracy montażowej w sesji oprogramowania DAW?

A. .m4a
B. .ogg
C. .mp3
D. .wav

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format .wav jest zdecydowanie najczęściej wykorzystywany w pracy montażowej w DAW (Digital Audio Workstation). To taki branżowy standard i w sumie nie ma się co dziwić, bo pliki wav są nieskompresowane, czyli dźwięk jest w nich zapisany bez żadnych strat jakości. Można je dowolnie edytować, ciąć, nakładać efekty i miksować bez obawy, że coś się popsuje w brzmieniu. DAW-y najchętniej pracują właśnie z tym formatem, bo są one szybkie w odczycie i nie wymagają dodatkowego dekodowania podczas pracy. Z własnego doświadczenia wiem, że gdy dostajesz sesję od innego realizatora lub pracujesz nad projektem na różnych komputerach, .wav po prostu zawsze działa. Jest też bardzo elastyczny – można ustalić różne częstotliwości próbkowania (44.1 kHz, 48 kHz, nawet wyżej) i ilość bitów, w zależności od potrzeb projektu. Co ważne, większość wtyczek, narzędzi masteringowych czy nawet prostych edytorów audio, obsługuje wav bez żadnych problemów. W wielu studiach nagraniowych przyjęło się też, że eksportuje się wszystkie ścieżki w wav, bo potem łatwiej je przesłać do miksu lub masteringu. Inne formaty, jak mp3 czy m4a, raczej nie nadają się do profesjonalnej obróbki, bo są stratne. A .ogg, chociaż czasem spotykany, nie jest popularnym wyborem w produkcji muzycznej. Generalnie, moim zdaniem, jak wchodzisz w temat miksowania czy profesjonalnej produkcji muzyki, wav to podstawa i warto od razu się do tego przyzwyczaić.

Pytanie 18

Który z wymienionych trybów wyświetlania jednostek na osi czasu w sesji montażowej programu DAW odnosi się do taktów utworu muzycznego?

A. Samples.
B. Bars.
C. Frames.
D. Seconds.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tryb wyświetlania „Bars” w DAW to właściwie podstawa przy pracy z muzyką opartą na metrumnie, czyli w taktach i uderzeniach. W praktyce, kiedy edytujesz czy komponujesz, korzystając z siatki w trybie Bars, możesz idealnie synchronizować dźwięki, automatyzacje, sample czy nawet efekty z podziałem na takty i bity. To jest mega wygodne podczas aranżacji, bo łatwiej planować wejścia instrumentów, zmiany akordowe czy nawet całą strukturę utworu. Tak robi się w większości profesjonalnych projektów nagraniowych i produkcyjnych – wszędzie, gdzie utwór ma ustalone tempo i rytm, korzystanie z Bars po prostu usprawnia pracę. To trochę jak czytanie nut w cyfrowej wersji – „Bars” pozwalają myśleć muzycznie, nie tylko technicznie. Z mojego doświadczenia praca w tym trybie daje też większą kontrolę nad synchronizacją MIDI, kwantyzacją czy loopowaniem ścieżek. Większość DAW domyślnie ustawia Bars jako główny tryb, bo to standard branżowy przy muzyce współczesnej, elektronicznej i każdej, gdzie timing jest kluczowy. Oczywiście, na etapie miksu czasem przełącza się na sekundy, ale układanie aranżu w Bars to absolutny must-have. Fajnie wiedzieć, że ogarnianie tego trybu przekłada się na szybszą i bardziej kreatywną pracę.

Pytanie 19

Funkcja służąca do zgrania zaznaczonego fragmentu materiału dźwiękowego w sesji oprogramowania DAW na dysk komputera znajduje się typowo w menu

A. OPTIONS
B. EVENT
C. WINDOW
D. FILE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź FILE jest zdecydowanie tą, która najlepiej oddaje praktykę pracy w niemal każdym oprogramowaniu DAW – od Cubase’a, przez REAPER-a, po Pro Tools. To właśnie pod menu FILE umieszczane są funkcje związane z zapisem, eksportem czy archiwizacją projektu i elementów audio. Jeśli chcesz „zgrać” wybrany fragment ścieżki, eksportować wycinek miksu lub renderować zaznaczenie, zawsze powinieneś celować właśnie w to menu. Co istotne, niezależnie od tego, czy wybierasz opcję Export, Bounce, Render czy Save As, wszystko to mieści się właśnie pod FILE, bo cała filozofia tej sekcji bazuje na zarządzaniu plikami i ich zapisywaniem na dysk. W praktyce ja za każdym razem, kiedy przygotowuję stem lub bounce ścieżek dla realizatora czy po prostu do archiwum, korzystam z tego właśnie miejsca. To bardzo ułatwia późniejsze odnalezienie się w sesji i utrzymuje porządek w workflow. Taka organizacja interfejsu DAW to już właściwie branżowy standard i trzymając się tej ścieżki, łatwiej znaleźć odpowiednie opcje nawet w nowym, nieznanym oprogramowaniu. Ciekawostką jest, że ta struktura menu wywodzi się jeszcze z dawnych konwencji projektowania oprogramowania i przez lata praktycznie się nie zmieniła, co bardzo ułatwia życie użytkownikom przy zmianie DAW. Jeśli kiedyś przeniesiesz się na inny program, na 99% ta logika menu będzie dokładnie taka sama.

Pytanie 20

Który z wymienionych nośników cyfrowych zapewnia najdłuższy okres przechowywania danych bez pojawienia się błędów?

A. DVD DL (DVD Dual Layer)
B. M-Disc (Millennial Disc)
C. CD-R
D. Mini CD-RW

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
M-Disc, czyli Millennial Disc, to nośnik stworzony specjalnie z myślą o bardzo długim okresie przechowywania danych. W odróżnieniu od tradycyjnych płyt CD-R czy DVD, które bazują na barwnikach organicznych i są podatne na degradację pod wpływem promieniowania UV, wilgoci czy zmian temperatury, M-Disc wykorzystuje warstwę zapisywalną z materiału zbliżonego do ceramiki. Dzięki temu dane są odporne na typowe zjawiska starzenia się nośników optycznych. Z moich obserwacji i tego, co można znaleźć w literaturze branżowej, M-Disc potrafi wytrzymać nawet kilkaset lat, stąd ten marketingowy przydomek 'millennial'. To nie jest tylko teoria – testy prowadzone przez amerykański Departament Obrony czy Instytut Informatyki i Automatyki potwierdzają, że M-Disc zachowuje czytelność danych w warunkach, które szybko powodują nierozpoznawalność zwykłych płyt. W praktyce często sięga się po M-Disc do archiwizacji danych medycznych, urzędowych czy rodzinnych archiwów fotograficznych – wszędzie tam, gdzie liczy się niezawodność przez dekady. Oczywiście, warto pamiętać, że do nagrania M-Disc potrzebna jest specjalna nagrywarka, ale potem można je już odczytywać w większości zwykłych czytników Blu-ray czy DVD. To rozwiązanie zgodne z dobrymi praktykami archiwizacji cyfrowej, gdzie kluczowe jest minimalizowanie ryzyka utraty danych na przestrzeni wielu lat.

Pytanie 21

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. DLY
B. GATE
C. REV
D. COMP

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź „GATE” jest jak najbardziej trafna – w kontekście procesorów efektów w DAW, właśnie ten skrót odnosi się do tzw. bramki szumów (ang. noise gate). Z mojego doświadczenia wynika, że bramka szumów to jeden z tych efektów, które są absolutnie niezbędne, gdy pracujesz z nagraniami audio, gdzie pojawia się niechciany szum, sprzężenia lub inne zakłócenia między frazami czy podczas ciszy w ścieżce. Bramki działają na zasadzie ustawiania progu głośności – jeśli sygnał jest poniżej tego progu, zostaje wyciszony, a jeśli go przekracza, jest przepuszczany dalej. Użycie GATE pozwala uzyskać czystsze nagrania, szczególnie w sytuacjach, gdzie mikrofon zbiera dźwięki otoczenia. W branży to już właściwie standard, że ścieżki wokalne, bębny czy nagrania z gitary często mają na insertach bramkę, żeby nie męczyć się z ręcznym usuwaniem szumów. Ciekawostką jest, że niektóre gate’y mają dodatkowe opcje, np. sidechain, co pozwala na naprawdę kreatywną pracę z dynamicznymi efektami. Warto jeszcze dodać, że GATE pojawia się praktycznie w każdym DAW, czy to Ableton, Cubase czy Pro Tools, a jego obsługa jest jednym z podstawowych elementów miksu. Moim zdaniem, każdy realizator dźwięku powinien znać to narzędzie na wylot, bo bez niego ciężko o profesjonalnie brzmiące nagrania.

Pytanie 22

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Read
B. Off
C. Latch
D. Touch

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tryb 'Off' w automatyce DAW to taka trochę oczywista, choć często pomijana opcja. Gdy ustawisz ścieżkę na 'Off', automatyka po prostu nie jest odczytywana ani zapisywana – to tak, jakby jej w ogóle nie było. Moim zdaniem, to świetne rozwiązanie, kiedy chcesz zignorować wcześniejsze automatyczne zmiany parametrów, np. głośności, panoramy czy efektów, i mieć totalną kontrolę ręcznie lub ustawić wszystko od nowa. Praktycznie, jeśli miksujesz utwór i robisz kilka wersji automatyki, możesz tymczasowo wyłączyć jej działanie bez kasowania całej pracy – nie ryzykujesz, że coś się przypadkiem zmieni. W branży, szczególnie przy pracy na żywo albo w dużych projektach studyjnych, używa się 'Off', żeby uniknąć konfliktów między różnymi etapami miksowania lub gdy chcesz słyszeć czysty sygnał ścieżki bez ingerencji automatyki. Często też, porównując wersje miksu, wyłączenie automatyki pozwala ocenić, jak brzmią ślady bez żadnych zmian, co bardzo się przydaje przy masteringu lub robieniu wersji instrumentalnych. Na koniec dodam, że w sumie to trochę niedoceniany tryb, a daje ogromną swobodę w zarządzaniu ścieżkami – nie tylko głośność, ale wszystkie parametry na chwilę przestają być pod kontrolą automatyki, co czasami okazuje się zbawienne.

Pytanie 23

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 2|3|240
B. 3|4|350
C. 4|2|400
D. 1|2|000

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 24

Jaką nazwę nosi dokument zawierający „szkielet” fabuły filmu?

A. Drabinka scenariuszowa.
B. Playlista.
C. Lista znaczników.
D. Spis efektów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Drabinka scenariuszowa to jeden z tych dokumentów, bez których trudno sobie wyobrazić proces przygotowania filmu – szczególnie w profesjonalnych warunkach. Zawiera ona rozpisaną w punktach całą strukturę fabuły, od ogólnych zdarzeń aż po konkretne sceny. Moim zdaniem, to taki swoisty „szkielet”, na którym dopiero buduje się szczegóły – dialogi, opis miejsca akcji, przebieg wydarzeń. Praktycznie każda większa produkcja, czy to fabularna, czy dokumentalna, korzysta z drabinki, żeby zachować porządek w opowieści i nie pogubić się podczas dalszego rozpisywania scenariusza. W branży filmowej to jest taki etap, kiedy scenarzysta lub cały zespół twórczy może jeszcze łatwo wprowadzać zmiany w logice fabularnej – zanim przejdzie się do szczegółowego scenariusza. Często spotyka się sytuację, gdzie na warsztatach filmowych prowadzący wymaga najpierw dobrze przemyślanej drabinki, zanim dopuści do pisania scenariusza – to już taki standard. Dzięki drabince łatwiej też współpracować z reżyserem, producentem czy nawet z inwestorami, bo już na tym etapie widać jaka będzie dynamika historii, gdzie są kulminacje i zwroty akcji. Z mojego doświadczenia, kto pominie drabinkę, ten potem nieraz żałuje – bo poprawianie gotowego scenariusza jest dużo trudniejsze niż zmienienie kolejności czy treści scen w drabince. No i niestety, bez niej trudno dobrze rozplanować rytm filmu.

Pytanie 25

Na jakim etapie produkcji nagrania wykonywany jest montaż nagrania?

A. Po masteringu.
B. W trakcie archiwizacji.
C. Po zgraniu.
D. W trakcie edycji.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Montaż nagrania to bardzo kluczowy etap w całym procesie produkcji dźwięku, a właściwie to podstawa tzw. edycji. W branży audio i podczas pracy w studiu nagrań, montaż zawsze wykonuje się właśnie w trakcie edycji materiału. Chodzi o to, żeby z poszczególnych ścieżek, klipów czy fragmentów nagrań – często powstałych w kilku podejściach, z różnych ujęć – wybrać najlepsze fragmenty, połączyć je ze sobą i usunąć wszelkie zbędne elementy. Technicznie, montaż to m.in. cięcie, kopiowanie, przesuwanie i łączenie plików dźwiękowych czy wokalnych. To właśnie wtedy poprawia się drobne pomyłki wykonawcze, przestawia frazy, wyrównuje długości lub po prostu skleja najlepsze take’i w jedną, spójną całość. Dla wielu realizatorów ten moment decyduje o jakości końcowego produktu – przy dobrym montażu nie słychać żadnych łączeń, a całość brzmi naturalnie i profesjonalnie. W praktyce np. w programach DAW (Digital Audio Workstation) najpierw wykonuje się montaż, a dopiero później miks i mastering. W standardach branżowych przyjęło się, że bez solidnej edycji i montażu nie ma sensu zabierać się za resztę procesu, bo to właśnie tu kształtuje się podstawowy kształt utworu czy podcastu.

Pytanie 26

Który z wymienionych skrótów nazw procesorów efektów dostępnych w sesji programu DAW odnosi się do bramki szumów?

A. DLY
B. REV
C. COMP
D. GATE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
GATE to skrót, który jednoznacznie kojarzy się z bramką szumów – czyli efektem stosowanym do tłumienia niepożądanych dźwięków poniżej określonego progu. W praktyce – a przynajmniej tak to widzę – bramka szumów jest nieoceniona przy nagrywaniu wokali albo instrumentów, gdzie często pojawiają się szumy tła, trzaski albo oddechy między frazami. W DAW-ach bramkę (czyli gate) stosuje się bardzo często na ślady perkusyjne, np. na werblu czy stopie, żeby skrócić wybrzmiewanie i wyciąć ciche przesłuchy innych bębnów. To jest standard w miksie, zwłaszcza jeśli chodzi o muzykę rockową czy metalową, gdzie czystość i selektywność są kluczowe. Bramki szumów można też ustawiać bardzo precyzyjnie – atak, podtrzymanie, zwolnienie – dzięki czemu użytkownik ma pełną kontrolę nad tym, jak szybko efekt reaguje. Często spotyka się sytuację, że ludzie mylą gate z kompresorem, ale to zupełnie inne narzędzia – gate wycina, a kompresor ściska dynamikę. Generalnie, moim zdaniem, znajomość działania bramki to podstawa dla każdego, kto chce ogarnąć miksowanie w DAW. Warto też pamiętać, że wiele profesjonalnych szablonów sesji ma gate na śladach perkusyjnych domyślnie – to taki branżowy standard, który zdecydowanie warto opanować.

Pytanie 27

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Sample Rate
B. Channels
C. Bit Resolution
D. Audio File Type

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Częstotliwość próbkowania, czyli po angielsku sample rate, to absolutnie kluczowa właściwość każdego pliku audio – w sumie bez niej nie dałoby się nagrać dźwięku cyfrowego. Sample rate określa, ile razy na sekundę komputer pobiera próbkę sygnału analogowego podczas konwersji na postać cyfrową. Typowe wartości to 44,1 kHz (CD-audio), 48 kHz (wideo i broadcast), czasem też 96 kHz i więcej – to już bardziej zaawansowana produkcja studyjna. Z mojego doświadczenia, przy niskiej częstotliwości próbkowania ograniczamy pasmo przenoszenia dźwięku – im wyższy sample rate, tym lepsze odwzorowanie wysokich częstotliwości i subtelnych szczegółów, choć to też oznacza większe pliki. Branża trzyma się standardu 44,1 kHz dla muzyki i 48 kHz dla filmów, bo to kompromis między jakością a wagą pliku. Pracując w DAW, zawsze trzeba zwracać uwagę, żeby sample rate projektu zgadzał się z plikami audio, bo inaczej może pojawić się nieprzyjemna zmiana wysokości dźwięku albo tempo zacznie wariować. Tak na marginesie, sample rate nie ma nic wspólnego z głośnością czy ilością bitów – to wyłącznie parametr odpowiadający za dokładność czasową rejestracji dźwięku cyfrowego. Dobra praktyka to ustawić sample rate zgodnie z przeznaczeniem projektu i nie konwertować plików niepotrzebnie, bo każde przetwarzanie może wpłynąć na jakość. Warto o tym pamiętać przy eksporcie i pracy z różnymi DAW.

Pytanie 28

Która z podanych częstotliwości próbkowania jest charakterystyczna dla formatu CD-Audio?

A. 96 kHz
B. 192 kHz
C. 44,1 kHz
D. 48 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
44,1 kHz to taka częstotliwość próbkowania, która od lat jest synonimem standardu CD-Audio. To nie jest przypadkowa wartość – została wybrana na etapie projektowania nośnika CD, żeby zapewnić wysoką jakość dźwięku przy rozsądnej ilości danych do zapisania. Wynika to z prawa Nyquista-Shannona, które mówi, że żeby wiernie odtworzyć sygnał audio bez strat, trzeba próbkującą częstotliwość ustawić co najmniej na dwukrotność najwyższej częstotliwości słyszalnej przez człowieka (czyli około 20 kHz). 44,1 kHz daje więc zapas, a jednocześnie nie generuje gigantycznych plików. W praktyce to właśnie ta wartość stała się standardem w sprzęcie konsumenckim – od odtwarzaczy CD, przez popularne programy do masteringu muzyki, aż po archiwa nagrań muzycznych z XX wieku. Jeśli kiedykolwiek ripowałeś płytę CD czy analizowałeś plik WAV pochodzący z oryginalnego audio, tam właśnie ta częstotliwość pojawia się praktycznie zawsze. Moim zdaniem to dobry kompromis – 44,1 kHz umożliwia bardzo wierne oddanie oryginału bez przesadnego marnowania miejsca na dysku (w końcu w latach 80. to miało ogromne znaczenie). Warto też wiedzieć, że inne formaty, np. DVD-Audio czy ścieżki dźwiękowe w filmach, stosują już inne wartości, ale CD-Audio jest na zawsze związane z tą właśnie liczbą. Sam nieraz się spotkałem z tym, że ktoś miksował muzykę w wyższych częstotliwościach, ale potem i tak eksportował do 44,1 kHz, żeby wrzucić na płytę lub serwis streamingowy. To klasyk i taki techniczny „złoty środek” – i raczej jeszcze długo się to nie zmieni.

Pytanie 29

Który z formatów zapisu dźwięku oferuje wyłącznie stałą przepływność bitową sygnału cyfrowego?

A. .ape
B. .flac
C. .wav
D. .m4a

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format .wav zdecydowanie wyróżnia się tym, że oferuje wyłącznie stałą przepływność bitową (CBR, ang. constant bitrate) – to jedna z jego największych cech rozpoznawczych. Sposób działania plików .wav opiera się na bardzo prostym, niemal surowym zapisie cyfrowym bez kompresji – najczęściej w standardzie PCM. Dzięki temu każdy fragment pliku zajmuje dokładnie tyle samo miejsca, niezależnie od poziomu złożoności dźwięku czy obecności ciszy. Przykładowo, sekunda nagrania stereo w jakości 16 bitów/44,1 kHz zawsze zajmie tyle samo przestrzeni dyskowej, co sprawia, że pliki .wav są przewidywalne i łatwe do obróbki w środowiskach profesjonalnych. To rozwiązanie jest często wykorzystywane w studiach nagraniowych, podczas masteringu, a także w archiwizacji nagrań, gdzie kluczowa jest jakość i brak strat. Moim zdaniem, właśnie przewidywalność i kompatybilność z praktycznie każdym sprzętem audio na rynku to największe atuty wavów – nie trzeba się zastanawiać, czy plik otworzy się poprawnie. Z mojego doświadczenia wynika, że większość programów DAW (Digital Audio Workstation) domyślnie korzysta właśnie z tego formatu na etapie edycji i miksowania. W branży przyjęło się, że jeśli zależy ci na wiernym odwzorowaniu oryginalnego dźwięku oraz łatwej integracji między różnymi systemami, najlepiej postawić właśnie na .wav.

Pytanie 30

Tworząc dokumentację nagrania perkusji, należy do rejestracji dużego bębna wybrać mikrofon

A. piezoelektryczny.
B. magnetoelektryczny cewkowy.
C. wstęgowy.
D. elektrostatyczny.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór mikrofonu magnetoelektrycznego cewkowego do rejestracji dużego bębna (kick drum) to standardowa praktyka w studiu nagraniowym i na scenie. Te mikrofony, znane też jako dynamiczne, świetnie radzą sobie z bardzo wysokim poziomem ciśnienia akustycznego, który właśnie generuje stopa. Konstrukcja cewkowa wytrzymuje duże natężenia i nie jest tak podatna na uszkodzenia mechaniczne, co przy energicznych uderzeniach w bęben ma spore znaczenie. Z mojego doświadczenia – takie mikrofony (np. słynny AKG D112, Shure Beta 52A czy Audix D6) nie tylko znoszą trudy pracy, ale i oddają charakterystyczny atak i głębię dźwięku stopy. Producenci sprzętu perkusyjnego i realizatorzy od dekad rekomendują właśnie mikrofony dynamiczne cewkowe do tego zastosowania, bo potrafią odpowiednio „wyciąć” się w miksie i są raczej odporne na sprzężenia. Branżowe standardy (np. rider techniczny zespołu rockowego) praktycznie zawsze przewidują takie rozwiązanie. Często konstrukcje dynamiczne mają też odpowiednio podcięte niskie pasmo i lekkie podbicie w okolicach 4 kHz, przez co stopa brzmi selektywnie. Mikrofony cewkowe są też stosunkowo tanie i dostępne – nie trzeba inwestować w kosztowny sprzęt, żeby osiągnąć dobry efekt. W praktyce – jeśli ktoś chce nagrać bęben basowy z odpowiednią dynamiką i charakterem, mikrofon magnetoelektryczny cewkowy jest właściwym wyborem.

Pytanie 31

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Decay.
B. Type.
C. Diffusion.
D. Predelay.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Predelay to zdecydowanie jeden z najważniejszych parametrów w efekcie Reverb, szczególnie jeśli zależy Ci na realnym kształtowaniu przestrzeni i głębi w miksie. Jego główne zadanie to ustawienie odstępu czasowego pomiędzy dźwiękiem bezpośrednim a pierwszym słyszalnym odbiciem, czyli początkiem pogłosu. Moim zdaniem, właściwe dobranie predelay pozwala uniknąć zatarcia ataku instrumentu – na przykład możesz ustawić większy predelay na wokalu, żeby był wyraźniejszy i nie ginął w pogłosie. Typowa wartość predelay to od kilku do kilkudziesięciu milisekund, ale to zawsze warto sprawdzić na ucho, bo w zależności od tempa utworu i aranżacji, różne wartości lepiej się sprawdzają. W studiu nieraz spotkałem się z sytuacją, gdzie zbyt krótki predelay powodował, że miks robił się zamazany, a wokale traciły czytelność. Predelay to taki mały, a bardzo potężny parametr – pozwala symulować różne wielkości pomieszczeń czy nawet odległości od ściany, co jest wykorzystywane praktycznie w każdej produkcji audio, od popu po film. W standardach branżowych często zaleca się eksperymentowanie z predelay, właśnie po to, by znaleźć idealne ustawienie dla danej ścieżki. To trochę jak przyprawa do dania – nie zawsze dużo znaczy lepiej, ale bez tego łatwo o nudny, płaski dźwięk.

Pytanie 32

Uzyskanie dynamiki dźwięku o wartości 192 dB możliwe jest przy rozdzielczości przetwarzania wynoszącej

A. 16 bitów.
B. 32 bity.
C. 24 bity.
D. 8 bitów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 32 bity jest tutaj jak najbardziej na miejscu, bo przy tej rozdzielczości możliwe jest uzyskanie dynamiki dźwięku aż do 192 dB. Wynika to z prostej zasady: każda dodatkowa liczba bitów zwiększa możliwy zakres dynamiki o około 6 dB. Dla 32 bitów to teoretycznie daje nam 32 × 6 = 192 dB, a więc dokładnie tyle, ile trzeba. W praktyce, w profesjonalnych zastosowaniach audio, np. w studiach nagraniowych czy podczas masteringu muzycznego, często korzysta się właśnie z 32-bitowej rozdzielczości, by uniknąć problemów z przesterowaniem i mieć maksymalną swobodę podczas obróbki materiału. Z mojego doświadczenia wynika, że choć do odsłuchu końcowego wystarcza 16 bitów (CD Audio), to przy produkcji i edycji wyższa rozdzielczość daje ogromny komfort i bezpieczeństwo – nie tracisz danych przy wielu przeliczeniach i efektach. Warto pamiętać, że teoria rozdzielczości bitowej jest mocno powiązana z rzeczywistymi możliwościami przetworników – nie zawsze da się osiągnąć czysto teoretyczny limit, bo ograniczenia sprzętu czy poziom szumów też mają znaczenie. Tak czy inaczej, 32 bity to obecnie najwyższy standard w cyfrowym audio, stosowany tam, gdzie liczy się najwyższa jakość i szeroki zakres dynamiki.

Pytanie 33

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Bit Resolution
B. Sample Rate
C. Audio File Type
D. Channels

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Częstotliwość próbkowania (Sample Rate) to taka cecha pliku dźwiękowego, która właściwie decyduje, ile razy na sekundę DAW rejestruje próbkę sygnału audio. W praktyce na przykład, plik z sample rate 44,1 kHz zawiera 44 100 próbek dźwięku na każdą sekundę. To jest właśnie ten parametr, który ma kluczowe znaczenie dla jakości nagrania, szczególnie jeśli chodzi o pasmo przenoszenia. Im wyższy sample rate, tym więcej szczegółów dźwiękowych można zachować, ale też plik jest cięższy i obciąża komputer podczas pracy. Branżowym standardem w muzyce jest 44,1 kHz, natomiast w produkcji filmowej często używa się 48 kHz lub nawet wyższych wartości typu 96 kHz. Moim zdaniem, dobrze rozumieć to od podstaw, bo kiedy zaczynasz miksować materiały z różnymi częstotliwościami próbkowania, mogą pojawić się różne nieprzyjemne sytuacje – od degradacji jakości po problemy z synchronizacją. Sample Rate nie tylko wpływa na jakość, ale też na kompatybilność z innym sprzętem i oprogramowaniem. Dla mnie, jeśli ktoś planuje profesjonalną pracę z dźwiękiem, umiejętność świadomego wyboru i konwersji sample rate to absolutna podstawa. Warto pamiętać, żeby w projekcie DAW wszystkie materiały miały tę samą częstotliwość próbkowania – to ułatwia życie i minimalizuje błędy.

Pytanie 34

W celu zabezpieczenia nagrania wokalu przed powstaniem zakłóceń powodowanych przez spółgłoski zwarte, w dokumentacji nagrania należy zastosować

A. de-esser.
B. low-cut-filter.
C. equalizer.
D. kompresor.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Low-cut-filter, czyli filtr górnoprzepustowy, to jedno z narzędzi, które praktycznie zawsze używam przy nagrywaniu wokalu, szczególnie w profesjonalnym lub półprofesjonalnym studio. Jego zadaniem jest eliminacja najniższych częstotliwości – tych, które często nie są pożądane w nagraniu głosu, a pochodzą na przykład od wstrząsów, stuknięć statywu, czy właśnie spółgłosek zwartych typu „p”, „b”, „t”. Kiedy ktoś śpiewa lub mówi blisko mikrofonu, te spółgłoski powodują swojego rodzaju wybuchowe podmuchy powietrza, które mogą generować zakłócenia na poziomie najniższych Hz. Low-cut pozwala je skutecznie wyciąć, nie ingerując przy tym w klarowność wyższych częstotliwości, więc nie wpływamy negatywnie na barwę wokalu. W studiach nagraniowych często ustawia się taki filtr już na poziomie preampu lub jeszcze przed wejściem sygnału do interfejsu audio. Dla mnie to podstawa workflow, zwłaszcza gdy nie korzystam z pop-filtra lub nagrywam w warunkach domowych. Dobrą praktyką jest nie przesadzać z ustawieniem częstotliwości odcięcia – zwykle 80–120 Hz wystarcza. Moim zdaniem to jeden z podstawowych tricków, który odróżnia amatorskie nagranie od profesjonalnego brzmienia.

Pytanie 35

Które z urządzeń umożliwia kompresję sygnału w paśmie częstotliwości, w którym zlokalizowane są głoski syczące w nagraniu głosu lektora?

A. De-noiser.
B. Ekspander.
C. Filtr LP.
D. De-esser.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
De-esser to absolutna podstawa jeśli chodzi o profesjonalną obróbkę nagrań głosu, zwłaszcza lektorskiego czy wokalnego. Ten procesor dynamiczny specjalizuje się w ograniczaniu poziomu sybilantów, czyli głosek takich jak „s”, „sz”, „z”, które występują w paśmie częstotliwości zwykle pomiędzy 4 a 9 kHz. Akurat w tych zakresach sybilanty potrafią być bardzo nieprzyjemne dla ucha, szczególnie jeśli nagranie jest mocno skompresowane lub później odtwarzane na słuchawkach czy radiówkach FM. De-esser pracuje podobnie do kompresora, ale reaguje tylko na określony wycinek pasma – wyłapuje i „przycisza” fragmenty, gdzie poziom tych częstotliwości przekracza ustalony próg. W praktyce jest to must-have przy nagraniach lektorskich, podcastach, audiobookach czy nawet wokalach muzycznych – w sumie wszędzie tam, gdzie liczy się komfort słuchacza i przejrzystość przekazu. Moim zdaniem, nawet najlepszy mikrofon czy przedwzmacniacz nie zniweluje sibilantów tak skutecznie i muzykalnie jak dobrze ustawiony de-esser. W branży audio jest to uznany standard – praktycznie każda sesja mikserska z udziałem ludzkiego głosu przechodzi przez etap de-essingu. Co ciekawe, nowoczesne de-essery potrafią być bardzo selektywne, można ustawić konkretne pasmo działania i czułość, więc nie ma obaw, że sygnał stanie się matowy czy nienaturalny. To świetne narzędzie, zdecydowanie warto je znać i stosować.

Pytanie 36

Która z wymienionych wartości rozdzielczości bitowej powinna być zastosowana podczas nagrania materiału dźwiękowego o dynamice 100 dB, aby odwzorować tę dynamikę bez zniekształceń?

A. 16 bitów
B. 12 bitów
C. 24 bity
D. 8 bitów

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybranie rozdzielczości 24 bity do nagrania materiału dźwiękowego o dynamice 100 dB to bardzo trafna decyzja — to jest standard stosowany w profesjonalnych studiach nagraniowych, szczególnie przy nagrywaniu muzyki na wysokim poziomie. Każdy bit rozdzielczości przybliżeniu odpowiada ok. 6 dB zakresu dynamicznego, więc z prostego rachunku: 16 bitów daje około 96 dB, a 24 bity sięgają aż do ok. 144 dB, co zostawia naprawdę solidny zapas i eliminuje ryzyko zniekształceń związanych z kwantyzacją. Moim zdaniem warto też zwrócić uwagę, że 24 bity zapewniają nie tylko odwzorowanie szerokiej dynamiki, ale również większą odporność na szumy i lepszą jakość edycji w postprocessingu. Nawet jeśli finalnie plik audio ląduje w pliku 16-bitowym (tak jak na płytach CD), to w trakcie miksowania czy masteringu ten wyższy zapas dynamiki jest bardzo pożądany. W branży audiofilskiej czy realizatorskiej 24 bity to dziś właściwie standard, a nagrania o bardziej wymagającej dynamice, np. orkiestra symfoniczna czy muzyka filmowa, wręcz wymagają takiej rozdzielczości. Swoją drogą, coraz częściej nawet domowe interfejsy audio bez problemu oferują tryb 24-bitowy. Z mojego doświadczenia: lepiej mieć trochę za dużo „headroomu” niż za mało — wtedy nie musisz drżeć o trzaski i cyfrowe szumy.

Pytanie 37

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 12 Mb/s
B. 480 Mb/s
C. 15 Gb/s
D. 33 Gb/s

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Maksymalna prędkość transmisji danych dla standardu USB 2.0 wynosi właśnie 480 Mb/s (megabitów na sekundę). To była swego czasu ogromna zmiana na rynku, bo wcześniejszy standard USB 1.1 oferował zaledwie 12 Mb/s – różnica jest więc naprawdę kolosalna w codziennym użytkowaniu. USB 2.0, znane też jako High-Speed USB, umożliwiło komfortowe podłączanie zewnętrznych dysków, drukarek czy kamer, które wcześniej po prostu działałyby bardzo wolno. Na przykład kopiowanie pliku o wielkości 1 GB przez USB 2.0 trwało zdecydowanie krócej niż przez starsze porty. Moim zdaniem warto pamiętać, że 480 Mb/s to wartość teoretyczna, w praktyce rzeczywiste transfery są niższe, bo zależą jeszcze od jakości kabla, sprzętu czy nawet systemu operacyjnego. Branża IT przyjęła ten standard na długie lata i do dziś wiele urządzeń, zwłaszcza tańszych, korzysta właśnie z USB 2.0. Dla porównania – nowsze wersje USB, jak 3.0 czy 3.1, podnoszą poprzeczkę nawet do kilku gigabitów na sekundę, ale to już inna bajka. Najważniejsze, żeby rozpoznawać, do jakich zastosowań wystarcza USB 2.0, a kiedy warto sięgnąć po coś szybszego – np. do przesyłania dużych plików wideo. Tak czy inaczej, 480 Mb/s to kluczowa liczba, która powinna się każdemu technikowi od razu kojarzyć właśnie z USB 2.0.

Pytanie 38

Aplikacje DAW mogą odtwarzać w sesji pliki

A. tylko o tych samych parametrach.
B. o tej samej częstotliwości i innej rozdzielczości.
C. skompresowane do mp3 oraz wav.
D. o tej samej rozdzielczości i różnej częstotliwości.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To pytanie świetnie pokazuje, jak ważne są podstawowe zasady działania aplikacji DAW (Digital Audio Workstation) podczas pracy z plikami audio w jednej sesji. W praktyce, gdy wrzucasz do projektu różne pliki dźwiękowe, to kluczowa jest zgodność częstotliwości próbkowania (sample rate). DAW bez problemu radzi sobie z różną rozdzielczością bitową (czyli np. 16-bit i 24-bit mogą być zmiksowane w jednej sesji), bo silnik programu konwertuje je do ustawionej wartości projektu. Natomiast, gdybyś spróbował wstawić plik z inną częstotliwością niż ta ustawiona w projekcie (np. 44,1 kHz i 48 kHz), w większości DAW pojawi się problem – plik zostanie odtworzony w złym tempie albo wymuszona zostanie konwersja sample rate, co nieraz wpływa na jakość dźwięku. Z mojego doświadczenia, dobrym nawykiem jest zawsze trzymanie się jednej częstotliwości próbkowania w sesji, nawet jeśli różne nagrania mają inne rozdzielczości bitowe. W profesjonalnych studiach to praktycznie standard, bo pozwala uniknąć niepotrzebnych komplikacji i utraty jakości. Ważne też, że pliki można wrzucać zarówno mono, jak i stereo, a DAW przeliczy je do wspólnej postaci. Podsumowując – różne rozdzielczości w jednym projekcie raczej nie stanowią przeszkody, ale różne sample rate to już poważniejszy temat.

Pytanie 39

W formularzu zgrania materiału audio do określonego standardu dźwięku wielokanałowego wypełnia się dane, dotyczące

A. użytego kodeka.
B. ilości ścieżek dźwiękowych.
C. nazwy formatu danych audio.
D. rodzaju formatu pliku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Prawidłowo wskazałeś, że w formularzu zgrania materiału audio do konkretnego standardu dźwięku wielokanałowego najważniejsze jest podanie nazwy formatu danych audio. To absolutna podstawa przy pracy np. w studiach nagraniowych czy przy postprodukcji filmowej. Branża wymaga jednoznacznej identyfikacji standardu – czy to będzie WAV, AIFF, BWF, czy inny typ kontenera, bo od tego zależy, jak później taki plik będzie interpretowany przez sprzęt oraz oprogramowanie. Każdy format definiuje nie tylko układ ścieżek, ale też sposoby zapisu metadanych czy choćby obsługę różnych trybów wielokanałowych. Przykładowo: jeśli materiał przeznaczony jest do kina, często korzysta się z formatu BWF lub specjalnych presetów WAV z odpowiednią kolejnością kanałów zgodnie ze standardem Dolby Atmos czy DTS-X. Z mojego doświadczenia wynika, że nawet najlepszy kodek czy poprawna liczba ścieżek nic nie dadzą, jeśli format danych audio nie będzie zgodny z wymaganiami końcowego odbiorcy. W praktyce często dostaje się zwroty plików tylko dlatego, że format był nieprawidłowy – mimo że cała reszta technicznie się zgadzała. Warto zawsze czytać dokładne wytyczne zamawiającego lub nadawcy – to oszczędza sporo nerwów. Dobrą praktyką jest też zapisywanie tej informacji w dokumentacji produkcyjnej oraz na etapie archiwizacji materiałów – wtedy nie ma żadnych niejasności w przyszłości.

Pytanie 40

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Nadpróbkowanie.
B. Kompresja.
C. Konwersja.
D. Filtrowanie.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtrowanie to absolutnie podstawowe narzędzie w każdym programie typu DAW, jeśli chodzi o usuwanie przydźwięków, takich jak charakterystyczny szum 50 Hz (albo 60 Hz w USA), który wynika właśnie z zakłóceń sieci elektrycznej. W praktyce stosuje się najczęściej tzw. filtry wąskopasmowe – notch lub band-stop, które pozwalają wyciąć konkretną częstotliwość bez naruszania reszty sygnału. W wielu DAW-ach są nawet gotowe presety „hum remover” albo „de-hum”. Często użytkownicy korzystają z narzędzi typu EQ parametryczny, gdzie można ręcznie ustawić wycięcie dokładnie na częstotliwości przydźwięku i jej harmonicznych (np. 50, 100, 150 Hz itd.). Z mojego doświadczenia, to rozwiązanie jest dużo bardziej profesjonalne niż próby różnych sztuczek z kompresją czy konwersją, bo filtr działa selektywnie i nie zniekształca reszty nagrania. Filtrowanie jest zgodne z dobrymi praktykami branżowymi – praktycznie każdy realizator dźwięku w studiu czy na scenie sięga w pierwszej kolejności właśnie po filtry, żeby pozbyć się tego typu zakłóceń, zanim zacznie cokolwiek innego robić z materiałem. Dobrze dobrany filtr to podstawa czystego brzmienia – warto się tego nauczyć i nie bać się eksperymentować z ustawieniami, bo czasem nawet minimalna zmiana szerokości filtra robi dużą różnicę w jakości.