Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 29 kwietnia 2026 16:01
  • Data zakończenia: 29 kwietnia 2026 16:07

Egzamin zdany!

Wynik: 36/40 punktów (90,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ćwierćnucie.
B. sekundzie.
C. ramce.
D. milisekundzie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 2

Wskaż rozszerzenie pliku zawierającego ścieżki audio i video.

A. *.mp4
B. *.mp3
C. *.m4a
D. *.m4p
Rozszerzenie *.mp4 to obecnie jeden z najpopularniejszych formatów plików, które pozwalają na przechowywanie zarówno ścieżki wideo, jak i audio w jednym pliku. Jest to standard określony przez MPEG-4 Part 14 i używany praktycznie wszędzie – od smartfonów, przez YouTube, aż po profesjonalne kamery czy montaż materiałów filmowych. Moim zdaniem, trudno znaleźć bardziej uniwersalny format, bo obsługiwany jest właściwie na każdym sprzęcie czy systemie operacyjnym, bez konieczności instalowania dodatkowych kodeków. Oprócz obrazu i dźwięku, plik MP4 może zawierać też napisy, menu, czy inne dane (np. rozdziały). To powoduje, że jest bardzo elastyczny w zastosowaniach, zarówno domowych, jak i komercyjnych. Warto wiedzieć, że w branży IT i multimediów korzystanie z formatu *.mp4 jest standardem, bo zapewnia dobrą jakość przy stosunkowo małym rozmiarze pliku, dzięki efektywnej kompresji (najczęściej H.264/AAC). Przykładowo, gdy eksportujesz film z programów typu Adobe Premiere czy DaVinci Resolve, domyślnie masz MP4 jako główną opcję. W praktyce – jeżeli masz plik .mp4, możesz być niemal pewien, że zawiera on zarówno dźwięk, jak i obraz, co jest kluczowe np. przy prezentacjach, nagraniach lekcji czy udostępnianiu materiałów wideo online.

Pytanie 3

Które z wymienionych oznaczeń w systemie dźwięku wielokanałowego odnosi się do odtwarzania dźwięku w formacie stereo, bez kanału subbasowego?

A. 2.0
B. 1.1
C. 2.1
D. 2.2
Oznaczenie 2.0 w systemach dźwięku wielokanałowego to klasyczny układ stereo, czyli dwa pełnopasmowe kanały – lewy oraz prawy – bez dodatkowego kanału niskotonowego (subbasowego). To właśnie ten format jest najczęściej spotykany w muzyce, filmach czy grach, gdzie nie ma potrzeby podkreślania najniższych częstotliwości za pomocą osobnego głośnika. W praktyce, większość zestawów komputerowych, telewizorów czy nawet prostych amplitunerów pracuje natywnie w trybie 2.0, bo to najprostsze i najbardziej uniwersalne rozwiązanie. Moim zdaniem, zrozumienie tego schematu to absolutna podstawa, bo często ludzie mylą 2.0 z 2.1 lub uważają, że każde stereo „musi mieć subwoofer” – co jest kompletną nieprawdą. Według oficjalnych standardów branżowych (np. Dolby czy DTS), pierwszy numer oznacza ilość kanałów pełnopasmowych, a druga cyfra – kanały niskotonowe. Stąd 2.0 to tylko dwa szerokopasmowe głośniki i nic poza tym. Warto zauważyć, że 2.0 jest wykorzystywane nie tylko w prostych systemach, ale także w profesjonalnej produkcji muzycznej, gdzie neutralność i precyzja odtwarzania są kluczowe. Z mojego punktu widzenia, jeśli zależy Ci na czystym, nieprzekoloryzowanym dźwięku, to stereo 2.0 w zupełności wystarcza do większości zastosowań – zwłaszcza tam, gdzie niskie tony nie są priorytetem.

Pytanie 4

Uzyskanie dynamiki dźwięku o wartości 192 dB możliwe jest przy rozdzielczości przetwarzania wynoszącej

A. 32 bity.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
Dobrze wybrana odpowiedź – 32 bity to realnie konieczna rozdzielczość, by osiągnąć zakres dynamiki aż 192 dB. Wynika to z podstawowych wzorów dotyczących przetwarzania sygnałów analogowo-cyfrowych. Teoretycznie, jedna liczba bitowa daje nam około 6,02 dB dynamiki, więc przy 32 bitach mamy ponad 192 dB (dokładniej: 32 × 6,02 ≈ 192,64 dB). W praktyce taki zakres dynamiki znacznie przekracza potrzeby i możliwości percepcyjne człowieka, bo nawet najcichsze i najgłośniejsze dźwięki, które słyszymy, mieszczą się w dużo węższym przedziale – około 120 dB. Jednak sprzęt studyjny klasy high-end, rozwiązania DAW czy formaty typu floating point 32-bit stosuje się tam, gdzie istotna jest pełna swoboda obróbki sygnału, np. w profesjonalnej produkcji muzycznej, masteringu czy archiwizacji dźwięku bez strat jakości. Takie podejście pozwala na zaawansowaną edycję bez ryzyka powstawania zniekształceń czy utraty subtelnych niuansów. Z mojego doświadczenia, nawet jeśli nie zawsze wykorzystamy całe 32 bity w końcowym pliku, to podczas pracy nad nagraniem lepiej mieć ten zapas, bo zabezpiecza to przed tzw. clippingiem oraz utratą informacji. W sumie, 32 bity to już takie „all inclusive” dla zawodowców, a te 192 dB to wartość czysto teoretyczna, ale ważna w kontekście norm ISO i AES, które opisują wymagania dla konwersji sygnałów audio na najwyższym poziomie.

Pytanie 5

Która z wymienionych operacji powoduje redukcję rozpiętości dynamicznej nagrania?

A. Zwiększenie częstotliwości próbkowania.
B. Zmniejszenie rozdzielczości bitowej.
C. Zwiększenie rozdzielczości bitowej.
D. Zmniejszenie częstotliwości próbkowania.
Zmniejszenie rozdzielczości bitowej naprawdę wpływa na rozpiętość dynamiczną nagrania, bo to właśnie głębia bitowa decyduje o tym, jak dokładnie można oddać najcichsze i najgłośniejsze fragmenty sygnału audio. Im mniej bitów, tym zakres dynamiki maleje – czyli różnice między cichymi a głośnymi dźwiękami są coraz bardziej „spłaszczone”. W praktyce np. w profesjonalnych nagraniach studyjnych używa się często 24 bitów, co daje bardzo dużą rozpiętość dynamiczną (aż do około 144 dB). Gdy jednak przejdziemy na 16 bitów (standard CD), to ta wartość spada do około 96 dB. Zmniejszając rozdzielczość bitową jeszcze niżej (na przykład do 8 bitów jak w starych konsolach czy komputerach), dynamika staje się wyraźnie ograniczona – słychać to jako brak subtelności w cichych dźwiękach i bardzo wyraźny szum kwantyzacji. Moim zdaniem, warto pamiętać, że dla materiałów, które mają zachować pełen zakres ekspresji i dynamiki, lepiej unikać zmniejszania głębi bitowej. W postprodukcji czy w miksowaniu często operuje się na 24 bitach i dopiero przy finalnym eksporcie zmniejsza się do 16 (o ile jest to konieczne np. dla CD). Swoją drogą, to często pomijany temat, a bardzo ważny, bo wpływa nie tylko na jakość dźwięku, ale też na komfort słuchania, szczególnie przy bardziej dynamicznej muzyce czy nagraniach koncertowych.

Pytanie 6

Do jakiej częstotliwości próbkowania należy przekonwertować nagranie z CD-Audio, aby móc pracować na dwukrotnie nadpróbkowanym pliku dźwiękowym?

A. 192 kHz
B. 96 kHz
C. 44,1 kHz
D. 88,2 kHz
Konwersja nagrania z CD-Audio, które ma standardową częstotliwość próbkowania 44,1 kHz, do dwukrotnie większej wartości – czyli 88,2 kHz – to klasyczna metoda nadpróbkowania stosowana w obróbce dźwięku, zwłaszcza w profesjonalnych studiach czy podczas remasteringu. Dwa razy większa częstotliwość próbkowania umożliwia bardziej precyzyjną obróbkę sygnału i minimalizuje błędy związane z filtracją oraz aliasingiem. Działa to na prostej zasadzie matematycznej – każda próbka dostaje dokładnie jedno nowe miejsce „pomiędzy”, co ułatwia wszelkie algorytmy przetwarzania, jak np. korekcja EQ, kompresja czy inne efekty cyfrowe. Moim zdaniem, w praktyce taka konwersja jest dużo wygodniejsza niż np. przejście na 96 kHz, bo nie trzeba wtedy bawić się z problematycznymi przeliczeniami resamplera i nie powstają artefakty związane z niedokładnościami interpolacji. W branży dźwiękowej uważa się, że nadpróbkowanie dokładnie o wielokrotność podstawowej częstotliwości (w tym wypadku x2) gwarantuje najlepszą jakość i zgodność z oryginalnym materiałem. To też podstawa do dalszego, bardziej zaawansowanego przetwarzania oraz do zachowania kompatybilności z istniejącymi narzędziami DAW czy pluginami, które „lubią” takie czyste wartości. Z mojego doświadczenia, jeśli komuś zależy na jakości, to zawsze warto postawić na 88,2 kHz zamiast kombinować z mniej intuicyjnymi wartościami.

Pytanie 7

Które z wymienionych urządzeń poszerza zakres dynamiki nagrania?

A. Crossover.
B. Ekspander.
C. Korektor.
D. Kompresor.
Ekspander to urządzenie, które rzeczywiście poszerza zakres dynamiki nagrania – czyli różnicę między najcichszymi a najgłośniejszymi fragmentami sygnału audio. W praktyce oznacza to, że przy pomocy ekspandera możemy sprawić, że ciche dźwięki staną się jeszcze cichsze, a głośne pozostaną bez zmian, co wyraźnie zwiększa kontrast i przejrzystość materiału dźwiękowego. Na przykład w studiach nagraniowych często stosuje się ekspandery do redukcji szumów tła czy zminimalizowania niepożądanych dźwięków pomiędzy frazami wokalnymi – jest to bardzo przydatne, gdy chcemy uzyskać klarowny, profesjonalny miks. Ciekawe jest to, że ekspander jest jakby odwrotnością kompresora – zamiast spłaszczać dynamikę, dodaje jej głębi i „powietrza”. Z mojego doświadczenia, używanie ekspandera wymaga pewnej wprawy, bo łatwo przesadzić i zrobić nagranie zbyt „dziurawe”, ale dobrze użyty potrafi zdziałać cuda, szczególnie w realizacji nagrań akustycznych. W branży uznaje się ekspander za narzędzie dość specjalistyczne, ale naprawdę warto je poznać i stosować tam, gdzie zależy nam na naturalności oraz wyrazistej dynamice. Właśnie takie podejście do obróbki dynamicznej materiału jest zgodne z profesjonalnymi standardami produkcji audio.

Pytanie 8

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Audio File Type
B. Sample Rate
C. Bit Resolution
D. Channels
Częstotliwość próbkowania (Sample Rate) to taka cecha pliku dźwiękowego, która właściwie decyduje, ile razy na sekundę DAW rejestruje próbkę sygnału audio. W praktyce na przykład, plik z sample rate 44,1 kHz zawiera 44 100 próbek dźwięku na każdą sekundę. To jest właśnie ten parametr, który ma kluczowe znaczenie dla jakości nagrania, szczególnie jeśli chodzi o pasmo przenoszenia. Im wyższy sample rate, tym więcej szczegółów dźwiękowych można zachować, ale też plik jest cięższy i obciąża komputer podczas pracy. Branżowym standardem w muzyce jest 44,1 kHz, natomiast w produkcji filmowej często używa się 48 kHz lub nawet wyższych wartości typu 96 kHz. Moim zdaniem, dobrze rozumieć to od podstaw, bo kiedy zaczynasz miksować materiały z różnymi częstotliwościami próbkowania, mogą pojawić się różne nieprzyjemne sytuacje – od degradacji jakości po problemy z synchronizacją. Sample Rate nie tylko wpływa na jakość, ale też na kompatybilność z innym sprzętem i oprogramowaniem. Dla mnie, jeśli ktoś planuje profesjonalną pracę z dźwiękiem, umiejętność świadomego wyboru i konwersji sample rate to absolutna podstawa. Warto pamiętać, żeby w projekcie DAW wszystkie materiały miały tę samą częstotliwość próbkowania – to ułatwia życie i minimalizuje błędy.

Pytanie 9

Ile razy wzrost odbieranej słuchem głośności dźwięku zostanie spowodowany zwiększeniem poziomu sygnału o 10 dB?

A. Trzykrotny.
B. Pięciokrotny.
C. Dwukrotny.
D. Czterokrotny.
Wzrost poziomu sygnału o 10 dB jest w akustyce uważany za taki, który odpowiada mniej więcej podwojeniu subiektywnie odczuwanej głośności przez człowieka. To wynika z właściwości ludzkiego słuchu – reagujemy logarytmicznie na zmiany natężenia dźwięku, a nie liniowo. Ta zasada jest szeroko stosowana w branży audio, przy projektowaniu sprzętu nagłośnieniowego, systemów alarmowych czy chociażby przy kalibracji studiów nagraniowych. Przykład praktyczny? Jeżeli ustawisz jeden głośnik na 70 dB SPL, a drugi na 80 dB SPL, ten drugi będzie wydawał się mniej więcej dwa razy głośniejszy. W mojej praktyce wielokrotnie spotykałem się z tym, że ludzie nie doceniają, jak powolny jest przyrost subiektywnej głośności, bo 10 dB to wcale nie jest jakaś ogromna różnica, jeśli chodzi o moc sygnału – to jest jej dziesięciokrotny wzrost! Jednak dopiero nasze uszy odbierają to jako dwa razy głośniej. Takie podejście znajdziesz choćby w normach ISO 226 czy zaleceniach EBU dotyczących emisji sygnałów audio. Warto zapamiętać tę zasadę, bo pozwala lepiej ustawiać poziomy w miksie, uniknąć niepotrzebnego przesterowania czy zbyt głośnych reklam – a jednocześnie zrozumieć, dlaczego czasami użytkownikom wydaje się, że podkręcenie głośności nie daje tak dużego efektu, jak oczekiwali. Ogólnie, dobre praktyki nakazują ostrożność przy manipulowaniu poziomami dźwięku – zwłaszcza, że różne osoby mogą też trochę różnie odbierać te zmiany, ale reguła 10 dB = 2x głośniej działa naprawdę nieźle w większości przypadków.

Pytanie 10

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 64 kb/s (24 kHz)
B. 320 kb/s (48 kHz)
C. 32 kb/s (12 kHz)
D. 256 kb/s (48 kHz)
Parametry 320 kb/s i 48 kHz to obecnie praktycznie najwyższy poziom jakości, jaki można uzyskać w formacie MP3. Im wyższy bitrate, tym więcej danych na sekundę przeznaczonych jest na odwzorowanie dźwięku, dzięki czemu mniej informacji zostaje utraconych podczas kompresji stratnej. 320 kb/s to granica, powyżej której już nie uzyska się lepszej jakości dźwięku w tym standardzie – tak to po prostu działa, bo sam MP3 na więcej nie pozwala. Częstotliwość próbkowania 48 kHz jest też bardzo istotna – to właśnie ona decyduje o tym, jak szerokie spektrum częstotliwości zostanie zapamiętane (czyli ile szczegółów zachowa się w wysokich tonach). Co ciekawe, 48 kHz jest często spotykana w branży filmowej oraz profesjonalnej postprodukcji audio, a 44,1 kHz to bardziej standard płyt CD. Z mojego doświadczenia, jeśli komuś zależy na możliwie najlepszym brzmieniu w plikach MP3 – np. do archiwizacji kolekcji muzyki, przygotowania podkładów pod filmy czy po prostu dla własnej satysfakcji słuchowej – to właśnie te parametry będą optymalne. Oczywiście, są formaty lepsze: FLAC czy WAV, ale wtedy nie mówimy już o MP3. Warto pamiętać, że ustawianie niższego bitrate'u albo niższego próbkowania to zawsze kompromis – oszczędność miejsca kosztem jakości. Generalnie, jeśli nie ogranicza Cię pojemność dysku czy transfer, stawiaj zawsze na 320 kb/s i 48 kHz, bo to jest dobry standard nawet wśród profesjonalistów.

Pytanie 11

Jaką długość będzie posiadał materiał dźwiękowy zapisany do pliku w formacie CD-Audio o rozmiarze 172 kB?

A. 1 sekundę.
B. 10 sekund.
C. 60 sekund.
D. 120 sekund.
W formacie CD-Audio obowiązuje bardzo konkretny standard zapisu – jest to 16 bitów (czyli 2 bajty) na próbkę, dwukanałowy dźwięk (stereo), a częstotliwość próbkowania wynosi 44,1 kHz. Oznacza to, że w ciągu jednej sekundy nagrania zapisanej w „jakości płytowej” trzeba zapisać 44 100 próbek na każdy kanał, czyli łącznie 44 100 x 2 = 88 200 próbek, a każda z nich ma 2 bajty. Całkowita liczba bajtów na sekundę to więc 88 200 x 2 = 176 400 bajtów, czyli ok. 172 KB (zakładając zaokrąglenie do najbliższego tysiąca). To właśnie dlatego plik o rozmiarze 172 kB odpowiada jednej sekundzie dźwięku w jakości CD-Audio – format ten jest bardzo „zasobożerny”, zwłaszcza w porównaniu do kompresowanych MP3 czy AAC, gdzie jedna sekunda może zajmować kilkanaście lub kilkadziesiąt razy mniej miejsca. Moim zdaniem warto to zapamiętać, bo w praktyce (np. przy ripowaniu płyt czy pracy ze stacjonarnymi rejestratorami) takie wyliczenia pozwalają od razu ocenić, czy mamy wystarczająco dużo miejsca na dysku. Branżowe standardy, takie jak Red Book Audio, jasno to definiują – 1 sekunda to około 172 kB przy 44,1 kHz/16 bit/stereo, bez żadnej kompresji. Czasem, przy analizie plików lub konwersji do innych formatów, możesz się spotkać z innymi wartościami, ale to już będzie wynikać z zastosowanej kompresji lub zmiany parametrów próbkowania.

Pytanie 12

Który format należy wybrać przy eksporcie gotowego materiału dźwiękowego, aby utworzyć master dla tłoczni płyt CD?

A. IMG
B. DDP
C. MDS
D. NRG
DDP, czyli Disc Description Protocol, to od lat uznawany standard w branży fonograficznej do przekazywania gotowego materiału audio do tłoczni płyt CD. To nie jest zwykły format audio, tylko specjalny zestaw plików opisujących dokładnie zawartość płyty – ścieżki, indeksy, kody ISRC, CD-Text i inne metadane, które są bardzo ważne przy profesjonalnej produkcji. Tłocznie CD praktycznie zawsze wymagają masterów w formacie DDP, bo gwarantuje to integralność danych i minimalizuje ryzyko błędów podczas tłoczenia. Moim zdaniem, jeśli ktoś poważnie myśli o wydawaniu muzyki na CD, nie ma sensu kombinować z innymi formatami – DDP jest bezpieczny, uniwersalny i obsługiwany przez wszystkie profesjonalne systemy. Przykładowo, większość programów do masteringu, jak Wavelab czy HOFA, pozwala bez problemu tworzyć paczki DDP, w których są nawet sumy kontrolne plików. Dzięki temu tłocznia może zweryfikować, czy nic się nie uszkodziło w trakcie przesyłki. Dodatkowa zaleta to obsługa wszystkich nowoczesnych funkcji płyt CD, jak PQ Codes czy CD-Text. Jeżeli ktoś jeszcze korzysta z płyt fizycznych, to naprawdę warto dobrze ogarnąć DDP i nie próbować oddawać mastera w formatach przeznaczonych do czegoś zupełnie innego.

Pytanie 13

Którego ze złącz zewnętrznego procesora dźwięku należy użyć, w celu przesłania cyfrowego sygnału audio do montowanej sesji dźwiękowej?

A. USB TO HOST
B. MIDI OUT
C. AES/EBU OUT
D. WORLD CLOCK OUT
W technice audio łatwo się pogubić w gąszczu różnych złącz i protokołów, bo każde z nich ma swoje konkretne zastosowania, a czasem nazwy potrafią być mylące. MIDI OUT, choć często kojarzony ze sprzętem muzycznym, w rzeczywistości służy jedynie do przesyłania komunikatów sterujących, takich jak nuty, kontrola parametrów czy synchronizacja urządzeń – zupełnie nie nadaje się do transmisji sygnału audio, tym bardziej cyfrowego. To typowy błąd początkujących, mylenie MIDI z przesyłem dźwięku; niestety, przez MIDI nie prześlemy ani jednej próbki dźwięku, tylko „rozkazy” dla syntezatorów czy efektów. USB TO HOST z kolei jest bardzo popularnym złączem w nowoczesnych klawiaturach sterujących i niektórych interfejsach audio, ale jego głównym zadaniem jest połączenie urządzenia z komputerem w celu transferu danych (np. MIDI lub cyfrowego audio, zależnie od urządzenia). Co prawda, przez USB można przesyłać dźwięk cyfrowy, ale w kontekście profesjonalnych procesorów dźwięku i montażu sesji w środowisku studyjnym, USB nie daje tej stabilności i kompatybilności, co typowe protokoły studyjne jak AES/EBU czy S/PDIF. USB bywa zawodne przy większych projektach, a czasem ma ograniczenia sprzętowe lub sterownikowe. WORLD CLOCK OUT natomiast to zupełnie inna bajka – to złącze odpowiada tylko za synchronizację zegarów cyfrowych pomiędzy urządzeniami audio, żeby nie było problemów z jitterem czy rozjazdem sygnałów. Przez world clock nie przesyła się żadnego audio, tylko sygnał taktujący. Z mojego punktu widzenia, najczęstszym powodem pomyłek jest założenie, że każde „wyjście cyfrowe” nadaje się do przesyłu audio, a przecież w praktyce każde złącze ma swoje ściśle określone zadanie. Warto wyrobić sobie nawyk sprawdzania, jakie standardy obsługują urządzenia i do czego dane złącze realnie służy – to oszczędzi masy frustracji podczas pracy w studiu.

Pytanie 14

Proporcja głośności między lewym i prawym kanałem w stereofonicznym torze konsolety mikserskiej regulowana jest za pomocą potencjometru

A. Gain.
B. Balance.
C. Volume.
D. Send.
Odpowiedź 'Balance' jest faktycznie tą właściwą, bo to właśnie ten potencjometr, zarówno na konsoletach analogowych jak i cyfrowych, odpowiada za proporcję głośności między lewym i prawym kanałem w sygnale stereofonicznym. To narzędzie podstawowe – szczególnie kiedy miksujemy sygnały, które powinny być prawidłowo rozmieszczone w panoramie stereo, jak np. gitary, instrumenty klawiszowe czy nawet wokale w niektórych aranżacjach. Potencjometr balance pozwala swobodnie przesuwać dźwięk w stronę lewego lub prawego głośnika, co daje ogromne możliwości w kreowaniu przestrzeni w miksie. Z mojego doświadczenia – nawet niewielka korekta balance potrafi zdecydowanie poprawić separację instrumentów i ogólne wrażenie przestrzenności. W środowisku audio profesjonalnym bardzo często stosuje się tzw. panoramowanie (panning), które pozwala umieścić każdy element miksu tam, gdzie brzmi najczytelniej. Potencjometr balance działa podobnie, tylko dla sygnału stereo jako całości. Takie podejście jest zgodne z praktykami studyjnymi, gdzie właściwe ustawienie balansu pozwala uzyskać równowagę w miksie i uniknąć nieprzyjemnych przesunięć fazowych czy wrażenia „ucięcia” dźwięku w jednym kanale. Krótko mówiąc – balance to podstawa, jeśli chodzi o kontrolę proporcji kanałów w stereo.

Pytanie 15

Popularny nośnik danych stosowany w przenośnych urządzeniach do zapisu sygnałów fonicznych to

A. chmura dyskowa.
B. dysk twardy.
C. pendrive.
D. karta SD.
Odpowiedzi, które wskazują na pendrive, dysk twardy lub chmurę dyskową jako popularny nośnik do zapisu sygnałów fonicznych w przenośnych urządzeniach, wynikają często z mylenia codziennego użycia nośników danych z ich realnymi zastosowaniami w sprzęcie mobilnym. Pendrive, choć bardzo popularny przy przenoszeniu plików między komputerami, nie jest stosowany w rejestratorach dźwięku czy kamerach – przede wszystkim z powodu rozmiaru, poboru energii i słabej odporności na uszkodzenia mechaniczne. Nie widziałem jeszcze porządnego, kompaktowego dyktafonu czy rejestratora, który by miał port USB-A do włożenia pendrive'a, bo to po prostu zupełnie niepraktyczne w urządzeniach przenośnych. Dysk twardy tym bardziej nie nadaje się do takiego sprzętu – jest za duży, podatny na wstrząsy, a do tego wymaga zasilania, którego małe urządzenia po prostu nie mają. Dla dużych archiwów audio, jasne, dysk twardy jest świetny – ale nie do zapisu na bieżąco w grach terenowych czy na wywiadzie ulicznym. Chmura dyskowa to już zupełnie inna bajka – to przestrzeń online, dostępna przez internet, więc nie nadaje się jako fizyczny nośnik w urządzeniu, które musi działać niezależnie od sieci (i nie zawsze mamy stały dostęp do internetu). Częsty błąd myślowy polega tu na utożsamianiu "popularnych" nośników z tymi, które faktycznie da się stosować w sprzęcie mobilnym – a przecież w praktyce liczą się jeszcze kwestie rozmiaru, niezawodności, poboru energii i łatwej wymiany. Dlatego właśnie to karta SD – dzięki swoim właściwościom i powszechnemu wsparciu branżowemu – jest najlepszym i standardowym wyborem w przenośnym sprzęcie do nagrywania dźwięku.

Pytanie 16

Normalizacja nagrania do -3 dB powoduje, że energia najgłośniejszego dźwięku będzie mniejsza w porównaniu do wartości 0 dB

A. o 1/3.
B. o 1/2.
C. o 1/6.
D. o 1/4.
Normalizacja nagrania do -3 dB oznacza, że maksymalny poziom sygnału zostaje ustawiony na 3 decybele poniżej pełnej skali (0 dBFS). To bardzo często spotykana praktyka w produkcji audio, zwłaszcza przy przygotowaniu materiałów do dalszej obróbki czy masteringu. Warto zrozumieć, co to oznacza pod względem energii sygnału – spadek o 3 dB to dosłownie połowa mocy albo energii akustycznej. Wynika to bezpośrednio z definicji decybela – jest to skala logarytmiczna. Praktycznie rzecz biorąc, jeśli najgłośniejszy fragment nagrania miał np. 1 wat mocy przy 0 dB, po normalizacji do -3 dB będzie miał około 0,5 wata. To bardzo ważne w praktyce, bo z mojego doświadczenia większość realizatorów dźwięku zostawia sobie ten margines bezpieczeństwa, żeby uniknąć przesterowań na kolejnych etapach albo zapewnić zgodność z normami nadawczymi. Tak robi się w broadcastingu, radiu czy przy miksowaniu na platformy typu Spotify czy YouTube – tam poziomy szczytowe też rzadko kiedy są śrubowane do samego zera. Normalizacja do -3 dB to taki zdrowy kompromis między głośnością a jakością i bezpieczeństwem sygnału.

Pytanie 17

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD+R DL
B. DVD-R
C. DVD-RW
D. DVD+R
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 18

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. WAV
B. RIFF
C. MP3
D. CDA
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 19

Zastosowanie opcji Multi Mono podczas zapisu miksu sesji spowoduje zapis

A. kanałów lewego i prawego w postaci dwóch odrębnych ścieżek stereo.
B. do jednego pliku stereo.
C. kanałów lewego i prawego jako niezależne pliki audio.
D. kanałów lewego i prawego do jednego pliku mono.
Opcja Multi Mono podczas zapisu miksu sesji to bardzo praktyczne narzędzie, szczególnie jeśli pracuje się w środowisku profesjonalnym, gdzie wymagana jest późniejsza edycja każdego kanału osobno. Kiedy wybierzesz Multi Mono, DAW (np. Pro Tools) zapisuje kanał lewy i prawy jako dwa oddzielne pliki mono. To nie jest zwykły eksport stereo, tylko rozdzielenie każdego kanału, dzięki czemu masz pełną kontrolę nad każdym z nich w kolejnych etapach pracy – na przykład podczas masteringu lub przekazywania miksów do postprodukcji filmowej czy telewizyjnej. W branży audio jest to taka trochę codzienna praktyka, bo bardzo często klient lub realizator dźwięku chce mieć dostęp właśnie do pojedynczych kanałów, żeby samemu ustalić balans lub zrobić jakieś nietypowe processingi. Z moich doświadczeń wynika, że Multi Mono ratuje skórę, jak trzeba potem komuś wysłać materiał w formie, którą łatwo zaimportować do innych systemów – nie każdy DAW radzi sobie dobrze z plikami wielokanałowymi, a mono jest najbardziej uniwersalne. Warto pamiętać, że to nie to samo, co renderowanie do stereo – tu nie ma sumowania kanałów, tylko czysta separacja, zgodnie z dobrymi praktykami archiwizacji i transferów materiałów audio. Podsumowując, Multi Mono daje elastyczność i bezpieczeństwo dalszej obróbki – dlatego w profesjonalnych studiach to jeden z częstszych wyborów.

Pytanie 20

Który dokument zawiera spis sygnałów wejściowych nagrania wielośladowego?

A. Playlista.
B. Rider.
C. Layers.
D. Input List.
Dokument nazywany Input List to absolutna podstawa przy każdej poważniejszej realizacji nagrania wielośladowego, zwłaszcza na koncertach czy podczas sesji studyjnych, gdzie liczba źródeł dźwięku i kanałów wejściowych potrafi sięgnąć naprawdę sporych wartości. Input List to po prostu lista wszystkich sygnałów, które muszą trafić do miksera lub rejestratora – na przykład mikrofonów, DI-boxów czy innych źródeł. Każdy kanał jest precyzyjnie opisany: np. „Kick IN”, „Snare Top”, „Gitara L”, a często też z numerem wejścia, rodzajem mikrofonu, ewentualnie informacją o phantomie czy specjalnych wymaganiach. Z mojego doświadczenia przygotowanie solidnego Input Listu naprawdę oszczędza nerwów na etapie patchowania sceny i rozstawiania sprzętu – dokładnie wiadomo, co, gdzie i jak ma być podpięte. To trochę taki must-have w branży live i studyjnej, bo nie ma profesjonalisty, który podchodzi do pracy bez tego typu rozpiski. Co ciekawe, bardzo często Input List jest częścią ridera technicznego, ale zawsze jest oddzielnym, szczegółowym dokumentem. Dobrą praktyką jest także aktualizacja tego dokumentu w miarę zmian setupu, bo każda niespodzianka na etapie soundchecku potrafi wywrócić całą realizację do góry nogami. Warto o tym pamiętać, bo Input List to gwarancja porządku i przewidywalności w pracy dźwiękowca.

Pytanie 21

W celu wykonania kopii materiału muzycznego na płycie 3,5 cala o zapisie magnetooptycznym należy zastosować nośnik oznaczony jako

A. DVD
B. MD
C. BR
D. CD
Nośnik MD, czyli MiniDisc, to właśnie przykład płyty magnetooptycznej o średnicy 3,5 cala, która była wykorzystywana głównie do zapisu i odtwarzania materiału muzycznego. Ta technologia powstała w latach 90. XX wieku i przez pewien czas była dość popularna zwłaszcza w środowiskach profesjonalnych oraz wśród entuzjastów audio ze względu na możliwość wielokrotnego zapisu i kasowania danych. Z mojego doświadczenia, MiniDisc był czymś naprawdę przełomowym na tle innych rozwiązań wtedy dostępnych – pozwalał na szybki dostęp do nagrań, łatwe katalogowanie i stosunkowo długą żywotność w porównaniu do kaset magnetofonowych. Co ciekawe, płyta MD łączyła cechy nośników optycznych i magnetycznych: dane były zapisywane za pomocą lasera (jak w CD), ale także z wykorzystaniem pola magnetycznego, stąd określenie „magnetooptyczny”. Takie rozwiązanie dawało lepszą odporność na uszkodzenia mechaniczne i umożliwiało wielokrotne nadpisywanie danych, co było wtedy rzadkością. Moim zdaniem, choć dziś ten format jest już niszowy, z punktu widzenia archiwizacji czy szybkiego nagrywania muzyki w terenie, MiniDisc dawał niesamowitą elastyczność i prostotę obsługi. Standardy branżowe jasno definiowały ten nośnik właśnie do takich zastosowań, co można znaleźć w dokumentacji technicznej Sony oraz w historycznych zestawieniach formatów audio. W praktyce, jeśli chodzi o kopiowanie muzyki na płycie 3,5 cala o zapisie magnetooptycznym, MD pozostaje jedynym sensownym wyborem.

Pytanie 22

Którego z podanych programów należy użyć do otworzenia sesji DAW, zapisanej uprzednio z rozszerzeniem .ptx?

A. Celemony Melodyne.
B. Avid ProTools.
C. Microsoft Windows Media Player.
D. Steiberg Cubase.
Avid ProTools to właściwy wybór, jeśli chodzi o otwieranie sesji zapisanych z rozszerzeniem .ptx. Tak naprawdę to jest jedyny program, który natywnie obsługuje ten format – .ptx to typowy plik sesji właśnie dla ProTools. Z mojego doświadczenia wynika, że w środowisku profesjonalnych studiów nagraniowych to już praktycznie standard branżowy. Plik .ptx zawiera nie tylko informacje o rozmieszczeniu ścieżek, ustawieniach miksu czy efektach, ale też ścieżki automatyki, routing sygnałów, ustawienia wtyczek i inne szczegółowe dane projektu. Dzięki temu cała sesja DAW może być idealnie odtworzona na dowolnym stanowisku z ProToolsem – nie musisz się martwić o utratę szczegółów projektu. W branży audio to ogromny komfort, bo pozwala na płynną współpracę między realizatorami czy studiem i masteringowcem. Warto jeszcze wiedzieć, że próby otwierania .ptx innymi programami kończą się porażką, bo ten format nie jest publicznie udokumentowany, a producent nie umożliwia oficjalnego eksportu do konkurencyjnych DAW. W praktyce, jeśli klient dostarcza sesję w .ptx, to wiesz, że bez ProToolsa nie dasz rady jej otworzyć – taki już urok tego ekosystemu. Spotkałem się też z sytuacją, gdzie trzeba było konwertować sesję właśnie przez ProToolsa do np. formatu omf czy wav, żeby można było ją zaimportować do innego DAW, ale to już temat na inny wykład. Generalnie, jeśli masz .ptx i pracujesz z dźwiękiem profesjonalnie, to ProTools jest oczywistym wyborem.

Pytanie 23

Wskaż skrót klawiaturowy systemu Windows, który w oprogramowaniu DAW służy do wycięcia zaznaczonego fragmentu dźwięku na ścieżce.

A. Ctrl + C
B. Ctrl + V
C. Ctrl + X
D. Ctrl + Z
Skrót klawiaturowy Ctrl + X to absolutna podstawa nie tylko w środowisku Windows, ale też w wielu programach – zarówno biurowych, jak i branżowych, np. przy montażu dźwięku czy edycji MIDI. W DAW-ach (Digital Audio Workstation) wycięcie zaznaczonego fragmentu ścieżki służy szybkiemu przenoszeniu lub usuwaniu dźwięku, co jest szczególnie przydatne, gdy pracujesz na wielu warstwach czy robisz edycję na tzw. żywca, bez zbędnego przeklikiwania menu. Ctrl + X odcina wybrany fragment i od razu wrzuca go do schowka, więc można go potem wkleić gdziekolwiek indziej – w tej samej ścieżce albo zupełnie w innym miejscu projektu. Moim zdaniem, jeśli zamierzasz pracować z dźwiękiem profesjonalnie, trzeba to mieć we krwi – oszczędzasz mnóstwo czasu. Co ciekawe, wiele DAW-ów (np. FL Studio, Ableton Live, Cubase) zachowuje te skróty zgodnie ze standardami Windows, żeby użytkownik nie musiał się przestawiać. Praktyka pokazuje, że szybka nawigacja po skrótach daje ogromną przewagę, szczególnie podczas pracy nad dużymi projektami, gdzie liczy się każda sekunda i płynność edycji. Czasami, kiedy masz już świetny groove, ale coś trzeba błyskawicznie przemontować, właśnie Ctrl + X pozwala „przeciąć” ścieżkę bez utraty płynności w workflow. Z mojego doświadczenia – im szybciej opanujesz takie kluczowe skróty, tym bardziej profesjonalnie i komfortowo będzie Ci się pracowało.

Pytanie 24

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Filtrowanie.
B. Kompresja.
C. Konwersja.
D. Nadpróbkowanie.
Filtrowanie to zdecydowanie najbardziej skuteczna metoda na usunięcie przydźwięku sieci energetycznej, czyli charakterystycznego buczenia o częstotliwości 50 Hz (w Polsce i większości Europy) lub 60 Hz (w USA). W praktyce, w programach DAW najczęściej stosuje się filtr dolnoprzepustowy, górnoprzepustowy albo precyzyjnie ustawiony filtr półkowy lub notch filter (filtr szczelinowy), by celowo wyciąć konkretną częstotliwość i jej harmoniczne, bez wpływania na resztę nagrania. Z mojego doświadczenia, najefektywniejsze są właśnie filtry notch, bo potrafią bardzo wąsko zredukować uciążliwy dźwięk, nie ruszając prawie sygnału muzycznego. W branży audio przyjęło się, że przed dalszą obróbką zawsze najpierw usuwa się takie artefakty – to podstawa workflow, żeby potem nie maskować problemu, tylko faktycznie go eliminować. Warto pamiętać, że filtry można łączyć, np. wycinać 50 Hz i kolejne harmoniczne (100 Hz, 150 Hz itd.), jeśli przydźwięk jest mocny. Bardziej zaawansowane narzędzia, jak np. iZotope RX, mają nawet specjalne presety do tego. Filtrowanie jest więc nie tylko najskuteczniejsze, ale też zgodne ze standardami postprodukcji dźwięku. Moim zdaniem każdy inżynier dźwięku powinien mieć to opanowane do perfekcji – przydźwięk sieciowy to bardzo powszechny problem, a filtry są podstawowym narzędziem w jego zwalczaniu.

Pytanie 25

Który z wymienionych korektorów umożliwia automatyczne dopasowanie charakterystyki częstotliwości nagrania do nagrania wzorcowego?

A. Graphic EQ.
B. Paragraphic EQ.
C. Matching EQ.
D. Dynamic EQ.
Matching EQ to taki korektor, który w mojej opinii trochę zmienił podejście do mixu, szczególnie jak ktoś chce szybko uzyskać podobne brzmienie do jakiegoś referencyjnego utworu. Działa to na zasadzie analizy widma częstotliwościowego nagrania docelowego i porównania go z Twoim materiałem – później EQ automatycznie generuje odpowiednią krzywą korekcji, żeby Twój miks zbliżyć do wzorca. To jest mega przydatne, zwłaszcza przy masteringu, kiedy klient życzy sobie np. „żeby mój kawałek brzmiał jak nowy singiel X”. Wtedy Matching EQ jest wręcz narzędziem pierwszego wyboru, bo pozwala oszczędzić mnóstwo czasu, który normalnie poświęciłbyś na ręczne szukanie tych samych nierówności w częstotliwościach. Przykładem dobrej praktyki jest korzystanie z tej funkcji w połączeniu z własnym odsłuchem – Matching EQ powinien być punktem wyjścia, potem zawsze warto sprawdzić i ręcznie poprawić to, co komputer automatycznie „dopasował”, bo nie zawsze wszystko pasuje muzycznie czy stylistycznie. Ten rodzaj korektora jest obecny w wielu wtyczkach typu Ozone, FabFilter Pro-Q czy nawet niektórych DAW-ach. Z mojego doświadczenia wynika, że Matching EQ świetnie sprawdza się także przy naprawianiu dialogów filmowych – można ujednolicić brzmienie nagrań z różnych mikrofonów. To narzędzie nie zastępuje ucha realizatora, ale bardzo pomaga i jest zgodne z nowoczesnymi workflow w profesjonalnym audio.

Pytanie 26

Jak nazywa się dodanie do struktury pliku dźwiękowego informacji w formie tekstowej?

A. Otagowanie.
B. Oflagowanie.
C. Opisanie.
D. Oznaczenie.
Wiele osób intuicyjnie używa takich określeń jak opisanie, oznaczenie czy oflagowanie, mając w głowie, że chodzi po prostu o dołączenie jakiejś informacji do pliku dźwiękowego. Jednak w branży muzycznej i informatycznej istnieją ściśle określone pojęcia, których użycie ma znaczenie techniczne i praktyczne. Opisanie sugeruje bardziej sporządzenie ogólnej notatki lub komentarza, co nie jest tożsame z technicznym procesem zapisywania metadanych w strukturze pliku. Oznaczenie natomiast bardziej kojarzy się z identyfikacją lub nadawaniem etykiet, ale bez precyzyjnego kontekstu metadanych, przez co nie jest to termin używany w tej dziedzinie. Oflagowanie, choć brzmi fachowo, w informatyce odnosi się najczęściej do ustawiania flag – czyli bitów lub znaczników określających stan techniczny, np. czy plik jest archiwalny, czy ukryty. Nie ma to związku z przechowywaniem danych takich jak tytuł czy autor utworu. Typowym błędem jest tu mieszanie codziennego języka z terminologią techniczną – niestety, w praktyce muzycznej czy archiwizacyjnej tylko tagowanie (czyli przypisywanie tagów) pozwala na spójne, automatyczne odczytywanie danych przez oprogramowanie i sprzęt. Standardy takie jak ID3, Vorbis Comments czy APE tags zostały opracowane właśnie po to, by umożliwić przenoszenie i odczytywanie tekstowych metadanych w plikach audio praktycznie w każdym środowisku. Moim zdaniem, znajomość tego rozróżnienia bardzo ułatwia późniejszą pracę z dużymi kolekcjami muzyki – raz poprawnie otagowane pliki pozwalają zaoszczędzić mnóstwo czasu przy katalogowaniu i wyszukiwaniu. Warto więc zapamiętać, że tylko otagowanie odnosi się technicznie do tej czynności.

Pytanie 27

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 32 000 Hz
B. 96 000 Hz
C. 48 000 Hz
D. 44 100 Hz
Zasada próbkowania, czyli twierdzenie Nyquista-Shannona, mówi jasno: aby móc poprawnie zdigitalizować sygnał analogowy, musimy próbkować go z częstotliwością co najmniej dwa razy większą niż najwyższa częstotliwość w jego widmie. Przy dźwięku o maksymalnej częstotliwości 20 kHz, to właśnie 40 kHz jest tym absolutnym minimum. Jednak w praktyce, technologia audio przyjęła nieco wyższą wartość, czyli 44 100 Hz, głównie ze względu na potrzeby zapisu na płytach CD oraz rezerwę na filtry antyaliasingowe. Gdybyśmy wybrali niższą częstotliwość, mogłyby się pojawić zniekształcenia aliasingu, które potrafią solidnie namieszać szczególnie w muzyce czy nagraniach mowy, gdzie precyzja jest kluczowa. Warto też zauważyć, że 44 100 Hz to dziś taki złoty standard – spotykany właściwie wszędzie, od odtwarzania muzyki po produkcję materiałów do internetu. Z mojego doświadczenia wynika, że niższe próbkowania bardzo szybko ujawniają swoje ograniczenia, nawet laik wyczuje pogorszenie jakości dźwięku. W branży stosuje się czasem wyższe wartości, ale to już raczej dla specjalistycznych zastosowań, np. w studiach nagraniowych. Moim zdaniem, bez znajomości tej podstawowej zasady ciężko ruszyć dalej w świecie cyfrowego audio, bo każdy etap obróbki opiera się właśnie na tej logice i konsekwencjach wyboru częstotliwości próbkowania.

Pytanie 28

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Bramka szumów.
B. Ekspander.
C. Korektor tercjowy.
D. Kompresor.
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 29

Który format pliku należy wskazać jako docelowy, aby zachować jak największą ilość informacji?

A. .wav
B. .m4a
C. .mp3
D. .aac
Wybór formatu .wav jako docelowego to zdecydowanie najlepsze podejście, gdy zależy Ci na zachowaniu maksymalnej ilości informacji z pliku dźwiękowego. Format WAV jest typowym przykładem bezstratnego zapisu audio – nie stosuje on kompresji stratnej, więc oryginalny sygnał audio pozostaje nienaruszony. To sprawia, że pliki WAV są w branży audio standardem przechowywania nagrań, masterów oraz wszelkich materiałów, które jeszcze będą edytowane czy przetwarzane. Moim zdaniem, przy pracy w studiu, archiwizacji czy jakiejkolwiek dalszej obróbce – tylko „wave’y” mają sens. Warto zwrócić uwagę, że profesjonalne DAW-y i sprzęt nagraniowy domyślnie zapisują ścieżki właśnie w tym formacie. Oczywiście, WAV zajmuje dużo miejsca, więc nie jest praktycznym wyborem do odtwarzania muzyki na telefonie czy wysyłania mailem, ale jeśli priorytetem jest jakość i kompletność informacji, to nikt w „branży” nie wybierze mp3 czy m4a. Dodatkowo, WAV nie narzuca ograniczeń związanych z kodekami czy DRM, co ułatwia współpracę pomiędzy różnymi systemami. Fajnie też wiedzieć, że ze względu na swoją prostotę, format ten jest kompatybilny praktycznie wszędzie – nawet bardzo stare systemy operacyjne czy programy audio poradzą sobie z plikiem .wav bez kombinowania z dodatkowymi kodekami.

Pytanie 30

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Scenariusz.
B. Lista edycyjna.
C. Partytura.
D. Drabinka.
Partytura to taki dokument, który można śmiało nazwać instrukcją obsługi dla zespołu muzycznego albo orkiestry. Składa się z zapisów nutowych dla różnych instrumentów lub głosów – wszystko w jednym miejscu, przejrzyście rozpisane linijka po linijce. To, moim zdaniem, jeden z najważniejszych dokumentów w pracy muzyka, dyrygenta, realizatora dźwięku czy nawet kompozytora – bez partytury trudno byłoby zsynchronizować większą grupę wykonawców. Kiedy ktoś pracuje w teatrze muzycznym, studiu nagraniowym czy przy realizacji większych koncertów, taka partytura jest absolutnie niezbędna, bo pozwala ogarnąć cały utwór naraz. Z mojego doświadczenia wynika, że im precyzyjniej napiszesz partyturę, tym mniej zamieszania podczas prób i nagrań. W branży to taki złoty standard, wszyscy profesjonaliści korzystają z partytur, szczególnie gdy utwór zawiera wiele warstw instrumentalnych lub wokalnych. Dodatkowo, partytury są potrzebne do archiwizacji, pracy edytorskiej, a także przy przenoszeniu utworów na inne obsady – np. z orkiestry na zespół kameralny. To nie tylko zapis nut, ale często też tempo, dynamika, artykulacja – te wszystkie szczegóły, które sprawiają, że utwór brzmi jak należy. Bez partytury trudno mówić o profesjonalnym podejściu do muzyki zespołowej.

Pytanie 31

Który spośród podanych formatów plików dźwiękowych pozwala na zapisywanie materiału dźwiękowego z najlepszą jakością?

A. .mp3
B. .ogg
C. .aac
D. .aiff
Format pliku .aiff (Audio Interchange File Format) jest bardzo ceniony w środowisku profesjonalnym, zwłaszcza w studiach nagrań i przy produkcji muzyki. To dlatego, że .aiff zapisuje dźwięk w postaci nieskompresowanej, czyli bezstratnej, bardzo podobnie jak popularny .wav. Oznacza to, że każda próbka dźwięku jest odwzorowana dokładnie tak, jak została nagrana – nie traci się żadnych informacji, jak to bywa w formatach kompresowanych. Z mojego doświadczenia praca na plikach .aiff daje dużą swobodę przy dalszej obróbce – na przykład przy miksie albo masteringu. W branży muzycznej to wręcz standard przy pracy z wysoką jakością, bo inżynierowie dźwięku chcą mieć dostęp do pełnego pasma, wysokiej rozdzielczości i dużej głębi bitowej (np. 24 bity, 96 kHz). Co ciekawe, .aiff jest formatem rozwiniętym przez Apple, więc często spotyka się go na komputerach Mac, ale bez problemu radzą sobie z nim też inne systemy. Pliki .aiff zajmują sporo miejsca na dysku – to jedyny minus – ale dla czystej jakości nie ma chyba lepszego wyboru. Warto wiedzieć, że archiwizując nagrania czy przygotowując materiał do dalszej produkcji zawsze lepiej sięgać po formaty bezstratne, właśnie takie jak .aiff czy .wav, bo potem można na nich bazować, eksportując do bardziej skompresowanych formatów jak mp3 czy aac – oczywiście wtedy już z utratą części informacji.

Pytanie 32

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. CDA
B. RIFF
C. MP3
D. WAV
MP3 to format dźwiękowy, który od lat jest jednym z najpopularniejszych na świecie, szczególnie w kontekście przechowywania muzyki czy podcastów na urządzeniach mobilnych czy komputerach. Główną cechą MP3 jest wykorzystanie kodowania stratnego (ang. lossy compression), co oznacza, że podczas kompresji pliku część danych audio zostaje bezpowrotnie usunięta. Brzmi to może groźnie, ale w praktyce chodzi o to, żeby „wyciąć” te fragmenty dźwięku, które ludzkie ucho i tak słabo rozróżnia – np. bardzo wysokie lub bardzo niskie częstotliwości albo drobne detale maskowane przez głośniejsze dźwięki. Dzięki temu pliki MP3 są dużo mniejsze niż np. WAV czy CDA, a jakość dla większości użytkowników pozostaje akceptowalna. Moim zdaniem to właśnie ta proporcja między rozmiarem pliku a jakością dźwięku spowodowała, że MP3 stało się standardem wymiany muzyki i dźwięku w internecie. Warto jeszcze dodać, że branża muzyczna i radiofonia na całym świecie korzysta z kodowania stratnego praktycznie codziennie – to ogromna oszczędność miejsca i transferu danych, a jednocześnie możliwość szybkiej dystrybucji treści. Oczywiście, profesjonaliści w studiach nagraniowych zwykle pracują na formatach bezstratnych (jak WAV), ale do publikacji do sieci prawie zawsze korzysta się z MP3 lub innych stratnych formatów.

Pytanie 33

Którą opcję edycyjną należy zastosować w celu przycięcia regionu na ścieżce dźwiękowej do zaznaczonego fragmentu?

A. Paste
B. Trim
C. Cut
D. Separate
Wśród dostępnych opcji pojawiają się narzędzia, które na pierwszy rzut oka mogą wydawać się przydatne podczas edycji audio, ale każde z nich ma zupełnie inne zastosowanie niż przycięcie regionu do zaznaczonego fragmentu. Zacznijmy od „Cut” – to narzędzie służy przede wszystkim do wycinania zaznaczonego fragmentu i umieszczania go w schowku, co skutkuje usunięciem części materiału, ale nie ogranicza regionu do zaznaczenia; raczej powoduje powstanie pustego miejsca. W praktyce bywa to mylące, bo ktoś może pomyśleć, że wystarczy zaznaczyć fragment i wyciąć, ale wtedy cały region zostaje przerwany, a nie przycięty do rozmiaru selekcji. „Paste” działa w drugą stronę – pozwala wkleić materiał ze schowka, co kompletnie nie dotyczy redukowania rozmiaru regionu; to raczej funkcja przywracania lub przenoszenia dźwięków między ścieżkami i projektami. Z kolei „Separate” (czasem nazywane też „Split” w niektórych DAW-ach) dzieli region w miejscu zaznaczenia, fragmentując go na dwie lub więcej części, ale nie obcina automatycznie niepotrzebnych fragmentów – musisz później samemu usuwać niechciane kawałki i przesuwać resztę, co jest czasochłonne i generuje ryzyko nieporządku na ścieżce. Takie podejście bywa kłopotliwe zwłaszcza przy pracy na dużych projektach, gdzie łatwo się pogubić w nadmiarze krótkich klipów. Typowym błędem myślowym przy tych narzędziach jest założenie, że każda opcja edycyjna zadziała podobnie, wystarczy tylko zaznaczyć fragment – a w rzeczywistości tylko „Trim” automatycznie dopasowuje region do granic selekcji, zgodnie z branżowymi standardami efektywnej edycji audio. Warto pamiętać, że większość profesjonalistów korzysta właśnie z tej funkcji, żeby uniknąć niepotrzebnych, dodatkowych kroków i utrzymać porządek w projekcie.

Pytanie 34

Charakterystyczne punkty na osi czasu w sesji oprogramowania DAW oznaczyć można za pomocą

A. punktorów.
B. znaczników.
C. taktów.
D. tagów.
To właśnie znaczniki są podstawowym narzędziem do oznaczania charakterystycznych punktów na osi czasu w sesji DAW (Digital Audio Workstation). W praktyce, znaczniki pozwalają szybko zaznaczyć istotne fragmenty projektu, np. wejścia refrenu, przejścia między zwrotkami czy miejsca do edycji, bez konieczności przewijania całej sesji. Moim zdaniem, korzystanie ze znaczników to rzecz absolutnie niezbędna nie tylko przy większych produkcjach, ale nawet przy prostych projektach – szukanie danego miejsca w długim nagraniu bez znaczników to istna katorga. Profesjonaliści zawsze polecają, żeby już na etapie nagrywania czy aranżowania umieszczać znaczniki wszędzie tam, gdzie pojawia się coś wartego uwagi: zmiana tempa, wejście nowego instrumentu, a nawet wskazówki dla miksu („tu zrobić fade-out”, „tutaj rozbić wokal na stereo”). Większość DAW-ów, jak Ableton Live, Cubase, FL Studio czy Pro Tools, domyślnie wspiera funkcję znaczników (ang. markerów), bo to już standard branżowy. Umożliwia to sprawną komunikację w zespole oraz pozwala zachować porządek w projekcie, co później bardzo przyspiesza wszelkie poprawki i edycje. Szczerze, nie znam praktyka, który by ignorował znaczniki – to taki must-have w codziennej pracy z DAW.

Pytanie 35

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. HPF
B. LF
C. BPF
D. LPF
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 36

Kopię bezpieczeństwa materiału dźwiękowego sporządza się

A. z niższą rozdzielczością.
B. z niższą częstotliwością.
C. w źródłowych parametrach.
D. z wyższą rozdzielczością.
Kopia bezpieczeństwa materiału dźwiękowego powinna zawsze być tworzona w tych samych, źródłowych parametrach, co oryginał. To jest taka podstawowa zasada w branży audio, o której czasami niestety się zapomina. Jeśli zapiszesz plik z obniżoną jakością – na przykład zmniejszysz rozdzielczość bitową lub częstotliwość próbkowania – to nie zrobisz prawdziwej kopii bezpieczeństwa, tylko stworzysz nową, gorszą wersję. A w razie awarii nie odzyskasz pełnej jakości oryginału. Moim zdaniem to trochę jakby robić ksero ważnego dokumentu na rozmazanym papierze – formalnie jest kopia, ale po co taka, z której nie da się nic odczytać? Profesjonalne studia nagraniowe, archiwa radiowe i wszyscy, którzy na poważnie zajmują się dźwiękiem, zawsze archiwizują materiał w parametrach źródłowych. Przykładowo, jeśli oryginalny plik to WAV 48kHz/24bit, backup też musi być dokładnie taki sam, bez żadnej kompresji stratnej czy downgrade'u parametrów. Taką praktykę wymuszają też często wymogi prawne i standardy branżowe, np. zalecenia Międzynarodowej Federacji Przemysłu Fonograficznego (IFPI) czy EBU (European Broadcasting Union). Dodatkowo, mając kopię bezpieczeństwa w oryginalnych parametrach, zawsze możesz wrócić do dowolnej edycji, remasteringu lub konwersji bez ryzyka degradacji jakości. Osobiście uważam, że to jest rozwiązanie, które daje spokój ducha i pewność, że chronisz nie tylko dane, ale też ich wartość artystyczną i użytkową.

Pytanie 37

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 8 bitów.
B. 16 bitów.
C. 24 bity.
D. 32 bity.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 38

Które ze wskazań licznika BARS/BEATS w sesji oprogramowania DAW wskazuje dokładny czas początku kolejnej miary w takcie?

A. 2|3|240
B. 3|4|350
C. 1|2|000
D. 4|2|400
Wskazanie 1|2|000 jest prawidłowe, bo właśnie taki zapis w liczniku BARS/BEATS w DAW odnosi się bezpośrednio do początku nowej miary w takcie. Pierwsza cyfra, czyli „1”, oznacza numer taktu, druga „2” – numer miary (czyli beatu) w tym takcie, a ostatnia, trzecia grupa „000”, oznacza zerowy tick, czyli początek tej miary. W praktyce – jeśli pracujesz np. w Cubase, Logic Pro czy Abletonie – to dokładnie taki zapis pojawia się, gdy kursor transportu znajduje się na starcie drugiej miary w pierwszym takcie. To podstawowy punkt odniesienia, od którego zaczynamy kwantyzację, ustawianie loopów czy wklejanie regionów MIDI/audio, żeby wszystko leżało równo w siatce. Jest to zgodne ze standardem metrycznym, gdzie każdy beat w takcie DAW zaczyna się od ticka „000”. Takie podejście pozwala na precyzyjne edytowanie i gwarantuje powtarzalność, co jest mega ważne przy produkcji muzycznej, szczególnie elektronicznej. Moim zdaniem, jeśli ogarniesz jak czytać licznik BARS/BEATS, dużo łatwiej pracuje się z automatyzacją czy synchronizacją różnych ścieżek. Warto pamiętać o tym, że np. w większości DAW przesunięcie nawet o jeden tick potrafi zmienić groove całej frazy – więc korzystaj zawsze z tych dokładnych pozycji.

Pytanie 39

Bezpośredni odczyt danych z karty SD odbywa się za pomocą

A. gniazda USB.
B. czytnika kart flash.
C. złącza Thunderbolt.
D. portu Fire Wire.
Bezpośredni odczyt danych z karty SD faktycznie realizuje się przy użyciu czytnika kart flash. To jest takie małe urządzenie, które wbudowane bywa w laptopy albo podłączane na USB. Taki czytnik umożliwia fizyczne włożenie karty SD i zapewnia komunikację pomiędzy komputerem a samą kartą pamięci. To rozwiązanie jest zdecydowanie najpowszechniej stosowane zarówno w środowisku domowym, jak i profesjonalnym, np. w fotografii, gdy trzeba szybko zrzucić zdjęcia z aparatu na komputer. Co ciekawe, czytniki kart flash obsługują zwykle różne standardy kart, np. SD, microSD, CompactFlash, czasem nawet xD Picture Card, więc są dość uniwersalne. Sama technologia czytnika kart wynika z potrzeby bezpośredniego i szybkiego dostępu do danych, bez konieczności używania dodatkowych urządzeń pośredniczących, jak aparat czy kamera. W branży przyjęło się, że czytniki powinny wspierać standardy UHS-I, UHS-II lub wyższe, żeby zapewnić odpowiednio wysoką przepustowość – to ważne, jeśli np. pracuje się z materiałami wideo w wysokiej rozdzielczości. Moim zdaniem warto pamiętać, że bezpośredni odczyt przez czytnik kart to po prostu najwygodniejsze rozwiązanie, bo nie wymaga żadnych dodatkowych kabli czy sterowników, wystarczy odpowiedni port lub zewnętrzny czytnik na USB.

Pytanie 40

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. liczby grup ścieżek w sesji.
B. częstotliwości próbkowania sygnału w sesji.
C. koloru ścieżek w sesji.
D. kształtu fade in i fade out w sesji.
Częstotliwość próbkowania sygnału w sesji to absolutnie kluczowy parametr, który ustalamy na samym początku, przy tworzeniu nowej sesji w DAW. To od niej zależy, jak szczegółowo dźwięki będą zapisywane i odtwarzane – im wyższa wartość, tym więcej informacji o sygnale jest przechowywane i tym lepsza jakość dźwięku (a przynajmniej w teorii, bo w praktyce czasem bywa różnie). Najczęściej spotykane częstotliwości to 44,1 kHz (standard CD), 48 kHz (audio do wideo) oraz wyższe, np. 96 kHz czy nawet 192 kHz w zastosowaniach profesjonalnych. Wybranie odpowiedniej wartości od razu jest mega ważne, bo późniejsza zmiana podczas pracy nad projektem może prowadzić do problemów z konwersją materiału, stratą jakości albo komplikacjami z kompatybilnością. Moim zdaniem najlepiej od razu wiedzieć, do czego będzie używana sesja – jeśli nagrywasz muzykę na streaming lub płytę CD, spokojnie wystarczy 44,1 kHz. Ale jeśli pracujesz z filmem albo bardzo złożonymi realizacjami, warto rozważyć 48 kHz lub więcej. Profesjonaliści zawsze planują to z wyprzedzeniem, bo późniejsze kombinacje z konwersją mogą być uciążliwe i niepotrzebnie komplikować życie. Wybór częstotliwości próbkowania na starcie jest zgodny z dobrą praktyką branżową i praktycznie każdy poważny DAW pyta o to przy zakładaniu nowej sesji. Także to jest naprawdę podstawowy parametr i trzeba o nim pamiętać zawsze!