Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 2 maja 2026 17:23
  • Data zakończenia: 2 maja 2026 17:28

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Które parametry pliku mp3 należy wybrać, aby uzyskać dźwięk o najwyższej jakości?

A. 32 kb/s (12 kHz)
B. 64 kb/s (24 kHz)
C. 256 kb/s (48 kHz)
D. 320 kb/s (48 kHz)
Wybór parametrów 320 kb/s (48 kHz) faktycznie zapewnia najwyższą możliwą jakość dźwięku w formacie mp3, zgodnie z obecnymi standardami branżowymi. Im wyższy bitrate, tym więcej danych o dźwięku jest przechowywanych w pliku, co przekłada się na mniejsze straty kompresji i naturalniejsze brzmienie. 320 kb/s to maksymalny bitrate przewidziany dla mp3 i szczerze mówiąc, różnica pomiędzy tym a niższymi przepływnościami jest bardzo wyraźna zwłaszcza na wysokiej klasy sprzęcie audio czy przy odsłuchu muzyki orkiestrowej, gdzie szczegóły i dynamika mają ogromne znaczenie. Częstotliwość próbkowania 48 kHz jest natomiast standardem np. w produkcji filmowej czy telewizyjnej i pozwala wierniej odtworzyć wysokie częstotliwości dźwięku – po prostu mniej się traci podczas konwersji, szczególnie jeśli źródło też było nagrywane w tej częstotliwości. Moim zdaniem to jest szczególnie istotne tam, gdzie komuś zależy na archiwizowaniu lub profesjonalnym wykorzystaniu materiału audio. Oczywiście dla zwykłego słuchania w samochodzie czy na telefonie czasem nie ma sensu przesadzać z wysokim bitrate, ale do zastosowań profesjonalnych lub gdy zależy nam na jak najmniejszych zniekształceniach, 320 kb/s (48 kHz) to zdecydowanie najlepszy wybór. Warto wiedzieć, że niższe bitrate często powodują tzw. artefakty kompresji, szczególnie słyszalne w cichych fragmentach utworów lub przy złożonych dźwiękach. Z mojego doświadczenia – lepiej mieć pliki trochę większe, ale bez kompromisów na jakości.

Pytanie 2

Które z wymienionych oprogramowań DAW umożliwia zaawansowaną edycję ścieżek dźwiękowych, bez możliwości łączenia ich ze ścieżkami MIDI?

A. Cubase
B. Sonar
C. Logic Pro
D. Wavelab
Odpowiedź Wavelab jest tutaj najbardziej trafna, bo to oprogramowanie stricte do edycji i masteringu audio – bez pełnego wsparcia warstwy MIDI, której na przykład nie obsłużysz tutaj nawet gdybyś chciał. Wavelab od lat jest wykorzystywany głównie przez inżynierów dźwięku, realizatorów i producentów do pracy z materiałem dźwiękowym typu stereo lub wielokanałowym, ale tylko w formie audio. Moim zdaniem, jeśli ktoś zamierza skupić się na masteringu, restauracji nagrań albo precyzyjnej edycji ścieżek dźwiękowych, Wavelab jest jednym z takich branżowych standardów, które rzeczywiście się do tego nadają. Fajne jest to, że masz mnóstwo narzędzi do korekcji, kompresji, cięcia, nakładania efektów czy mierzenia parametrów audio, ale żadnej możliwości sekwencjonowania czy aranżowania MIDI. To spora różnica w porównaniu do klasycznych DAW-ów typu Cubase czy Logic Pro, gdzie MIDI to podstawa. Z mojego doświadczenia wynika, że osoby pracujące typowo z dźwiękiem, np. przy postprodukcji do filmów czy radiu, bardzo często wybierają właśnie WaveLaba, bo tam MIDI po prostu jest zbędne. To dobrze pokazuje różnicę między narzędziami typowo do obróbki audio a typowymi „pełnymi” DAW-ami, które obsługują zarówno ścieżki audio, jak i MIDI.

Pytanie 3

W które z wymienionych złącz standardowo zaopatrzony jest kabel optyczny w standardzie ADAT Lightpipe?

A. BNC
B. DIN
C. TDIF
D. TOSLINK
Standard ADAT Lightpipe zawsze wykorzystuje złącze TOSLINK – to chyba najbardziej charakterystyczny element tego protokołu. TOSLINK to rodzaj optycznego złącza, które najczęściej kojarzy się z przesyłem sygnału audio cyfrowego w domowym sprzęcie Hi-Fi, ale w profesjonalnych zastosowaniach studyjnych właśnie dzięki ADAT zyskał ogromną popularność. Sam protokół ADAT jest wykorzystywany do przesyłania wielokanałowego sygnału audio (do ośmiu kanałów przy próbkowaniu 48 kHz) między interfejsami audio, mikserami cyfrowymi czy przetwornikami A/D i D/A. Złącze TOSLINK pozwala na bezstratny transfer sygnału – nie tylko z punktu widzenia jakości, ale też daje odporność na zakłócenia elektromagnetyczne, bo sygnał idzie światłowodem, a nie przez miedź. Szczerze mówiąc, spotkanie innego typu złącza w kontekście ADAT wydaje się wręcz niemożliwe. Z mojego doświadczenia, praktycznie każdy współczesny przetwornik wielokanałowy czy interfejs audio wyposażony w ADAT ma właśnie porty TOSLINK, czasem nawet kilka. To rozwiązanie jest wygodne, szeroko dostępne i po prostu sprawdzone w branży, zarówno w małych domowych studiach, jak i dużych realizacjach live czy broadcast.

Pytanie 4

Który z wymienionych parametrów korektora barwy wpływa na szerokość filtrowanego pasma częstotliwości?

A. Gain
B. Frequency
C. Output
D. Q
Parametr Q to kluczowa rzecz, jeśli chodzi o korektory barwy, szczególnie te parametryczne. Q, czyli tzw. dobroć filtra, bezpośrednio decyduje o szerokości pasma częstotliwości, które jest poddawane regulacji – im wyższa wartość Q, tym węższy zakres, który zmieniamy, natomiast niska wartość Q rozszerza wpływ korektora na szersze pasmo. To bardzo praktyczne, bo pozwala „wycinać” lub podbijać bardzo konkretne częstotliwości bez naruszania reszty sygnału. W branży audio, np. podczas miksowania nagrań czy przy pracy live na scenie, umiejętne operowanie parametrem Q jest wręcz niezbędne. Pozwala precyzyjnie eliminować niechciane dźwięki jak np. brumienie lub sybilanty, nie zabierając przy tym charakteru reszcie miksu. Moim zdaniem, każdy kto poważnie myśli o pracy z dźwiękiem, powinien trochę poeksperymentować z Q i zobaczyć, jak diametralnie zmienia się brzmienie, gdy operujemy tym właśnie parametrem. To jedno z tych ustawień, które rozdzielają zwykłe filtry od profesjonalnych narzędzi do kształtowania dźwięku. Warto też wiedzieć, że w standardach branżowych, jak choćby w korektorach graficznych i półparametrycznych, parametr Q jest często predefiniowany, a w tych w pełni parametrycznych można go swobodnie ustawiać. Dlatego Q to podstawa w precyzyjnej korekcji barwy.

Pytanie 5

Czas trwania jednej ćwierćnuty w takcie o metrum 4/4 i tempie 120 BPM wynosi

A. 400 ms
B. 300 ms
C. 200 ms
D. 500 ms
Ćwierćnuta w metrum 4/4 przy tempie 120 BPM trwa dokładnie 500 milisekund, co można łatwo policzyć: tempo 120 BPM oznacza 120 uderzeń na minutę, a każdy „beat” to właśnie ćwierćnuta. Minuta ma 60 sekund, czyli 60 000 milisekund. Dzieląc 60 000 ms przez 120 otrzymujemy równe 500 ms na ćwierćnutę. Ten sposób przeliczania jest powszechnie wykorzystywany w pracy z DAW-ami, automatami perkusyjnymi czy podczas nagrań studyjnych, kiedy ustawiamy precyzyjnie długość nut i synchronizujemy instrumenty. W praktyce wiedza ta przydaje się, gdy korzystasz z funkcji „quantize” albo ustawiasz delay czy arpeggiatory, gdzie trzeba podać wartość w milisekundach. Moim zdaniem, szczególnie w muzyce elektronicznej i popie, takie przeliczenia to codzienność – stąd warto mieć ten schemat w głowie. Często zauważam też, że początkujący mylą pojęcie tempa z długością taktu, a tu wyraźnie widać, że to właśnie liczba uderzeń na minutę determinuje czas trwania pojedynczej ćwierćnuty. W notacji muzycznej na całym świecie właśnie tak to się liczy – i to jest wg standardów branżowych najprostszy i najpewniejszy sposób na ustalenie wartości rytmicznych.

Pytanie 6

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ptx
B. *.wmv
C. *.ppt
D. *.wmf
Rozszerzenie *.ptx to właśnie format pliku sesji montażowej charakterystyczny dla programu Pro Tools, który od lat należy do ścisłej czołówki profesjonalnych DAW (Digital Audio Workstation). Tego typu pliki przechowują dane o układzie ścieżek, automatyce, strukturze sesji, a nawet konfiguracji wtyczek czy routingów sygnału. Można powiedzieć, że to „mapa” całego projektu muzycznego – bez tego pliku ciężko byłoby wrócić do pracy nad mixem, bo żadne pliki audio czy MIDI nie zachowałyby ustawień sesji. W branży muzycznej i postprodukcyjnej *.ptx to absolutny standard, jeśli chodzi o wymianę projektów między studiem A i B, bo praktycznie każde większe studio korzysta z Pro Tools – czy to przy nagraniach, montażu, czy masteringu. Sam miałem okazję pracować z takimi plikami i ułatwiają życie, zwłaszcza podczas archiwizacji i backupów. Co ciekawe, poprzednie wersje Pro Tools używały formatu *.pts lub *.ptf, ale od wersji 10 obowiązuje już *.ptx. Takie drobne szczegóły są ważne, bo czasami trzeba przekonwertować sesję, żeby otworzyć ją w starszym systemie. W praktyce, jeśli dostajesz od kogoś plik z końcówką *.ptx, wiesz, że to cały projekt do dalszej pracy, a nie pojedynczy plik dźwiękowy czy prezentacja. To jest właśnie ten branżowy workflow, który warto znać, bo bardzo usprawnia współpracę z innymi realizatorami i producentami.

Pytanie 7

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. WAV
B. AAC
C. ALAC
D. AIFF
Format AAC to obecnie jeden z najpopularniejszych standardów kodowania dźwięku w sposób stratny. Jego główną zaletą jest dobra jakość dźwięku przy stosunkowo małym rozmiarze pliku, co ma ogromne znaczenie szczególnie w streamingu muzyki, transmisji internetowych czy zapisywaniu utworów na urządzeniach mobilnych. W praktyce format ten jest szeroko stosowany na przykład w iTunes, serwisach streamingowych, a także w plikach audio stosowanych w wideo na YouTube czy Netflixie. Moim zdaniem wybór AAC do przekazywania muzyki przez internet to taka codzienna branżowa norma. AAC, czyli Advanced Audio Coding, został zaprojektowany jako następca MP3, z myślą o jeszcze lepszym balansie między jakością a rozmiarem pliku. W porównaniu do formatów bezstratnych, takich jak ALAC czy WAV, AAC odrzuca część informacji dźwiękowej, która — według psychoakustyki — prawdopodobnie i tak nie zostanie usłyszana przez przeciętnego słuchacza. To jest sprytne, bo pozwala mocno zmniejszyć wielkość pliku, nie tracąc zbytnio na jakości. Warto wiedzieć, że formaty stratne mają zastosowanie głównie tam, gdzie liczy się efektywność przesyłania i magazynowania danych, a nie archiwizacja w maksymalnej jakości. Z własnego doświadczenia mogę powiedzieć, że jeżeli zależy mi na szybkim przesłaniu utworu – to AAC się świetnie sprawdza, zwłaszcza że większość współczesnych urządzeń bez problemu odczytuje ten format.

Pytanie 8

Która z podanych funkcji oprogramowania DAW służy do utworzenia nowej sesji montażowej?

A. New
B. Load
C. Open
D. Import
Wybór funkcji „New” jest podstawą pracy w każdym nowoczesnym DAW-ie, no bo właśnie ona służy do rozpoczęcia nowej sesji montażowej. Kiedy chcesz zacząć świeży projekt – czy to utwór, czy podcast albo jakiekolwiek nagranie – zawsze szukasz tej opcji. W branży to już praktycznie standard, że funkcja „New” odpowiada za tworzenie pustej sesji, w której od podstaw możesz budować aranżację, importować ślady, ustawiać tempo czy nawet konfigurować routing. Moim zdaniem bardzo fajne jest to, że każdy DAW – od Pro Tools, przez Abletona, aż po Cubase – trzyma się tego schematu, więc nie gubisz się, nawet zmieniając program. Dla wielu realizatorów czy producentów to codzienność: uruchamiasz DAW, klikasz „New” i masz czyste pole do pracy twórczej. Warto też pamiętać, że robienie nowej sesji od zera to dobra praktyka, bo chroni przed bałaganem i przypadkowymi zmianami w starych projektach. Czasem nawet branżowe workflow zakłada, żeby każdy klient czy projekt miał swoją dedykowaną sesję, co ułatwia zarządzanie plikami i backup. Z mojego doświadczenia, korzystanie z opcji „New” pozwala lepiej zorganizować pracę, a potem szybciej wrócić do konkretnego projektu bez stresu, że coś się pomieszało. Niby taka prosta opcja, a jednak kluczowa dla profesjonalnej produkcji dźwiękowej.

Pytanie 9

Szumy w nagraniu redukować można poprzez

A. kompresję.
B. korekcję nagrania.
C. funkcję noise reduction.
D. bramkę szumów noise gate.
Funkcja noise reduction to zdecydowanie jeden z najczęściej używanych sposobów na walkę z szumami w nagraniach audio. W praktyce wygląda to tak: specjalny algorytm analizuje fragment nagrania, który zawiera wyłącznie szum (najlepiej, gdy jest to tzw. próbka szumu), a potem na tej podstawie usuwa podobne komponenty z całego pliku dźwiękowego. Takie podejście pozwala skutecznie wyciszyć niepożądane tło – szum wentylatora, szelest mikrofonu, brum sieciowy i inne tego typu rzeczy. Narzędzia noise reduction znajdziesz w praktycznie każdym programie do obróbki audio, od darmowych (Audacity) po profesjonalne (np. iZotope RX, Adobe Audition). Z mojego doświadczenia wynika, że właściwie ustawiona funkcja noise reduction pozwala odzyskać naprawdę dużo z nagrania, które na pierwszy rzut ucha wydaje się bezużyteczne. W branży produkcji dźwięku to codzienność, bo nawet najlepszy sprzęt nie zawsze gwarantuje czyste nagranie – czasami coś zaszumi, ktoś zostawi otwarte okno albo mikrofon złapie zakłócenia z sieci. Dobrą praktyką jest ostrożne stosowanie tej funkcji, bo zbyt mocne parametry mogą zniekształcić głos czy inne ważne dźwięki. Najlepiej, jeśli noise reduction jest tylko jednym z etapów pracy – obok dobrej jakości nagrania, prawidłowego ustawienia mikrofonu i unikania źródeł szumu, to właśnie ta funkcja pozwala uzyskać naprawdę profesjonalny rezultat.

Pytanie 10

Której z komend należy użyć w przypadku tworzenia nowego projektu w programie edycyjnym?

A. Export.
B. Load.
C. New.
D. Import.
Komenda „New” to absolutna podstawa w praktycznie każdym programie edycyjnym – niezależnie, czy mówimy o edytorze grafiki, wideo, tekstu czy nawet oprogramowaniu CAD. Jej głównym zadaniem jest utworzenie zupełnie nowego projektu lub dokumentu, czyli czystego miejsca pracy, gdzie użytkownik może rozpocząć swoje zadanie od zera. W większości programów skrót klawiszowy Ctrl+N wywołuje właśnie to polecenie. Moim zdaniem to takie „otwarcie drzwi do pustego pokoju”, gotowego do wypełnienia treścią. Praktycznie rzecz biorąc, bez tej funkcji nie da się zacząć pracy nad czymś zupełnie nowym bez mieszania ze starymi plikami, co jest nieefektywne i niepraktyczne. Warto pamiętać, że branżowe standardy UX przewidują, by funkcja tworzenia nowego projektu była zawsze łatwo dostępna i jednoznacznie opisana – właśnie jako „New”. Dobra praktyka mówi też, żeby przed utworzeniem nowego projektu program pytał o zapisanie bieżących zmian, by nie stracić dotychczasowej pracy. Z mojego doświadczenia, początkujący często mylą „New” z innymi opcjami, przez co tracą czas lub przypadkowo nadpisują ważne dane. Korzystając z „New”, masz pewność, że zaczynasz od czystej kartki i możesz wszystko poukładać dokładnie tak, jak chcesz. To taki techniczny start od zera, bez żadnych „śmieci” z poprzednich projektów.

Pytanie 11

Do ułożenia efektów w określonej kolejności na taśmie filmowej należy użyć

A. spisu efektów.
B. opisu taśmy.
C. opisu postsynchronów.
D. skryptu.
Spis efektów jest absolutnie kluczowym narzędziem przy montażu filmowym, gdy zależy nam na właściwym rozmieszczeniu efektów na taśmie filmowej czy cyfrowej osi czasu. To taki szczegółowy dokument techniczny, w którym dla każdej sceny lub fragmentu filmu precyzyjnie opisuje się, jaki efekt powinien się pojawić, w którym dokładnie miejscu oraz jak długo ma trwać. Z mojego doświadczenia wynika, że bez spisu efektów praca w postprodukcji potrafi zamienić się w niezły chaos – nie wiadomo, gdzie dany efekt powinien być wstawiony, a to prowadzi do strat czasu i niepotrzebnych przeróbek. W branży filmowej uznaje się, że spis efektów to jeden z podstawowych dokumentów, na których opierają się montażyści, reżyserzy dźwięku i operatorzy efektów specjalnych. Przykładowo, jeśli w jakiejś scenie samochód nagle wybucha albo dźwięk przechodzi z lewego na prawy kanał, to właśnie w spisie efektów jest zaznaczone, w której sekundzie i na jakim ujęciu ma się to wydarzyć. Dzięki temu nawet duże zespoły pracujące nad produkcją mogą zachować spójność i dokładność. Często też spis efektów jest wykorzystywany przy korektach czy adaptacjach filmu do innych mediów. Moim zdaniem to taki trochę drogowskaz dla całego działu postprodukcji – bez niego dużo łatwiej się pogubić.

Pytanie 12

Który z wymienionych plików jest odpowiednikiem pliku typu .wav?

A. *.flac
B. *.mp3
C. *.ogg
D. *.aiff
Plik *.aiff jest najbardziej zbliżony pod względem technicznym i zastosowania do formatu *.wav. Obydwa te formaty są nieskompresowane, czyli przechowują dźwięk w postaci bezstratnej, najczęściej jako liniowe PCM (ang. Pulse Code Modulation). Oznacza to, że zachowujesz pełną jakość nagrania, bez żadnych strat wynikających z kompresji, co jest bardzo istotne w profesjonalnych zastosowaniach – np. podczas produkcji muzyki, montażu audio czy masteringu. Format AIFF (Audio Interchange File Format) został stworzony przez Apple i jest szczególnie popularny na komputerach Mac, ale w praktyce oba formaty – WAV (wywodzący się z Windows) i AIFF – spełniają tę samą rolę w różnych środowiskach. Moim zdaniem, jeśli ktoś pracuje z dźwiękiem studyjnym, często spotyka się z obydwoma formatami, które pozwalają na łatwą wymianę plików między różnymi programami DAW. To, że AIFF i WAV są tak podobne technicznie, sprawia, że wiele programów traktuje je zamiennie. Warto wiedzieć, że oba te formaty obsługują metadane, różne częstotliwości próbkowania i rozdzielczości bitowe – co jest standardem w profesjonalnym workflow audio. Szczerze, z mojego doświadczenia, jeśli liczy się jakość i brak strat, najlepiej korzystać z AIFF lub WAV, a resztę formatów zostawić na potrzeby dystrybucji lub odtwarzania na różnych urządzeniach.

Pytanie 13

Które z urządzeń zawęża zakres dynamiki dźwięku?

A. Ekspander.
B. Bramka szumów.
C. Kompresor.
D. Korektor tercjowy.
Kompresor to jedno z najważniejszych narzędzi w pracy z dźwiękiem, szczególnie kiedy chodzi o kontrolowanie zakresu dynamiki nagrań czy miksów. Jego główne zadanie polega na automatycznym zmniejszaniu różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami sygnału audio. To się w praktyce przydaje zwłaszcza wtedy, gdy chcesz, by wokal nie ginął w tle lub by instrumenty nie wychodziły za bardzo przed szereg. Kompresor działa na zasadzie ustawienia progu (threshold), powyżej którego sygnał jest ściskany zgodnie z określonym współczynnikiem (ratio), a następnie odpowiednio go wygładza. Moim zdaniem bez tego urządzenia miksowanie utworów np. do radia, podcastów czy ogólnie produkcji muzycznych byłoby praktycznie niemożliwe, bo słuchacz nieustannie musiałby regulować głośność. Co ciekawe, ustawienie odpowiednich parametrów kompresora to prawdziwa sztuka – zbyt mocna kompresja powoduje utratę naturalności brzmienia, a zbyt lekka – nie spełnia swojej roli. Standardowo kompresor jest stosowany przy wokalu, perkusji, basie, ale też na sumie miksu w postaci tzw. bus-kompresji. Warto pamiętać, że w broadcastingu czy masteringu zasady stosowania kompresji są jasno opisane w normach branżowych, np. EBU R128 – i to naprawdę ułatwia robotę. Z mojego doświadczenia – jak raz nauczysz się obsługi kompresora, trudno już wrócić do miksów bez niego.

Pytanie 14

Do jakiej wartości należy znormalizować głośność nagrania, aby było ono zgodne z zaleceniami EBU dotyczącymi głośności audycji radiowych i telewizyjnych?

A. -23 LUFS
B. -16 RMS
C. -16 LUFS
D. -23 RMS
Odpowiedź -23 LUFS jest zgodna z europejskim standardem EBU R128. To właśnie ta wytyczna została przyjęta w branży radiowej i telewizyjnej w Europie, żeby zapewnić spójny poziom głośności wszystkich audycji. LUFS – skrót od Loudness Units relative to Full Scale – to obecnie najpowszechniej stosowana jednostka do pomiaru subiektywnej głośności materiału audio. Z mojego doświadczenia wynika, że coraz więcej inżynierów dźwięku i realizatorów nie wyobraża sobie pracy bez tej skali, bo pozwala ona zapanować nad różnicami w postrzeganiu głośności, które wcześniej często irytowały słuchaczy (np. głośniejsze reklamy). Warto pamiętać, że -23 LUFS nie oznacza po prostu nagrania „cichego” – to punkt odniesienia pozwalający zachować optymalną dynamikę, uniknąć przesterowań i mieć pewność, że słuchacze nie będą musieli ciągle regulować głośności odbiornika. Dla przykładu: jeśli przygotowujesz podcast albo materiał do radia, znormalizowanie do -23 LUFS to podstawa – zarówno w emisji FM, jak i w streamingu cyfrowym, choć tam czasem są inne wymagania, np. -16 LUFS dla podcastów na Spotify. W telewizji publicznej czy dużych rozgłośniach radiowych nieprzestrzeganie tego progu może skutkować odrzuceniem materiału. To taka branżowa gwarancja jakości, zgodnie z zasadą „jeden poziom dla wszystkich”, i moim zdaniem wprowadziła sporo ładu do świata broadcastu. Warto więc od razu przyzwyczaić się do mierników LUFS i pracy z R128 – to standard praktycznie obowiązkowy.

Pytanie 15

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. .wav
B. .riff
C. .mp3
D. .aiff
Kodek LAME to jeden z najpopularniejszych narzędzi do kompresji dźwięku na świecie, szczególnie rozpoznawalny w środowiskach audiofilskich i muzycznych. Jego podstawową funkcją jest kodowanie plików audio do formatu MP3, czyli z rozszerzeniem .mp3. Właściwie, kiedy ktoś mówi o "konwersji na MP3", bardzo często korzysta właśnie z LAME. MP3 to format stratnej kompresji dźwięku, który od lat jest standardem w przesyłaniu muzyki przez internet, streamingu czy nawet w systemach samochodowych. Moim zdaniem, ze wszystkich kodeków, LAME daje jedną z najbardziej przewidywalnych jakości, a do tego jest open-source, więc można go dostosować do własnych potrzeb. Kodek ten implementuje zaawansowane algorytmy psychoakustyczne – w praktyce oznacza to, że dźwięk jest kompresowany tak, żeby człowiek nie słyszał utraty jakości, chociaż dane są silnie redukowane. Serwisy muzyczne, podcasty czy nawet odtwarzacze MP3 prawie zawsze korzystają z plików zakodowanych właśnie LAME albo czymś bardzo podobnym. Oczywiście, aby zakodować audio do MP3, trzeba mieć najpierw nieskompresowany dźwięk, na przykład jako WAV czy AIFF, i dopiero wtedy użyć LAME, by uzyskać plik .mp3. To, że LAME nie obsługuje formatów typu WAV czy AIFF, wynika z jego architektury – został stworzony wyłącznie do obsługi stratnej kompresji MP3, co jest powszechne w profesjonalnych workflow audio.

Pytanie 16

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. MBR
B. ABR
C. CBR
D. VBR
CBR to skrót od „Constant Bit Rate”, czyli stała przepływność bitowa. W praktyce oznacza to, że niezależnie od zawartości przesyłanego sygnału cyfrowego (na przykład wideo albo audio), ilość przesyłanych bitów na sekundę jest zawsze taka sama. To rozwiązanie jest stosowane np. w transmisjach strumieniowych na żywo, gdzie bardzo istotny jest brak wahań przepustowości sieci, albo w telewizji cyfrowej czy nawet podczas nagrywania na nośniki optyczne. Z mojego doświadczenia, CBR jest często wybierane w sytuacjach, gdzie najważniejsza jest przewidywalność obciążenia sieci lub zachowanie kompatybilności z prostszymi urządzeniami odtwarzającymi. Standardy takie jak MPEG-2, używane w DVB, zalecają tryb CBR do transmisji broadcastowych, bo ogranicza on ryzyko buforowania i pozwala na łatwiejsze zarządzanie zasobami. Przy CBR nie ma też problemu z rozjechaniem się synchronizacji audio i wideo, co jest ważne np. w systemach CCTV albo VoIP. Warto jednak pamiętać, że CBR czasem zużywa więcej przepustowości niż to konieczne, bo nie dostosowuje się elastycznie do złożoności przesyłanej treści. Moim zdaniem dla osób zaczynających przygodę ze streamingiem czy montażem, zrozumienie CBR to podstawa, bo pozwala od razu uniknąć wielu irytujących problemów z transmisją.

Pytanie 17

Który z programów komputerowych używany jest do profesjonalnej edycji plików dźwiękowych?

A. Audacity.
B. Music Player.
C. Samplitude.
D. Windows Media Player.
Wybrałeś Samplitude, czyli profesjonalne narzędzie do edycji dźwięku używane w pracy studyjnej i produkcji audio – to strzał w dziesiątkę! Program ten jest doceniany przez realizatorów, muzyków i producentów ze względu na ogromne możliwości w zakresie miksowania, masteringu czy nagrywania wielośladowego. W praktyce korzysta się z niego nie tylko do podstawowej edycji dźwięku, ale też do zaawansowanej obróbki efektów, automatyzacji, pracy z pluginami VST i bardzo precyzyjnej kontroli nad każdym parametrem ścieżki. Moim zdaniem, jeśli ktoś myśli poważnie o produkcji muzycznej, to takie narzędzie jest wręcz niezbędne. Branża audio zwraca uwagę, by korzystać z oprogramowania, które umożliwia nieniszczącą edycję plików, obsługuje wysokie rozdzielczości dźwięku, a także współpracuje z profesjonalnymi interfejsami audio – Samplitude spełnia te wymagania z nawiązką. W porównaniu do innych, bardziej podstawowych programów, ten daje dostęp do zaawansowanych narzędzi takich jak edycja spektrogramowa, obsługa MIDI na poziomie studyjnym czy automatyzacja w czasie rzeczywistym. Warto wiedzieć, że standardem w branży jest praca na DAW-ach klasy Samplitude, Cubase, Pro Tools czy Logic Pro – to dzięki nim powstają praktycznie wszystkie profesjonalne nagrania, jakie słychać w radiu czy telewizji. Świadomy wybór takiego narzędzia to już połowa sukcesu, bo daje ogromne pole do rozwoju umiejętności i realizacji nawet najbardziej ambitnych projektów dźwiękowych.

Pytanie 18

Doświadczalnie stwierdzono, że wzrost poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje wzrost odczuwanej przez słuchacza głośności

A. trzykrotnie.
B. dwukrotnie.
C. pięciokrotnie.
D. siedmiokrotnie.
Zwiększenie poziomu ciśnienia akustycznego dźwięku o 10 dB powoduje, że człowiek odczuwa dźwięk jako dwukrotnie głośniejszy. To wynika z nieliniowej charakterystyki słyszenia ludzkiego ucha. W praktyce oznacza to, że jeśli np. radio gra z mocą 60 dB, a potem podkręcisz je do 70 dB, Twoje odczucie będzie takie, jakbyś słyszał dwa razy głośniejszy dźwięk – choć fizycznie moc wzrosła aż dziesięciokrotnie! W branży elektroakustycznej i przy projektowaniu systemów nagłośnienia często korzysta się z tej zależności, szczególnie przy ocenie komfortu pracy w hałasie, czy przy projektowaniu sal koncertowych, gdzie precyzyjnie dobiera się poziomy ciśnienia akustycznego. Standardy branżowe, jak np. ISO 226 (norma krzywych równej głośności), bazują na tej charakterystyce słyszenia. Fajna sprawa – większość ludzi myśli, że wzrost o 10 dB to olbrzymia zmiana, ale tak naprawdę nasze ucho jest dość „leniwe” i musi być różnica aż 10 dB, żeby odczuć dwukrotną zmianę. Moim zdaniem mega ciekawe, jak fizyka dźwięku przekłada się na nasze zmysłowe postrzeganie. W pracy z dźwiękiem warto zawsze pamiętać, że dB to logarytmiczna jednostka i nie przekłada się wprost na nasze odczucia. To trochę jak z pieniędzmi: niby 10 zł i 20 zł, różnica taka sama, ale odczucie zupełnie inne, jak masz milion albo dwadzieścia złotych.

Pytanie 19

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Clip Group.
B. Split Clip.
C. Loop Region.
D. Unloop Region.
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 20

Charakterystyczne punkty na osi czasu w sesji oprogramowania DAW oznaczyć można za pomocą

A. punktorów.
B. tagów.
C. taktów.
D. znaczników.
To właśnie znaczniki są podstawowym narzędziem do oznaczania charakterystycznych punktów na osi czasu w sesji DAW (Digital Audio Workstation). W praktyce, znaczniki pozwalają szybko zaznaczyć istotne fragmenty projektu, np. wejścia refrenu, przejścia między zwrotkami czy miejsca do edycji, bez konieczności przewijania całej sesji. Moim zdaniem, korzystanie ze znaczników to rzecz absolutnie niezbędna nie tylko przy większych produkcjach, ale nawet przy prostych projektach – szukanie danego miejsca w długim nagraniu bez znaczników to istna katorga. Profesjonaliści zawsze polecają, żeby już na etapie nagrywania czy aranżowania umieszczać znaczniki wszędzie tam, gdzie pojawia się coś wartego uwagi: zmiana tempa, wejście nowego instrumentu, a nawet wskazówki dla miksu („tu zrobić fade-out”, „tutaj rozbić wokal na stereo”). Większość DAW-ów, jak Ableton Live, Cubase, FL Studio czy Pro Tools, domyślnie wspiera funkcję znaczników (ang. markerów), bo to już standard branżowy. Umożliwia to sprawną komunikację w zespole oraz pozwala zachować porządek w projekcie, co później bardzo przyspiesza wszelkie poprawki i edycje. Szczerze, nie znam praktyka, który by ignorował znaczniki – to taki must-have w codziennej pracy z DAW.

Pytanie 21

Normalizacja sygnału fonicznego (peak normalization) to

A. podniesienie poziomu sygnału tak, aby jego wartość szczytowa osiągnęła 0 dBFS.
B. obniżenie szczytowego poziomu sygnału o 3 dB.
C. podniesienie poziomu sygnału tak, aby jego wartość średnia osiągnęła 0 dBFS.
D. obniżenie średniego poziomu sygnału o 3 dB.
Normalizacja szczytowa (peak normalization) to jedna z absolutnych podstaw w obróbce dźwięku, szczególnie jeśli chodzi o przygotowanie materiałów audio do dalszego miksowania lub publikacji. Chodzi w niej dokładnie o to, żeby podnieść poziom całego sygnału tak, by jego najbardziej głośny punkt – czyli szczyt – zrównał się z maksymalną możliwą wartością w systemie cyfrowym, zwykle 0 dBFS (Full Scale). To jest o tyle istotne, że w środowisku cyfrowym, takim jak DAW czy nawet zwykły edytor dźwięku, nie możemy przekroczyć tej wartości, bo pojawia się clipowanie i zniekształcenia. W praktyce, jeśli pracujemy np. z nagraniami do podcastów, lektorów czy masteringiem muzyki, bardzo często stosuje się właśnie normalizację szczytową, żeby z materiału wyciszonego wyciągnąć „ile się da”, nie ryzykując przesterowania. Warto dodać, że to nie wpływa na dynamikę samego sygnału – proporcje między cichymi a głośnymi fragmentami zostają takie same. To zupełnie inna sytuacja niż kompresja czy normalizacja RMS, które wpływają mocniej na percepcję głośności. Często spotykam się z sytuacją, że ktoś wrzuca do DAW ścieżkę i nawet nie zauważa, że jej szczyty sięgają ledwo -10 dBFS – wtedy wystarczy szybka normalizacja i jest już „na poziomie”. W wielu standardach branżowych, zwłaszcza radiowych i telewizyjnych, normalizacja szczytowa to praktycznie obowiązek. Moim zdaniem, to dobry nawyk nawet przy pracy hobbystycznej, bo potem łatwiej kontrolować cały miks.

Pytanie 22

Możliwość wprowadzania zmian w materiałach zapożyczonych należy potwierdzić umową

A. dzierżawy.
B. zamiany.
C. leasingową.
D. licencyjną.
Umowa licencyjna to podstawowy dokument w obrocie prawami autorskimi, szczególnie kiedy w grę wchodzi korzystanie z cudzych materiałów – czy to tekstów, grafik, muzyki, czy oprogramowania. W praktyce to właśnie licencja określa, na jakich zasadach możemy korzystać z danego utworu. To ona pozwala (lub nie) wprowadzać zmiany, modyfikować materiał, przetwarzać, kompilować czy udostępniać dalej. Z mojego doświadczenia wynika, że bez wyraźnych zapisów w licencji, nawet najdrobniejsza modyfikacja może być naruszeniem prawa autorskiego i prowadzić do nieprzyjemnych konsekwencji, zwłaszcza w pracy zawodowej. Branżowe dobre praktyki, np. te promowane przez Stowarzyszenie Twórców Grafiki Użytkowej czy organizacje zarządzające prawami autorskimi, zawsze podkreślają konieczność jasnej, pisemnej licencji na wszelkie działania wykraczające poza tzw. dozwolony użytek osobisty. Przykład z życia: jeśli kupujesz zdjęcie lub grafikę do projektu reklamowego i chcesz coś w nim zmienić (np. kolorystykę), musisz mieć to wyraźnie zapisane w licencji. W innym przypadku – lepiej nie ryzykować. Słowem, licencja to podstawa wszelkiej legalnej adaptacji cudzych materiałów, nie tylko w informatyce, ale też muzyce, filmie czy literaturze.

Pytanie 23

Jaki jest czas trwania fragmentu materiału dźwiękowego zawartego pomiędzy wartościami zegara SMPTE 00:01:30:00 i 00:02:45:00?

A. 1 minuta i 15 sekund.
B. 1 godzina i 30 minut.
C. 1 minuta i 30 sekund.
D. 1 godzina i 15 minut.
Twoja odpowiedź idealnie pokazuje rozumienie tematu SMPTE. Jeśli ktoś pracuje z materiałami audio-wideo, zwłaszcza w postprodukcji czy w montażu telewizyjnym, to właśnie takie umiejętności przydają się na co dzień. Zegary SMPTE (Society of Motion Picture and Television Engineers) są uniwersalnym standardem do oznaczania czasu w produkcji audio-wideo – zapis 00:01:30:00 oznacza 1 minutę i 30 sekund, a 00:02:45:00 to 2 minuty i 45 sekund. Odejmując jedno od drugiego, uzyskujemy dokładnie 1 minutę i 15 sekund. Prosta arytmetyka, ale diabeł tkwi w szczegółach – czasem można się łatwo pogubić, zwłaszcza jak ktoś zacznie odliczać godziny lub źle zinterpretuje liczby. W praktyce, podczas montowania dialogów czy synchronizacji dźwięku z obrazem, precyzyjne rozumienie formatu SMPTE pozwala szybko wycinać lub wklejać fragmenty materiału bez ryzyka przesunięć czasowych. Warto pamiętać, że SMPTE jest wykorzystywany nie tylko w telewizji, ale też w radiu, przy produkcji reklam i nawet w systemach automatyzacji wydarzeń na żywo. Moim zdaniem, każdy kto wiąże swoją przyszłość z mediami, musi płynnie poruszać się w tym zapisie. Fajnie, jakby więcej osób zwracało na to uwagę, bo w praktyce często spotykam się z tym, że ktoś źle ustawia punkty cięcia właśnie przez nieznajomość działania SMPTE.

Pytanie 24

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 30 klatek.
B. 15 klatek.
C. 60 klatek.
D. 90 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 25

Która komenda programu DAW służy do odwrócenia fazy sygnału fonicznego?

A. Gain
B. Crossfade
C. Invert
D. Cut
Odpowiedź „Invert” jak najbardziej trafia w sedno sprawy. Ta komenda w programie DAW (Digital Audio Workstation) służy właśnie do odwrócenia fazy sygnału audio, co w praktyce oznacza zamianę wszystkich dodatnich wartości próbki na ujemne i odwrotnie. Moim zdaniem to bardzo przydatna funkcja, szczególnie podczas miksowania – kiedy mamy np. dwa mikrofony nagrywające ten sam instrument i pojawia się problem znikającego basu albo dziwnych przesunięć w brzmieniu. Odwrócenie fazy jednego ze śladów pozwala wyeliminować tzw. efekt kasowania (znoszenia) sygnału przez interferencję fal dźwiękowych. W branży audio to wręcz standardowa czynność przy korekcji problemów fazowych, szczególnie podczas montażu śladów perkusyjnych czy wokalnych. Ja sam nieraz łapałem się na tym, że prosty „Invert” ratował miks przed stratą energii w dolnym paśmie. Warto pamiętać, że niektóre DAWy nazywają tę funkcję „Phase Reverse”, ale zasada działania jest identyczna – chodzi o odwrócenie przebiegu fali o 180 stopni. Dobrą praktyką jest sprawdzanie fazy przy nagrywaniu kilku źródeł jednocześnie – to pozwala uniknąć nieprzyjemnych niespodzianek w końcowym miksie.

Pytanie 26

Który z wymienionych formatów pliku dźwiękowego wykorzystuje kodowanie stratne?

A. AAC
B. AIFF
C. ALAC
D. WAV
Format AAC to przykład kodowania stratnego, które jest na co dzień wykorzystywane w usługach streamingowych, takich jak Spotify, YouTube czy Apple Music. W przeciwieństwie do formatów bezstratnych, takich jak ALAC czy WAV, AAC kompresuje dźwięk, usuwając część informacji uznanych za mniej istotne dla ludzkiego ucha. Najważniejsze jest to, że całość procesu opiera się na psychoakustycznych modelach percepcji dźwięku – algorytm stara się zredukować dane, których i tak nie usłyszymy. Moim zdaniem, w praktyce bardzo często nie odróżniamy dobrej jakości plików AAC od oryginału, szczególnie gdy słuchamy w słuchawkach bluetooth albo w aucie. Technologia AAC jest następcą MP3, oferując lepszą jakość przy mniejszym rozmiarze pliku, co jest ogromną zaletą np. przy przesyłaniu muzyki przez sieć lub przechowywaniu dużych bibliotek na telefonie. Standard ten jest szeroko wspierany przez urządzenia mobilne, konsole do gier i smart TV. Warto wiedzieć, że format AAC został zaimplementowany jako domyślny kodek audio w standardzie MPEG-4. To rozwiązanie jest rekomendowane w branży, kiedy zależy nam na kompromisie między jakością a objętością danych – do podcastów, audiobooków czy transmisji na żywo. Nie bez powodu Apple używa AAC w swoim całym ekosystemie. I szczerze, jeśli ktoś korzysta z internetu mobilnego, to kompresja stratna jest po prostu praktyczniejsza.

Pytanie 27

Z ilu kanałów składa się system wielokanałowy o oznaczeniu 7.1?

A. 8 kanałów.
B. 1 kanału.
C. 5 kanałów.
D. 7 kanałów.
System wielokanałowy oznaczony jako 7.1 składa się z ośmiu kanałów, czyli 7 głośników pełnopasmowych i jednego subwoofera dedykowanego do odtwarzania niskich częstotliwości. To oznaczenie jest standardem w branży audio, zwłaszcza w kinie domowym czy profesjonalnych instalacjach dźwiękowych. Te siedem kanałów to zwykle: lewy, środkowy, prawy, lewy surround, prawy surround, lewy tylni i prawy tylni. Subwoofer (czyli ten '.1') zajmuje się generowaniem basów i efektów specjalnych o bardzo niskich częstotliwościach, co daje potężniejszy i bardziej realistyczny odbiór dźwięku, zwłaszcza w filmach akcji czy grach. Moim zdaniem, jeśli ktoś raz usłyszy dobrze ustawiony system 7.1, to już nie będzie chciał wrócić do starego stereo czy nawet 5.1. Takie zestawy są obecnie wspierane przez nowoczesne formaty dźwięku przestrzennego, jak Dolby TrueHD czy DTS-HD Master Audio. Często spotyka się je w salach kinowych, ale coraz częściej także w lepszych pokojach gamingowych i domowych salach audiofilskich. Branża od lat rekomenduje takie rozwiązania tam, gdzie liczy się precyzja pozycjonowania dźwięku i wierność odwzorowania przestrzeni akustycznej. Powiem szczerze, czasem nawet nie zdajemy sobie sprawy, jak wiele szczegółów audio można przegapić, jeśli nie mamy tylu kanałów!

Pytanie 28

Która z zamieszczonych list zawiera nazwy fragmentów materiału dźwiękowego pociętych w trakcie montażu w sesji oprogramowania DAW?

A. Lista efektów.
B. Lista grup.
C. Lista regionów.
D. Lista ścieżek.
Lista regionów w DAW to moim zdaniem jedna z najważniejszych funkcji, jeśli chodzi o montaż dźwięku. Regiony, nazywane czasem klipami lub fragmentami, to po prostu wycinki materiału audio lub MIDI, które wydzielasz podczas edycji, np. tnąc dłuższe nagranie na krótsze kawałki. W każdej branżowej sesji montażowej praca z regionami pozwala na szybkie przesuwanie, kopiowanie, duplikowanie czy nawet kreatywne przetwarzanie wybranych fragmentów. Zwróć uwagę, że lista regionów nie tylko pokazuje, jakie fragmenty zostały pocięte, ale też często pozwala łatwo nimi zarządzać – możesz je nazywać, porządkować, wyciszać czy eksportować osobno. W praktyce, przy skomplikowanych projektach np. w postprodukcji filmowej albo miksie muzycznym, umiejętność sprawnego korzystania z listy regionów to podstawa. To narzędzie bardzo pomaga w utrzymaniu porządku w projekcie, szczególnie gdy masz dużo cięć i różnych wersji tego samego dźwięku. Z mojego doświadczenia każda profesjonalna stacja DAW (jak Pro Tools, Cubase, Logic Pro) rozwija właśnie tę funkcjonalność, bo bez niej nie da się efektywnie montować większych sesji. Warto też wiedzieć, że niektóre DAWy oferują dodatkowe funkcje zarządzania regionami, jak kolorowanie czy szybkie zamienianie lokalizacji fragmentów, co jeszcze bardziej usprawnia workflow. Dobrze więc, że rozpoznajesz znaczenie listy regionów – to naprawdę podstawa w nowoczesnej produkcji dźwięku.

Pytanie 29

Która z wymienionych funkcji w sesji programu DAW standardowo służy do podziału pliku dźwiękowego znajdującego się na ścieżce na osobne fragmenty?

A. SPLIT
B. CUT
C. FREEZE
D. DELETE
Odpowiedź SPLIT to absolutna podstawa pracy z plikami audio w każdym szanującym się DAW-ie. Funkcja SPLIT (czasem nazywana też 'slice' albo 'scissors tool') pozwala na precyzyjne cięcie klipu audio dokładnie w wybranych miejscach na ścieżce, bez utraty jakości i bez konieczności usuwania jego fragmentów. Dzięki temu można potem swobodnie przesuwać, kopiować, edytować lub nakładać efekty na konkretne wycinki nagrania. Typowa sytuacja: nagrywasz całą piosenkę, a potem chcesz osobno popracować nad refrenem czy konkretnym dźwiękiem – SPLIT rozwiązuje ten problem w kilka sekund. W branży muzycznej to praktycznie standard – nawet wśród profesjonalistów, bo pozwala na błyskawiczne dzielenie surowych ścieżek na mniejsze partie, które potem można aranżować według uznania. Warto dodać, że SPLIT działa nie tylko na ścieżkach audio, ale często również na MIDI, co daje naprawdę duże pole do kreatywności podczas produkcji. Moim zdaniem, jeśli ktoś planuje na poważnie pracować w DAW-ie, nie ma opcji, żeby nie znał i nie używał SPLIT regularnie. Bez tej funkcji wszystko robiłoby się dziesięć razy wolniej. To trochę jak nożyczki na stole montażowym – totalny must-have w workflow każdego realizatora dźwięku.

Pytanie 30

Która z wymienionych kaset umożliwia zapis sygnału fonicznego w postaci cyfrowej?

A. CC
B. DAT
C. 8-track
D. Microcassette
DAT, czyli Digital Audio Tape, to naprawdę kawał ciekawej technologii. Ona jako jedna z pierwszych kaset pozwalała na zapis sygnału fonicznego w pełni cyfrowej postaci, a nie – jak w klasycznych kasetach – w formie analogowej. Moim zdaniem to był spory przeskok jakościowy, bo DAT dawał możliwość uzyskania bardzo czystego dźwięku, praktycznie bez szumów czy zniekształceń typowych dla taśm magnetycznych. Stosowano to rozwiązanie w profesjonalnych studiach nagraniowych, radiofonii, a nawet w archiwizacji ważnych nagrań, bo była to technologia niezawodna. Z moich obserwacji wynika, że DAT wprowadził nowe standardy bezpieczeństwa danych audio – chociaż na domowy rynek nigdy się nie przebił tak mocno jak CD czy MiniDisc. Praktycznie rzecz biorąc, tam gdzie liczyła się precyzja i jakość cyfrowego zapisu, DAT był wybierany przez inżynierów dźwięku czy realizatorów. Nawet dziś, chociaż już dosyć rzadko się go spotyka, kasety DAT są jeszcze wykorzystywane do digitalizacji starych nagrań. Warto wiedzieć, że format DAT korzysta z technologii podobnej do tej w magnetowidach – głowice obracają się i zapisują dane w postaci cyfrowej na wąskiej taśmie. Także, jeśli chodzi o cyfrowy zapis audio na kasetach, DAT to taki klasyk i pionier.

Pytanie 31

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. milisekundzie.
B. ćwierćnucie.
C. ramce.
D. sekundzie.
Kod SMPTE (Society of Motion Picture and Television Engineers) to absolutny fundament w branży filmowej oraz telewizyjnej, jeśli chodzi o precyzyjną synchronizację obrazu i dźwięku. W zapisie 00:00:00:20 ostatnia liczba po dwukropku oznacza właśnie numer ramki (ang. frame), a nie sekundę, milisekundę czy ćwierćnutę. To bardzo praktyczne rozwiązanie, bo pozwala dokładnie określić lokalizację na osi czasu nawet w gęstym materiale wideo, gdzie każda klatka się liczy, na przykład przy montażu czy efektach specjalnych. Moim zdaniem, znajomość tego zapisu to absolutny must-have dla każdego, kto zamierza pracować z profesjonalnym montażem czy postprodukcją. Przeważnie w standardzie europejskim (PAL) mamy 25 ramek na sekundę, w USA (NTSC) – 29,97 albo 30. Oznacza to, że pozycja 00:00:00:20 wskazuje na dwudziestą ramkę w danej sekundzie, a nie dwudziestą sekundę filmu! Dobrą praktyką jest zawsze sprawdzanie ustawień projektu pod kątem liczby klatek na sekundę, bo nawet drobna pomyłka prowadzi do poważnych problemów przy eksporcie lub synchronizacji. W branży audio-wizualnej bardzo często trzeba dopasowywać wydarzenia co do ramki, przykładowo przy nagraniu postsynchronów lub efektów Foley. Tak naprawdę, im szybciej opanujesz kod SMPTE i nauczysz się go czytać, tym sprawniej będziesz pracować z profesjonalnymi narzędziami do edycji wideo i audio.

Pytanie 32

W jakim celu normalizuje się pliki dźwiękowe?

A. Ustalenia maksymalnego poziomu nagrania.
B. Wyrównania poziomu głośności poszczególnych fragmentów nagrania.
C. Ustalenia minimalnego poziomu nagrania.
D. Wyrównania pików nagrania do tej samej wartości.
Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.

Pytanie 33

Pozycja 00:00:00:20 na osi czasu, zgodnie z kodem SMPTE, oznacza lokalizację w dwudziestej

A. ramce.
B. ćwierćnucie.
C. milisekundzie.
D. sekundzie.
Kod SMPTE, czyli Society of Motion Picture and Television Engineers, to jeden z podstawowych standardów stosowanych w pracy z materiałami wideo i audio, zwłaszcza w montażu oraz synchronizacji. Moim zdaniem każdy, kto chce pracować z profesjonalnym montażem, powinien go mieć w małym palcu. Pozycja 00:00:00:20 oznacza: 0 godzin, 0 minut, 0 sekund oraz 20. ramka w danej sekundzie. To jest bardzo praktyczne, bo pozwala dokładnie wskazać, gdzie na osi czasu znajduje się konkretne zdarzenie – np. cięcie, efekt lub punkt synchronizacyjny. W zależności od ustawień projektu (np. 25 lub 30 klatek na sekundę), liczba ta mówi nam, która dokładnie klatka w sekundzie jest wybrana. Takie podejście gwarantuje precyzję, której nie da się osiągnąć, operując tylko na sekundach czy milisekundach, bo montażowcy i realizatorzy dźwięku często pracują 'na ramki'. W branży jest to standard wykorzystywany podczas pracy w programach takich jak Adobe Premiere Pro, DaVinci Resolve czy Pro Tools. Szczerze mówiąc, nieraz uratowało mi to skórę przy bardzo wymagających projektach, gdzie każde ujęcie musiało być zgrane co do klatki. Dobra praktyka to zawsze sprawdzać, czy liczysz zgodnie z tym kodem, bo błędy w tej materii lubią się mścić na etapie finalnego eksportu.

Pytanie 34

Który z wymienionych formatów plików stanowi cyfrową formę listy montażowej?

A. .fla
B. .edl
C. .cmx
D. .ldm
Format .edl, czyli Edit Decision List, to cyfrowa forma listy montażowej używana praktycznie w każdej większej produkcji filmowej czy telewizyjnej. Plik EDL zawiera zestawienie najważniejszych decyzji montażowych: numery ujęć, punkty wejścia i wyjścia, kolejność oraz podstawowe efekty przejść pomiędzy klipami. Moim zdaniem, to taki pomost między starym montażem taśmowym, a współczesnym montażem nieliniowym – bo pozwala przenieść strukturę montażu do różnych programów, jak np. Avid, DaVinci Resolve czy Adobe Premiere. W praktyce montażysta eksportuje EDL z jednego systemu, żeby szybko odtworzyć układ projektu w innym środowisku albo w studiu postprodukcji. Co ciekawe, format EDL jest uznany za branżowy standard – ma już swoje lata, ale do dziś jest mocno używany przy wymianie projektów między stacjami roboczymi. Najważniejsze w praktycznym zastosowaniu jest to, że EDL nie przenosi wszystkich efektów czy warstw, ale świetnie sprawdza się do podstawowej struktury i przyspiesza cały workflow. Jeśli kiedyś trafisz na archiwalne projekty albo będziesz musiał współpracować ze studiem dźwiękowym czy VFX, znajomość EDL naprawdę się przydaje. W sumie ciężko wyobrazić sobie profesjonalny pipeline bez tego typu plików, nawet jeśli współczesne formaty XML czy AAF oferują więcej możliwości.

Pytanie 35

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 5
B. 10
C. 1
D. 2
Wartość dobroci filtru (Q, czyli quality factor) bezpośrednio wpływa na szerokość pasma, które jest obejmowane przez działanie filtru lub korektora. Im wyższa wartość Q, tym filtr obejmuje węższy zakres częstotliwości – działa bardziej selektywnie i precyzyjnie. Natomiast przy niższych wartościach Q zakres częstotliwości, na który filtr oddziałuje, staje się szerszy i bardziej rozciągnięty. W praktyce, jeśli chodzi o zastosowania w akustyce czy elektronice, wybór wartości Q zależy od tego czy chcemy delikatnie korygować szeroki fragment pasma, czy może bardzo precyzyjnie wycinać lub wzmacniać konkretne częstotliwości. Jednak w tym pytaniu pytamy o szerokość pasma objętego przez korektor i tu sprawa jest trochę przewrotna – NAJSZERSZY zakres uzyskujemy przy najniższym Q, czyli Q=1. Tak jest zgodnie z definicją: szerokość pasma jest odwrotnie proporcjonalna do Q. Moim zdaniem na co dzień można się pomylić, bo w praktyce często myślimy o „lepszym” filtrze jako tym precyzyjniejszym, ale tutaj szerszy zakres – czyli mniej precyzyjny, ale rozciągnięty – to właśnie Q=1. Spotyka się to często w prostych korektorach graficznych, gdzie wycinając szerokie pasmo, stosuje się właśnie niskie dobroci. Standardy branżowe, jak np. parametry korektorów w stołach mikserskich, to potwierdzają.

Pytanie 36

ID3v2 umożliwia dodanie do pliku mp3 metadanych w formie

A. wyłącznie znaków ASCII.
B. znaków w systemie szesnastkowym.
C. wyłącznie grafiki.
D. tekstu i grafiki.
ID3v2 to naprawdę bardzo uniwersalny standard oznaczania plików MP3 dodatkowymi informacjami, czyli właśnie metadanymi. Dzięki niemu możemy dołączyć do utworu nie tylko podstawowe dane tekstowe, takie jak tytuł, wykonawca, album, rok wydania czy gatunek muzyczny, ale również grafikę – na przykład okładkę albumu, zdjęcie wykonawcy albo nawet logo radia internetowego. Jest to super praktyczne, bo obecnie właściwie każdy odtwarzacz muzyczny wyświetla te dane – często właśnie na podstawie tagów ID3v2. Co ciekawe, standard ID3v2 nie ogranicza się tylko do tekstu zapisanego w ASCII – obsługuje różne kodowania znaków, nawet Unicode, więc spokojnie można wpisywać polskie znaki czy znaki z innych alfabetów. Moim zdaniem warto znać możliwości ID3v2, bo to otwiera drogę do tworzenia profesjonalnych archiwów muzycznych. W branży muzycznej i radiowej dobre wykorzystanie tagów ID3v2 jest wręcz obowiązkowe – to taka niepisana dobra praktyka. Jeśli kiedyś będziesz edytować muzykę lub przygotowywać własne podcasty, polecam zawsze zadbać o kompletne i poprawne tagi ID3v2, łącznie z dopasowaną grafiką. Tak jest po prostu wygodniej – i profesjonalniej.

Pytanie 37

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. VCA
B. MASTER
C. BUS
D. AUX
Szyna AUX to w zasadzie taki „boczny tor” w miksie, który pozwala wysyłać część sygnału ze ścieżki do osobnego toru efektowego – najczęściej pogłosu, delay’a albo jakiegoś paralelnego kompresora. Typowe zastosowanie AUX-ów to właśnie wysyłki równoległe, gdzie nie chcesz całego sygnału przepuścić przez efekt, tylko jedynie podmieszać do oryginału odpowiednio przetworzony fragment. W DAW-ach, takich jak Cubase, Pro Tools czy Ableton Live, szyny AUX są standardowo przeznaczone do takich zadań, bo pozwalają na bardzo elastyczne zarządzanie poziomem wysyłki z każdej ścieżki niezależnie. Praktycznie cała branża opiera się na tym schemacie – nawet w klasycznych studiach analogowych stosowało się sendy AUX do efektów czasowych, bo to dawało tę swobodę budowania przestrzeni i głębi miksu bez nadmiernego obciążenia głównego sygnału. Warto pamiętać, że wysyłki na AUX-ach nie tylko odciążają komputer, ale też pozwalają na zachowanie klarowności miksu przez kontrolę proporcji sygnału suchego i efektowanego. Moim zdaniem, jak ktoś chce zapanować nad zaawansowanymi miksami, to bez zrozumienia roli AUX-ów ani rusz. Zresztą, to już taki kanon pracy, że nawet początkujący realizatorzy od razu powinni sięgnąć po ten sposób organizacji efektów – to po prostu się sprawdza i daje najbardziej muzykalne rezultaty.

Pytanie 38

Która z wymienionych operacji umożliwia zmianę czasu trwania regionu na ścieżce w sesji programu DAW, bez przycinania go?

A. Pitch Shift
B. Bounce
C. Time Stretch
D. Quantize
Time Stretch to absolutnie podstawowa funkcja w większości współczesnych DAW-ów, jeśli chodzi o modyfikowanie długości regionu audio bez wpływu na jego zawartość dźwiękową, czyli bez przycinania czy usuwania fragmentu nagrania. Mechanizm ten pozwala wydłużyć lub skrócić czas trwania klipu, jednocześnie zachowując całą oryginalną treść – po prostu dźwięki rozciągamy albo ściskamy w czasie. Bardzo często Time Stretch wykorzystywany jest do dopasowania tempa pętli perkusyjnych, sampli wokalnych lub całych fraz instrumentalnych do tempa projektu, szczególnie, gdy pracujemy na materiałach z różnych źródeł albo remiksujemy coś po swojemu. W praktyce, dzięki tej operacji, można z łatwością miksować elementy z różnych temp i uzyskiwać kreatywne efekty, np. zwolnienie partii wokalnej na refrenie bez utraty jakości brzmienia (oczywiście w granicach rozsądku). Co ciekawe, większość nowoczesnych DAW-ów, takich jak Ableton Live, FL Studio czy Logic Pro, oferuje zaawansowane algorytmy Time Stretch, które starają się minimalizować artefakty dźwiękowe i zachowywać jak największą naturalność brzmienia. Z mojego doświadczenia, użycie tej funkcji to właściwie chleb powszedni w produkcji muzyki elektronicznej, ale nie tylko – nawet w projektach lektorskich czy montażu podcastów Time Stretch daje mega fajne możliwości synchronizacji ścieżek. Ważne jest, żeby nie mylić tej funkcji z przycinaniem (Trim) czy kopiowaniem – Time Stretch nie usuwa żadnych danych, tylko rozkłada je w czasie.

Pytanie 39

Która z wymienionych płyt optycznych charakteryzuje się możliwością skasowania zawartości i ponownego zapisu?

A. HD DVD-R
B. BD-R
C. CD-RW
D. DVD+R
CD-RW to nośnik, który faktycznie pozwala na wielokrotny zapis i kasowanie danych. Działa trochę jak pendrive, tylko że w formie płyty optycznej. To jest spore ułatwienie – na przykład w laboratoriach komputerowych albo przy tworzeniu kopii zapasowych danych, kiedy często trzeba coś dopisać lub usunąć. Standard CD-RW (ang. Compact Disc ReWritable) został opracowany z myślą o użytkownikach potrzebujących elastyczności, której nie oferują zwykłe płyty CD-R. W praktyce, żeby korzystać z tej funkcji, trzeba mieć również nagrywarkę obsługującą standard CD-RW, bo nie każda stacja dysków sobie z tym radzi – to warto mieć z tyłu głowy. Często spotykałem się z sytuacjami, że ktoś próbował nagrać coś kolejny raz na CD-R i był zdziwiony, że się nie da. CD-RW pozwala na zapisanie i kasowanie informacji nawet do kilkuset razy, chociaż z mojego doświadczenia, po wielu cyklach ta płyta zaczyna działać trochę gorzej – to niestety normalne, bo fizyczna struktura zapisu się zużywa. W branży płyty wielokrotnego zapisu są polecane do testów, przechowywania tymczasowych backupów czy do transferu danych między komputerami, kiedy inne nośniki nie są dostępne. To nie jest już najnowsza technologia, ale cały czas zdarza się, że jest wykorzystywana w różnych nietypowych zastosowaniach – zwłaszcza tam, gdzie liczy się możliwość wielokrotnego nadpisywania danych.

Pytanie 40

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. CLOSE
B. NEW
C. OPEN
D. SAVE
Odpowiedź OPEN jest tutaj jak najbardziej na miejscu, bo właśnie ta opcja w menu FILE w większości programów typu DAW (czyli Digital Audio Workstation) służy do otwierania już istniejących, wcześniej zapisanych sesji czy projektów. Praktyka pokazuje, że w codziennej pracy realizatora czy producenta muzycznego to jedna z najczęściej używanych funkcji – bez niej praktycznie nie da się wrócić do swojej wcześniejszej pracy, poprawić miksu, dodać nowe ścieżki czy po prostu podejrzeć starsze ustawienia. Zresztą, sama logika menu FILE jest od lat utrzymywana w podobnej formie w większości aplikacji komputerowych, nie tylko muzycznych, co bardzo ułatwia naukę obsługi nowych programów. W typowych DAW-ach, takich jak Cubase, Ableton, Pro Tools czy FL Studio, komenda OPEN pozwala bezpośrednio przywołać plik projektu (najczęściej z rozszerzeniem właściwym dla danego programu), zachowując pełną strukturę ścieżek, ustawienia efektów, automatyki itd. Moim zdaniem, warto zawsze mieć nawyk częstego zapisywania sesji pod różnymi nazwami (np. wersjonowanie plików) i korzystania z opcji OPEN, gdy chcemy przetestować różne warianty miksu czy aranżacji. Co ciekawe, w środowisku profesjonalnym często nawet setupy studyjne mają skróty klawiszowe do szybkiego otwierania projektów, bo liczy się każda sekunda pracy i minimalizacja błędów ludzkich. Podsumowując: OPEN to nie tylko przywrócenie starej sesji, ale filar płynnej i bezpiecznej pracy z projektami muzycznymi.