Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 1 maja 2026 15:48
  • Data zakończenia: 1 maja 2026 16:01

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jak nazywa się okno dostępne w niektórych programach DAW, umożliwiające edytowanie zapisu nutowego utworu muzycznego?

A. MIDI EDITOR
B. MIX
C. EDIT
D. SCORE EDITOR
Okno SCORE EDITOR to kluczowa funkcja w wielu zaawansowanych programach DAW, zwłaszcza tych używanych do produkcji muzyki filmowej, klasycznej czy aranżacji orkiestrowych. Dzięki niemu można nie tylko zobaczyć zapis nutowy istniejących partii MIDI, ale też ręcznie wprowadzać i edytować nuty oraz kontrolować wszystkie niuanse wykonawcze typowe dla partytur. Moim zdaniem to jedno z tych narzędzi, które naprawdę otwiera nowe możliwości dla osób lepiej czujących się w tradycyjnej notacji muzycznej niż w samym edytorze pianolowym czy sekwencerze. W praktyce SCORE EDITOR pozwala na szybkie poprawki artykulacji, dynamiki czy akcentów, co jest bardzo istotne np. przy przygotowywaniu materiałów do wydruku dla żywych muzyków albo eksportu nut do innych systemów notacji. Wśród profesjonalistów przyjęło się, że SCORE EDITOR to właśnie miejsce do precyzyjnej pracy z zapisem nutowym i do przygotowywania aranżacji na różne składy instrumentalne. W Cubase, Logic Pro czy Studio One to narzędzie jest standardowym wyposażeniem, bo po prostu bez tego trudno byłoby komfortowo tworzyć bardziej złożoną muzykę z myślą o instrumentalistach. Z mojego doświadczenia wynika, że jeśli ktoś myśli poważnie o muzyce, warto nauczyć się obsługi SCORE EDITORA, bo nawet proste poprawki mogą mocno przełożyć się na końcowe brzmienie i czytelność utworu.

Pytanie 2

Która z opcji programu DAW umożliwia stworzenie nowej sesji z szablonu?

A. Open Last Session
B. Open Recent Session
C. Create Empty Session
D. Create Session from Template
Bardzo często zdarza się, że użytkownicy DAW mylą pojęcia związane z zarządzaniem sesjami, bo nazwy opcji bywają zbliżone lub wręcz mylące. 'Create Empty Session' to po prostu uruchomienie zupełnie pustego projektu – bez żadnych gotowych ścieżek, efektów czy routingu. Oczywiście czasami się to przydaje, np. gdy zaczynasz totalnie nowy, niestandardowy projekt, ale w praktyce, gdy zależy Ci na powtarzalności i oszczędności czasu, znacznie lepiej jest bazować na szablonach. Opcja 'Open Recent Session' służy jedynie do ponownego otwarcia jednej z ostatnio edytowanych sesji, bez możliwości skonfigurowania jej od podstaw według wzorca – to raczej skrót do już istniejącej pracy niż początek czegoś nowego. Podobnie jest z 'Open Last Session', która automatycznie ładuje ostatnio zamknięty projekt – świetne, gdy coś się niespodziewanie zamknęło, ale zupełnie nieprzydatne, jeśli chcesz rozpocząć nową sesję z gotową strukturą, efektami czy routingiem. Częstym błędem jest myślenie, że pusta sesja pozwala szybciej ruszyć z pracą – jednak w praktyce, bez szablonów, musisz za każdym razem na nowo konfigurować ścieżki, grupy czy efekty, co prowadzi do niepotrzebnej straty czasu i frustracji, zwłaszcza przy powtarzalnych zadaniach. W branży uważa się, że workflow zbudowany na szablonach to standard, bo znacząco upraszcza całą produkcję i miks, szczególnie w środowiskach, gdzie liczy się czas i przewidywalność efektów. Warto więc zawsze sprawdzić, co realnie robi dana opcja w DAW i jak to się przekłada na codzienną pracę, bo nie wszystkie metody są równie efektywne czy profesjonalne.

Pytanie 3

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. VCA
B. MASTER
C. BUS
D. AUX
Wiele osób myli pojęcia BUS, VCA, AUX i MASTER, bo w teorii wszystkie wiążą się z przepływem sygnału w mikserze DAW. Jednak każda z tych szyn ma zupełnie inne zadanie. BUS kojarzy się z przesyłaniem sygnału, ale w praktyce to bardziej grupa, do której sumuje się sygnały z kilku ścieżek – typowo po to, żeby np. kontrolować całość bębnów jednym suwakiem lub poddać je wspólnej kompresji. Nie służy zwykle do wysyłania równoległego sygnału na efekty, tylko do zbiorczej obróbki grupowej. Z kolei VCA to zupełnie inna bajka – to rodzaj „wirtualnego” kontrolera głośności dla grupy ścieżek, ale nie jest fizycznym miejscem, gdzie sygnał się sumuje czy przechodzi. To tylko sterowanie poziomem, bez możliwości nakładania efektów na całą grupę przez wysyłkę. MASTER zaś to końcowa szyna sumująca, do której trafia cały miks, i tam raczej nie wysyła się sygnału na efekty równoległe, bo grozi to sprzężeniami czy zamieszaniem w miksie. Typowym błędem jest zakładanie, że do wszystkiego używa się BUS-ów, przez co czasem nakłada się efekty „w insertach” zamiast przez wysyłkę AUX, tracąc kontrolę nad proporcjami sygnałów i zużywając niepotrzebnie moc procesora. Z mojego doświadczenia wynika, że poprawne rozróżnienie tych szyn i stosowanie AUX-ów do efektów równoległych to podstawa profesjonalnego miksu. Pozwala to nie tylko lepiej kontrolować miks, ale też ułatwia późniejsze poprawki i automatyzacje. Dla większości efektów typu reverb czy delay AUX jest wręcz niezastąpiony, bo tylko tak można łatwo ustalić, ile tego efektu ma trafić z każdej ścieżki, bez ryzyka rozjechania się poziomów czy fazy.

Pytanie 4

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Copy
B. Split
C. Lock
D. Mute
Wyciszenie (Mute) regionu w programie DAW to podstawa codziennej pracy producenta czy realizatora dźwięku. To właśnie ta funkcja pozwala na szybkie wyłączenie z odtwarzania konkretnego fragmentu materiału – bez potrzeby jego usuwania czy przesuwania. Bardzo często wykorzystuje się to podczas aranżacji piosenki, kiedy eksperymentujemy z różnymi kombinacjami ścieżek, chcąc np. sprawdzić, jak utwór zabrzmi bez wybranego instrumentu lub wokalu w danym fragmencie. Z mojego doświadczenia, mute jest też niezastąpiony przy edycji nagrań – jeśli trafia się fragment z jakimś błędem lub niepożądanym dźwiękiem, wyciszenie regionu pozwala szybko zapanować nad chaosem i skupić się na właściwej części projektu. Branżowe standardy jasno wskazują, że użycie mute jest bezpieczniejsze niż kasowanie, bo umożliwia cofnięcie decyzji w każdej chwili. Bardzo polecam korzystać z tego narzędzia zamiast pochopnego kasowania klipów – można potem wrócić do oryginału, jeśli koncepcja się zmieni. W praktyce większość DAW-ów (np. Cubase, Logic, Pro Tools) pozwala wyciszyć pojedyncze regiony, a nie tylko całe ścieżki, więc rozwiązanie jest bardzo elastyczne. Warto też pamiętać, że domyślny skrót do mute różni się między programami, więc dobrze sobie to skonfigurować, by nie tracić czasu w pracy.

Pytanie 5

Który z wymienionych nośników wykorzystuje zapis magnetooptyczny?

A. Kaseta DAT
B. Karta SDHC
C. Mini Disc
D. Dysk SSD
Wybór nośnika innego niż Mini Disc często wynika z mylenia technologii zapisu. Przykładowo, dysk SSD (Solid State Drive) wykorzystuje pamięć flash – zapis jest tu wyłącznie elektryczny, bez udziału światła czy pola magnetycznego. To nośnik nowoczesny, szybki, ale nie ma nic wspólnego z magnetooptyką. Kaseta DAT (Digital Audio Tape) działa zupełnie inaczej – to klasyczny zapis magnetyczny na taśmie, bardzo podobny do tradycyjnych kaset magnetofonowych, tylko w wersji cyfrowej. Tutaj nie ma udziału lasera ani żadnej optyki, wszystko opiera się na zmianach pola magnetycznego głowicy i taśmy, więc pole magnetooptyczne nie występuje w ogóle. Z kolei karta SDHC (Secure Digital High Capacity) bazuje na komórkach pamięci NAND, które również są całkowicie elektryczne i nie mają żadnej części optycznej. To właśnie duży błąd – wiele osób sądzi, że każdy nowoczesny nośnik to już jakaś forma połączenia różnych technologii, ale tak nie jest. Magnetooptyka to dość specyficzne połączenie: laser nagrzewa powierzchnię, a pole magnetyczne zmienia jej stan – to daje możliwość wielokrotnego zapisu oraz odporność na przypadkowe uszkodzenia, np. przez pola magnetyczne. Niestety, większość dzisiejszych urządzeń przeszła na pamięci flash, które są lżejsze, szybsze, ale jednocześnie mają ograniczoną trwałość cykli zapisu. W praktyce wybierając nośnik magnetooptyczny kierujemy się nie tylko technologią, ale też zapotrzebowaniem na bezpieczeństwo danych i ich trwałość. Moim zdaniem, znajomość zasady działania różnych typów nośników jest kluczowa, żeby nie dać się zmylić podobieństwom w nazwach lub zastosowaniu. W branży IT i archiwizacji właściwe rozróżnianie tych technologii to podstawa dobrych praktyk, a magnetooptyka – choć już niszowa – nadal jest ceniona tam, gdzie priorytetem jest niezawodność.

Pytanie 6

Wybierz z listy maksymalną rozdzielczość plików audio obsługiwaną przez współczesne aplikacje DAW.

A. 24 bity
B. 32 bity
C. 8 bitów
D. 16 bitów
Współczesne aplikacje DAW (Digital Audio Workstation) obsługują nagrywanie, edycję i miksowanie plików audio o rozdzielczości aż do 32 bitów. To naprawdę robi różnicę, zwłaszcza gdy pracujesz na wysokim poziomie profesjonalizmu i zależy Ci na jak najczystszym przetwarzaniu dźwięku. 32-bitowe pliki audio, zwłaszcza w formacie float, pozwalają na ogromny zakres dynamiki—przy miksowaniu praktycznie nie da się 'przesterować' śladu, a ryzyko utraty danych przez clipping czy zaokrąglenia znacznie spada. Praktyka pokazuje, że duża część aktualnych DAW, jak Ableton Live, Cubase czy Pro Tools, domyślnie już przetwarza audio wewnętrznie właśnie w 32 bitach float, nawet jeśli wejściowe nagranie ma niższą precyzję. To trochę jak jazda supernowoczesnym samochodem w mieście – nie zawsze wykorzystasz pełnię możliwości, ale w trudnych i wymagających sytuacjach ta rezerwa jakości naprawdę się przydaje. Moim zdaniem, jeśli aspirujesz do poważnego miksowania czy masteringu, warto korzystać z rozdzielczości 32 bity, zwłaszcza przy pracy z wieloma efektami czy automatyzacją. Trzeba jednak pamiętać, że pliki są wtedy większe, więc nie każdy komputer da radę płynnie je obrabiać. Ale w profesjonalnych studiach to już właściwie standard. No i jeszcze jedno – nawet jeśli końcowy eksport robisz do 24 czy 16 bitów, to rejestracja i obróbka w 32 bitach daje Ci po prostu większy margines bezpieczeństwa i lepszą jakość końcową.

Pytanie 7

Ile kanałów audio stosowanych jest w reprodukcji techniką 7.1?

A. 6
B. 8
C. 7
D. 12
Technika 7.1 w audio oznacza, że do dyspozycji mamy aż osiem niezależnych kanałów dźwięku, co pozwala na uzyskanie bardzo przestrzennego efektu podczas odsłuchu. Składa się to z siedmiu kanałów pełnopasmowych (przód lewy, przód centralny, przód prawy, surround lewy, surround prawy, tył lewy, tył prawy) oraz jednego kanału niskotonowego LFE (Low Frequency Effects), czyli popularnego subwoofera. Moim zdaniem to właśnie ta ostatnia ósemka robi często największą robotę, jeśli chodzi o poczucie "uderzenia" i głębi w kinie domowym – nie raz widziałem, jak dobry sub potrafił zmienić zwykły film w prawdziwe widowisko. Standard 7.1 jest obecnie szeroko stosowany w nowoczesnych systemach kina domowego, a także w bardziej zaawansowanych grach komputerowych i produkcjach filmowych na Blu-ray. Branżowe normy, jak np. Dolby Digital Plus czy DTS-HD Master Audio, dokładnie definiują strukturę takich systemów i wyraźnie wskazują 8 kanałów. Z mojego doświadczenia wynika, że dobrze rozplanowana instalacja 7.1 daje naprawdę imponujące efekty przestrzenne – dźwięki dosłownie otaczają słuchacza, a precyzyjne rozmieszczenie głośników wpływa na realizm doznań. Warto też pamiętać, że przejście z 5.1 na 7.1 pozwala wyraźnie poprawić doznania zwłaszcza w większych pomieszczeniach, gdzie dodatkowe tylne kanały robią sporą różnicę. Dla pasjonatów dźwięku przestrzennego to obecnie taki złoty środek między możliwościami technicznymi a rozsądną liczbą głośników.

Pytanie 8

Ile niezależnych ścieżek można jednocześnie zarejestrować, dysponując przetwornikiem z jednym wyjściem ADAT?

A. 14
B. 8
C. 4
D. 3
ADAT to obecnie bardzo popularny interfejs cyfrowy wykorzystywany w studiach nagraniowych i realizacyjnych. Standardowo, pojedynczy tor ADAT (czyli jedno wyjście optyczne Toslink ADAT) pozwala na przesłanie do 8 niezależnych kanałów audio przy rozdzielczości 24 bity i częstotliwości próbkowania 44,1 lub 48 kHz. To właśnie ta wartość – 8 kanałów – wyznacza maksimum niezależnych ścieżek, które można jednocześnie nagrać, korzystając z jednego wyjścia ADAT. W praktyce, to pozwala bardzo elastycznie rozbudować możliwości studyjnego toru nagraniowego: na przykład podpinając zewnętrzny ośmiokanałowy preamp mikrofonowy z wyjściem ADAT do interfejsu audio, można bez problemu nagrać całą perkusję lub zespół na żywo, zachowując pełną separację śladów. Co ciekawe, przy wyższych częstotliwościach próbkowania (np. 96 kHz) liczba kanałów zmniejsza się do 4 z powodu ograniczeń przepustowości – ale przy standardowych parametrach to zawsze 8. To rozwiązanie od lat znajduje zastosowanie w profesjonalnej produkcji muzycznej i broadcastowej, bo pozwala łatwo łączyć różne urządzenia cyfrowe bez strat jakości. Moim zdaniem, znajomość takich standardów to podstawa dla każdego, kto poważnie myśli o pracy w branży dźwiękowej, bo pozwala unikać niepotrzebnych komplikacji przy rozbudowie studia czy na scenie.

Pytanie 9

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -6 dB.
B. Nagrany z maksymalnym poziomem -0,3 dB.
C. Nagrany z maksymalnym poziomem -12 dB.
D. Nagrany z maksymalnym poziomem -3 dB.
Można się spotkać z przekonaniem, że nagrywanie na niższych poziomach, typu -6 dB czy nawet -12 dBFS, daje sygnał „bezpieczniejszy” lub że zapewnia lepszą rozpiętość dynamiczną, ale to jest nieporozumienie wynikające z mylenia bezpieczeństwa od przesterowania z wykorzystaniem dynamiki. W rzeczywistości, im niżej ustawisz maksymalny poziom sygnału podczas nagrania, tym bardziej ograniczasz rzeczywistą rozpiętość dynamiczną. Każdy decybel poniżej 0 dBFS to utracona przestrzeń, która zostaje „oddana” szumom konwertera AD lub tła w torze nagraniowym. Wprawdzie zostawienie odrobiny marginesu – np. tych 0,3 dB czy nawet 1 dB – jest dobrą praktyką, by uniknąć przypadkowego clippingu przy niespodziewanych transjentach, ale już zapas rzędu 6 czy 12 dB robi się bezsensowny, zwłaszcza w nowoczesnym cyfrowym torze nagraniowym. Często początkujący realizatorzy wychodzą z założenia, że „ciszej to bezpieczniej” i przez to nagrania wychodzą później matowe, mniej wyraziste, z gorszym stosunkiem sygnału do szumu – co może być problematyczne przy dalszej obróbce lub masteringu. Praktyka studyjna oraz standardy branżowe (np. AES, EBU) jasno wskazują, że optymalny poziom końcowy nagrania powinien być możliwie blisko 0 dBFS, ale bez przekraczania tej granicy – dlatego właśnie nagranie z poziomem -0,3 dB zapewnia największą możliwą rozpiętość dynamiczną i najlepszą jakość. Warto o tym pamiętać przy każdej sesji nagraniowej, bo to jeden z tych technicznych szczegółów, które realnie przekładają się na profesjonalny efekt końcowy.

Pytanie 10

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .wav
B. .mid
C. .ptx
D. .wfm
Zdarza się, że wybór pada na pliki .ptx – spotykane w środowisku Pro Tools, ale są one używane głównie jako pliki sesji, zapisujące strukturę całego projektu: ścieżki, ustawienia miksera, automatyki i rozmieszczenie regionów audio. Nie przechowują one jednak graficznych obwiedni ani samych przebiegów falowych audio. To raczej metaopis projektu. Z kolei .mid to zupełnie inna bajka – to standard wymiany danych muzycznych oparty na komunikatach MIDI, czyli nuty, velocity, kontrolery – ale nie zawiera w ogóle nagrań audio, a tym bardziej wizualizacji przebiegów tych nagrań. Taki plik jest po prostu „zapisem nut”, nie ma w nim żadnej informacji o kształcie fali dźwiękowej. Jeśli chodzi o .wav, ten format kojarzy się od razu z plikami audio najwyższej jakości, bo rzeczywiście to popularny kontener nieskompresowanych nagrań. Jednak .wav przechowuje tylko sam dźwięk, bez żadnych informacji wizualnych typu obwiednia czy przebieg – te dane generowane są dopiero przez DAW w postaci osobnych plików pomocniczych. Częsty błąd to zakładanie, że wszystko, co widzimy na ekranie, siedzi w .wav, choć w praktyce DAW generuje z pliku .wav obrazki do podglądu i przechowuje je właśnie w formacie .wfm (albo innym, zależnie od programu). Moim zdaniem to ważne, by rozróżniać pliki z danymi audio od tych, które odpowiadają tylko za wygodę pracy i podgląd – to ułatwia zarządzanie projektami i rozwiązywanie problemów z wydajnością czy synchronizacją sesji. W praktyce: jeśli przesyłasz komuś projekt DAW, żeby mógł od razu widzieć przebiegi falowe, nie zawsze wystarczy mu sam plik .wav czy .ptx – konieczne mogą być właśnie te dodatkowe pliki .wfm. To szczegół, ale jednak bardzo istotny w codziennej pracy z dźwiękiem cyfrowym.

Pytanie 11

Zastosowanie kompresora wpływa

A. na zmniejszenie dynamiki.
B. na ograniczenie niskich tonów.
C. na poszerzenie dynamiki.
D. na usunięcie szumów.
Kompresor to jedno z podstawowych narzędzi w obróbce dźwięku i miksowaniu muzyki, zwłaszcza w studiach nagraniowych czy podczas produkcji radiowej. Jego głównym zadaniem jest właśnie zmniejszenie dynamiki sygnału, czyli ograniczenie różnicy pomiędzy najcichszymi a najgłośniejszymi fragmentami nagrania. Po zastosowaniu kompresora głośne dźwięki stają się cichsze, a ciche mogą być podbite – to daje bardziej wyrównany, profesjonalny efekt finalny. Bez kompresora np. wokal bywa zbyt skokowy, czasem ledwo słyszalny, a czasem za bardzo wybija się ponad inne elementy miksu. Moim zdaniem dobry kompresor w rękach doświadczonego realizatora pozwala uzyskać tę charakterystyczną „spójność” brzmienia, którą słychać w komercyjnych produkcjach. Warto też pamiętać, że kompresja jest wręcz standardem w broadcastingu i masteringu – ciężko sobie wyobrazić gotowy materiał audio bez jakiejkolwiek formy kompresji. Oczywiście, jak ze wszystkim, trzeba uważać, żeby nie przesadzić, bo zbyt mocna kompresja może zabić naturalność i ekspresję wykonania. Ale generalnie, jeśli ktoś chce ogarnąć miks, kompresor to absolutna podstawa w zakresie kontroli dynamiki.

Pytanie 12

Normalizacja do 0 dB pliku o poziomie szczytowym -3 dB spowoduje podniesienie głośności

A. czterokrotnie.
B. o 1/4.
C. o połowę.
D. dwukrotnie.
Prawidłowo, normalizacja do 0 dB pliku o poziomie szczytowym -3 dB faktycznie powoduje podniesienie głośności dwukrotnie. Wynika to z charakterystyki skali decybelowej, która jest logarytmiczna. Każde 3 dB różnicy to w przybliżeniu podwojenie lub o połowę zmniejszenie mocy sygnału. Gdy plik audio ma szczyt na -3 dB, a normalizujemy go do 0 dB, wzmacniamy poziom szczytowy tak, by był dokładnie na granicy maksymalnej wartości bez przesterowania. To bardzo praktyczne, bo pozwala nam bezpiecznie wykorzystać całe dostępne pasmo dynamiki, na przykład przygotowując materiał do masteringu czy publikacji w internecie. W studiu często korzysta się z tej techniki dla zachowania spójności nagrań i uniknięcia sytuacji, w której jeden plik jest wyraźnie cichszy od innych. Warto pamiętać, że wzrost o 3 dB nie oznacza dwukrotnego odbioru głośności przez ucho, bo percepcja ludzka działa specyficznie, ale z technicznego punktu widzenia – energia sygnału rośnie dwukrotnie. Moim zdaniem to jedno z tych podstawowych zagadnień, które każdy realizator dźwięku powinien mieć w małym palcu, bo często się do tego wraca w codziennej pracy. W praktyce – klikając „Normalize to 0 dB” w programie DAW, naprawdę szybko możesz wyrównać poziomy ścieżek.

Pytanie 13

Popularny nośnik danych, podłączany do portu USB komputera, to

A. Memory Stick.
B. karta CF.
C. karta SD.
D. pendrive.
Pendrive to zdecydowanie najpopularniejszy nośnik danych, który podłączamy bezpośrednio do portu USB w komputerze. Często spotyka się go w szkołach, biurach, a nawet na uczelniach, gdzie szybko można przenosić pliki między różnymi urządzeniami. Od strony technicznej pendrive’y działają w oparciu o standard USB (najczęściej USB 2.0, ale coraz częściej także 3.0 i 3.1, które są jeszcze szybsze). Zaletą jest to, że nie wymagają żadnych dodatkowych adapterów, instalowania sterowników czy zewnętrznego zasilania – praktycznie każdy komputer z portem USB po prostu je wykrywa. Moim zdaniem trudno dziś wyobrazić sobie szybką wymianę danych bez pendrive’a, zwłaszcza w sytuacjach, gdy chmura nie wchodzi w grę (np. brak internetu, ograniczenia bezpieczeństwa). Warto pamiętać, że pendrive nie tylko służy do przenoszenia dokumentów czy zdjęć – można z niego uruchomić system (bootowalny pendrive), a nawet zainstalować oprogramowanie naprawcze do komputerów. W branży IT uznaje się, że to jedno z najprostszych i najbardziej niezawodnych narzędzi do transferu danych w fizycznej formie. Oczywiście, bezpieczeństwo danych tu też jest kluczowe, bo łatwo go zgubić – warto rozważyć szyfrowanie informacji na pendrive’ach, co jest coraz częściej stosowaną praktyką w firmach. Z mojego doświadczenia wynika, że pendrive’y są niezastąpione tam, gdzie liczy się czas i wygoda, a przy tym są wyjątkowo uniwersalne – komputery, telewizory, a nawet radia samochodowe potrafią je obsłużyć.

Pytanie 14

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. grup.
B. regionów.
C. znaczników.
D. ścieżek.
Wiele osób, szczególnie na początku swojej przygody z DAW-em, myli pojęcia takie jak grupy, ścieżki, regiony czy nawet znaczniki, bo wydają się podobne albo używane zamiennie. Jednak każde z nich spełnia zupełnie inną funkcję w kontekście zarządzania sesją audio. Grupy służą bardziej do wspólnej kontroli parametrów kilku ścieżek – na przykład żeby razem podgłośnić perkusję albo całą sekcję wokalną, ale nie mają żadnego powiązania z szybkim lokalizowaniem miejsc cięcia na osi czasu. Ścieżki to po prostu linie na timeline, na których osadzamy różne źródła dźwięku – wokal, gitarę, bębny – ale one same z siebie nie pozwalają wskazać konkretnych punktów edycyjnych. Regiony natomiast to fragmenty nagrań, które można przesuwać, kopiować czy dzielić, ale nawet jeśli coś pocięliśmy, to bez dodatkowego oznaczenia możemy łatwo się pogubić, zwłaszcza w gęstych projektach. Typowym błędem jest przekonanie, że skoro region jest odcięty, to DAW zapamięta, gdzie go przycięliśmy – niestety, nie; żeby do tego miejsca wrócić, trzeba użyć znacznika. To właśnie znaczniki są stworzone po to, by natychmiastowo skakać do wcześniej wyznaczonych lokalizacji, bez żmudnego przewijania czy wyszukiwania na ślepo. Moim zdaniem, jeśli ktoś polega na samych ścieżkach lub regionach w większych projektach, bardzo szybko zacznie tracić orientację. W standardach branżowych jasno się mówi: porządna sesja oznaczona markerami to nie tylko oszczędność czasu, ale też gwarancja, że cała ekipa produkcyjna będzie wiedziała, gdzie co się dzieje – nawet po kilku tygodniach wracania do projektu.

Pytanie 15

Jaką objętość ma stereofoniczny plik dźwiękowy o czasie trwania 1 minuty, częstotliwości próbkowania 44,1 kHz oraz rozdzielczości 16 bitów (bez kompresji danych)?

A. Około 5 MB
B. Około 20 MB
C. Około 10 MB
D. Około 1 MB
Dobrze wyłapane – plik dźwiękowy stereo o czasie trwania 1 minuty, próbkowaniu 44,1 kHz oraz rozdzielczości 16 bitów – taki jak typowe nagranie na płycie CD – faktycznie zajmuje około 10 MB miejsca na dysku (dokładnie: ~10,1 MB). W uproszczeniu taka objętość wynika z prostego rachunku: 44 100 próbek na sekundę × 16 bitów (czyli 2 bajty) × 2 kanały stereo × 60 sekund = 10 584 000 bajtów, czyli około 10,1 MB (bo 1 MB = 1024 × 1024 bajty). To bardzo klasyczny format, używany od lat w branży audio, zwłaszcza w produkcji muzyki i masteringu. Z mojego doświadczenia, takie pliki niemal zawsze pojawiają się tam, gdzie liczy się pełna jakość nagrania – radia, studio nagrań, archiwizacja. Warto wiedzieć, że bez kompresji (jak w formacie WAV czy PCM) te rozmiary są duże, dlatego w praktyce często stosuje się formaty stratne (MP3, AAC) czy bezstratne (FLAC), żeby zaoszczędzić miejsce. Ale jeśli ktoś chce pracować na oryginalnym materiale, to właśnie taki rozmiar pliku audio jest standardem. Moim zdaniem, świadomość tych obliczeń bardzo ułatwia planowanie przestrzeni dyskowej przy większych projektach dźwiękowych. Pamiętaj, podobne kalkulacje przydają się przy projektowaniu systemów do nagrywania koncertów, podcastów czy innych zastosowań multimedialnych.

Pytanie 16

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 60 minut.
B. 80 minut.
C. 70 minut.
D. 90 minut.
Płyta CD-Audio o pojemności 700 MB rzeczywiście pozwala na zapis maksymalnie około 80 minut muzyki w standardzie audio. To wynika bezpośrednio ze specyfikacji formatu CD-DA (Compact Disc Digital Audio), który został opracowany przez Sony i Philipsa. W praktyce na jednej płycie mieści się dokładnie 700 MB danych, co przekłada się właśnie na 80 minut nieskompresowanego dźwięku stereo o parametrach 16 bitów, 44,1 kHz. To są bardzo konkretne wartości, na których bazuje cała branża muzyczna od lat 80. W sklepach muzycznych praktycznie wszystkie albumy wydawane na CD mieszczą się w tym limicie, dlatego bardzo często dłuższe płyty dzielone są na dwie części albo skraca się materiał. Co ciekawe, CD-Audio nie używa kompresji, więc zapis jest liniowy, bez strat jakości, co wciąż jest cenione przez audiofilów. Przy masteringu utworów warto pamiętać, że nawet niewielkie przekroczenie 80 minut może spowodować problemy z odczytem na niektórych odtwarzaczach. Z mojego doświadczenia w pracy ze sprzętem audio wynika, że niektóre nagrywarki próbują zapisywać ponad standardową pojemność płyty (tzw. overburning), ale jest to niezalecane i często prowadzi do błędów. Jeśli ktoś planuje tworzyć własne składanki na CD, powinien zawsze brać pod uwagę te granice i korzystać z dedykowanego oprogramowania, które podsumowuje czas nagrania. To ułatwia uniknięcie problemów podczas odtwarzania na różnych urządzeniach.

Pytanie 17

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. FX
C. MASTER
D. AUX
Wiele osób myli oznaczenia ścieżek w DAW, bo rzeczywiście skróty jak FX, AUX czy nawet PREVIEW mogą się wydawać logiczne do automatyki, ale praktyka studyjna pokazuje coś innego. FX to ścieżki efektowe, gdzie wrzucasz np. pogłos, delay, chorus – ich główną funkcją jest przetwarzanie dźwięku przez konkretne efekty, nie zarządzanie głośnością całości miksu. AUX to tzw. tory pomocnicze, używane do wysyłania fragmentów sygnału na efekty czy grupowania śladów; automatykę tam stosuje się raczej do sterowania ilością efektu lub balansowania grupą śladów, a nie całością materiału. PREVIEW natomiast pojawia się częściej przy podglądaniu sampli, pętli, czasem do szybkiego odsłuchu czegoś poza głównym miksem – nie ma tam sensu ustawiać automatyki głośności dla zgranego projektu. Wydaje mi się, że częsty błąd to przekonanie, że ścieżka efektowa czy pomocnicza może sterować sumą miksu, ale to nie jest zgodne z logiką większości DAW i workflow profesjonalnego. Automatykę na MASTERZE stosuje się właśnie po to, by globalnie kontrolować poziom całego utworu lub miksu, zwłaszcza przy końcowym szlifie. To jest standard i dobra praktyka, bo tylko tam masz pewność, że zmiana dotyczy wszystkiego naraz – nie pojedynczych śladów ani grup. Jeśli ktoś automatyzuje głośność na FX albo AUX, może nieświadomie wpływać tylko na wybrane elementy miksu, tracąc kontrolę nad ogólnym poziomem końcowym. MASTER zapewnia czytelność i bezpieczeństwo procesu, a źle ustawiona automatyka na torach innych niż MASTER prowadzi zwykle do chaosu w miksie.

Pytanie 18

Który z podanych typów dodatkowej informacji tekstowej jest właściwy dla plików WAVE / BWF?

A. JPEG Comment
B. Broadcast Audio Extension
C. APE tag
D. Document Properties
Broadcast Audio Extension, czyli tzw. BWF (Broadcast Wave Format), to rozszerzenie formatu WAVE stworzone właśnie po to, żeby do zwykłego pliku audio można było dorzucić dodatkowe dane tekstowe – na przykład opis nagrania, informacje o autorze, copyright czy nawet kody czasowe do synchro z obrazem. Co fajne, BWF jest szeroko wykorzystywany w profesjonalnym audio, szczególnie w telewizji, radio, postprodukcji filmowej albo wszędzie tam, gdzie trzeba zachować ład i porządek w plikach. W praktyce wygląda to tak, że taki plik nadal ma rozszerzenie .wav, ale w środku, w tzw. chunkach, siedzą dodatkowe metadane. Najważniejszy z nich to właśnie „bext” chunk – tu lądują te wszystkie opisy czy numery wersji. Moim zdaniem to rozwiązanie jest dużo lepsze niż dorabianie jakichś zewnętrznych plików tekstowych czy kombinowanie z tagami innych formatów. Co ciekawe, większość dobrych programów DAW (np. Pro Tools, Nuendo) czy rejestratorów terenowych obsługuje BWF bez zająknięcia, czyli wszystko jest zgodne ze standardami branżowymi (EBU Tech 3285). No i nie musisz się martwić o kompatybilność, bo jak nie „czyta” tych metadanych, to plik nadal działa jak zwykły WAV. W branży to już takie trochę must-have, zwłaszcza jak się pracuje z archiwami albo dużą ilością materiału. Z mojego doświadczenia wynika, że osoby, które ogarniają BWF, są po prostu skuteczniejsze w pracy z audio profesjonalnym.

Pytanie 19

Które dane zawarte w dokumentacji montażowej przedstawia kod czasowy M:B:T zobrazowany przez licznik 00:00:000?

A. takty : ćwierćnuty : tiki
B. minuty : sekundy : milisekundy
C. minuty : sekundy : ramki
D. takty : ćwierćnuty : ósemki
W dokumentacji montażowej, szczególnie tej związanej z produkcją dźwięku czy montażem muzycznym, bardzo łatwo pomylić kod czasowy muzyczny z bardziej znanymi systemami pomiaru czasu, jak minuty, sekundy czy milisekundy. To dość częsty błąd, bo w codziennym życiu posługujemy się tymi jednostkami, a w programach do montażu wideo pojawiają się też ramki (frames). Jednak w świecie muzyki kod czasowy 00:00:000 wyrażony jako M:B:T (gdzie M to takty, B – ćwierćnuty, a T – tiki) odnosi się bezpośrednio do zapisu muzycznego, a nie do pomiaru upływu rzeczywistego czasu. Tik to najmniejsza możliwa podjednostka w takcie, często wykorzystywana przy precyzyjnym ustawianiu zdarzeń MIDI. Minuty, sekundy i milisekundy są typowe raczej dla edytorów audio lub wideo, gdzie ważniejsze są fizyczne ramy czasowe niż struktura rytmiczna. Ramki natomiast to pojęcie ściśle związane z montażem filmowym i synchronizacją obrazu z dźwiękiem, gdzie jedna sekunda dzieli się na określoną liczbę klatek. W zapisie muzycznym (szczególnie MIDI) nie stosuje się ani ramek, ani milisekund – bo granie idealnie w rytmie wymaga odniesienia do wartości muzycznych, a nie zegarka. Często pojawia się też mylenie tiki z ósemkami czy szesnastkami, ale to nie są te same jednostki – tiki są dużo drobniejsze. Z mojego doświadczenia wynika, że zrozumienie tego podziału pozwala lepiej kontrolować nawet najbardziej skomplikowane aranżacje czy automatykę efektów. Prawidłowe rozróżnianie tych systemów to podstawa profesjonalnego podejścia do produkcji muzyki i uniknięcia problemów przy eksporcie, synchronizacji czy dalszej obróbce materiału.

Pytanie 20

Konwersję pliku dźwiękowego kodekiem stratnym wykonuje się w celu

A. ograniczenia wielkości pliku.
B. uzyskania jednorodnej kopii pliku.
C. zmiany nazwy pliku.
D. zmiany lokalizacji pliku.
Konwersja pliku dźwiękowego przy użyciu kodeka stratnego, na przykład MP3, AAC czy OGG, to bardzo powszechna operacja, zwłaszcza gdy zależy nam na ograniczeniu rozmiaru pliku. W praktyce, kodeki stratne działają w ten sposób, że podczas kompresji usuwają część informacji, które w teorii są mniej istotne dla ludzkiego ucha. Oczywiście, coś za coś – redukcja wielkości pliku idzie w parze z pewną utratą jakości, chociaż dla większości zastosowań codziennych ta różnica jest ledwo zauważalna. Typowym przypadkiem jest przenoszenie muzyki na telefon czy odtwarzacz, gdzie nie chcemy marnować miejsca na dysku na pliki bezstratne. W studiu nagraniowym czy przy produkcji podcastów zwykle korzysta się z bezstratnych formatów (np. FLAC, WAV), ale na potrzeby dystrybucji internetowej czy archiwizacji na małym nośniku zdecydowanie wygrywają formaty stratne. Z mojego doświadczenia wynika, że praktycznie każda platforma streamingowa używa właśnie takich kodeków, żeby ograniczyć transfer i miejsce na serwerach. Tak naprawdę codziennie korzystamy z plików skompresowanych stratnie, nawet nie zdając sobie z tego sprawy. Warto też pamiętać, że kodeki stratne mają swoje ustawienia – można balansować jakość i wagę pliku, co jest bardzo wygodne. Według dobrych praktyk, jeśli nie zależy nam na absolutnie najwyższej jakości, a liczy się głównie wygoda i szybkość przesyłania, kompresja stratna jest zdecydowanie na miejscu.

Pytanie 21

Procesor dźwięku realizujący efekt echo wpływa na

A. przestrzenność materiału muzycznego.
B. wysokość przetwarzanych dźwięków.
C. dynamikę przetwarzanego sygnału.
D. pasmo częstotliwości przetwarzanego sygnału.
Efekt echo, realizowany przez procesor dźwięku, to klasyczny przykład obróbki sygnału, która podkreśla przestrzenność w muzyce czy nagraniach dźwiękowych. Moim zdaniem, w branży audio od zawsze ceni się umiejętne użycie echa do stworzenia wrażenia większego pomieszczenia albo wręcz przeniesienia słuchacza do zupełnie innej akustycznej przestrzeni. W praktyce echo działa na zasadzie opóźnienia i powielania oryginalnego sygnału z odpowiednim tłumieniem. Dzięki temu dostajemy efekt, który może być delikatny jak pogłos w małym pokoju albo bardzo wyraźny, wręcz stadionowy. Często wykorzystuje się echo w miksowaniu muzyki elektronicznej czy wokali, żeby nadać utworowi głębię lub stworzyć tło, które nie byłoby możliwe do uzyskania w suchym, studyjnym otoczeniu. Standardy studyjne, takie jak te stosowane w produkcji stereo czy miksowaniu wielokanałowym, zawsze uwzględniają efekty przestrzenne do kreowania bardziej realistycznego lub kreatywnego obrazu dźwiękowego. Oczywiście, echo nie wpływa na dynamikę, wysokość czy pasmo — jego celem jest właśnie przestrzenność. Moim zdaniem, umiejętne korzystanie z echa bardzo odróżnia profesjonalne realizacje od tych amatorskich, bo potrafi dodać nagraniom wyjątkowego charakteru i 'oddechu'.

Pytanie 22

Procesorem dźwięku, który przy przetwarzaniu sygnału audio wykorzystuje parametr knee jest

A. equalizer.
B. kompresor.
C. delay.
D. reverb.
Kompresor to procesor dźwięku, który rzeczywiście wykorzystuje parametr „knee” podczas przetwarzania sygnału audio. Parametr ten określa, jak łagodnie lub gwałtownie kompresja wchodzi w działanie, kiedy poziom sygnału przekracza próg (threshold). W praktyce miękkie „knee” oznacza płynniejsze, mniej słyszalne przejście, co jest szczególnie przydatne przy pracy z wokalami albo instrumentami akustycznymi, gdzie naturalność i brak artefaktów są bardzo cenne. Moim zdaniem to właśnie dzięki „knee” kompresory analogowe tak lubiane są przez realizatorów – całość brzmienia nie jest „obcinana” nagle, tylko subtelnie kontrolowana. Współczesne pluginy DAW też dają szeroką regulację tego parametru, co pozwala na jeszcze większą kreatywność. W branży audio uznaje się, że prawidłowe używanie „knee” świadczy o zaawansowanej znajomości narzędzi i świadomej pracy z dynamiką. Kompresor z dobrze ustawionym „knee” to podstawa w miksie radiowym, telewizyjnym czy muzycznym – nie wyobrażam sobie profesjonalnego projektu bez tej funkcji. Warto eksperymentować z różnymi ustawieniami, żeby zrozumieć, jak „miękkość” lub „twardość” kompresji wpływa na odbiór nagrania. To taki drobiazg, który potrafi zrobić ogromną różnicę w końcowym efekcie.

Pytanie 23

Ile klatek będzie trwał 2 sekundowy fade-out, jeżeli timecode montowanego projektu wynosi 30 fps?

A. 30 klatek.
B. 60 klatek.
C. 90 klatek.
D. 15 klatek.
Prawidłowa odpowiedź to 60 klatek i ma to całkowicie sens, szczególnie jak się zastanowisz, jak działa timecode w projektach wideo. Timecode 30 fps oznacza, że w każdej jednej sekundzie filmu wyświetlanych jest dokładnie 30 klatek. Czyli jeśli chcesz zrobić fade-out przez 2 sekundy, to po prostu mnożysz 2 x 30 i wychodzi 60 klatek. Z mojego doświadczenia wynika, że znajomość tej prostej kalkulacji oszczędza mnóstwo czasu w montażu, bo łatwiej precyzyjnie ustawić przejścia czy efekty bez zgadywania i testowania na oko. W praktyce, jak robisz fade’y w programach typu Premiere, DaVinci Resolve czy nawet w prostych edytorach, bardzo często te narzędzia pozwalają ci wpisać dokładną liczbę klatek i czas trwania efektu. W branży filmowej często liczy się detale i synchronizacja – jeśli twój fade-out musi się zgadzać z jakimś dźwiękiem czy wejściem kolejnej sceny, to precyzja jest kluczowa. Warto też pamiętać, że standardy telewizyjne i internetowe różnią się czasami ilością klatek na sekundę (np. 25 fps w Europie), ale zasada zawsze ta sama: mnożysz czas w sekundach przez fps. Takie podejście daje ci pełną kontrolę nad tym, jak długo trwa efekt i jak płynnie wygląda dla widza – a to robi różnicę nie tylko technicznie, ale i wizualnie. Sam często wychodzę z założenia, że im lepiej rozumiesz podstawy timecode’u, tym łatwiej potem ogarniać bardziej zaawansowane rzeczy, jak keyframe’y czy synchronizację obrazu z dźwiękiem. Warto zapamiętać ten przelicznik, bo wraca praktycznie w każdym projekcie montażowym.

Pytanie 24

Kompresja równoległa polega na

A. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
B. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
C. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
D. jednoczesnej kompresji wszystkich ścieżek wokalnych.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 25

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania do

A. 90 minut.
B. 70 minut.
C. 60 minut.
D. 80 minut.
Płyta CD-Audio o pojemności 700 MB pozwala na zapis materiału dźwiękowego do 80 minut i to jest taka wartość, która praktycznie stała się standardem branżowym dla tego typu nośników. Chociaż na pierwszy rzut oka pojemność 700 MB może wydawać się spora i sugerować możliwość zapisania jeszcze więcej muzyki, to trzeba pamiętać, że format CD-Audio nie korzysta z kompresji danych (jak np. MP3), tylko zapisuje bezstratnie dźwięk w standardzie PCM o częstotliwości próbkowania 44,1 kHz i rozdzielczości 16 bitów na kanał stereo. To oznacza spory strumień danych – ok. 10 MB na każdą minutę muzyki stereo. Stąd właśnie ta liczba – 80 minut to maksimum, ile da się zmieścić na 700 MB przy zachowaniu jakości wymaganej przez standard Red Book, który określa parametry płyt CD-Audio. Moim zdaniem to całkiem uczciwy kompromis pomiędzy jakością a czasem trwania materiału. W praktyce większość albumów muzycznych mieściła się w tym limicie i nie trzeba było ciąć kawałków. Często w produkcji płyt płyty 80-minutowe były wykorzystywane do albumów kompilacyjnych czy koncertowych, gdzie każda minuta była na wagę złota. Warto pamiętać, że jak już wykraczasz poza te 80 minut, napędy CD mogą mieć problem z odczytem albo płyta w ogóle nie będzie zgodna ze starszym sprzętem. To kolejny przykład, jak ważne jest trzymanie się branżowych norm.

Pytanie 26

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 96 kHz
B. 88,2 kHz
C. 48 kHz
D. 44,1 kHz
Dobrze, że to zauważyłeś – dwukrotne nadpróbkowanie dźwięku odnosi się bezpośrednio do podwojenia częstotliwości próbkowania względem wartości wyjściowej. Standard CD-Audio pracuje z częstotliwością próbkowania 44,1 kHz, co pozwala na wierne odwzorowanie dźwięków do ok. 22 kHz (zgodnie z twierdzeniem Nyquista). Jeśli więc zastosujemy nadpróbkowanie x2, nowa częstotliwość próbkowania wyniesie 88,2 kHz. Taki zabieg stosuje się często w profesjonalnych studiach nagraniowych czy podczas obróbki audio, żeby uzyskać więcej szczegółów w dźwięku albo żeby mieć większy komfort przy późniejszej edycji sygnału, na przykład przy filtracji czy konwersji do niższych rozdzielczości. Moim zdaniem warto pamiętać, że 88,2 kHz jest naturalną wielokrotnością 44,1 kHz, więc konwersja między tymi częstotliwościami odbywa się bezstratnie i bez żadnych problemów z aliasingiem. To ważne w przypadku masteringu na różne nośniki. W branży audio spotyka się też częstotliwości jak 48 kHz czy 96 kHz, ale one są bardziej związane z video i zastosowaniami broadcastowymi, a nie z typowym audio CD. Także, jak dla mnie, dobrze zapamiętać właśnie ten związek przy nadpróbkowaniu sygnału audio.

Pytanie 27

Jednowarstwowy nośnik Blu-ray umożliwia zapis maksymalnie

A. 25 GB danych.
B. 10 GB danych.
C. 20 GB danych.
D. 15 GB danych.
Jednowarstwowy nośnik Blu-ray umożliwia zapis do 25 GB danych i to jest dokładnie wartość określona przez oficjalny standard Blu-ray Disc Association. To właśnie dzięki wykorzystaniu niebieskiego lasera (o długości fali około 405 nm) można uzyskać tak dużą gęstość zapisu na tej samej wielkości płycie, co DVD czy CD. W praktyce oznacza to, że na jednej płycie jednowarstwowej można zmieścić nawet dwugodzinny film w jakości Full HD wraz z dodatkowymi materiałami, napisami i ścieżkami dźwiękowymi. Często w pracy spotykam się z sytuacjami, gdzie klienci chcą archiwizować duże ilości zdjęć czy projektów graficznych – Blu-ray sprawdza się wtedy lepiej niż zwykłe DVD, bo nie trzeba dzielić danych na kilka płyt. W branży IT przyjęło się właśnie wykorzystywanie nośników o pojemności 25 GB do tworzenia kopii zapasowych lub dystrybucji oprogramowania, szczególnie tam, gdzie liczy się odporność na uszkodzenia i długi okres przechowywania danych. Trzeba pamiętać, że istnieją również wersje dwuwarstwowe (50 GB) i więcej, ale ta podstawowa, jednowarstwowa płyta zawsze mieści dokładnie 25 GB. To ważny fakt, jeśli chcesz poprawnie dobierać nośniki do określonych zadań lub planować archiwizację danych na konkretną ilość przestrzeni. Moim zdaniem znajomość tych parametrów to podstawa, zwłaszcza jeśli działa się w świecie cyfrowego przetwarzania informacji.

Pytanie 28

Ile wynosi maksymalna dynamika dźwięku zapisanego z rozdzielczością 16 bitów?

A. 192 dB
B. 96 dB
C. 144 dB
D. 48 dB
Z punktu widzenia techniki cyfrowej, dynamika dźwięku to różnica między najcichszym a najgłośniejszym sygnałem, który można zapisać bez zniekształceń. W przypadku zapisu 16-bitowego, zgodnie z przyjętym standardem (np. w płytach CD), maksymalna wartość dynamiki to 96 dB. Bardzo często spotyka się błędne założenia, że liczba bitów może przekładać się bezpośrednio na dużo większy zakres – stąd niektórzy wpisują odpowiedzi w stylu 144 dB czy nawet 192 dB, myląc fakty lub utożsamiając wyższe wartości z wyższą jakością bez analizy, ile faktycznie bitów jest w danym standardzie. 144 dB dynamiki jest teoretycznym maksimum przy 24 bitach, a 192 dB to już raczej abstrakcja, spotykana tylko w niektórych materiałach marketingowych lub teoretycznych rozważaniach. Z kolei 48 dB sugerowałoby, że używamy zaledwie 8 bitów – takie wartości spotyka się czasem w bardzo prostych systemach dźwiękowych, jak stare gry komputerowe czy syntezatory, ale kompletnie nie pasuje do nowoczesnych standardów audio. Moim zdaniem często gubi się w tej tematyce to, że wzrost rozdzielczości bitowej daje przewidywalny wzrost dynamiki: każdy bit to około 6 dB, a więc 16 × 6 dB daje nasze 96 dB. W rzeczywistych systemach, z uwagi na szumy i ograniczenia przetworników, praktycznie dostępna dynamika może być nieco mniejsza, jednak przyjęło się, że 96 dB to ta typowa, książkowa wartość do zapamiętania. Branża audio przez lata trzyma się właśnie tego standardu, a każda inna odpowiedź wynika raczej z błędnych kalkulacji lub niezrozumienia, ile faktycznie bitów obsługuje dany format. Dlatego warto zawsze sprawdzać specyfikacje techniczne i pamiętać o tym prostym przeliczniku: 1 bit ≈ 6 dB.

Pytanie 29

Która komenda oprogramowania DAW służy do zmiany fazy sygnału audio?

A. Crossfade
B. Gain
C. Invert
D. Cut
Komenda „Invert” w DAW to bardzo praktyczna funkcja, która pozwala na odwrócenie fazy sygnału audio o 180 stopni. To może się wydawać na pierwszy rzut oka trochę abstrakcyjne, ale w praktyce jest to szalenie przydatne podczas miksowania. Na przykład – wyobraź sobie, że nagrywasz perkusję kilkoma mikrofonami naraz. Często okazuje się, że niektóre ślady wzajemnie się znoszą, bo ich fale dźwiękowe są w przeciwnej fazie (szczególnie ze stopą i werblem potrafi być zamieszanie). W takich sytuacjach szybkie „Invert” na jednym ze śladów potrafi całkowicie odmienić brzmienie – nagle wszystko staje się pełniejsze, basy wracają na swoje miejsce. To już taka klasyka miksu, zwłaszcza przy nagraniach wielośladowych czy dogrywaniu wokali. Warto pamiętać, że „Invert” nie zmienia głośności, nie ucina ani nie skleja ścieżki, tylko odwraca polaryzację – plus staje się minusem i odwrotnie. W branży to jedna z podstawowych technik sprawdzania kompatybilności fazowej między ścieżkami. Moim zdaniem, nawet jak na początku trudno to usłyszeć, to z czasem ucho zaczyna wyłapywać subtelne różnice. A dobry realizator zawsze pilnuje fazy, bo bez tego nawet najlepsze nagranie zabrzmi płasko i bez energii. Invert jest po prostu niezastąpiony do szybkiego testowania i naprawiania problemów fazowych – to taka codzienna, mała, inżynierska sztuczka.

Pytanie 30

Kopię sesji o parametrach: 48 kHz, 24 bity, należy sporządzić jako kopię o następujących parametrach:

A. 48 kHz, 16 bitów.
B. 96 kHz, 16 bitów.
C. 48 kHz, 24 bity.
D. 96 kHz, 24 bity.
Wybrałeś parametry 48 kHz oraz 24 bity – i bardzo dobrze! To jest właśnie kluczowa sprawa, jeśli chodzi o kopiowanie sesji audio z zachowaniem jakości i kompatybilności. W branży dźwiękowej przyjęło się, że archiwalna lub robocza kopia powinna być wykonywana dokładnie w tych samych parametrach, w jakich była sesja oryginalna. Dzięki temu unikasz niepotrzebnych konwersji, które mogłyby niepotrzebnie pogorszyć jakość nagrania lub wprowadzić dodatkowe artefakty. Przykładowo, jeśli pracujesz w studiu nagrań i sesja została przygotowana w 48 kHz/24 bity, to każda kopia na archiwizację, dalszy montaż czy wysyłkę do innego realizatora powinna mieć te same ustawienia. Tak robią profesjonaliści, bo to gwarantuje pełną zgodność oraz bezpieczeństwo danych. Przeskakiwanie między różnymi częstotliwościami próbkowania czy głębiami bitowymi zwykle nie ma sensu, chyba że jest jakiś bardzo konkretny powód, np. przygotowanie masteru do CD (44.1 kHz/16 bitów), ale to już zupełnie inna sprawa. Z mojego doświadczenia wynika, że konsekwencja w zachowywaniu parametrów to po prostu mniej problemów na każdym etapie produkcji. Warto też wspomnieć, że 48 kHz/24 bity to obecnie taki branżowy standard dla audio w filmie, reklamie czy grach. Zawsze lepiej mieć za dużo jakości niż za mało, a niepotrzebne obniżanie parametrów po prostu się nie opłaca.

Pytanie 31

Który z wymienionych skrótów klawiaturowych służy do zapisania sesji oprogramowania DAW na dysku komputera?

A. CTRL + V (Win) / Command + V (Mac)
B. CTRL + S (Win) / Command + S (Mac)
C. CTRL + C (Win) / Command + C (Mac)
D. CTRL + X (Win) / Command + X (Mac)
CTRL + S (Windows) oraz Command + S (Mac) to chyba najbardziej intuicyjny skrót w każdej aplikacji komputerowej, ale w DAW-ach (Digital Audio Workstation) jest wręcz podstawowym narzędziem pracy. Dzięki niemu można zapisać całą sesję, wszystkie projekty i nagrania bez potrzeby przeklikiwania się przez menu. To ogromna oszczędność czasu, zwłaszcza gdy pracujesz na wielu ścieżkach albo masz rozbudowaną sesję z masą efektów czy automatyzacji. Co ciekawe, praktycznie każdy program audio – od Abletona przez Cubase aż po Pro Tools – korzysta właśnie z tego skrótu do zapisywania projektu. Moim zdaniem to trochę tak jakby w samochodzie mieć szybki dostęp do hamulca – po prostu musisz mieć to pod ręką. W branży mówi się nawet o tzw. muscle memory na ten skrót – odruchowo wciskasz go po każdej większej zmianie, żeby nie stracić efektów pracy. Swoją drogą, nauczenie się zapisywania co parę minut to nawyk, który potrafi uratować całą sesję, zwłaszcza jeśli DAW się zawiesi albo padnie zasilanie. Z mojego doświadczenia wynika, że osoby, które automatycznie korzystają z CTRL + S, rzadziej tracą projekty, mniej się stresują i ogólnie pracują sprawniej. Dla porządku warto wiedzieć, że chociaż DAW-y coraz częściej oferują autozapis, to jednak ręczny zapis zawsze daje ci pełną kontrolę nad wersjami projektu – możesz zrobić backup, zapisać pod inną nazwą, wrócić do wcześniejszej wersji. Mając to wszystko na uwadze, dobrze jest po prostu wyrobić sobie ten nawyk już na początku przygody z DAW-ami.

Pytanie 32

Który z rozmiarów bufora danych umożliwia uzyskanie minimalnej latencji podczas nagrania dźwięku w sesji oprogramowania DAW?

A. 64 próbki.
B. 32 próbki.
C. 256 próbek.
D. 128 próbek.
Wybór większego bufora – 64, 128 czy nawet 256 próbek – to dość częsty wybór wśród początkujących, bo wydaje się, że stabilność systemu jest ważniejsza niż latencja. Jednak w praktyce wygląda to trochę inaczej. Zwiększenie bufora faktycznie wpływa pozytywnie na stabilność pracy komputera i zmniejsza ryzyko trzasków czy zawieszania się programu, szczególnie jeżeli projekt jest już rozbudowany i wykorzystuje wiele wtyczek czy instrumentów wirtualnych. Jednak kosztem takiej decyzji jest wyraźnie wyższa latencja, czyli opóźnienie między zagraniem dźwięku a jego usłyszeniem w odsłuchu. W nagraniach na żywo, przy monitoringu, nawet niewielkie opóźnienia potrafią mocno przeszkadzać wykonawcom i psuć całą dynamikę pracy. Często spotykam się z przekonaniem, że bufor 128 lub 256 próbek to „złoty środek”, ale to raczej kompromis wykorzystywany podczas miksowania lub pracy na słabszych komputerach. Tak naprawdę, zgodnie z dobrymi praktykami branżowymi, minimalną latencję zapewnia najniższa wartość bufora, czyli 32 próbki, o ile tylko sprzęt na to pozwala. Przestawianie bufora na wyższe wartości ma sens dopiero wtedy, gdy komputer nie radzi sobie z obciążeniem lub pojawiają się artefakty dźwiękowe. Często osoby początkujące nie zauważają, jak bardzo latencja wpływa na komfort nagrywania – czasem nawet kilka milisekund potrafi rozbić cały groove i utrudnić synchronizację muzyków. Z mojego doświadczenia wynika, że zbyt duży bufor podczas nagrań to jeden z najczęstszych błędów, który potem mści się na efekcie końcowym. Dlatego jeśli mówimy o minimalnej latencji w sesji DAW i nagrywaniu, to tylko najniższy rozmiar bufora – 32 próbki – spełni to zadanie.

Pytanie 33

Która z opcji w programie DAW służy do zmiany częstotliwości próbkowania sygnału w pliku?

A. Time Stretching
B. Invert Phase
C. Pitch Shifting
D. Resample
Prawidłowa odpowiedź to Resample, bo właśnie ta opcja w DAW-ach umożliwia zmianę częstotliwości próbkowania sygnału audio – to taki trochę techniczny odpowiednik „przeskalowania” pliku dźwiękowego do innego standardu, jak na przykład z 44,1 kHz na 48 kHz. To bardzo przydatna funkcja np. kiedy pracujesz nad projektem, w którym ścieżki pochodzą z różnych źródeł i muszą mieć jednolitą częstotliwość próbkowania, bo inaczej mogą pojawić się szumy albo dziwne zniekształcenia. Z mojego doświadczenia najczęściej korzysta się z resamplingu przy eksporcie gotowych miksów do różnych formatów albo kiedy importujesz próbki przygotowane w innej sesji. Branżowe standardy, np. w studiach telewizyjnych, wymagają często 48 kHz, a płyty CD to 44,1 kHz, więc bez resamplingu ani rusz. Warto też wiedzieć, że dobre DAWy używają algorytmów wysokiej jakości, żeby podczas zmiany częstotliwości nie tracić na jakości dźwięku. Bardzo polecam sprawdzić, jakie opcje resamplingu oferuje Twój DAW, bo niektóre mają nawet różne tryby, zależnie czy priorytetem jest jakość czy szybkość działania. To jedna z podstawowych umiejętności przy pracy z dźwiękiem na wyższym poziomie.

Pytanie 34

Która z funkcji w sesji oprogramowania DAW umożliwia wycięcie fragmentu sygnału na ścieżce bez usuwania go z dysku twardego komputera?

A. COPY
B. MUTE
C. PASTE
D. CUT
Funkcja CUT w oprogramowaniu typu DAW (Digital Audio Workstation) jest podstawowym narzędziem edycyjnym, które pozwala na szybkie wycięcie wybranego fragmentu sygnału audio lub MIDI na ścieżce. Trzeba pamiętać, że wykonując tę operację w DAW, najczęściej nie usuwamy nagranego materiału na stałe z dysku – po prostu dany fragment znika z aranżacji, ale plik źródłowy nadal pozostaje nienaruszony w folderze projektu. W praktyce, jeżeli przypadkiem wytniesz coś za dużo, zawsze możesz użyć opcji cofnij lub wstawić wycięty fragment w inne miejsce, korzystając z PASTE. Szczerze mówiąc, to bardzo wygodne rozwiązanie, bo pozwala eksperymentować bez stresu, że coś przepadnie na zawsze – to trochę jak praca z kopiami warstw w programach graficznych. Branżowe standardy, takie jak nieniszcząca edycja, są fundamentem pracy z dźwiękiem i dzięki temu możesz spokojnie testować różne pomysły na aranżację, nie bojąc się o oryginalny materiał. Wielu realizatorów dźwięku ceni sobie CUT właśnie za elastyczność i możliwość błyskawicznego reagowania na potrzeby projektu, a jednocześnie zachowanie porządku w sesji. Warto jeszcze wspomnieć, że niektóre DAWy dają możliwość podglądu historii edycji, więc nawet po serii skomplikowanych cięć można bez problemu wrócić do wcześniejszej wersji projektu. W codziennej pracy taka funkcjonalność po prostu ratuje skórę, zwłaszcza przy dużych projektach lub pracy pod presją czasu.

Pytanie 35

Która z wartości rozdzielczości bitowej zapewnia najmniejszy poziom szumów kwantyzacji w sygnale fonicznym?

A. 8 bitów.
B. 16 bitów.
C. 24 bity.
D. 20 bitów.
24 bity to standard, który w praktyce gwarantuje bardzo niski poziom szumów kwantyzacji w sygnale fonicznym – praktycznie nie do odróżnienia dla ludzkiego ucha, nawet przy bardzo cichych fragmentach. Z mojego doświadczenia, w profesjonalnych studiach nagraniowych oraz przy produkcji muzyki używa się właśnie 24-bitowej rozdzielczości, bo pozwala zachować ogromny zakres dynamiki (ponad 140 dB!), co jest kluczowe, gdy miksuje się wiele ścieżek lub wielokrotnie modyfikuje nagranie. Im wyższa głębia bitowa, tym dokładniej można odwzorować ciche i głośne fragmenty – a szum kwantyzacji praktycznie zanika. To dlatego mastering audio, produkcja filmowa czy sample banki opierają się o 24 bity. Dla porównania, płyta CD wykorzystuje 16 bitów, co też daje bardzo dobrą jakość, ale już mniej miejsca na subtelności, zwłaszcza przy obróbce materiału. Oczywiście, wyższa bitowość wymaga większej pojemności dysku i mocniejszego sprzętu, ale w dzisiejszych czasach to już nie problem. Moim zdaniem, kto raz nagrywał w 24 bitach, ten nie chce wracać do niższych rozdzielczości. Jeśli zależy ci na naprawdę czystym, profesjonalnym dźwięku bez cyfrowych artefaktów, 24 bity to po prostu właściwy wybór.

Pytanie 36

Który z parametrów pliku audio wskazuje rodzaj użytego kodeka?

A. Rozmiar.
B. Nazwa.
C. Rozszerzenie.
D. Przepływność.
W praktyce spotykam się często z sytuacją, gdy osoby zaczynające przygodę z plikami audio mylą parametry takie jak nazwa, rozmiar czy przepływność z faktycznym typem kodeka. Nazwa pliku, choć czasami bywa opisowa (np. "piosenka_mp3"), nie daje gwarancji co do użytego kodeka – można ją dowolnie ustawić i nie ma ona żadnego technicznego związku z formatem zakodowania dźwięku. Rozmiar pliku natomiast zależy od wielu czynników: długości nagrania, wybranej przepływności, ilości kanałów (mono/stereo), a nawet obecności dodatkowych danych, jak okładka czy tagi ID3. To zdecydowanie nie jest parametr wskazujący rodzaj użytego kodeka, bo np. plik MP3 o wysokiej jakości może być większy niż plik FLAC o krótkim czasie trwania. Przepływność (ang. bitrate) to ważna cecha wpływająca na jakość i rozmiar pliku, ale różne kodeki mogą pracować przy tej samej przepływności – np. zarówno MP3, jak i AAC mogą mieć ustawione 128 kbps, a jednak są zakodowane zupełnie inną technologią. Typowy błąd myślowy polega tutaj na zbyt powierzchownym rozumieniu parametrów – łatwo założyć, że to, co widać na pierwszy rzut oka (nazwa, wielkość, bitrate), sugeruje nam wszystko o pliku, podczas gdy tylko rozszerzenie faktycznie jest bezpośrednio powiązane z typem kodeka. Warto w praktyce zwracać uwagę na ten detal, bo poprawna identyfikacja kodeka ma kluczowe znaczenie przy konwersjach, odtwarzaniu i archiwizacji materiałów dźwiękowych. Prawidłowe rozpoznanie kodeka pozwala uniknąć problemów z kompatybilnością i nieporozumień przy pracy z oprogramowaniem audio. W branży zawsze kładzie się nacisk na stosowanie plików z poprawnym rozszerzeniem i weryfikowanie tego parametru, szczególnie w środowiskach profesjonalnych.

Pytanie 37

Od jakich czynności rozpoczyna się miks nagrania wielośladowego?

A. Korekty barwy poszczególnych śladów.
B. Ustalenia panoramy śladów.
C. Ustalenia poziomów głośności śladów.
D. Wzmocnienia cichych fragmentów nagrania.
Prawidłowo, miks nagrania wielośladowego praktycznie zawsze zaczyna się od ustalenia poziomów głośności śladów. To bardzo ważny etap, bo dzięki temu można zapanować nad proporcjami wszystkich instrumentów czy wokali w miksie. Jeżeli od razu zaczniesz kręcić korekcją czy efektami, a ścieżki będą na różnych poziomach, ciężko będzie później osiągnąć klarowność i równowagę. W branży przyjęło się, że najpierw ustawiasz faderami balanse, czyli próbujesz usłyszeć, jak każdy ślad siedzi w kontekście całości – i czy żaden nie dominuje za bardzo lub nie ginie. To taki punkt wyjścia do dalszej pracy. Z mojego doświadczenia dobrze jest najpierw wrzucić sobie wszystkie ślady na zero na suwaku i od tego miejsca stopniowo wyciszać mniej ważne ścieżki, aż całość nabierze sensu. Nawet najlepsza panorama czy korekcja nie uratuje miksu, jeśli proporcje głośności są od początku złe. To jest coś, co wynika z podstawowych standardów pracy w studiu – każdy profesjonalny realizator to potwierdzi. Dopiero po ustawieniu balansu głośności można przejść do dalszych kroków, takich jak panorama, korekcja barwy czy kompresja. To trochę jak z gotowaniem – trzeba mieć dobre proporcje składników, zanim zaczniesz przyprawiać. Bez tego nie da się zrobić porządnego miksu, serio.

Pytanie 38

Która z wymienionych operacji umożliwia usunięcie zakłócenia w postaci składowej stałej obecnej w zarejestrowanym materiale dźwiękowym?

A. DC Offset Removal
B. Hard Limit
C. Phase Invert
D. Normalize RMS
Hard Limit, Phase Invert i Normalize RMS to operacje często wykorzystywane w obróbce dźwięku, ale ich zadania są zupełnie inne niż eliminacja składowej stałej. Hard Limit służy głównie do ograniczania szczytów sygnału, czyli do ochrony przed przesterowaniem. To narzędzie wykorzystywane w masteringu, żeby nie dopuścić do przekroczenia określonego poziomu amplitudy, ale zupełnie nie wpływa na przesunięcie całego przebiegu względem zera. Czasem ktoś może pomyśleć, że skoro limituje głośność, to może też jakoś 'wyrównuje' sygnał, ale to nie o taki rodzaj wyrównania tutaj chodzi. Z kolei Phase Invert odwraca fazę sygnału o 180 stopni. To bywa przydatne przy eliminacji niepożądanych efektów fazowych lub przy sumowaniu śladów, ale nie zmienia średniej wartości przebiegu – zamienia tylko górę z dołem. Normalize RMS to jeszcze inna bajka: ta operacja służy do ustawiania poziomu głośności całego materiału na określoną wartość RMS, czyli tzw. średnią skuteczną. To przydaje się przy wyrównywaniu głośności wielu utworów w albumie albo podczas przygotowań materiału do emisji radiowej, ale normalize nie usuwa przesunięcia DC. Typowym błędem jest założenie, że operacje głośności czy fazy automatycznie poprawią techniczne właściwości pliku audio – niestety, przesunięcie DC wymaga oddzielnej, specjalistycznej funkcji. Z mojego doświadczenia wynika, że wielu początkujących pomija temat offsetu, a potem pojawiają się dziwne kliknięcia, szumy lub problemy z dalszym przetwarzaniem. Warto pamiętać, że usunięcie składowej stałej to osobny, bardzo ważny element workflow i nie da się go zastąpić żadną z wymienionych tu innych operacji.

Pytanie 39

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 32 bity.
B. 16 bitów.
C. 24 bity.
D. 8 bitów.
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 40

Która z wymienionych operacji umożliwia zmianę czasu trwania regionu na ścieżce w sesji programu DAW, bez przycinania go?

A. Pitch Shift
B. Bounce
C. Quantize
D. Time Stretch
Time Stretch to absolutnie podstawowa funkcja w większości współczesnych DAW-ów, jeśli chodzi o modyfikowanie długości regionu audio bez wpływu na jego zawartość dźwiękową, czyli bez przycinania czy usuwania fragmentu nagrania. Mechanizm ten pozwala wydłużyć lub skrócić czas trwania klipu, jednocześnie zachowując całą oryginalną treść – po prostu dźwięki rozciągamy albo ściskamy w czasie. Bardzo często Time Stretch wykorzystywany jest do dopasowania tempa pętli perkusyjnych, sampli wokalnych lub całych fraz instrumentalnych do tempa projektu, szczególnie, gdy pracujemy na materiałach z różnych źródeł albo remiksujemy coś po swojemu. W praktyce, dzięki tej operacji, można z łatwością miksować elementy z różnych temp i uzyskiwać kreatywne efekty, np. zwolnienie partii wokalnej na refrenie bez utraty jakości brzmienia (oczywiście w granicach rozsądku). Co ciekawe, większość nowoczesnych DAW-ów, takich jak Ableton Live, FL Studio czy Logic Pro, oferuje zaawansowane algorytmy Time Stretch, które starają się minimalizować artefakty dźwiękowe i zachowywać jak największą naturalność brzmienia. Z mojego doświadczenia, użycie tej funkcji to właściwie chleb powszedni w produkcji muzyki elektronicznej, ale nie tylko – nawet w projektach lektorskich czy montażu podcastów Time Stretch daje mega fajne możliwości synchronizacji ścieżek. Ważne jest, żeby nie mylić tej funkcji z przycinaniem (Trim) czy kopiowaniem – Time Stretch nie usuwa żadnych danych, tylko rozkłada je w czasie.