Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 14:37
  • Data zakończenia: 28 kwietnia 2026 14:53

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 24 bitowej?

A. 192 dB
B. 144 dB
C. 96 dB
D. 48 dB
Wybór niższego zakresu dynamiki, jak 48 dB czy 96 dB, najczęściej wynika z pomylenia różnych formatów zapisu audio lub nie do końca zrozumianego pojęcia bitowej głębi. Standardowe płyty CD korzystają z zapisu 16-bitowego, gdzie faktycznie osiąga się zakres dynamiki na poziomie około 96 dB i ten wynik może brzmieć znajomo. Jednak przejście na 24 bity daje dużo, dużo większy zapas – właśnie te 144 dB. Czasami można spotkać się z mitem, że ludzki słuch nie potrzebuje tak szerokiej dynamiki, więc wyższe wartości wydają się zbędne. To jednak uproszczenie, bo w procesie produkcji i obróbki audio zapas bitów chroni przed niepożądanymi zniekształceniami, błędami zaokrągleń czy szumem kwantyzacji. Wskazanie 192 dB jako odpowiedzi to z kolei prawdopodobnie wynik prostego przemnożenia ilości bitów przez wyższą wartość dB, albo zamieszania z innymi parametrami technicznymi jak częstotliwość próbkowania, która nie ma bezpośredniego wpływu na dynamikę. Z moich doświadczeń wynika też, że podczas nauki łatwo pomylić pojęcia: zakres dynamiki, szczytowy poziom sygnału czy poziom hałasu tła. W praktyce, jeśli nie uwzględni się, że każdy bit dokładnie dodaje 6 dB, można łatwo źle oszacować możliwości danego formatu. Warto więc zapamiętać, że tylko 24 bity dają 144 dB, co jest realnie wykorzystywane w profesjonalnych studiach nagrań, zwłaszcza tam, gdzie liczy się czystość i elastyczność materiału do dalszej obróbki – na przykład w muzyce orkiestrowej czy podczas nagrań na żywo. Dobrą praktyką jest więc nie tylko zapamiętać liczby, ale i rozumieć, skąd się biorą i jakie mają zastosowanie w rzeczywistych projektach.

Pytanie 2

Jeżeli materiał dźwiękowy ma być odtwarzany w kierunku od jego końca do początku, to należy użyć opcji

A. Phaser
B. Invert
C. Flanger
D. Reverse
Wybór opcji Reverse do odtwarzania materiału dźwiękowego od końca do początku to dokładnie to, co jest wymagane w tej sytuacji. Reverse po prostu odwraca czasowo całą próbkę audio, więc to, co normalnie byłoby na końcu utworu, w odwróconej wersji pojawia się na początku, i odwrotnie. To jest bardzo charakterystyczny efekt wykorzystywany choćby w muzyce elektronicznej czy rockowej – słychać wtedy nietypowe, „wywrócone na drugą stronę” brzmienia, na przykład odwrócone reverby czy talerze perkusyjne, które zaczynają się nagle, a kończą łagodnie. W programach takich jak Audacity, FL Studio czy Ableton Live ta funkcja jest dostępna jako standardowy edytor czasu. Według mnie Reverse to podstawa jeśli chodzi o typowe narzędzia edycji audio – praktycznie każdy szanujący się DAW to oferuje i to działa zawsze tak samo: po prostu odwraca ścieżkę w osi czasu. Warto wiedzieć, że żadne inne efekty, typu Phaser czy Flanger, nie mają nic wspólnego z odtwarzaniem od tyłu – one bazują na modulacjach fazy lub opóźnieniu, a nie na zmianie kierunku odtwarzania. Odwracanie audio przydaje się też w postprodukcji do specjalnych efektów dźwiękowych, np. w grach komputerowych czy filmach, żeby uzyskać nierealistyczne, „magiczne” brzmienia. Takie podejście jest zgodne z najlepszymi praktykami branżowymi – szybkie i w pełni przewidywalne.

Pytanie 3

Które z wymienionych oznaczeń odnosi się do systemu dźwięku wielokanałowego niezawierającego efektowego kanału niskoczęstotliwościowego?

A. 7.1
B. 5.1
C. 4.0
D. 9.1
Oznaczenie 4.0 odnosi się do systemu dźwięku wielokanałowego, który posiada cztery kanały: lewy, prawy, centralny oraz tylny (lub dwa tylne), ale nie zawiera dedykowanego kanału niskoczęstotliwościowego, czyli tzw. LFE (Low Frequency Effects), powszechnie określanego jako „.1” w oznaczeniach takich jak 5.1 czy 7.1. W praktyce oznacza to, że w systemach 4.0 nie ma osobnego głośnika subwoofera odpowiedzialnego za efekty basowe, a niskie częstotliwości są przesyłane do głównych głośników. Moim zdaniem, w domowych zastosowaniach, np. w starszych kinach domowych czy niektórych salach wykładowych, konfiguracja 4.0 była stosunkowo popularna z uwagi na prostotę i niższy koszt wdrożenia, zwłaszcza w czasach, gdy subwoofery nie były jeszcze tak rozpowszechnione. Oznaczenie bez „.1” zawsze wskazuje, że system nie posiada osobnego kanału LFE. Warto zauważyć, że standardy takie jak Dolby Surround czy niektóre konfiguracje kinowe w latach 80. i 90. opierały się właśnie na czterech pełnopasmowych kanałach. To podejście sprawdza się tam, gdzie niekoniecznie zależy nam na bardzo mocnych efektach basowych, a bardziej na precyzyjnym rozmieszczeniu źródeł dźwięku. Z mojego doświadczenia, system 4.0 bywa rozwiązaniem kompromisowym, ale wciąż pozwala na całkiem niezłą przestrzenność dźwięku, szczególnie w mniejszych pomieszczeniach czy przy ograniczonym budżecie.

Pytanie 4

Który z wymienionych formatów umożliwia zapis 8 (7.1) kanałów dźwięku kodowanego bezstratnie na nośniku Blu-ray Disc?

A. Dolby Stereo
B. Dolby Digital Live
C. Dolby Digital
D. Dolby TrueHD
W przypadku dźwięku wielokanałowego na nośnikach Blu-ray Disc bardzo łatwo pomylić dostępne formaty, bo nazwy takie jak Dolby Digital, Dolby Stereo czy nawet Dolby Digital Live są szeroko znane i często używane, ale nie zawsze oferują te same możliwości techniczne. Wiele osób sądzi, że Dolby Digital nadaje się do zapisu 8 kanałów, jednak w rzeczywistości jest to format stratny – kompresuje dźwięk, przez co część informacji dźwiękowej jest bezpowrotnie tracona. Co więcej, nawet w wersji tzw. „Enhanced”, Dolby Digital zazwyczaj obsługuje do 5.1 kanałów, a 7.1 jest obecne tylko w bardzo specyficznych, mniej popularnych wariantach i nadal nie jest bezstratne. Dolby Stereo to jeszcze starszy standard, zaprojektowany z myślą o kinach analogowych, gdzie dźwięk był kodowany na dwóch kanałach i matrycowo rozdzielany na cztery. Z praktycznego punktu widzenia ten format nie ma nic wspólnego z nowoczesnym zapisem wielokanałowym na Blu-ray. Odpowiedź Dolby Digital Live też jest myląca – to technologia służąca do przesyłania dźwięku w czasie rzeczywistym, np. z komputera do amplitunera przez S/PDIF, i bazuje na tym samym stratnym kodeku co zwykły Dolby Digital, a nie na zapisie studyjnym czy archiwalnym na płytach Blu-ray. To bardzo częsty błąd myślowy – mylenie formatów przeznaczonych do transmisji (Live) z tymi do archiwizacji (TrueHD). Moim zdaniem, kluczową kwestią przy poszukiwaniu formatu umożliwiającego bezstratny zapis dźwięku 7.1 na Blu-ray jest właśnie rozpoznanie, czy dany kodek oferuje bezstratność i pełną obsługę wszystkich kanałów zgodnie z branżową specyfikacją. Tylko Dolby TrueHD spełnia te wymagania w praktyce, a pozostałe propozycje są ograniczone albo pod względem jakości, albo liczby obsługiwanych kanałów. Zwracanie uwagi na te niuanse to dobra praktyka branżowa, bo pozwala uniknąć rozczarowań podczas projektowania systemów kina domowego lub wyboru sprzętu audio.

Pytanie 5

Który z wymienionych nośników umożliwia najszybszy odczyt danych?

A. Płyta CD
B. Dysk SSD
C. Płyta DVD
D. Karta SD
Dysk SSD to naprawdę mistrz, jeśli chodzi o szybki odczyt danych – moim zdaniem to obecnie absolutny standard w komputerach i serwerach, gdzie liczy się czas dostępu. Wynika to z faktu, że SSD, czyli dysk półprzewodnikowy, nie ma żadnych ruchomych części, całe operacje odbywają się elektronicznie. Dzięki temu odczyt danych jest niemal natychmiastowy, a czasy dostępu liczymy w mikrosekundach, a nie milisekundach, jak w starszych rozwiązaniach. W praktyce, gdy porównasz SSD do płyty CD czy nawet karty SD, różnica jest kolosalna – system operacyjny uruchamia się w kilka sekund, a transfery potrafią sięgać nawet kilkuset megabajtów na sekundę (NVMe jeszcze szybciej, nawet powyżej 3000 MB/s). W branży IT przyjęło się już, że do zastosowań profesjonalnych czy gamingowych nie stosuje się starych dysków talerzowych, a już na pewno nie nośników optycznych. Z mojego doświadczenia mogę powiedzieć, że wymiana starego dysku na SSD daje większego „kopa” komputerowi niż upgrade procesora czy RAM-u. Standardy takie jak SATA III czy PCIe NVMe wyznaczają dziś normy prędkości i niezawodności. Branżowo mówi się wręcz, że bez SSD praca na dużych plikach czy obróbka wideo to męczarnia. Wypada dodać, że SSD są też bardziej odporne na wstrząsy, co w laptopach bywa zbawienne. Podsumowując: SSD pod względem szybkości i komfortu użytkowania to prawdziwa rewolucja.

Pytanie 6

Jaką minimalną liczbę ścieżek monofonicznych należy przygotować w sesji programu DAW do montażu nagrania kwartetu smyczkowego zarejestrowanego z zastosowaniem techniki mikrofonowej MM?

A. 4 ścieżki.
B. 2 ścieżki.
C. 3 ścieżki.
D. 1 ścieżkę.
W przypadku nagrania kwartetu smyczkowego z użyciem techniki mikrofonowej MM, czyli mikrofonowania mono-mono każdego instrumentu osobno, absolutnym minimum są 4 ścieżki monofoniczne w sesji DAW. Każdy instrument kwartetu, czyli I skrzypce, II skrzypce, altówka i wiolonczela, powinien dostać swoją własną niezależną ścieżkę. To pozwala na pełną kontrolę podczas miksowania – możesz osobno regulować poziomy, panoramę, kompresję albo dodawać efekty, jeśli zajdzie taka potrzeba. Tak robi się to praktycznie wszędzie w branży, bo daje to najwięcej możliwości edycyjnych i pozwala uzyskać profesjonalne brzmienie. Łączenie nagrań kilku instrumentów na jedną ścieżkę mocno ogranicza późniejszą edycję, a tego raczej nikt nie robi w poważnej produkcji. Dodatkowo, jeśli kiedyś będziesz chciał miksować albo masterować materiał pod różne potrzeby, osobne nagrania są wręcz niezbędne. Co więcej, to nie tylko wygoda, ale i bezpieczeństwo – jeżeli na którejś ścieżce pojawi się problem (np. szum albo brudne wejście mikrofonowe), łatwo go wychwycisz i poprawisz bez naruszania reszty partii. Moim zdaniem, to podejście jest po prostu standardem, bo każda profesjonalna sesja opiera się na oddzielnych śladach dla każdego źródła. Warto mieć te 4 ścieżki nawet jeśli wydaje się to „za dużo” – w praktyce szybko docenisz tę elastyczność.

Pytanie 7

W jakim formacie plików występują znaczniki ID3?

A. .wav
B. .mp3
C. .aiff
D. .bwf

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
ID3 to bardzo popularny standard znaczników stosowany właśnie w plikach audio w formacie MP3. Pozwala on na zapisanie w pliku takich informacji jak tytuł utworu, wykonawca, album, rok wydania czy nawet okładka – i to wszystko w ramach jednego pliku, bez konieczności posiadania osobnych dokumentów tekstowych. Szczerze mówiąc, trudno mi teraz wyobrazić sobie nowoczesny odtwarzacz muzyczny, który nie korzysta z tych znaczników. Dzięki nim nawet proste aplikacje mobilne mogą wyświetlać użytkownikowi całkiem kompletne opisy utworów czy automatycznie grupować muzykę po albumach. Z branżowego punktu widzenia, ID3 to taki niepisany standard dla plików MP3 – praktycznie wszyscy go obsługują. Oczywiście ID3 występuje w dwóch głównych wersjach: ID3v1 i ID3v2, z czego ta druga pozwala na znacznie bardziej rozbudowane metadane, w tym obrazki czy teksty piosenek. Moim zdaniem znajomość tego standardu od razu widać w pracy osób, które profesjonalnie przygotowują podcasty czy playlisty – bo dzięki dobrze uzupełnionym znacznikom cały zbiór nagrań staje się od razu lepiej zorganizowany i łatwiejszy do zarządzania. W praktyce, chcąc publikować własną muzykę czy nagrania w internecie, warto zadbać o uzupełnienie ID3, bo to ogromnie wpływa na komfort słuchaczy oraz widoczność w katalogach online.

Pytanie 8

Jaką ilość danych można zapisać na dwuwarstwowej płycie Blue Ray?

A. 200 GB
B. 50 GB
C. 25 GB
D. 100 GB
Temat pojemności płyt Blu-ray bywa mylący, bo na rynku dostępnych jest kilka różnych wersji tych nośników i łatwo się pomylić, jeśli nie zwróci się uwagi na szczegóły techniczne. Wybierając 25 GB, można pomylić typową jednowarstwową płytę Blu-ray (BD-25) z wersją dwuwarstwową – jednowarstwowa rzeczywiście mieści 25 GB, ale pytanie dotyczyło wariantu dwuwarstwowego. Z kolei opcje 100 GB i 200 GB pojawiają się w kontekście tzw. płyt BDXL, które są wielowarstwowe i wymagają specjalnych napędów Blu-ray kompatybilnych z tym formatem; nie są to standardowe płyty dostępne w każdym sklepie czy napędzie. Typowym błędem myślowym jest utożsamianie coraz wyższych pojemności z domyślnymi standardami, podczas gdy w praktyce branżowej i w specyfikacji Blu-ray Disc Association najczęściej wykorzystuje się nośniki 25 GB (jednowarstwowe) i 50 GB (dwuwarstwowe). W praktyce, jeśli ktoś szuka nośnika do zapisu np. filmów w jakości Full HD lub backupu dużych plików, to standardowy dwuwarstwowy Blu-ray jest najpopularniejszym wyborem ze względu na swoją kompatybilność z większością napędów i urządzeń domowych oraz biurowych. Co ciekawe, nośniki o pojemności 100 GB lub 200 GB mają zastosowanie raczej w profesjonalnych środowiskach, gdzie potrzebne są specjalistyczne rozwiązania – nie są one powszechnie używane do domowego backupu czy dystrybucji multimediów na szeroką skalę. Warto pamiętać, że te wyższe pojemności osiągane są dzięki zastosowaniu trzech albo czterech warstw zapisu, co znacząco podnosi cenę i wymagania techniczne względem sprzętu. Z mojego punktu widzenia najczęstszym źródłem pomyłek jest brak rozróżnienia pomiędzy standardowymi płytami Blu-ray a specjalnymi wersjami BDXL – i stąd biorą się nieporozumienia w szacowaniu pojemności.

Pytanie 9

Który z wymienionych parametrów efektu Reverb przeznaczony jest do regulowania odstępu między dźwiękiem bezpośrednim a pierwszym odbiciem?

A. Decay.
B. Predelay.
C. Diffusion.
D. Type.
Predelay w efektach typu Reverb to naprawdę jeden z tych parametrów, które potrafią bardzo mocno wpłynąć na charakterystykę przestrzeni, jaką budujemy w miksie. Pozwala on ustawić czas (w milisekundach) między momentem pojawienia się dźwięku źródłowego a pierwszym słyszalnym odbiciem od „ścian” wirtualnej przestrzeni. To bardzo przydatne, szczególnie gdy chcemy, żeby oryginalny sygnał był bardziej czytelny i nie zlewał się od razu z pogłosem – daje to trochę „oddechu” instrumentom czy wokalom. W praktyce, kiedy miksuję wokal albo gitarę akustyczną, często eksperymentuję z predelay, żeby uzyskać bardziej naturalny efekt i nie zamazać transjentów. Producenci audio i inżynierowie dźwięku od lat zwracają uwagę na ustawienie predelay, szczególnie przy dynamicznych aranżacjach. Branżowe standardy jasno sugerują, żeby predelay dobierać w odniesieniu do tempa utworu – np. 1/16 czy 1/32 nuty, żeby pogłos nie przeszkadzał w groove. Moim zdaniem wiele osób lekceważy ten parametr, a to on decyduje o tym, czy dźwięk jest „z przodu” czy już w głębi miksu. Warto poeksperymentować i przekonać się, jak sporo można uzyskać, dostosowując tylko ten jeden suwak.

Pytanie 10

Częstotliwość próbkowania 48 kHz jest wykorzystywana na potrzeby

A. płyt CD-Audio.
B. produkcji dźwięku w telewizji.
C. płyt mp3.
D. transmisji zakresu mowy.
Wybierając częstotliwość próbkowania, łatwo pomylić jej zastosowania – szczególnie że na rynku funkcjonuje kilka popularnych wartości, które mają konkretne przeznaczenie. Przykładowo, 44,1 kHz to standard dla płyt CD-Audio. To wynika z historycznych ograniczeń technologicznych, kiedy inżynierowie Sony i Philipsa ustalili tę wartość jako kompromis pomiędzy jakością nagrania a dostępną pojemnością nośnika. Pliki mp3 nie mają narzuconej jednej częstotliwości próbkowania, ale najczęściej spotyka się właśnie 44,1 kHz, bo opierają się one na źródłach z CD lub streamingu. Jeśli chodzi o transmisję zakresu mowy, tam stosuje się o wiele niższe częstotliwości, typowo 8 kHz, bo wystarcza to do wyraźnego przesyłania ludzkiego głosu bez zbędnego obciążenia łączy – dlatego telefony działają właśnie w tym zakresie. Częstotliwość 48 kHz pojawia się natomiast przy profesjonalnej produkcji dźwięku, szczególnie w telewizji i dużych projektach wideo. To nie jest przypadkowa liczba, tylko wynik branżowych ustaleń mających usprawnić kompatybilność między sprzętem audio i wideo. Mylenie tych wartości to dość powszechny błąd, zwłaszcza na początku nauki – sam kiedyś uparcie myślałem, że mp3 i CD muszą mieć 48 kHz, bo przecież jest lepsza jakość. W praktyce jednak każdy standard ma swoje solidne uzasadnienie historyczne i techniczne. Dlatego warto zapamiętać, że 48 kHz właściwie zawsze oznacza zastosowania telewizyjne lub profesjonalne audio do wideo, a nie typowe słuchanie muzyki czy rozmowy telefoniczne.

Pytanie 11

Który z plików dźwiękowych wykorzystuje kodowanie PCM?

A. .mp4
B. .aif
C. .wma
D. .mp3
W świecie formatów audio panuje spore zamieszanie, zwłaszcza gdy chodzi o kwestię kodowania dźwięku. Często myli się pliki kompresowane stratnie, takie jak .mp3 czy .wma, z bezstratnymi formatami, które wykorzystują kodowanie PCM. MP3 to jeden z najpopularniejszych formatów konsumenckich, ale działa na zasadzie kompresji stratnej – czyli część informacji z nagrania jest bezpowrotnie tracona, żeby plik był mniejszy. Z mojego doświadczenia ludzie wrzucają MP3 wszędzie tam, gdzie nie liczy się najwyższa jakość, tylko wygoda i mały rozmiar, ale to nie jest PCM. .Wma czyli Windows Media Audio, działa podobnie – ten format Microsoftu co prawda może obsługiwać bezstratne odmiany, ale w praktyce najczęściej spotyka się wersje stratne, więc tutaj również nie ma mowy o standardowym PCM. Jeszcze ciekawszy przypadek to .mp4 – właściwie to format kontenera multimedialnego, który może przechowywać zarówno wideo, jak i różne typy audio (w tym np. AAC, ALAC czy nawet dźwięk w PCM, ale to raczej wyjątek niż reguła i nie jest to główne zastosowanie). Wielu początkujących myśli, że jeśli coś brzmi dobrze albo jest używane powszechnie, to automatycznie musi być zbudowane na PCM – a to niezbyt trafny tok rozumowania. PCM, czyli Pulse Code Modulation, to metoda kodowania dźwięku bez żadnej kompresji stratnej, dzięki czemu pliki AIFF (czyli .aif) są idealne tam, gdzie liczy się jakość, szczególnie w studiach nagrań czy profesjonalnej postprodukcji. Dla przypomnienia: jeśli zależy komuś na wierności i bezproblemowej dalszej obróbce dźwięku, powinien szukać formatów opartych na PCM, a nie popularnych rozwiązań konsumenckich. Moim zdaniem klucz do zrozumienia tego zagadnienia leży właśnie w rozróżnieniu między kompresją stratną a bezstratną – i temu warto poświęcić więcej uwagi podczas nauki.

Pytanie 12

Która z podanych operacji w programie DAW umożliwia wyeliminowanie obecnego w nagraniu przydźwięku sieci energetycznej?

A. Filtrowanie.
B. Nadpróbkowanie.
C. Kompresja.
D. Konwersja.
Filtrowanie to absolutnie podstawowe narzędzie w każdym programie typu DAW, jeśli chodzi o usuwanie przydźwięków, takich jak charakterystyczny szum 50 Hz (albo 60 Hz w USA), który wynika właśnie z zakłóceń sieci elektrycznej. W praktyce stosuje się najczęściej tzw. filtry wąskopasmowe – notch lub band-stop, które pozwalają wyciąć konkretną częstotliwość bez naruszania reszty sygnału. W wielu DAW-ach są nawet gotowe presety „hum remover” albo „de-hum”. Często użytkownicy korzystają z narzędzi typu EQ parametryczny, gdzie można ręcznie ustawić wycięcie dokładnie na częstotliwości przydźwięku i jej harmonicznych (np. 50, 100, 150 Hz itd.). Z mojego doświadczenia, to rozwiązanie jest dużo bardziej profesjonalne niż próby różnych sztuczek z kompresją czy konwersją, bo filtr działa selektywnie i nie zniekształca reszty nagrania. Filtrowanie jest zgodne z dobrymi praktykami branżowymi – praktycznie każdy realizator dźwięku w studiu czy na scenie sięga w pierwszej kolejności właśnie po filtry, żeby pozbyć się tego typu zakłóceń, zanim zacznie cokolwiek innego robić z materiałem. Dobrze dobrany filtr to podstawa czystego brzmienia – warto się tego nauczyć i nie bać się eksperymentować z ustawieniami, bo czasem nawet minimalna zmiana szerokości filtra robi dużą różnicę w jakości.

Pytanie 13

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Volume
B. Send
C. Gain
D. Balance
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 14

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Merge
B. Freeze
C. Snap
D. Loop
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 15

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. MBR
C. VBR
D. CBR
VBR, czyli Variable Bit Rate, to skrót, który w środowiskach technicznych oznacza właśnie zmienną przepływność bitową sygnału cyfrowego. Stosuje się go przede wszystkim przy kompresji plików audio i wideo, na przykład w formatach MP3, AAC czy H.264. Zmienna przepływność bitowa pozwala na dynamiczne dostosowywanie ilości przesyłanych danych w zależności od złożoności materiału. Przykładowo: fragmenty nagrania, które wymagają większej precyzji (np. szybka akcja w filmie albo fragment utworu z dużą ilością instrumentów), mogą dostać więcej bitów, żeby zachować jakość. Tam, gdzie materiał jest prostszy, bitrate automatycznie się zmniejsza i oszczędza miejsce. W branży multimedialnej to absolutny standard, szczególnie gdy zależy nam na kompromisie między jakością a rozmiarem pliku. Moim zdaniem, bez znajomości VBR trudno efektywnie zarządzać zasobami przy projektowaniu systemów streamingowych czy archiwizowaniu danych. Co ciekawe, wiele nowoczesnych serwisów VOD (np. Netflix, YouTube) preferuje strumienie oparte właśnie o zmienną przepływność, bo wtedy lepiej można dopasować jakość do aktualnych warunków sieciowych. Z perspektywy praktycznej VBR pozwala nie tylko na lepszą jakość przy tej samej wadze pliku, ale też na realne oszczędności na transferze i przestrzeni dyskowej. To taki złoty środek – elastyczność i wydajność w jednym. Dla każdego, kto chce świadomie pracować z mediami cyfrowymi, znajomość działania VBR to podstawa. W dokumentacjach i specyfikacjach urządzeń ta nazwa pojawia się regularnie i nie bez powodu.

Pytanie 16

Która z wymienionych właściwości pliku dźwiękowego znajdującego się w sesji programu DAW odpowiada za jego częstotliwość próbkowania?

A. Bit Resolution
B. Sample Rate
C. Channels
D. Audio File Type
Częstotliwość próbkowania, czyli po angielsku sample rate, to zdecydowanie jeden z najważniejszych parametrów każdego pliku audio w środowisku DAW. To tak naprawdę liczba pomiarów dźwięku wykonywana w ciągu jednej sekundy – wyrażana w hercach (Hz), najczęściej można spotkać wartości typu 44100 Hz, 48000 Hz czy nawet wyższe jak 96000 Hz. Dlaczego to takie istotne? Im wyższy sample rate, tym wierniej cyfrowy zapis oddaje oryginalny sygnał analogowy, co ma ogromne znaczenie przy profesjonalnych produkcjach muzycznych, miksie czy masteringu. Świetnym przykładem jest praca w studiu nagraniowym – tam standardem branżowym jest zazwyczaj 48 kHz dla projektów filmowych lub 44,1 kHz dla muzyki na CD. Co ciekawe, sample rate wpływa również na to, jakich częstotliwości może dotyczyć zapis – zgodnie z tzw. twierdzeniem Nyquista, maksymalna częstotliwość w nagraniu to połowa sample rate. Moim skromnym zdaniem, umiejętność rozpoznania i manipulowania sample rate przydaje się nawet podczas zwykłego eksportu pliku, bo błędnie dobrana wartość potrafi popsuć kompatybilność plików między różnymi urządzeniami lub programami. W branży przyjęło się, że wiedza o sample rate to absolutna podstawa dla każdego, kto poważnie podchodzi do pracy z dźwiękiem w DAW. Warto też pamiętać, że czasem trzeba dopasować częstotliwość próbkowania do wymagań projektu albo klienta – to po prostu codzienność inżyniera dźwięku.

Pytanie 17

Kodowanie stratne jest wykorzystywane w plikach dźwiękowych zapisanych w formacie

A. RIFF
B. CDA
C. MP3
D. WAV
Kodowanie stratne to taki sposób kompresji danych, gdzie część informacji zostaje bezpowrotnie usunięta, żeby zmniejszyć rozmiar pliku. Format MP3, czyli MPEG-1 Audio Layer III, to chyba najbardziej znany przykład takiego podejścia w świecie dźwięku. Dzięki temu, że MP3 stosuje zaawansowane algorytmy psychoakustyczne, potrafi „wyrzucić” z pliku te fragmenty dźwięku, których ludzkie ucho i tak nie byłoby w stanie wychwycić. W praktyce oznacza to, że możliwe jest osiągnięcie bardzo dobrej jakości dźwięku przy znaczącym zmniejszeniu rozmiaru pliku, co przez lata zrewolucjonizowało przechowywanie i przesyłanie muzyki przez internet. Pliki MP3 są zgodne z wieloma platformami i urządzeniami – od telefonów po samochodowe radia. To właśnie przez stratność tego formatu, pliki MP3 są używane tam, gdzie kluczowa jest oszczędność miejsca, np. w serwisach streamingowych czy przy archiwizacji muzyki na odtwarzaczach przenośnych. Muszę przyznać, że z mojego doświadczenia to rozwiązanie wciąż jest bardzo praktyczne, choć obecnie pojawiają się nowsze formaty, jak AAC czy OGG, działające na podobnej zasadzie. Jeżeli zależy Ci na równowadze między jakością a rozmiarem pliku, MP3 to wybór z uzasadnieniem technicznym, potwierdzony przez lata praktyki branżowej.

Pytanie 18

Która z wymienionych płyt charakteryzuje się największą pojemnością?

A. CD + R SL
B. DVD + R SL
C. CD – R DL
D. DVD – R DL
Odpowiedź DVD – R DL jest w pełni uzasadniona, bo to właśnie ta płyta charakteryzuje się największą pojemnością spośród wymienionych opcji. Standard DVD – R DL (czyli Double Layer, czyli dwuwarstwowa) pozwala na zapis nawet do 8,5 GB danych, podczas gdy zwykły DVD + R SL (Single Layer) mieści tylko około 4,7 GB. Dla porównania, płyty CD – niezależnie czy to CD + R SL czy CD – R DL – mają znacznie mniejszą pojemność, bo typowo jest to 700 MB (około 0,7 GB). Dwuwarstwowe DVD wykorzystywane są na przykład do archiwizacji dużych plików, kopii zapasowych czy nagrywania filmów w wysokiej jakości – tam, gdzie standardowa płyta DVD byłaby niewystarczająca. W praktyce, jeśli ktoś pracuje z dużymi zbiorami danych, takie nośniki po prostu się przydają, choć dziś częściej sięga się już po pendrive’y czy dyski zewnętrzne – ale wciąż w niektórych branżach, np. medycynie czy archiwizacji, takie płyty mają zastosowanie. Moim zdaniem warto znać różnice między SL i DL, bo czasem nawet w zwykłej pracy biurowej zdarza się sięgnąć po odpowiedni nośnik i dobrze wiedzieć, czemu czasem jedna płyta nie wystarcza. Standardy zapisu DVD zostały opracowane przez konsorcjum DVD Forum, a stosowanie płyt dwuwarstwowych jest zgodne z wymaganiami dotyczących dużych archiwów danych. Warto jeszcze dodać, że zapis na warstwie drugiej wymaga kompatybilnego nagrywarki i odpowiedniego oprogramowania, więc zawsze trzeba sprawdzić, czy sprzęt obsługuje taki typ płyty.

Pytanie 19

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 48 kHz
B. 96 kHz
C. 44,1 kHz
D. 88,2 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 20

Które z wymienionych określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Solo.
C. Fade out.
D. Mute.
Fade out to pojęcie szeroko wykorzystywane w branży muzycznej, filmowej i dźwiękowej, które oznacza stopniowe wyciszanie dźwięku aż do całkowitej ciszy. Moim zdaniem to bardzo przydatna technika zarówno w miksie audio, jak i w montażu wideo, bo pozwala płynnie zakończyć utwór lub fragment nagrania, nie pozostawiając słuchacza z nagłym urwaniem. Z mojego doświadczenia wynika, że fade out wykorzystuje się często przy końcówkach piosenek, kiedy nie planuje się konkretnej kulminacji, tylko dyskretny koniec. W programach typu DAW (Digital Audio Workstation), takich jak Ableton Live, Pro Tools czy Cubase, standardem jest, by ścieżki audio kończyć właśnie fade outem, zamiast brutalnego cięcia. Z perspektywy słuchacza daje to poczucie profesjonalizmu i dbałości o szczegóły. Dobre praktyki branżowe sugerują, żeby fade out był odpowiednio długi – przeważnie od kilku do nawet kilkunastu sekund, w zależności od gatunku i charakteru utworu. Ciekawe jest to, że fade out może być liniowy (stała prędkość wyciszania) lub wykorzystywać krzywe logarytmiczne, co pozwala uzyskać bardziej naturalny, „ludzki” efekt. Warto wiedzieć, że fade out stosuje się też w efektach dźwiękowych do filmów, by nie było nienaturalnych „kliknięć” przy nagłych ucięciach dźwięku. Jest to technika, której nie da się przecenić w pracy z dźwiękiem – osobiście uważam ją za obowiązkową praktykę w większości projektów audio.

Pytanie 21

Które z nagrań zostało zakodowane w cyfrowym systemie wielokanałowym?

A. Dolby Theatre System.
B. Dolby.
C. Dolby Stereo.
D. Dolby Pro Logic.
Dolby Theatre System to określenie używane w odniesieniu do nowoczesnych, cyfrowych systemów wielokanałowych Dolby stosowanych w kinach, np. Dolby Digital Cinema czy Dolby Atmos. W odróżnieniu od wcześniejszych systemów analogowych czy matrycowych (jak Dolby Stereo lub Pro Logic), tutaj cały dźwięk jest kodowany i przesyłany cyfrowo z podziałem na wiele niezależnych kanałów. To właśnie pozwala na precyzyjne pozycjonowanie dźwięku w przestrzeni sali kinowej – osobne kanały na front, tył, boki, a nawet sufit! W praktyce oznacza to zupełnie inny poziom immersji dla widza – efekty dźwiękowe mogą „przemieszczać się” z dokładnością nieosiągalną dla starszych technologii. Moim zdaniem, największą zaletą Dolby Theatre System jest właśnie skalowalność i elastyczność – dźwięk można idealnie dostosować do konkretnego pomieszczenia oraz liczby głośników. Użycie technologii cyfrowych pozwala także na znacznie lepszą jakość i bezpieczeństwo transmisji – nie ma już szumów czy ograniczeń wynikających z taśmy filmowej. W branży uznaje się, że nowoczesne systemy kinowe bez cyfrowego, wielokanałowego kodowania dźwięku po prostu nie mają racji bytu – widzowie chcą doświadczać efektów przestrzennych na najwyższym poziomie i Dolby Theatre System to umożliwia. Warto sobie zapamiętać tę różnicę, bo na egzaminach i w praktyce zawodowej odróżnianie systemów cyfrowych od analogowych to podstawa.

Pytanie 22

Normalizacja do 0 dB pliku o poziomie szczytowym -3 dB spowoduje podniesienie głośności

A. czterokrotnie.
B. dwukrotnie.
C. o połowę.
D. o 1/4.
Wiele osób myli się, sądząc, że różnica 3 dB to zaledwie niewielka zmiana, na przykład jedna czwarta czy połowa głośności, jednak sprawa jest trochę bardziej złożona przez skalę logarytmiczną, na jakiej operują decybele. Zwiększenie poziomu szczytowego z -3 dB do 0 dB oznacza wzrost amplitudy sygnału o czynnik około 1,41, ale jeśli chodzi o moc, podnosimy ją dokładnie dwukrotnie, bo taka jest definicja zmiany o 3 dB. To częsty błąd, że przelicza się wartości decybeli liniowo, a tak naprawdę 3 dB to podwojenie mocy sygnału, a nie jego połowa czy ćwierć. Zdarza się też, że ludzie myślą, że czterokrotne zwiększenie mocy to 3 dB, ale to już wynosi 6 dB. Często myli się też pojęcie głośności odczuwanej z poziomem sygnału – ucho ludzkie nie reaguje liniowo, więc dla nas różnica może wydawać się mniejsza, ale technicznie jest to precyzyjnie zdefiniowane. W praktyce, jeśli normalizujesz plik do 0 dB, mający wcześniej -3 dB szczytu, uzyskasz dwukrotnie większą moc sygnału, nie tylko subtelny wzrost. To istotne szczególnie przy przygotowywaniu materiałów do masteringu, gdzie każdy decybel może zrobić różnicę między przejrzystym a przesterowanym brzmieniem. Moim zdaniem, warto dobrze zrozumieć te zależności, by unikać błędów w ustawieniach poziomów audio, co potem potrafi popsuć cały miks.

Pytanie 23

Które z wymienionych rozszerzeń nazwy pliku nie dotyczy pliku dźwiękowego?

A. *.ac3
B. *.opus
C. *.tiff
D. *.amr
Rozszerzenie *.tiff w ogóle nie odnosi się do plików dźwiękowych, tylko do plików graficznych, a dokładniej do formatu obrazów rastrowych TIFF (Tagged Image File Format). Jest to bardzo popularny format wykorzystywany w profesjonalnej fotografii, skanowaniu dokumentów czy też w archiwizacji zdjęć wysokiej jakości. Pliki TIFF mogą przechowywać obrazy w bardzo wysokiej rozdzielczości, obsługują głęboką paletę barw i oferują bezstratną kompresję. To powoduje, że są chętnie używane tam, gdzie liczy się jakość grafiki, np. w drukarniach czy studiach graficznych. Moim zdaniem, dobrze kojarzyć to rozszerzenie, bo w praktyce informatyk czy technik często musi szybko rozróżniać rodzaje plików po rozszerzeniu – oszczędza to czas i zapobiega błędom przy np. przesyłaniu lub konwersjach plików. W przeciwieństwie do formatów *.opus, *.amr i *.ac3, które służą do zapisu i odtwarzania dźwięku, TIFF nie ma żadnego związku z audio. Warto też dodać, że niektóre programy mogą próbować 'oszukać' system poprzez zmianę rozszerzenia, ale plik TIFF nigdy nie będzie odtwarzany jako dźwiękowy. To rozszerzenie jest wręcz symbolem branży graficznej, a nie muzycznej czy dźwiękowej.

Pytanie 24

Kompresor dynamiki do obróbki szeregowej należy podłączać do miksera programowego DAW poprzez wirtualny tor

A. Aux
B. Matrix
C. Insert
D. Master Output
Podłączenie kompresora dynamiki do toru Insert w DAW to rozwiązanie, które zdecydowanie dominuje w praktyce studyjnej. Insert działa w taki sposób, że umieszczone na nim efekty audio (jak kompresory, EQ, saturatory itp.) mają bezpośredni wpływ na całość sygnału danej ścieżki – sygnał wpada do wtyczki, jest przez nią przetwarzany i dopiero potem wraca do miksu. To właśnie jest szeregowa obróbka, czyli przetwarzanie „w linii”, bez rozszczepiania sygnału. W przypadku kompresora taka konfiguracja pozwala uzyskać pełną kontrolę nad dynamiką ścieżki, bo każdy dźwięk przechodzi przez procesor. Tak pracuje się praktycznie we wszystkich profesjonalnych projektach – nawet w domowym studiu nie warto kombinować z innymi torami, jeśli chodzi o typowe użycie kompresora. Z Insertami najłatwiej też zachować porządek w sesji i mieć pewność, że efekt działa dokładnie tam, gdzie trzeba. Można oczywiście stosować kompresor na Auxie, ale wtedy mówimy już o równoległej kompresji, czyli o trochę innym podejściu. Moim zdaniem zawsze lepiej od razu nauczyć się tej różnicy. Warto jeszcze wspomnieć, że praktycznie każdy DAW ma dedykowane sloty Insert właśnie z myślą o takich zadaniach. Krótko mówiąc: Insert daje najwięcej kontroli, przewidywalności i jest zgodny ze standardami branżowymi.

Pytanie 25

Która z funkcji dostępnych na ścieżkach w sesji oprogramowania DAW umożliwia podsłuchanie materiału dźwiękowego z wybranej ścieżki?

A. INPUT
B. SOLO
C. MUTE
D. RECORD
Wybranie opcji SOLO na ścieżce w DAW to taki trochę klasyk pracy w studiu – każdy, kto choć raz miksował, wie, jak często sięga się po ten przycisk. SOLO pozwala na odsłuchanie tylko konkretnej ścieżki, bez przeszkadzania ze strony pozostałych. To wręcz niezbędne, gdy chcesz się skupić na detalach, np. sprawdzić precyzyjnie czy wokal nie ma niechcianych szumów albo czy syntezator dobrze siedzi w miksie. W praktyce bardzo często używa się SOLO podczas ustawiania poziomów, korekcji czy efektów na pojedynczym instrumencie. Standardowe workflow w studiach – i tych domowych, i profesjonalnych – zakłada, że podczas miksowania regularnie korzysta się z tej funkcji, żeby nie pogubić się w gąszczu dźwięków. Moim zdaniem bez SOLO można by się mocno zamotać, zwłaszcza przy większych projektach. Dobrze wiedzieć, że opcja SOLO nie usuwa dźwięków innych ścieżek, tylko je tymczasowo wycisza, więc nie trzeba się martwić o utratę ustawień. To takie narzędzie podglądu – pozwala wyłapać niuanse i dopracować ślady zanim wrócą do pełnego miksu. Branża przyjmuje to jako absolutny standard, a korzystanie z SOLO jest zalecane przez większość instruktorów i producentów. Warto też pamiętać, że niektóre DAWy mają kilka trybów SOLO, np. SOLO in place albo pre/post fader, więc można dopasować działanie do własnych potrzeb. Dla mnie to podstawa pracy z dźwiękiem i coś, bez czego trudno sobie wyobrazić profesjonalny proces produkcji.

Pytanie 26

Który z wymienionych nośników standardowo wykorzystuje zapis dźwięku w formacie ATRAC?

A. Mini-Cassette
B. ADAT
C. MiniDisc
D. CD-Audio
MiniDisc to naprawdę ciekawe rozwiązanie, które pojawiło się na rynku w latach 90. I w sumie moim zdaniem trochę niedocenione w Polsce. Najważniejsze, że MiniDisc standardowo wykorzystuje kodek ATRAC (Adaptive Transform Acoustic Coding), który został opracowany przez firmę Sony specjalnie z myślą o tym formacie. ATRAC umożliwiał skuteczną kompresję sygnału audio bez dużych strat na jakości, co było mega ważne, bo wtedy nośniki cyfrowe miały sporo ograniczeń pojemnościowych. W praktyce, zapis na MiniDiscu pozwalał na przechowywanie nawet do 80 minut muzyki o jakości podobnej do płyty CD – chociaż trochę lepsi słuchacze czasem wyczuwali różnice, nie będę ukrywał. W branży sprzętu audio MiniDisc był wykorzystywany przez dziennikarzy, muzyków czy inżynierów dźwięku, bo pozwalał na szybkie nagrywanie i wielokrotne kasowanie materiału bez strat typowych dla kaset magnetofonowych. Format ATRAC był integralną częścią tej technologii – nie spotkasz go w standardowych CD-Audio, ADAT czy mini-cassette. Swoją drogą, wiele osób myli ATRAC z innymi popularnymi kodekami (np. MP3), ale to właśnie ATRAC przez długi czas był firmowym znakiem Sony. W praktyce, wybierając MiniDisc, korzystałeś zawsze z tego właśnie kodeka, co miało też wpływ na kompatybilność odtwarzaczy i jakość archiwizacji nagrań. Branżowo uznaje się, że ATRAC dobrze zbalansował jakość dźwięku i oszczędność miejsca, dając profesjonalistom bardzo wygodne narzędzie do pracy.

Pytanie 27

Ogranicznik w procesie masteringu wpływa

A. na ograniczenie maksymalnego poziomu nagrania.
B. na pasmo nagrania.
C. na przestrzeń nagrania.
D. na zmianę barwy pliku wynikowego.
Odpowiedź jest prawidłowa, bo limiter (ogranicznik) w masteringu stosuje się przede wszystkim do kontrolowania maksymalnego poziomu sygnału audio. Jego głównym zadaniem jest zatrzymanie przesterowań i zapewnienie, że sygnał wyjściowy nie przekroczy ustalonej wartości granicznej, najczęściej 0 dBFS w środowisku cyfrowym. To jest taka ostatnia linia obrony przed clipowaniem, które mogłoby zniszczyć jakość materiału czy nawet uszkodzić sprzęt odtwarzający. W praktyce, limiter pozwala uzyskać głośniejsze brzmienie bez ryzyka przekroczenia progu, a to bardzo pożądane na etapie masteringu, zwłaszcza kiedy utwór idzie do radia albo na streamingi. Współczesne standardy branżowe, jak loudness normalization (np. EBU R128 czy LUFS), zakładają pewien maksymalny poziom, którego nie należy przekraczać – limiter jest tu wręcz niezbędny. Z mojego doświadczenia, użycie limitera to taki etap, na którym cała praca nad brzmieniem może się rozstrzygnąć – za mocne ustawienie może zabić dynamikę, za słabe nie da stabilnego poziomu. Dobry masteringowiec wie, jak balansować te kwestie, żeby utrzymać energię nagrania, a jednocześnie nie doprowadzić do przesterowań. Generalnie, bez limitera nie ma współczesnego masteringu.

Pytanie 28

Zapis magnetooptyczny wykorzystywany jest w nośniku typu

A. Dysk SSD
B. Mini Disc
C. Karta SDHC
D. Kaseta DAT
Mini Disc to nośnik, który opiera się na technologii zapisu magnetooptycznego. To dość ciekawa hybryda, bo łączy elementy zapisu magnetycznego i optycznego. Najpierw dane są zapisywane magnetycznie, ale żeby to w ogóle było możliwe, laser nagrzewa odpowiedni fragment dysku do wysokiej temperatury. Dopiero wtedy głowica magnetyczna może zmienić polaryzację tego miejsca. Odczyt też odbywa się optycznie, więc w praktyce Mini Disce używały lasera podobnie jak płyty CD, ale z dodatkowym elementem pola magnetycznego przy zapisie. To rozwiązanie stosowano głównie w sprzęcie audio Sony, np. przenośnych odtwarzaczach i rejestratorach dźwięku, bo dawało możliwość wielokrotnego zapisu i wysokiej trwałości nośnika. Moim zdaniem to fajny przykład na to, jak inżynierowie próbowali pogodzić szybki zapis, dużą pojemność i trwałość – coś jak kompromis pomiędzy klasyczną kasetą a płytą CD-RW. W branży do dziś Mini Disc jest podawany jako przykład nowatorskiego podejścia do przechowywania danych, choć oczywiście obecnie został już wyparty przez nośniki półprzewodnikowe. Ogólnie rzecz biorąc, technologia magnetooptyczna to kawał ciekawej historii – znalazła też zastosowanie np. w stacjonarnych napędach MO używanych w archiwizacji danych w laboratoriach i firmach, gdzie liczy się bezpieczeństwo i trwałość zapisu.

Pytanie 29

W celu wykonania montażu równoległego realizator powinien w edytorze dźwięku wgrać fragmenty muzyczne na

A. tę samą ścieżkę w kolejności czasu ich trwania.
B. tę samą ścieżkę nie zachowując chronologii czasowej.
C. tę samą ścieżkę jeden za drugim zgodnie z chronologią czasową.
D. osobne ścieżki od tego samego punktu czasowego.
Montaż równoległy w edytorze dźwięku polega właśnie na tym, że kilka fragmentów muzycznych odtwarzanych jest jednocześnie, a nie po kolei. Z technicznego punktu widzenia, żeby to osiągnąć, trzeba umieścić te fragmenty na osobnych ścieżkach, startujących od tego samego miejsca na osi czasu projektu. To daje pełną kontrolę nad każdym fragmentem – osobno możesz ustawić głośność, panoramę, efekty i precyzyjnie miksować całość. To standardowa praktyka nie tylko w produkcji muzycznej, ale też w postprodukcji filmowej czy radiowej, gdzie często nakłada się kilka dźwięków naraz: muzykę, efekty, dialogi. Osobne ścieżki to podstawa workflow w takich programach jak Cubase, Pro Tools czy nawet Audacity. Nawet jak się kiedyś pracowało na sprzęcie analogowym, to myślenie ścieżkami już wtedy było istotne – dzisiaj po prostu jest to łatwiejsze i dokładniejsze. Moim zdaniem warto od razu wyrobić sobie nawyk pracy na wielu ścieżkach, bo to bardzo ułatwia późniejszą edycję i oszczędza mnóstwo czasu przy bardziej złożonych projektach. Dzięki temu każdy element miksu masz pod kontrolą i możesz go zmieniać nie wpływając na pozostałe fragmenty. To taki absolutny fundament branżowy – nie znam chyba nikogo, kto profesjonalnie pracuje inaczej.

Pytanie 30

Ile monofonicznych ścieżek należy utworzyć w sesji montażowej programu DAW, aby móc w niej odtworzyć nagranie wykonane techniką mikrofonową ORTF?

A. 4 ścieżki.
B. 2 ścieżki.
C. 5 ścieżek.
D. 3 ścieżki.
Technika mikrofonowa ORTF polega na wykorzystaniu dwóch mikrofonów ustawionych względem siebie pod kątem 110 stopni i oddalonych o 17 cm. Te dwa mikrofony rejestrują dwa niezależne sygnały – lewy i prawy kanał. Jeżeli chcemy poprawnie odtworzyć nagranie wykonane tą metodą w DAW, musimy utworzyć dwie monofoniczne ścieżki – każdą dla osobnego sygnału mikrofonowego. To podejście jest zgodne z praktyką studyjną, bo umożliwia późniejsze precyzyjne panoramowanie każdej ścieżki: jedna trafia w panoramę lewą, druga w prawą, dzięki czemu uzyskujemy efekt szerokiej i naturalnej stereofonii, charakterystyczny dla ORTF. Z mojego doświadczenia to najbardziej uniwersalna metoda pracy z takimi nagraniami – pozwala na dowolne dalsze przetwarzanie każdego kanału osobno, czy to korekcję, czy kompresję, albo też subtelne efekty przestrzenne. Warto dodać, że nie używa się tutaj ścieżki stereo, bo tracimy wtedy elastyczność miksu. W branży audio uznaje się, że oddzielne ścieżki mono dla każdego mikrofonu dają najlepszą kontrolę nad przestrzenią i balansem. Stosowanie większej liczby ścieżek nie ma sensu, bo ORTF bazuje tylko na dwóch mikrofonach. W praktyce bardzo często, nawet w profesjonalnych sesjach, inżynierowie nagrań trzymają się tej zasady. To daje pełną zgodność z wytycznymi EBU oraz AES dotyczącymi rejestracji dźwięku stereofonicznego.

Pytanie 31

Która z wymienionych funkcji dostępnych w sesji programu DAW standardowo umożliwia uzyskanie efektu płynnego przejścia między dwoma plikami dźwiękowymi?

A. PASTE
B. CROSSFADE
C. MERGE
D. GLUE
Crossfade to jedna z tych funkcji, bez których trudno wyobrazić sobie profesjonalną pracę w DAW-ie, zwłaszcza kiedy obrabia się pliki audio i zależy nam na płynnym przejściu pomiędzy dwoma ścieżkami. Efekt crossfade polega na jednoczesnym wyciszaniu jednej ścieżki dźwiękowej i narastaniu drugiej – dzięki temu nie słychać żadnych klików, nieprzyjemnych przeskoków czy nagłych zmian głośności. Takie rozwiązanie jest standardem nie tylko w muzyce, ale też w postprodukcji filmowej czy radiowej, bo daje bardzo naturalne, „ludzkie” wrażenie płynności. Moim zdaniem, każda osoba, która poważnie myśli o miksowaniu lub edycji dźwięku, powinna ogarnąć temat crossfade’ów jak najszybciej, bo to skraca pracę i pozwala uniknąć żmudnego, ręcznego dopasowywania krzywych głośności. Branżowe DAWy, takie jak Ableton, Cubase, czy Pro Tools, mają opcje crossfade’ów dostępne praktycznie od ręki – często wystarczy po prostu zaznaczyć dwa sąsiadujące klipy audio i kliknąć odpowiednią funkcję. Dobrze wykonany crossfade pozwala nie tylko usunąć trzaski, ale też kreatywnie łączyć różne próbki, np. perkusyjne lub wokalne. Najlepsi realizatorzy dźwięku korzystają z tego codziennie i zwracają uwagę nawet na kształt krzywej crossfade’u (logarytmiczna, liniowa, eksponencjalna), żeby mieć pełną kontrolę nad charakterem przejścia. Warto też pamiętać, że crossfade nie ingeruje w oryginalny materiał, tylko nakłada efekt na styku klipów, co daje sporą swobodę edycyjną.

Pytanie 32

Zastosowanie procesora Upward Expander wpływa na

A. poszerzenie dynamiki.
B. usunięcie przydźwięku sieci.
C. zmniejszenie dynamiki.
D. ograniczenie niskich tonów.
Procesor typu Upward Expander to zdecydowanie ciekawe narzędzie w realizacji dźwięku, zwłaszcza w kontekście obróbki dynamiki. Jego głównym zadaniem jest poszerzenie zakresu dynamiki sygnału audio – co oznacza, że cichsze fragmenty stają się jeszcze cichsze względem głośnych. To zupełnie odwrotnie niż w przypadku kompresora, który "ściska" dynamikę poprzez wyrównywanie poziomów. W praktyce, zastosowanie upw. expandera przydaje się wtedy, gdy nagranie wydaje się zbyt "spłaszczone", na przykład po wcześniejszym mocnym skompresowaniu lub przy słabych nagraniach z dużą ilością szumów w tle. Upraszczając, expander pomaga przywrócić naturalność i przestrzeń nagrania, przez co miks staje się bardziej przejrzysty. Przykład z mojego doświadczenia – czasem, kiedy wokal jest za bardzo wyciśnięty przez kompresję, expander potrafi dodać mu życia, podkreślając subtelności, które były zbyt ukryte. W branży dźwiękowej stosuje się expander w broadcastingu, postprodukcji filmowej czy w masteringu, gdzie ważne jest zachowanie rozpiętości dynamicznej. Zgodnie z praktykami AES i standardami broadcastu, ekspander powinien być stosowany z wyczuciem, aby nie przesadzić i nie spowodować przesadnej utraty detali. Niektórzy realizatorzy stosują też expandery selektywnie, np. tylko na ścieżkach perkusji, by podkreślić atak i naturalność. W skrócie, upward expander poszerza dynamikę – to jego najważniejsza cecha i cel stosowania.

Pytanie 33

Kompresja równoległa polega na

A. niezależnym kompresowaniu kilku pasm częstotliwości składających się na sygnał.
B. skopiowaniu jednej ze ścieżek, skompresowaniu jej i domiksowaniu do oryginału.
C. jednoczesnej kompresji wszystkich ścieżek wokalnych.
D. jednoczesnej kompresji wszystkich ścieżek instrumentalnych.
Kompresja równoległa to naprawdę ciekawa technika, którą często stosuje się w miksie, zwłaszcza jeśli chce się uzyskać potężny, ale jednocześnie naturalnie brzmiący dźwięk. Chodzi w niej o to, że kopiujesz ścieżkę – najczęściej jest to wokal, perkusja albo jakaś grupa instrumentów – a następnie mocno ją kompresujesz. Potem obie wersje, czyli oryginalną i tę mocno skompresowaną, miksujesz razem. Dzięki temu zyskujesz kontrolę nad dynamiką, ale nie tracisz naturalności i wyrazistości. W praktyce kompresja równoległa pozwala zachować transjenty i charakter nagrania, jednocześnie podnosząc jego głośność i obecność w miksie. Stosuje się ją praktycznie we wszystkich nowoczesnych studiach, bo daje sporo swobody. Standardem jest, żeby nie przesadzać z ilością domiksowywanej kompresowanej ścieżki, żeby nie zgubić oryginalnej artykulacji. W branży raczej nikt nie kompresuje wszystkich ścieżek jednocześnie czy też nie dzieli ich sztucznie na wokalne i instrumentalne – bo najważniejszy jest charakter brzmienia. Moim zdaniem, ten sposób obróbki pokazuje, jak kreatywnie można podejść do narzędzi, które na pierwszy rzut oka wydają się zwyczajne. Zresztą, w dużej mierze kompresja równoległa jest uważana za must-have w miksie perkusji i wokali, bo daje im wyrazistość, a nie robi z nich płaskiego ciasta. Fajnie też wiedzieć, że ta technika sprawdza się zarówno w miksach rockowych, popowych, jak i elektronicznych, więc warto ją opanować na różnych etapach produkcji.

Pytanie 34

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawne przetwarzanie analogowo-cyfrowe dźwięku, jeżeli najwyższą częstotliwością występującą w jego widmie jest częstotliwość 20 kHz?

A. 96 000 Hz
B. 48 000 Hz
C. 44 100 Hz
D. 32 000 Hz
Wybór częstotliwości próbkowania 44 100 Hz to zdecydowanie najrozsądniejsze rozwiązanie w kontekście przetwarzania dźwięku, jeśli maksymalna częstotliwość sygnału wynosi 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał analogowy po jego próbkowaniu, trzeba próbkować z częstotliwością co najmniej dwa razy wyższą niż najwyższa obecna w nim częstotliwość. Dla 20 kHz daje nam to minimalnie 40 kHz. W praktyce jednak, np. w przemyśle muzycznym oraz przy nagraniach CD, stosuje się właśnie 44 100 Hz, bo taka częstotliwość zapewnia delikatny zapas na filtrację (nie da się zrobić idealnego filtru odcinającego, zawsze jest trochę "rozmycia"). Ten zapas chroni przed aliasingiem, czyli zniekształceniami dźwięku spowodowanymi nakładaniem się widma sygnału. 44 100 Hz stało się już taką branżową normą – praktycznie każdy odtwarzacz audio i oprogramowanie do obróbki dźwięku ten standard obsługuje. Moim zdaniem warto też zauważyć, że wyższe częstotliwości próbkowania spotyka się w studiach nagraniowych (np. 48 kHz, 96 kHz), ale dla typowego zastosowania konsumenckiego – właśnie 44 100 Hz daje optymalną równowagę między jakością a ilością danych do przetwarzania. Dobrze jest to rozumieć także w kontekście projektowania własnych układów audio lub wyboru sprzętu – nie zawsze "więcej" znaczy "lepiej", bo większe częstotliwości zajmują więcej miejsca i wymagają więcej mocy obliczeniowej, a różnica w jakości często staje się niezauważalna dla ludzkiego ucha.

Pytanie 35

W jakiej pozycji na osi czasu w sesji programu DAW należy ustawić znacznik końcowy utworu muzycznego, jeśli utwór ten ma trwać 64 takty przy metrum 4/4 i tempie 120 BPM?

A. Na początku 240 sekundy.
B. Na końcu 64 sekundy.
C. Na początku 186 sekundy.
D. Na końcu 128 sekundy.
Poprawnie zidentyfikowałeś moment zakończenia utworu – 128 sekunda to dokładnie tam, gdzie kończy się 64 takt w metrum 4/4 przy tempie 120 BPM. Sprawa wygląda tak: każde 4/4 oznacza, że w jednym takcie mamy 4 ćwierćnuty. Przy tempie 120 BPM, czyli 120 ćwierćnut na minutę, jeden takt trwa dokładnie 2 sekundy (bo 120 podzielić na 60 to 2, czyli 2 ćwierćnuty na sekundę, więc 4 ćwierćnuty – cały takt – to 2 sekundy). Mnożąc 64 takty razy 2 sekundy, wychodzi właśnie 128 sekund. W praktyce, w DAW-ach jak Ableton, FL Studio czy Cubase, wyznaczanie końca utworu w taki sposób to podstawa pracy – pozwala to uniknąć niewygodnych pauz lub uciętych dźwięków przy renderingu, a także porządkuje workflow całej sesji. Często producenci ustawiają marker końca dokładnie na ostatnim takcie, żeby przy eksporcie nie zgubić żadnych ważnych elementów np. efektów wybrzmiewających na końcu utworu. Moim zdaniem, taka precyzyjna kalkulacja bardzo się przydaje przy planowaniu automatyzacji, fade-outów czy edycji struktury utworu. W branży to taki standard, żeby nie marnować czasu na zgadywanie, tylko od razu podchodzić do sesji technicznie i praktycznie. To też ważna umiejętność, szczególnie gdy współpracuje się z innymi albo chce się przesłać projekt dalej.

Pytanie 36

Port ADAT umożliwia transfer 8 kanałów dźwięku cyfrowego o częstotliwości próbkowania nie większej niż

A. 96 kHz
B. 384 kHz
C. 192 kHz
D. 48 kHz
Warto się na chwilę zatrzymać przy temacie ADAT, bo łatwo się tutaj pomylić, zwłaszcza jeśli myślimy o nowoczesnych standardach przesyłu audio cyfrowego. Zdarza się, że ktoś założy, że skoro światłowód, to „pewnie wszystko pójdzie”, ale historia i możliwości tego interfejsu są dość konkretne. ADAT, czyli Alesis Digital Audio Tape, szczególnie w swoim pierwotnym standardzie Lightpipe, pozwala na transport maksymalnie 8 kanałów audio jednocześnie, ale tylko do częstotliwości próbkowania 48 kHz. Jeśli ktoś wybierze wyższe wartości, takie jak 96 kHz czy nawet dalej – 192 czy 384 kHz – niestety będzie musiał się liczyć z ograniczeniami. Protokół ADAT obsługuje tzw. S/MUX (Sample Multiplexing), kiedy chcemy przesłać sygnał w jakości 96 kHz – wtedy liczba kanałów spada do 4, a przy jeszcze wyższych parametrach to już praktycznie nie jest wykorzystywane w tym standardzie. Z mojego doświadczenia wynika, że dużo osób mylnie utożsamia przepustowość ADAT z innymi formatami, zwłaszcza gdy widzą, że inne interfejsy (np. MADI czy Dante) pozwalają na przesył dziesiątek czy nawet setek kanałów przy wysokich częstotliwościach próbkowania. To typowy błąd – zakładać, że technologia światłowodowa automatycznie oznacza nielimitowaną przepustowość. W praktyce, jeśli ktoś ustawi 96 kHz na interfejsie ADAT i liczy na 8 kanałów, to połowy śladów po prostu nie usłyszy, bo nie zostaną przesłane. 192 czy 384 kHz to już wartości spotykane raczej w innych protokołach cyfrowych lub w zaawansowanych rozwiązaniach studyjnych, a nie w zwykłym ADAT. Praktyka pokazuje, że czasem nawet doświadczeni technicy zapominają o tych ograniczeniach, co prowadzi do niepotrzebnego zamieszania podczas pracy. Więc podsumowując – ADAT daje 8 kanałów tylko do 48 kHz, powyżej tej wartości pojemność spada, a wyższe sample rate po prostu nie są możliwe w tym trybie.

Pytanie 37

Która z wymienionych jednostek dotyczy poziomu odczuwalnej głośności nagrań dźwiękowych?

A. dBFS
B. dBp
C. AU
D. LUFS
LUFS, czyli Loudness Units relative to Full Scale, to obecnie najbardziej precyzyjna jednostka służąca do pomiaru odczuwalnej głośności nagrań dźwiękowych. W praktyce radiowej, telewizyjnej czy podczas masteringu muzyki, LUFS umożliwia inżynierom dźwięku kontrolowanie i standaryzację głośności utworów tak, by nie było nagłych skoków głośności między różnymi produkcjami. Moim zdaniem, to ogromne ułatwienie szczególnie przy pracy nad podcastami czy muzyką na streaming, gdzie różnice poziomów potrafią być bardzo irytujące dla odbiorcy. Standard EBU R128 oraz ITU-R BS.1770 wyraźnie zalecają stosowanie LUFS właśnie po to, by głośność była odbierana spójnie, niezależnie od tego, jak bardzo skompresowany jest sygnał czy jak zróżnicowane są piki. Przykładowo: Spotify czy YouTube ustawiają swoje rekomendowane wartości LUFS na około -14 LUFS, co pozwala uniknąć efektu głośniej-ciszej między różnymi utworami. Tak szczerze mówiąc, jak się raz zacznie pracować z LUFS, ciężko wrócić do starych metod, bo komfort dla słuchacza jest nieporównywalny. Gdyby nie LUFS, świat broadcastu i streamingu byłby dużo bardziej chaotyczny w zakresie głośności. Dlatego ta jednostka to już standard branżowy i jeśli chcesz robić dźwięk zawodowo, warto ją dobrze poznać.

Pytanie 38

Oprogramowania DAW umożliwiają odtwarzanie, bez uprzedniej konwersji, plików dźwiękowych zapisanych w formacie

A. .ogg
B. .wav
C. .mp3
D. .m4a
Format .wav to taki klasyk, jeśli chodzi o produkcję muzyczną i pracę w programach typu DAW (Digital Audio Workstation). Nie ma co ukrywać, że praktycznie każdy program muzyczny, czy to profesjonalny, czy nawet ten bardziej podstawowy, obsługuje pliki wav praktycznie „z marszu”, bez żadnej konwersji. Format ten jest nieskompresowany, co oznacza, że dźwięk zachowuje pełną jakość – zero strat, żadnych artefaktów kompresji, po prostu czysty sygnał. W studiu, każdy producent, realizator czy nawet amator wie, że jeśli chcesz mieć pewność, że coś otworzy się poprawnie i zagra bez problemu, wybierasz właśnie wav. Tak naprawdę większość bibliotek sampli, loopów czy profesjonalnych nagrań dostarczana jest właśnie w tym formacie. To jeden z tych standardów, które są po prostu uniwersalne – trochę jak .pdf w dokumentach. Moim zdaniem warto pamiętać, że DAW-y mogą oferować wsparcie dla innych formatów, ale .wav to taki „bezpieczny wybór”, bo zapewnia maksymalną kompatybilność oraz łatwość dalszej obróbki, eksportu i archiwizacji. Dodatkowo, praca na wavach sprzyja lepszej kontroli jakości miksu (nie musisz się martwić, że coś brzmi dziwnie przez kompresję). W praktyce, niezależnie czy korzystasz z Cubase, Ableton Live, Reapera czy FL Studio – plik wav wrzucisz i odtworzysz od ręki, a to już mocny argument za tym formatem.

Pytanie 39

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-RW
B. DVD+R
C. DVD-R
D. DVD+R DL
Wybrałeś prawidłowo – DVD-RW to faktycznie płyta wielokrotnego zapisu danych. Skrót RW (ReWritable) od razu sugeruje, że możemy ją nagrywać i kasować wielokrotnie, co jest ogromną zaletą przy testowaniu oprogramowania, tworzeniu backupów, czy po prostu, kiedy człowiek coś źle nagra i chce poprawić. W praktyce, w pracy technika czy informatyka, takie płyty są czasem niezastąpione, bo nie trzeba za każdym razem sięgać po nową, tylko można nadpisać poprzednie dane. Standard DVD-RW został zatwierdzony przez DVD Forum, a na rynku spotyka się zarówno płyty -RW, jak i +RW, ale akurat w tym pytaniu chodziło o -RW. Z mojego doświadczenia, przy testach oprogramowania albo kiedy trzeba szybko przenosić większe pliki między starszymi komputerami, taka płyta sprawdza się całkiem nieźle. Oczywiście, nośniki optyczne powoli odchodzą do lamusa na rzecz pendrive’ów i chmury, ale czasem branża wymaga pracy z legacy sprzętem i właśnie tam DVD-RW się przydaje. Warto dodać, że płyty wielokrotnego zapisu mają ograniczoną żywotność – po kilkudziesięciu czy kilkuset cyklach mogą zacząć szwankować, ale to i tak niezły wynik jak na taki format. W sumie miło wiedzieć, że jeszcze potrafimy rozpoznać, który standard do czego służy – taka wiedza w branży IT może się nie raz przydać.

Pytanie 40

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save
B. Save As
C. Revert to Saved
D. Save Copy In
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.