Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 28 kwietnia 2026 15:42
  • Data zakończenia: 28 kwietnia 2026 16:00

Egzamin zdany!

Wynik: 30/40 punktów (75,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Którą z wymienionych nazw należy nadać ścieżce w sesji programu DAW, zawierającej nagranie partii skrzypiec?

A. Bass.
B. Cello.
C. Viola.
D. Violin.
Odpowiedzi takie jak Cello, Viola czy Bass wskazują na inne instrumenty smyczkowe, które – mimo że są w jednej rodzinie ze skrzypcami – mają zupełnie inne role w aranżacji i też zupełnie inne brzmienie. Cello, czyli wiolonczela, gra głębsze, bardziej pełne tony i zazwyczaj pełni funkcję harmoniczno-basową w utworach orkiestrowych, a czasem nawet melodyczną, ale w niższym rejestrze. Viola, czyli altówka, znajduje się pomiędzy skrzypcami a wiolonczelą i daje takie ciepłe, środkowe pasmo, często tworząc harmoniczne tło. Natomiast Bass – o ile chodziło o kontrabas – to instrument grający najniżej, typowo wzmacniający sekcję rytmiczną i harmoniczną. Często ktoś popełnia błąd wybierając te nazwy przez skojarzenie z rodziną smyczków albo myśląc, że w nazwie ścieżki wystarczy ogólna kategoria. Jednak w praktyce technicznej, szczególnie przy pracy w DAW, precyzyjne opisywanie każdej ścieżki jest kluczowe – pozwala uniknąć bałaganu i daje szansę na szybkie odnalezienie się w sesji, nawet jeśli projekt ma kilkanaście czy kilkadziesiąt ścieżek. Z mojego doświadczenia, jeśli pomylisz nazwy albo będziesz używać zamiennie takich określeń, już po kilku godzinach pracy możesz się mocno pogubić, szczególnie gdy projekt trafia do kolejnych osób. W branży muzycznej, szczególnie gdy współpracuje się z zagranicą, używanie jasnych i jednoznacznych nazw angielskich jest standardem, bo wszyscy wtedy od razu wiedzą, z czym mają do czynienia, i nie ma miejsca na domysły. Takie podejście minimalizuje ryzyko błędów w miksie, masteringu czy eksporcie poszczególnych ścieżek.

Pytanie 2

Która z wymienionych wartości częstotliwości próbkowania zapewnia najszersze pasmo próbkowanego dźwięku?

A. 48 kHz
B. 384 kHz
C. 192 kHz
D. 96 kHz
Wybór częstotliwości próbkowania 384 kHz zdecydowanie daje najszersze możliwe pasmo dla próbkowanego dźwięku spośród dostępnych opcji. To wynika bezpośrednio z twierdzenia Nyquista, które mówi, że maksymalna częstotliwość sygnału, którą da się odtworzyć bez zniekształceń, to połowa częstotliwości próbkowania. Czyli przy 384 kHz górna granica dla pasma sygnału audio to aż 192 kHz. W praktyce to o wiele więcej niż potrzeba dla ludzkiego ucha (zwykle słyszymy max do 20 kHz), ale w zastosowaniach profesjonalnych – np. archiwizacji nagrań, masteringu audio lub podczas zaawansowanej obróbki cyfrowej – tak ogromne pasmo pozwala zminimalizować zniekształcenia kwantyzacyjne, artefakty aliasingu i daje dużo większą swobodę przy procesach edycji. Moim zdaniem, trochę to przerost formy nad treścią dla zwykłego słuchacza, ale studia nagraniowe i inżynierowie dźwięku często pracują w takich rozdzielczościach, bo potem mogą wyeksportować materiał do niższych formatów bez utraty jakości. Warto wiedzieć, że mimo iż standardy branżowe jak CD-Audio wymagają tylko 44,1 kHz, to przy zaawansowanej produkcji muzycznej czy nagrywaniu próbkowanie 384 kHz jest coraz częściej spotykane. Z mojego doświadczenia – jeśli zależy ci na absolutnym braku kompromisów w jakości materiału źródłowego, to wyższa częstotliwość próbkowania naprawdę robi różnicę, nawet jeśli potem nie wszystko słychać bezpośrednio – szczególnie przy wielokrotnym przetwarzaniu sygnału.

Pytanie 3

Która z podanych sekcji oprogramowania DAW służy do konfiguracji połączenia oprogramowania z zewnętrzną kartą dźwiękową?

A. EDIT
B. FILE
C. I/O
D. SESSION
Wybierając inną sekcję niż I/O, łatwo wpaść w pułapkę myślenia, że np. FILE, EDIT czy SESSION mogą mieć coś wspólnego z konfiguracją sprzętu audio. Zacznijmy od sekcji FILE – ona służy głównie do zarządzania plikami projektu, czyli otwierasz, zapisujesz, eksportujesz albo importujesz różne elementy dźwiękowe, ale praktycznie nigdy nie ma tam ustawień związanych z kartą dźwiękową. To częsty błąd początkujących, zwłaszcza jeśli są przyzwyczajeni do innych programów, gdzie ustawienia sprzętowe bywają ukryte pod menu plikowym – w DAW rzadko tak to działa. Kolejna sprawa – EDIT. To miejsce przeznaczone do edycji ścieżek, klipów, automatyzacji czy manipulacji danymi MIDI. Tam skupiasz się na twórczej obróbce, a nie na sprzęcie. Zdarza się, że ktoś szuka ustawień wejść/wyjść właśnie tam, bo wydaje się to intuicyjne, ale to mylne założenie. Z kolei SESSION to pojęcie bardziej związane z organizacją pracy nad projektem – tu zarządzasz sesjami, układem ścieżek, być może nawet snapshotami miksera, ale nie konfigurujesz bezpośrednio połączeń z zewnętrznym sprzętem audio. Branżowym standardem jest, że każda poważna aplikacja DAW oddziela warstwę sprzętową (czyli I/O) od warstwy zarządzania plikami czy edycji. Z mojego doświadczenia, mylenie tych pojęć prowadzi do wielu niepotrzebnych frustracji i strat czasu – szczególnie w środowisku studyjnym, gdzie każda minuta jest cenna. Dobrym nawykiem jest więc od razu szukać ustawień połączeń audio właśnie w sekcji I/O, bo tam masz pełną kontrolę nad tym, jak DAW komunikuje się z Twoją kartą dźwiękową lub innym interfejsem. Rozdzielanie tych funkcji wynika z dobrych praktyk oraz konieczności zachowania przejrzystości w profesjonalnych workflow.

Pytanie 4

Rozdzielczość bitowa sygnału cyfrowego określa liczbę

A. próbek na sekundę w transmisji danych.
B. próbek opisanych jednym bitem.
C. bitów dostępnych do opisu każdej próbki sygnału.
D. bitów na sekundę w transmisji danych.
Rozdzielczość bitowa sygnału cyfrowego to, mówiąc najprościej, liczba bitów przeznaczonych do zapisu pojedynczej próbki sygnału. Im wyższa rozdzielczość, tym dokładniej możemy odwzorować poziomy amplitudy sygnału analogowego podczas konwersji na sygnał cyfrowy. Na przykład – w typowej karcie dźwiękowej do nagrań muzyki spotyka się rozdzielczość 16 bitów na próbkę, co daje aż 65536 możliwych poziomów wartości sygnału. Dzięki temu nawet subtelne różnice w natężeniu dźwięku zostaną uchwycone. W branży audio, w profesjonalnych studiach nagrań, standardem jest często 24 bity na próbkę – to już 16,7 miliona poziomów, co pozwala na bardzo precyzyjne uchwycenie niuansów dźwięku i minimalizuje szumy kwantyzacji. Moim zdaniem rozumienie pojęcia rozdzielczości bitowej to podstawa nie tylko w elektronice czy informatyce, ale praktycznie wszędzie, gdzie pojawia się przetwarzanie sygnałów, choćby w medycynie (np. EKG cyfrowe), fotografii czy instrumentach pomiarowych. Ważne jest też, żeby nie mylić rozdzielczości bitowej z częstotliwością próbkowania czy przepływnością danych – bo to zupełnie inne parametry i mają inne zastosowania. W praktyce, jeśli chcemy dobrze dobrać parametry urządzenia do konkretnego zastosowania, świadomość, co oznacza rozdzielczość bitowa, naprawdę się przydaje.

Pytanie 5

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 10
B. 5
C. 1
D. 2
Wartość dobroci filtru, czyli tzw. Q (quality factor), bezpośrednio wpływa na szerokość pasma działania korektora. Im wyższa dobroć (Q), tym bardziej filtr selektywnie działa, a więc obejmuje węższy zakres częstotliwości. Ale uwaga, w pytaniu zostało sprytnie zapytane o najszerszy zakres częstotliwości objęty działaniem korektora, czyli chodzi o najniższą dobroć. W standardach audio i elektroniki ogólnie przyjmuje się, że filtry z niską dobrocią (np. Q=1) mają szerokie pasmo - korygują dużą część spektrum, trochę jakby grzebień o szerokich zębach. Natomiast wysokie wartości Q, na przykład 10 jak w tej odpowiedzi, oznaczają, że korektor wpływa bardzo selektywnie na bardzo wąską część widma – wręcz precyzyjnie "wycina" lub podbija daną częstotliwość. To jest przydatne, gdy chcemy wyeliminować np. pojedynczy, uciążliwy rezonans albo dzwonienie w miksie audio. Z doświadczenia powiem, że w praktycznych aplikacjach audiofilskich czy studyjnych, wysokie Q pozwala na chirurgiczne kształtowanie brzmienia, ale nie nadaje się do szerokich korekt. Można to porównać do precyzyjnej igły zamiast pędzla. Dla szerokiego wpływu na pasmo wykorzystuje się niskie dobroci, a wysokie Q przy precyzyjnych zabiegach. Warto o tym pamiętać, bo wiele osób odruchowo myli szerokość pasma z wartością Q – to taka klasyczna pułapka początkujących. Moim zdaniem, zrozumienie tego mechanizmu bardzo pomaga przy projektowaniu filtrów i korektorów w praktyce.

Pytanie 6

Podczas masteringu materiału dźwiękowego

A. ma miejsce normalizacja ścieżki audio.
B. montuje się ścieżki audio.
C. wykonuje się nagranie ścieżki audio w określonym formacie.
D. dokonuje się wyboru ilości ścieżek dźwiękowych w edytorze dźwięku.
Wiele osób myli etapy produkcji audio, co jest całkiem zrozumiałe, bo procesy takie jak montaż, nagrywanie czy wybór ustawień ścieżek wydają się podobne do masteringu – w praktyce jednak każdy z tych etapów ma zupełnie inne zadania i znaczenie. Montowanie ścieżek audio to czynność właściwa dla edycji lub miksowania, nie zaś masteringu. Wtedy właśnie układa się kolejność fragmentów, przycina się je, nakłada efekty – wszystko po to, by przygotować materiał do dalszej obróbki. Mastering natomiast to już końcowy szlif, gdzie nie wprowadza się już dużych zmian w strukturze nagrania. Nagrywanie ścieżki audio w określonym formacie brzmi logicznie, ale jest to typowa czynność realizowana podczas rejestracji dźwięku – wtedy wybiera się parametry jak częstotliwość próbkowania, rozdzielczość czy format pliku (WAV, AIFF itd.). W masteringu rzeczywiście eksportuje się plik do wybranego formatu, lecz sama czynność nagrania nie jest celem tego etapu. Co do wyboru ilości ścieżek dźwiękowych – to kwestia, która pojawia się wcześniej, podczas aranżacji lub miksu, bo mastering zawsze pracuje na sumie miksu, czyli pojedynczym, stereofonicznym pliku audio (albo rzadko – na stemach). Typowym błędem jest tu myślenie, że mastering pozwala jeszcze coś zmienić w aranżu czy liczbie ścieżek, co jest niemożliwe. Dobrym nawykiem jest zapamiętanie, że mastering to etap finalny, skupiający się na głośności, dynamice, spójności barwy i przygotowaniu do publikacji. Moim zdaniem właśnie przez brak rozróżnienia tych etapów wiele nagrań amatorskich brzmi nierówno, bo zamiast skupić się na normalizacji i finalnej obróbce, próbuje się tam jeszcze coś dogrywać lub montować. W branży audio standardem jest trzymanie się ścisłej kolejności działań – najpierw nagrywamy, potem montujemy i miksujemy, a na końcu, już na pojedynczej ścieżce stereo, wykonujemy mastering, w tym normalizację.

Pytanie 7

Podczas tworzenia nowej sesji w programie DAW można dokonać wyboru

A. kształtu fade in i fade out w sesji.
B. koloru ścieżek w sesji.
C. liczby grup ścieżek w sesji.
D. częstotliwości próbkowania sygnału w sesji.
Wybór częstotliwości próbkowania podczas tworzenia nowej sesji w DAW to podstawa, jeśli chodzi o jakość realizowanego projektu. W praktyce to od tej decyzji zależy późniejsza jakość nagrania, możliwości edycyjne i kompatybilność z innymi urządzeniami czy oprogramowaniem. Najczęściej stosuje się wartości typu 44,1 kHz (standard dla muzyki na CD), 48 kHz (wideo, broadcast), ale czasem sięga się po wyższe – 88,2 kHz, 96 kHz, a nawet 192 kHz. Z mojego doświadczenia, jak raz wybierzesz złą częstotliwość, potem potrafią być problemy przy eksporcie, miksie czy nawet odtwarzaniu na niektórych sprzętach. Branżowe dobre praktyki nakazują przemyśleć, do czego jest sesja: jeśli dla muzyki do streamingu, spokojnie 44,1 kHz, ale jeśli do filmu czy podcastów – raczej 48 kHz. Dobrze jest też pilnować, żeby wszystkie nagrywane ścieżki, sample i instrumenty pracowały w tej samej częstotliwości, bo po konwersji mogą pojawić się artefakty albo spadek jakości. DAW-y praktycznie zawsze pytają o ten parametr na starcie, bo jego zmiana w trakcie pracy bywa kłopotliwa i ryzykowna. Warto o tym pamiętać, bo to taka trochę decyzja na cały projekt – nie na chwilę.

Pytanie 8

Który z wymienionych dokumentów stanowi zapis nutowy utworu muzycznego?

A. Scenariusz.
B. Lista edycyjna.
C. Partytura.
D. Drabinka.
Partytura to taki dokument, który można śmiało nazwać instrukcją obsługi dla zespołu muzycznego albo orkiestry. Składa się z zapisów nutowych dla różnych instrumentów lub głosów – wszystko w jednym miejscu, przejrzyście rozpisane linijka po linijce. To, moim zdaniem, jeden z najważniejszych dokumentów w pracy muzyka, dyrygenta, realizatora dźwięku czy nawet kompozytora – bez partytury trudno byłoby zsynchronizować większą grupę wykonawców. Kiedy ktoś pracuje w teatrze muzycznym, studiu nagraniowym czy przy realizacji większych koncertów, taka partytura jest absolutnie niezbędna, bo pozwala ogarnąć cały utwór naraz. Z mojego doświadczenia wynika, że im precyzyjniej napiszesz partyturę, tym mniej zamieszania podczas prób i nagrań. W branży to taki złoty standard, wszyscy profesjonaliści korzystają z partytur, szczególnie gdy utwór zawiera wiele warstw instrumentalnych lub wokalnych. Dodatkowo, partytury są potrzebne do archiwizacji, pracy edytorskiej, a także przy przenoszeniu utworów na inne obsady – np. z orkiestry na zespół kameralny. To nie tylko zapis nut, ale często też tempo, dynamika, artykulacja – te wszystkie szczegóły, które sprawiają, że utwór brzmi jak należy. Bez partytury trudno mówić o profesjonalnym podejściu do muzyki zespołowej.

Pytanie 9

Decyzja o ostatecznym formacie i parametrach pliku dźwiękowego podejmowana jest podczas

A. wciągania plików dźwiękowych do sesji montażowej.
B. masteringu nagrania.
C. edycji nagrania.
D. zapisywania pliku wynikowego.
Wybór ostatecznego formatu i parametrów pliku dźwiękowego to, moim zdaniem, jeden z najważniejszych momentów w całym procesie pracy z dźwiękiem. To właśnie podczas zapisywania pliku wynikowego decydujesz, czy Twój utwór będzie w formacie WAV, MP3, FLAC, a może jeszcze innym. Wtedy ustawiasz też takie rzeczy jak częstotliwość próbkowania (na przykład 44,1 kHz lub 48 kHz), głębię bitową (16 bitów, 24 bity), ewentualną kompresję i wiele innych detali. Dlatego branżowym standardem jest, żeby na tym etapie być bardzo uważnym – nie raz już widziałem, jak nawet świetne miksy traciły na jakości przez nieprzemyślany eksport. Przykładowo, jeśli nagrywasz muzykę na CD, musisz wyeksportować plik do WAV 16 bitów 44,1 kHz, bo taki jest wymóg płyty. Z kolei do serwisów streamingowych często zaleca się eksport 24 bity i 48 kHz, nawet jeśli finalnie pliki zostaną przekonwertowane, bo zachowuje się wtedy lepszą jakość źródłową. Dobrym zwyczajem jest też przygotowanie kilku wersji pliku: osobno do masteringu, osobno na streaming i osobno do archiwum – to bardzo pomaga uniknąć późniejszych problemów z kompatybilnością. Ustawienia te nie są wybierane automatycznie ani w trakcie montażu, ani podczas masteringu – zawsze musisz świadomie podjąć decyzję tuż przed eksportem. No i pamiętaj: formaty stratne (MP3, AAC) zawsze pogorszą jakość względem bezstratnych (WAV, FLAC), więc jeśli nie musisz, lepiej używaj bezstratnych. W mojej opinii, to właśnie kontrola nad eksportem decyduje o końcowej jakości pliku.

Pytanie 10

Ile monofonicznych ścieżek należy utworzyć w sesji montażowej programu DAW, aby móc w niej odtworzyć nagranie wykonane techniką mikrofonową ORTF?

A. 4 ścieżki.
B. 3 ścieżki.
C. 5 ścieżek.
D. 2 ścieżki.
Technika mikrofonowa ORTF polega na wykorzystaniu dwóch mikrofonów ustawionych względem siebie pod kątem 110 stopni i oddalonych o 17 cm. Te dwa mikrofony rejestrują dwa niezależne sygnały – lewy i prawy kanał. Jeżeli chcemy poprawnie odtworzyć nagranie wykonane tą metodą w DAW, musimy utworzyć dwie monofoniczne ścieżki – każdą dla osobnego sygnału mikrofonowego. To podejście jest zgodne z praktyką studyjną, bo umożliwia późniejsze precyzyjne panoramowanie każdej ścieżki: jedna trafia w panoramę lewą, druga w prawą, dzięki czemu uzyskujemy efekt szerokiej i naturalnej stereofonii, charakterystyczny dla ORTF. Z mojego doświadczenia to najbardziej uniwersalna metoda pracy z takimi nagraniami – pozwala na dowolne dalsze przetwarzanie każdego kanału osobno, czy to korekcję, czy kompresję, albo też subtelne efekty przestrzenne. Warto dodać, że nie używa się tutaj ścieżki stereo, bo tracimy wtedy elastyczność miksu. W branży audio uznaje się, że oddzielne ścieżki mono dla każdego mikrofonu dają najlepszą kontrolę nad przestrzenią i balansem. Stosowanie większej liczby ścieżek nie ma sensu, bo ORTF bazuje tylko na dwóch mikrofonach. W praktyce bardzo często, nawet w profesjonalnych sesjach, inżynierowie nagrań trzymają się tej zasady. To daje pełną zgodność z wytycznymi EBU oraz AES dotyczącymi rejestracji dźwięku stereofonicznego.

Pytanie 11

Która z wymienionych wartości dobroci Q ma filtr o częstotliwości środkowej 200 Hz, jeśli szerokość pasma jego działania wynosi 20 Hz?

A. 100
B. 10
C. 1
D. 0,1
Dobroć filtra, czyli tak zwane Q, obliczamy dzieląc częstotliwość środkową przez szerokość pasma. W tym przypadku mamy 200 Hz częstotliwości środkowej oraz 20 Hz szerokości pasma, więc Q = 200 / 20 = 10. To jest dość typowa wartość dla filtrów selektywnych, które mają za zadanie precyzyjnie wyodrębniać konkretne sygnały z szumu albo innych częstotliwości. W praktyce taki filtr można spotkać np. w urządzeniach audio do korekcji barwy dźwięku czy w systemach pomiarowych, gdzie trzeba dobrze oddzielić wąski sygnał od tła. Wzory na Q pojawiają się wszędzie tam, gdzie istotna jest wąskopasmowość – szczególnie w filtrach pasmowo-przepustowych i pasmowo-zaporowych. Warto pamiętać, że wysokie Q oznacza filtr bardzo selektywny, ale też bardziej czuły na zakłócenia i trudniejszy do stabilizacji w praktycznych układach. Z mojego doświadczenia wynika, że w elektronice, szczególnie tej niskonapięciowej, warto trzymać się właśnie takich wartości, jeśli zależy nam na wysokiej selektywności. Dobrą praktyką jest zawsze przeliczenie Q i sprawdzenie, czy filtr nie jest zbyt „ostry”, bo wtedy czasami może wprowadzać niepożądane efekty, jak np. dzwonienie. W każdym razie, dla danych z pytania Q=10 to strzał w dziesiątkę.

Pytanie 12

W celu minimalizacji aliasingu podczas konwersji A/C sygnału fonicznego zawierającego częstotliwości składowe z pasma akustycznego 20 Hz - 20 kHz, wartość częstotliwości próbkowania powinna wynosić minimalnie

A. 10 kHz
B. 30 kHz
C. 40 kHz
D. 20 kHz
Dobrze zauważone, że właśnie 40 kHz powinno być minimalną częstotliwością próbkowania przy digitalizacji sygnału fonicznego obejmującego całe pasmo słyszalne, czyli od 20 Hz do 20 kHz. Wynika to bezpośrednio z twierdzenia Nyquista-Shannona, które mówi, że aby wiernie odtworzyć sygnał, bez efektu aliasingu, częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej częstotliwości w sygnale. W praktyce dla audio, gdzie najwyższa słyszalna częstotliwość to 20 kHz, oznacza to właśnie 40 kHz. Co ciekawe, standard Compact Disc Audio przyjął jeszcze nieco wyższą wartość: 44,1 kHz, żeby zostawić zapas na niefiltrowane składowe i ograniczyć możliwość zakłóceń. Moim zdaniem, w pracy z dźwiękiem, zawsze warto pamiętać o zapasie powyżej minimum, bo rzeczywiste filtry antyaliasingowe nie są idealne i przepuszczają trochę sygnału poza swoim zakresem. W zastosowaniach profesjonalnych coraz częściej spotyka się próbkowanie na poziomie 48 kHz, a nawet 96 kHz, ale minimalnie – zgodnie z teorią – to właśnie 40 kHz. To dobry przykład, jak teoria matematyczna przekłada się bezpośrednio na wymagania sprzętowe i standardy w branży dźwiękowej.

Pytanie 13

Zgodnie z zasadami archiwizacji często używane materiały dźwiękowe należy zapisywać na nośnikach

A. szybszych i o słabszej jakości.
B. szybszych i o lepszej jakości.
C. wolniejszych i o słabszej jakości.
D. wolniejszych i o lepszej jakości.
Odpowiedź jest zgodna z profesjonalnymi standardami archiwizacji materiałów dźwiękowych. Często używane nagrania, które mają dużą wartość użytkową, powinny być zapisywane na nośnikach szybszych i o lepszej jakości. Takie podejście wynika z kilku powodów praktycznych. Po pierwsze, szybkie nośniki (np. SSD, profesjonalne dyski twarde klasy enterprise, szybkie serwery NAS) pozwalają na błyskawiczny dostęp do plików – co jest kluczowe w przypadku materiałów regularnie modyfikowanych, kopiowanych czy odtwarzanych. Dodatkowo, nośniki wysokiej jakości zapewniają stabilność zapisu, mniejsze ryzyko utraty danych oraz gwarantują, że materiał nie ulegnie degradacji przez długi czas. Z mojego doświadczenia wynika, że inwestycja w lepsze nośniki znacząco skraca czas pracy z archiwami, szczególnie gdy trzeba szybko wyciągnąć jakiś fragment dźwięku do montażu czy prezentacji. Branżowe wytyczne, np. IASA-TC 03 czy zalecenia Europejskiego Stowarzyszenia Archiwistów Audiowizualnych, podkreślają wagę wyboru mediów zapewniających nie tylko krótki czas dostępu, ale i wysoką jakość zapisu, bo to chroni integralność danych przez lata. Praktycznie rzecz biorąc, jeśli archiwizuje się podcasty, nagrania wywiadów czy materiały radiowe, to szybki i niezawodny nośnik pozwala uniknąć frustracji związanej z długim ładowaniem lub błędami odczytu. Warto dodać, że nośniki o wysokiej jakości często oferują zaawansowane systemy korekcji błędów, co daje dodatkową warstwę bezpieczeństwa.

Pytanie 14

Która z funkcji dostępnych w sesji programu DAW umożliwia wyciszenie wybranych regionów?

A. Mute
B. Copy
C. Split
D. Lock
Funkcja „Mute” w programach DAW (Digital Audio Workstation) to praktyczne rozwiązanie, które pozwala na szybkie i bezpieczne wyciszenie wybranych regionów lub ścieżek bez usuwania czy modyfikowania samego materiału audio lub MIDI. Takie narzędzie to w zasadzie podstawa pracy w każdym projekcie muzycznym czy postprodukcyjnym. Wyciszanie regionów bardzo często przydaje się w sytuacjach, gdy chcemy tymczasowo porównać różne wersje aranżacji, sprawdzić jak brzmi mix bez danego elementu lub po prostu chwilowo odseparować ścieżkę, nie tracąc przy tym żadnych ustawień czy synchronizacji. Z mojego doświadczenia wynika, że korzystanie z funkcji „Mute” to świetna praktyka, bo pozwala utrzymać porządek w sesji i zachować pełną kontrolę nad przebiegiem nagrania. W branży muzycznej i realizatorskiej to rozwiązanie jest uznawane za absolutny standard – praktycznie każdy DAW (Ableton, Cubase, Logic Pro, Pro Tools, FL Studio i masa innych) posiada dedykowaną opcję do wyciszania regionów, często nawet z poziomu skrótu klawiaturowego. Dodatkowo, mutowanie fragmentów ścieżek jest bardzo przydatne przy edycji wokali, eksperymentach z aranżacją czy testowaniu różnych wariantów bryku perkusyjnego. Największa zaleta? W każdej chwili można cofnąć wyciszenie bez jakiejkolwiek utraty danych czy czasu. Moim zdaniem to wręcz obowiązkowe narzędzie w arsenale każdego, kto poważnie podchodzi do pracy z dźwiękiem.

Pytanie 15

Które parametry pliku oznaczają dźwięk o najwyższej jakości?

A. .aiff, 48 kHz, 16 bitów.
B. .wav, 96 kHz, 8 bitów.
C. .aiff, 96 kHz, 16 bitów.
D. .wav, 192 kHz, 8 bitów.
Wybór parametru .aiff, 96 kHz, 16 bitów jako najlepszego oznacza naprawdę solidne zrozumienie, o co chodzi w jakości dźwięku. Im wyższa częstotliwość próbkowania (tu 96 kHz), tym więcej szczegółów z oryginalnego sygnału jesteśmy w stanie uchwycić – to po prostu więcej „zdjęć” dźwięku co sekundę. Przy 16 bitach głębi mamy już bardzo dobrą dynamikę, czyli możliwość rozróżnienia cichych i głośnych dźwięków. Format .aiff to branżowy standard w środowisku Apple, bardzo popularny np. w profesjonalnych studiach nagraniowych i w pracy z muzyką do filmu. Jest bezstratny, czyli nie kompresuje danych w taki sposób, żeby coś ginęło po drodze – wszystko zostaje zachowane. Moim zdaniem, w realnych zastosowaniach (czyli np. przy masteringu muzyki, produkcji dźwięku do filmu albo nawet w archiwizacji) taki zestaw parametrów bywa używany naprawdę często. Oczywiście, są jeszcze wyższe parametry, np. 24 bity i 192 kHz, ale przy 16 bitach i 96 kHz już ciężko usłyszeć różnicę dla przeciętnego ucha, a pliki nie są aż tak olbrzymie jak w wyższych ustawieniach. Ważne jest też to, że zachowana zostaje szeroka kompatybilność i łatwość edycji w programach DAW. W branży nagraniowej standardem jest właśnie 16 lub 24 bity, a częstotliwości 44.1, 48, 96 albo 192 kHz (do bardzo zaawansowanych zastosowań). Użytkownicy komputerów Mac na pewno często spotykają się z formatem AIFF – to taki odpowiednik WAV z Windowsa. W praktyce, jeśli zależy komuś na wysokiej, niemal studyjnej jakości, to .aiff, 96 kHz, 16 bitów to wybór jak najbardziej sensowny i bezpieczny.

Pytanie 16

Ile razy zmniejszy się przestrzeń dyskowa wymagana do zapisu pliku dźwiękowego, jeśli częstotliwość próbkowania dźwięku zostanie zmniejszona 2-krotnie?

A. 4 razy.
B. 2 razy.
C. 3 razy.
D. 6 razy.
Wielu osobom wydaje się, że zmiana częstotliwości próbkowania wpływa na rozmiar pliku w bardziej złożony sposób niż jest w rzeczywistości. Prawda jest taka, że ilość miejsca na dysku wymagana do zapisu pliku audio zależy liniowo od liczby próbek na sekundę, głębi bitowej oraz liczby kanałów. Kiedy zmniejszamy częstotliwość próbkowania o połowę, to po prostu mamy dwa razy mniej próbek na sekundę – i tyle, cały rozmiar pliku spada dokładnie dwukrotnie, o ile nie zmieniamy innych parametrów jak ilość bitów na próbkę czy ilość kanałów. Założenie, że spadek będzie trzykrotny, czterokrotny lub nawet sześciokrotny, powstaje często z błędnego myślenia, że różne parametry pliku zmieniają się razem, albo że kompresja czy inne techniki kodowania mają tutaj natychmiastowy wpływ. Zdarza się też, że ktoś myli częstotliwość próbkowania z rozdzielczością bitową – a te rzeczy działają niezależnie, choć razem składają się na końcowy rozmiar. Często w pracy spotyka się sytuacje, gdzie ktoś niepotrzebnie kombinuje z dodatkowymi ustawieniami, oczekując spektakularnego spadku rozmiaru pliku, a tymczasem wystarczy spojrzeć na wzór: rozmiar = liczba próbek × długość próbki (w bitach) × liczba kanałów. Oczywiście w praktyce przy kompresji stratnej, jak np. MP3, relacje są trochę inne, ale samo próbkowanie zawsze działa w prosty sposób. Warto nauczyć się rozróżniać te parametry, bo to bardzo często przydaje się przy projektowaniu systemów dźwiękowych, archiwizacji nagrań czy transmisji strumieniowej. Ostatecznie, jeśli chcemy radykalnie zmniejszyć rozmiar audio, trzeba działać na kilku polach: obniżyć próbkowanie, zmniejszyć głębię bitową lub skompresować plik. Jednak samo zmniejszenie próbkowania o połowę daje zawsze dokładnie dwa razy mniej danych do zapisania – i to jest najpewniejsza reguła, którą warto zapamiętać.

Pytanie 17

Ile wyniesie częstotliwość próbkowania dźwięku, jeżeli zostanie on dwukrotnie nadpróbkowany względem dźwięku w standardzie CD-Audio?

A. 96 kHz
B. 44,1 kHz
C. 88,2 kHz
D. 48 kHz
Dźwięk w standardzie CD-Audio jest próbkowany z częstotliwością 44,1 kHz, co jest dosyć charakterystyczną wartością – nie jest to okrągłe 44 czy 48 kHz, tylko właśnie 44,1 kHz, ponieważ taką częstotliwość łatwo uzyskać z taśm wideo stosowanych kiedyś w masteringach audio. Jeśli dwukrotnie nadpróbkujemy taki sygnał, po prostu mnożymy tę wartość razy dwa – wychodzi 88,2 kHz. W praktyce nadpróbkowanie zwiększa ilość próbek na sekundę, więc można uzyskać wierniejsze odwzorowanie sygnału analogowego, a także ułatwia przetwarzanie, np. przy obróbce cyfrowej typu filtracja czy dithering. Taka częstotliwość 88,2 kHz pojawia się głównie w profesjonalnych zastosowaniach studyjnych, bo pozwala na zachowanie zgodności z projektami prowadzonymi w standardzie CD, a potem łatwe ich zgranie bez straty jakości (nie trzeba dzielić przez wartości niecałkowite, jak przy 96 kHz). Z mojego doświadczenia wynika, że sporo realizatorów dźwięku specjalnie wybiera 88,2 kHz, gdy końcowym nośnikiem ma być płyta CD. Co ciekawe, 96 kHz czy 48 kHz to wartości typowe dla wideo, a nie dla muzyki CD. Warto o tym pamiętać, bo dobór odpowiedniej częstotliwości próbkowania mocno wpływa na workflow i efekty końcowe. No i taka ciekawostka – nie zawsze większa częstotliwość daje lepszy dźwięk, wszystko zależy od kontekstu użycia.

Pytanie 18

Która z wymienionych przepływności bitowych jest największą stałą przepływnością bitową dostępną w formacie MP3?

A. 320 kb/s
B. 480 kb/s
C. 160 kb/s
D. 240 kb/s
Wielu osobom wydaje się, że im wyższa przepływność bitowa, tym lepiej – i w teorii jest w tym trochę racji, ale tylko do pewnego momentu, który wyznaczają ograniczenia samego formatu. MP3, zgodnie ze specyfikacją MPEG-1 Layer III, pozwala na maksymalną stałą przepływność bitową 320 kb/s. Wskazywanie wartości niższych, jak 160 kb/s czy nawet 240 kb/s, wynika często z mylenia zaleceń dotyczących praktycznego kodowania z realnymi limitami technologicznymi formatu. 160 kb/s to dość popularny wybór do podcastów i radia internetowego, bo daje przyzwoity kompromis między jakością a rozmiarem pliku, jednak nie jest to żadna „górna granica” dla MP3. Sporo ludzi myśli też, że 240 kb/s to już ekstremum, bo pliki tej jakości są bardzo dobre – ale da się bez problemu znaleźć (i zakodować) MP3 z 256 czy 320 kb/s, co jest wyraźnie w specyfikacji. Z drugiej strony, wartość 480 kb/s pojawia się czasem przez przypadek – niektóre nowsze kodeki jak AAC czy FLAC pozwalają na takie lub nawet wyższe przepływności, ale standardowy MP3 nigdy nie obsługiwał aż tak wysokich wartości. Ustawienie powyżej 320 kb/s w popularnych enkoderach (jak LAME) po prostu nie zadziała – program zignoruje tę wartość albo ją obniży do maksimum dopuszczalnego przez standard. Częstym błędem jest też przekonanie, że wyższa przepływność zawsze przekłada się na zauważalnie lepszą jakość – tymczasem powyżej 256–320 kb/s większość słuchaczy nie dostrzega już różnicy, a pliki robią się wyraźnie większe. W branży audiofilskiej i profesjonalnej stosuje się czasem pliki WAV lub FLAC, tam można sobie pozwolić na większe bitrate’y, ale MP3 ma swoje sztywne granice. Podsumowując: wybierając odpowiedź inną niż 320 kb/s, pomijasz ten kluczowy fakt techniczny zapisany w standardzie. Warto go zapamiętać, bo może się przydać nie tylko w testach, ale i w codziennej pracy z dźwiękiem.

Pytanie 19

Które dane zawarte w dokumentacji montażowej przedstawia kod czasowy M:B:T zobrazowany przez licznik 00:00:000?

A. takty : ćwierćnuty : ósemki
B. minuty : sekundy : ramki
C. takty : ćwierćnuty : tiki
D. minuty : sekundy : milisekundy
W dokumentacji montażowej, szczególnie tej związanej z produkcją dźwięku czy montażem muzycznym, bardzo łatwo pomylić kod czasowy muzyczny z bardziej znanymi systemami pomiaru czasu, jak minuty, sekundy czy milisekundy. To dość częsty błąd, bo w codziennym życiu posługujemy się tymi jednostkami, a w programach do montażu wideo pojawiają się też ramki (frames). Jednak w świecie muzyki kod czasowy 00:00:000 wyrażony jako M:B:T (gdzie M to takty, B – ćwierćnuty, a T – tiki) odnosi się bezpośrednio do zapisu muzycznego, a nie do pomiaru upływu rzeczywistego czasu. Tik to najmniejsza możliwa podjednostka w takcie, często wykorzystywana przy precyzyjnym ustawianiu zdarzeń MIDI. Minuty, sekundy i milisekundy są typowe raczej dla edytorów audio lub wideo, gdzie ważniejsze są fizyczne ramy czasowe niż struktura rytmiczna. Ramki natomiast to pojęcie ściśle związane z montażem filmowym i synchronizacją obrazu z dźwiękiem, gdzie jedna sekunda dzieli się na określoną liczbę klatek. W zapisie muzycznym (szczególnie MIDI) nie stosuje się ani ramek, ani milisekund – bo granie idealnie w rytmie wymaga odniesienia do wartości muzycznych, a nie zegarka. Często pojawia się też mylenie tiki z ósemkami czy szesnastkami, ale to nie są te same jednostki – tiki są dużo drobniejsze. Z mojego doświadczenia wynika, że zrozumienie tego podziału pozwala lepiej kontrolować nawet najbardziej skomplikowane aranżacje czy automatykę efektów. Prawidłowe rozróżnianie tych systemów to podstawa profesjonalnego podejścia do produkcji muzyki i uniknięcia problemów przy eksporcie, synchronizacji czy dalszej obróbce materiału.

Pytanie 20

Który z wymienionych parametrów odpowiada za proporcję poziomów lewego i prawego kanału w nagraniu stereofonicznym?

A. Volume
B. Balance
C. Send
D. Gain
Parametr „Balance” w torze audio jest kluczowy, jeśli mówimy o proporcji poziomów lewego i prawego kanału w nagraniu stereofonicznym. Kiedy pracuje się nad miksem stereo, balance pozwala wyważyć brzmienie – przesuwając dźwięk bardziej na lewą lub prawą stronę panoramy stereo. To taka, można powiedzieć, gałka odpowiedzialna za poczucie przestrzeni, gdzie instrumenty i źródła dźwięku „lokalizują się” w polu stereofonicznym. Moim zdaniem, szczególnie w nagraniach, gdzie wokal ma być idealnie w centrum, a gitara np. lekko w lewo, to właśnie balance ustawia się precyzyjnie. Zresztą, jest to standardowe rozwiązanie we wszystkich mikserach audio – analogowych i cyfrowych. Praktycznie w każdej konsoletcie, nawet tej domowej klasy, balance będzie odpowiadał za stosunek głośności lewej i prawej ścieżki. Dobre praktyki mówią też, żeby uważać z tym parametrem, bo zbyt mocne przesunięcie elementów miksu może prowadzić do niezrównoważenia całości – słuchacze będą mieli wtedy wrażenie, że coś „ucieka” na bok. Z mojego doświadczenia, kiedy realizuję koncerty lub nagrania, często korzystam z balance, szczególnie jeśli ktoś z muzyków się przestawi podczas występu i trzeba szybko poprawić proporcje. Warto pamiętać, że balance to nie to samo co panorama (pan) – chociaż są mylone, balance dotyczy całego sygnału stereo, a panorama odnosi się do pojedynczego źródła w miksie monofonicznym. Generalnie, bez właściwego ustawienia balance trudno mówić o dobrym odbiorze stereo.

Pytanie 21

Poprzez zastosowanie filtra High Pass można

A. dodać basu do nagrania.
B. usunąć szumy wysokotonowe.
C. kształtować dynamikę nagrania.
D. usunąć zakłócenia niskotonowe.
Filtr High Pass, czyli filtr górnoprzepustowy, jest jednym z podstawowych narzędzi stosowanych w obróbce dźwięku, zwłaszcza podczas miksowania i masteringu nagrań. Jego główne zadanie to eliminacja niechcianych niskich częstotliwości, takich jak buczenie, szumy czy przydźwięki wynikające np. z podmuchów powietrza, stuków w mikrofon czy rezonansów pomieszczenia. Z mojego doświadczenia, High Pass filtr to must-have w przypadku nagrań wokalu, gitar czy overheadów perkusyjnych – praktycznie zawsze usuwam niepotrzebne tony poniżej 60-120 Hz, żeby dźwięk był czystszy i bardziej selektywny. Warto też wiedzieć, że branżowym standardem jest używanie High Passa na niemal każdej ścieżce, gdzie niskie częstotliwości nie są pożądane, co pomaga uniknąć „zamulania” miksu. Odpowiednie ustawienie częstotliwości odcięcia jest kluczowe – nie chodzi o to, żeby wyciąć za dużo i pozbawić brzmienia naturalnej masy, tylko subtelnie oczyścić ścieżki. Moim zdaniem, zbyt rzadko zwraca się uwagę na to, że High Pass nie służy do kształtowania dynamiki czy podbijania basu – to typowa pułapka dla początkujących. W praktyce, umiejętne stosowanie High Passa pozwala uzyskać bardziej przejrzyste, profesjonalnie brzmiące produkcje, a operatorzy dźwięku w radiu czy telewizji traktują ten filtr jako absolutną podstawę higieny dźwiękowej.

Pytanie 22

Przy porównaniu cyfrowych plików dźwiękowych o tej samej rozdzielczości bitowej, teoretycznie najmniejszą rozpiętością dynamiczną charakteryzuje się nagranie, którego poziom szczytowy osiąga

A. -3 dBFS
B. -12 dBFS
C. -0,3 dBFS
D. -6 dBFS
Wielu osobom wydaje się, że im bliżej 0 dBFS znajduje się poziom szczytowy, tym mniejsza rozpiętość dynamiczna, ale to jest mylne podejście. Tak naprawdę, rozpiętość dynamiczna w plikach cyfrowych zależy od tego, jak duża jest różnica między najcichszym a najgłośniejszym fragmentem sygnału względem maksymalnego możliwego poziomu – czyli 0 dBFS. Jeśli szczyt nagrania osiąga np. -0,3 dBFS, to wykorzystujemy praktycznie całą dostępną dynamikę systemu, bo sygnał „wypełnia” całą przestrzeń cyfrową aż do granicy przesterowania. To jest zalecane w profesjonalnych realizacjach, bo wtedy stosunek sygnału do szumu jest największy, a nagranie brzmi wyraziście i czysto. Z kolei, jeśli szczyty są na poziomie -3 dBFS czy -6 dBFS, nadal mamy dość dobrą dynamikę, choć już nieco ją ograniczamy – czasami robi się tak ze względów bezpieczeństwa, by uniknąć przypadkowego przesteru. Jednak im niżej ustawimy ten szczyt, tym bardziej zawężamy rozpiętość, bo zostawiamy nieużywany „zapas” głośności, który mógłby być użyty do oddania subtelnych detali czy szerokiego kontrastu dynamicznego. Najmniej korzystna sytuacja to, moim zdaniem, ustawienie szczytu aż na -12 dBFS – wtedy faktycznie rezygnujemy z dużej części potencjału systemu i nagranie traci na jakości, szczególnie w cichych partiach, gdzie szum tła czy kwantyzacji może stać się bardziej słyszalny. Częstym błędem jest mylenie pojęcia „głośności” z „dynamiką” – to nie to samo. W dobrych praktykach stosuje się szczyty jak najbliżej 0 dBFS (np. -1 dBFS), ale bez przekraczania tej granicy, by nie dopuścić do clippingu. Dlatego odpowiedzi wskazujące wyższe poziomy szczytowe są poprawne z punktu widzenia zachowania pełnej rozpiętości dynamicznej pliku cyfrowego.

Pytanie 23

Który format należy wybrać przy eksporcie gotowego materiału dźwiękowego, aby utworzyć master dla tłoczni płyt CD?

A. NRG
B. IMG
C. MDS
D. DDP
DDP, czyli Disc Description Protocol, to od lat uznawany standard w branży fonograficznej do przekazywania gotowego materiału audio do tłoczni płyt CD. To nie jest zwykły format audio, tylko specjalny zestaw plików opisujących dokładnie zawartość płyty – ścieżki, indeksy, kody ISRC, CD-Text i inne metadane, które są bardzo ważne przy profesjonalnej produkcji. Tłocznie CD praktycznie zawsze wymagają masterów w formacie DDP, bo gwarantuje to integralność danych i minimalizuje ryzyko błędów podczas tłoczenia. Moim zdaniem, jeśli ktoś poważnie myśli o wydawaniu muzyki na CD, nie ma sensu kombinować z innymi formatami – DDP jest bezpieczny, uniwersalny i obsługiwany przez wszystkie profesjonalne systemy. Przykładowo, większość programów do masteringu, jak Wavelab czy HOFA, pozwala bez problemu tworzyć paczki DDP, w których są nawet sumy kontrolne plików. Dzięki temu tłocznia może zweryfikować, czy nic się nie uszkodziło w trakcie przesyłki. Dodatkowa zaleta to obsługa wszystkich nowoczesnych funkcji płyt CD, jak PQ Codes czy CD-Text. Jeżeli ktoś jeszcze korzysta z płyt fizycznych, to naprawdę warto dobrze ogarnąć DDP i nie próbować oddawać mastera w formatach przeznaczonych do czegoś zupełnie innego.

Pytanie 24

Wskaż optymalne miejsce montażu ścieżki dźwiękowej lektora.

A. Na początkowych słowach zdania.
B. W połowie zdania.
C. Na końcowych słowach zdania.
D. Od nowego zdania.
Świetny wybór – rozpoczęcie ścieżki dźwiękowej lektora od nowego zdania to naprawdę podstawa w profesjonalnych realizacjach audio-wideo. Tak się po prostu robi w branży, bo wtedy całość brzmi naturalnie, a widz nie ma poczucia chaosu. Gdy lektor zaczyna mówić wraz z początkiem nowego zdania, łatwiej zachować spójność narracji, a także znacznie prościej dopasować tłumaczenie do oryginalnej treści. To też kwestia komfortu słuchacza – nie gubi się w połowie myśli, wszystko ma logiczny początek i koniec. Praktyka pokazuje, że taki sposób montażu pozwala uniknąć niezręcznych "nakładek" dźwiękowych czy dziwnych przerw. W telewizji, podczas lokalizacji filmów czy seriali, takie rozwiązanie jest właściwie standardem (wystarczy posłuchać, jak to robią zawodowi lektorzy). Czasami, jeśli materiał jest bardzo dynamiczny, można lekko przesunąć wejście lektora, ale zawsze powinien on pojawiać się przy naturalnych granicach treści – właśnie na początku zdania. Moim zdaniem to zdecydowanie najlepsza praktyka, bo pomaga utrzymać porządek i jasność przekazu. Warto o tym pamiętać przy każdym montażu, nawet amatorskim – bo potem o wiele mniej problemów z synchronizacją dźwięku.

Pytanie 25

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-R
B. DVD+R
C. DVD+R DL
D. DVD-RW
DVD-RW to nośnik optyczny, który umożliwia wielokrotny zapis i kasowanie danych, co odróżnia go od większości popularnych płyt DVD stosowanych na co dzień. Skrót „RW” pochodzi od angielskiego „ReWritable”, czyli „wielokrotnego zapisu”. To rozwiązanie jest wykorzystywane w sytuacjach, gdy dane mają być często aktualizowane lub przenoszone, a nie chcemy inwestować w droższe nośniki lub napędy. Z mojego doświadczenia, DVD-RW świetnie sprawdza się w archiwizacji plików, przygotowywaniu kopii zapasowych, testowaniu różnych wersji oprogramowania, a nawet przy domowych backupach zdjęć – chociaż dziś to już raczej mniej popularne przez chmurę czy pendrive’y. Warto wiedzieć, że DVD-RW można użyć w większości napędów DVD, o ile są one zgodne z tym standardem. Płyty te obsługują zazwyczaj do ok. 1000 cykli zapisu/kasowania, co przy odpowiednim użytkowaniu wystarcza na lata. Standard DVD-RW został opracowany przez konsorcjum DVD Forum, a w praktyce uznawany jest za solidny kompromis między trwałością danych a elastycznością użytkowania. W przeciwieństwie do wersji „R” czy „DL”, DVD-RW faktycznie pozwala na realną edycję zawartości, co w branży IT czy w laboratoriach edukacyjnych daje ogromne możliwości. Moim zdaniem, każdy, kto pracuje z dużą ilością danych, powinien wiedzieć o tym standardzie, nawet jeśli ostatnio częściej używa się pamięci flash.

Pytanie 26

Maksymalna częstotliwość próbkowania obsługiwana przez współczesne interfejsy audio to

A. 48 kHz
B. 192 kHz
C. 384 kHz
D. 96 kHz
384 kHz to obecnie najwyższa częstotliwość próbkowania spotykana w nowoczesnych interfejsach audio, zwłaszcza tych z wyższej półki, przeznaczonych do zastosowań profesjonalnych czy zaawansowanej produkcji muzycznej. Moim zdaniem, to już trochę wykracza poza realne potrzeby większości użytkowników, ale audiofile i inżynierowie dźwięku lubią mieć maksymalną jakość i precyzję – nawet jeśli w praktyce końcowy materiał i tak będzie zgrany do niższej częstotliwości (np. 44,1 kHz na CD). Standardy branżowe, takie jak AES czy normy dotyczące jakości nagrań, dopuszczają próbkowanie nawet do 384 kHz, chociaż najczęściej spotyka się urządzenia operujące na poziomie 44,1, 48, 96 lub 192 kHz. Wysokie częstotliwości próbkowania mają sens np. w masteringu, archiwizacji czy obróbce dźwięku, gdzie każda najdrobniejsza różnica może mieć znaczenie. Co ciekawe, niektóre nowoczesne interfejsy pozwalają na jeszcze większe wartości, choć to już raczej ciekawostka niż realny standard. W codziennych zastosowaniach, nawet profesjonalnych, rzadko wykorzystuje się maksimum możliwości sprzętu, ale dobrze wiedzieć, że takie opcje istnieją – szczególnie gdy trafisz na klienta, który oczekuje wszystkiego co najlepsze. Ogólnie rzecz biorąc, odpowiedź 384 kHz to taki „pełen wypas”, jeśli chodzi o próbkowanie dźwięku.

Pytanie 27

Zastosowanie opcji Stereo Split w oprogramowaniu DAW podczas zgrywania sesji spowoduje zapis kanału lewego i kanału prawego do

A. dwóch odrębnych plików stereo.
B. jednego pliku stereo.
C. jednego pliku mono.
D. dwóch odrębnych plików mono.
Opcja <i>Stereo Split</i> w programach DAW, takich jak Cubase, Logic czy Pro Tools, to bardzo przydatna funkcja, szczególnie jeśli pracujesz przy dużych projektach albo musisz później miksować dźwięk na innym sprzęcie. Zaznaczenie tej opcji podczas eksportowania ścieżki stereo powoduje, że DAW rozdziela sygnał na dwa osobne pliki mono – jeden z nich zawiera wyłącznie kanał lewy, a drugi tylko prawy. To jest zgodne ze standardami produkcji audio, zwłaszcza przy współpracy międzystanowiskowej lub kiedy ścieżki mają być poddane dalszej obróbce w innym programie. Z mojego doświadczenia, takie rozwiązanie daje większą elastyczność, bo możesz np. niezależnie zapanować nad panoramą czy poziomem lewego i prawego kanału już na etapie miksu końcowego. Co ciekawe, w profesjonalnych studiach bardzo często wymaga się dostarczania właśnie splitowanych plików mono, bo przy masteringu czy opracowywaniu ścieżek do filmów czy reklam jest to dużo wygodniejsze i bardziej przewidywalne. Warto też dodać, że dwa pliki mono są kompatybilne praktycznie z każdym oprogramowaniem czy sprzętem audio, nawet starszymi konsolami czy systemami broadcastowymi. Tak więc, jeśli zależy Ci na profesjonalizmie i kompatybilności materiału dźwiękowego, zdecydowanie warto znać i korzystać z tej opcji. Zresztą, ja sam nieraz miałem sytuację, że tylko dzięki splitowi mogłem sprawnie poprawić miks bez ponownego eksportowania całej sesji.

Pytanie 28

Kodowanie stratne wykorzystywane jest w plikach dźwiękowych zapisanych w formacie

A. WAV
B. FLAC
C. MP3
D. RIFF
Format MP3 to chyba najbardziej znany przykład kodowania stratnego dźwięku. W praktyce oznacza to, że podczas kompresji pliku MP3 pewne fragmenty oryginalnego sygnału są trwale usuwane, najczęściej te, które według psychoakustyki są dla ludzkiego ucha najmniej słyszalne. Dzięki temu pliki są dużo mniejsze, a jakość – przy właściwie dobranych ustawieniach – dalej stoi na niezłym poziomie. Moim zdaniem MP3 zrewolucjonizowało sposób przechowywania i przesyłania muzyki, bo wcześniej na dyskach czy w internecie pliki audio były olbrzymie i niepraktyczne. Stosowanie kodowania stratnego w MP3 stało się standardem w branży, zwłaszcza tam, gdzie liczy się oszczędność miejsca i przepustowości, np. w serwisach streamingowych czy przenośnych odtwarzaczach. Kodowanie stratne ma też swoje minusy – przy niskich bitrate’ach da się wyłapać artefakty kompresji, ale dla „zwykłego” słuchania na słuchawkach czy w samochodzie MP3 dalej daje radę. Ciekawostka: oryginalny standard MPEG-1 Audio Layer III (stąd skrót MP3) opracowano już w latach 90., a mimo postępu technologii ten format ciągle jest żywy. Oczywiście, dla archiwizacji czy profesjonalnego audio lepiej stosować bezstratne formaty (jak FLAC), ale w codziennym zastosowaniu MP3 to szybki, praktyczny wybór.

Pytanie 29

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Freeze.
B. Mute.
C. Fade out.
D. Solo.
Fade out to określenie, które odnosi się do stopniowego wyciszania dźwięku aż do całkowitej ciszy. W produkcji muzycznej i postprodukcji audio jest to absolutny standard – praktycznie każda ścieżka audio w profesjonalnych projektach przechodzi przez ten zabieg, zwłaszcza na końcu utworu lub w trakcie przejść między scenami. Z mojego doświadczenia, fade out sprawdza się nie tylko w muzyce, ale też w reklamach, podcastach czy filmach – pozwala naturalnie zakończyć dźwięk i nie pozostawiać słuchacza z nagłym „ucięciem”. Realizatorzy dźwięku bardzo często wykorzystują fade out jako narzędzie do budowania nastroju, wyciszenia emocji albo po prostu estetycznego zakończenia. Często w programach do edycji audio jest dostępna funkcja automatycznego ustawiania „fade out” na wybranej ścieżce, a długość i kształt krzywej wyciszenia można dowolnie modyfikować. Warto też wiedzieć, że fade out to coś zupełnie innego niż np. wyciszenie natychmiastowe. W dobrych praktykach branżowych zaleca się używanie fade out zamiast gwałtownego cięcia, żeby dźwięk był przyjemniejszy dla ucha i nie powodował nieprzyjemnych efektów akustycznych. Moim zdaniem, umiejętne zastosowanie fade out świadczy o kulturze pracy i szacunku do słuchacza.

Pytanie 30

Jakiej zmianie ulegnie rozmiar nieskompresowanego pliku dźwiękowego, po zmniejszeniu częstotliwości próbkowania z 96 kHz do 48 kHz oraz przy jednoczesnej redukcji rozdzielczości bitowej z 24 bitów do 16 bitów?

A. Zmniejszy się 2-krotnie.
B. Zwiększy się 6-krotnie.
C. Zwiększy się 4-krotnie.
D. Zmniejszy się 3-krotnie.
Wielu osobom wydaje się, że rozmiar pliku audio zmienia się liniowo tylko z jednym parametrem, np. częstotliwością próbkowania, ale w rzeczywistości oba parametry – częstotliwość próbkowania i rozdzielczość bitowa – oddziałują na siebie i decydują łącznie o końcowym rozmiarze. W praktyce, rozmiar nieskompresowanego pliku dźwiękowego (np. PCM WAV) oblicza się według wzoru: rozmiar = liczba próbek na sekundę x liczba bitów na próbkę x liczba kanałów x czas trwania (w sekundach). Jeśli zmniejszamy częstotliwość próbkowania z 96 kHz do 48 kHz, to liczba próbek spada o połowę. Redukcja rozdzielczości z 24 do 16 bitów to zmiana o 1/3 w dół, bo 24 bity to 3 bajty, a 16 bitów to 2 bajty. Typowym błędem jest sumowanie tych zmian lub nieuwzględnienie obu naraz – np. ktoś myśli, że skoro mamy 2 parametry, oba dzielimy przez 2, więc razem 4-krotnie. Ale to nie tak działa: rozmiar zmniejszy się o połowę z jednego powodu i o 1/3 z drugiego, co daje w sumie 3-krotną redukcję (2 x 1,5 = 3). Tak samo mylące jest uważanie, że rozmiar wzrośnie, bo oba parametry się zmieniają 'w dół', więc plik będzie większy – to nie ma sensu z perspektywy technicznej. Branżowe standardy, np. przy masteringu do CD, jasno określają 16 bitów i 44,1 kHz, właśnie po to, żeby optymalizować zarówno jakość, jak i wagę plików. W codziennej pracy z audio ważne jest, żeby nie pomylić proporcji i nie przeszacować zysku lub straty miejsca. Najczęściej spotykanym błędem jest patrzenie tylko na jeden parametr, a potem zdziwienie, że plik nie waży tyle, ile przewidywaliśmy. Takie myślenie prowadzi do nieoptymalnych decyzji przy archiwizacji, konwersji czy przesyłaniu nagrań.

Pytanie 31

Której komendy oprogramowania DAW należy użyć, aby zapisać sesję w innej lokalizacji i pod inną nazwą niż uprzednio zdefiniowane?

A. Save Copy In
B. Revert to Saved
C. Save
D. Save As
Wybór opcji 'Save As' w oprogramowaniu DAW (Digital Audio Workstation) jest najbardziej właściwą metodą, jeśli chcesz zapisać aktualną sesję w zupełnie innym miejscu lub pod nową nazwą. To bardzo przydatna funkcja, szczególnie podczas tworzenia kolejnych wersji projektu – na przykład, jeśli chcesz eksperymentować z aranżacją bez ryzyka nadpisania oryginału. W praktyce, korzystając z 'Save As' możesz także łatwo przygotować kopię zapasową, albo przekazać sesję innemu realizatorowi, zachowując swoją pierwotną strukturę plików. Branżowa rutyna mówi jasno: każda istotna zmiana w projekcie powinna być zapisana nową nazwą pliku – to pozwala wrócić do wcześniejszego etapu bez stresu, że coś przepadło. Z mojego doświadczenia wynika, że profesjonalni realizatorzy regularnie używają tej komendy zwłaszcza w dużych projektach, gdzie złożoność sesji rośnie z każdym kolejnym nagraniem czy dograniem instrumentu. Warto dodać, że czasem programy DAW pozwalają ustawić domyślne miejsce zapisu, ale tylko 'Save As' daje pełną wolność wyboru zarówno lokalizacji, jak i nazwy pliku. Taka praktyka jest nie tylko wygodna, ale i zgodna z podstawowymi zasadami zarządzania projektami audio. No i, co tu dużo mówić – oszczędza masę czasu, jeśli trzeba wrócić do starszej wersji albo podzielić się projektem z kimś innym.

Pytanie 32

Jaka jest maksymalna dynamika nagrania audio zapisanego w jakości 24 bitowej?

A. 48 dB
B. 96 dB
C. 192 dB
D. 144 dB
Maksymalna dynamika zapisu audio w formacie 24-bitowym wynosi właśnie 144 dB. Wynika to bezpośrednio z ilości bitów użytych do reprezentacji amplitudy sygnału: każdy bit daje teoretycznie 6 dB zakresu dynamiki (24 x 6 dB = 144 dB). To ogromna wartość, szczególnie jeśli porównasz ją ze standardowym CD, który wykorzystuje 16 bitów i ma zakres około 96 dB. W praktyce tak duża dynamika pozwala na bardzo precyzyjne uchwycenie zarówno najcichszych, jak i najgłośniejszych fragmentów nagrania – bez słyszalnych zniekształceń czy szumów tła. Studiom nagraniowym daje to swobodę do dalszej obróbki materiału, np. podczas miksowania czy masteringu, gdzie potrzebny jest zapas dynamiki na różne efekty czy korekcję. Moim zdaniem to jedna z głównych przyczyn, dlaczego poważne produkcje muzyczne rejestruje się w 24 bitach, nawet jeśli później materiał trafia na CD lub streaming w niższej jakości. Warto dodać, że choć ucho ludzkie nie wyłapie całych 144 dB różnicy (w praktyce słyszymy mniej), to jednak taki zapas ogromnie ułatwia pracę inżynierom dźwięku i pozwala uniknąć ryzyka nieodwracalnego ścięcia sygnału. Świetnym przykładem zastosowań są nagrania muzyki klasycznej czy filmowej, gdzie liczy się zachowanie pełnej dynamiki orkiestry – od ledwie słyszalnych smyczków po potężne tutti. Dobrze wiedzieć, że w branży pro audio to już właściwie standard.

Pytanie 33

Zjawisko maskowania dźwięku polega na

A. zmianie barwy dźwięku w zależności od głośności.
B. spadku słyszalności tonów wysokich podczas głośnego słuchania.
C. generowaniu przez ucho tonów harmonicznych.
D. podwyższeniu progu słyszalności dźwięku wskutek obecności innego dźwięku.
Maskowanie dźwięku to bardzo ciekawe zjawisko, które w praktyce ma ogromne znaczenie, zwłaszcza w branży audio, akustyce pomieszczeń czy nawet przy projektowaniu kodeków audio, jak MP3 czy AAC. Polega ono na tym, że obecność jednego dźwięku (maskującego) sprawia, że inny dźwięk (maskowany), będący często cichszy lub o podobnej częstotliwości, staje się dla naszego ucha praktycznie niesłyszalny. Można to porównać do sytuacji, gdy próbujesz usłyszeć cichy szept w hałaśliwym autobusie – mimo że dźwięk istnieje, Twój mózg go po prostu nie wychwytuje przez dominujący hałas. Z mojego doświadczenia osoby zajmującej się nagłośnieniem sceny muzycznej, często wykorzystuje się wiedzę o maskowaniu podczas miksowania – czasem wartość niektórych instrumentów ginie w miksie, dopóki nie zostaną odpowiednio zaakcentowane. Standardy branżowe, na przykład ITU-R BS.1770 czy systemy Dolby, uwzględniają zjawisko maskowania przy projektowaniu algorytmów kompresji dźwięku, właśnie po to, by usuwać te fragmenty sygnału, których i tak ludzkie ucho by nie usłyszało. Dobrze jest mieć świadomość, że maskowanie występuje nie tylko przy wysokim natężeniu dźwięku, ale także zależy od częstotliwości i czasu trwania – tzw. maskowanie czasowe. W praktyce, rozumienie tego zjawiska pozwala lepiej sterować dźwiękiem i uzyskiwać klarowniejszy przekaz audio, a nawet tworzyć bardziej komfortowe środowisko pracy czy odpoczynku.

Pytanie 34

Aplikacje DAW mogą odtwarzać pliki

A. o różnej rozdzielczości i różnej częstotliwości.
B. tylko w formatach kompresji stratnej.
C. audio oraz MIDI.
D. tylko typu <i>interleaved</i>.
Aplikacje DAW, czyli Digital Audio Workstation, zostały zaprojektowane z myślą o wszechstronnej obsłudze zarówno plików audio, jak i danych MIDI. To jest praktycznie standard w branży – nie wyobrażam sobie pracy bez tej funkcjonalności, bo przecież producenci, realizatorzy i muzycy na co dzień korzystają z obu tych typów danych. Przykładowo, nagrywając wokal czy gitarę, pracujemy na ścieżkach audio, natomiast cały świat instrumentów wirtualnych, automatów perkusyjnych czy sterowania syntezatorami opiera się właśnie na MIDI. To właśnie elastyczność DAW-ów sprawia, że w jednym projekcie możesz miksować sample audio z partiami dogrywanymi na klawiaturze MIDI i automatyzować je bez żadnej dodatkowej konwersji. Standardy takie jak MIDI 1.0 czy najnowszy MIDI 2.0 są wspierane przez praktycznie każde poważne DAW: od Abletona przez Cubase po Logic Pro. Z mojego doświadczenia wynika, że umiejętność obsługi obu typów plików to dziś absolutna podstawa – pozwala nie tylko na swobodę twórczą, ale też na współpracę z innymi muzykami i producentami na całym świecie. Obsługa plików audio oraz MIDI to nie tylko wygoda, ale wręcz fundament pracy z każdym nowoczesnym DAW-em, bez względu na to, jaki gatunek muzyczny tworzysz.

Pytanie 35

Wskaż nazwę ścieżki w sesji oprogramowania DAW, na której wykonuje się automatykę głośności zgranego materiału dźwiękowego.

A. PREVIEW
B. AUX
C. FX
D. MASTER
Automatyka głośności na ścieżce MASTER to taki trochę chleb powszedni w pracy z DAW. To właśnie na tej ścieżce najczęściej kończy się proces miksowania czy masteringu, bo ona odpowiada za końcową sumę sygnałów wszystkich śladów w projekcie. Jeśli chcesz zrobić fade out całego utworu albo subtelnie podnieść ogólną głośność przed refrenem, to właśnie MASTER jest miejscem, gdzie to się dzieje. Tak pracują realizatorzy praktycznie w każdym profesjonalnym studiu. Standardowe DAW-y jak Pro Tools, Cubase, Ableton, Logic zawsze mają główną ścieżkę wyjściową, często podpisaną jako MASTER, i na niej reguluje się wszelkie zmiany, które mają dotyczyć całego miksu, a nie tylko pojedynczych ścieżek czy grup. Z mojego doświadczenia dobrze jest pamiętać, by nie przesadzać z automatyką na MASTERZE – delikatne ruchy i wyczucie są tu kluczowe, żeby nie popsuć dynamiki utworu. Praktycznym przykładem jest np. automatyczne obniżenie poziomu wyjściowego pod koniec, gdy chcesz zrobić klasyczny fade out, albo skorygować chwilowe przesterowania. Dobrą praktyką jest też zostawienie kilku decybeli zapasu, by nie dopuścić do clipowania na wyjściu. To rozwiązanie jest zgodne z normami inżynierii dźwięku w pracy z sumą miksu.

Pytanie 36

Które z określeń oznacza stopniowe wyciszenie dźwięku?

A. Solo.
B. Fade out.
C. Freeze.
D. Mute.
Fade out to fachowy termin używany w branży audio, który oznacza stopniowe, płynne wyciszanie dźwięku aż do całkowitej ciszy. W praktyce stosuje się go bardzo często – na przykład na końcu utworów muzycznych, w produkcji reklam, filmów, podcastów czy prezentacji multimedialnych. Dzięki fade out dźwięk nie urywa się nagle, tylko elegancko schodzi do zera, co brzmi naturalniej i po prostu przyjemniej dla ucha. Takie rozwiązanie to już branżowy standard, zwłaszcza w miksie i masteringu. W programach typu DAW (Digital Audio Workstation) ustawia się to bardzo intuicyjnie – wystarczy zazwyczaj przeciągnąć końcówkę ścieżki lub dodać automatyzację głośności. Dobrą praktyką jest stosowanie fade out tam, gdzie naturalne zakończenie utworu jest zbyt gwałtowne – można wtedy zapanować nad nastrojem i nie drażnić słuchacza nagłym brakiem dźwięku. Z mojego doświadczenia wynika, że umiejętność prawidłowego używania fade out przekłada się na lepszą jakość całego projektu dźwiękowego. Warto też pamiętać, że niektórzy producenci lubią używać bardzo długiego fade out, żeby zostawić delikatne echo czy szum na końcu. To już takie „smaczki” branżowe.

Pytanie 37

Który z formatów plików można utworzyć poprzez użycie kodeka LAME?

A. *.aiff
B. *.wav
C. *.mp3
D. *.riff
Wybierając inne odpowiedzi niż MP3, łatwo pomylić pojęcie formatu pliku z kwestią kodeka, co jest dość częstym błędem. AIFF i WAV to formaty tzw. bezstratne, w których dźwięk przechowywany jest najczęściej bez kompresji lub z minimalną kompresją, zachowując pełną jakość oryginalnego materiału. Warto podkreślić, że te formaty są używane głównie do obróbki i archiwizacji nagrań audio, kiedy nie chcemy stracić nawet odrobiny jakości. Jednak kodek LAME w ogóle nie obsługuje tych rozszerzeń jako wyjściowych – on zajmuje się wyłącznie kompresją do MP3, czyli do formatu stratnego, idealnego do dystrybucji i przechowywania muzyki tam, gdzie liczy się oszczędność miejsca. Format RIFF z kolei jest raczej strukturą pliku (kontenerem), a nie samodzielnym formatem audio – to taka rama dla różnych typów danych multimedialnych, najczęściej spotykana właśnie w plikach WAV czy AVI. To, że plik ma rozszerzenie WAV czy AIFF, nie oznacza, że LAME potrafi go bezpośrednio wygenerować – kodek ten przyjmuje WAV lub AIFF jako źródło i produkuje MP3 jako wynik. Z mojego doświadczenia, wielu początkujących myli pojęcie kodeka z formatem pliku i zakłada, że kodek audio może "zrobić" dowolny format. W praktyce każda technologia ma swoją specjalizację, a LAME jest jednoznacznie kojarzony z MP3. Warto więc zawsze sięgnąć do dokumentacji lub po prostu sprawdzić, jakie formaty wyjściowe obsługuje dany kodek, zanim zaczniemy eksperymentować z konwersją. Dobrą praktyką w branży jest też rozróżnianie: format pliku to jedna sprawa, a użyty kodek – druga. W przypadku LAME: tylko MP3.

Pytanie 38

Które z wymienionych rozszerzeń nazwy pliku odnosi się do pliku sesji montażowej utworzonej w jednym z popularnych programów DAW?

A. *.ppt
B. *.ptx
C. *.wmf
D. *.wmv
Wiele osób kieruje się łatwymi skojarzeniami rozszerzeń plików, ale warto poświęcić chwilę na rozróżnienie kontekstu i zastosowania w branży muzycznej oraz multimedialnej. Rozszerzenie *.ppt od razu wywołuje na myśl prezentacje stworzone w programie Microsoft PowerPoint, co nie ma nic wspólnego z produkcją czy edycją dźwięku. W branży audio szansa, że ktoś poprosi o plik *.ppt w kontekście sesji DAW, właściwie nie istnieje – to typowy błąd wynikający z automatycznego kojarzenia popularnych formatów. Z kolei *.wmv jest rozszerzeniem pliku wideo (Windows Media Video), szeroko stosowanym raczej w prezentacjach multimedialnych lub przesyłaniu filmów, ale nie przechowuje żadnych informacji typowych dla pracy w DAW, takich jak ustawienia ścieżek audio czy automatyzacje. Tu często spotyka się mylenie, że skoro plik jest multimedialny, może też być powiązany z audio, ale branża korzysta z zupełnie innych formatów do sesji montażowych. Natomiast *.wmf, czyli Windows Metafile, to format grafiki wektorowej używany do przechowywania obrazów oraz rysunków, zwłaszcza w starszych aplikacjach Windows, i w ogóle nie dotyczy plików dźwiękowych czy sesji produkcyjnych. Najczęstszym błędem jest łączenie popularności lub podobieństwa skrótu z faktycznym zastosowaniem w branży muzycznej – a tu liczy się znajomość specyfiki narzędzi DAW. Profesjonalne środowiska pracy z dźwiękiem korzystają z dedykowanych formatów sesyjnych, takich jak *.ptx (Pro Tools), *.als (Ableton Live) czy *.flp (FL Studio). To właśnie przestrzeganie branżowych standardów pozwala na bezproblemową wymianę projektów między realizatorami. Warto też pamiętać, że poprawny wybór formatu pliku to nie tylko kwestia techniczna, ale i warunek efektywnej współpracy w zespole.

Pytanie 39

Aby zapętlić odtwarzanie fragmentu regionu na ścieżce w sesji programu DAW, należy użyć polecenia

A. Loop
B. Freeze
C. Merge
D. Snap
Polecenie Loop to absolutna podstawa w pracy z DAW, zwłaszcza jeśli chodzi o wygodę podczas aranżacji czy nagrywania. Właśnie dzięki funkcji zapętlania możemy puszczać w kółko wybrany fragment regionu, co jest idealne na przykład przy dogrywaniu kilku podejść wokalu albo warstw instrumentów, no i nie ukrywam – często ratuje skórę podczas programowania automatyzacji albo testowania efektów. Moim zdaniem, znajomość i opanowanie Loop to wręcz obowiązek, bo praktycznie każdy profesjonalny DAW – czy to Ableton Live, Logic Pro, Cubase albo FL Studio – ma to bardzo podobnie rozwiązane. Kolejną dobrą praktyką jest ustawianie pętli z dokładnością do taktu albo nawet ułamka taktu, co daje świetną kontrolę nad edycją w mikroskali. Co ciekawe, większość DAW pozwala też na szybkie aktywowanie Loop przez kliknięcie na linijce czasu albo poprzez skrót klawiszowy, co przyspiesza workflow. Z mojego doświadczenia, korzystanie z Loop podczas miksowania czy programowania beatów pozwala znacznie szybciej wychwycić niuanse dźwiękowe i poprawić groove. Dla mnie to jedno z najważniejszych narzędzi, które po prostu trzeba mieć w małym palcu.

Pytanie 40

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 12 Mb/s
B. 480 Mb/s
C. 33 Gb/s
D. 15 Gb/s
Maksymalna prędkość transmisji danych w standardzie USB 2.0 to faktycznie 480 Mb/s, czyli około 60 MB/s. To właśnie ten parametr sprawił, że USB 2.0 przez wiele lat był dominującym standardem w komputerach, drukarkach, skanerach czy zewnętrznych dyskach twardych. Z mojego doświadczenia – w praktycznych zastosowaniach rzadko kiedy uzyskuje się pełne 480 Mb/s, bo dochodzą narzuty protokołu, przeciążenia magistrali, czy jakość kabla, ale standard mówi jasno: 480 Mb/s to maksimum. Warto pamiętać, że wcześniejsza wersja USB 1.1 miała limit zaledwie 12 Mb/s – to ogromna różnica, jeśli chodzi o kopiowanie plików, podłączanie kamer czy transfer z pendrive'ów. Standard USB 2.0 pojawił się na rynku ok. 2000 roku i do dziś spotykany jest w wielu urządzeniach, zwłaszcza tych tańszych. Osobiście uważam, że znajomość tych wartości jest bardzo przydatna np. przy wyborze sprzętu – łatwo wtedy uniknąć rozczarowań związanych z prędkością przesyłania danych. Dla porównania, USB 3.0 daje już 5 Gb/s, a to już zupełnie inna liga, więc zawsze warto sprawdzać, jaki port się wybiera do szybkich operacji. Z punktu widzenia branży: wiedza o ograniczeniach starszych standardów jest niezbędna przy serwisie i modernizacji sprzętu.