Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.09 - Realizacja nagrań dźwiękowych
  • Data rozpoczęcia: 29 kwietnia 2026 11:29
  • Data zakończenia: 29 kwietnia 2026 11:35

Egzamin niezdany

Wynik: 10/40 punktów (25,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Element, który nie wchodzi w skład podstawowego toru konsolety mikserskiej, to

A. korektor barwy dźwięku
B. ekspander
C. tłumik
D. wejście mikrofonowe/liniowe
Ekspander to urządzenie, które nie należy do podstawowego toru konsolety mikserskiej. W kontekście miksowania dźwięku, ekspander służy do dynamicznej obróbki sygnału audio, jednak nie jest to element, który znajduje się w standardowym torze sygnałowym. Podstawowy tor konsolety mikserskiej obejmuje takie elementy jak wejście mikrofonowe lub liniowe, tłumik, a także korektor barwy dźwięku. Wejście mikrofonowe/liniowe jest kluczowym elementem, który konwertuje sygnały akustyczne na sygnały elektryczne, umożliwiając ich dalszą obróbkę. Tłumik, z kolei, pozwala na kontrolowanie poziomu sygnału, co jest niezbędne w systemie miksowania. Korektor barwy dźwięku jest używany do dostosowywania tonalności dźwięku, co jest istotne podczas miksowania różnych instrumentów. W praktyce, znajomość tych elementów oraz ich zastosowania jest fundamentalna dla każdego inżyniera dźwięku, a umiejętne korzystanie z nich pozwala na uzyskanie profesjonalnych wyników w produkcji audio.

Pytanie 2

Który parametr określa szerokość pasma przestrzennego dźwięku stereofonicznego?

A. Stereo phase
B. Stereo depth
C. Stereo width
D. Stereo height
Właściwa odpowiedź to "Stereo width", co w kontekście dźwięku stereofonicznego odnosi się do szerokości pasma, czyli percepcji przestrzeni, w której dźwięki są odczuwane. Szerokość stereo jest kluczowym parametrem w inżynierii dźwięku, ponieważ pozwala na stworzenie wrażenia, że dźwięki pochodzą z różnych punktów w przestrzeni. Kiedy miksujemy utwór muzyczny, manipulując szerokością stereo, możemy zająć się pozycjonowaniem instrumentów i wokali. Na przykład, jeśli gitara jest umieszczona w lewym kanale, a perkusja w prawym, słuchacz odczuwa, jakby dźwięki pochodziły z różnych miejsc, co przyczynia się do większej immersji. W praktyce, techniki takie jak panning pozwalają inżynierom dźwięku na precyzyjne ustawienie szerokości stereo, co jest szczególnie istotne w produkcjach audio dla filmów i gier, gdzie efekt dźwiękowy ma na celu wzbogacenie doświadczenia użytkownika. Aby osiągnąć optymalną szerokość stereo, można również stosować różne efekty, takie jak chorus czy reverb.

Pytanie 3

Aktywacja przełącznika PAD w przedwzmacniaczu mikrofonowym skutkuje

A. zmianą fazy wzmacnianego sygnału
B. odfiltrowaniem określonego zakresu częstotliwości
C. skokowym obniżeniem czułości wejścia
D. uruchomieniem zasilania mikrofonu pojemnościowego
Przełącznik PAD w przedwzmacniaczu mikrofonowym jest funkcją, która między innymi pozwala na skokowy spadek czułości wejścia, co jest szczególnie przydatne w sytuacjach, gdy źródło dźwięku generuje bardzo wysoki poziom sygnału. Przykładem mogą być głośne instrumenty muzyczne lub wokale, które w przeciwnym razie mogłyby prowadzić do przesterowania sygnału i zniekształceń dźwięku. W praktyce, użycie przełącznika PAD zmniejsza poziom sygnału o określoną ilość decybeli (najczęściej 10 lub 20 dB), co z kolei pozwala na bezpieczne wzmocnienie sygnału przez przedwzmacniacz bez ryzyka przesterowania. Dobrą praktyką jest stosowanie tej funkcji w nagraniach na żywo oraz w studio, szczególnie gdy współpracujemy z różnorodnym sprzętem, którego poziom sygnału może się znacznie różnić. Warto również zaznaczyć, że stosowanie PAD-a jest zgodne z zasadami zarządzania dynamiką sygnału w produkcji audio, umożliwiając uzyskanie czystszych i bardziej profesjonalnych nagrań.

Pytanie 4

Próbkowanie sygnału audio, który ma tony składowe o częstotliwości wyższej niż częstotliwość Nyquista, skutkuje wystąpieniem

A. błędów kompresji
B. aliasingu
C. szumu kwantyzacji
D. ditheringu
Wybór odpowiedzi dotyczącej szumu kwantyzacji, ditheringu lub błędów kompresji w kontekście próbkowania sygnału fonicznego wskazuje na niepełne zrozumienie zagadnień związanych z cyfrowym przetwarzaniem sygnałów. Szum kwantyzacji pojawia się, gdy sygnał analogowy jest przekształcany na sygnał cyfrowy z ograniczoną liczbą bitów, co może prowadzić do utraty informacji, ale nie jest bezpośrednio związane z problemem aliasingu. Dithering to technika stosowana w celu minimalizacji efektów szumu kwantyzacji poprzez dodawanie losowego szumu do sygnału przed kwantyzacją, co również nie dotyczy kwestii związanych z częstotliwością Nyquista. Błędy kompresji są natomiast efektem nieprawidłowego przetwarzania lub kodowania sygnału, zwłaszcza przy niskim bitrate, ale to także oddzielny temat, który nie jest bezpośrednio związany z próbkowaniem powyżej częstotliwości Nyquista. Zrozumienie, że aliasing odnosi się do błędnej interpretacji częstotliwości i konsekwencji braku odpowiedniego próbkowania, jest kluczowe w kontekście zachowania jakości dźwięku. W praktyce, każda z tych koncepcji ma inne zastosowania i nie są ze sobą bezpośrednio związane w kontekście zjawiska aliasingu.

Pytanie 5

Jaki jest główny cel filtracji LFE (Low Frequency Effects) w systemach surround?

A. Skierowanie najniższych częstotliwości do subwoofera
B. Eliminacja najniższych częstotliwości
C. Wzmocnienie średnich częstotliwości
D. Redukcja przesterowań

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Głównym celem filtracji LFE (Low Frequency Effects) w systemach surround jest skierowanie najniższych częstotliwości do subwoofera. To niezwykle ważne, ponieważ subwoofery są specjalnie zaprojektowane do reprodukcji niskich częstotliwości, co pozwala na lepsze odczucie basów w muzyce i filmach. Kiedy odpowiednio skonfigurujemy system audio, niskie częstotliwości są przesyłane do subwoofera, co pozwala na uzyskanie bardziej dynamicznego i pełnego brzmienia. Przykładem może być scena akcji w filmie, gdzie niskie tony wybuchów czy dźwięków uderzeń są wzmacniane przez subwoofer, co potęguje wrażenia przestrzenne i immersyjne. W standardach takich jak Dolby Digital czy DTS, filtracja LFE jest kluczowym elementem, który wspiera prawidłowe odtwarzanie audio w konfiguracjach wielokanałowych. W praktyce, umiejętność właściwego ustawienia filtracji LFE może znacząco wpłynąć na jakość dźwięku w systemach audio, co jest niezbędne dla audiofilów oraz w profesjonalnych studiach nagraniowych.

Pytanie 6

Które z poniższych urządzeń nie jest przetwornikiem elektroakustycznym?

A. Mikrofon
B. Korektor parametryczny
C. Głośnik
D. Słuchawki
Korektor parametryczny to urządzenie, które służy do przetwarzania sygnałów audio poprzez modyfikację ich pasma częstotliwościowego. Jego zadaniem jest poprawa jakości dźwięku poprzez eliminację niepożądanych częstotliwości oraz podkreślenie tych, które są bardziej pożądane. W przeciwieństwie do mikrofonów, głośników czy słuchawek, które przekształcają energię akustyczną w sygnał elektryczny lub odwrotnie, korektor parametryczny nie działa na zasadzie przetwarzania dźwięku, ale raczej jego modyfikacji. W praktyce wykorzystuje się go w studiach nagraniowych, podczas realizacji koncertów oraz w domowych systemach audio. Takie urządzenie pozwala na dostosowanie brzmienia do indywidualnych preferencji słuchacza oraz akustyki pomieszczenia. Dobrą praktyką jest stosowanie korektora w połączeniu z innymi urządzeniami audio, aby uzyskać optymalny efekt dźwiękowy. Wiedza na temat zastosowania korektora parametrycznego jest niezbędna dla każdego, kto zajmuje się produkcją muzyczną czy obsługą techniczną wydarzeń.

Pytanie 7

Wtyczka jack mono jest oznaczana skrótem

A. TS
B. RCA
C. TRS
D. XLR
Odpowiedź TS jest prawidłowa, ponieważ wtyczka jack mono oznaczana tym skrótem odnosi się do złącza, które zawiera dwa styki: jeden dla sygnału i drugi dla masy. Wtyczki TS (Tip-Sleeve) są powszechnie używane w aplikacjach audio, gdzie konieczne jest przesyłanie sygnału mono, na przykład w gitarach elektrycznych czy instrumentach klawiszowych. Standard TS jest uznawany za najlepszą praktykę w przypadku urządzeń, które nie wymagają przesyłania sygnałów sterujących ani zasilania, co czyni go idealnym do prostych połączeń audio. W przeciwieństwie do wtyczek TRS (Tip-Ring-Sleeve), które służą do przesyłania sygnałów stereo lub zbalansowanych, TS jest skoncentrowany na prostym przesyle mono, co wpływa na jego zastosowanie w różnych sytuacjach. Zrozumienie różnic między tymi złączami oraz ich zastosowaniem jest kluczowe dla inżynierów dźwięku i muzyków, by mogli odpowiednio dobierać sprzęt do swoich potrzeb.

Pytanie 8

Do czego służy funkcja "freeze" w programach DAW?

A. Do zamrożenia ścieżki w celu oszczędzania mocy obliczeniowej procesora
B. Do wyłączenia wszystkich efektów na ścieżce
C. Do zabezpieczenia pliku przed edycją
D. Do zatrzymania odtwarzania nagrania
Funkcja "freeze" w programach DAW (Digital Audio Workstation) jest niezwykle przydatna, szczególnie w kontekście zarządzania zasobami systemowymi. Kiedy zamrażasz ścieżkę, program przekształca wszystkie jej efekty oraz instrumenty w audio, co pozwala zaoszczędzić moc obliczeniową procesora. W praktyce, gdy pracujesz nad projektem z wieloma ścieżkami i efektami, procesor może zostać szybko przeciążony, co skutkuje opóźnieniami w odtwarzaniu. Zastosowanie funkcji "freeze" pozwala na tymczasowe zredukowanie obciążenia, eliminując potrzebę przetwarzania efektów w czasie rzeczywistym. Jest to zgodne z najlepszymi praktykami w branży, gdzie efektywne zarządzanie zasobami jest kluczowe. Można to zauważyć w przypadku projektów, które zawierają wiele warstw dźwiękowych, jak na przykład w produkcji muzycznej, gdzie wykorzystuje się wiele instrumentów wirtualnych. Zamrożenie ścieżki nie wpływa na możliwość dalszej edycji; można w każdej chwili odblokować ścieżkę i wrócić do pracy nad nią. To sprawia, że funkcja ta jest nie tylko praktyczna, ale także elastyczna w użyciu, co jest niezwykle cenne w procesie twórczym.

Pytanie 9

W jaki sposób zasilanie Phantom wpływa na funkcjonowanie cewkowych mikrofonów dynamicznych?

A. Generuje charakterystyczny przydźwięk
B. Może skutkować obniżeniem czułości mikrofonu
C. Może dojść do uszkodzenia cewki mikrofonu
D. Jest neutralne dla mikrofonów
Stwierdzenia sugerujące, że zasilanie Phantom może uszkodzić cewkę mikrofonu lub powodować charakterystyczny przydźwięk, są mylące i nie mają podstaw w praktyce. Cewkowe mikrofony dynamiczne są zaprojektowane w taki sposób, że ich działanie opiera się na mechanizmie elektromagnetycznym, gdzie nie jest wymagane zasilanie zewnętrzne. Dlatego też podanie napięcia Phantom nie powinno uszkodzić mikrofonu, ponieważ nie wprowadza ono dodatkowych obciążeń ani nie wpływa na jego wewnętrzne komponenty. Ponadto, nie ma dowodów na to, że zasilanie Phantom może powodować charakterystyczny przydźwięk w mikrofonach dynamicznych. Przydźwięk może pojawić się w sytuacjach, gdy mikrofon jest źle uziemiony lub gdy występują zakłócenia w sygnale audio, ale nie jest to związane z zasilaniem Phantom. Możliwość spadku czułości mikrofonu w wyniku podłączenia zasilania Phantom jest także niepoprawna, gdyż mikrofony dynamiczne są zaprojektowane na przetrzymywanie takich warunków. Ważne jest, aby zrozumieć, że mylenie funkcji zasilania Phantom w kontekście mikrofonów dynamicznych i pojemnościowych prowadzi do nieporozumień, które mogą negatywnie wpłynąć na procesy nagraniowe i ich jakość. Wiedza na temat specyfiki działania różnych typów mikrofonów jest kluczowa dla każdego, kto pracuje z dźwiękiem, aby unikać niewłaściwego użytkowania sprzętu i uzyskiwać najlepsze rezultaty w produkcji audio.

Pytanie 10

Jakie zjawisko akustyczne występuje, gdy fale dźwiękowe docierają do słuchacza zarówno bezpośrednio, jak i po odbiciu od powierzchni?

A. Refrakcja
B. Interferencja
C. Modulacja
D. Tonacja
Interferencja to zjawisko, które występuje, gdy dwie fale dźwiękowe spotykają się w tym samym miejscu w przestrzeni. W kontekście dźwięku, może to mieć miejsce, gdy fala dźwiękowa dociera do słuchacza bezpośrednio z źródła oraz po odbiciu od powierzchni, na przykład od ściany. W rezultacie, fale te mogą na siebie działać, co prowadzi do zjawisk takich jak wzmocnienie lub osłabienie dźwięku w określonych miejscach. Praktycznym zastosowaniem tej wiedzy jest akustyka pomieszczeń, gdzie projektanci uwzględniają interferencję, aby poprawić jakość dźwięku w salach koncertowych czy nagraniowych. Interferencja jest także kluczowa w technologii dźwięku przestrzennego, gdzie różne źródła dźwięku mogą być używane równocześnie, aby uzyskać realistyczne wrażenia akustyczne. Warto również zauważyć, że zrozumienie zjawiska interferencji umożliwia przewidywanie i kontrolowanie efektów dźwiękowych w różnych środowiskach, co jest niezwykle istotne w branży muzycznej oraz filmowej.

Pytanie 11

Który z wymienionych efektów jest wykorzystywany do symulacji efektu podwojenia instrumentu lub głosu?

A. Reverb
B. Chorus
C. Delay
D. Flanger
Chorus to efekt dźwiękowy, który symuluje podwójne brzmienie instrumentu lub głosu, tworząc wrażenie, że na scenie występuje więcej niż jeden wykonawca. Efekt ten osiąga się poprzez delikatne opóźnienie i modulację sygnału audio, co prowadzi do powstania ciepłego, pełnego brzmienia. W praktyce, przy tworzeniu utworów muzycznych, chorus jest często stosowany na wokalach, gitarach i instrumentach klawiszowych, aby nadać im większą głębię i przestrzenność. Dobrym przykładem może być użycie chorus na wokalach popowych, gdzie efekt ten sprawia, że głos brzmi bardziej dynamicznie i bogato. W branży muzycznej, standardem jest stosowanie chorus w miksach, aby uzyskać bogatsze warstwy dźwiękowe, co jest szczególnie istotne w produkcjach studyjnych, gdzie każdy detal ma znaczenie. Użycie tego efektu powinno być jednak umiejętne, gdyż nadmierne jego zastosowanie może prowadzić do zbyt „mglistego” brzmienia, co w rezultacie zmniejsza klarowność nagrania.

Pytanie 12

Który efekt powstaje przez opóźnienie sygnału dźwiękowego o bardzo krótki czas (poniżej 20 ms)?

A. Comb filter
B. Reverb
C. Echo
D. Pogłos
Efekt comb filter powstaje w wyniku opóźnienia sygnału dźwiękowego o bardzo krótki czas, zazwyczaj poniżej 20 ms. To zjawisko jest efektem interferencji między oryginalnym sygnałem a jego opóźnioną wersją, co prowadzi do powstawania charakterystycznych pików i dołków w widmie częstotliwościowym. W praktyce, comb filtering może być zauważalne, gdy dwa identyczne dźwięki są odtwarzane jednocześnie, ale jeden z nich jest lekko opóźniony. Taki efekt jest często wykorzystywany w produkcji muzycznej, na przykład podczas miksowania wokali lub instrumentów, aby dodać głębi i złożoności brzmieniu. W kontekście standardów branżowych, techniki comb filtering są stosowane w różnych aplikacjach, takich jak nagrywanie, live sound oraz produkcja filmowa. Warto eksperymentować z różnymi czasami opóźnienia, aby uzyskać pożądany efekt w swoim miksie.

Pytanie 13

Podczas nagrania orkiestry symfonicznej, jaki układ mikrofonów jest najczęściej stosowany do uzyskania naturalnego brzmienia?

A. Układ XY
B. Układ AB
C. Układ MS
D. Układ ORTF
Układ XY, choć bardzo popularny, różni się od AB pod względem sposobu nagrywania przestrzeni dźwiękowej. Mikrofony ustawione są blisko siebie, co minimalizuje różnice czasowe między kanałami, ale pozwala na uzyskanie różnic w amplitudzie. Taki układ jest często stosowany w mniejszych pomieszczeniach lub do nagrań mono-kompatybilnych, ale może nie oddawać pełni przestrzennego brzmienia orkiestry. Z kolei technika MS (Mid-Side) dość zaawansowana, wykorzystuje mikrofon kierunkowy oraz mikrofon dwukierunkowy, co pozwala na większą kontrolę nad szerokością stereo w postprodukcji. Jednak w kontekście orkiestry symfonicznej może być zbyt skomplikowana i nie zawsze zapewnia naturalne brzmienie, jakiego się oczekuje. Układ ORTF, łączący cechy technik XY i AB, daje naturalny obraz dźwiękowy, ale wymaga precyzyjnego ustawienia kątów i odległości, co może być problematyczne w dynamicznym środowisku koncertowym. Każda z tych technik ma swoje zalety, ale w przypadku dużej orkiestry w przestronnym miejscu, układ AB jest zwykle najbardziej skuteczny w oddaniu prawdziwego charakteru występu.

Pytanie 14

Na czym polega proces rekonstrukcji dźwięku ze starych, uszkodzonych nośników?

A. Na kompresji dynamiki
B. Na cyfrowej eliminacji trzasków, szumów i zniekształceń
C. Na ręcznym montażu fragmentów taśmy
D. Na analogowym wzmocnieniu sygnału
Proces rekonstrukcji dźwięku ze starych, uszkodzonych nośników polega głównie na cyfrowej eliminacji trzasków, szumów i zniekształceń. W praktyce oznacza to wykorzystanie zaawansowanych algorytmów do analizy nagrań, które pozwalają na identyfikację i usuwanie niepożądanych dźwięków. Wiele współczesnych narzędzi, takich jak iZotope RX, oferuje funkcje takie jak 'De-click', 'De-noise' oraz 'De-hum', które skutecznie radzą sobie z problemami związanymi z zanieczyszczeniem dźwięku. Dzięki tym technologiom możliwe jest odzyskanie oryginalnej jakości nagrania, co jest szczególnie istotne w przypadku archiwów muzycznych lub historycznych nagrań. Warto również wspomnieć, że standardy branżowe, takie jak AES67, promują użycie takich technologii w produkcji i archiwizacji dźwięku, zapewniając jednocześnie, że jakość odtwarzania nie zostanie utracona. Rekonstrukcja dźwięku to złożony proces, który wymaga nie tylko znajomości odpowiednich narzędzi, ale także umiejętności analitycznego myślenia o dźwięku.

Pytanie 15

Standardowo sygnał MIDI clock transmituje wydarzenia MIDI z częstotliwością

A. 32 impulsów na ćwierćnutę
B. 24 impulsów na ćwierćnutę
C. 24 impulsów na półnutę
D. 32 impulsów na półnutę

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź '24 impulsów na ćwierćnutę' jest prawidłowa, ponieważ standard MIDI (Musical Instrument Digital Interface) definiuje, że sygnał MIDI clock generuje 24 impulsy na każdą ćwierćnutę. Oznacza to, że w jednym takcie, który składa się z czterech ćwierćnut, wysyłane są łącznie 96 impulsów (24 x 4). Taka struktura synchronizacji pozwala na precyzyjne zsynchronizowanie różnych urządzeń muzycznych, takich jak syntezatory, automaty perkusyjne czy komputery. Dzięki temu muzycy mogą tworzyć złożone kompozycje, które działają w harmonii. W praktyce, MIDI clock jest kluczowy w produkcji muzyki elektronicznej, szczególnie w sytuacjach, gdzie różne źródła dźwięku muszą być zsynchronizowane w czasie rzeczywistym. Warto również wspomnieć, że wiele nowoczesnych programów DAW (Digital Audio Workstation) oraz sprzętu muzycznego wykorzystuje tę samą zasadę synchronizacji, co zapewnia interoperacyjność w środowisku muzycznym.

Pytanie 16

W jakiej sekcji konsolety mikserskiej znajduje się przełącznik filtra dolnozaporowego Low Cut?

A. Efektów
B. Grup
C. Powrotów
D. Wejściowej

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Low Cut, czyli filtr dolnozaporowy, jest umieszczony w sekcji wejściowej konsolety mikserskiej z kilku ważnych powodów. Ta sekcja ma za zadanie przetwarzanie sygnałów audio, zanim trafią dalej na etapy miksowania. Filtr low cut przydaje się do wycinania niskich częstotliwości, które mogą zepsuć brzmienie, na przykład dodając nieprzyjemne szumy. Kiedy miksujemy wokale, użycie takiego filtra pomaga pozbyć się niechcianych dźwięków, takich jak szumy tła albo odgłosy oddechu. Dzięki temu efekt jest dużo czystszy i bardziej profesjonalny. Dobrą praktyką w miksowaniu jest korzystanie z filtra dolnozaporowego, dlatego znajdziesz go w sekcji wejściowej. Warto też dodać, że wiele konsolet pozwala na ustawienie częstotliwości odcięcia filtra, co daje większą swobodę w kształtowaniu brzmienia.

Pytanie 17

Który z wymienionych procesorów najczęściej stosuje się do usunięcia zakłóceń typu "hum" (przydźwięku sieci) z nagrania?

A. Limiter
B. Dither
C. Chorus
D. Filtr górnoprzepustowy

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr górnoprzepustowy jest najskuteczniejszym narzędziem do usuwania zakłóceń typu "hum" z nagrań audio. Zakłócenia te często mają swoje źródło w prądzie zmiennym, który działa na częstotliwościach 50 Hz lub 60 Hz, co odpowiada standardowej częstotliwości sieci elektrycznej. Stosując filtr górnoprzepustowy, możemy usunąć te niskie częstotliwości, co pozwala na oczyszczenie dźwięku i poprawienie jego jakości. Przykładowo, w przypadku nagrania wokalu, hum może sprawić, że głos brzmi matowo i niewyraźnie. Przez zastosowanie filtra górnoprzepustowego, eliminujemy niepożądane częstotliwości, co pozwala na lepsze brzmienie i klarowność nagrania. W praktyce, często ustawia się częstotliwość odcięcia na poziomie 80-100 Hz, co usuwa zakłócenia, ale jednocześnie nie wpływa negatywnie na jakość dźwięku. Zgodnie z dobrymi praktykami inżynierii dźwięku, stosowanie takich filtrów jest kluczowym elementem procesu miksowania oraz masteringu nagrań, co potwierdzają liczne standardy branżowe.

Pytanie 18

DI-Box to sprzęt wykorzystywany w systemie elektroakustycznym w celu

A. minimalizacji zakłóceń w sygnale audio
B. wprowadzenia opóźnienia sygnału audio
C. zmiany charakterystyki pasma częstotliwościowego sygnału audio
D. wprowadzenia kompresji dynamiki sygnału audio

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
DI-Box, czyli izolator sygnału, jest kluczowym urządzeniem w torze elektroakustycznym, które służy przede wszystkim do minimalizacji zakłóceń w sygnale fonicznym. Jego głównym zadaniem jest zapewnienie izolacji między sprzętem audio a źródłem sygnału, co znacząco redukuje wpływ interferencji elektromagnetycznych oraz różnic potencjałów, które mogą prowadzić do szumów i zniekształceń. Przykładem zastosowania DI-Boxa jest podłączenie instrumentów elektrycznych, takich jak gitary elektryczne, do systemów nagłośnieniowych lub interfejsów audio w studiach nagraniowych. W praktyce, DI-Box konwertuje zbalansowany sygnał z instrumentu na sygnał symetryczny, co ułatwia długie przesyłanie sygnału bez utraty jakości. W branży audio stosowanie DI-Boxów jest powszechną praktyką, szczególnie w sytuacjach, gdzie wymagane jest zachowanie wysokiej jakości dźwięku oraz minimalizacja zakłóceń, co jest zgodne z obowiązującymi standardami profesjonalnego nagłośnienia.

Pytanie 19

Aby podkreślić najniższe tony fortepianu, mikrofon kierunkowy powinien być ustawiony na

A. struny basowe.
B. klawisze.
C. struny wysokie.
D. pokrywę.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 'struny basowe' jest prawidłowa, ponieważ to właśnie te struny są odpowiedzialne za generowanie najniższych tonów w fortepianie. Mikrofony kierunkowe, które są zaprojektowane do rejestrowania dźwięków z określonego kierunku, powinny być skierowane w stronę strun basowych, aby skutecznie uchwycić te niskie częstotliwości, które są kluczowe dla pełnego brzmienia instrumentu. Przykładowo, w profesjonalnych nagraniach muzycznych często umieszcza się mikrofony blisko strun basowych, co pozwala na uzyskanie bogatego i głębokiego dźwięku, który można następnie miksować z innymi instrumentami. Taka technika nagrywania jest zgodna z najlepszymi praktykami w branży audio, gdzie dąży się do uchwycenia jak najpełniejszego spektrum dźwiękowego. Warto również pamiętać, że odpowiednie ustawienie mikrofonu wpływa na jakość finalnego nagrania, dlatego eksperymentowanie z różnymi kątami i odległościami od strun basowych może przynieść różnorodne efekty brzmieniowe.

Pytanie 20

Który z ustawień arpeggiatora definiuje długość trwania poszczególnych nut w sekwencji arpeggio?

A. Beat
B. Range
C. Gate
D. Type

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Gate to parametr arpeggiatora, który mówi nam, jak długo gramy poszczególne dźwięki w arpeggio. Dzięki temu możemy regulować, jak brzmią nasze nuty, co jest mega ważne dla dynamiki i wyrazistości. Zmieniamy wartość gate i nagle dźwięki mogą brzmieć krótko i staccato albo na luzie, bardziej jak legato. W muzyce, np. w EDM czy jazzie, odpowiednie ustawienie gate to klucz do brzmienia, które chcemy osiągnąć. Weźmy na przykład house – krótki gate doda energii, a długi w balladzie sprawi, że wszystko będzie brzmiało bardziej subtelnie i emocjonalnie. Zrozumienie tego parametru daje możliwość większej kreatywności w naszych kompozycjach.

Pytanie 21

Jakie częstotliwości próbkowania są dostępne podczas kodowania PCM dźwięku w formacie DVD-Video?

A. 48 kHz i 96 kHz
B. 48 kHz i 88,2 kHz
C. 88,2 kHz i 96 kHz
D. 44,1 kHz i 48 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 48 kHz i 96 kHz jest poprawna, ponieważ te częstotliwości próbkowania są standardowo stosowane w kodowaniu PCM (Pulse Code Modulation) dla materiału dźwiękowego w formacie DVD-Video. Przy częstotliwości 48 kHz, która jest domyślną wartością dla większości materiałów wideo, uzyskuje się dobrą jakość dźwięku przy rozsądnej wielkości pliku. Częstotliwość 96 kHz, z kolei, oferuje wyższe rozdzielczości dźwięku, co jest szczególnie korzystne w kontekście profesjonalnych nagrań audio oraz produkcji filmowych, gdzie jakość dźwięku ma kluczowe znaczenie. W praktyce, w zależności od zastosowania, na przykład w produkcji muzycznej lub filmowej, wybór odpowiedniej częstotliwości próbkowania może znacząco wpłynąć na finalny produkt. Warto również zauważyć, że standardy takie jak AES/EBU oraz SMPTE rekomendują te częstotliwości dla profesjonalnych zastosowań, co czyni je szeroko akceptowanymi w branży.

Pytanie 22

Edycja automatyczna materiału audio polega

A. na łączeniu poszczególnych ścieżek instrumentów w grupy sub
B. na dobieraniu optymalnych parametrów miksu za pomocą wtyczki programu DAW
C. na realizacji w miksowaniu zmian wcześniej zapisanych
D. na konwersji formatów plików wprowadzanych do projektu

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź dotycząca realizacji w miksowaniu zmian uprzednio zapisanych jest prawidłowa, ponieważ automatyka edycji materiału dźwiękowego w kontekście miksowania odnosi się do umiejętności zarządzania różnymi parametrami dźwięku w czasie rzeczywistym. W praktyce oznacza to, że inżynier dźwięku może zapisać określone ustawienia efektów, poziomów głośności czy panoramowania i w dowolnym momencie przywrócić je, co pozwala na dynamiczne modyfikacje utworu bez konieczności ręcznego przestawiania każdego parametru. Przykładowo, podczas miksowania utworu można zaprogramować automatyczne zmiany głośności wokalu w różnych częściach utworu, co nadaje mu większą ekspresję i wyróżnia kluczowe momenty. Standardy branżowe, takie jak Pro Tools czy Ableton Live, oferują zaawansowane systemy automatyki, które umożliwiają precyzyjne kontrolowanie każdego aspektu miksu, co jest niezbędne w profesjonalnej produkcji dźwiękowej. Umożliwia to także szybkie eksperymentowanie z różnymi brzmieniami i ustawieniami, co jest kluczowe w procesie twórczym.

Pytanie 23

Który z wymienionych parametrów określa zdolność urządzenia do nagrywania cichych dźwięków?

A. Common Mode Rejection Ratio (CMRR)
B. Total Harmonic Distortion (THD)
C. Equivalent Input Noise (EIN)
D. Power Output

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Equivalent Input Noise (EIN) to kluczowy parametr, który określa zdolność mikrofonów oraz innych urządzeń audio do rejestrowania bardzo cichych dźwięków. Mierzy on poziom hałasu własnego urządzenia, który jest obecny w sygnale audio. W praktyce oznacza to, że im niższa wartość EIN, tym lepsza jakość nagrania przy cichych dźwiękach, ponieważ urządzenie potrafi uchwycić subtelne detale bez wpływu własnego szumu. Przykładowo, w profesjonalnych studiach nagrań, gdzie istotne są niuanse dźwięku, mikrofony o niskim EIN są preferowane, ponieważ pozwalają na wierne odwzorowanie nagrywanego materiału. Standardy branżowe często zalecają stosowanie mikrofonów z EIN na poziomie -120 dBu lub niższym, co zapewnia doskonałą jakość dźwięku. Warto również zauważyć, że w przypadku nagrań instrumentalnych czy wokalnych, niska wartość EIN wpływa na klarowność dźwięku, co jest istotne w kontekście miksowania i masteringu.

Pytanie 24

Jaką liczbę mikrofonów potrzeba do zarejestrowania dźwięku z harfy w technice ORTF?

A. 5 mikrofonów
B. 2 mikrofonów
C. 3 mikrofonów
D. 4 mikrofonów

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Technika ORTF (Office de Radiodiffusion-Télévision Française) jest jedną z popularnych metod stereofonicznego nagrywania dźwięku, która wykorzystuje dwa mikrofony. W tej technice mikrofony są umieszczane w odległości 17 cm od siebie i pod kątem 110 stopni. Taki układ pozwala na uchwycenie naturalnego brzmienia instrumentów oraz ich przestrzenności, co jest szczególnie istotne przy nagrywaniu harfy. Użycie dwóch mikrofonów w pozycji ORTF zapewnia efektywne zbieranie dźwięków ze źródła, przy jednoczesnym zachowaniu odpowiedniej separacji dźwięków, co prowadzi do uzyskania pełniejszego i bardziej realistycznego efektu stereofonicznego. Praktycznym zastosowaniem tej techniki jest nagrywanie muzyki klasycznej czy akustycznej, gdzie oddanie naturalnego brzmienia instrumentów ma kluczowe znaczenie. Dobrze skonfigurowany zestaw mikrofonów w technice ORTF nie tylko podnosi jakość nagrania, ale także umożliwia słuchaczowi lepsze poczucie przestrzeni, co jest istotne w kontekście muzyki instrumentalnej.

Pytanie 25

Który z formatów plików pozwala na zapisanie projektu wraz z automatyką w programie Logic Pro?

A. .wav
B. .aif
C. .mp3
D. .logicx

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format .logicx jest dedykowanym formatem plików dla programu Logic Pro, który w przeciwieństwie do innych formatów audio, takich jak .wav, .aif czy .mp3, jest w stanie przechować nie tylko dźwięk, ale również wszystkie ustawienia projektowe, automatyzację, układ ścieżek i inne elementy, które są kluczowe w procesie produkcji muzycznej. To oznacza, że kiedy zapisujesz projekt w tym formacie, masz pewność, że wszystkie Twoje pomysły i ustawienia są ujęte w jednym pliku. Przykładowo, jeśli pracujesz nad utworem z wieloma efektami i automatyzacją, zapis w .logicx pozwoli Ci na łatwe powroty do projektu w przyszłości bez utraty jakichkolwiek szczegółów. To ważny aspekt pracy w DAW (Digital Audio Workstation), gdzie zarządzanie projektami w sposób zorganizowany jest kluczowe dla efektywności i kreatywności. Ponadto, korzystając z .logicx, masz możliwość korzystania z zaawansowanych funkcji Logic Pro, takich jak wtyczki, które również są zapisywane w tym formacie. Dzięki temu, format .logicx jest standardem w branży dla tych, którzy chcą pracować z Logic Pro w sposób w pełni funkcjonalny.

Pytanie 26

Która z wymienionych wartości impedancji wejściowej dla wejścia mikrofonowego w konsolecie mikserskiej jest najbardziej typowa?

A. 100 kΩ
B. 1-2 kΩ
C. 50 Ω
D. 10 kΩ

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wartość impedancji wejściowej 1-2 kΩ dla mikrofonów w konsolecie mikserskiej jest uznawana za standardową i najbardziej typową. Mikrofony dynamiczne, które są powszechnie używane w wystąpieniach na żywo, charakteryzują się niską impedancją, co oznacza, że wymagają odpowiedniego dopasowania do wejścia miksera. Wejścia o impedancji 1-2 kΩ pozwalają na optymalne przesyłanie sygnału bez znaczących strat, co jest kluczowe, gdyż każdy dźwięk musi być jak najbardziej wiernie odwzorowany. W praktyce, jeśli użyjesz mikrofonu dynamicznego z wyjściem o impedancji zbliżonej do 1-2 kΩ, zyskujesz lepszą jakość dźwięku, mniejszy szum i zakłócenia. Zastosowanie wejścia o tej impedancji jest zgodne z najlepszymi praktykami w branży audio, a także zaleceniami wielu producentów sprzętu nagłaśniającego. Warto również zauważyć, że mikrofony pojemnościowe, które mają wyższą impedancję, mogą współpracować z wyjściem o większej impedancji, jednak w przypadku mikrofonów dynamicznych 1-2 kΩ jest idealnym rozwiązaniem.

Pytanie 27

Które podłączenie najlepiej zastosować do przesyłania sygnału z gitary elektrycznej na duże odległości?

A. MIDI z konwerterem audio
B. Balanced line z wykorzystaniem DI-Boxa
C. Unbalanced line z kablem instrumentalnym
D. Wireless z transmisją analogową

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Podłączenie z wykorzystaniem zbalansowanej linii za pomocą DI-Boxa to najlepsze rozwiązanie do przesyłania sygnału z gitary elektrycznej na duże odległości. DI-Box, czyli Direct Injection Box, konwertuje sygnał z gitary z wysokiej impedancji na niską impedancję, co pozwala na zminimalizowanie strat sygnału oraz zredukowanie zakłóceń. W przypadku długich kabli, sygnał z gitary może ulegać degradacji, a zbalansowane połączenie eliminuje zakłócenia elektromagnetyczne, co jest kluczowe w profesjonalnych zastosowaniach. Zastosowanie DI-Boxa jest powszechne w studio nagraniowym oraz podczas występów na żywo, gdzie odległości mogą być znaczne. Warto również wspomnieć, że zbalansowane kable, takie jak XLR, są standardem w branży audio, co sprawia, że ich użycie jest zgodne z dobrymi praktykami. Użycie DI-Boxa pomaga także w poprawie jakości dźwięku, co jest niezwykle istotne dla muzyków występujących na scenie. Z mojego doświadczenia mogę powiedzieć, że DI-Box to niezawodny element wyposażenia każdego gitarzysty, który planuje występy w różnych warunkach.

Pytanie 28

Jaka jest główna rola procesora typu maximizer w masteringu?

A. Usunięcie zakłóceń z nagrania
B. Zwiększenie dynamiki nagrania
C. Zwiększenie poziomu głośności bez przekraczania 0 dBFS
D. Dodanie efektu stereo

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Główna rola procesora typu maximizer w masteringu polega na zwiększeniu poziomu głośności nagrania bez przekraczania 0 dBFS, co oznacza maksymalny poziom sygnału cyfrowego. Maximizer działa na zasadzie ograniczania sygnału, co pozwala na podbicie jego amplitudy, a jednocześnie zapobiega zniekształceniom czy przesterowaniu. W praktyce, zastosowanie maximizera pozwala na uzyskanie bardziej dynamicznego brzmienia utworu, które jest jednocześnie głośniejsze i bardziej przystępne dla słuchacza. Dobrą praktyką jest korzystanie z tego efektu na końcowym etapie masteringu, gdyż pozwala on na optymalizację głośności w kontekście całej produkcji. Warto zauważyć, że podczas masteringu z użyciem maximizera, ważne jest zachowanie odpowiedniej dynamiki utworu, aby uniknąć utraty detali w najcichszych partiach. W branży muzycznej standardem jest dostosowanie poziomu głośności do preferencji platform streamingowych, które często posiadają swoje własne systemy normalizacji głośności, przez co majsterkowicze powinni być świadomi tych wymagań.

Pytanie 29

Jaka jest wartość cezury po której dźwięk odbity od przeszkody jest słyszalny jako echo?

A. 30 ms
B. 40 ms
C. 50 ms
D. 20 ms

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 50 ms jest prawidłowa, ponieważ zgodnie z zasadami akustyki, czas, po którym dźwięk odbity od przeszkody zostaje usłyszany jako echo, musi wynosić co najmniej 50 ms. Oznacza to, że dźwięk musi przebyć drogę w obie strony (do przeszkody i z powrotem) w czasie, który pozwala na rozróżnienie go od oryginalnego dźwięku. Jeśli dźwięk odbija się od przeszkody w czasie krótszym, usłyszymy go jako część pierwotnego dźwięku, a nie jako echo. W praktyce, w architekturze sal koncertowych czy innych przestrzeni akustycznych, projektanci często muszą brać pod uwagę czas echa, aby zapewnić optymalne warunki słuchowe. Przykładem zastosowania tej wiedzy są systemy nagłośnieniowe, w których dostosowuje się ustawienia tak, aby zminimalizować niepożądane echa, co wpływa na jakość dźwięku. Zrozumienie tej zasady jest kluczowe w inżynierii dźwięku oraz w projektowaniu przestrzeni, w których odbywają się występy artystyczne.

Pytanie 30

Który parametr określa stosunek poziomu sygnału po kompresji do poziomu sygnału przed kompresją?

A. Ratio
B. Threshold
C. Gain reduction
D. Attack

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Gain reduction to parametr, który opisuje różnicę między poziomem sygnału przed kompresją a poziomem sygnału po jej zastosowaniu. Wyraża się go w decybelach (dB) i stanowi kluczowy wskaźnik efektywności działania kompresora. Przykładowo, jeśli sygnał wejściowy ma poziom 10 dB, a po zastosowaniu kompresji poziom spadnie do 6 dB, gain reduction wynosi 4 dB. W praktyce, gain reduction jest niezwykle istotny, ponieważ pozwala na kontrolowanie dynamiki sygnału audio, co jest fundamentalne w miksowaniu i masteringowaniu utworów muzycznych. Stosując gain reduction, inżynier dźwięku może zredukować niepożądane szczyty sygnału, co zapobiega zniekształceniom i przesterowaniu. W standardach profesjonalnego audio, takich jak ITU-R BS.1770, gain reduction odgrywa kluczową rolę w zapewnieniu odpowiedniej głośności i spójności miksu. Dobrym przykładem zastosowania gain reduction jest kompresja wokalu, gdzie celem jest uzyskanie stabilnego poziomu głośności, co w efekcie poprawia słyszalność w całym miksie.

Pytanie 31

Jaka jest zalecana częstotliwość próbkowania przy produkcji materiałów do streamingu?

A. 22,05 kHz
B. 192 kHz
C. 96 kHz
D. 44,1 kHz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zalecana częstotliwość próbkowania 44,1 kHz wynika z potrzeby zapewnienia wysokiej jakości dźwięku podczas produkcji materiałów do streamingu. Taka częstotliwość jest standardem w przemyśle audio, szczególnie dla nagrań muzycznych i podcastów. W praktyce oznacza to, że dźwięk jest próbkowany 44 100 razy na sekundę, co wystarcza do uchwycenia pełnego zakresu ludzkiego słuchu, który sięga maksymalnie do 20 kHz. Warto przy tym pamiętać, że wyższa częstotliwość próbkowania, choć teoretycznie zapewnia lepszą jakość dźwięku, zwiększa też wielkość plików i obciążenie procesora. Dla większości zastosowań związanych z streamingiem, 44,1 kHz jest wystarczające, a także zgodne z wieloma formatami kompresji, takimi jak MP3 czy AAC. To sprawia, że ten standard jest szeroko akceptowany i praktycznie stosowany w platformach takich jak Spotify czy Apple Music, co czyni tę odpowiedź najbardziej odpowiednią dla produkcji materiałów audio.

Pytanie 32

Jak przerwać rejestrowanie dźwięku bez potrzebny opuszczania trybu nagrywania, korzystając z rejestratorów audio?

A. nagrywaj
B. zatrzymaj
C. rec-pause
D. pauza

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź "rec-pause" jest prawidłowa, ponieważ ta funkcja umożliwia przerwanie nagrywania dźwięku bez konieczności całkowitego zatrzymywania procesu rejestracji. W praktyce oznacza to, że użytkownik może w dowolnym momencie wstrzymać nagranie, a następnie wznowić je tam, gdzie zostało przerwane, co jest niezwykle przydatne w wielu sytuacjach, takich jak nagrywanie wywiadów czy wykładów. W kontekście profesjonalnego nagrywania dźwięku, takie podejście minimalizuje ryzyko utraty materiału, ponieważ nie wymaga ponownego uruchamiania nagrania, co mogłoby prowadzić do niepożądanych przerw. Standardy branżowe zalecają korzystanie z opcji "rec-pause" w urządzeniach profesjonalnych, ponieważ pozwala to na lepsze zarządzanie czasem i zasobami podczas rejestracji dźwięku. Dodatkowo, funkcjonalność ta jest często dostępna w aplikacjach do nagrywania na smartfony, co czyni ją wszechstronnym narzędziem dla każdego, kto potrzebuje efektywnego sposobu na uchwycenie dźwięku.

Pytanie 33

Aby zsynchronizować dwa urządzenia w konfiguracji master-slave przy użyciu zegara taktowanego w jednostkach PPQ (impulsy na ćwierćnutę), należy wybrać odpowiedni standard synchronizacji?

A. MIDI Clock
B. SMPTE
C. Wordclock
D. LTC

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
MIDI Clock to standard synchronizacji używany do zsynchronizowania urządzeń muzycznych, takich jak syntezatory, sekwencery i inne instrumenty elektroniczne, w systemie master-slave. W tym przypadku zegar taktowany w jednostkach PPQ (impulsy na ćwierćnutę) odzwierciedla tempo i rytm odtwarzania, co jest kluczowe w produkcji muzycznej i występach na żywo. Standard ten generuje 24 impulsy na ćwierćnutę, co pozwala na precyzyjne synchronizowanie różnych urządzeń. Dzięki zastosowaniu MIDI Clock w praktyce, można uzyskać spójną rytmiczność pomiędzy różnymi instrumentami, co jest istotne w przypadku występów zespołów oraz sesji nagraniowych, gdzie dokładność synchronizacji ma kluczowe znaczenie. Warto dodać, że MIDI Clock jest szeroko stosowany w branży muzycznej i jest wspierany przez większość nowoczesnych urządzeń MIDI. Przykładem zastosowania może być sytuacja, w której zespół korzysta z sekwencera do sterowania syntezatorem, a oba urządzenia są zsynchronizowane za pomocą MIDI Clock, co pozwala na płynne przejścia między różnymi utworami i zachowanie wspólnego tempa.

Pytanie 34

Który z wymienionych procesorów służy do emulacji różnych typów wzmacniaczy gitarowych?

A. Pitch corrector
B. Reverberator
C. Amp simulator
D. Flanger

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Amp simulator, czyli symulator wzmacniacza, to narzędzie, które emuluje charakterystykę różnych wzmacniaczy gitarowych, co pozwala na uzyskanie różnorodnych brzmień bez potrzeby posiadania drogiego sprzętu. W praktyce, użytkownik może wybierać spośród wielu modeli wzmacniaczy, takich jak Fender, Marshall czy Vox, co umożliwia dostosowanie dźwięku do własnych preferencji muzycznych. Dzięki technologii cyfrowej, symulatory często oferują także dodatkowe efekty, jak np. pokrętła do regulacji tonów czy symulacje mikrofonów, co sprawia, że brzmienie jest niezwykle realistyczne. W studio nagraniowym lub podczas występów na żywo, symulatory wzmacniaczy dają możliwość łatwego dostosowania dźwięku do warunków, a także zmniejszają wagę sprzętu, co jest nieocenione dla gitarzystów podróżujących. Zgodnie z najlepszymi praktykami w branży muzycznej, korzystanie z symulatorów jest obecnie standardem, szczególnie w produkcji muzyki elektronicznej i rockowej.

Pytanie 35

Który parametr określa czas, po jakim sygnał osiąga pełną głośność w syntetyzatorze?

A. Decay
B. Release
C. Sustain
D. Attack

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Parametr "Attack" w syntetyzatorze odnosi się do czasu, w jakim sygnał audio osiąga pełną głośność po jego uruchomieniu. Jest to kluczowy element w kształtowaniu dźwięku, ponieważ wpływa na to, jak szybko dźwięk rozwija się od momentu naciśnięcia klawisza do osiągnięcia maksymalnego poziomu głośności. Następnie, po osiągnięciu pełnej głośności, dźwięk może przejść do fazy "Sustain", a następnie "Release". Umożliwia to tworzenie różnorodnych efektów dźwiękowych, które mogą być używane w różnych stylach muzycznych. Na przykład, w muzyce elektronicznej często stosuje się szybki czas "Attack" dla perkusji, aby uzyskać ostrzejsze i bardziej dynamiczne brzmienie. W przeciwieństwie do tego, wolniejszy czas "Attack" może być użyty dla padów, co pozwala na uzyskanie bardziej płynnych i łagodnych dźwięków. W praktyce, kontrolowanie parametru "Attack" jest kluczowe dla kreowania odpowiednich emocji w utworze i dostosowywania brzmienia do stylu muzycznego.

Pytanie 36

Jak nazywa się proces polegający na stopniowym zwiększaniu głośności dźwięku w nagraniu?

A. Crossfade
B. Drop-in
C. Fade-in
D. Fade-out

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fade-in to technika stosowana w produkcji audio, polegająca na stopniowym zwiększaniu głośności dźwięku od zera do pełnej wartości. Jest to przydatne w wielu kontekstach, na przykład w filmach, gdzie dźwięk muzyki lub efektów dźwiękowych wchodzi w sposób łagodny, co zwiększa komfort słuchania i podkreśla emocjonalny kontekst sceny. W praktyce, fade-in może być używany do wprowadzenia nowego utworu muzycznego, aby zminimalizować szok w odbiorze, czy też w produkcji podcastów, gdzie wyciszenie na początku może pomóc w płynniejszym wprowadzeniu słuchacza w temat rozmowy. Dobrze zrealizowany fade-in powinien być subtelny, a jego czas trwania dostosowany do charakterystyki nagrania, co jest zgodne z dobrymi praktykami w branży audio. Na przykład, w programie do edycji dźwięku można ustawić czas trwania fade-in od kilku sekund do kilkudziesięciu, w zależności od kontekstu. Zastosowanie tej techniki w sposób przemyślany wpływa na odbiór całości nagrania i pozwala na lepsze zarządzanie dynamiką dźwięku.

Pytanie 37

Jaką długość ma słowo w komunikacie MIDI?

A. 16 bajtów
B. 8 bitów
C. 8 bajtów
D. 16 bitów

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Słowo komunikatu MIDI ma długość 8 bitów, co oznacza, że może przyjmować 256 różnych wartości (od 0 do 255). MIDI, czyli Musical Instrument Digital Interface, operuje na standardzie, który zdefiniowano w latach 80. XX wieku, aby umożliwić komunikację między instrumentami muzycznymi oraz komputerami. W kontekście MIDI, każdy komunikat składa się z 1 bajta, co przekłada się na 8 bitów. Przykładem zastosowania jest przesyłanie informacji o nutach, takich jak ich wysokość, głośność czy czas trwania. Każdy komunikat może zarówno zawierać informacje o dźwiękach, jak i kontrolować różne parametry instrumentów, co pozwala na dynamiczne tworzenie muzyki. Standard MIDI definiuje również różne typy komunikatów, takie jak komunikaty o nutach (Note On, Note Off) czy kontrolery zmian, których efektywne wykorzystanie opiera się na zrozumieniu struktury bitowej tych komunikatów. W praktyce, artyści i producenci muzyczni korzystają z oprogramowania DAW (Digital Audio Workstation), które interpretuje dane MIDI i przekształca je w dźwięki.

Pytanie 38

Termin "program" w kontekście systemu MIDI oznacza

A. konkretne, sparametryzowane brzmienie
B. oprogramowanie do modyfikacji plików .mid.
C. cykl przesyłania parametrów definiujących dźwięk.
D. system operacyjny urządzenia syntezującego.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 'konkretne, sparametryzowane brzmienie' jest jak najbardziej trafna. W świecie MIDI, termin 'program' odnosi się do konkretnego dźwięku, jaki można przypisać do instrumentu muzycznego albo syntezatora. Każdy taki program ma zestaw parametrów, które mówią o tym, jak dźwięk powinien brzmieć – bierze się pod uwagę ton, barwę, efekty i inne szczegóły. W praktyce, zmieniając program na syntezatorze, można uzyskać różne dźwięki – od realistycznych instrumentów po różne syntetyczne efekty. Takie zrozumienie ważne jest dla producentów muzycznych i kompozytorów, którzy chcą robić różnorodne i ciekawe rzeczy. Warto też dokumentować, jakie programy się stosuje w projektach, bo to potem ułatwia życie przy modyfikacjach i współpracy z innymi muzykami.

Pytanie 39

Jaką wartość rozdzielczości bitowej cyfrowego sygnału audio należy przyjąć, aby uzyskać teoretyczny zakres dynamiki wynoszący 144 dB?

A. 20 bitów
B. 8 bitów
C. 24 bity
D. 16 bitów

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 24 bity jest poprawna, ponieważ umożliwia uzyskanie teoretycznego zakresu dynamiki sygnału wynoszącego 144 dB. Zakres dynamiki można obliczyć korzystając ze wzoru: 6,02 * liczba bitów. Dla 24 bitów obliczenia wyglądają następująco: 6,02 * 24 = 144,48 dB. Ten parametr jest kluczowy w profesjonalnym nagrywaniu dźwięku oraz inżynierii dźwięku, gdzie wysoka jakość nagrania i dokładność odwzorowania dźwięku są niezbędne. W praktyce, 24 bity są standardem w studiach nagraniowych, pozwalając na uchwycenie szerokiego zakresu dynamiki instrumentów oraz wokali, co jest istotne dla zachowania naturalności brzmienia. Przy nagrywaniu dźwięku o dużym zakresie dynamiki, takim jak muzyka klasyczna czy jazz, zastosowanie 24-bitowej rozdzielczości jest powszechne. Warto również zauważyć, że formaty audio, takie jak WAV czy FLAC, często wykorzystują 24 bity, co czyni je preferowanym wyborem dla profesjonalnych produkcji audio.

Pytanie 40

Aby zrealizować nagranie w studiu oktetu wokalnego przy użyciu metody stereofonicznej X-Y, konieczne jest zastosowanie dwóch mikrofonów o charakterystyce

A. dookólnej
B. ósemkowej
C. kardioidalnej
D. hiperkardioidalnej

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Mikrofony kardioidalne są najczęściej używane w technice stereofonicznej X-Y, ponieważ charakteryzują się specyficzną, skierowaną charakterystyką zbierania dźwięku. Oznacza to, że rejestrują dźwięki głównie z przodu, a znacznie mniej z boków i z tyłu. Taki układ pozwala na efektywne uchwycenie naturalnej stereofonii wokalnej w studiu nagraniowym. Przykładowo, podczas nagrywania oktetu wokalnego, mikrofony ustawione w technice X-Y zbierają dźwięki w sposób, który minimalizuje zakłócenia i refleksje pomieszczenia, co skutkuje czystszym, bardziej przestrzennym nagraniem. Dodatkowo, mikrofony kardioidalne są mniej podatne na sprzężenia akustyczne, co jest istotne w przypadku nagrań wielogłosowych. W praktyce, stosowanie tej techniki zapewnia doskonałą separację między głosami oraz harmonijne połączenie, co jest kluczowe w jakości nagrań wokalnych. Użycie mikrofonów kardioidalnych w tym kontekście jest zgodne z najlepszymi praktykami w branży audio.