Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.09 - Realizacja nagrań dźwiękowych
  • Data rozpoczęcia: 6 maja 2026 12:17
  • Data zakończenia: 6 maja 2026 12:50

Egzamin niezdany

Wynik: 19/40 punktów (47,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Proces, który umożliwia regulację rytmiki partii MIDI, określany jest mianem

A. edycji velocity
B. synchronizacji
C. mapowania
D. kwantyzacji
Wybór pojęć takich jak edycja velocity, mapowanie czy synchronizacja wskazuje na pewne nieporozumienia dotyczące podstawowych technik obróbki MIDI. Edycja velocity odnosi się do zmiany dynamiki odtwarzania poszczególnych nut, co oznacza, że można modyfikować głośność i intensywność, ale nie wpływa to na rytmikę, a raczej na wyrazistość dźwięku. Mapowanie dotyczy przypisywania różnych funkcji do kontrolerów MIDI lub instrumentów w oprogramowaniu, co także nie wpływa na synchronizację rytmu, a raczej na sposób, w jaki instrumenty reagują na sygnały. Synchronizacja, z kolei, odnosi się do zsynchronizowania różnych urządzeń lub ścieżek w czasie rzeczywistym, co może być mylone z kwantyzacją, ale jest techniką używaną w innym kontekście. Typowym błędem myślowym jest mylenie tych pojęć i ich funkcji. W praktyce, aby poprawić rytmikę utworu, kluczowe jest zrozumienie, że tylko kwantyzacja skutecznie przekształca zapis nutowy w uporządkowaną strukturę rytmiczną, co jest nieosiągalne za pomocą wymienionych metod. Właściwe zrozumienie tych technik oraz ich zastosowanie może znacznie poprawić jakość produkcji muzycznej.

Pytanie 2

Który parametr określa czułość mikrofonu pojemnościowego?

A. Ω/Hz
B. dB SPL
C. mV/Pa
D. dB HL
W przypadku mikrofonów pojemnościowych nie stosuje się parametrów takich jak dB SPL, dB HL czy Ω/Hz do określenia ich czułości. Przykładowo, dB SPL (decibele Sound Pressure Level) odnosi się do poziomu ciśnienia akustycznego, który jest używany do opisywania głośności dźwięku, a nie bezpośrednio czułości mikrofonu. Można się pomylić, myśląc, że mikrofon o wysokim poziomie SPL będzie miał lepszą czułość, co nie jest do końca prawdą. Z kolei dB HL (decibele Hearing Level) to jednostka stosowana w audiometrii, służąca do pomiaru audytorycznych progów słyszenia i nie ma zastosowania w kontekście mikrofonów. Natomiast Ω/Hz (om na herc) to miara impedancji akustycznej, która jest bardziej związana z charakterystyką elektryczną mikrofonu niż z jego czułością. Wiele osób myli te pojęcia, co prowadzi do błędnych wniosków przy wyborze mikrofonów do nagrań. Kluczowe jest zrozumienie, że czułość w mV/Pa jest najważniejszym parametrem, który pozwala ocenić, jak dobrze mikrofon rejestruje dźwięk w rzeczywistych warunkach. Zaniedbanie tej wiedzy może skutkować wyborem niewłaściwego sprzętu, co negatywnie wpłynie na jakość nagrań.

Pytanie 3

Jaką minimalną liczbę mikrofonów powinno się zastosować do nagrania kwintetu smyczkowego przy użyciu metody MM?

A. 1 mikrofonu
B. 5 mikrofonów
C. 7 mikrofonów
D. 3 mikrofonów
Aby nagrać kwintet smyczkowy metodą MM (Mikrofonowanie z wieloma mikrofonami), optymalna liczba mikrofonów to pięć. Każdy z muzyków w kwintecie, czyli dwóch skrzypków, altówka, wiolonczela i kontrabas, powinien być nagrany z osobnym mikrofonem, co pozwala uchwycić indywidualne brzmienie każdego instrumentu oraz zapewnia większą kontrolę nad miksowaniem w postprodukcji. Technika ta umożliwia również zastosowanie różnych rodzajów mikrofonów, takich jak mikrofony dynamiczne lub pojemnościowe, aby uzyskać najlepszą jakość dźwięku. Dodatkowo, nagrywanie z osobnymi mikrofonami ułatwia wprowadzenie korekt i efektów dźwiękowych, co jest niezbędne w przypadku profesjonalnych nagrań. Warto zaznaczyć, że taka liczba mikrofonów jest zgodna z zaleceniami akustyków i producentów nagrań, aby zapewnić najwierniejsze odwzorowanie dźwięku oraz zachować przestrzenność i dynamikę występu.

Pytanie 4

Który parametr określa zdolność mikrofonów do rejestracji bardzo cichych dźwięków?

A. Maksymalny SPL
B. Impedancja wyjściowa
C. Charakterystyka kierunkowa
D. Poziom szumów własnych
Maksymalny SPL, czyli maksymalne ciśnienie akustyczne, to parametr, który określa, jak głośne dźwięki mikrofon może rejestrować bez zniekształceń. Oznacza to, że mikrofon może dobrze radzić sobie z głośnymi źródłami dźwięku, ale nie mówi nic o jego zdolności do rejestrowania cichych dźwięków. W rzeczywistości, mikrofon o wysokim poziomie SPL może mieć jednocześnie wysoki poziom szumów własnych, co czyni go mniej użytecznym w rejestrowaniu subtelnych niuansów. Impedancja wyjściowa dotyczy głównie dopasowania mikrofonu do pozostałych elementów toru audio, a nie wpływa bezpośrednio na jego zdolność do rejestracji cichych dźwięków. Na koniec, charakterystyka kierunkowa mikrofonu odnosi się do tego, z jakiego kierunku mikrofon zbiera dźwięki, co jest istotne w kontekście eliminacji niepożądanych dźwięków z otoczenia, ale również nie wpływa na zdolność do rejestrowania cichych dźwięków. Zrozumienie tych parametrów i ich odpowiednie zastosowanie w praktyce może pomóc w unikaniu nieporozumień, które często wynikają z mylnego interpretowania funkcji mikrofonów oraz ich specyfikacji.

Pytanie 5

Który z parametrów określa stosunek sygnału elektrycznego do szumu tła w urządzeniach audio?

A. BPM (Beats Per Minute)
B. THD (Total Harmonic Distortion)
C. S/N (Signal to Noise Ratio)
D. SPL (Sound Pressure Level)
S/N, czyli stosunek sygnału do szumu, to kluczowy parametr w audio, który wskazuje, jak głośny jest sygnał w porównaniu do poziomu szumu tła. Im wyższa wartość S/N, tym lepsza jakość dźwięku, ponieważ oznacza, że pożądany sygnał jest wyraźnie słyszalny, a niepożądany szum jest na niższym poziomie. W praktyce, na przykład w studiach nagraniowych, profesjonalni inżynierowie dźwięku dążą do osiągnięcia wysokiego S/N, aby zapewnić czystość i klarowność nagrań. W standardach branżowych, takich jak AES (Audio Engineering Society), zaleca się, aby dla urządzeń audio wartość S/N wynosiła co najmniej 90 dB. Umożliwia to uzyskanie lepszej reprodukcji dźwięku, zwłaszcza w cichych partiach miksów, gdzie niska jakość sygnału może prowadzić do zniekształceń lub nieprzyjemnych dźwięków. Oczywiście, S/N nie jest jedynym czynnikiem, ale jego znaczenie w audio jest niezaprzeczalne.

Pytanie 6

Który z parametrów określa maksymalny poziom ciśnienia akustycznego, jaki może zostać zarejestrowany przez mikrofon bez zniekształceń?

A. Sensitivity
B. Impedance
C. Bandwidth
D. Max SPL
Wybór niepoprawnych odpowiedzi pokazuje, że mogłeś pomylić kilka kluczowych parametrów mikrofonów. Sensitivity, czyli czułość mikrofonu, odnosi się do tego, jak dobrze mikrofon może rejestrować ciche dźwięki, ale nie ma wpływu na maksymalne ciśnienie akustyczne, które mikrofon jest w stanie zarejestrować przed wprowadzeniem zniekształceń. Wartości czułości wyrażane są najczęściej w dB/V/Pa i dotyczą tylko poziomu sygnału wyjściowego w odpowiedzi na określoną wartość ciśnienia akustycznego. Impedance, czyli impedancja, jest istotnym parametrem, ale odnosi się głównie do zgodności mikrofonu z urządzeniami, do których jest podłączany, a nie do jego zdolności do rejestrowania głośnych dźwięków. Bandwidth, czyli pasmo przenoszenia, określa zakres częstotliwości, które mikrofon może rejestrować, ale także nie ma związku z maksymalnym poziomem ciśnienia akustycznego. Typowy błąd to mylenie czułości i Max SPL, co może prowadzić do wyboru mikrofonu, który nie sprawdzi się w głośnych warunkach. Zrozumienie tych parametrów jest kluczowe dla osiągnięcia wysokiej jakości nagrań w różnych sytuacjach akustycznych.

Pytanie 7

Ile maksymalnie czasu trwania materiału audio można zmieścić na płycie CD o pojemności 700 MB, stosując kodowanie PCM?

A. 85 minut
B. 95 minut
C. 90 minut
D. 80 minut
Wybór odpowiedzi, która wskazuje na dłuższy czas trwania niż 80 minut, opiera się na błędnym założeniu, że płyta kompaktowa o pojemności 700 MB może pomieścić więcej danych na jednostkę czasu. W rzeczywistości, standardowe płytki CD audio są ograniczone przez specyfikacje techniczne, które definiują, że maksymalna długość nagrania audio przy użyciu kodowania PCM wynosi 74-80 minut. Często popełnianym błędem jest nieznajomość podstawowych parametrów technicznych, takich jak częstotliwość próbkowania czy głębokość bitowa, co prowadzi do zawyżania oczekiwań dotyczących długości nagrania. PCM nie stosuje kompresji, co oznacza, że każda sekunda audio zajmuje znaczną ilość danych. Z tego powodu każda dodatkowa minuta wydaje się być niemożliwa do osiągnięcia w przypadku standardowej płyty CD, która ma ścisłe ograniczenia dotyczące pojemności. Dla porównania, w przypadku plików skompresowanych, takich jak MP3, można uzyskać znacznie dłuższe nagrania, ponieważ kompresja zmniejsza rozmiar pliku kosztem jakości dźwięku. Zrozumienie tych różnic jest kluczowe dla każdego, kto zajmuje się produkcją audio, a także dla konsumentów, którzy pragną wiedzieć, czego się spodziewać od różnych formatów dźwiękowych.

Pytanie 8

Który typ procesora częstotliwościowego jest najbardziej odpowiedni do korekcji wąskopasmowych rezonansów?

A. Korektor konturowy
B. Korektor graficzny
C. Korektor shelving
D. Korektor parametryczny
Korektor parametryczny jest zdecydowanie najlepszym narzędziem do korekcji wąskopasmowych rezonansów, ponieważ pozwala na precyzyjne dostosowanie parametrów takich jak częstotliwość, jakość (Q) oraz poziom wzmocnienia lub tłumienia. Dzięki temu można skutecznie eliminować niepożądane dźwięki, takie jak syczenie czy dudnienie, które mogą pojawiać się w nagraniu. Przykładem zastosowania korektora parametrycznego może być sytuacja, gdy w utworze muzycznym występuje nieprzyjemny rezonans w okolicy 200 Hz, co skutkuje „buczeniem”. Używając korektora parametrycznego, można precyzyjnie wybrać tę częstotliwość, ustawić Q na odpowiednio wysoką wartość, aby skupić się tylko na tym wąskim zakresie, a następnie zmniejszyć jego poziom. W branży audio profesjonalnej stosuje się korektory parametryczne zarówno w studiach nagraniowych, jak i na koncertach na żywo, co czyni je standardem w obróbce dźwięku.

Pytanie 9

W jaki sposób funkcjonuje tryb automatyki TOUCH w oprogramowaniu DAW?

A. Odczytuje już zapisane automatyki, nie wprowadzając żadnych zmian.
B. Dezaktywuje aktualny zapis automatyki, nie usuwając go.
C. Nadpisuje bieżący zapis automatyki aż do momentu zatrzymania odtwarzania.
D. Nadpisuje aktualny zapis automatyki tylko podczas modyfikacji wybranego parametru.
Tryb automatyki TOUCH w programie DAW działa w sposób specyficzny, umożliwiając użytkownikom nadpisywanie już istniejących zapisów automatyki tylko wtedy, gdy dokonują zmian na wybranym parametrze. Oznacza to, że automatyka jest aktualizowana jedynie w momencie, gdy użytkownik fizycznie manipuluje kontrolerem lub suwakiem, co pozwala na precyzyjne dostosowanie parametrów bez ryzyka przypadkowego nadpisania całego zapisu. Przykładowo, jeśli użytkownik pracuje nad miksem i chce dostosować poziom głośności jednego z instrumentów, przełączenie na tryb TOUCH pozwoli mu na ręczne wprowadzenie zmian tylko w określonym momencie, a po zwolnieniu kontrolera automatyka wróci do wcześniej zdefiniowanej wartości. Taki sposób pracy jest szczególnie przydatny w skomplikowanych projektach, gdzie precyzyjne zarządzanie automatyka jest kluczowe. W branży muzycznej standardem jest korzystanie z trybów automatyki, takich jak TOUCH, aby uzyskać większą kontrolę nad miksowaniem i produkcją, co w rezultacie przekłada się na lepszą jakość dźwięku. Użytkownicy powinni znać różnice między tym trybem a innymi, takimi jak WRITE czy LATCH, aby efektywnie zarządzać swoimi projektami.

Pytanie 10

Jakie jest główne zastosowanie procesora typu transient designer?

A. Tworzenie efektu pogłosu
B. Kompresja dynamiki
C. Modyfikacja ataku i wybrzmienia instrumentu
D. Dodawanie harmonicznych
Główne zastosowanie procesora typu transient designer polega na modyfikacji ataku i wybrzmienia instrumentu, co jest kluczowe w procesie produkcji muzycznej. Te urządzenia lub pluginy umożliwiają precyzyjne kontrolowanie dynamiki dźwięku, co pozwala na wyróżnienie poszczególnych elementów miksu. Na przykład, w przypadku perkusji, transient designer może być użyty do podkreślenia ataku bębna, co sprawia, że staje się on bardziej wyrazisty i energetyczny. W praktyce, można zaobserwować, że wiele profesjonalnych inżynierów dźwięku wykorzystuje ten typ procesora w miksach rockowych czy elektronicznych, gdzie wyraźny atak jest kluczowy. Transient designer działa poprzez zwiększenie lub zmniejszenie intensywności transjentów, co oznacza, że można dostosować, jak szybko dźwięk osiąga swoją maksymalną głośność oraz jak długo utrzymuje się na odpowiednim poziomie. To narzędzie jest również używane do formowania przestrzeni w miksie, co sprawia, że instrumenty brzmią bardziej naturalnie i harmonijnie.

Pytanie 11

Jaką funkcję pełni protokół OSC w produkcji dźwiękowej?

A. Konwersję analogowo-cyfrową
B. Konwersję cyfrowo-analogową
C. Kompresję plików audio
D. Komunikację sieciową między urządzeniami audio
Wybór odpowiedzi dotyczącej konwersji analogowo-cyfrowej jest błędny, ponieważ OSC nie zajmuje się przetwarzaniem sygnałów, ale komunikacją. Konwersja analogowo-cyfrowa to proces, który polega na przekształceniu sygnału analogowego (np. dźwięku) na postać cyfrową, co jest z reguły realizowane przez konwertery A/C (analogowo-cyfrowe) w sprzęcie audio. Takie urządzenia są niezbędne do umożliwienia komputerom i innym urządzeniom cyfrowym przetwarzania i analizy sygnału audio. Z kolei konwersja cyfrowo-analogowa to proces odwrotny, w którym sygnał cyfrowy jest przekształcany z powrotem na sygnał analogowy, co jest konieczne, aby móc odtwarzać dźwięk na głośnikach lub słuchawkach. Kompresja plików audio również nie jest związana z funkcjonalnością OSC. Kompresja ma na celu zmniejszenie rozmiaru plików audio, co jest przydatne dla oszczędności przestrzeni na dysku oraz szybszego przesyłania danych. W rzeczywistości, OSC jest oparty na protokole UDP, co pozwala na szybszy przesył danych w porównaniu do TCP, co jest bardziej związane z komunikacją niż z jakimkolwiek przetwarzaniem audio. Typowe błędy związane z tymi odpowiedziami polegają na myleniu zadań związanych z przetwarzaniem sygnałów z zadaniami komunikacyjnymi; warto zrozumieć, że w świecie audio te dwa aspekty są odmiennymi, ale komplementarnymi dziedzinami.

Pytanie 12

Który z podanych instrumentów potrzebuje mikrofonu o najszerszym zakresie przenoszonych częstotliwości do rejestracji dźwięku?

A. Gitary
B. Skrzypiec
C. Fortepian
D. Trąbki
Fortepian to instrument klawiszowy, który generuje dźwięki w bardzo szerokim zakresie przenoszonych częstotliwości, zazwyczaj od około 27 Hz do 4 kHz. Oznacza to, że fortepian może odtwarzać zarówno niskie, głębokie dźwięki, jak i wysokie, jasne tony. W związku z tym, aby dokładnie zarejestrować pełne brzmienie fortepianu, wymagany jest mikrofon o szerokim zakresie przenoszonych częstotliwości, który potrafi uchwycić subtelności tonalne oraz dynamiczne zmiany w jego brzmieniu. Przykłady zastosowania mikrofonów w nagraniach fortepianowych to użycie mikrofonów pojemnościowych, które często charakteryzują się szerokim zakresem częstotliwości oraz wysoką czułością, co pozwala na uchwycenie detali dźwięku. W praktyce, w profesjonalnych studiach nagraniowych stosuje się techniki takie jak nagrywanie w stereofonii, gdzie dwa mikrofony umieszczane są w odpowiednich miejscach, aby oddać pełnię dźwięku fortepianu. To podejście jest zgodne z najlepszymi praktykami w dziedzinie akustyki i nagrywania, które podkreślają znaczenie odpowiedniego doboru sprzętu do charakterystyki instrumentu.

Pytanie 13

Standardowo sygnał MIDI clock transmituje wydarzenia MIDI z częstotliwością

A. 32 impulsów na półnutę
B. 32 impulsów na ćwierćnutę
C. 24 impulsów na ćwierćnutę
D. 24 impulsów na półnutę
Odpowiedź '24 impulsów na ćwierćnutę' jest prawidłowa, ponieważ standard MIDI (Musical Instrument Digital Interface) definiuje, że sygnał MIDI clock generuje 24 impulsy na każdą ćwierćnutę. Oznacza to, że w jednym takcie, który składa się z czterech ćwierćnut, wysyłane są łącznie 96 impulsów (24 x 4). Taka struktura synchronizacji pozwala na precyzyjne zsynchronizowanie różnych urządzeń muzycznych, takich jak syntezatory, automaty perkusyjne czy komputery. Dzięki temu muzycy mogą tworzyć złożone kompozycje, które działają w harmonii. W praktyce, MIDI clock jest kluczowy w produkcji muzyki elektronicznej, szczególnie w sytuacjach, gdzie różne źródła dźwięku muszą być zsynchronizowane w czasie rzeczywistym. Warto również wspomnieć, że wiele nowoczesnych programów DAW (Digital Audio Workstation) oraz sprzętu muzycznego wykorzystuje tę samą zasadę synchronizacji, co zapewnia interoperacyjność w środowisku muzycznym.

Pytanie 14

Jaki z wymienionych standardów łączności stosuje kable światłowodowe?

A. XLR
B. TOSLINK
C. USB
D. BNC
TOSLINK to standard połączeń optycznych, który wykorzystuje światłowody do przesyłania sygnału audio. Dzięki zastosowaniu technologii światłowodowej, TOSLINK zapewnia niezwykle wysoką jakość dźwięku oraz odporność na zakłócenia elektromagnetyczne, co czyni go idealnym wyborem w profesjonalnych systemach nagłośnieniowych oraz domowych systemach audio-wideo. Przykładem zastosowania TOSLINK może być połączenie odtwarzacza DVD z amplitunerem AV, gdzie sygnał audio jest przesyłany w formie cyfrowej przez kabel światłowodowy, co minimalizuje straty jakości dźwięku. Dobre praktyki branżowe sugerują, aby przy instalacji systemów audio w przestrzeniach o dużym natężeniu elektromagnetycznym, preferować kable optyczne TOSLINK, które nie są podatne na zakłócenia, co nie tylko poprawia jakość dźwięku, ale także zwiększa stabilność połączeń. Dodatkowo, standard TOSLINK jest powszechnie stosowany w różnych urządzeniach, takich jak telewizory, konsole do gier czy systemy kina domowego, co czyni go uniwersalnym rozwiązaniem w dziedzinie przesyłania dźwięku."

Pytanie 15

Którego parametru używa się w programie DAW do przesunięcia nagranego materiału dźwiękowego w czasie?

A. Control
B. Velocity
C. Offset
D. Quantize
Wybór innych parametrów, takich jak quantize, velocity czy control, może być mylący, ponieważ każdy z nich pełni zupełnie inną rolę w produkcji muzycznej. Quantize odnosi się do automatycznego dostosowywania pozycji nut w celu synchronizacji z siatką czasową, co pomaga w poprawie rytmu, ale nie przesuwa materiału audio już nagranego. Z kolei velocity to parametr, który odnosi się do siły, z jaką nuta jest grana, wpływając na dynamiczne brzmienie, ale nie ma nic wspólnego z czasem przesunięcia nagrania. Control z kolei zwykle dotyczy różnych parametrów sterujących w oprogramowaniu, takich jak modulacja lub filtracja, ale nie odnosi się do przesunięcia materiału dźwiękowego. Często pojawia się zamieszanie, ponieważ wszystkie te terminy są używane w kontekście pracy z dźwiękiem, jednak ich zastosowanie jest różne. Zrozumienie tych różnic jest kluczowe dla efektywnego korzystania z programu DAW i unikania błędów w procesie produkcji muzycznej.

Pytanie 16

Aby wiernie oddać rzeczywiste brzmienie dzieł Fryderyka Chopina, podczas nagrania jego kompozycji warto byłoby wykorzystać autentyczne instrumenty z okresu ich powstawania?

A. klasycyzmu
B. romantyzmu
C. renesansu
D. baroku
Odpowiedź romantyzmu jest prawidłowa, ponieważ Fryderyk Chopin tworzył w epoce romantyzmu, która trwała w XIX wieku. Instrumenty budowane w tym okresie, takie jak fortepiany, były zaprojektowane z myślą o wyrażaniu emocji i subtelności, które były kluczowe w jego muzyce. Chopin, wykorzystując nowoczesne jak na swoje czasy fortepiany, potrafił wydobyć bogate barwy dźwięku i dynamiczne niuanse, co jest szczególnie ważne dla jego dzieł. Przykładowo, fortepiany marki Pleyel, które były popularne w jego czasach, miały delikatniejszy i bardziej wyrafinowany dźwięk niż instrumenty z wcześniejszych epok. Użycie oryginalnych instrumentów romantyzmu podczas nagrania jego utworów pozwoliłoby na wierniejsze oddanie intencji kompozytora oraz charakterystyki jego stylu. W kontekście współczesnego nagrania warto zwrócić uwagę na techniki mikrofonowe oraz akustykę pomieszczenia, które w połączeniu z autentycznymi instrumentami mogą znacząco wpłynąć na efekt końcowy.

Pytanie 17

Jakie zjawisko akustyczne występuje, gdy fale dźwiękowe docierają do słuchacza zarówno bezpośrednio, jak i po odbiciu od powierzchni?

A. Interferencja
B. Modulacja
C. Tonacja
D. Refrakcja
Interferencja to zjawisko, które występuje, gdy dwie fale dźwiękowe spotykają się w tym samym miejscu w przestrzeni. W kontekście dźwięku, może to mieć miejsce, gdy fala dźwiękowa dociera do słuchacza bezpośrednio z źródła oraz po odbiciu od powierzchni, na przykład od ściany. W rezultacie, fale te mogą na siebie działać, co prowadzi do zjawisk takich jak wzmocnienie lub osłabienie dźwięku w określonych miejscach. Praktycznym zastosowaniem tej wiedzy jest akustyka pomieszczeń, gdzie projektanci uwzględniają interferencję, aby poprawić jakość dźwięku w salach koncertowych czy nagraniowych. Interferencja jest także kluczowa w technologii dźwięku przestrzennego, gdzie różne źródła dźwięku mogą być używane równocześnie, aby uzyskać realistyczne wrażenia akustyczne. Warto również zauważyć, że zrozumienie zjawiska interferencji umożliwia przewidywanie i kontrolowanie efektów dźwiękowych w różnych środowiskach, co jest niezwykle istotne w branży muzycznej oraz filmowej.

Pytanie 18

Aby określić izolacyjność akustyczną D danego pomieszczenia, źródło dźwięku o poziomie ciśnienia akustycznego L1 zostało umiejscowione na zewnątrz badanego obiektu, a następnie zmierzono poziom ciśnienia akustycznego L2 wewnątrz tego pomieszczenia. Wartość D można wyliczyć przy pomocy uproszczonego wzoru

A. D = L1 - L2
B. D = L2/L1
C. D = L1/L2
D. D = L2 - L1
Wybór innych odpowiedzi wynika z nieporozumień w zakresie definicji izolacyjności akustycznej i zasad pomiarów akustycznych. Na przykład, podanie D = L1 / L2 sugeruje, że izolacyjność akustyczna jest obliczana jako stosunek poziomów ciśnienia akustycznego, co nie ma sensu w kontekście akustyki budowlanej. Takie podejście może pochodzić z mylnego założenia, że izolacyjność można porównać jako wartość bezwzględną, co nie oddaje rzeczywistej różnicy, która jest istotna dla oceny efektywności izolacji. Z kolei odpowiedź D = L2 / L1 byłaby interpretowana jako wyrażająca proporcję, co również nie jest zgodne z definicją akustyki, ponieważ nie wskazuje na różnicę między dwoma poziomami ciśnienia. W przypadku D = L2 - L1, wynik byłby negatywny, co jest fizycznie niemożliwe, ponieważ poziom ciśnienia akustycznego wewnątrz pomieszczenia (L2) nie może przewyższać poziomu na zewnątrz (L1) w kontekście hałasu zewnętrznego. Typowe błędy myślowe związane z tymi odpowiedziami mogą wynikać z nieodpowiedniego rozumienia akustyki oraz pomiarów, gdzie kluczowe jest uznanie, że D jako izolacyjność akustyczna jest miarą efektywności oddzielania dźwięków z różnych źródeł, a nie ich relacji liczbowych.

Pytanie 19

Efekt dźwiękowy FUZZ jest zazwyczaj wykorzystywany do

A. uprzestrzennienia nagrania wokalisty
B. odwracania polaryzacji sygnału w nagraniu werbla
C. odfiltrowania niskich częstotliwości w nagraniu skrzypiec
D. celowego zniekształcania sygnału gitary elektrycznej
Zrozumienie zastosowania efektów dźwiękowych w kontekście nagrań muzycznych jest kluczowe dla osiągnięcia pożądanych rezultatów brzmieniowych. Niepoprawna odpowiedź wskazująca na odwrócenie polaryzacji sygnału w nagraniu werbla nie odnosi się do funkcji efektu FUZZ, który nie ma związku z polaryzacją sygnału. Polaryzacja sygnału dotyczy kierunku przepływu elektronu, co jest istotne w kontekście nagrań perkusyjnych, ale nie ma zastosowania w przypadku efektów gitarowych. Z kolei sugerowane odfiltrowanie niskich częstotliwości w nagraniu skrzypiec jest błędne, ponieważ FUZZ nie jest zaprojektowany do filtrowania pasma częstotliwości; jego celem jest dodanie zniekształcenia, a nie usuwanie tonów. Istnieją inne narzędzia i efekty, takie jak equalizery, które są znacznie bardziej odpowiednie do selektywnego odcinania niskich częstotliwości. Wreszcie, koncepcja uprzestrzennienia nagrania wokalisty jest myląca, gdyż FUZZ nie ma na celu tworzenia przestrzennego wrażenia dźwięku. Efekty przestrzenne, takie jak chorus czy reverb, są odpowiedzialne za nadawanie głębi i szerokości w miksie. Te pomyłki mogą wynikać z niejasnego zrozumienia różnicy pomiędzy efektami zniekształcającymi a przestrzennymi, co prowadzi do mylnych wniosków na temat zastosowania konkretnych narzędzi w produkcji dźwiękowej.

Pytanie 20

Aby oszacować czas pogłosu przy użyciu szumu, zgodnie z Polską Normą, konieczne jest zastosowanie filtrów

A. szerokopasmowych
B. oktawowych
C. tercjowych
D. półkowych
Wybór filtrów szerokopasmowych, półkowych czy oktawowych w kontekście oszacowania czasu pogłosu przy pomocy szumu jest niewłaściwy z uwagi na ograniczenia tych metod w kontekście precyzyjnego pomiaru. Filtry szerokopasmowe, jako narzędzie o bardzo szerokim zakresie częstotliwości, mogą nie być w stanie uchwycić subtelnych różnic w rozkładzie energii dźwiękowej, co jest kluczowe w analizie akustycznej. Ponadto, ich wykorzystanie może prowadzić do zniekształcenia wyników, ponieważ nie uwzględniają specyfiki charakterystyki akustycznej danego pomieszczenia. Filtry półkowe, mimo że mogą być użyteczne w niektórych zastosowaniach, nie oferują takiej granularności analizy jak filtry tercjowe, co ogranicza ich efektywność w ocenie czasu pogłosu. Z kolei filtry oktawowe, choć bardziej precyzyjne niż szerokopasmowe, nie dostarczają wystarczająco szczegółowych informacji, które są niezbędne do dokładnej oceny akustyki wnętrza. Kluczowe jest zrozumienie, że precyzyjny pomiar czasu pogłosu wymaga zastosowania odpowiednich narzędzi, które pozwalają na szczegółową i rzetelną analizę, a stosowanie filtrów, które nie spełniają tych wymagań, prowadzi do błędnych wniosków i nieadekwatnych rekomendacji dla projektów akustycznych.

Pytanie 21

Jakim terminem opisuje się dodatkowy mikrofon w systemie omikrofonowania ogólnego, który na przykład wspomaga dźwięk jednego z instrumentów?

A. Podpórka
B. Przystawka
C. Słupek
D. Dostawka
Wybranie niewłaściwego terminu w kontekście mikrofonu w nagłośnieniu może być wynikiem nieporozumień co do ich funkcji. Słupek zwykle oznacza jakąś konstrukcję czy element ozdobny, ale nie mikrofon. Dostawka i przystawka mogą się zdarzyć w innych kontekstach, ale nie w tym przypadku. Dostawka często odnosi się do jakiegoś dodatkowego elementu, który rozszerza funkcje systemu, na przykład dodatkowej kolumny. Przystawka zaś to akcesorium, które dostosowuje sprzęt do potrzeb, jak adapter do mikrofonu. W nagłośnieniu ważne jest, żeby rozumieć, że te terminy nie oddają dobrze funkcji mikrofonu wspomagającego, jakim jest podpórka. Możesz myśleć, że każda dodatkowa część w systemie nagłośnienia to po prostu „dostawka” czy „przystawka”, ale one mają swoje specyficzne znaczenie, które nie dotyczy roli mikrofonu wspomagającego. Warto więc zgłębiać terminologię audio, by uniknąć nieporozumień i lepiej korzystać ze sprzętu.

Pytanie 22

W jakim formacie kodowania dźwięku zapisywane są płyty DVD-A?

A. PCM
B. ACC
C. MP3
D. DSD
Wybór DSD, MP3 czy AAC jako formatów kodowania dźwięku dla płyt DVD-A jest nieprawidłowy, ponieważ każdy z tych formatów ma swoje specyficzne zastosowania i ograniczenia, które czynią je mniej odpowiednimi do tego kontekstu. DSD, czyli Direct Stream Digital, jest technologią, która jest najczęściej stosowana w kontekście SACD (Super Audio CD), a nie DVD-Audio. Choć DSD oferuje wysoką jakość dźwięku, jego zastosowanie w formacie DVD-A jest ograniczone z uwagi na różnice w sposobie kodowania i dekodowania sygnału. Z drugiej strony, MP3 to popularny format kompresji stratnej, który często prowadzi do utraty jakości dźwięku, co jest sprzeczne z ideą DVD-A, która ma na celu dostarczenie audio w jak najwyższej jakości. MP3 nadaje się głównie do zastosowania na urządzeniach mobilnych i w strumieniowaniu, gdzie rozmiar plików jest kluczowy. Podobnie AAC (Advanced Audio Codec) jest formatem kompresji, który również może obniżać jakość dźwięku, co czyni go nieodpowiednim dla medium, które ma na celu dostarczenie audio o wysokiej rozdzielczości. W kontekście produkcji audio, szczególnie w branży muzycznej i filmowej, kluczowe jest zrozumienie, że wybór formatu kodowania powinien być dostosowany do wymagań dotyczących jakości oraz przeznaczenia. PCM, będąc formatem bezstratnym, jest najlepszym wyborem dla płyt DVD-A, aby zachować pełną jakość dźwięku i spełnić oczekiwania słuchaczy. Wybierając nieodpowiedni format, ryzykujemy utratę detali, co może znacznie obniżyć doświadczenie odsłuchowe.

Pytanie 23

Jaka jest wartość cezury po której dźwięk odbity od przeszkody jest słyszalny jako echo?

A. 50 ms
B. 30 ms
C. 20 ms
D. 40 ms
Wybierając odpowiedzi 20 ms, 30 ms lub 40 ms, można wpaść w pułapkę błędnego zrozumienia zasady, która rządzi percepcją echa. W akustyce obowiązuje zasada, że dźwięk musi przebyć pewien czas, aby został odczuty jako echo, a ten czas wynosi co najmniej 50 ms. W przypadku krótszych wartości dźwięk nie jest wystarczająco oddzielony od oryginalnego sygnału, co skutkuje ich zlewem w percepcji. Często błędne odpowiedzi wynikają z mylnego założenia, że dźwięk przemieszcza się bardzo szybko, co może wprowadzać w błąd. W rzeczywistości, aby dobrze zrozumieć, co wpływa na nasze postrzeganie dźwięku, warto zapoznać się z zasadami odbicia fal akustycznych oraz ich interakcją z otoczeniem. Na przykład, w salach koncertowych, gdzie stosuje się różne materiały akustyczne, to właśnie czas echa decyduje o jakości dźwięku, a niewłaściwe ustawienie elementów konstrukcyjnych może prowadzić do nieprzyjemnych wrażeń słuchowych. Zrozumienie tego zjawiska jest kluczowe dla profesjonalistów zajmujących się akustyką oraz inżynierią dźwięku, którzy muszą brać pod uwagę te czynniki w swoich projektach.

Pytanie 24

Które zjawisko akustyczne powoduje, że dźwięki niskie są słabiej tłumione przez przeszkody niż dźwięki wysokie?

A. Dyfrakcja
B. Rezonans
C. Interferencja
D. Absorpcja
Interferencja, absorpcja oraz rezonans to zjawiska, które często są mylone z dyfrakcją, ale mają różne mechanizmy działania i skutki w kontekście akustyki. Interferencja to proces, w którym dwie fale dźwiękowe nakładają się na siebie, tworząc wzorce wzmacniania lub osłabiania dźwięku. Chociaż może to prowadzić do lokalnych wzmocnień lub osłabień, nie wpływa to na ogólną zdolność dźwięków niskich do przetrwania przeszkód, co jest kluczowe w tym pytaniu. Absorpcja odnosi się do procesu, w którym materiały pochłaniają energię dźwięku, co prowadzi do jego osłabienia. Dźwięki wysokie są bardziej podatne na ten proces, ponieważ materiały takie jak tkaniny czy pianki są projektowane do tłumienia wyższych częstotliwości, co powoduje, że dźwięki niskie przechodzą z większą łatwością. Rezonans, z drugiej strony, to zjawisko polegające na wzmacnianiu dźwięku w specyficznych warunkach, na przykład w zamkniętej przestrzeni. W każdym z tych przypadków istnieje mylne przekonanie, że mogą one wyjaśnić, dlaczego dźwięki niskie są mniej tłumione przez przeszkody. Kluczem do zrozumienia tej różnicy jest uświadomienie sobie, że to właśnie dyfrakcja, a nie inne zjawiska, decyduje o tym, jak różne częstotliwości dźwięków zachowują się w obecności przeszkód.

Pytanie 25

Jakie zjawisko występuje, gdy dwa mikrofony rejestrują to samo źródło dźwięku, ale z różnym przesunięciem fazowym?

A. Modulacja
B. Rezonans
C. Filtracja grzebieniowa
D. Maskowanie
Rezonans to zjawisko, które występuje, gdy system ma naturalną częstotliwość drgań, która koresponduje z częstotliwością zewnętrzną wpływającą na ten system. W kontekście mikrofonów i rejestracji dźwięku rezonans nie jest odpowiednim terminem, ponieważ nie opisuje sytuacji, w której dwa mikrofony rejestrują to samo źródło dźwięku z różnym przesunięciem fazowym. Rezonans może prowadzić do wzmocnienia dźwięków o określonej częstotliwości, co jest bardziej zjawiskiem związanym z wybranymi materiałami i ich właściwościami akustycznymi, a nie z interferencją sygnałów. Maskowanie, z drugiej strony, odnosi się do procesu, w którym głośniejszy dźwięk tłumi cichszy, co także nie jest związane bezpośrednio z różnicami w fazie sygnałów z mikrofonów. Z tego powodu nie jest to odpowiednia koncepcja w kontekście tego pytania. Modulacja natomiast to proces, w którym jeden sygnał (nosnikowy) zmienia swoje parametry (amplitudę, częstotliwość, fazę) w odpowiedzi na inny sygnał. Chociaż modulacja jest kluczowym zjawiskiem w telekomunikacji i przetwarzaniu sygnału, to nie odnosi się do sytuacji, w której różne mikrofony rejestrują ten sam dźwięk w różnym czasie. To wprowadzenie w błąd może wynikać z nieporozumienia dotyczącego podstawowych pojęć akustycznych. Aby lepiej zrozumieć dźwięk i jego zachowanie w różnych sytuacjach, warto zapoznać się z literaturą przedmiotu oraz praktycznymi przykładami zastosowania mikrofonów w różnych warunkach akustycznych.

Pytanie 26

Pierwszą informacją, która znajduje się za bajtem statusowym w komunikacie SysEx, powinien być identyfikator

A. typ urządzenia (Device ID)
B. producenta (Manufacturers ID)
C. rozszerzenia (Command ID)
D. modelu (Model ID)
W przypadku komunikatów System Exclusive (SysEx) w standardzie MIDI, pierwszą informacją, która musi się pojawić po bajcie statusowym, jest identyfikator producenta (Manufacturers ID). Ten identyfikator jest niezwykle istotny, ponieważ pozwala na jednoznaczną identyfikację sprzętu lub oprogramowania, które generuje lub interpretuje dany komunikat. Identyfikatory producentów są przydzielane przez MIDI Manufacturers Association (MMA) i stanowią kluczowy element umożliwiający poprawne odbieranie i przetwarzanie informacji przez urządzenia MIDI. Na przykład, gdy urządzenie MIDI wysyła komunikat SysEx, jego odbiorca może sprawdzić identyfikator producenta, aby upewnić się, że jest w stanie prawidłowo zinterpretować dane. W praktyce, stosowanie identyfikatorów producentów zapobiega konfliktom i pozwala na współpracę różnych urządzeń w ekosystemie MIDI. Dobrą praktyką jest również stosowanie dokumentacji producentów, aby zrozumieć, jakie konkretne komunikaty i funkcje są dostępne.

Pytanie 27

Która z przedstawionych funkcji w programie DAW pozwala na odsłuchanie wybranej ścieżki w projekcie wielościeżkowym?

A. Mute
B. Fx
C. Send
D. Solo
Odpowiedź "Solo" jest prawidłowa, ponieważ funkcja solo w programach DAW (Digital Audio Workstation) pozwala na odsłuchanie wybranej ścieżki bez zakłóceń ze strony innych ścieżek w sesji. Kiedy aktywujemy tryb solo na konkretnej ścieżce, wszystkie inne ścieżki są automatycznie wyciszane, co umożliwia skupienie się na analizie i edycji tej jednej ścieżki. Jest to niezwykle przydatne podczas miksowania, gdzie często musimy dokładnie wysłuchać jednej partii instrumentalnej lub wokalu, aby ocenić jego brzmienie w kontekście całej produkcji. Ponadto, stosowanie funkcji solo jest zgodne z zasadami profesjonalnego miksowania, które podkreślają potrzebę wsłuchania się w każdy element utworu z osobna. Przykład praktycznego zastosowania to sytuacja, w której chcemy dopracować wokal w utworze; aktywując solo dla ścieżki wokalnej, jesteśmy w stanie usłyszeć wszelkie niuanse i ewentualne błędy, które mogłyby umknąć w pełnym miksie. Taka technika jest standardem w branży muzycznej, pomagając inżynierom dźwięku i producentom w osiąganiu wysokiej jakości końcowego brzmienia.

Pytanie 28

Procesor, który pozwala na regulację intonacji oraz tonacji głosu zgodnie z wartością ustaloną przez użytkownika, to

A. Pitch Correct
B. Flanger
C. Equalizer
D. De-esser
Pitch Correct to procesor, który służy do korygowania tonu i wysokości dźwięku w nagraniach audio, co jest niezwykle istotne w produkcji muzycznej oraz w postprodukcji. Umożliwia on dostosowanie intonacji głosu do zdefiniowanej przez użytkownika wysokości, co pozwala na uzyskanie pożądanej harmonicznej precyzji. Przykładem zastosowania Pitch Correct może być poprawa wokali, które nie są do końca czyste tonalnie, co jest częstym zjawiskiem w nagraniach wykonawców. W praktyce, inżynierowie dźwięku używają tego narzędzia, aby uzyskać spójność tonalną i zapewnić, że wokale harmonizują z resztą instrumentów. Dobre praktyki w użyciu Pitch Correct obejmują subtelne dostosowywanie tonów, aby nie zniekształcić naturalnego brzmienia głosu, co jest kluczowe dla zachowania autentyczności nagrania. Narzędzie to jest szeroko stosowane w branży muzycznej, w tym w studiach nagraniowych i podczas występów live, co czyni je niezbędnym elementem wyposażenia każdej produkcji audio.

Pytanie 29

Który z wymienionych parametrów określa czas, po którym kompresor przestaje działać po spadku sygnału poniżej progu?

A. Ratio
B. Attack
C. Release
D. Hold
Release to parametr, który określa czas, po którym kompresor przestaje działać po spadku sygnału poniżej ustalonego progu. W praktyce oznacza to, jak szybko kompresor przestaje tłumić dźwięk, gdy sygnał wraca do poziomu poniżej tego progu. Dobrze ustawiony release może znacząco wpłynąć na brzmienie materiału audio, na przykład, jeśli czas release jest zbyt krótki, dźwięk może wydawać się nienaturalny, a jego dynamika będzie zubożona. Z kolei, jeśli czas jest zbyt długi, dźwięk może być zamulony i nieprzejrzysty. W przypadku miksowania muzyki, odpowiednie ustawienie release jest kluczowe do zachowania ekspresji wokali czy instrumentów. W branży audio często stosuje się zasady, takie jak 'uzasadniony czas release', który powinien być dostosowany do rodzaju dźwięku, aby uzyskać najlepsze rezultaty. Warto również pamiętać, że release działa w synergii z innymi parametrami kompresora, takimi jak attack czy ratio, co daje pełen obraz działania kompresji i wpływa na ostateczne brzmienie miksu.

Pytanie 30

Jakie jest główne zastosowanie equalizera w procesie realizacji nagrań dźwiękowych?

A. Zmniejszenie dynamiki
B. Dodanie pogłosu
C. Zwiększenie poziomu sygnału
D. Korekcja pasma częstotliwościowego
Equalizer to niezwykle ważne narzędzie w arsenale każdego realizatora dźwięku. Jego głównym zadaniem jest korekcja pasma częstotliwościowego, co pozwala na dostosowanie brzmienia nagrania do oczekiwań artystycznych oraz wymagań technicznych. W praktyce oznacza to, że możemy podkreślić lub wyciszyć określone częstotliwości w nagraniu, co ma ogromne znaczenie w przypadku nagrań wielościeżkowych. Dzięki equalizerowi można na przykład zwiększyć klarowność wokalu poprzez podbicie pasma średnio-wysokiego albo usunąć niepożądane szumy w dolnym zakresie częstotliwości. W standardach branżowych korekcja częstotliwości jest nieodzowna dla uzyskania spójnego i profesjonalnego brzmienia. Equalizery mogą być stosowane zarówno w formie sprzętowej, jak i wirtualnej w postaci wtyczek DAW. Moim zdaniem, umiejętne posługiwanie się equalizerem jest jednym z kluczowych elementów sztuki realizacji dźwięku, pozwalającym wyróżnić się w tej dziedzinie. To narzędzie nie tylko poprawia jakość nagrania, ale także daje możliwość kreatywnego kształtowania dźwięku.

Pytanie 31

Który rodzaj zniekształceń jest najbardziej charakterystyczny dla urządzeń lampowych?

A. Harmoniczne nieparzyste
B. Fazowe
C. Intermodulacyjne
D. Harmoniczne parzyste
Harmoniczne parzyste to najczęściej spotykany rodzaj zniekształceń w urządzeniach lampowych, głównie ze względu na ich specyfikę działania. W lampach elektronowych, takich jak lampy triodowe czy tetrodowe, zniekształcenia te są wynikiem nieliniowych właściwości charakterystycznych dla tych komponentów. W praktyce oznacza to, że przy przetwarzaniu sygnałów audio, takie zniekształcenia mogą wzbogacać brzmienie, nadając mu ciepło i charakterystyczny „lampowy” dźwięk, co jest często pożądane w muzyce. Harmoniczne parzyste są związane z częstotliwościami sygnału podstawowego i ich wielokrotnościami, co oznacza, że mogą być bardziej akceptowalne w kontekście percepcji słuchowej. W branży audiofilskiej, urządzenia lampowe są cenione za zdolność do tworzenia naturalnych, harmonijnych dźwięków, co potwierdzają liczne badania i testy. Warto również zauważyć, że w przypadku lampowych wzmacniaczy, odpowiednia konstrukcja oraz dobór komponentów mają kluczowe znaczenie dla uzyskania pożądanej charakterystyki brzmieniowej.

Pytanie 32

Charakterystykę mikrofonową, która rejestruje dźwięki z przodu i tyłu mikrofonu, a wygasza dźwięki z boków, nazywamy

A. Hiperkardioidalną
B. Superkardioidalną
C. Kardioidalną
D. Ósemkową
Wybór mikrofonowej charakterystyki kardioidalnej, hiperkardioidalnej lub superkardioidalnej, mimo że są one popularne, nie oddaje specyfiki mikrofonu ósemkowego. Kardioidalna charakterystyka mikrofonu rejestruje dźwięki głównie z przodu, a efektywnie wycisza te z tyłu i boków. To sprawia, że jest idealna do eliminacji niepożądanych hałasów z otoczenia, ale nie jest w stanie rejestrować dźwięków z tyłu, co jest kluczowe w specyficznych zastosowaniach, gdzie mikrofon musi uchwycić dźwięki z obu stron. Z kolei hiperkardioidalna i superkardioidalna charakteryzują się jeszcze węższym kątem odbioru dźwięku z przodu, skupiając się na minimalizacji hałasów z boków, ale również nie rejestrują dźwięku z tyłu. Typowym błędem myślowym jest przekonanie, że mikrofony z innymi charakterystykami mogą zastąpić mikrofon ósemkowy w sytuacjach, gdzie ważne jest uchwycenie dźwięku z przodu i tyłu. W rzeczywistości, wybór niewłaściwej charakterystyki może prowadzić do utraty ważnych informacji dźwiękowych i obniżenia jakości nagrania. W kontekście profesjonalnych standardów audio, kluczowe jest stosowanie odpowiedniego rodzaju mikrofonu w zależności od wymagań danego nagrania czy występu.

Pytanie 33

Używając jedynie jednego mikrofonu do rejestracji zestawu perkusyjnego, powinno się go ustawić podczas nagrania w roli mikrofonu

A. werbla
B. bębna basowego
C. tom-tomów
D. overhead
Umiejscowienie mikrofonu bezpośrednio na werblu, tom-tomach czy bębnie basowym nie jest optymalnym rozwiązaniem, gdyż każde z tych ustawień ma swoje ograniczenia i może prowadzić do niepożądanych efektów akustycznych. Nagrywanie na werblu może wydobyć intensywny, ale jednocześnie jednostronny dźwięk, który nie oddaje pełnej dynamiki zestawu perkusyjnego. Dźwięk z werbla będzie dominować, a inne instrumenty, jak tom-tomy czy bębny basowe, będą słabiej słyszalne. Z kolei umieszczenie mikrofonu na tom-tomach ogranicza jego zdolność do uchwycenia reszty zestawu, co prowadzi do braku równowagi tonalnej. Mikrofonowanie bębna basowego także nie jest optymalne, ponieważ skupia się na niskich częstotliwościach, co powoduje, że reszta zestawu staje się mniej wyraźna. Tego typu podejścia są błędne, ponieważ nie uwzględniają zasady równowagi dźwiękowej, która jest kluczowa w produkcji muzycznej. W praktyce, wielu audio inżynierów opiera się na zasadzie „złotego środka”, gdzie celem jest uzyskanie harmonijnego brzmienia poprzez odpowiednie rozmieszczenie mikrofonów. Ignorowanie tych zasad prowadzi do typowych błędów w inżynierii dźwięku, takich jak brak separacji instrumentalnej, co negatywnie wpływa na jakość finalnego miksu. Dlatego kluczowe jest zrozumienie, że umiejscowienie mikrofonu w kontekście całego zestawu perkusyjnego ma fundamentalne znaczenie dla uzyskania wysokiej jakości nagrania.

Pytanie 34

Ile ścieżek monofonicznych w sesji DAW powinno się przygotować do nagrania kwartetu smyczkowego zgodnie z techniką MM?

A. 3
B. 2
C. 4
D. 1
Aby prawidłowo nagrać kwartet smyczkowy techniką MM, konieczne jest przygotowanie czterech monofonicznych ścieżek. Technika MM, czyli 'Mikrofonowanie muzyków', polega na indywidualnym nagrywaniu każdego instrumentu, co umożliwia uzyskanie wysokiej jakości dźwięku oraz lepszej kontroli nad miksem. Kwartet smyczkowy składa się z dwóch skrzypiec, altówki i wiolonczeli, co oznacza, że każdy z tych instrumentów powinien być nagrywany na osobnej ścieżce. Pozwala to na niezależną edycję oraz balansowanie poziomów głośności w trakcie postprodukcji. W praktyce, dzięki temu podejściu, można uzyskać bardziej zróżnicowane brzmienie oraz lepszą separację instrumentów, co jest szczególnie istotne w muzyce klasycznej. W zakresie dobrych praktyk, korzystanie z wysokiej jakości mikrofonów, takich jak mikrofony pojemnościowe, oraz odpowiednia technika ich umieszczania, są kluczowe dla uzyskania najlepszego efektu dźwiękowego.

Pytanie 35

Funkcja MIDI "Local control on/off" umożliwia

A. dezaktywowanie modułu brzmieniowego syntezatora
B. przefiltrowanie wszystkich dźwięków w pojedynczym kanale MIDI
C. rozłączenie klawiatury syntezatora z modułem brzmieniowym
D. przefiltrowanie wszystkich dźwięków w pliku .mid
Wybór odpowiedzi sugerującej, że 'Local Control On/Off' może wyłączyć moduł brzmieniowy syntezatora jest błędny, ponieważ funkcja ta nie ma możliwości całkowitego wyłączenia modułu brzmieniowego. Local Control umożliwia kontrolę nad połączeniem klawiatury z modułem brzmieniowym, ale nie wpływa na samą jego funkcjonalność. Z kolei przefiltrowanie dźwięków w pliku .mid lub w jednym kanale MIDI to również koncepcje, które są związane z innymi funkcjami MIDI, jak programowanie ścieżek w DAW lub edytory MIDI, ale nie mają one bezpośredniego związku z 'Local Control'. Typowym błędem myślowym jest mylenie pojęć dotyczących przesyłania sygnału MIDI oraz generowania dźwięku. Warto zrozumieć, że 'Local Control' dotyczy tylko lokalnej komunikacji i nie ma wpływu na zewnętrzne procesory dźwiękowe czy edytory MIDI, które zajmują się przetwarzaniem danych MIDI. Aby dokonać właściwych wyborów dotyczących użycia kontrolerów MIDI, należy zrozumieć ich działanie w kontekście całego systemu muzycznego oraz znać różnice pomiędzy różnymi funkcjami i ich zastosowaniami w praktyce.

Pytanie 36

Funkcja, która umożliwia przywrócenie ustawień fabrycznych konsolety mikserskiej, to

A. initialize
B. restore
C. load
D. call
Odpowiedzi, takie jak "restore", "load" i "call", choć mogą być związane z funkcjami w systemach audio, nie są odpowiednie w kontekście przywracania ustawień fabrycznych konsolety mikserskiej. Termin "restore" sugeruje przywracanie danych z kopii zapasowej, co oznacza, że może odnosić się do sytuacji, w której użytkownik ma już zapisane preferencje lub ustawienia i chce je z powrotem załadować. To podejście nie dotyczy resetowania urządzenia do stanu fabrycznego, a raczej przywracania poprzednich stanów. Z kolei "load" odnosi się do ładowania ustawień, co również nie jest synonimem resetowania ich do wartości domyślnych. W przypadku konsolety, często używa się tej opcji do odczytu zapisanych ustawień sesji, a nie do ich resetowania. Natomiast "call" może być używane w kontekście wywoływania funkcji, ale nie odnosi się bezpośrednio do procesu resetowania urządzenia. Typowym błędem myślowym jest utożsamianie powyższych terminów z resetowaniem ustawień, co prowadzi do nieporozumień. Różne funkcje w interfejsie użytkownika konsolety mają specyficzne zastosowania, i kluczowe jest zrozumienie ich kontekstu, aby efektywnie zarządzać konfiguracjami sprzętu audio.

Pytanie 37

Który z tonów (sygnałów sinusoidalnych) prezentowanych słuchaczowi przy tym samym poziomie ciśnienia akustycznego wydaje się najgłośniejszy w subiektywnym odczuciu?

A. Ton o częstotliwości 40 Hz
B. Ton o częstotliwości 10000 Hz
C. Ton o częstotliwości 100 Hz
D. Ton o częstotliwości 4000 Hz
Ton o częstotliwości 4000 Hz jest subiektywnie najgłośniejszy z zaprezentowanych tonów z powodu charakterystyki ludzkiego słuchu. Zjawisko to jest związane z krzywą czułości słuchu, która pokazuje, że ludzkie ucho jest najbardziej wrażliwe na częstotliwości w zakresie 2000-5000 Hz. Wynika to z budowy anatomicznej ucha oraz mechanizmów przetwarzania dźwięku w systemie nerwowym. W praktyce oznacza to, że ton o częstotliwości 4000 Hz będzie postrzegany jako głośniejszy niż inne tony, mimo że wszystkie są emitowane z takim samym ciśnieniem akustycznym. W zastosowaniach takich jak akustyka wnętrz, projektowanie systemów audio czy przemyśle muzycznym, uwzględnienie tej specyfiki jest kluczowe. W standardach takich jak ISO 226 dotyczących krzywych czułości słuchu, uwzględnia się te różnice, co pozwala na lepszą kalibrację urządzeń nagłaśniających oraz projektowanie przestrzeni akustycznych, aby zapewnić optymalne warunki odsłuchowe.

Pytanie 38

Która z wymienionych częstotliwości próbkowania zapewnia największą dokładność przetwarzania dźwięku?

A. 48 kHz
B. 44,1 kHz
C. 192 kHz
D. 96 kHz
Częstotliwości próbkowania 44,1 kHz, 48 kHz oraz 96 kHz są powszechnie stosowane w branży audio, jednak nie dostarczają one tak wysokiej dokładności, jak 192 kHz. Na przykład, 44,1 kHz jest standardem dla płyt CD, co oznacza, że dźwięk jest próbkowany wystarczająco dobrze dla typowego słuchacza, lecz przy bardziej zaawansowanych zastosowaniach, takich jak nagrania studyjne, może nie wystarczyć. Użycie 48 kHz jest często praktykowane w filmie i telewizji, ale w kontekście wysokiej jakości dźwięku, nadal ustępuje 192 kHz. 96 kHz, choć lepsze, nadal nie osiąga pełni możliwości, jakie oferuje 192 kHz. Typowym błędem jest mylenie wystarczającej jakości z najwyższą jakością. Użytkownicy mogą zakładać, że 44,1 kHz i 48 kHz są dobre dla wszystkich zastosowań, jednak przy produkcjach wymagających detali, takich jak muzyka klasyczna, wyraźnie słychać ograniczenia. W rzeczywistości, wyższa częstotliwość próbkowania nie tylko pozwala na lepsze odwzorowanie dźwięku, ale także ułatwia edycję i miksowanie, co jest kluczowe w profesjonalnym świecie audio. W związku z tym, wybór odpowiedniej częstotliwości próbkowania powinien być uzależniony od konkretnych potrzeb projektu i jakości, jaką chcemy uzyskać.

Pytanie 39

Jak nazywa się rodzaj złącza używanego w profesjonalnych urządzeniach audio do przesyłania wielu kanałów cyfrowego dźwięku jednocześnie?

A. ADAT
B. RCA
C. TS
D. HDMI
ADAT, czyli Alesis Digital Audio Tape, to standard złącza używanego głównie w profesjonalnych systemach audio do przesyłania wielokanałowego dźwięku cyfrowego. ADAT pozwala na przesyłanie do ośmiu kanałów audio w jednym kablu optycznym, co czyni go idealnym rozwiązaniem w studiach nagraniowych, systemach live sound oraz w różnych zastosowaniach audio-wizualnych. Jego popularność wynika z prostoty użycia oraz wysokiej jakości dźwięku, co czyni go standardem w branży. Warto również zauważyć, że ADAT jest często wykorzystywany w połączeniu z interfejsami audio, mikserami i innymi urządzeniami, które obsługują wielokanałowe nagranie. W praktyce oznacza to, że możesz podłączyć wiele mikrofonów lub instrumentów do swojego systemu, co pozwala na elastyczne zarządzanie dźwiękiem. Standard ten został wprowadzony w latach 90-tych i zyskał uznanie ze względu na łatwość integracji z innymi systemami oraz zgodność z innymi formatami audio, co czyni go nadal aktualnym rozwiązaniem w branży.

Pytanie 40

Który parametr standaryzuje rozmieszczenie mikrofonów w technice stereofonicznej Blumlein?

A. Dwa mikrofony kardioidalne ustawione pod kątem 110°
B. Dwa mikrofony kardioidalne ustawione pod kątem 180°
C. Dwa mikrofony ósemkowe ustawione pod kątem 90°
D. Dwa mikrofony dookólne w odległości 20 cm
Nieprawidłowe odpowiedzi wskazują na pewne nieporozumienia związane z techniką nagrywania w stereo. Ustawienie dwóch mikrofonów kardioidalnych pod kątem 180° jest najczęściej stosowane w technice nagrywania z użyciem pary bliskiej, co nie jest zgodne z zasadą Blumleina. Mikrofony kardioidalne, które mają charakterystyczną kierunkowość, dobrze rejestrują dźwięk z przodu, ale nie są w stanie uchwycić pełnego obrazu dźwiękowego z pozostałych kierunków, co ogranicza ich przydatność w kontekście tej techniki. Ustawienie dwóch mikrofonów kardioidalnych pod kątem 110° również nie spełnia wymagań Blumleina, ponieważ nie zapewnia właściwego rozkładu dźwięku. Podobnie, umieszczanie mikrofonów dookólnych w odległości 20 cm nie jest efektywne z punktu widzenia uzyskania odpowiedniego stereofonicznego efektu. Mikrofony dookólne rejestrują dźwięk ze wszystkich kierunków, ale nie oferują precyzyjnej lokalizacji źródła dźwięku, co jest kluczowe w technice Blumleina. Warto zrozumieć, że techniki stereofoniczne mają swoje specyficzne zasady, a ignorowanie ich prowadzi do utraty jakości i realizmu nagrań. Ostatecznie, dla uzyskania najlepszych rezultatów w nagraniach stereofonicznych, warto zastosować technikę Blumleina i wykorzystywać odpowiednie mikrofony oraz ich ustawienie.