Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagłośnień
  • Kwalifikacja: AUD.07 - Realizacja nagłośnień
  • Data rozpoczęcia: 22 kwietnia 2026 19:35
  • Data zakończenia: 22 kwietnia 2026 19:50

Egzamin niezdany

Wynik: 19/40 punktów (47,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W którego rzędu filtrach występuje tłumienie sygnału wynoszące 24 dB na oktawę?

A. Pierwszego.
B. Czwartego.
C. Drugiego.
D. Trzeciego.
Wiele osób myli się przy ocenie tłumienia filtrów różnych rzędów, bo intuicyjnie wydaje się, że wystarczy jeden czy dwa stopnie, żeby uzyskać bardzo ostre odcięcie. To jednak nie działa tak prosto. Filtr pierwszego rzędu jest najprostszą konstrukcją i tłumi jedynie 6 dB na każdą oktawę, więc nie nadaje się do selektywnej filtracji w wymagających zastosowaniach – sygnały spoza pasma przechodzą zbyt łatwo. Drugi rząd daje już lepszy efekt, bo tłumienie wzrasta do 12 dB na oktawę, ale nadal w bardzo wielu aplikacjach to za mało – na przykład w systemach audio, gdzie chcemy odciąć częstotliwości poniżej słyszalnych albo odseparować kanały, taki spadek powoduje przenikanie zakłóceń. Filtr trzeciego rzędu poprawia sytuację, oferując 18 dB/okt, ale nadal nie jest to jeszcze to, co profesjonalne rozwiązania wymagają przy ostrych przejściach. Takie podejście, żeby próbować z niższym rzędem, często wynika z chęci uproszczenia układu lub braku doświadczenia z praktyczną charakterystyką filtrów. Standardem branżowym jest przyjmowanie, że każdy dodatkowy rząd dokłada kolejne 6 dB/okt tłumienia, więc tylko filtr czwartego rzędu daje równe 24 dB na oktawę – to znajduje zastosowanie zarówno w zwrotnicach głośnikowych, jak i bardziej zaawansowanych aplikacjach pomiarowych czy sterujących. Warto zapamiętać tę zależność, bo pomaga szybko dobrać odpowiedni filtr do danej sytuacji i uniknąć błędów przy projektowaniu układów elektronicznych czy cyfrowych systemów DSP.

Pytanie 2

Wbudowany w przedwzmacniacz mikrofonowy przetwornik A/D umożliwia

A. sterowanie przedwzmacniaczem z poziomu DAW.
B. bezpośrednie połączenie przedwzmacniacza z cyfrowym interfejsem karty dźwiękowej.
C. automatyzację poziomu wzmocnienia przedwzmacniacza.
D. synchronizację przedwzmacniacza z MIDI.
Wbudowany przetwornik A/D w przedwzmacniaczu mikrofonowym to naprawdę duże ułatwienie w dzisiejszych systemach audio. Chodzi o to, że taki przetwornik zamienia sygnał analogowy z mikrofonu na sygnał cyfrowy bezpośrednio na wyjściu przedwzmacniacza. Dzięki temu można taki przedwzmacniacz połączyć bezpośrednio z cyfrowym interfejsem karty dźwiękowej, bez konieczności prowadzenia dodatkowej konwersji czy przechodzenia przez kolejne analogowe urządzenia. Pozwala to na zachowanie wyższej jakości dźwięku, bo minimalizuje się ilość analogowych połączeń i zakłóceń, które mogą się pojawić na kablach czy w kolejnych urządzeniach w torze sygnałowym. Z mojego doświadczenia – to ogromne ułatwienie szczególnie tam, gdzie pracuje się na dłuższych dystansach albo chce się mieć pewność, że sygnał trafia do DAW czy systemu rejestrującego z możliwie najmniejszą ilością szumów czy zniekształceń. W branży audio coraz częściej spotyka się właśnie takie rozwiązania, bo pozwalają na lepszą integrację całego systemu, a także na prostsze zarządzanie routingiem sygnałów. W studiach nagraniowych czy podczas rejestracji koncertów to w zasadzie już standard. Każdy, kto miał okazję porównać klasyczne analogowe połączenia z nowoczesnym łańcuchem cyfrowym, szybko doceni różnicę – nie tylko w jakości, ale też w wygodzie użytkowania i stabilności sygnału. Tak naprawdę dzisiaj coraz więcej mikserów, interfejsów czy nawet systemów broadcastowych bazuje na bezpośrednim przesyle sygnału cyfrowego, właśnie dzięki temu, że przetworniki A/D są montowane zaraz przy źródle sygnału.

Pytanie 3

Najbardziej wrażliwy na zmiany temperatury i wahania wilgotności jest mikrofon

A. dynamiczny wstęgowy.
B. piezoelektryczny.
C. pojemnościowy.
D. dynamiczny cewkowy.
Pojemnościowe mikrofony uchodzą za bardzo precyzyjne i szeroko wykorzystywane w studiach nagrań, ale ich wrażliwość na temperaturę czy wilgoć wcale nie jest największa. Oczywiście, kondensator w środku może łapać ładunki przy dużej wilgotności, jednak zazwyczaj dobrze zaprojektowana elektronika i szczelna obudowa skutecznie temu przeciwdziała. Najczęściej to szumy własne i potrzeba zasilania phantom są ich głównym wyzwaniem, nie zaś bezpośrednie zmiany środowiskowe. Cewkowe mikrofony dynamiczne są wręcz synonimem odporności – prosta budowa (cewka, magnes, membrana), praktycznie „pancerne” w użytkowaniu. Można je upuścić na scenie, wystawić na słońce, a i tak zadziałają. To dlatego wokaliści estradowi i konferansjerzy tak je lubią. Z kolei wstęgowe, mimo, że bywają podatne na uszkodzenia mechaniczne (wstęga jest bardzo cienka), są nadal mniej czułe na zmiany pogody niż piezo. Ich główną wadą jest wrażliwość na podmuchy powietrza i drgania, nie sama wilgotność czy temperatura. Częsty błąd myślowy polega na tym, że utożsamia się wrażliwość akustyczną z wrażliwością na warunki atmosferyczne – to zupełnie inne rzeczy. Odporność na wilgoć i temperaturę najczęściej warunkuje rodzaj zastosowanego przetwornika, a nie precyzja czy zakres częstotliwości mikrofonu. W praktyce branżowej mikrofony piezoelektryczne są wręcz zalecane do pracy w kontrolowanych warunkach, a pozostali „zawodnicy” radzą sobie znacznie lepiej na scenie, ulicy czy w terenie. Stąd wybór pojemnościowego, dynamicznego czy nawet wstęgowego wynika raczej z preferencji brzmieniowych i wymogów aplikacji, a nie z troski o ich wytrzymałość na pogodę.

Pytanie 4

Który z wymienionych mikrofonów jest najbardziej narażony na uszkodzenie w przypadku użycia go na scenie w plenerze podczas wietrznej pogody?

A. Piezoelektryczny.
B. Dynamiczny cewkowy.
C. Dynamiczny wstęgowy.
D. Pojemnościowy.
Wybór mikrofonu do pracy na scenie plenerowej, zwłaszcza w trudnych warunkach pogodowych, wymaga rozumienia konstrukcji i ograniczeń różnych typów mikrofonów. Mikrofon dynamiczny cewkowy jest jedną z najtrwalszych opcji – jego membrana i cewka są odporne na podmuchy powietrza, wilgoć oraz przypadkowe uderzenia, dlatego właśnie ten typ spotka się najczęściej na koncertach czy ulicznych występach. Mikrofony piezoelektryczne działają na zupełnie innej zasadzie, wykorzystując drgania materiałów piezoelektrycznych, a nie falę dźwiękową przenoszoną przez powietrze. Rzadko występują w typowej pracy scenicznej – stosuje się je raczej do nagłaśniania instrumentów strunowych, np. gitar czy skrzypiec, i raczej nie są podatne na uszkodzenia przez wiatr. Mikrofony pojemnościowe, choć bardzo czułe i precyzyjne, są wyposażone w cienką membranę, ale większość nowoczesnych modeli posiada odpowiednie zabezpieczenia przed podmuchami, a ich główną wadą na scenie jest raczej podatność na wilgoć i szumy, nie sama trwałość fizyczna. Najczęstszy błąd to mylenie delikatności membrany pojemnościowej z unikatową słabością wstęgi w mikrofonach wstęgowych – ta ostatnia to naprawdę ekstremalnie cienka folia, której nawet lekki podmuch potrafi narobić szkód. W branży przyjmuje się zasadę, że mikrofony wstęgowe to sprzęt typowo studyjny i wymagają szczególnej troski, natomiast pozostałe typy poradzą sobie w trudniejszych warunkach – choć, jasne, zawsze warto stosować filtry przeciwwietrzne. Z mojego doświadczenia wynika, że bezpieczeństwo sprzętu nagraniowego zaczyna się od właściwej jego selekcji do warunków – i tu dynamiczny wstęgowy zdecydowanie odpada w plenerze podczas wiatru.

Pytanie 5

W mikserze audio, wyjście przeznaczone do rejestracji sygnału sumy na zewnętrznym urządzeniu nagrywającym to wyjście

A. z grup VCA
B. Rec Out
C. z wyjść Direct
D. z gniazd Insert
Wybór odpowiedzi dotyczących wyjść z grup VCA, gniazd Insert czy wyjść Direct wskazuje na pewne nieporozumienia dotyczące funkcji tych elementów w kontekście nagrywania. Wyjścia z grup VCA (Voltage Controlled Amplifier) są stosowane do kontrolowania poziomu głośności grup instrumentów, ale nie są przeznaczone do bezpośredniego nagrywania sygnału. Często używa się ich do miksowania, jednak nie są one odpowiednie do rejestrowania finalnego miksu. Gniazda Insert natomiast służą do wprowadzania efektów do sygnału, ale ich rola nie obejmuje zapisu sumy, a raczej manipulacji sygnałem w trakcie jego przetwarzania. Wyjścia Direct, choć mogą być użyteczne do nagrywania sygnałów z poszczególnych kanałów, nie oferują pełnego miksu, co czyni je niewłaściwym wyborem dla rejestracji całego miksu audio. Zrozumienie tych różnic jest kluczowe, aby uniknąć błędnego kierowania sygnałów w procesie nagrywania, co może prowadzić do utraty jakości dźwięku oraz nieefektywności w pracy w studiu nagraniowym. W praktyce, wybór niewłaściwego wyjścia do rejestracji może skutkować brakiem kontroli nad ostatecznym brzmieniem nagrania, co jest sprzeczne z zasadami profesjonalnego audio.

Pytanie 6

W jaki sposób można zmniejszyć ryzyko sprzężenia zwrotnego na scenie?

A. Poprzez odpowiednie ustawienie monitorów scenicznych
B. Dzięki zwiększeniu ilości używanych mikrofonów
C. Zwiększając czułość mikrofonów
D. Przez obniżenie poziomu wyjścia z konsolety
Podczas próby zmniejszenia ryzyka sprzężenia zwrotnego na scenie, istnieje kilka błędnych podejść, które mogą nie przynieść oczekiwanych rezultatów, a nawet pogorszyć sytuację. Zwiększanie czułości mikrofonów może prowadzić do większej podatności na sprzężenie zwrotne, ponieważ bardziej czuły mikrofon zbiera szerszy zakres dźwięków z otoczenia, w tym te z głośników, co zwiększa szansę na wystąpienie sprzężenia. Z kolei zwiększenie ilości używanych mikrofonów również nie jest dobrym rozwiązaniem. Więcej mikrofonów oznacza więcej potencjalnych punktów, w których dźwięk może być ponownie zbierany i wzmacniany, co zwiększa ryzyko sprzężenia. Redukcja poziomu wyjścia z konsolety wydaje się na pierwszy rzut oka sensowna, ale nie rozwiązuje problemu u źródła. Obniżenie poziomu wyjścia zmniejsza ogólną głośność, co może być niepożądane w kontekście występu na żywo, gdzie istotne jest zachowanie odpowiedniego poziomu energii i dynamiki. Właściwym podejściem jest kontrola kierunkowości dźwięku i odpowiednie ustawienie monitorów, by unikać niepożądanych sprzężeń, co jest zgodne z zaleceniami branżowymi i najlepszymi praktykami w realizacji nagłośnień.

Pytanie 7

Do zbadania charakterystyki częstotliwościowej zestawu głośnikowego należy użyć

A. omomierza.
B. analizatora widma.
C. amperomierza.
D. watomierza.
Wiele osób, które zaczynają swoją przygodę z audio, często myli podstawowe przyrządy pomiarowe, przez co wybierają takie urządzenia jak omomierz, watomierz czy amperomierz do zadań, do których w zasadzie kompletnie się nie nadają. Sprawdzenie charakterystyki częstotliwościowej zestawu głośnikowego wymaga bowiem analizy, jak głośnik reaguje na różne częstotliwości, czyli inaczej: jak zmienia się poziom wyjściowy w funkcji częstotliwości sygnału. Omomierz służy tylko do pomiaru rezystancji – najczęściej wykorzystywany jest do sprawdzania, czy cewka głośnika jest cała albo czy przewody mają przerwę. Watomierz z kolei mierzy moc, ale nie powie nam nic o przebiegu charakterystyki – jego wskazania są uśrednione i nie uwzględniają, jak zestaw radzi sobie z różnymi częstotliwościami, tylko sumują całość. Amperomierz natomiast przyda się wyłącznie do pomiaru prądu w danym momencie i nie daje żadnej informacji o paśmie przenoszenia czy sprawności w zakresie dźwięku. W praktyce takie podejście to jeden z częstszych błędów myślowych – zamiana pojęć i stosowanie urządzeń niezgodnie z ich przeznaczeniem. Najczęściej wynika to z niewiedzy lub braku doświadczenia, bo przecież każdy miernik mierzy „coś”, więc wydaje się, że dowolny nada się do wszystkiego. W branży audio jednak precyzja i odpowiedni dobór narzędzi to podstawa – pomiar charakterystyki częstotliwościowej bez analizatora widma jest w zasadzie niemożliwy, a wszelkie próby z innymi miernikami prowadzą do bardzo niedokładnych i często bezużytecznych rezultatów. Dlatego też zaleca się korzystanie zawsze z urządzeń dedykowanych do danego typu pomiaru, zgodnie z zasadami inżynierskimi i dobrymi praktykami branżowymi.

Pytanie 8

Który z parametrów odpowiada za ilość słyszalnych powtórzeń dźwięku w efekcie DELAY?

A. Time
B. Damp
C. Feedback
D. Ping Pong
Parametr Feedback w efektach typu delay rzeczywiście odpowiada za ilość słyszalnych powtórzeń sygnału. W praktyce, zwiększając wartość feedbacku, sygnał wychodzący z linii opóźniającej jest ponownie zawracany na jej wejście, co prowadzi do wielokrotnego odtwarzania (czyli echa). Im większy feedback, tym więcej powtórzeń i dłuższe wybrzmiewanie efektu. Z mojego doświadczenia wynika, że podczas miksów live i w studiu bardzo często manipuluję właśnie tym parametrem, chcąc uzyskać subtelny ambience albo bardzo wyraźne, efektowne echo, które praktycznie się nie kończy. Producenci sprzętu i wtyczek najczęściej też opisują feedback jako klucz do ilości odbić – to taki podstawowy kontroler „gęstości” efektu delay. Warto też pamiętać, że przesadzenie z feedbackiem może prowadzić do sprzężeń i niekontrolowanego narastania poziomu sygnału, dlatego według dobrych praktyk zawsze należy uważać, by nie ustawiać go zbyt wysoko bez potrzeby. W wielu nowoczesnych delayach feedback pozwala także na kreatywne eksperymenty, np. automatyczne modulacje czy samonakręcające się efekty dźwiękowe, co jest bardzo popularne choćby w muzyce elektronicznej. Moim zdaniem świadomość pracy z tym parametrem to absolutna podstawa dla każdego, kto chce świadomie wykorzystywać efekty typu delay w miksie i produkcji muzycznej.

Pytanie 9

AES/EBU to standard połączenia urządzeń elektroakustycznych wykorzystujący transmisję

A. optyczną.
B. bezprzewodową.
C. analogową.
D. cyfrową.
AES/EBU bywa czasem mylony z innymi technologiami transmisji, dlatego nietrudno pomylić go z rozwiązaniami optycznymi lub analogowymi. W praktyce jednak, AES/EBU to standard czysto cyfrowy. Transmisja optyczna – jak na przykład Toslink – rzeczywiście też służy do przesyłania cyfrowego audio, ale jest oparta na światłowodach, nie na typowych przewodach elektrycznych. AES/EBU działa głównie na symetrycznych kablach XLR i mimo że jest cyfrowy, nie ma nic wspólnego z transmisją światłem. Jeśli chodzi o sygnały analogowe, to tu mówimy o zupełnie innym świecie: analog to prąd elektryczny, który odwzorowuje przebieg fali dźwiękowej, a nie zera i jedynki. To właśnie analogowe połączenia XLR czy jack były popularne przez dekady, ale nie mają tych wszystkich zalet cyfrowego przesyłu, jak odporność na zakłócenia czy brak degradacji sygnału. Bezprzewodowe transmisje to z kolei osobny temat – tam używa się technologii radiowych, Bluetooth lub Wi-Fi, tak zupełnie poza tym, co daje nam AES/EBU. Z mojego doświadczenia zauważyłem, że wiele osób automatycznie zakłada, że skoro coś jest na XLR, to musi być analogowe, a to nie do końca prawda, bo AES/EBU idzie po tych samych złączach, ale niesie zupełnie inny, cyfrowy sygnał. Trzeba też uważać, by nie mylić zastosowania AES/EBU z bardziej popularnymi domowymi interfejsami typu S/PDIF czy optycznymi Toslink – mimo że wszystkie są cyfrowe, różnią się standardem transmisji oraz przeznaczeniem. Podsumowując, jedynie transmisja cyfrowa odpowiada właściwościom AES/EBU i tylko w tym kontekście jest to prawidłowe skojarzenie.

Pytanie 10

Na rysunku przedstawiono schemat rozmieszczenia elementów nagłośnienia frontowego. O jaki przybliżony czas należy opóźnić nagłośnienie strefowe oznaczone na rysunku literą B, aby uzyskać jego zgodność czasową z nagłośnieniem frontowym?

Ilustracja do pytania
A. 300 ms
B. 175 ms
C. 120 ms
D. 225 ms
W przypadku nagłośnienia strefowego bardzo łatwo popełnić błąd przy ustawianiu opóźnień czasowych, zwłaszcza jeśli nie uwzględni się podstawowych zasad propagacji dźwięku. Prędkość dźwięku w powietrzu wynosi około 343 m/s przy temperaturze 20°C, a każda różnica w odległości między źródłami skutkuje zauważalnym przesunięciem czasowym. Przy odległości 60 metrów dzielącej system frontowy od strefy B, czas dotarcia sygnału wynosi w przybliżeniu 175 ms, co wynika z prostego równania: czas = droga/prędkość. Ustawienie opóźnienia na poziomie 120 ms oznaczałoby, że system strefowy B wciąż odtwarzałby dźwięk o około 16 metrów „za wcześnie”, co prowadziłoby do nieprzyjemnego wrażenia echa i rozmycia dźwięku w dalszej części sali – typowy błąd to niedoszacowanie dystansu lub nadmierne uproszczenie obliczeń. Z kolei wartości 225 ms i 300 ms znacznie przekraczają wymagane opóźnienie. Tak duże przesunięcia powodują, że sygnał z nagłośnienia strefowego B dociera z wyraźnym opóźnieniem względem sygnału z frontu, a odbiorcy w tej strefie mogą doświadczać poważnych zakłóceń fazowych, pogorszenia zrozumiałości mowy czy wręcz słyszalnej „powtórki” tego samego fragmentu materiału audio. To typowy efekt, gdy ktoś mechanicznie wpisze wartość bez przeliczenia metrow na milisekundy lub nie sprawdzi warunków akustycznych na miejscu. Praktycy elektroakustyki oraz standardy branżowe (np. wytyczne AES czy EASE) podkreślają wagę prawidłowego doboru opóźnienia, dostosowanego dokładnie do realnego dystansu pomiędzy poszczególnymi źródłami dźwięku. Zaniedbanie tej kwestii skutkuje nie tylko spadkiem komfortu słuchaczy, ale także sporymi problemami w odbiorze przekazu – szczególnie na koncertach, wydarzeniach publicznych czy w dużych obiektach. Moim zdaniem, najlepszą praktyką jest każdorazowe przeliczanie i kalibracja opóźnienia na miejscu, z uwzględnieniem aktualnych warunków (temperatura, wilgotność itd.). To podejście minimalizuje ryzyko błędów i zapewnia profesjonalny efekt końcowy.

Pytanie 11

Głośnik, którego zasada działania opiera się na drganiu połączonej z membraną cewki w szczelinie magnesu stałego, należy do przetworników

A. elektrostatycznych.
B. piezoelektrycznych.
C. ortodynamicznych.
D. dynamicznych.
To właśnie głośniki dynamiczne działają w ten sposób – ich podstawą jest cewka zanurzona w szczelinie magnesu stałego, która pod wpływem prądu zaczyna się poruszać i wprawia membranę w drgania. Takie rozwiązanie jest chyba najbardziej rozpowszechnione w sprzęcie audio – od głośników komputerowych, przez kolumny estradowe, aż po proste radyjka czy słuchawki. Z mojego doświadczenia wynika, że konstrukcje dynamiczne są po prostu najbardziej uniwersalne i trwałe, a do tego dosyć łatwe w produkcji. Branża audio od lat stawia je na piedestale, bo zapewniają wysoką sprawność i niezłą jakość dźwięku, przy rozsądnych kosztach. Praktycznie wszystkie profesjonalne nagłośnienia estradowe czy kina domowe bazują na tej technologii. Co ciekawe, dynamiczna zasada działania pozwala na budowanie bardzo dużych lub bardzo małych przetworników, co daje producentom dużą swobodę projektową. Warto jeszcze dodać, że według standardów branżowych głośniki dynamiczne najlepiej sprawdzają się tam, gdzie potrzeba solidnego basu, bo membrana może generować spore wychylenia. Jeżeli ktoś poważnie myśli o elektronice audio, to zdecydowanie powinien rozumieć dokładnie ten mechanizm.

Pytanie 12

Tłumienie sygnału przez filtr n-tego rzędu wynosi

A. n*6 dB na oktawę.
B. n*2 dB na oktawę.
C. n*4 dB na oktawę.
D. n*12 dB na oktawę.
Tłumienie sygnału przez filtr n-tego rzędu wynoszące n*6 dB na oktawę to zasada, którą bardzo często spotyka się w praktyce, zwłaszcza w projektowaniu filtrów elektronicznych i akustycznych. Każdy rząd filtra, czyli każda dodatkowa para biegunów w układzie, powoduje spadek nachylenia charakterystyki tłumienia o dokładnie 6 dB na oktawę (czyli podwajanie częstotliwości powoduje spadek o 6 dB). Oznacza to, że filtr pierwszego rzędu tłumi o 6 dB na oktawę, drugiego rzędu o 12 dB na oktawę i tak dalej. Dobrze to widać na charakterystykach filtrów dolnoprzepustowych RC czy aktywnych układów Sallen-Key, gdzie kolejne stopnie kumulują efekt tłumienia. W praktyce, projektując zwrotnice głośnikowe czy filtry antyaliasingowe, to właśnie ta zasada pozwala dobrze przewidzieć skuteczność filtracji. Warto też wiedzieć, że standardy branżowe, np. IEC czy normy dotyczące sprzętu audio, uwzględniają to nachylenie podczas określania wymagań dla filtrów. Moim zdaniem, dobrze rozumieć tę zasadę, bo pozwala ona szybko oszacować, jak bardzo sygnał zostanie przytłumiony poza pasmem przepustowym, bez konieczności zaglądania w złożone wykresy. Takie podejście przydaje się nie tylko w elektronice, ale i w przemyśle muzycznym, gdzie dobiera się filtry pod konkretne potrzeby, np. eliminowanie zakłóceń czy kształtowanie brzmienia. Generalnie, to taki mały techniczny „trik”, który naprawdę się przydaje w praktycznych projektach.

Pytanie 13

Kontrolka CLIP w torze konsolety mikserskiej służy do wizualnego informowania

A. o przekroczeniu maksymalnego poziomu sygnału.
B. o włączonym przekierowaniu kanału do wyjścia <b>LINE OUT</b>.
C. o wyciszeniu danego toru.
D. o pracy danego toru w trybie <b>SOLO</b>.
W pracy z konsoletą mikserską łatwo pomylić różne kontrolki i ich funkcje, bo rzeczywiście jest ich sporo i każda ma swoje konkretne zadanie. Kontrolka CLIP nie informuje jednak ani o wyciszeniu toru, ani o pracy w trybie SOLO, ani o przekierowaniu sygnału do wyjścia LINE OUT. Z mojego punktu widzenia, najczęstszy błąd wynika właśnie z utożsamiania różnych diod sygnalizacyjnych – na przykład „MUTE” oznacza wyciszenie, i wtedy faktycznie na niektórych konsoletach świeci się specjalna lampka, ale to zupełnie co innego niż CLIP. Tryb SOLO z kolei pozwala odsłuchać pojedynczy kanał osobno, i do tego też jest własna kontrolka, najczęściej podpisana jako „SOLO” albo „PFL”, czasem nawet świeci na inny kolor niż CLIP. Przekierowanie do wyjścia LINE OUT to jeszcze inny obszar – zwykle to jest ustawiane przełącznikiem, a nie ma do tego uniwersalnej kontrolki, bo wszystko zależy od modelu konsolety. Biorąc pod uwagę standardy branżowe, CLIP zawsze dotyczy poziomu sygnału – jej zapalenie sygnalizuje, że tor jest przesterowany i należy natychmiast zareagować, np. skręcając gain. Typowym błędem jest myślenie, że CLIP to po prostu informacja o jakiejkolwiek aktywności w torze – to nieprawda i może prowadzić do poważnych problemów z jakością dźwięku, jeśli ktoś zignoruje prawdziwą funkcję tej kontrolki. Z mojego doświadczenia wynika, że świadomość tych różnic naprawdę ułatwia życie i pozwala uniknąć stresu podczas nagrań czy koncertów. Prawidłowe rozpoznanie wszystkich kontrolek to podstawa bezpieczeństwa pracy z dźwiękiem i pewność, że miks nie zostanie zniszczony przez niepotrzebne przesterowanie czy przypadkowe wyciszenie toru.

Pytanie 14

Którą sekcję konsoli mikserskiej przedstawia fragment zamieszczony na fotografii?

Ilustracja do pytania
A. Toru AUX.
B. Korekcji charakterystyki częstotliwościowej.
C. Przedwzmacniacza mikrofonowego.
D. Kompresji dynamiki.
To jest właśnie sekcja korekcji charakterystyki częstotliwościowej, popularnie nazywana EQ (equalizer) w konsoletach mikserskich. W praktyce to tutaj inżynier dźwięku może dostosować brzmienie sygnału – podbić lub stłumić wybrane zakresy częstotliwości, żeby uzyskać pożądany efekt w miksie. Na przykład, jeśli wokal wydaje się zbyt „syczący”, można przyciąć wysokie częstotliwości, a jeśli gitarze brakuje ciepła, podbić lekko środek. Większość profesjonalnych konsol ma w tej sekcji pokrętła opisane jako LOW, MID, HIGH, a czasem jeszcze dodatkowe, jak Q czy częstotliwość, które pozwalają precyzyjnie dobrać pasmo. To narzędzie jest absolutnie kluczowe w codziennej pracy realizatora – nie znam nikogo, kto by miksował na czysto, bez ruszania EQ. W dobrych praktykach studyjnych zaleca się zaczynać od delikatnych zmian, bo zbyt agresywna korekcja może zniszczyć naturalność instrumentu. Moim zdaniem dobre opanowanie tej sekcji daje przewagę nad osobami, które 'kręcą na czuja' – bo tu liczy się nie tylko słuch, ale też rozumienie, jak dane częstotliwości wpływają na całość miksu. Warto poeksperymentować na żywo – od razu słychać, jak bardzo zmienia się charakter brzmienia po lekkim podbiciu lub przycięciu wybranego pasma.

Pytanie 15

Monitory SIDE FILL należy ustawiać

A. z boku sceny, w kierunku widowni.
B. z boku sceny, w kierunku muzyków.
C. pod sceną, w kierunku muzyków.
D. z przodu sceny, w kierunku widowni.
Bardzo często początkujący technicy dźwięku mylą przeznaczenie monitorów SIDE FILL z systemami frontowymi lub klasycznymi monitorami podłogowymi. Ustawienie monitorów SIDE FILL pod sceną, skierowanych w stronę muzyków, nie ma większego sensu, bo wtedy ich działanie dublowałoby klasyczne monitory wedge. W praktyce nie uzyskamy w ten sposób szerokiego, równomiernego pokrycia dźwiękiem po bokach sceny, co jest kluczowe zwłaszcza przy większych składach i dużej szerokości podestu. Z kolei ustawienie SIDE FILLi z boku sceny, ale skierowanych w stronę widowni, jest dość poważnym błędem – takie rozwiązanie prowadzi tylko do dodatkowych odbić i rozmycia miksu na froncie, przez co publiczność słyszy powielony albo zniekształcony sygnał, a muzycy nie mają żadnej korzyści. To niestety typowe nieporozumienie wynikające z braku rozróżnienia pomiędzy nagłośnieniem frontowym a monitorowym. Jeszcze mniej sensowne jest ustawianie monitorów z przodu sceny skierowanych na widownię – to już nie są SIDE FILLe, tylko po prostu głośniki frontowe, czyli system PA. Często wynika to z błędnego przekonania, że SIDE FILL ma wspierać dźwięk na widowni. W rzeczywistości ich głównym zadaniem jest wspomóc muzyków, którzy stoją z dala od klasycznych monitorów. Branżowa praktyka mówi jasno – SIDE FILLe ustawia się z boku sceny i kieruje w stronę muzyków, by zapewnić im komfortowe warunki odsłuchowe. Wszystkie inne konfiguracje prowadzą do strat jakościowych, niepotrzebnych sprzężeń czy wręcz nieporozumień na linii technika–artysta. Sam widzę, że to się często powtarza na mniejszych koncertach z braku doświadczenia, ale profesjonalna realizacja wymaga jasnego rozróżnienia celów poszczególnych systemów na scenie.

Pytanie 16

Aby prawidłowo podłączyć gitarę basową do wejścia mikrofonowego miksera umiejscowionego 40 metrów od sceny, należy zastosować

A. dodatkowy mikser audio
B. splitter mikrofonowy
C. długi kabel TRS - TRS
D. Di-Box
Podczas podłączania gitary basowej do miksera mikrofonowego na dużą odległość, jak 40 metrów, należy unikać pomysłów, które nie uwzględniają specyfiki sygnału audio i jego wymagań. Dodatkowy mikser foniczny, pomimo że może być użyty do miksowania różnych źródeł dźwięku, nie rozwiązuje problemu związane z przesyłaniem sygnału na dużą odległość, a wręcz może wprowadzić dodatkowe opóźnienia i szumy. Splitter mikrofonowy, choć przydatny w niektórych sytuacjach, również nie jest odpowiednim rozwiązaniem, ponieważ nie izoluje sygnału i nie konwertuje go na niższy poziom impedancji. Wybór długiego przewodu TRS - TRS może wydawać się rozsądny, jednak nie uwzględnia on problemu strat sygnału na dużych odległościach, co jest istotne w przypadku instrumentów elektrycznych. Stosowanie przewodów o dużych długościach bez odpowiednich urządzeń, takich jak Di-Box, prowadzi do pogorszenia jakości dźwięku. W kontekście standardów branżowych, takie podejście nie jest zalecane i może prowadzić do niezadowolenia z jakości audio podczas występów na żywo.

Pytanie 17

Która z funkcji dostępnych w cyfrowej konsolecie mikserskiej standardowo umożliwia zmiany ustawień wybranego toru sygnałowego?

A. INV
B. REC
C. SEL
D. OFF
Wybranie funkcji SEL na cyfrowej konsolecie mikserskiej to w zasadzie pierwszy krok, jeśli chcesz mieć szybki dostęp do ustawień wybranego toru sygnałowego. SEL, czyli z angielskiego 'Select', pozwala na aktywację danego kanału – wtedy wszystkie potencjometry, enkodery czy wyświetlacze na konsolecie odnoszą się właśnie do tego konkretnego toru. To bardzo praktyczna opcja, bo na współczesnych cyfrowych mikserach nie masz fizycznych gałek do każdego parametru każdego kanału – musisz wybrać, z którym torem aktualnie pracujesz. Moim zdaniem, bez tej funkcji nie dałoby się szybko sprawnie miksować koncertu czy prowadzić skomplikowanej sesji nagraniowej. Przykładowo, jeśli na scenie nagle wokalista prosi o zmianę barwy czy głośności mikrofonu, wystarczy nacisnąć SEL przy jego kanale, a potem pokręcić odpowiednim enkoderem bądź faderem. Standardy branżowe, np. te stosowane przez firmy jak Yamaha czy Behringer, przewidują właśnie takie rozwiązanie – SEL jako podstawowy sposób nawigacji po kanałach. Dobrą praktyką jest też zawsze sprawdzić, czy przypadkiem nie zmieniasz ustawień na złym torze, bo nieumyślne kliknięcie SEL może namieszać w miksie. Jeśli chodzi o workflow, to już na etapie konfiguracji sesji warto zapamiętać układ SEL i wyrobić sobie nawyk jego używania, bo to oszczędza mnóstwo czasu i nerwów.

Pytanie 18

Które z wymienionych oznaczeń dotyczy gniazda w konsolecie mikserskiej służącego standardowo do przyjęcia sygnału wychodzącego z zewnętrznego procesora FX?

A. REC
B. MAIN
C. RETURN
D. SEND
W praktyce pracy z konsoletą mikserską często pojawia się nieporozumienie dotyczące oznaczeń gniazd. REC, czyli „record”, to wyjście, przez które sygnał z miksu trafia na rejestrator czy inny sprzęt nagrywający – używamy go najczęściej do archiwizacji nagrania lub transmisji. Nie jest to wejście, tylko wyjście, więc nie nadaje się do powrotu sygnału z efektora FX. Z kolei MAIN (albo MAIN OUT) odpowiada za sumę stereo, czyli finalny miks trafiający do wzmacniaczy lub systemu nagłośnienia – tutaj sygnał zdecydowanie nie wraca z zewnętrznego urządzenia efektowego, tylko wychodzi na świat. SEND natomiast wygląda już pozornie lepiej, bo faktycznie służy do „wysyłania” sygnału do efektora lub monitora. Typowym błędem jest jednak założenie, że to właśnie SEND służy do przyjmowania sygnału po obróbce, co jest odwrotnością prawidłowego przepływu sygnału – SEND to wyjście, RETURN to wejście z powrotem. Wśród początkujących często widzę, że mylą te gniazda, przez co podłączają efekty nie tak jak trzeba i potem są zdziwieni, że nie ma efektu lub sygnał robi się bardzo słaby. Najlepiej zawsze patrzeć na logikę toru sygnałowego: SEND wysyła, RETURN odbiera z powrotem. Przy odpowiedniej organizacji pracy gniazda RETURN mają zwykle zdefiniowany gain, przez co nie trzeba rozkręcać dodatkowych kanałów tylko po to, by zmieszać efekt z sumą. Mylenie tych wejść i wyjść prowadzi do typowych problemów – np. braku efektu w miksie lub niepotrzebnej pętli sygnałowej. Oznaczenia te są powszechnie przyjęte na całym świecie, zarówno w sprzęcie analogowym, jak i cyfrowym. Z mojego doświadczenia to zawsze warto dwa razy sprawdzić, gdzie co idzie, bo jeden zły kabel i wszystko się sypie.

Pytanie 19

Do nagłośnienia zestawu perkusyjnego zaplanowano zastosować 8 mikrofonów. Ile statywów mikrofonowych należy użyć do zamocowania mikrofonów, jeżeli 3 mikrofony zamocowane będą za pomocą uchwytów na obręczach bębnów, a para mikrofonów overhead zamocowana będzie na poprzeczce umożliwiającej nagłośnienie z zastosowaniem techniki AB?

A. 4 statywy mikrofonowe.
B. 7 statywów mikrofonowych.
C. 6 statywów mikrofonowych.
D. 5 statywów mikrofonowych.
Przy planowaniu nagłośnienia perkusji łatwo się pomylić w liczeniu statywów, szczególnie jeśli nie wziąć pod uwagę wszystkich możliwości montażu mikrofonów. Często błędnie zakłada się, że każdy mikrofon automatycznie potrzebuje osobnego statywu, co prowadzi do przeszacowania i niepotrzebnego zagracenia przestrzeni sceniczej. W rzeczywistości na bębnach stosuje się specjalne uchwyty clip-on, które pozwalają zamocować mikrofon bez konieczności użycia statywu. Taki montaż jest nie tylko wygodny, ale też stabilny i zgodny z praktyką sceniczną oraz studyjną. Kolejnym źródłem błędu jest para mikrofonów overhead – wiele osób zakłada, że każdy overhead musi stać na osobnym statywie, tymczasem standardem profesjonalnym stało się montowanie ich na wspólnej poprzeczce, co wymaga wyłącznie jednego statywu i zapewnia stabilność oraz właściwą odległość między mikrofonami w technice AB. Z mojego doświadczenia wynika, że najczęstszy błąd polega na nieuwzględnieniu tego typu rozwiązań technicznych, przez co liczba statywów jest zawyżana (np. do pięciu, sześciu lub nawet siedmiu). Taka nadmiarowość potrafi mocno utrudnić pracę na scenie, a także zaburzyć aranżację przestrzeni dla muzyków. Branżowe dobre praktyki zawsze sugerują minimalizowanie liczby statywów, kiedy tylko jest to możliwe, wykorzystując dedykowane uchwyty i akcesoria. To kwestia zarówno ergonomii, jak i bezpieczeństwa podczas występów — a dodatkowo pozwala zaoszczędzić czas przy rozstawianiu sprzętu.

Pytanie 20

Aby w konsolce mikserskiej, skorygować charakterystykę częstotliwości indywidualnego monitora muzyka (typu wedge), należy podłączyć korektor graficzny do

A. Direct Out
B. Aux Pre Fader
C. Record Out
D. Main Out
Dokładnie tak, korektor graficzny powinno się podłączać do wyjścia Aux Pre Fader w celu korygowania charakterystyki częstotliwości indywidualnego monitora typu wedge. To rozwiązanie jest standardem w branży estradowej i studyjnej, bo sygnał z Aux Pre Fader pozwala uzyskać osobny miks monitorowy, niezależny od tego, co leci na front (Main Out). Dzięki temu każdy muzyk na scenie może dostać dokładnie taki miks, jakiego potrzebuje. Korektor graficzny wpinamy właśnie w tor sygnałowy danego auxa, żeby zredukować sprzężenia czy wyciąć problematyczne częstotliwości – szczególnie przy głośnych monitorach podłogowych. Dobrze skonfigurowany tor monitorowy z eq na auxie pozwala muzykom grać komfortowo nawet w trudnych warunkach akustycznych. Osobiście uważam, że kto raz spróbował sterować eq na aux pre fader zamiast kombinować na sumie, szybko zrozumie różnicę – mamy pełną kontrolę, a FOH zostaje czysty. Warto też pamiętać, że dobry realizator zawsze stara się oddzielać tor monitorowy od frontowego, żeby nie było konfliktów przy korekcji – to właśnie jedna z podstawowych zasad profesjonalnej realizacji dźwięku. Dobrze jest też testować różne ustawienia korektora podczas prób, bo każde pomieszczenie brzmi trochę inaczej.

Pytanie 21

Obecność publiczności na sali koncertowej nie wpływa

A. na czas pogłosu.
B. na wielkość obrazu dźwiękowego.
C. na poziom hałasu.
D. na tłumienie wysokich częstotliwości.
Zagadnienie wpływu obecności publiczności na akustykę sali koncertowej potrafi być mylące, bo wiele osób intuicyjnie łączy różne zjawiska akustyczne ze wszystkimi aspektami dźwięku. Jednakże obecność ludzi w sali przede wszystkim wpływa na takie parametry jak czas pogłosu, poziom hałasu oraz tłumienie wysokich częstotliwości. Ludzie i ich ubrania pochłaniają dźwięk, zwłaszcza w zakresie wysokich tonów, co prowadzi do skrócenia czasu pogłosu – to doskonale widać podczas prób dźwięku w pustych salach, kiedy wszystko wydaje się bardziej „dzwonić”, a po wejściu publiczności pogłos wyraźnie się skraca. Dodatkowo, wypełnienie sali generuje szum tła, bo sami słuchacze szeleszczą, rozmawiają, kaszlą czy przemieszczają się, co podwyższa poziom hałasu i wpływa na komfort odbioru. Tłumienie wysokich częstotliwości także rośnie, bo materiały organiczne (włókna ubrań, włosy) są znacznie lepsze w ich pochłanianiu niż twarde powierzchnie pustej sali. Natomiast wielkość obrazu dźwiękowego, czyli przestrzenna percepcja źródeł dźwięku, praktycznie nie zmienia się pod wpływem publiczności – zależy ona głównie od rozplanowania sceny, systemu nagłośnienia i architektury wnętrza. Myślę, że nieporozumienia wynikają z tego, że wiele osób wrzuca wszystkie zjawiska akustyczne do jednego worka, nie rozróżniając co wynika z odbiorcy, a co z przestrzeni. W praktyce, podczas projektowania sal koncertowych czy wydarzeń muzycznych, to właśnie te różnice mają kluczowe znaczenie – stąd precyzyjne pomiary i testy akustyczne wykonuje się także przy różnym zapełnieniu sali, ale nigdy nie po to, by zmienić obraz dźwiękowy, tylko raczej by skorygować pogłos, hałas lub odbicia wysokich tonów. To taki typowy błąd myślenia, że wszystko zależy od publiczności – a jednak sporo parametrów pozostaje niezmiennych bez względu na liczbę słuchaczy.

Pytanie 22

Co oznacza skrót FOH w języku angielskim?

A. linia basowa
B. główne nagłośnienie dla widowni
C. linie monitorowe na scenie
D. linie opóźnienia
Skrót FOH (Front of House) odnosi się do głównego nagłośnienia skierowanego w stronę widowni w kontekście produkcji audio, w tym koncertów i wydarzeń na żywo. Główne nagłośnienie widowni jest kluczowe, ponieważ zapewnia, że dźwięk dociera do publiczności w sposób klarowny i równomierny. W skład systemu FOH wchodzą głośniki, wzmacniacze oraz miksery, które są odpowiedzialne za miksowanie dźwięku i jego dystrybucję w przestrzeni. W praktyce, technicy dźwięku muszą brać pod uwagę różne czynniki, takie jak akustyka pomieszczenia, odległość od źródła dźwięku oraz poziom ciśnienia akustycznego. Dobre praktyki wymagają, aby dźwięk był wyważony, aby każdy widz, niezależnie od miejsca w sali, mógł cieszyć się równym i czystym dźwiękiem. Współczesne systemy nagłośnienia FOH często korzystają z technologii cyfrowych, które umożliwiają bardziej precyzyjne dostosowanie dźwięku do potrzeb danej przestrzeni.

Pytanie 23

W którym z wymienionych miejsc standardowo umieszczane jest stanowisko realizatora MON, podczas plenerowego koncertu?

A. Bezpośrednio przed sceną, poza widownią.
B. Na widowni w osi przed sceną.
C. Z tyłu sceny, poza nią.
D. Z boku sceny.
Wiele osób sądzi, że stanowisko realizatora monitorowego powinno znajdować się na widowni albo nawet bezpośrednio przed sceną, bo tam przecież łatwiej ocenić ogólne brzmienie. To jednak typowy błąd wynikający z mylenia funkcji realizatora frontowego (FOH) z realizatorem MON. Ten pierwszy faktycznie pracuje w osi widowni, by mieć optymalny pogląd na to, jak odbierają dźwięk słuchacze. Realizator odsłuchów natomiast musi być blisko muzyków, bo zarządza tylko tym, co słychać na scenie – nie interesuje go dźwięk dla publiczności. Gdyby stanowisko MON było za sceną lub przed sceną, poza widownią, pojawia się problem z natychmiastową komunikacją; kontakt wzrokowy i słuchowy z artystami byłby utrudniony, co przy dynamicznych zmianach na scenie może prowadzić do poważnych wpadek technicznych. Ustawienie z tyłu sceny też nie zdaje egzaminu – często tam w ogóle nie słychać tego, czego potrzebują wykonawcy. Z boku sceny natomiast realizator może błyskawicznie zareagować na sygnały czy prośby (gesty, mimika), przejąć mikrofon talkback lub udzielić wsparcia technicznego. Bezpośredni dostęp do wejść i wyjść monitorowych, okablowania i sprzętu ułatwia diagnostykę usterek i poprawki w czasie rzeczywistym. Moim zdaniem, brak świadomości tych praktycznych aspektów bywa najczęściej przyczyną źle lokowanych stanowisk monitorowych – w efekcie odsłuchy nie spełniają oczekiwań muzyków, a cała realizacja traci na profesjonalizmie. Branża od lat kładzie nacisk, by MON był zawsze z boku sceny, co jest standardem w riderach technicznych i zaleceniach producentów dużych wydarzeń. Takie rozwiązanie zapewnia bezpieczeństwo, wygodę pracy, no i realnie podnosi poziom obsługi technicznej imprezy.

Pytanie 24

Aby wysłać sygnał z toru konsolety mikserskiej na efekt równoległy, należy użyć potencjometru o oznaczeniu

A. BALANCE
B. SEND
C. AUX RETURN
D. PAN
Potencjometr oznaczony jako SEND to właśnie to, czego szukasz, jeśli chcesz wysłać sygnał z pojedynczego toru konsolety mikserskiej na zewnętrzne urządzenie efektowe – na przykład reverb albo delay. SEND-y, często opisane też jako AUX SEND, są standardem w każdej poważniejszej konsolecie – analogowej i cyfrowej. To takie 'kierownice' do równoległego toru efektów: sygnał z kanału zostaje dzięki nim przekierowany na wyjście AUX, bez odcinania go od głównej sumy. W praktyce – używając SEND-ów, możesz miksować ilość efektu oddzielnie na każdym kanale, co daje ogromną kontrolę nad brzmieniem. Z mojego doświadczenia, to podstawa przy miksach na żywo i w studiu, bo pozwala np. kilku wokalistom śpiewać przez ten sam reverb, ale każdy dostaje swoją ilość efektu – bardzo wygodne. Warto też wiedzieć, że profesjonalne miksery mają różne rodzaje SEND-ów – pre-faderowe i post-faderowe – które decydują, czy poziom efektu zależy od ustawienia głównego tłumika. To rozwiązanie jest po prostu uniwersalne i zgodne z technologicznymi standardami branży audio. Niektórzy początkujący mylą SEND z RETURN, ale to dwa różne światy: SEND wysyła sygnał, RETURN go odbiera. Kręcenie potencjometrem SEND to podstawowa praktyka dla realizatora dźwięku, serio – bez tego ani rusz!

Pytanie 25

Procesor służący do wprowadzania opóźnień w sygnale fonicznym nosi nazwę

A. delay.
B. noise gate.
C. pitch shift.
D. declicker.
Procesor typu delay to jeden z fundamentów pracy z dźwiękiem – zarówno w nagraniach studyjnych, jak i podczas pracy na scenie. Delay po prostu wprowadza powtarzające się opóźnienia sygnału, tworząc efekt echa, powtórek czy nawet pogłosu (w zależności od ustawień). W praktyce, realizatorzy dźwięku wykorzystują delay do poszerzania przestrzeni w miksie, tworzenia efektów specjalnych oraz do korekcji czasowych, np. w dużych systemach nagłośnieniowych, gdzie opóźniacze pozwalają na synchronizację dźwięku z obrazem w rozproszonych przestrzeniach. W branżowych standardach taki procesor znajdziesz zarówno w formie sprzętowej (np. popularne rackowe delaye), jak i programowej w postaci wtyczek VST lub AU. Fajne jest to, że delay może być używany bardzo kreatywnie – choćby do uzyskania efektu slapback w rockabilly albo do tworzenia przestrzennych pejzaży dźwiękowych w muzyce ambient. Moim zdaniem, opanowanie wykorzystania delaya to podstawa, bo pozwala nie tylko poprawiać jakość dźwięku, ale też kreować zupełnie nowe brzmienia. Dobre praktyki mówią, żeby nie przesadzać z ilością powtórek, ale czasem warto poeksperymentować – czasami przypadkowy delay robi z utworu coś naprawdę wyjątkowego.

Pytanie 26

Określenie jack stereo jest potoczną nazwą wtyku

A. TRS
B. XLR
C. RCA
D. TS
Jack stereo to naprawdę bardzo popularna i praktyczna nazwa dla wtyku typu TRS. TRS to skrót od Tip-Ring-Sleeve, czyli końcówka-pierścień-tuleja. Moim zdaniem, jak ktoś się kręci przy jakimkolwiek sprzęcie audio, od razu rozpozna ten wtyk: ma trzy styki i najczęściej spotyka się go np. w słuchawkach, interfejsach audio, instrumentach muzycznych czy mikserach. Standardowo jack stereo, czyli właśnie TRS, przekazuje dwa niezależne sygnały – lewy i prawy kanał – plus masę. To jest niesamowicie wygodne rozwiązanie, bo pozwala przesłać sygnał stereo jednym przewodem. Często spotyka się go w rozmiarach 6,3 mm (duży jack) oraz 3,5 mm (mały jack – jak w słuchawkach do smartfona). W branży TRS jest wręcz synonimem „jacka stereo”, bo dzięki trzem stykom obsługuje właśnie sygnał stereo lub sygnał zbalansowany mono. Dla odmiany wtyk TS (Tip-Sleeve) to mono, tylko dwa styki, już nie przeniesie stereo, a XLR i RCA to zupełnie inne bajki, o innych zastosowaniach. Z mojego doświadczenia lepiej pamiętać, że jak ktoś mówi „jack stereo”, to zawsze chodzi mu właśnie o TRS, bez zbędnego kombinowania. W praktycznych zastosowaniach – czy to nagranie w studio, czy podpinanie słuchawek, czy nawet efekty gitarowe – to właśnie TRS jest tym głównym bohaterem i warto mieć to w głowie, żeby nie pomylić kabli.

Pytanie 27

W jakim celu stosuje się bramkę szumów w torze nagłośnieniowej konsolety mikserskiej?

A. Do kontroli poziomu sygnału wyjściowego z końcówek mocy.
B. Do korekcji częstotliwości systemu Front Fill.
C. Do poprawy brzmienia kolumn basowych.
D. Do kształtowania dynamiki sygnału w torze konsolety.
Pojęcie bramki szumów bywa często mylone z innymi narzędziami stosowanymi w systemach nagłośnieniowych. Wbrew pozorom, bramka szumów nie służy do poprawy brzmienia kolumn basowych – za kształtowanie charakterystyki basu najczęściej odpowiadają dedykowane procesory, korektory czy też odpowiednie ustawienie crossoverów. Użycie bramki szumów na tym etapie po prostu nie miałoby sensu, bo nie rozwiąże problemów z brzmieniem czy selektywnością basu. Często można się spotkać z przekonaniem, że bramka koryguje częstotliwości – to też nie jest prawdą, bo za filtrację pasma i korekcję odpowiadają korektory parametryczne lub graficzne, a nie narzędzia dynamiczne takie jak bramka. W torze Front Fill stawia się na precyzyjne dostosowanie pasma, a nie wycinanie sygnału zależnie od jego poziomu. Kolejna sprawa – kontrola poziomu sygnału wyjściowego z końcówek mocy odbywa się głównie przy pomocy limiterów albo kompresorów, które zabezpieczają wzmacniacze i kolumny przed przesterowaniami. Bramki szumów nie mają wpływu na maksymalny poziom sygnału ani nie chronią sprzętu przed przeciążeniem. Typowym błędem jest mylenie działań bramki szumów z funkcją tłumika lub limitera, ale to zupełnie inne procesy w torze audio. Moim zdaniem, warto dobrze zrozumieć rolę poszczególnych narzędzi – bramka szumów zawsze działa na zasadzie eliminacji niepożądanego sygnału przy niskich poziomach, nie zaś kontroli basu czy wyjścia końcówek. Takie nieporozumienia biorą się chyba z podobnych nazw lub powierzchownego skojarzenia narzędzi, ale w praktyce każde z nich ma dość wąsko określone, specjalistyczne zastosowanie w miksie i systemach nagłośnieniowych.

Pytanie 28

Który rodzaj systemu nagłośnieniowego jest najczęściej stosowany do nagłaśniania dużych koncertów na otwartej przestrzeni?

A. System line array
B. System surround
C. System basowy
D. System stereofoniczny
Wybór odpowiedniego systemu nagłośnieniowego zależy od wielu czynników, takich jak rodzaj wydarzenia i jego lokalizacja. System basowy, choć ważny dla uzyskania głębokiego i pełnego brzmienia, nie jest wystarczający jako samodzielne rozwiązanie do nagłaśniania dużych przestrzeni. Jego rola jest raczej komplementarna, zwłaszcza w zakresie reprodukcji niskich częstotliwości, które dodają mocy i głębi dźwiękowi, ale nie zapewniają pełnego spektrum akustycznego. System surround, znany głównie z zastosowań w kinach domowych, zapewnia wielowymiarowe doświadczenie dźwiękowe, otaczając słuchacza ze wszystkich stron. Jednak jego zastosowanie na otwartych przestrzeniach koncertowych jest ograniczone ze względu na trudności w zapewnieniu spójnej reprodukcji dźwięku dla dużej publiczności. System stereofoniczny, mimo że jest jednym z podstawowych formatów w nagłośnieniu, nie jest wystarczająco wydajny w kontekście dużych koncertów. Stereofonia polega na tworzeniu dwóch kanałów dźwiękowych, ale na dużych przestrzeniach nie gwarantuje równomiernego pokrycia dźwiękiem w różnych miejscach. Tymczasem systemy line array, dzięki pionowej konfiguracji i możliwościom dostosowania, oferują znacznie lepszą kontrolę nad dystrybucją dźwięku, co czyni je idealnym wyborem dla koncertów na świeżym powietrzu.

Pytanie 29

Ile powinna wynosić oporność każdego z dwóch głośników podłączonych równolegle do wzmacniacza, którego tabliczka znamionowa jest przedstawiona na rysunku?

Ilustracja do pytania
A. 16 Ohm
B. 2 Ohm
C. 8 Ohm
D. 4 Ohm
Dobrze, że wybrałeś odpowiedź 8 Ohm. To jest zgodne z praktyką i zasadami elektroakustyki, które stosuje się przy doborze głośników do wzmacniacza. Tabliczka znamionowa wzmacniacza wyraźnie wskazuje, że moc wyjściowa podawana jest dla obciążenia 4 Ohm. Przy podłączaniu dwóch głośników równolegle, ich sumaryczna oporność jest zawsze niższa niż oporność pojedynczego głośnika. Wzór na obliczenie równoległego połączenia to: 1/R = 1/R1 + 1/R2. Jeśli oba głośniki mają po 8 Ohm, wychodzi dokładnie 4 Ohmy (1/8 + 1/8 = 1/4, czyli R = 4). Taki układ zapewnia, że wzmacniacz pracuje w swoim nominalnym zakresie, a nie jest przeciążony, co wydłuża jego żywotność i poprawia bezpieczeństwo. To często stosowane rozwiązanie np. w instalacjach estradowych czy w systemach nagłośnienia sal konferencyjnych. Branżowe standardy (np. EIA lub IEC) podkreślają, że nigdy nie należy zmniejszać impedancji poniżej zalecanej przez producenta, bo grozi to przegrzaniem, zniekształceniami i uszkodzeniem końcówki mocy. Szczerze mówiąc, wielu początkujących zapomina o tej zasadzie i montuje głośniki „na oko”, a potem sprzęt ląduje w serwisie. Z mojego doświadczenia wynika, że pilnowanie poprawnego doboru impedancji to podstawa bezawaryjnej pracy nagłośnienia - i warto to po prostu zapamiętać.

Pytanie 30

Panel z gniazdami RCA, zwanymi potocznie cinch, umieszczony zwykle na tylnej ścianie konsolety mikserskiej, standardowo służy do podłączenia

A. monitora LCD.
B. słuchawek.
C. odtwarzacza lub rejestratora dźwięku.
D. efektów przestrzeni lub dynamiki.
Wiele osób myli gniazda RCA z bardziej zaawansowanymi złączami audio, a to jednak dosyć specyficzny standard. Zacznijmy od słuchawek – typowe gniazda słuchawkowe to jack 6,3 mm albo 3,5 mm, ponieważ słuchawki wymagają wyjścia o odpowiednim poziomie wzmocnienia, którego RCA nie zapewnia. W praktyce nikt nie podłącza słuchawek do cinchy, bo po prostu nie usłyszy dźwięku albo będzie on zbyt cichy – to nie ten poziom sygnału i nie ten rodzaj transmisji. Jeżeli chodzi o monitory LCD – tu już w ogóle inny świat. Monitory LCD, zwłaszcza komputerowe czy studyjne, korzystają z cyfrowych standardów wideo takich jak HDMI, DisplayPort czy dawniej VGA/DVI. RCA nie jest złączem wideo (nie licząc starego, żółtego cincha do composite video, ale to też nie do monitora LCD w kontekście audio). Teraz efekty przestrzeni czy dynamiki – profesjonalne procesory efektów czy kompresory podłącza się do mikserów za pomocą zbalansowanych połączeń XLR lub TRS, żeby zminimalizować zakłócenia i straty sygnału. Gniazda RCA są niesymetryczne, więc zupełnie się do tego nie nadają. Z mojego punktu widzenia częsty błąd to zakładanie, że każde złącze audio w mikserze służy do wszystkiego – a w praktyce istnieje jasny podział na gniazda do sygnałów profesjonalnych (XLR, TRS) i tych bardziej konsumenckich (RCA). W branży uznaje się za dobrą praktykę trzymać się standardów – dlatego efekty podłączamy do insertów, słuchawki do dedykowanego wyjścia, a sygnał z odtwarzacza lub rejestratora właśnie przez RCA. Jeśli ktoś chce użyć cincha do innych celów, szybko natrafi na różnice w poziomach sygnału, impedancjach czy nawet fizycznej kompatybilności sprzętu.

Pytanie 31

Który przełącznik w przedwzmacniaczu mikrofonowym umożliwia zmianę polaryzacji sygnału?

A. HPF
B. PAD
C. PHANTOM
D. PHASE
Przełącznik oznaczony jako PHASE w przedwzmacniaczu mikrofonowym służy właśnie do odwracania polaryzacji sygnału audio, najczęściej o 180 stopni. To jest bardzo praktyczna funkcja, szczególnie kiedy nagrywasz kilka mikrofonów naraz, na przykład perkusję – czasem fazy potrafią się „kłócić” i wtedy sygnały zaczynają się częściowo znosić, przez co brzmienie staje się puste, traci się bas i jest takie... nijakie. Odwrócenie fazy na jednym z mikrofonów pozwala to poprawić. W praktyce robi się to często na overheadach lub przy nagrywaniu wokalu z dwoma mikrofonami w różnych odległościach. Jest to zgodne ze standardami pracy w studiu i często spotykane w torze sygnałowym urządzeń audio profesjonalnych. Warto pamiętać, że przełącznik PHASE nie wpływa na barwę dźwięku samą w sobie, tylko na relację fazową między sygnałami – niby drobiazg, a potrafi zepsuć albo uratować całe nagranie. Z mojego doświadczenia, nawet doświadczeni realizatorzy czasem zapominają o tej opcji i potem długo szukają przyczyny kiepskiego miksu. Warto więc zawsze mieć na uwadze, żeby sprawdzać fazę podczas nagrania, zwłaszcza przy bardziej złożonych ustawieniach mikrofonowych.

Pytanie 32

W celu aktywowania odsłuchu sygnału bezpośrednio sprzed tłumika w torze mikrofonowym konsolety mikserskiej, jeszcze przed dotarciem sygnału do sumy wyjściowej, należy użyć przycisku

A. GROUP
B. ST
C. AFL
D. PFL
PFL, czyli Pre-Fader Listen, to funkcja, która pozwala inżynierowi dźwięku podsłuchać sygnał na konkretnym kanale bezpośrednio przed tłumikiem (faderem), zanim sygnał zostanie wysłany do sumy wyjściowej bądź miksu głównego. To niesamowicie praktyczne narzędzie, bo dzięki temu niezależnie od położenia fadera możesz sprawdzić, co dokładnie dzieje się na wejściu – usłyszysz czysty sygnał mikrofonowy, możesz wyłapać szumy albo przesterowania, zanim w ogóle trafią na głośniki. W prawdziwym życiu, szczególnie podczas prób czy przygotowań do koncertu, korzysta się z PFL praktycznie non stop – ja na przykład zawsze przed wprowadzeniem nowego mikrofonu do miksu najpierw go podsłuchuję na PFL, żeby mieć pewność, że nie zaskoczy mnie jakiś artefakt albo nieporówny poziom. To też standardowa praktyka studyjna, kiedy trzeba sprawdzić, jak brzmi pojedynczy ślad bez wpływu całej reszty miksu. W branżowych konsoletach, zarówno cyfrowych jak i analogowych, PFL to po prostu obowiązkowy element workflow. Czasem nazywa się to „solo pre-fader”, ale w praktyce chodzi dokładnie o to samo – podgląd sygnału na wejściu. Moim zdaniem, kto ogarnia dobrze PFL, ten ma dużo większą kontrolę nad całością miksu i szybciej wyłapuje ewentualne błędy na wejściu. To bardzo ważne, żeby wiedzieć, gdzie w torze sygnałowym się znajdujemy i jak się do niego dobrać.

Pytanie 33

Który z procesorów zawęża zakres dynamiki sygnału?

A. Reverb.
B. Delay.
C. Kompresor.
D. Ekspander.
Kompresor to taki procesor sygnałowy, który właśnie zawęża zakres dynamiki dźwięku. Działa na zasadzie automatycznego ściszania tych fragmentów sygnału, które przekraczają określony poziom, czyli tzw. threshold. Dzięki temu cichsze dźwięki mogą być bardziej słyszalne, a głośniejsze nie wybijają się tak bardzo ponad resztę miksu. W praktyce, na przykład w studiu nagraniowym, kompresor często używa się na wokalu, żeby utrzymać stały poziom i nie dopuścić do nieprzyjemnych skoków głośności. Podobnie w nagraniach perkusji – kompresor pomaga ujarzmić mocne uderzenia stopy czy werbla. To takie narzędzie, które jest właściwie standardem w każdym miksie – ciężko znaleźć profesjonalną realizację bez choćby jednej instancji kompresora na śladzie. Moim zdaniem opanowanie jego działania to podstawa pracy realizatora dźwięku, bo kompresja nie tylko trzyma głośność w ryzach, ale też potrafi mocno zmienić charakter instrumentu czy całego utworu. Trzeba jednak uważać, bo nadmierna kompresja prowadzi do utraty naturalności brzmienia. W wielu gatunkach muzycznych kompresor jest wręcz niezbędny – zwłaszcza w radiu czy telewizji, gdzie standardy wymagają kontrolowania dynamiki. Mówiąc wprost: jeśli zależy Ci na profesjonalnie brzmiącym materiale, nie da się pominąć kompresora.

Pytanie 34

Jaka powinna być przybliżona wartość opóźnienia całkowitego systemu nagłośnieniowego PA od wejścia do wyjścia, aby uzyskać wyrównanie czasowe sygnału pochodzącego z systemu PA z dźwiękiem źródeł niskich częstotliwości cofniętych na scenie o 8 metrów względem linii wyznaczonej przez fronty elementów systemu nagłośnieniowego?

A. 4 ms
B. 2 ms
C. 24 ms
D. 16 ms
Przy analizie opóźnień w systemach nagłośnieniowych wiele osób wpada w pułapkę myślenia, że wartości rzędu 2 ms czy 4 ms wystarczą do kompensacji przesunięcia scenicznego. Niestety, to zdecydowanie za mało przy odległościach, które faktycznie pojawiają się w praktyce. Przykładowo przesunięcie o 8 metrów przekłada się na ponad 23 ms, co wynika z podstawowej fizyki propagacji dźwięku – nie da się tego obejść. Wartości typu 2-4 ms mają sens, jeśli różnica w ustawieniu źródeł dźwięku na scenie wynosi zaledwie kilkadziesiąt centymetrów, a nie metry. Takie niskie opóźnienia mogą co najwyżej skorygować niuanse, a nie realną różnicę odległości rzędu kilku metrów. Z kolei 16 ms – mimo że bliżej prawidłowej wartości – nadal nie kompensuje w pełni dystansu 8 metrów, bo daje nam około 5,5 metra korekty. W praktyce oznacza to, że bas nadal by się „spóźniał” względem reszty pasma, co prowadzi do słyszalnych zaburzeń fazowych, zmniejszenia energii na niektórych częstotliwościach i ogólnego zamazania miksu. Często spotykam się z myśleniem, że można „na oko” dobrać opóźnienie, ale to droga donikąd – branżowe dobre praktyki wymagają precyzyjnej kalkulacji na podstawie prędkości dźwięku i faktycznej odległości między źródłami. Zignorowanie tego skutkuje poważnymi problemami akustycznymi, przez co nawet najlepsze nagłośnienie nie zagra tak, jak powinno. Warto pamiętać, że profesjonalizm w tej branży polega na dokładności i dbałości o każdy szczegół – tutaj właśnie na opóźnieniach nie wolno oszczędzać ani zgadywać.

Pytanie 35

Technika stereofoniczna, w której zmiana wzmocnienia w jednym kanale powoduje zmianę szerokości bazy, to technika

A. MS
B. XY
C. MM
D. AB
W branży realizacji dźwięku techniki AB oraz XY są bardzo popularne, ale ich cechy dość mocno się różnią od tego, co daje MS. AB to klasyczna metoda, gdzie dwa mikrofony są rozstawione na określonym dystansie, co pozwala uzyskać szeroką, naturalną przestrzeń stereo, jednak nie ma możliwości regulacji szerokości bazy po nagraniu – rozstaw mikrofonów ustala się raz przed rejestracją i tyle. XY natomiast używa mikrofonów ułożonych blisko siebie pod kątem, przez co daje dobre odwzorowanie pozycji źródeł w stereo, ale znów – szerokość stereofoniczna jest ustalana na sztywno przez kąt między kapsułami i nie można jej już potem zmienić. Czesto słyszy się, że można manipulować panoramą w miksie, jednak to nie jest to samo co zmiana fizycznej szerokości bazy nagrania. MM (to odpowiedź, której ja w ogóle nie kojarzę z żadną uznaną techniką mikrofonową, więc raczej to literówka albo nieporozumienie) nie występuje w literaturze branżowej. Bardzo często spotykanym błędem jest przekonanie, że każda stereofoniczna para mikrofonów pozwala później kształtować szerokość sceny przez manipulację poziomami, ale tylko MS daje taką możliwość – wynika to z matrycowania sumy i różnicy sygnałów. W praktyce, jeśli ktoś szuka elastyczności w miksie albo masteringu, to tylko technika MS pozwala na regulację szerokości stereo już po nagraniu i to właśnie dlatego jest tak ceniona przez profesjonalistów. Odpowiedzi AB i XY, choć poprawne z punktu widzenia klasycznego stereo, nie oddają tej kluczowej cechy, a odpowiedź MM w ogóle nie funkcjonuje w praktyce.

Pytanie 36

Która z wymienionych czynności rozpoczyna typową konfigurację konsolety mikserskiej podczas próby do nagłośnienia koncertu?

A. Regulacja wysterowania wstępnego w torach mikrofonowych.
B. Regulacja ustawienia panoramy w torach mikrofonowych.
C. Regulacja parametrów korektora w torach mikrofonowych.
D. Ustalenie położenia tłumików w torach mikrofonowych.
Regulacja wysterowania wstępnego w torach mikrofonowych, czyli ustawianie tzw. gainu lub preampu, to absolutna podstawa przy każdej konfiguracji konsolety mikserskiej, zwłaszcza podczas próby do nagłośnienia koncertu. Bez tego krok po prostu nie da się uzyskać właściwego sygnału – będzie za cicho, za głośno albo pojawią się nieprzyjemne przesterowania. Moim zdaniem to właśnie tutaj najczęściej popełnia się błędy, szczególnie gdy ktoś zaczyna swoją przygodę z miksowaniem dźwięku. Branżowy standard mówi jasno: najpierw ustalamy optymalne wysterowanie wejściowe dla każdego kanału, bazując na najgłośniejszym momencie gry lub śpiewu, korzystając z wskaźników poziomu sygnału na konsolecie. Dopiero potem można sensownie korygować korekcję, panoramę czy ustawienie tłumików. W praktyce, jeśli gain nie jest ustawiony prawidłowo, cała reszta miksu po prostu się rozjeżdża – szumy, sprzężenia, nierówna dynamika, to tylko niektóre skutki. Z mojego doświadczenia wynika, że nawet najlepszy sprzęt nie wybaczy złego wysterowania na wejściu. Często podczas prób z zespołami to właśnie ustawienie gainu zajmuje najwięcej czasu, bo każdy mikrofon, każdy instrument ma inną czułość. Dobrze ustawiony gain pozwala też lepiej wykorzystać headroom miksera i zachować czystość dźwięku. W profesjonalnych riderach technicznych można często znaleźć wyraźną uwagę, żeby technik rozpoczął konfigurowanie od ustawienia preampów. Słowem: bez tego ani rusz.

Pytanie 37

Głównym celem stosowania przedwzmacniaczy mikrofonowych jest

A. wstępna korekcja charakterystyki mikrofonu.
B. desymetryzacja sygnału z mikrofonu.
C. wzmocnienie sygnału do wartości 0,775 V.
D. symetryzacja sygnału z mikrofonu.
Główny powód stosowania przedwzmacniaczy mikrofonowych to oczywiście wzmocnienie bardzo słabego sygnału, który wychodzi bezpośrednio z mikrofonu. Mikrofony, szczególnie dynamiczne, generują sygnał na poziomie rzędu kilku miliwoltów – to naprawdę niewiele. Żeby taki sygnał nadawał się do dalszej obróbki, miksowania albo zapisu na urządzeniach profesjonalnych, trzeba go podnieść do tzw. poziomu liniowego. W branżowych standardach często mówi się o poziomie odniesienia 0,775 V RMS, który jest uznawany za typowy poziom sygnału liniowego (tzw. 0 dBu). Taki poziom daje już komfort pracy dla większości urządzeń, które są podłączane po przedwzmacniaczu – na przykład konsolety, interfejsy audio czy rejestratory. Bez tego wzmocnienia sygnał byłby zbyt cichy, podatny na zakłócenia i szumy, a różnego rodzaju urządzenia po prostu nie poradziłyby sobie z jego dalszym przetwarzaniem. Z mojego doświadczenia wynika, że dobry przedwzmacniacz potrafi nie tylko solidnie podnieść poziom, ale też dodać charakteru lub wręcz poprawić brzmienie – chociaż główną funkcją jest zawsze wzmocnienie. Warto dodać, że dobre praktyki mówią, by stosować jak najczystsze przedwzmacniacze, bo już na tym etapie można zgubić jakość całego toru audio. Trochę zabawne, że czasem ludzie mylą przedwzmacniacz z korektorem czy symetryzatorem, a tak naprawdę bez niego żadne profesjonalne nagranie się nie obejdzie – to taki cichy bohater całego procesu.

Pytanie 38

Elementem składowym przedwzmacniacza mikrofonowego, służącym do regulacji wzmocnienia, jest regulator

A. gain.
B. high pass frequency.
C. volume.
D. trim.
W pytaniu pojawia się kilka pojęć, które na pierwszy rzut oka mogą wydawać się podobne, ale każdy z nich odnosi się do zupełnie innego aspektu pracy z sygnałem audio. Regulator trim, choć czasem spotykany w opisach sprzętu, to najczęściej alternatywne określenie gainu, jednak w praktyce studyjnej i w instrukcjach urządzeń mikrofonowych, to właśnie gain jest głównym parametrem regulującym poziom wzmocnienia sygnału wejściowego. Zdarza się, że 'trim' pojawia się jako drobna korekta czułości, zwykle na końcu toru sygnałowego, ale nie jest to standardowy element przedwzmacniacza mikrofonowego. Wybierając 'volume', łatwo pomylić się z powodu codziennego użycia tego słowa – przecież 'volume' to po prostu głośność. Ale regulator głośności reguluje poziom sygnału na wyjściu, a nie jego wzmocnienie na wejściu. To typowy błąd myślowy wynikający z dużej ilości pokręteł na sprzęcie audio – jedno odpowiada za głośność w słuchawkach czy monitorach, drugie za siłę sygnału mikrofonu. Kolejna opcja, 'high pass frequency', to zupełnie inna bajka. To filtr dolnozaporowy, który odcina najniższe częstotliwości (np. szumy, buczenie, stuknięcia), ale nie ma wpływu na poziom wzmacniania sygnału. Często się go używa, żeby usunąć niepotrzebne dźwięki z nagrania, ale nie zastąpi on regulacji gainu. W praktyce zawodowej nieprawidłowe rozumienie tych pojęć prowadzi do bardzo częstych problemów – albo sygnał jest za słaby i wszystko tonie w szumach, albo jest przesterowany i brzmi fatalnie. Moim zdaniem najwięcej błędów popełniają osoby, które nie rozumieją różnicy między gain a volume – bo oba pokrętła mają wpływ na poziom sygnału, ale w zupełnie innych miejscach toru audio. Warto zawsze sprawdzać w dokumentacji sprzętu, który regulator za co odpowiada, bo to podstawa dobrej pracy w studiu czy na scenie.

Pytanie 39

Którego zestawu nagłośnieniowego, pełniącego funkcję dodatkowego odsłuchu scenicznego, nie należy kierować w stronę widowni?

A. Frontfill
B. Downfill
C. Sidefill
D. Outfill
Sidefill to zestaw nagłośnieniowy, który ustawiamy zazwyczaj z boku sceny i jego główną rolą jest zapewnienie odsłuchu dla muzyków, szczególnie tych, którzy stoją dalej od głównego środka. Moim zdaniem, to rozwiązanie jest mega przydatne przy większych składach, np. kiedy perkusista albo wokalista potrzebują lepszego wypełnienia dźwiękiem na scenie, który nie dociera do nich bezpośrednio z monitorów podłogowych. Co ważne, sidefille absolutnie nie powinny być skierowane w stronę widowni, bo wtedy dźwięk byłby zduplikowany i widzowie mogliby słyszeć pogłos, a nawet nieprzyjemne przesunięcia czasowe. W praktyce, na większości profesjonalnych koncertów sidefill jest tak ustawiony, żeby możliwie najlepiej pokryć scenę, ale nie wydostać się poza jej obręb. Standardy w branży mówią jasno: system odsłuchowy dla wykonawców powinien być możliwie odizolowany od publiczności, żeby nie zaburzać miksu frontowego. Właśnie dlatego, gdy widzisz duże głośniki na bokach sceny skierowane w głąb – to prawie zawsze sidefille. Warto pamiętać, że odpowiednie rozstawienie tych zestawów znacznie poprawia komfort pracy muzyków i pozwala uniknąć nieporozumień dźwiękowych na widowni. Z mojego doświadczenia: jeśli sidefill leci na widownię, to realizator frontu ma później spory bałagan z kontrolą całości brzmienia.

Pytanie 40

Technika mikrofonowa MS typowo zakłada zastosowanie

A. dwóch mikrofonów o charakterystyce ósemkowej.
B. jednego mikrofonu o charakterystyce kardioidalnej, drugiego – bezkierunkowego.
C. dwóch mikrofonów o charakterystyce kardioidalnej.
D. jednego mikrofonu o charakterystyce ósemkowej, drugiego – kardioidalnego.
Technika mikrofonowa MS, czyli Mid-Side, to bardzo ciekawy i zarazem praktyczny sposób rejestrowania dźwięku stereofonicznego. Kluczowe jest tutaj zastosowanie dwóch mikrofonów: jednego o charakterystyce kardioidalnej (Mid), który łapie dźwięk z przodu, i drugiego o charakterystyce ósemkowej (Side), który zbiera sygnał z boków. To pozwala później, już na etapie postprodukcji, dowolnie kształtować szerokość sceny stereo, co jest naprawdę wygodne - szczególnie w nagraniach muzycznych, radiowych czy filmowych. Moim zdaniem ogromną zaletą MS-a jest też jego monofoniczna kompatybilność, bo po zsumowaniu do mono sygnał „Side” znika i zostaje tylko to, co było nagrane mikrofonem „Mid”. W praktyce często stosuje się to podczas nagrań w plenerze lub koncertów na żywo, bo można zachować naturalność brzmienia, a jednocześnie mieć pełną kontrolę nad szerokością stereo. Warto pamiętać, że w branży audio MS jest uznawany za jedną z najbardziej elastycznych i profesjonalnych technik. Z mojego doświadczenia, jeśli ktoś planuje nagrywać różne instrumenty w jednym pomieszczeniu, MS naprawdę się sprawdza, bo nie trzeba się martwić o przesłuchy tak bardzo, jak w innych układach mikrofonowych. Często wykorzystuje się to też w broadcastingu oraz do nagrań efektów otoczenia, gdzie zależy nam na spójności fazowej i dobrej kontroli panoramy.