Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik realizacji nagrań
  • Kwalifikacja: AUD.08 - Montaż dźwięku
  • Data rozpoczęcia: 30 kwietnia 2026 14:30
  • Data zakończenia: 30 kwietnia 2026 14:31

Egzamin niezdany

Wynik: 0/40 punktów (0,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Która z podanych wartości dobroci filtru jest wartością, przy której działaniem korektora został objęty najszerszy zakres częstotliwości?

A. 1
B. 10
C. 5
D. 2
Dobroć filtru, często oznaczana jako Q, jest kluczowym parametrem opisującym zachowanie filtrów w dziedzinie częstotliwości. Niska wartość Q, jak 1 czy 2, powoduje, że filtr działa na szerokim zakresie częstotliwości – daje to tzw. łagodniejsze nachylenie charakterystyki i mniej selektywne działanie. W środowisku profesjonalnym oraz w praktyce akustycznej, niskie Q przydaje się do ogólnych korekt tonalnych, gdzie chcemy zmienić charakter całego pasma, a nie pojedynczego tonu czy rezonansu. Natomiast przy projektowaniu filtrów do eliminacji szumów lub konkretnych problemów (np. dzwonienie, sprzężenie), wykorzystuje się wysokie Q, nawet do wartości 10 i więcej. Wysoka dobroć sprawia, że filtr działa bardzo precyzyjnie, obejmując wąski wycinek widma, przez co łatwo można wyłuskać i osłabić niepożądane dźwięki bez wpływu na resztę sygnału. Niestety dość często spotyka się błąd logiczny, polegający na uznaniu, że im wyższe Q, tym szersze pasmo działania filtra – to dokładne przeciwieństwo rzeczywistości. Wynika to z mylenia pojęć: szerokość pasma i dobroć są odwrotnie proporcjonalne. Standardy jak IEC 60268 czy podręczniki z elektroakustyki jasno to definiują. W praktycznych zastosowaniach, zbyt wysokie Q może prowadzić do artefaktów i nienaturalnego brzmienia, jeśli użyjemy go tam, gdzie potrzeba szerokiego wpływu na dźwięk. Dlatego tak ważne jest, żeby rozumieć te zależności i świadomie dobierać parametry w projektach filtrów i korektorów, bo pomyłka prowadzi do niezadowalających efektów lub wręcz pogorszenia jakości sygnału.

Pytanie 2

Szybkie i sprawne odnalezienie uprzednio zaznaczonych miejsc cięcia materiału dźwiękowego na osi czasu w sesji oprogramowania DAW umożliwia lista

A. znaczników.
B. grup.
C. ścieżek.
D. regionów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W przypadku pracy z materiałem dźwiękowym w sesji DAW, korzystanie ze znaczników (ang. markers) to naprawdę jeden z kluczowych elementów sprawnej organizacji projektu. Znaczniki pozwalają na bardzo szybkie i precyzyjne odnalezienie konkretnych miejsc na osi czasu — na przykład punktów cięcia, miejsc wejścia instrumentów czy ważnych fragmentów aranżacji. W praktyce, gdy projekt staje się skomplikowany, a liczba ścieżek i edytowanych fragmentów rośnie, bez markerów łatwo się pogubić. Moim zdaniem, większość realizatorów dźwięku i producentów, których znam, stosuje znaczniki przy niemal każdej większej sesji – to już taki standard branżowy, trochę jak nawyk zapisywania projektu co chwilę. Warto wiedzieć, że w większości profesjonalnych DAW, takich jak Cubase, Pro Tools czy Logic, znaczniki można nie tylko szybko wstawiać, ale też nazywać i kolorować, dzięki czemu jeszcze łatwiej ogarnąć duże formy muzyczne albo materiały do postprodukcji. To nie tylko przyspiesza montaż, ale też minimalizuje ryzyko błędów przy intensywnych edycjach. Osobiście nie wyobrażam sobie montażu podcastu czy miksu rozbudowanego utworu bez sensownie poustawianych markerów. Warto się tego nauczyć i korzystać regularnie – to na dłuższą metę oszczędza czas i nerwy. W branży, gdzie liczy się workflow i szybkość reakcji, dobre oznaczanie kluczowych miejsc na osi czasu to podstawa.

Pytanie 3

Która z wymienionych wartości rozdzielczości bitowej najmniej dokładnie odwzorowuje dynamikę nagranego dźwięku?

A. 16 bitów.
B. 24 bity.
C. 32 bity.
D. 8 bitów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Rozdzielczość 8 bitów to zdecydowanie najniższy standard spośród wymienionych, jeśli chodzi o odwzorowanie dynamiki dźwięku. W praktyce taka głębia bitowa pozwala tylko na 256 różnych poziomów głośności, co jest zauważalnie ubogie – szczególnie gdy porówna się to z popularnym 16-bitowym standardem CD (ponad 65 tysięcy poziomów!) czy jeszcze wyższymi wartościami stosowanymi w profesjonalnych studiach nagraniowych. Moim zdaniem, używanie 8 bitów prowadzi do bardzo wyraźnego efektu kwantyzacji, przez co dźwięk nabiera charakterystycznego 'ziarnistego' brzmienia, pojawiają się szumy i zniekształcenia. Nie ma tu miejsca na precyzyjne oddanie subtelnych zmian głośności, co słychać zwłaszcza przy cichych fragmentach nagrania. Zresztą, 8-bitowe pliki dźwiękowe kojarzą mi się głównie ze starymi grami komputerowymi i konsolami z lat 80., gdzie jakość schodziła na dalszy plan. Obecnie nawet telefony czy proste rejestratory nie schodzą poniżej 16 bitów, bo to już branżowe minimum dla zadowalającej jakości. W zastosowaniach profesjonalnych, gdzie zależy nam na szerokiej dynamice – nagraniach klasycznych, miksach studyjnych, masteringu – absolutnie nie wyobrażam sobie pracy na 8 bitach. Ten standard jest raczej historyczną ciekawostką i dobrym przykładem, jak bardzo technologia poszła do przodu. Generalnie, im wyższa rozdzielczość, tym większa precyzja – ale to właśnie 8 bitów najbardziej ogranicza dokładność odwzorowania dynamiki dźwięku.

Pytanie 4

Maksymalna prędkość transmisji danych w standardzie USB 2.0 wynosi

A. 15 Gb/s
B. 33 Gb/s
C. 480 Mb/s
D. 12 Mb/s

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Maksymalna prędkość transmisji danych dla standardu USB 2.0 wynosi właśnie 480 Mb/s (megabitów na sekundę). To była swego czasu ogromna zmiana na rynku, bo wcześniejszy standard USB 1.1 oferował zaledwie 12 Mb/s – różnica jest więc naprawdę kolosalna w codziennym użytkowaniu. USB 2.0, znane też jako High-Speed USB, umożliwiło komfortowe podłączanie zewnętrznych dysków, drukarek czy kamer, które wcześniej po prostu działałyby bardzo wolno. Na przykład kopiowanie pliku o wielkości 1 GB przez USB 2.0 trwało zdecydowanie krócej niż przez starsze porty. Moim zdaniem warto pamiętać, że 480 Mb/s to wartość teoretyczna, w praktyce rzeczywiste transfery są niższe, bo zależą jeszcze od jakości kabla, sprzętu czy nawet systemu operacyjnego. Branża IT przyjęła ten standard na długie lata i do dziś wiele urządzeń, zwłaszcza tańszych, korzysta właśnie z USB 2.0. Dla porównania – nowsze wersje USB, jak 3.0 czy 3.1, podnoszą poprzeczkę nawet do kilku gigabitów na sekundę, ale to już inna bajka. Najważniejsze, żeby rozpoznawać, do jakich zastosowań wystarcza USB 2.0, a kiedy warto sięgnąć po coś szybszego – np. do przesyłania dużych plików wideo. Tak czy inaczej, 480 Mb/s to kluczowa liczba, która powinna się każdemu technikowi od razu kojarzyć właśnie z USB 2.0.

Pytanie 5

Metoda nałożenia fragmentu dźwięku w miejsce innego określana jest mianem

A. X-Fade
B. Overlap
C. No Overlap
D. Shuffle

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
No Overlap to określenie, które trafnie opisuje sytuację, gdzie fragment dźwięku zostaje umieszczony dokładnie w miejscu innego, bez pozostawiania żadnych nakładających się części. Takie rozwiązanie jest bardzo popularne np. podczas edycji dialogów w postprodukcji filmowej, gdy chcemy wymienić jakieś słowo czy wyrażenie na inne, nie zaburzając przy tym długości całego klipu. Z mojego doświadczenia wynika, że technika ta jest też często stosowana w montażu podcastów i audiobooków – zwłaszcza jeśli zależy nam na szybkim podmienieniu fragmentu, bez słyszalnych efektów przenikania czy sztucznego wydłużenia materiału. W środowiskach takich jak Pro Tools czy Adobe Audition opcja „No Overlap” pozwala na precyzyjne zastąpienie wybranego odcinka nowym nagraniem – to zdecydowanie jedna z podstawowych funkcji profesjonalnego workflow. Warto pamiętać, że to podejście minimalizuje ryzyko powstawania artefaktów dźwiękowych czy przypadkowych przesunięć fazowych. Jeżeli chodzi o standardy branżowe, to właśnie jasne wskazanie, gdzie zaczyna i kończy się dany fragment, jest kluczowe dla zachowania przejrzystości projektu audio. Szczerze mówiąc, nie wyobrażam sobie pracy przy większych sesjach bez tej funkcji – to oszczędność czasu i nerwów, zwłaszcza przy dużych ilościach materiału.

Pytanie 6

Jaki wpływ na odbieraną słuchem wysokość dźwięku ma zmiana częstotliwości próbkowania dźwięku z 44,1 kHz na 48 kHz?

A. Wysokość spada dwukrotnie.
B. Wysokość wzrasta w stosunku 48:44,1.
C. Wysokość wzrasta dwukrotnie.
D. Nie ma wpływu.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmiana częstotliwości próbkowania z 44,1 kHz na 48 kHz sama w sobie nie ma żadnego wpływu na odbieraną słuchem wysokość dźwięku, pod warunkiem, że próbki są odtwarzane z tą samą częstotliwością, z jaką były zarejestrowane. To jest bardzo istotny szczegół techniczny. Wysokość dźwięku zależy bezpośrednio od częstotliwości drgań fali akustycznej, a nie od parametrów cyfrowego zapisu. Częstotliwość próbkowania definiuje jedynie, jak często podczas sekundy pobierane są próbki sygnału analogowego, co wpływa na jakość i maksymalną częstotliwość rejestrowanego dźwięku (wynika to z twierdzenia Kotielnikowa-Shannona). Moim zdaniem, takie zamieszanie powstaje często przy konwersji plików lub zmianie platform, jednak jeśli podczas odtwarzania ustawimy tę samą częstotliwość próbkowania co przy nagraniu, żaden słuchacz nie usłyszy zmiany wysokości – to wciąż będzie ten sam dźwięk. W branży muzycznej i postprodukcji audio bardzo często spotyka się te dwie wartości (44,1 kHz – standard CD, 48 kHz – standard wideo), jednak muzycy, reżyserzy dźwięku czy montażystki nie przejmują się wysokością – bo ta zależy od źródła, nie od próbkowania. W praktyce, zmiana częstotliwości próbkowania może wpłynąć na zakres słyszalnych wysokich tonów (np. górne pasmo przenoszenia), ale nie na to, czy dźwięk jest wyższy czy niższy. Dobrą praktyką jest zawsze dbać o zgodność częstotliwości próbkowania w całym torze produkcyjnym – to zapobiega nieprzyjemnym artefaktom i kłopotom z kompatybilnością.

Pytanie 7

Który z wymienionych filtrów umożliwia usunięcie niepożądanych niskoczęstotliwościowych dźwięków spółgłosek zwarto-wybuchowych obecnych w nagraniu głosu lektora?

A. High Shelf
B. HPF
C. LPF
D. Comb Filter

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To właśnie HPF, czyli filtr górnoprzepustowy, jest najczęściej stosowany, gdy chcemy pozbyć się nieprzyjemnych niskich częstotliwości w nagraniu głosu, zwłaszcza tych wywołanych przez spółgłoski zwarto-wybuchowe typu „p” czy „b”. Takie dźwięki generują tzw. popsy albo dudnienia, które praktycznie nie niosą informacji językowej, a wręcz przeszkadzają w odbiorze nagrania – szczególnie w podcastach, audiobookach czy reklamach. Filtr HPF pozwala „przepuścić” częstotliwości powyżej ustalonej granicy, np. 80 czy 120 Hz, a wszystko poniżej jest stopniowo tłumione. To bardzo skuteczne narzędzie. W branży audio, nawet w profesjonalnych studiach, to jedna z pierwszych czynności przy obróbce ścieżki wokalnej – nikt nie zostawia niskiego szumu czy trzasków z mikrofonu, bo potem ciężko to wyretuszować. Szczerze mówiąc, sam zawsze zaczynam od ustawienia HPF, zanim w ogóle biorę się za dalszą korekcję EQ. Warto pamiętać, że zbyt agresywne ustawienie progu odcięcia może „wyciąć” trochę naturalnej głębi głosu, dlatego dobrym zwyczajem jest słuchanie na dobrych monitorach i testowanie różnych wartości. Warto też wiedzieć, że niemal każdy mikser czy interfejs audio ma już taki filtr wbudowany. Moim zdaniem, to absolutna podstawa w pracy z głosem.

Pytanie 8

Która z opcji dostępnych w menu FILE sesji oprogramowania DAW pozwala przywołać uprzednio zapisaną sesję?

A. NEW
B. CLOSE
C. OPEN
D. SAVE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź OPEN jest tutaj jak najbardziej na miejscu, bo właśnie ta opcja w menu FILE w większości programów typu DAW (czyli Digital Audio Workstation) służy do otwierania już istniejących, wcześniej zapisanych sesji czy projektów. Praktyka pokazuje, że w codziennej pracy realizatora czy producenta muzycznego to jedna z najczęściej używanych funkcji – bez niej praktycznie nie da się wrócić do swojej wcześniejszej pracy, poprawić miksu, dodać nowe ścieżki czy po prostu podejrzeć starsze ustawienia. Zresztą, sama logika menu FILE jest od lat utrzymywana w podobnej formie w większości aplikacji komputerowych, nie tylko muzycznych, co bardzo ułatwia naukę obsługi nowych programów. W typowych DAW-ach, takich jak Cubase, Ableton, Pro Tools czy FL Studio, komenda OPEN pozwala bezpośrednio przywołać plik projektu (najczęściej z rozszerzeniem właściwym dla danego programu), zachowując pełną strukturę ścieżek, ustawienia efektów, automatyki itd. Moim zdaniem, warto zawsze mieć nawyk częstego zapisywania sesji pod różnymi nazwami (np. wersjonowanie plików) i korzystania z opcji OPEN, gdy chcemy przetestować różne warianty miksu czy aranżacji. Co ciekawe, w środowisku profesjonalnym często nawet setupy studyjne mają skróty klawiszowe do szybkiego otwierania projektów, bo liczy się każda sekunda pracy i minimalizacja błędów ludzkich. Podsumowując: OPEN to nie tylko przywrócenie starej sesji, ale filar płynnej i bezpiecznej pracy z projektami muzycznymi.

Pytanie 9

Jaką nazwę nosi standard zapisu znaczników informujących na przykład o artyście czy tytule utworu w plikach MP3?

A. CD-Text
B. Vorbis comment
C. ID3
D. RIFF Tags

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standard ID3 to coś, co zdecydowanie warto znać, jeśli pracuje się z plikami MP3 – zarówno jako zwykły użytkownik, jak i ktoś, kto trochę grzebie przy tagowaniu muzyki. ID3 to taki specjalny „dodatek” do pliku MP3, który trzyma informacje tekstowe, jak tytuł utworu, nazwa artysty, album, rok, a nawet okładkę. Najczęściej spotyka się dwie wersje – ID3v1 i ID3v2. Ta druga jest nowsza i pozwala zapisać znacznie więcej informacji, w dużo bardziej elastyczny sposób. Moim zdaniem każdy, kto miał do czynienia z biblioteką muzyczną i chciał, żeby wszystko ładnie wyświetlało się np. w telefonie albo Spotify, wie, że bez poprawnych tagów ID3 robi się niezły bałagan. Co ciekawe, sporo programów do edycji muzyki (np. foobar2000, Mp3tag) korzysta właśnie z tego standardu, bo jest on de facto branżowym standardem dla MP3. W praktyce, jeśli na przykład przerzucasz pliki MP3 między różnymi odtwarzaczami czy aplikacjami, to dzięki ID3 nie gubią się podstawowe informacje o utworze. Z mojego doświadczenia, kiedy ktoś zapomina o ID3, to potem się dziwi, że ma same „Unknown Artist” w swojej playliście – serio, widziałem takie przypadki. Dobrą praktyką jest regularne aktualizowanie/uzupełnianie tagów ID3, szczególnie gdy masz dużą kolekcję. To znacznie podnosi komfort korzystania z muzyki, a przy okazji ułatwia zarządzanie danymi.

Pytanie 10

Płyta CD-Audio o pojemności 700 MB umożliwia zapis materiału dźwiękowego o maksymalnym czasie trwania około

A. 80 minut.
B. 60 minut.
C. 70 minut.
D. 90 minut.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Płyta CD-Audio o pojemności 700 MB rzeczywiście pozwala na zapis maksymalnie około 80 minut muzyki w standardzie audio. To wynika bezpośrednio ze specyfikacji formatu CD-DA (Compact Disc Digital Audio), który został opracowany przez Sony i Philipsa. W praktyce na jednej płycie mieści się dokładnie 700 MB danych, co przekłada się właśnie na 80 minut nieskompresowanego dźwięku stereo o parametrach 16 bitów, 44,1 kHz. To są bardzo konkretne wartości, na których bazuje cała branża muzyczna od lat 80. W sklepach muzycznych praktycznie wszystkie albumy wydawane na CD mieszczą się w tym limicie, dlatego bardzo często dłuższe płyty dzielone są na dwie części albo skraca się materiał. Co ciekawe, CD-Audio nie używa kompresji, więc zapis jest liniowy, bez strat jakości, co wciąż jest cenione przez audiofilów. Przy masteringu utworów warto pamiętać, że nawet niewielkie przekroczenie 80 minut może spowodować problemy z odczytem na niektórych odtwarzaczach. Z mojego doświadczenia w pracy ze sprzętem audio wynika, że niektóre nagrywarki próbują zapisywać ponad standardową pojemność płyty (tzw. overburning), ale jest to niezalecane i często prowadzi do błędów. Jeśli ktoś planuje tworzyć własne składanki na CD, powinien zawsze brać pod uwagę te granice i korzystać z dedykowanego oprogramowania, które podsumowuje czas nagrania. To ułatwia uniknięcie problemów podczas odtwarzania na różnych urządzeniach.

Pytanie 11

Który z wymienionych skrótów oznacza stałą przepływność bitową sygnału cyfrowego?

A. MBR
B. ABR
C. CBR
D. VBR

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
CBR to skrót od „Constant Bit Rate”, czyli stała przepływność bitowa. W praktyce oznacza to, że niezależnie od zawartości przesyłanego sygnału cyfrowego (na przykład wideo albo audio), ilość przesyłanych bitów na sekundę jest zawsze taka sama. To rozwiązanie jest stosowane np. w transmisjach strumieniowych na żywo, gdzie bardzo istotny jest brak wahań przepustowości sieci, albo w telewizji cyfrowej czy nawet podczas nagrywania na nośniki optyczne. Z mojego doświadczenia, CBR jest często wybierane w sytuacjach, gdzie najważniejsza jest przewidywalność obciążenia sieci lub zachowanie kompatybilności z prostszymi urządzeniami odtwarzającymi. Standardy takie jak MPEG-2, używane w DVB, zalecają tryb CBR do transmisji broadcastowych, bo ogranicza on ryzyko buforowania i pozwala na łatwiejsze zarządzanie zasobami. Przy CBR nie ma też problemu z rozjechaniem się synchronizacji audio i wideo, co jest ważne np. w systemach CCTV albo VoIP. Warto jednak pamiętać, że CBR czasem zużywa więcej przepustowości niż to konieczne, bo nie dostosowuje się elastycznie do złożoności przesyłanej treści. Moim zdaniem dla osób zaczynających przygodę ze streamingiem czy montażem, zrozumienie CBR to podstawa, bo pozwala od razu uniknąć wielu irytujących problemów z transmisją.

Pytanie 12

W nagraniu zakłócenia w postaci szumów należy redukować z zastosowaniem procesu

A. HPF
B. Dither
C. Compression
D. Noise Reduction

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Noise Reduction to specjalistyczny proces, który służy właśnie do redukcji szumów w nagraniach – czy to głosu, czy instrumentów, czy ogólnie w miksie. Cały myk polega na tym, że systemy do redukcji szumów analizują sygnał i starają się usunąć tylko to, co uznają za niepożądane zakłócenia, jak np. szum tła, szum taśmy, buczenie czy nawet szumy wynikające z pracy urządzeń czy kiepskich kabli. W praktyce Noise Reduction stosuje się na etapie postprodukcji, często w programach typu DAW (np. Adobe Audition, Izotope RX – swoją drogą RX to czołówka jeśli chodzi o naprawianie nagrań). Bardzo ważne jest, by nie przesadzić z redukcją, bo wtedy brzmi to nienaturalnie, czasem pojawiają się artefakty i nagranie robi się takie... plastikowe. W branży standardem jest, żeby najpierw zadbać o czyste źródło (dobry mikrofon, izolacja akustyczna), a dopiero potem, jeśli coś w nagraniu zostało, działać za pomocą Noise Reduction. Moim zdaniem, jeśli ktoś poważnie podchodzi do produkcji audio, powinien umieć korzystać z tego typu narzędzi, bo one naprawdę ratują skórę, np. kiedy nagranie robione było w trudnych warunkach terenowych albo ze sprzętem nie najwyższych lotów. Dodatkowo, Noise Reduction to nie tylko filtry – to często zaawansowane algorytmy, które porównują fragmenty ciszy i sygnału, ucząc się, co jest szumem. To jest zupełnie inne podejście niż zwykły EQ czy kompresja.

Pytanie 13

Który z wymienionych kodeków dźwięku wykorzystuje wyłącznie bezstratną kompresję danych?

A. AC-4
B. FLAC
C. WMA
D. AAC

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
FLAC to naprawdę ciekawy przypadek w świecie kodeków audio, bo oferuje bezstratną kompresję dźwięku – czyli po rozpakowaniu plik brzmi identycznie jak oryginał, bez utraty żadnych danych. Stąd FLAC jest często polecany w środowiskach audiofilskich, tam gdzie liczy się pełna jakość i nawet najmniejsze szczegóły mają znaczenie. Do archiwizacji płyt CD, digitalizacji winyli czy pracy w studiach nagraniowych, FLAC jest już praktycznie standardem. Z mojego doświadczenia – jeśli ktoś kombinuje z jakimiś remasteringami, obróbką lub potrzebuje materiału źródłowego w najwyższej możliwej jakości, to właśnie FLAC wchodzi do gry. Inne kodeki, chociaż popularne na co dzień przez streaming czy w telefonach, to jednak wykorzystują kompresję stratną i zawsze coś tam z dźwięku wycinają. FLAC pozwala na zmniejszenie rozmiaru pliku nawet o połowę w stosunku do WAV, a przy tym zachowuje całą zawartość audio. Warto wiedzieć, że pliki FLAC są wspierane przez większość nowszych sprzętów i programów muzycznych, choć jeszcze kilka lat temu bywało z tym różnie. W skrócie: wybierając FLAC masz pewność, że „nic nie ginie” i możesz potem zawsze wrócić do oryginału.

Pytanie 14

Która komenda oprogramowania DAW służy do zmiany fazy sygnału audio?

A. Gain
B. Cut
C. Crossfade
D. Invert

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Komenda „Invert” w DAW to bardzo praktyczna funkcja, która pozwala na odwrócenie fazy sygnału audio o 180 stopni. To może się wydawać na pierwszy rzut oka trochę abstrakcyjne, ale w praktyce jest to szalenie przydatne podczas miksowania. Na przykład – wyobraź sobie, że nagrywasz perkusję kilkoma mikrofonami naraz. Często okazuje się, że niektóre ślady wzajemnie się znoszą, bo ich fale dźwiękowe są w przeciwnej fazie (szczególnie ze stopą i werblem potrafi być zamieszanie). W takich sytuacjach szybkie „Invert” na jednym ze śladów potrafi całkowicie odmienić brzmienie – nagle wszystko staje się pełniejsze, basy wracają na swoje miejsce. To już taka klasyka miksu, zwłaszcza przy nagraniach wielośladowych czy dogrywaniu wokali. Warto pamiętać, że „Invert” nie zmienia głośności, nie ucina ani nie skleja ścieżki, tylko odwraca polaryzację – plus staje się minusem i odwrotnie. W branży to jedna z podstawowych technik sprawdzania kompatybilności fazowej między ścieżkami. Moim zdaniem, nawet jak na początku trudno to usłyszeć, to z czasem ucho zaczyna wyłapywać subtelne różnice. A dobry realizator zawsze pilnuje fazy, bo bez tego nawet najlepsze nagranie zabrzmi płasko i bez energii. Invert jest po prostu niezastąpiony do szybkiego testowania i naprawiania problemów fazowych – to taka codzienna, mała, inżynierska sztuczka.

Pytanie 15

Do której z wymienionych kategorii procesorów dźwięku należy ekspander?

A. Dynamics
B. Distortion
C. Reverbs
D. Modulation

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Ekspander to klasyczny przykład procesora dynamiki. W praktyce stosuje się go często tam, gdzie chcemy nie tylko ograniczyć poziom głośności (jak robi to kompresor), ale wręcz przeciwnie – podnieść kontrast między cichymi a głośnymi fragmentami nagrania. Ekspander działa odwrotnie do kompresora – obniża poziom sygnału poniżej określonego progu, co pozwala na zredukowanie szumów tła albo wyraźniejsze oddzielenie cichych dźwięków od reszty miksu. W branży muzycznej i postprodukcyjnej to narzędzie bardzo przydatne, szczególnie przy miksowaniu nagrań wokalnych, instrumentów na żywo czy materiału z dużą ilością cichych dźwięków. Moim zdaniem ekspander to trochę niedoceniany procesor – jeśli ktoś raz zrozumie, jak pracuje z dynamiką, zaczyna wykorzystywać go do kreatywnego kształtowania brzmienia. W profesjonalnych DAW-ach, takich jak Pro Tools czy Cubase, często spotkasz ekspandery jako dodatkowe moduły w sekcji Dynamics – tu właśnie jest ich miejsce według standardowych klasyfikacji w inżynierii dźwięku. Z mojego doświadczenia ekspander przydaje się szczególnie wtedy, gdy nagranie jest trochę „zamglone” przez szumy lub pogłosy, a trzeba uzyskać wyraźniejsze, bardziej selektywne brzmienie. Warto więc poeksperymentować z różnymi ustawieniami, bo czasem nawet subtelna ekspansja robi różnicę. Dlatego odpowiedź Dynamics to wybór zgodny z praktyką i teorią.

Pytanie 16

Którego ze złącz zewnętrznego procesora dźwięku należy użyć, w celu przesłania cyfrowego sygnału audio do montowanej sesji dźwiękowej?

A. MIDI OUT
B. USB TO HOST
C. WORLD CLOCK OUT
D. AES/EBU OUT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybór złącza AES/EBU OUT to zdecydowanie właściwe podejście, jeśli chodzi o przesyłanie cyfrowego sygnału audio do sesji montażowej. Standard AES/EBU (Audio Engineering Society/European Broadcasting Union) to jedno z najbardziej uznanych rozwiązań w profesjonalnych studiach dźwiękowych, szeroko stosowane zarówno w broadcastingu, jak i przy produkcji muzycznej. Pozwala na transmisję wysokiej jakości sygnału audio w postaci cyfrowej, bez konwersji na postać analogową – to, jak dla mnie, największy plus, bo nie tracimy jakości i nie łapiemy niepotrzebnych zakłóceń. W praktyce ten standard jest też bardzo odporny na zakłócenia elektromagnetyczne, bo przesyła dane symetrycznie, co jest ogromną zaletą w wymagającym środowisku studia. Przy profesjonalnych projektach dźwiękowych, zwłaszcza jeśli miksujemy na dużym stole lub korzystamy z cyfrowych rejestratorów i interfejsów, użycie AES/EBU to po prostu standardowa dobra praktyka. Z mojego doświadczenia wynika, że większość lepszych interfejsów audio i cyfrowych mikserów już dziś ma takie złącza. Oprócz tego, warto pamiętać, że ten protokół umożliwia przesyłanie nie tylko dźwięku stereo, ale i dodatkowych danych, co może się przydać przy bardziej zaawansowanych sesjach. Jeśli zależy Ci na czystości sygnału i profesjonalnym workflow, to nie wyobrażam sobie innego rozwiązania.

Pytanie 17

Która z podanych częstotliwości próbkowania jest najniższą umożliwiającą poprawną konwersję analogowo-cyfrową dźwięku, jeżeli najwyższą częstotliwością występującą w widmie tego dźwięku jest częstotliwość 20 kHz?

A. 44 100 Hz
B. 32 000 Hz
C. 96 000 Hz
D. 48 000 Hz

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zasada próbkowania, czyli twierdzenie Nyquista-Shannona, mówi jasno: aby móc poprawnie zdigitalizować sygnał analogowy, musimy próbkować go z częstotliwością co najmniej dwa razy większą niż najwyższa częstotliwość w jego widmie. Przy dźwięku o maksymalnej częstotliwości 20 kHz, to właśnie 40 kHz jest tym absolutnym minimum. Jednak w praktyce, technologia audio przyjęła nieco wyższą wartość, czyli 44 100 Hz, głównie ze względu na potrzeby zapisu na płytach CD oraz rezerwę na filtry antyaliasingowe. Gdybyśmy wybrali niższą częstotliwość, mogłyby się pojawić zniekształcenia aliasingu, które potrafią solidnie namieszać szczególnie w muzyce czy nagraniach mowy, gdzie precyzja jest kluczowa. Warto też zauważyć, że 44 100 Hz to dziś taki złoty standard – spotykany właściwie wszędzie, od odtwarzania muzyki po produkcję materiałów do internetu. Z mojego doświadczenia wynika, że niższe próbkowania bardzo szybko ujawniają swoje ograniczenia, nawet laik wyczuje pogorszenie jakości dźwięku. W branży stosuje się czasem wyższe wartości, ale to już raczej dla specjalistycznych zastosowań, np. w studiach nagraniowych. Moim zdaniem, bez znajomości tej podstawowej zasady ciężko ruszyć dalej w świecie cyfrowego audio, bo każdy etap obróbki opiera się właśnie na tej logice i konsekwencjach wyboru częstotliwości próbkowania.

Pytanie 18

Która z podanych wartości nachylenia zbocza filtru oznacza najbardziej strome obcięcie pasma częstotliwości?

A. 18 dB/okt.
B. 24 dB/okt.
C. 12 dB/okt.
D. 6 dB/okt.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Nachylenie zbocza filtru wyrażone w decybelach na oktawę (dB/okt.) mówi nam, jak szybko tłumione są sygnały poza pasmem przepustowym filtru. Im większa ta wartość, tym mocniej – czyli też bardziej stromo – filtr wycina niepożądane częstotliwości. 24 dB/okt. oznacza, że po przekroczeniu częstotliwości granicznej sygnał jest tłumiony bardzo energicznie – czterokrotnie mocniej niż przy 6 dB/okt. Takie strome filtry najczęściej stosuje się w profesjonalnych systemach audio oraz automatyce przemysłowej, gdzie zależy nam na skutecznym oddzieleniu sygnału od zakłóceń. Moim zdaniem, warto wiedzieć, że filtry o stromym zboczu, np. 24 dB/okt., to najczęściej filtry czwartego rzędu, które realizuje się poprzez zastosowanie kilku połączonych ze sobą filtrów niższego rzędu. Przykładowo, w systemach nagłośnieniowych albo w syntezatorach analogowych właśnie takie filtry wycinają basy czy wysokie tony, których nie chcemy w danym torze audio. Standardy branżowe, jak np. w nagłośnieniach estradowych, wyraźnie preferują filtry o jak największym nachyleniu, bo wtedy minimalizuje się przenikanie niechcianych częstotliwości między torami. W praktyce warto też pamiętać, że większe nachylenie oznacza nieco bardziej złożoną konstrukcję układu, ale korzyści ze skutecznego cięcia pasma są po prostu nieocenione.

Pytanie 19

Wielokrotne kolejne kopiowanie nagrania techniką analogową powoduje

A. obniżanie poziomu nagrania.
B. ograniczenie zapisanego pasma częstotliwości i wzrost poziomu szumów.
C. degradację wyłącznie wysokich częstotliwości.
D. sukcesywny spadek dynamiki nagrania.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest właśnie ta kluczowa rzecz związana z kopiowaniem analogowych nagrań – fizyka nie daje tutaj taryfy ulgowej. Przy każdym kolejnym kopiowaniu nagrania analogowego zawsze pojawia się pogorszenie jakości. Przede wszystkim dochodzi do ograniczenia pasma przenoszenia, czyli oryginalnie szeroki zakres częstotliwości zaczyna się zawężać. Głównie ucierpią wysokie tony, ale nie tylko – ogólnie całe spektrum robi się jakby bardziej 'ściśnięte'. Co ważne, z każdym kolejnym kopiowaniem szumy własne urządzenia rosną. Czyli po prostu – powstaje coraz więcej niechcianych dźwięków, które nie były częścią oryginalnego materiału. Właśnie dlatego w profesjonalnych studiach dźwiękowych od zawsze tak pilnowano ilości generacji taśm – im mniej pośrednich kopii, tym lepiej. Moim zdaniem to jeden z głównych powodów, dla których branża tak mocno przeskoczyła na cyfrowe systemy – tam kopiowanie nie wpływa na jakość. W praktyce, jeśli zdarzyło Ci się słuchać starej kasety kopiowanej kilka razy, wiesz o co chodzi – dźwięk robi się matowy i szumiący, a czasami nie da się już tego słuchać. Branżowe normy (np. IEC, AES) jasno podkreślają, że kopiowanie analogowe zawsze naraża sygnał na degradację. Staraj się więc – jeśli już musisz kopiować analogowo – ograniczać ilość takich operacji do minimum lub korzystać z wysokiej klasy urządzeń, żeby te straty były jak najmniejsze.

Pytanie 20

LTC, VITC, MTC to niektóre z formatów

A. plików projektu DAW.
B. kodu czasowego.
C. kodeka MPEG.
D. plików dźwiękowych bez kompresji.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
LTC, VITC i MTC to trzy najważniejsze formaty kodu czasowego wykorzystywane w profesjonalnych zastosowaniach audio-wideo. To właśnie za ich pomocą synchronizuje się różne urządzenia – na przykład magnetofony wielośladowe, miksery cyfrowe, rekordery czy systemy montażowe w studiu filmowym. Każdy z tych formatów ma swoje konkretne zastosowania: LTC (Linear Time Code) to kod czasowy zapisany liniowo jako sygnał analogowy, często wykorzystywany na taśmach magnetycznych lub przesyłany kablem. VITC (Vertical Interval Time Code) wpisywany jest bezpośrednio w niewidoczną część sygnału wizyjnego, co umożliwia odczyt nawet przy bardzo niskich prędkościach odtwarzania. MTC (MIDI Time Code) bazuje na protokole MIDI i służy głównie w środowiskach muzycznych oraz DAW-ach do synchronizacji programów i urządzeń. Moim zdaniem zrozumienie różnic pomiędzy tymi trzema kodami czasowymi to absolutna podstawa dla każdego, kto chce profesjonalnie zajmować się dźwiękiem lub postprodukcją wideo. W praktyce, jeżeli np. synchronizujesz nagrania z kilku kamer albo chcesz, żeby automat do efektów światła chodził równo z dźwiękiem, kod czasowy to jedyne sensowne rozwiązanie. W branży stosuje się te standardy od dekad – bez nich trudno wyobrazić sobie profesjonalne studio czy plan filmowy.

Pytanie 21

Eksport pliku muzycznego wykonuje się głównie w celu zmiany

A. formatu pliku.
B. nazwy pliku.
C. lokalizacji pliku.
D. liczby kanałów audio w pliku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Eksport pliku muzycznego to jedno z podstawowych narzędzi pracy w środowiskach typu DAW (Digital Audio Workstation) czy programach do obróbki dźwięku. Głównym powodem, dla którego korzysta się z funkcji eksportu, jest właśnie zmiana formatu pliku – na przykład z projektu DAW na uniwersalny plik WAV, MP3, FLAC albo inny, który można odtworzyć na różnych urządzeniach czy przesłać dalej. Taki eksport oznacza przełożenie dźwięku do innej struktury pliku, zachowując przy tym określone parametry jak rozdzielczość bitowa, częstotliwość próbkowania czy kompresja. To bardzo praktyczne, bo nie każdy program czy sprzęt czyta natywne formaty projektowe. Często spotykam się z sytuacją, gdzie ktoś kończy miks utworu i musi go wysłać do tłoczni, radia albo streamingów – wszędzie tam wymagany jest inny format pliku. Zresztą, w branży muzycznej istnieje taka niepisana zasada: zawsze trzymaj wersję projektu i eksportuj pliki w formacie, który odpowiada końcowemu zastosowaniu. Dobrze też pamiętać o właściwych ustawieniach eksportu, bo np. serwisy streamingowe mają konkretne wymagania co do formatu rzeczy przesyłanych przez użytkowników. W sumie, bez eksportu do różnych formatów praca z dźwiękiem byłaby bardzo utrudniona, jeśli nie wręcz niemożliwa na większą skalę.

Pytanie 22

Który z plików zawiera obrazy obwiedni regionów audio aplikacji DAW?

A. .ptx
B. .wfm
C. .wav
D. .mid

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W plikach o rozszerzeniu .wfm zapisywane są dane dotyczące obwiedni (ang. waveform) regionów audio w aplikacjach typu DAW, czyli cyfrowych stacjach roboczych do obróbki dźwięku. Moim zdaniem ten format jest często niedoceniany, bo niby tylko „obrazki”, ale bez nich trudno byłoby wygodnie edytować dźwięk. DAWy takie jak Pro Tools generują pliki .wfm automatycznie – dzięki temu podczas pracy z dużymi sesjami, nawet z wieloma ścieżkami, wyświetlanie przebiegów falowych pozostaje płynne. To jest ogromna pomoc, zwłaszcza gdy robisz szybkie cięcia albo musisz na oko znaleźć transienty czy inne szczegóły w zapisie dźwięku. Pliki .wfm nie zawierają samego audio, lecz tylko dane do wizualizacji – taka „mapka” falowa, która pozwala na szybkie zorientowanie się, co się dzieje w regionie bez konieczności analizowania pełnego pliku .wav. To praktyka zgodna z dobrą organizacją workflow – oddzielanie danych użytkowych od metadanych wizualnych przyspiesza ładowanie sesji i ułatwia współpracę kilku osób nad jednym projektem. Z mojego doświadczenia, kiedy .wfm są usunięte lub uszkodzone, DAW musi je wygenerować od nowa, co potrafi zająć trochę czasu przy większych projektach. Znajomość tego formatu to podstawa, jeśli chcesz świadomie zarządzać plikami projektów audio na poziomie technicznym.

Pytanie 23

Który z wymienionych efektów służy do podwyższania lub obniżania wysokości dźwięku o określony interwał?

A. Pitch Shifter
B. HF Exciter
C. Multivoice Chorus
D. Classic Phaser

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Pitch Shifter to właśnie taki efekt, który umożliwia podwyższanie lub obniżanie wysokości dźwięku o wybrany interwał, bez zmiany jego tempa. W praktyce, pitch shifter znajduje zastosowanie w bardzo wielu sytuacjach w produkcji dźwięku – na przykład, kiedy trzeba dopasować ścieżkę wokalną do innej tonacji, stworzyć efekt podwójnego głosu („double tracking”) albo uzyskać charakterystyczne brzmienia typu „chipmunk” czy „monster voice”, które są popularne zarówno w muzyce elektronicznej, jak i w produkcjach filmowych czy reklamowych. Moim zdaniem to jedno z bardziej kreatywnych narzędzi, bo pozwala tchnąć nowe życie w zwykłe nagrania, eksperymentować z harmonią i nawet podratować wokalistę, gdy śpiew trochę „poleciał”. W branży audio, użycie pitch shiftera jest codziennością, ale zawsze warto pamiętać o jakości algorytmu – te lepsze pozwalają uzyskać naturalne i nieposzarpane brzmienie nawet przy znaczących zmianach wysokości. Warto też zauważyć, że pitch shifting to nie to samo co timestretching, bo tu nie zmieniamy długości nagrania. Na większości profesjonalnych DAW-ów (Cubase, Pro Tools, Logic) znajdziesz wbudowane pitch shiftery, a wielu inżynierów dźwięku korzysta także z zewnętrznych pluginów, na przykład od Antares albo Waves, bo dają większą kontrolę. W standardach branżowych, szczególnie w miksie i postprodukcji, umiejętność obsługi pitch shiftera to naprawdę podstawa.

Pytanie 24

Który z podanych sygnałów posiada największą rozpiętość dynamiczną?

A. Nagrany z maksymalnym poziomem -6 dB.
B. Nagrany z maksymalnym poziomem -3 dB.
C. Nagrany z maksymalnym poziomem -12 dB.
D. Nagrany z maksymalnym poziomem -0,3 dB.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Największa rozpiętość dynamiczna (dynamic range) sygnału cyfrowego osiągana jest wtedy, gdy nagrywamy go jak najbliżej maksymalnego możliwego poziomu, czyli tuż pod tzw. 0 dBFS (Full Scale). Odpowiedź „nagranie z maksymalnym poziomem -0,3 dB” jest w tej sytuacji najbardziej poprawna, bo wykorzystuje niemal cały dostępny zakres sygnału, nie wchodząc jeszcze w obszar przesterowania. W praktyce właśnie taki zapas – drobne poniżej 0 dBFS – jest zalecany w profesjonalnych studiach nagraniowych, bo chroni przed przypadkowym clippingiem, a jednocześnie zapewnia optymalną jakość i najlepszy stosunek sygnału do szumu (SNR). Dla przykładu: jeśli nagrasz wokalistę z maksymalnym poziomem -12 dB, to 12 decybeli potencjalnego zakresu zostaje niewykorzystane, przez co wzrasta udział szumów tła i konwertera AD, co wprost zmniejsza rozpiętość dynamiczną nagrania. Moim zdaniem, takie korzystanie z pełnej skali sygnału to podstawa profesjonalnej realizacji dźwięku, czy to w radiu, czy przy masteringu muzyki. Warto pamiętać, że nawet renomowane urządzenia audio są tak projektowane, by najniższy możliwy poziom szumów osiągać przy silnym, ale nieprzesterowanym sygnale wejściowym. Zalecane standardy AES i EBU również sugerują trzymanie się możliwie wysokiego poziomu sygnału, z minimalnym marginesem bezpieczeństwa, właśnie na poziomie -0,3 lub -1 dBFS.

Pytanie 25

Który z zamieszczonych skrótów oznacza filtr dolnoprzepustowy?

A. HPF
B. LF
C. LPF
D. BPF

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
LPF to skrót od angielskiego Low Pass Filter, czyli filtr dolnoprzepustowy. Takie filtry przepuszczają sygnały o częstotliwości niższej niż określony próg, a tłumią te o częstotliwości wyższej. W praktyce LPF stosuje się bardzo często w elektronice audio, na przykład w kolumnach głośnikowych, gdzie odcina się wysokie tony dla subwoofera. No i oczywiście w sprzęcie pomiarowym, gdzie zależy nam na odfiltrowaniu zakłóceń wysokoczęstotliwościowych, np. szumu impulsowego. W różnych normach, np. w telekomunikacji albo automatyce przemysłowej, LPF jest używany do ochrony urządzeń przed niepożądanymi składowymi sygnału. Co ciekawe, filtry dolnoprzepustowe są stosowane nawet w fotografii cyfrowej, gdzie tzw. filtr antyaliasingowy chroni matrycę przed powstawaniem efektu mory. Moim zdaniem umiejętność rozróżniania tego typu filtrów to absolutna podstawa dla każdego, kto poważnie myśli o pracy z elektroniką czy automatyką. Przy projektowaniu obwodów zawsze lepiej wiedzieć, co oznacza dany skrót, niż błądzić po omacku. I tak w praktyce, jeśli widzisz LPF np. w schemacie blokowym jakiegoś urządzenia, możesz od razu założyć, że chodzi o eliminację niepożądanych wysokich częstotliwości. Warto pamiętać, że oznaczenia filtrów są właściwie standardowe na całym świecie – ten skrót pojawi się zarówno w dokumentacji producentów sprzętu, jak i w literaturze fachowej.

Pytanie 26

Aby zarchiwizować nagranie dźwiękowe, które powstało w procesie konwersji analogowo-cyfrowej, do formatu CD-Audio, należy zachować

A. plik o parametrach 44.1 kHz/16 bit.
B. plik w formacie MP3.
C. plik o parametrach 48 kHz/16 bit.
D. plik w formacie MP3 oraz plik odszumiony.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Prawidłowo, format 44.1 kHz/16 bit to dokładnie to, czego wymagają płyty CD-Audio. Ten standard nie jest przypadkowy – został wprowadzony w latach 80. przez firmy Sony i Philips, bo pozwalał na uzyskanie wysokiej jakości dźwięku przy rozsądnym rozmiarze pliku i kompatybilności ze sprzętem. Częstotliwość próbkowania 44.1 kHz wynika z zasady Nyquista, która mówi, że aby cyfrowo wiernie odwzorować dźwięk do 20 kHz (czyli zakresu słyszalnego przez człowieka), trzeba próbować co najmniej dwa razy szybciej – stąd właśnie minimum 40 kHz. 16 bitów na próbkę to z kolei rozdzielczość, która daje wystarczająco szeroki zakres dynamiki (czyli różnicę między najcichszymi a najgłośniejszymi dźwiękami) dla większości zastosowań muzycznych. W praktyce, jeśli chcemy nagranie wrzucić na tradycyjną płytę CD, trzeba je przygotować właśnie z tymi parametrami, najlepiej w bezstratnym formacie WAV lub AIFF. Inaczej napęd CD nie odtworzy takiego pliku albo jakość dźwięku będzie niezgodna ze standardem. Moim zdaniem warto zapamiętać, że te parametry to taki złoty środek między jakością a możliwościami technicznymi sprzętu konsumenckiego. W archiwizacji nagrań, szczególnie jeśli oryginał był analogowy, zachowanie 44.1 kHz/16 bit gwarantuje, że nie stracimy detali dźwięku i plik będzie odtwarzalny praktycznie wszędzie, gdzie używa się klasycznego CD-Audio.

Pytanie 27

Która z wymienionych płyt DVD jest płytą wielokrotnego zapisu danych?

A. DVD-R
B. DVD+R
C. DVD-RW
D. DVD+R DL

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś DVD-RW i to jest trafny wybór, bo właśnie ta płyta umożliwia wielokrotny zapis i kasowanie danych. DVD-RW (czyli Digital Versatile Disc – ReWritable) działa trochę jak pendrive, tylko że w postaci płyty optycznej. Możesz nagrywać, kasować i ponownie nagrywać dane – według standardu nawet do tysiąca razy, chociaż w praktyce to już bywa różnie i zależy od jakości nośnika oraz nagrywarki. W zastosowaniach domowych czy w małych firmach takie płyty świetnie się sprawdzają przy backupie np. zdjęć czy dokumentów, które wymagają aktualizacji. Branżowo, kiedyś używano DVD-RW do testowania autorunów, wersji demo oprogramowania czy archiwizacji tymczasowej – przed czasami pendrive'ów i w chmurze to był niezły patent. Warto wiedzieć, że płyty DVD-R oraz DVD+R są jednokrotnego zapisu – jak raz coś nagrasz, to już nie zmienisz, a DVD+R DL to jeszcze wersja dwuwarstwowa, ale też tylko jednokrotnego zapisu. Standardy zapisu optycznego jasno określają, że tylko nośniki z oznaczeniem 'RW' (ReWritable) pozwalają na ponowne użycie, co jest zgodne z praktyką stosowaną w branży IT i elektroniki użytkowej. Moim zdaniem, znając te różnice, można uniknąć wielu nieporozumień przy doborze nośników do różnych zadań – serio, to oszczędza czas i nerwy.

Pytanie 28

Znaczniki w sesji programu DAW należy umiejscowić na osi

A. Timeline
B. Markers
C. Meter
D. Tempo

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Markers to narzędzie w DAW, które służy do oznaczania konkretnych punktów na osi czasu (timeline) projektu. W praktyce, gdy pracujemy nad większym projektem muzycznym albo postprodukcją audio, bardzo często wstawiamy znaczniki, żeby na szybko wrócić do ważnych miejsc – na przykład refrenu, wejścia wokalu czy początku nowej sceny. W większości profesjonalnych programów DAW, jak Ableton Live, Pro Tools czy Cubase, sekcja Markers znajduje się zwykle nad główną linią czasu i można ją łatwo edytować, przesuwać, opisywać. To właśnie Markers pozwalają na szybkie poruszanie się po projekcie oraz ułatwiają współpracę z innymi osobami (np. ktoś od miksu od razu widzi, gdzie jest bridge albo gdzie trzeba poprawić błąd). Z mojego doświadczenia, bez znaczników praca nad bardziej skomplikowanymi utworami potrafi być naprawdę męcząca – ciągle trzeba przewijać i szukać tych samych miejsc. Warto pamiętać, że korzystanie z Markers jest uważane za dobrą praktykę branżową, bo zwiększa efektywność, porządek i przejrzystość całej sesji. Jeszcze jedna rzecz: Markers nie mają wpływu na dźwięk czy tempo, służą głównie do nawigacji i organizacji, co moim zdaniem jest ich największym atutem.

Pytanie 29

Który z wymienionych skrótów standardowo oznacza zmienną przepływność bitową sygnału cyfrowego?

A. ABR
B. MBR
C. CBR
D. VBR

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
VBR to skrót od Variable Bitrate, co oznacza zmienną przepływność bitową. To bardzo charakterystyczne dla nowoczesnych formatów kompresji audio i wideo – na przykład w MP3, MPEG-4 czy H.264. W praktyce VBR polega na tym, że bitrate nie jest sztywnie ustalony, tylko dostosowuje się dynamicznie w zależności od złożoności fragmentu sygnału. Prościej mówiąc – tam, gdzie dużo się dzieje (np. szybka akcja w filmie, dynamiczne sceny, złożona muzyka), bitrate rośnie, żeby zachować jakość. Tam, gdzie sceny statyczne czy prosta cisza w audio – bitrate automatycznie spada i nie marnujemy miejsca. Dzięki temu pliki z VBR zwykle mają lepszy stosunek jakości do rozmiaru niż w przypadku stałego bitrate (CBR). Moim zdaniem, jak ktoś koduje nagrania do archiwum czy przesyła przez sieć o nieregularnej przepustowości, to VBR to jest naprawdę praktyczny wybór. Branżowe standardy bardzo często preferują VBR tam, gdzie zależy na maksymalnej jakości przy oszczędności pasma czy powierzchni dyskowej – np. YouTube czy Spotify korzystają z tego rozwiązania. Z mojego doświadczenia, przy montażu wideo zawsze warto upewnić się, że program eksportuje materiał w VBR, żeby nie tracić jakości na dynamicznych scenach. To takie trochę sprytne podejście do zarządzania ograniczonymi zasobami, wykorzystując je dokładnie tam, gdzie są potrzebne.

Pytanie 30

Aby szybko zlokalizować początki kolejnych utworów zmasterowanych do nagrania w formacie CD-Audio, najlepiej jest wykonać spis

A. linków.
B. fade’ów.
C. setów.
D. znaczników.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybranie znaczników jako właściwej odpowiedzi pokazuje zrozumienie, jak rzeczywiście działa profesjonalny mastering i authoring płyt CD-Audio. Znaczniki (ang. track markers lub index markers) to specjalnie umieszczone punkty na ścieżce, które informują odtwarzacz CD o początku każdego kolejnego utworu. Dzięki nim sprzęt audio od razu wie, gdzie zaczyna się dana piosenka i może „przeskoczyć” dokładnie tam, gdzie chcemy. Takie znaczniki umieszcza się już na etapie masteringu, często w oprogramowaniu DAW albo dedykowanych aplikacjach do authoringu CD. Moim zdaniem bez tych znaczników każda płyta brzmi po prostu mniej profesjonalnie, a użytkownik traci wygodę obsługi, bo trzeba przewijać. Standard Red Book (czyli ten, który definiuje CD-Audio) jasno precyzuje, że każda ścieżka musi mieć swój własny początek oznaczony właśnie takim markerem. Warto pamiętać, że przy dużych projektach, gdzie na jednym nośniku mamy kilkanaście czy kilkadziesiąt kawałków, bez tych znaczników nawet najlepszy materiał zwyczajnie się „gubi”. Z mojego doświadczenia praktycznego wynika, że dobrze wstawione znaczniki to podstawa kontroli jakości oraz wygody słuchacza. W branży muzycznej i wszędzie tam, gdzie liczy się precyzja i profesjonalizm, znaczniki są absolutnym must-have. Jeśli ktoś przygotowuje płytę do tłoczenia, to spis znaczników to naprawdę podstawa dokumentacji dla tłoczni.

Pytanie 31

Który z wymienionych formatów plików dźwiękowych umożliwia dystrybucję dźwięku wielokanałowego?

A. .aiff
B. .ac3
C. .omf
D. .mp3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Format pliku .ac3, czyli Dolby Digital Audio Coding 3, to jeden z najważniejszych standardów w branży filmowej i szeroko rozumianej postprodukcji dźwięku. Umożliwia on zapis i dystrybucję dźwięku wielokanałowego, najczęściej w systemie 5.1, co oznacza pięć kanałów pełnopasmowych i jeden kanał niskich częstotliwości (subwoofer). Ten format jest wykorzystywany głównie na płytach DVD, Blu-ray, w telewizji cyfrowej, a nawet w kinach domowych. Z mojego doświadczenia, kiedy pracowałem przy projektach filmowych, to właśnie pliki .ac3 były standardem przy masteringu ścieżek surround – inne formaty praktycznie nie wchodziły w grę. Plik .ac3 pozwala na zachowanie wysokiej jakości dźwięku przy stosunkowo niewielkim rozmiarze, co jest kluczowe przy dystrybucji. Bardzo ciekawą rzeczą jest to, że standard Dolby Digital jest wspierany przez większość amplitunerów i odtwarzaczy, co daje uniwersalność i pewność, że zamierzony efekt trafi do odbiorcy. Moim zdaniem, jeśli ktoś chce na poważnie wejść w świat dźwięku przestrzennego, to bez znajomości .ac3 ani rusz. W branży to taki must have. Warto też zauważyć, że .ac3 zapewnia obsługę metadanych, co ułatwia późniejsze dostosowanie dźwięku do różnych warunków odsłuchowych, np. przy dynamicznym tłumieniu dialogów czy automatycznym wyrównywaniu poziomów.

Pytanie 32

Element sesji DAW stanowiący wielokanałową grupę regionów należy utworzyć za pomocą opcji

A. Clip Group.
B. Loop Region.
C. Unloop Region.
D. Split Clip.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Clip Group to funkcja, która zdecydowanie ułatwia pracę z wieloma ścieżkami w sesji DAW, zwłaszcza gdy mamy do czynienia z projektami nagraniowymi lub miksowymi, gdzie na przykład perkusja albo wokale są rozbite na oddzielne ślady. Tworzenie grupy klipów pozwala na jednoczesne edytowanie, przesuwanie, kopiowanie czy nawet wycinanie regionów na kilku kanałach naraz, tak żeby zachować pełną synchronizację i proporcje czasowe między wszystkimi elementami. Z mojego doświadczenia to jest wręcz niezbędne przy edycji np. wielościeżkowych bębnów – chcesz przesunąć fill na wszystkich mikrofonach jednocześnie, to Clip Group błyskawicznie rozwiązuje temat. W dużych studiach nikt nie wyobraża sobie wracania do pracy na pojedynczych regionach, bo to po prostu niewygodne i nieefektywne. Dla jasności – najlepsze DAWy mają opcje grupowania klipów nie tylko tymczasowo, ale i na stałe, co pozwala potem na szybkie zarządzanie dużymi partiami aranżacji. Clip Group to też gwarancja, że przypadkowo nie rozjedziesz fazy między mikrofonami, bo wszystko przesuwa się w idealnym czasie. Branżowym standardem jest takie podejście, bo pozwala zachować porządek w sesji, zwłaszcza przy projektach wymagających precyzyjnej edycji materiału. Moim zdaniem bez tej funkcji trudno mówić o profesjonalnej pracy w DAW – to podstawa workflow.

Pytanie 33

Funkcja służąca do powiększenia liczby ścieżek w sesji oprogramowania DAW znajduje się typowo w menu

A. TRACK
B. VIEW
C. EDIT
D. EVENT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
W większości programów typu DAW (Digital Audio Workstation) menu TRACK to podstawowe miejsce, gdzie zarządza się wszystkimi operacjami związanymi z torami ścieżek, czyli trackami. Dodawanie nowych ścieżek – czy to audio, MIDI, automatyzacji czy grupujących – praktycznie zawsze znajduje się właśnie tu. Moim zdaniem wynika to z logicznego podziału funkcjonalności – opcje związane z edycją (EDIT) czy widokiem (VIEW) albo zdarzeniami (EVENT) po prostu nie obsługują stricte zarządzania strukturą sesji, jeśli chodzi o liczbę ścieżek. Z mojego doświadczenia, niezależnie czy pracujemy w Cubase, Pro Tools, Reaperze czy nawet Logic Pro, zawsze spotykam się z takim rozwiązaniem – polecanie menu TRACK to już taki branżowy standard. Praktyka pokazuje, że szybkie dodanie ścieżki audio lub MIDI przez to menu bardzo przyspiesza workflow, zwłaszcza w większych projektach. Nawet skróty klawiszowe przypisane do tej funkcji najczęściej można znaleźć właśnie w sekcji TRACK. Warto też pamiętać, że niektóre DAW-y pozwalają na dodanie wielu ścieżek jednocześnie, wybierając typ i ilość – to właśnie znajdziemy w opcjach TRACK. Używanie tej funkcji zgodnie z przeznaczeniem zdecydowanie usprawnia pracę i jest zgodne z praktykami realizatorów i producentów.

Pytanie 34

Która z wymienionych szyn standardowo przeznaczona jest do wysłania sygnału ze ścieżki w sesji programu DAW na efekt równoległy?

A. MASTER
B. VCA
C. BUS
D. AUX

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Szyna AUX to absolutny standard jeśli chodzi o wysyłanie sygnału równolegle do efektów, takich jak reverb, delay czy chorus, w większości programów DAW. Główną zaletą AUX-ów jest to, że pozwalają wysłać określoną ilość sygnału z dowolnej ścieżki do efektu, bez wpływania na sygnał główny tej ścieżki — to tzw. wysyłka równoległa. Dzięki temu można np. nałożyć pogłos tylko na wybraną część miksu, kontrolować poziom efektu niezależnie od poziomu ścieżki bazowej i oszczędzać zasoby, bo jeden efekt obsługuje wiele śladów naraz. Praktycznie, kiedy mikser ma pogłos na AUX-ie, to wokal, werbel i gitary mogą korzystać z tego samego efektu, każdy w innej proporcji. Moim zdaniem, to jedna z najważniejszych funkcji, które odróżniają profesjonalny miks od amatorskiego – umiejętne korzystanie z wysyłek na AUX-y pozwala uzyskać spójność przestrzenną i naturalność brzmienia. Warto też pamiętać, że AUX nie wpływa na poziom sumy miksu, bo to tylko dodatkowa ścieżka sygnału. W branży muzycznej uważa się, że efekty typu time-based (jak delay czy reverb) prawie zawsze lepiej wrzucać na AUX niż wstawiać bezpośrednio na ścieżkę, bo mamy wtedy pełną kontrolę nad proporcjami i całość brzmi dużo bardziej profesjonalnie.

Pytanie 35

W celu zminimalizowania latencji przy przetwarzaniu dźwięku w oprogramowaniu DAW, należy

A. zmniejszyć przepływność bitową sygnału.
B. użyć szybkiego dysku zewnętrznego.
C. zmniejszyć rozmiar bufora programowego.
D. zmniejszyć częstotliwość próbkowania dźwięku.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmniejszenie rozmiaru bufora programowego to jedna z najskuteczniejszych metod na obniżenie latencji podczas pracy z dźwiękiem w DAW. Wynika to z faktu, że bufor odpowiada za przetwarzanie i przekazywanie porcji danych – im mniejszy rozmiar bufora, tym szybciej sygnał przechodzi przez system, a opóźnienie między wejściem a wyjściem maleje. W praktyce, przy nagrywaniu czy graniu na żywo, bardzo istotne jest, by dźwięk reagował natychmiast na działania muzyka czy realizatora, bo każdy zauważalny lag potrafi mocno utrudnić pracę. Profesjonalne studia oraz osoby zajmujące się miksowaniem live praktycznie zawsze zaczynają od ustawienia minimalnej akceptowalnej wartości bufora, dopiero kiedy pojawią się problemy z wydajnością, podnoszą go. Warto pamiętać, że zbyt niski bufor może powodować artefakty dźwiękowe czy trzaski, więc trzeba znaleźć złoty środek. Coraz częściej interfejsy audio i DAW pozwalają dynamicznie zmieniać bufor, co jest mega pomocne. Moim zdaniem, zwłaszcza przy nagrywkach wokali lub instrumentów na żywo, różnica jest kosmicznie odczuwalna – latencja potrafi spaść do poziomu, gdzie praktycznie jej nie zauważamy.

Pytanie 36

Automatyczna opcja usuwania cichych fragmentów poprzez wycięcie ich z regionów audio występuje w wielu aplikacjach edycyjnych, pod nazwą

A. Fade Out.
B. Fade In.
C. Strip Silence.
D. Noise Gate.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Automatyczna funkcja usuwania cichych fragmentów pod nazwą Strip Silence to, moim zdaniem, naprawdę użyteczne narzędzie w pracy z audio. Dzięki niej nie trzeba ręcznie wycinać ciszy z nagrań – program sam wykrywa miejsca, gdzie poziom dźwięku spada poniżej określonego progu i po prostu je wycina, zostawiając czyste, zwarte regiony z samą treścią. Najczęściej korzysta się z tego podczas montażu podcastów, nagrań lektorskich albo przy miksowaniu wielościeżkowych sesji, gdzie szybko trzeba pozbyć się zbędnych przerw między wypowiedziami. W dużych produkcjach audio to ogromna oszczędność czasu. Strip Silence znajdziesz praktycznie w każdej profesjonalnej aplikacji typu DAW, takiej jak Pro Tools, Logic Pro, Cubase czy Ableton Live. Co ciekawe, niektóre programy pozwalają ustawić dokładne parametry tej funkcji – np. próg czułości, minimalny czas trwania ciszy czy długość pozostawianych fade’ów na końcach regionów, żeby wycięcia nie były zbyt ostre. Używanie Strip Silence to jest taki branżowy standard, szczególnie przy obróbce mowy, bo ręczne przesłuchiwanie i cięcie kilkugodzinnych nagrań to, mówiąc szczerze, nic przyjemnego. Z mojego punktu widzenia, naprawdę warto opanować tę funkcję, bo przyspiesza workflow i pozwala skupić się na kreatywnych aspektach realizacji dźwięku.

Pytanie 37

Który z wymienionych procesorów zawęża zakres dynamiki nagrania?

A. Delay
B. Compressor
C. Gate
D. Equaliser

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kompresor to procesor, który faktycznie służy do zawężania zakresu dynamiki sygnału audio. W praktyce działa to tak, że kompresor zmniejsza różnicę między najgłośniejszymi a najcichszymi fragmentami dźwięku – odcina szczyty, podbija cichsze partie, no i całość brzmi bardziej „równo”, łatwiej to potem zrealizować w miksie. Spotyka się to praktycznie na każdym etapie produkcji muzycznej: wokale, bębny, gitary, nawet na całym miksie końcowym (mastering). Moim zdaniem kompresor to jedno z najważniejszych narzędzi w arsenale realizatora – bez niego dźwięk często traci „profesjonalny” charakter, bo bywa za bardzo rozchwiany dynamiką. W branżowych standardach (np. produkcje radiowe, streaming) kompresja jest wręcz wymagana, żeby zachować spójną głośność i klarowność. Co ciekawe, kompresory mają też swoje typowe parametry, jak threshold, ratio, attack, release – i warto je rozumieć, bo każdy z nich wpływa na to, jak mocno sygnał będzie ściskany. Z mojego doświadczenia, czasem trzeba się natrudzić, żeby nie przesadzić z kompresją, bo wtedy dźwięk robi się „płaski”, ale jak już się wyczuje balans, to naprawdę daje to świetne efekty.

Pytanie 38

Który z trybów automatyki w programie DAW nie powoduje zmiany głośności dźwięku?

A. Read
B. Latch
C. Touch
D. Off

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tryb 'Off' w automatyce DAW to taki trochę niewidzialny strażnik – kiedy go ustawisz, po prostu żadne dane automatyki nie są odtwarzane ani zapisywane. W praktyce oznacza to, że wszystkie zapisane wcześniej ruchy suwaków, zmiany głośności, panoramy czy inne automatyczne manipulacje są ignorowane przez DAW-a. To jest bardzo przydatne, jeśli chcesz mieć pełną kontrolę nad ścieżką i chwilowo wyłączyć wpływ automatyki na dany kanał, na przykład podczas miksu porównawczego lub szybkich edycji. Z mojego doświadczenia, korzystanie z trybu 'Off' jest nieocenione, żeby coś nie „wyskoczyło” nieoczekiwanie w głośności, bo DAW czyta jakieś stare dane automatyki. W zasadzie wszyscy doświadczeni realizatorzy polecają, żeby zawsze sprawdzać, czy ścieżka nie jest przypadkiem w trybie 'Read', 'Latch' albo 'Touch', kiedy chcemy pracować w pełni manualnie. W przemyśle audio to dość powszechna praktyka, żeby nie wprowadzać nieświadomie zmian w miksie przez zapomnianą automatykę. Warto wiedzieć, że 'Off' bywa też nazywany 'Bypass' w niektórych programach, więc dobrze patrzeć na różne nazwy zależnie od softu. Krótko mówiąc – jeśli nie chcesz, żeby automatika wpływała na głośność czy inne parametry, tryb 'Off' jest tym, czego szukasz. Bez żadnych podstępnych zmian, totalny spokój, wszystko leci tak, jak ręcznie ustawisz.

Pytanie 39

Który dokument stanowi zapis nutowy utworu muzycznego?

A. Playlista.
B. Scenariusz.
C. Spis efektów.
D. Partytura.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Partytura to podstawowy dokument wykorzystywany w świecie muzyki, szczególnie w profesjonalnych produkcjach i podczas pracy zespołów muzycznych, orkiestr czy chóru. Jest to zapis nutowy całego utworu, gdzie każda linia odpowiada innemu instrumentowi lub głosowi. Dzięki temu dyrygent, kompozytor czy realizator dźwięku może dokładnie zobaczyć, co i kiedy ma być zagrane przez dany instrument. W praktyce partytura jest niezbędna nie tylko podczas prób, ale także w trakcie nagrań studyjnych czy koncertów na żywo, bo pozwala zachować pełną kontrolę nad wykonaniem utworu. Moim zdaniem, dobrze przygotowana partytura jest dowodem profesjonalizmu – każda licząca się sesja nagraniowa czy spektakl muzyczny opiera się właśnie na niej. Co ciekawe, obecnie coraz częściej korzysta się z cyfrowych partytur, które można łatwo edytować i przesyłać, co znacznie ułatwia pracę całego zespołu produkcyjnego. W branży muzycznej standardem jest, by każda osoba biorąca udział w wykonaniu miała dostęp do swojej własnej linii partytury bądź do całości, w zależności od potrzeb. To naprawdę ułatwia życie i pozwala uniknąć wielu nieporozumień na etapie realizacji projektu.

Pytanie 40

Zastosowanie filtra LOW CUT w materiale muzycznym ma szczególne znaczenie dla

A. kształtowania barwy blach hi-hatu.
B. usunięcia szumów własnych miksera.
C. usunięcia dudnienia i wibracji.
D. regulowania barwy stopy perkusji.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Filtr LOW CUT, nazywany też HPF (High Pass Filter), to jedno z tych narzędzi, bez których trudno sobie wyobrazić pracę realizatora dźwięku. Jego główną rolą jest usuwanie niepożądanych niskich częstotliwości, które często są źródłem dudnienia i wibracji, zwłaszcza w nagraniach na żywo czy miksach z mikrofonami pojemnościowymi. Takie zakłócenia mogą pochodzić chociażby od drgań podłogi, kroków, wentylacji, a nawet ruchu powietrza. Moim zdaniem bardzo łatwo to przeoczyć, szczególnie gdy nie pracujesz na profesjonalnie przygotowanym pomieszczeniu. Skutkiem braku zastosowania filtra LOW CUT są często zamulone, „brudne” nagrania, gdzie instrumenty zaczynają się zlewać, a wokale tracą przejrzystość. W praktyce, dobrym zwyczajem jest rutynowe stosowanie LOW CUT-a na śladach, które w miksie nie potrzebują niskiego pasma, np. na overheadach, wokalach czy mikrofonach ambientowych. To nie tylko poprawia selektywność miksu, ale i chroni sprzęt (np. głośniki czy wzmacniacze) przed przypadkowymi skokami energii w subbasie. Branżowe standardy mówią wprost: stosuj LOW CUT zawsze tam, gdzie nie ma sensu trzymać „błota” w dole pasma. Często nawet drobne podcięcie – rzędu 60-80 Hz – potrafi zdziałać cuda i sprawić, że całość brzmi znacznie czyściej i profesjonalniej. Z mojego doświadczenia, wielu początkujących pomija tę kwestię, przez co miks robi się nieczytelny. Lepiej wyciąć trochę za dużo niż za mało – zawsze można to skorygować.