Normalizacja plików dźwiękowych polega na takim przetwarzaniu sygnału audio, żeby jego maksymalny poziom głośności był ustawiony na określony próg, najczęściej tuż poniżej 0 dBFS (decybeli względem pełnej skali, czyli maksymalnej wartości w systemie cyfrowym). W praktyce oznacza to, że najgłośniejszy fragment nagrania zostaje podciągnięty do żądanego poziomu, a reszta sygnału zostaje proporcjonalnie wzmocniona. Dzięki temu zabiegowi całość nagrania brzmi głośniej, ale nie wprowadza się zniekształceń typu przesterowanie. W branży muzycznej i radiowej normalizacja to absolutny standard — przygotowując ścieżki do masteringu albo publikacji w sieci, praktycznie zawsze się z tego korzysta. Chodzi o to, żeby wszystkie utwory lub podcasty trzymały podobny poziom maksymalnej głośności i żeby podczas odtwarzania nie było konieczności ciągłego ściszania czy podgłaśniania materiału. Co ciekawe, normalizacja nie wyrównuje automatycznie poziomu wszystkich fragmentów (od tego jest np. kompresja lub automatyzacja głośności), ale dba właśnie o ten szczytowy, graniczny poziom. Z mojego doświadczenia wynika, że często początkujący mylą to pojęcie z wyrównywaniem głośności czy kompresją dynamiki, a to zupełnie inna bajka. Ostatecznie, dobrym nawykiem jest sprawdzanie poziomów przed eksportem, bo niektóre platformy — jak Spotify czy YouTube — i tak normalizują nagrania po swojemu.
Często spotykam się z nieporozumieniami dotyczącymi normalizacji dźwięku, zwłaszcza jeśli chodzi o to, co dokładnie jest jej celem. Wiele osób błędnie zakłada, że normalizacja wyrównuje piki nagrania do tej samej wartości. W rzeczywistości normalizacja ustawia jedynie globalny, maksymalny poziom sygnału, nie zaś poziomy poszczególnych pików w różnych miejscach nagrania. To już zadanie limiterów czy narzędzi do kompresji – one potrafią bardziej „wygładzić” nierówności w sygnale. Z drugiej strony niektórzy sądzą, że normalizacja to ustalanie minimalnego poziomu nagrania. To też nie jest prawda – minimalny poziom nie ma znaczenia, bo liczy się szczyt (peak) sygnału. Ustalanie minimalnego poziomu mogłoby prowadzić do sztucznego podnoszenia ciszy tła, co kończy się szumami i ogólnym pogorszeniem jakości. Równie często pojawia się przekonanie, że normalizacja służy do wyrównania poziomu głośności poszczególnych fragmentów nagrania. Takie działanie wymagałoby zastosowania automatyzacji głośności lub kompresji dynamiki, które są dużo bardziej zaawansowanymi procesami, analizującymi zmiany sygnału w czasie i reagującymi na nie. Normalizacja działa na całym pliku jako całości, biorąc pod uwagę tylko jego najsilniejszy fragment. Moim zdaniem to najczęstszy błąd – mylić normalizację z procesami, które wpływają na dynamikę czy głośność w poszczególnych miejscach ścieżki. Branżowe standardy, np. zalecenia EBU R128 czy AES, jasno rozdzielają te pojęcia. Podsumowując: normalizacja ustala maksymalny poziom sygnału w pliku, a nie koryguje różnic między poszczególnymi fragmentami ani nie ustawia wartości minimalnej.