Normalizacja plików dźwiękowych to jedna z podstawowych czynności w obróbce audio, szczególnie jeśli chcemy, żeby wszystkie nagrania w projekcie brzmiały spójnie pod względem głośności. Chodzi w niej o to, żeby zbliżyć maksymalny poziom sygnału do wybranego punktu odniesienia, zwykle 0 dBFS, ale bez przekraczania granicy i wchodzenia w przesterowanie. Moim zdaniem, normalizacja to taki must-have w każdym projekcie, kiedy masz wiele źródeł – na przykład dialogi z różnych mikrofonów, efekty, muzykę – i nie chcesz, żeby coś znienacka było za cicho lub za głośno. W praktyce wygląda to tak: program DAW analizuje poziom najgłośniejszego fragmentu ścieżki i całość odpowiednio „podciąga” lub „zdejmuje”, by ustawić go na zadanym poziomie. To nie zmienia dynamiki materiału (w przeciwieństwie do kompresji), więc cały charakter nagrania zostaje zachowany. W branży filmowej, podcastowej czy nawet przy miksie muzycznym uznaje się to za dobrą praktykę porządkującą projekt. Szczerze mówiąc, jak ktoś zaczyna miks bez normalizacji, to potem może się nieźle namęczyć z nierówną głośnością, a przecież chodzi o komfort słuchacza. Co ciekawe, niektórzy inżynierowie używają jeszcze normalizacji do określonego LUFS (np. -23 LUFS w broadcast), ale to już wyższa szkoła jazdy.
W branży audio pojawia się sporo nieporozumień wokół tematu wyrównywania poziomów dźwięku, przez co łatwo pomylić pojęcie normalizacji z innymi procesami. Część osób uważa, że korekcja (EQ) jest właściwym sposobem na wyrównanie ścieżek, ale tak naprawdę korektor zmienia barwę dźwięku, podbijając lub tłumiąc wybrane zakresy częstotliwości, a nie poziom głośności jako taki. Lepiej ją zostawić do późniejszych etapów miksu, kiedy „koloryzujemy” dźwięk, a nie do wstępnego wyrównania plików. Automatyka panoramy to już zupełnie inna bajka – ustawia się nią położenie sygnału w obrazie stereo, przesuwając dźwięki w lewo albo prawo. Nie ma ona żadnego wpływu na ogólny poziom loudness, więc nawet perfekcyjnie wypanoramowane nagranie może być za ciche lub za głośne względem innych w projekcie. Jeśli chodzi o procesory dynamiczne typu Noise Gate, to ich główne zadanie to wycinanie niechcianego szumu lub dźwięków poniżej określonego progu – nie podnoszą ogólnego poziomu sygnału, więc nie są narzędziem do normalizacji. Spotkałem się czasem z sytuacją, gdzie ktoś właśnie próbował bronić się tylko bramką szumów, zamiast porządnie znormalizować wszystkie ścieżki. To niestety prowadzi do bałaganu w miksie, bo jedne ścieżki „wychodzą do przodu”, inne giną w tle i trudno osiągnąć profesjonalne, przewidywalne rezultaty. Najlepszą praktyką jest więc zawsze zacząć od normalizacji, a dopiero później stosować inne narzędzia do dalszej obróbki. Takie podejście polecają nawet podręczniki branżowe czy kursy produkcji audio.