Proces normalizacji to bardzo podstawowy, ale jednocześnie niesamowicie przydatny etap w pracy z dźwiękiem – zarówno w studiu, jak i przy produkcji materiałów do internetu czy radia. Polega na tym, że całość nagrania jest matematycznie przeskalowywana tak, aby jej najwyższy punkt (wartość szczytowa, czyli tzw. peak) był dokładnie na poziomie 0 dBFS. To jest najczęstszy standard przy eksporcie plików cyfrowych, bo 0 dBFS to maksymalny poziom, jaki może przyjąć sygnał cyfrowy bez przesterowania. Moim zdaniem, normalizacja powinna być jednym z podstawowych narzędzi każdego, kto obrabia dźwięk, bo pozwala uniknąć sytuacji, w której materiał jest za cichy lub zanadto „przekręcony” – a niestety to się często zdarza początkującym realizatorom. Warto podkreślić, że normalizacja nie zmienia dynamiki nagrania, a jedynie poziom całości względem maksimum. W większości programów DAW funkcja ta jest dostępna w jednym kliknięciu – wystarczy zaznaczyć fragment lub cały plik i wybrać „Normalize to 0 dBFS”. W praktyce, jeśli planujesz dalsze przetwarzanie, czasem lepiej zostawić trochę marginesu (np. -1 dBFS), bo konwersje formatów czy eksport do mp3 mogą generować nieprzewidziane przesterowania. Generalnie jednak – jeśli chodzi o doprowadzenie nagrania do branżowego standardu głośności cyfrowej bez naruszania dynamiki – normalizacja to właściwe narzędzie.
W przypadku pracy z cyfrowym dźwiękiem łatwo pomylić niektóre procesy, bo ich nazwy mogą się wydawać podobne. Skalowanie faktycznie sugeruje jakąś zmianę poziomu, ale technicznie oznacza raczej zmianę zakresu wartości sygnału – na przykład podczas konwersji między różnymi standardami bitowymi lub formatami danych, a nie koniecznie odnosi się do ustawienia wartości szczytowej na konkretnym poziomie dBFS. Kwantyzacja natomiast to zupełnie inny świat – to proces przypisywania wartości sygnału do dyskretnych poziomów podczas cyfryzacji (np. przy zapisie 16-bitowym). Kwantyzacja wprowadza zniekształcenia zwane szumem kwantyzacji, ale nie ma ona nic wspólnego z dopasowywaniem poziomu nagrania do pułapu 0 dBFS. Formatowanie zaś jest określeniem typowo informatycznym, kojarzonym z przygotowaniem nośnika danych do zapisu (np. dysku lub karty pamięci), albo zmianą struktury zapisu pliku – a nie z operacją na poziomie głośności ścieżki audio. Moim zdaniem, bardzo łatwo tu popaść w pułapkę myślenia życzeniowego, sugerując się intuicją językową, a nie techniczną definicją. W praktyce, jeśli chcesz, żeby nagranie osiągało maksymalny możliwy poziom bez przesteru, musisz użyć właśnie normalizacji – to przyjęty standard branżowy, który daje przewidywalny efekt końcowy i nie wpływa na wewnętrzną dynamikę. Każda inna operacja albo robi coś zupełnie innego, albo nawet nie dotyczy procesu audio w ogóle. To właśnie dlatego podstawowa znajomość terminologii i procesów w cyfrowym audio jest taka ważna, bo pozwala uniknąć podobnych nieporozumień, które potem mogą prowadzić do błędów w realnych projektach muzycznych lub postprodukcyjnych.