Dithering to jedna z tych technik, które wydają się niepozorne, a potrafią naprawdę uratować jakość sygnału cyfrowego, szczególnie przy niskich rozdzielczościach. Gdy sygnał analogowy zostaje zamieniony na cyfrowy, pojawia się zjawisko szumu kwantyzacji, czyli drobnych błędów wynikających z zaokrąglania wartości do najbliższego poziomu kwantyzacji. Dithering polega na dodaniu do sygnału małego, kontrolowanego szumu przed procesem kwantyzacji – brzmi to trochę paradoksalnie, ale dzięki temu te błędy nie kumulują się i nie tworzą nieprzyjemnych artefaktów, np. zniekształconych alikwotów czy nieprzyjemnego „cyfrowego” brzmienia w nagraniu audio. W audio masteringowym jest to zabieg absolutnie standardowy, szczególnie przy zgrywaniu ścieżki do niższej rozdzielczości, np. z 24 na 16 bitów. Spotkałem się z tym wielokrotnie w studiach nagraniowych – inżynierowie wręcz nie wyobrażają sobie finalizacji ścieżki bez zastosowania ditheringu. Co ciekawe, dithering jest używany także w grafice komputerowej, gdy trzeba zredukować liczbę kolorów w obrazie – tam efekt jest bardzo podobny, czyli wygładzenie przejść i uniknięcie widocznych pasów (bandingu). Moim zdaniem dobrze znać tę technikę, bo pozwala na znacznie lepszą kontrolę nad ostatecznym brzmieniem lub obrazem. Warto pamiętać, że są różne algorytmy ditheringu i ich dobór bywa zależny od zastosowania – na przykład w standardzie CD-Audio (Red Book) dithering jest w zasadzie normą. Jeśli ktoś chce zajmować się obróbką dźwięku profesjonalnie, nie sposób pominąć tej metody.
Wiele osób myli pojęcia związane z cyfrowym przetwarzaniem sygnałów i zakłada, że takie procesy jak kompresja, próbkowanie czy normalizacja mają bezpośredni wpływ na szum kwantyzacji, ale to nie do końca tak działa. Kompresja – w kontekście audio czy obrazu – oznacza zazwyczaj ograniczanie zakresu dynamiki lub redukcję objętości plików przez selektywne usuwanie określonych danych. To pomaga zmniejszyć rozmiar pliku lub poprawić słyszalność cichych dźwięków, ale nie wpływa bezpośrednio na szum kwantyzacji wynikający z ograniczonej rozdzielczości sygnału cyfrowego. Próbkowanie to sam proces zamiany sygnału analogowego na dyskretne próbki w czasie – częstotliwość próbkowania decyduje głównie o zakresie przenoszonych częstotliwości (zgodnie z twierdzeniem Nyquista), a nie o ilości czy charakterze szumu kwantyzacji. Mylenie tego procesu z ditheringiem jest dość częste, bo oba są kluczowymi etapami cyfryzacji, ale ich funkcje są inne. Normalizacja natomiast dotyczy wyrównywania poziomu głośności lub amplitudy sygnału – tu znowu nie ma realnego wpływu na charakter szumu kwantyzacji, bo to przekształcenie liniowe i nie wprowadza nowych wartości kwantyzacji, tylko zmienia skalę istniejących. W praktyce często spotykam się z błędnym przekonaniem, że wystarczy po prostu „lepiej spróbkować” albo „skompresować” dźwięk, żeby pozbyć się niechcianych artefaktów, ale to dither jest tutaj techniką celowo stosowaną zgodnie z branżowymi standardami (np. AES, EBU, standard Red Book dla CD). Główna idea ditheringu polega na tym, że wprowadzenie kontrolowanego szumu przed kwantyzacją sprawia, że błędy nie są skorelowane z sygnałem i bardziej przypominają równomierny szum, zamiast drażniących zniekształceń czy artefaktów. Nawet w przypadku obrazu komputerowego, dithering niweluje typowe „pasy” przy ograniczonej liczbie kolorów, czego nie osiągniesz innymi metodami wymienionymi w pytaniu. Moim zdaniem warto przeanalizować dokładnie, na którym etapie stosuje się każdą z tych technik, bo ich zadania często się nie pokrywają i nie zastąpią one specyficznego zastosowania ditheringu.