Downsampling to pojęcie typowe dla cyfrowego przetwarzania sygnałów, szczególnie w kontekście audio, obrazu czy danych telemetrycznych. Chodzi tu o celowe zmniejszenie liczby próbek na sekundę, czyli obniżenie częstotliwości próbkowania, co pozwala np. na oszczędność miejsca czy mocy obliczeniowej. W realnych zastosowaniach, takich jak produkcja muzyczna czy transmisja danych, downsampling umożliwia konwersję sygnału do niższej jakości w celu dostosowania go do wymagań urządzenia końcowego albo ograniczeń transferu. Spotyka się to np. przy kodowaniu plików mp3 do niższego bitrate albo przy obróbce zdjęć na potrzeby internetu. Co ciekawe, w profesjonalnych narzędziach audio oraz DSP, przed downsamplingiem stosuje się zazwyczaj filtr dolnoprzepustowy (antyaliasingowy), żeby uniknąć powstawania artefaktów aliasingu – taki filtr to podstawa, serio, bez niego sygnał może być kompletnie zniszczony. Często myli się ten proces z degradacją jakości (jak np. bitcrushing), ale tu chodzi stricte o zmianę liczby próbek, a nie rozdzielczość bitową. Z mojego doświadczenia, dobrze przeprowadzony downsampling jest praktycznie niezauważalny, jeśli zachowane są wszystkie reguły sztuki. To całkiem przydatna umiejętność, szczególnie jeśli chcesz tworzyć własne syntezatory, efekty czy nawet aplikacje do streamingu audio.
Wiele osób myli procesy takie jak normalizacja, bitcrushing czy distortion z downsamplingiem, jednak każdy z tych terminów oznacza zupełnie inne operacje na sygnale. Normalizacja to po prostu dostosowanie amplitudy sygnału – zwykle polega na zwiększeniu lub zmniejszeniu głośności tak, by najwyższy pik osiągnął określony poziom, najczęściej 0 dBFS. Nie zmienia się tu liczba próbek, a tylko ich wartość, co jest szczególnie ważne np. w masteringu audio, żeby materiał nie przesterował. Bitcrushing z kolei to efekt polegający na obniżeniu rozdzielczości bitowej sygnału. Zamiast np. 16 bitów na próbkę masz tylko 8, 4, a nawet mniej, co daje charakterystyczne cyfrowe zniekształcenia, cenione w muzyce elektronicznej czy chiptune. To efekt zamierzony, artystyczny, a nie technika przetwarzania typowa dla inżynierów dźwięku chcących optymalizować przesył czy zapis danych. Distortion natomiast, jak sama nazwa wskazuje, odnosi się do nieliniowych zniekształceń sygnału – tutaj amplituda ulega bardzo mocnemu przekształceniu, pojawiają się nowe harmoniczne, dźwięk robi się bardziej agresywny, ale liczba próbek i częstotliwość się nie zmieniają. Często początkujący mylą te efekty, bo wszędzie pojawia się jakieś pojęcie „zmiany jakości”, ale warto pamiętać, że tylko downsampling zmniejsza liczbę próbek na sekundę. W praktyce, jeśli chcesz dostosować sygnał do niższej jakości transmisji lub archiwizacji, interesuje Cię downsampling, a nie żaden z tych efektów. W branży, szczególnie przy projektowaniu systemów DSP czy pracy w studiu, rozróżnianie tych pojęć to absolutna podstawa i warto się tego nauczyć raz a dobrze.