Częstotliwość próbkowania to faktycznie kluczowy parametr w cyfrowym audio, który określa, jak często w jednostce czasu (najczęściej w 1 sekundzie) rejestrowane są próbki dźwięku. To właśnie ten parametr umieszcza próbki na osi czasu, czyli decyduje o tym, jak dokładnie odwzorowana jest fala dźwiękowa w cyfrowej postaci. Na przykład standard CD-Audio to 44,1 kHz, co oznacza, że w każdej sekundzie zapisywane jest aż 44 100 próbek. Im wyższa częstotliwość próbkowania, tym lepsza jakość odwzorowania dźwięku, ale też większy rozmiar pliku. Moim zdaniem, w praktyce warto wiedzieć, że w studiach nagraniowych często stosuje się jeszcze wyższe wartości, np. 48 kHz lub nawet 96 kHz, żeby uzyskać jak najlepszą jakość do dalszej edycji. W podcastach i rozmowach online schodzi się czasem do 22 kHz, bo wtedy wystarcza to, by głos ludzki był zrozumiały i pliki nie zajmowały dużo miejsca. Częstotliwość próbkowania ściśle wiąże się z tzw. twierdzeniem Nyquista, które mówi, że żeby poprawnie odwzorować dźwięk o danej częstotliwości, musimy próbkować go co najmniej dwa razy szybciej. W praktyce oznacza to, że dla dźwięków słyszalnych przez człowieka (do ok. 20 kHz) stosuje się próbkowanie co najmniej 40 kHz. Wybór odpowiedniej częstotliwości próbkowania to podstawa w każdym projekcie audio, bez tego trudno wyobrazić sobie profesjonalne podejście do nagrywania czy produkcji muzyki.
W świecie cyfrowego audio bardzo łatwo pomylić niektóre pojęcia, bo wszystkie brzmią podobnie technicznie, ale oznaczają zupełnie różne rzeczy. Długość słowa cyfrowego, często nazywana głębią bitową, określa, ile bitów przeznaczamy na zapisanie pojedynczej próbki dźwięku – to wpływa głównie na zakres dynamiki, czyli jak cicho lub głośno mogą być zapisane sygnały. Nie ma to jednak związku z rozmieszczeniem próbek na osi czasu – długość słowa cyfrowego dotyczy bardziej „rozdzielczości w pionie” (amplitudy), a nie w poziomie (czasie). Rozdzielczość to pojęcie szerokie i trochę mylące, bo czasem w audio określa się tak głębię bitową, czasem częstotliwość próbkowania, ale samo słowo „rozdzielczość” nie definiuje jednoznacznie, jak są rozmieszczone próbki na osi czasu. To raczej ogólne określenie jakości. Głębia bitowa, jak wspomniałem, to liczba bitów przypadających na jedną próbkę i decyduje o dynamice oraz poziomie szumów kwantyzacyjnych w zapisie. Typowym błędem jest zakładanie, że większa głębia bitowa wpływa na szczegółowość w czasie – a to nieprawda, bo wpływa jedynie na precyzję odwzorowania poziomu sygnału (amplitudy). Próbkowanie, czyli właśnie częstotliwość próbkowania, decyduje o tym, jak gęsto na osi czasu rozmieszczone są kolejne próbki sygnału – to ona jest odpowiedzialna za temporalną rozdzielczość pliku audio. W branży funkcjonują jasne standardy, jak np. 44,1 kHz/16 bit czy 48 kHz/24 bit, gdzie każda z tych wartości odpowiada za inny aspekt cyfrowego zapisu dźwięku. Mylenie tych pojęć prowadzi często do błędnych decyzji przy wyborze sprzętu lub ustawień w oprogramowaniu, co może skutkować nieoptymalną jakością nagrania albo niepotrzebnie dużym rozmiarem plików. Dlatego tak ważne jest, żeby rozumieć te podstawowe definicje i umieć je stosować w praktyce – moim zdaniem to fundament każdej pracy z dźwiękiem cyfrowym.