Dokładnie taka częstotliwość próbkowania – 20 kHz – daje odstęp czasowy między próbkami równy 0,05 ms. Wynika to z prostego przeliczenia: okres próbkowania to odwrotność częstotliwości (T = 1/f). Dla 20 kHz to 1/20000 = 0,00005 s, czyli właśnie 0,05 ms. To podstawowa sprawa w cyfrowym przetwarzaniu dźwięku: wiedzieć, jak często trzeba próbować sygnał, żeby zachować jego najważniejsze cechy. Przykładowo, jeśli nagrywasz dźwięki, które nie mają bardzo wysokich częstotliwości, to 20 kHz wystarczy z zapasem – taki odstęp próbkowania spokojnie uchwyci nawet tony przewyższające zakres słyszenia większości ludzi. W praktyce stosuje się wyższe częstotliwości (np. 44,1 kHz w CD audio), żeby uniknąć zniekształceń i mieć większą jakość, ale w zastosowaniach przemysłowych czy do analizy prostych sygnałów często używa się właśnie tej wartości. Moim zdaniem, znajomość takich zależności pomaga potem ogarnąć, czemu niektóre próbki brzmią gorzej albo zniekształcają dźwięk. Branżowe standardy, jak teoria Nyquista, mówią, żeby częstotliwość próbkowania była co najmniej dwa razy wyższa niż najwyższa częstotliwość sygnału – przy 20 kHz można więc zarejestrować sygnały do 10 kHz bez utraty informacji. To taka praktyczna podstawa, której nie da się pominąć, jeśli chcesz świadomie konfigurować systemy audio lub pomiarowe.
W tym zadaniu kluczowe jest zrozumienie, jak częstotliwość próbkowania wpływa na odstęp czasowy między kolejnymi próbkami. Myślę, że często powodem pomyłek jest mechaniczne wybieranie częstotliwości bez przeliczania okresu, a to właśnie proste równanie T = 1/f pozwala szybko ocenić, czy rozwiązanie ma sens. Jeśli ktoś wybierze na przykład 10 kHz, to okres próbkowania wyniesie aż 0,1 ms (czyli dwa razy więcej niż 0,05 ms), więc próbki są wtedy rozstawione szerzej i mogą nie uchwycić wszystkich detali sygnału. Z kolei 30 kHz oznacza odstęp około 0,033 ms, a 40 kHz to już tylko 0,025 ms, więc te wartości są zdecydowanie za małe w kontekście pytania – próbki są zbierane częściej niż żądane 0,05 ms. Takie pomyłki wynikają często z nieprawidłowego kojarzenia pojęcia „częstotliwość” z „odstępem czasowym” – im wyższa częstotliwość, tym krótszy czas między próbkami. Moim zdaniem, to dość częste wśród osób, które skupiają się na liczbach, a nie na ich faktycznym znaczeniu. W praktyce zawodowej takie nieporozumienia mogą prowadzić do złego doboru sprzętu czy błędów w analizie sygnałów, zwłaszcza gdy wymagana jest konkretna rozdzielczość czasowa. Warto zapamiętać, że poprawne ustawienie parametrów próbkowania to nie tylko kwestia spełnienia minimalnych wymagań, ale też gwarancja jakości działania całego systemu. W branży powszechnie stosuje się zasadę, że częstotliwość próbkowania i odstęp czasowy są ściśle powiązane – jedno zawsze wynika z drugiego. Dobrze jest zawsze samodzielnie przeliczyć, jaki okres uzyskamy przy danej częstotliwości, zamiast polegać na intuicji czy zaokrąglonych liczbach.