Poprawnie wskazana została zasada wynikająca z twierdzenia Nyquista-Shannona: żeby uniknąć błędu próbkowania (aliasingu), częstotliwość próbkowania musi być co najmniej dwa razy większa od najwyższej składowej częstotliwości obecnej w sygnale. W aparatach słuchowych oznacza to, że jeśli chcemy prawidłowo odwzorować pasmo mowy do np. 6 kHz, to częstotliwość próbkowania powinna wynosić minimum 12 kHz, a w praktyce często 16 kHz lub 24 kHz, żeby mieć zapas na filtry antyaliasingowe i realne warunki pracy. Z mojego doświadczenia w audio jest tak, że projektanci nie trzymają się równo „2x”, tylko stosują trochę wyższą częstotliwość, bo to ułatwia filtrację i poprawia jakość przetwarzania cyfrowego. W aparatach słuchowych jest to szczególnie ważne, bo mamy bardzo małe opóźnienia dopuszczalne dla użytkownika, a jednocześnie musimy zachować możliwie naturalne brzmienie mowy i dźwięków otoczenia. Przed przetwornikiem A/C stosuje się filtr dolnoprzepustowy antyaliasingowy, który ogranicza pasmo sygnału tak, aby jego górna składowa była wyraźnie poniżej połowy częstotliwości próbkowania. To jest właśnie praktyczne zastosowanie tej zasady: najpierw określamy, jakie pasmo chcemy przenieść (np. do 8 kHz), potem dobieramy częstotliwość próbkowania (np. 16–24 kHz) i parametry filtrów. W standardach cyfrowego przetwarzania sygnałów przyrządów medycznych, w tym aparatów słuchowych, takie podejście jest traktowane jako podstawowa dobra praktyka inżynierska – zapewnia minimalne zniekształcenia widma, stabilne działanie algorytmów kompresji, redukcji szumów i kierunkowości mikrofonów, a także powtarzalne wyniki dopasowania aparatu do audiogramu.
Kluczowy błąd, który często się tu pojawia, polega na myleniu „częstotliwości występujących w sygnale” z „częstotliwością próbkowania”. Intuicyjnie ktoś może pomyśleć: skoro w sygnale mam składowe do pewnej górnej częstotliwości, to wystarczy próbkuję z taką samą częstotliwością albo nawet mniejszą. Niestety fizyka i matematyka sygnałów są tu dość bezlitosne. Jeżeli częstotliwość próbkowania jest równa górnej składowej częstotliwości, to próbki wychodzą tak rzadko, że sygnał sinusoidalny może być odwzorowany np. tylko dwoma punktami na okres, albo wręcz w taki sposób, że po rekonstrukcji wygląda jak sygnał o zupełnie innej częstotliwości. To jest właśnie aliasing – nakładanie się widm i mylenie wysokich częstotliwości z niższymi. Jeszcze gorzej jest, gdy częstotliwość próbkowania jest mniejsza od górnej składowej częstotliwości. Wtedy duża część informacji o sygnale po prostu ginie, a w widmie odtworzonym z próbek pojawiają się fałszywe składowe. W kontekście aparatów słuchowych oznaczałoby to zniekształconą mowę, nienaturalne barwy dźwięku, a nawet artefakty, które użytkownik mógłby odbierać jako nieprzyjemne „piski” lub „ćwierki”. Założenie, że wystarczy częstotliwość próbkowania równa dolnej składowej częstotliwości w sygnale, wynika z całkowitego niezrozumienia, co ogranicza pasmo – dolna składowa nie ma tu praktycznie znaczenia, bo to najwyższa częstotliwość determinuje minimalne wymagania na próbkowanie. Z kolei pomysł, żeby przyjąć częstotliwość próbkowania przynajmniej dwa razy mniejszą od górnej składowej, jest już całkowicie sprzeczny z twierdzeniem Nyquista-Shannona – to dokładnie sytuacja gwarantująca masywny aliasing. W prawidłowym podejściu zawsze patrzymy na najwyższą istotną składową sygnału (np. najwyższe użyteczne częstotliwości mowy i szumów środowiskowych, które chcemy kontrolować) i ustawiamy częstotliwość próbkowania co najmniej dwa razy wyżej, a w praktyce z pewnym zapasem. Dzięki temu cyfrowe algorytmy w aparatach słuchowych – kompresja, redukcja hałasu, kierunkowość mikrofonów, zarządzanie sprzężeniem zwrotnym – mają wiarygodne dane i mogą działać stabilnie oraz przewidywalnie. Moim zdaniem warto to traktować jako absolutną podstawę myślenia o każdym systemie audio, nie tylko o aparatach słuchowych.