Rozdzielczość bitowa sygnału cyfrowego to po prostu liczba bitów, które są używane do zakodowania jednej próbki sygnału. To właśnie od tej wartości zależy, jak dokładnie (czyli z jaką precyzją) możemy opisać wartość sygnału w każdej chwili jego próbkowania. Przykładowo – 8 bitów daje 256 możliwych poziomów sygnału, a 16 bitów już aż 65536 poziomów. Im wyższa rozdzielczość bitowa, tym mniej zauważalna jest tzw. kwantyzacja, czyli 'schodkowanie' sygnału po konwersji z analogowego na cyfrowy. W praktyce – to dlatego muzyka w jakości CD brzmi tak dobrze, bo tam każda próbka ma 16 bitów. Branżowe standardy, takie jak PCM (Pulse Code Modulation), wprost definiują rozdzielczość bitową jako ilość bitów na próbkę. Z mojego doświadczenia wynika, że w zastosowaniach profesjonalnych – np. rejestracja dźwięku w studio – często używa się nawet 24 bitów na próbkę. To pozwala uchwycić bardzo subtelne detale i dynamikę. Generalnie, jeśli chcesz mieć dobrej jakości sygnał cyfrowy, to warto zadbać o odpowiednią rozdzielczość bitową, bo nie da się jej potem „dodać” w postprodukcji – to trochę jak ostrość zdjęcia, jak złapiesz za mało szczegółów na początku, to już nic nie zrobisz. Przy projektowaniu systemów cyfrowych (np. przetworników ADC/DAC) właściwy dobór rozdzielczości to podstawa dobrych praktyk w inżynierii dźwięku i elektronice.
Rozdzielczość bitowa sygnału cyfrowego jest często mylona z innymi parametrami transmisji lub przetwarzania danych, co prowadzi do nieporozumień. Przede wszystkim, rozdzielczość bitowa nie określa liczby próbek opisanych jednym bitem. Gdyby tak było, każdy pomiar sygnału mógłby mieć tylko dwa poziomy, co skutkowałoby bardzo ubogą jakością odwzorowania – to typowy błąd, mylić rozdzielczość z liczbą próbek. Kolejne nieporozumienie pojawia się przy utożsamianiu rozdzielczości bitowej z ilością bitów na sekundę transmisji (przepływnością). To są dwie różne rzeczy – przepływność faktycznie zależy od rozdzielczości, ale to nie to samo. Można sobie pomyśleć, że jeśli sygnał ma wyższą rozdzielczość, to automatycznie rośnie liczba przesyłanych bitów na sekundę, ale sama definicja rozdzielczości tego nie obejmuje. Podobnie nie można utożsamiać rozdzielczości bitowej z liczbą próbek przesyłanych lub pobieranych w jednostce czasu – to już jest częstotliwość próbkowania, inny kluczowy parametr opisujący cyfrowy sygnał. Typowym błędem jest mieszanie pojęć, przez co łatwo pogubić się w specyfikacjach urządzeń audio czy pomiarowych. Z praktyki branżowej wiem, że nieprecyzyjne rozumienie tych terminów prowadzi do złych wyborów sprzętu lub niepoprawnego projektowania torów sygnałowych. Właściwa rozdzielczość bitowa zawsze odnosi się do tego, ile bitów jest przeznaczonych na opis pojedynczej próbki sygnału. To ona decyduje o szczegółowości odwzorowania wartości analogowej w świecie cyfrowym, a nie liczba próbek czy szybkość transmisji. Jeśli więc chcesz uzyskać wysoką jakość dźwięku, obrazu czy jakiegokolwiek sygnału cyfrowego – patrz nie tylko na częstotliwość próbkowania, ale i na rozdzielczość bitową, bo to są zupełnie różne kwestie, choć oba parametry są bardzo ważne. Standardy branżowe, jak PCM, zawsze podają rozdzielczość bitową jako liczbę bitów potrzebnych do zakodowania jednej próbki.