Bitowa stopa błędów BER (Bit Error Rate) to po prostu stosunek liczby błędnie odebranych bitów do całkowitej liczby przesłanych lub przeanalizowanych bitów. Czyli liczymy: BER = liczba błędów / liczba wszystkich bitów. W zadaniu mamy 50 bitów przekłamanych i 5·10⁹ bitów przebadanych. Podstawiamy do wzoru: BER = 50 / (5·10⁹). Teraz można to uprościć: 50 / 5 = 10, więc dostajemy 10 / 10⁹ = 10⁻⁸. I to właśnie jest wartość BER, więc odpowiedź 10⁻⁸ jest jak najbardziej prawidłowa. W praktyce telekomunikacji i sieci cyfrowych BER jest jednym z kluczowych parametrów jakości łącza. Na przykład w typowych systemach Ethernet czy w łączach światłowodowych wartości rzędu 10⁻⁹, 10⁻¹² czy nawet niższe są uznawane za bardzo dobre, natomiast wartości rzędu 10⁻⁶ byłyby już poważnym problemem. Dla wielu standardów transmisji (np. w systemach zgodnych z ITU-T czy IEEE) projektuje się tory tak, żeby BER nie przekraczał określonego progu, np. 10⁻⁹ przed korekcją błędów FEC. Z mojego doświadczenia w serwisie sieciowym, gdy BER zaczyna rosnąć z poziomów 10⁻¹² do 10⁻⁹, to jest to pierwszy sygnał, że coś się dzieje z kablem, złączem, optyką albo zakłóceniami elektromagnetycznymi. Obliczanie BER w taki sposób, jak w zadaniu, to podstawa przy testach łączy: podaje się znaną sekwencję bitów (np. PRBS – pseudolosowy strumień bitów), potem analizator zlicza, ile bitów jest przekłamanych i na tej podstawie wylicza się BER. Im dłużej testujemy (im więcej bitów prześlemy), tym wynik jest bardziej wiarygodny statystycznie. Dlatego 5·10⁹ bitów to już całkiem sensowna próba. Takie podejście jest zgodne z dobrą praktyką pomiarową i tym, co opisują normy telekomunikacyjne, np. zalecenia ITU-T dotyczące oceny jakości łączy cyfrowych.
Bitowa stopa błędów BER zawsze wynika z prostego, ale bardzo ważnego wzoru: BER = liczba błędnych bitów / liczba wszystkich przeanalizowanych bitów. W tym zadaniu mamy 50 błędów i 5·10⁹ bitów. Typowy błąd myślowy polega na tym, że ktoś patrzy na same liczby i „na oko” dobiera potęgę dziesięciu, zamiast spokojnie policzyć. Jeśli ktoś wybiera wartości typu 10⁻⁷, często zakłada, że 50 w liczniku jakoś „przesuwa” wynik o jedną potęgę w górę, albo myli 5·10⁹ z 10⁹. Prawidłowe przekształcenie wygląda tak: 50 / (5·10⁹) = (50/5) / 10⁹ = 10 / 10⁹ = 10⁻⁸. Widać, że wynik jest dokładnie 10⁻⁸, a nie 10⁻⁷ czy 10⁻⁹. Z kolei wybór 10⁻⁹ bywa efektem nadmiernego „optymizmu”, że skoro błędów jest mało w porównaniu do całej masy bitów, to BER musi być ekstremalnie niski. Jednak matematyka jest tutaj bezlitosna: różnica między 10⁻⁸ a 10⁻⁹ to różnica dziesięciokrotna. W telekomunikacji to jest przepaść, nie drobna poprawka. Odpowiedź 10⁻¹⁰ sugeruje z kolei całkowite przeszacowanie jakości łącza, jakby błędów było sto razy mniej, niż jest w rzeczywistości. Z mojego punktu widzenia to typowy przykład tego, co się dzieje, gdy ktoś kojarzy „im więcej zer po przecinku, tym lepiej”, ale już nie sprawdza dokładnych obliczeń. W praktyce inżynierskiej taka pomyłka może mieć konkretne konsekwencje: projektant uzna łącze za wystarczająco dobre, podczas gdy jego rzeczywista jakość jest gorsza od założonej w normach, np. ITU-T G.821 czy nowszych rekomendacjach oceny jakości transmisji. Dobre praktyki branżowe mówią wprost: każdą wartość BER trzeba liczyć precyzyjnie, na podstawie zliczeń błędów i znanej liczby przesłanych bitów, a nie „na oko” dobierać potęgi dziesięciu. Warto też pamiętać, że przy dużych liczbach bitów, takich jak 5·10⁹, nawet kilkadziesiąt błędów dalej daje bardzo małą, ale konkretną, mierzalną wartość BER. Dlatego jedynie dokładne policzenie 50 / (5·10⁹) prowadzi do poprawnego wyniku 10⁻⁸, a pozostałe wartości po prostu nie opisują tego konkretnego przypadku.