Wartość BER liczymy zawsze jako stosunek liczby bitów błędnych do całkowitej liczby bitów, które zostały przesłane lub przeanalizowane. Tutaj mamy 50 bitów przekłamanych na 5×10^9 bitów. Dzielimy więc 50 przez 5×10^9. Najpierw upraszczamy: 50 / (5×10^9) = (50/5) / 10^9 = 10 / 10^9 = 10^-8. I to dokładnie daje BER = 10^-8. Czyli średnio jeden błędny bit na sto milionów przesłanych bitów. To jest już całkiem przyzwoity poziom jakości transmisji, typowy np. dla dobrze skonfigurowanych łączy światłowodowych bez dodatkowego FEC albo dla wysokiej klasy łączy radiowych. W praktyce branżowej BER jest jednym z podstawowych parametrów jakości kanału transmisyjnego. W normach takich jak ITU-T G.821, G.826 czy w specyfikacjach Ethernetu (np. IEEE 802.3) często wymaga się wartości rzędu 10^-9 lub lepszych dla krytycznych zastosowań telekomunikacyjnych. W systemach z korekcją błędów (FEC – Forward Error Correction) czasem podaje się dwa BER-y: tzw. pre-FEC BER (przed korekcją) i post-FEC BER (po korekcji). Ten drugi bywa nawet na poziomie 10^-12 albo jeszcze niżej. Moim zdaniem warto zapamiętać nie tylko sam wzór, ale też intuicję: im mniejsza liczba w zapisie 10^-n, tym lepsza jakość łącza. BER = 10^-6 to już dość sporo błędów, natomiast 10^-9 czy 10^-12 to poziom wymagany np. w sieciach operatorskich, gdzie liczy się wysoka niezawodność. W diagnostyce sieciowej pomiar BER wykonuje się specjalnymi testerami BERT, które generują znany wzorzec bitowy i porównują odebrane dane z oryginałem. Na podstawie takiej analizy można ocenić, czy tor transmisyjny, okablowanie, modulacja, poziom sygnału i ekranowanie są w normie. W codziennej pracy technika telekomunikacyjnego czy sieciowego taka prosta zależność BER = błędne bity / wszystkie bity jest podstawą do interpretacji wyników pomiarów i podejmowania decyzji, czy łącze nadaje się do eksploatacji zgodnie z wymaganiami danej usługi.
Bitowa stopa błędów BER to bardzo konkretna, matematyczna definicja: jest to stosunek liczby bitów odebranych błędnie do całkowitej liczby bitów przesłanych lub przeanalizowanych. Tu nie ma miejsca na zgadywanie, trzeba po prostu policzyć. W podanym zadaniu mamy 50 bitów przekłamanych oraz 5×10^9 bitów zbadanych. Typowy błąd, który się pojawia, to złe operowanie na potęgach dziesięciu albo intuicyjne „strzelanie”, że skoro błędów jest mało, to pewnie 10^-6 czy 10^-7, bo tak się kojarzy z telekomunikacją. Tymczasem trzeba zrobić spokojnie rachunek: 50 / (5×10^9) = 10 / 10^9 = 10^-8. Jeżeli ktoś wybiera wartość 10^-6, to w praktyce oznaczałoby to, że na milion bitów przypada średnio jeden błąd. Dla naszych danych dawałoby to około 5000 błędów na 5×10^9 bitów, a mamy ich tylko 50, czyli sto razy mniej. Widać więc, że 10^-6 opisuje znacznie gorszą jakość łącza, niż wynika z pomiaru. Z kolei 10^-7 oznaczałoby około 500 błędnych bitów przy 5×10^9 bitów, więc dalej jest to o rząd wielkości za dużo. W drugą stronę, 10^-9 sugerowałoby, że przy tej liczbie bitów spodziewamy się mniej więcej 5 błędów, a zmierzono aż 50, czyli łącze jest dziesięć razy gorsze niż taki poziom. Typowe nieporozumienie polega też na myleniu „jakości dobrej w praktyce” z konkretną liczbą. W branży często słyszy się, że dobre łącze ma BER rzędu 10^-9, i część osób automatycznie zaznacza tę odpowiedź, bo „brzmi profesjonalnie”. Ale zadanie nie pyta, jaki BER jest pożądany według norm, tylko jaki BER wynika z podanych danych pomiarowych. W standardach, takich jak ITU-T G.826 czy w specyfikacjach systemów SDH/SONET, faktycznie wymagane są bardzo niskie wartości BER, ale ich nie wybiera się z kapelusza, tylko sprawdza, czy pomiar spełnia dany próg. Dlatego kluczową dobrą praktyką jest: najpierw policz dokładnie stosunek błędów do wszystkich bitów, a dopiero potem porównuj go z wymaganiami norm. Bez tej podstawowej operacji łatwo wpaść w pułapkę „na oko” i wybrać wartość, która ładnie wygląda, ale po prostu nie zgadza się z arytmetyką.