Bitowa stopa błędów BER (Bit Error Rate) to po prostu stosunek liczby błędnie odebranych bitów do całkowitej liczby bitów, które przeszły przez łącze. Tutaj mamy 50 bitów przekłamanych na 5·10^9 przesłanych bitów. Liczymy więc: BER = 50 / (5·10^9) = (50 / 5) · 10^-9 = 10 · 10^-9 = 10^-8. I to dokładnie odpowiada odpowiedzi 10^-8. Moim zdaniem warto zapamiętać samą ideę: BER to miara jakości łącza cyfrowego. Im mniejsza wartość, tym lepsza jakość transmisji. W praktyce w sieciach telekomunikacyjnych, systemach światłowodowych czy w standardach Ethernet (np. 1 GbE, 10 GbE) często wymaga się, żeby BER był rzędu 10^-9 lub niżej. W transmisjach radiowych, np. w LTE czy Wi-Fi, typowe wartości BER przed korekcją błędów FEC są wyższe, ale po zastosowaniu kodowania korekcyjnego dąży się właśnie do takich małych wartości jak 10^-8, 10^-9 itd. W tym zadaniu ważne jest też poprawne posługiwanie się zapisem wykładniczym. Wiele osób myli się, bo patrzy tylko na „50” i „5”, a zapomina o potędze dziesiątki. Dobra praktyka jest taka, żeby rozbić zapis na dwa kroki: najpierw dzielimy liczby całkowite (50/5 = 10), a potem zajmujemy się częścią 10^9, czyli wiemy, że 1/(10^9) = 10^-9. Po połączeniu wychodzi 10 · 10^-9 = 10^-8. W realnych pomiarach BER używa się specjalnych generatorów sekwencji testowych (np. PRBS – pseudolosowe ciągi bitowe) i analizatorów błędów. Standardy jak ITU-T czy IEEE definiują, jak długo trzeba mierzyć i ile bitów przebadać, żeby wynik był wiarygodny statystycznie. W tym przykładzie 5·10^9 bitów to już całkiem solidna próba, sensowna np. przy testowaniu łączy światłowodowych, gdzie oczekuje się bardzo małej liczby błędów na ogromną liczbę przesłanych bitów. Takie liczenie BER to absolutna podstawa przy uruchamianiu i diagnostyce każdego poważniejszego systemu transmisji danych.
W tym zadaniu sedno problemu tkwi w poprawnym policzeniu stosunku dwóch liczb zapisanych w notacji wykładniczej. Bitowa stopa błędów BER jest z definicji ilorazem liczby błędnie odebranych bitów i całkowitej liczby bitów przesłanych przez kanał. Jeżeli pominiemy ten prosty, ale bardzo ścisły wzór, pojawiają się typowe błędy myślowe: ktoś patrzy tylko na liczby 50 i 5, dzieli je, dostaje 10 i potem zgaduje wykładnik, albo intuicyjnie „zaniża” albo „zawyża” potęgę dziesięciu. W naszym przypadku dane są jasne: 50 bitów błędnych oraz 5·10^9 bitów przesłanych. Prawidłowy rachunek to 50 / (5·10^9). Najpierw upraszczamy część „zwykłą”: 50/5 = 10. Zostaje 10 / 10^9, co zgodnie z zasadami rachunku potęg daje 10·10^-9, czyli 10^-8. Błędne odpowiedzi wynikają przeważnie z nieuważnego obchodzenia się z wykładnikami. Jeśli ktoś wybiera 10^-6 albo 10^-7, to często dlatego, że w myślach „przesunął” przecinek o złą liczbę miejsc, albo podzielił 5·10^9 przez 50 zamiast odwrotnie i nie sprawdził logiki wyniku. Warto zwrócić uwagę na interpretację fizyczną. BER = 10^-6 oznaczałby 1 błąd na milion bitów, czyli przy 5·10^9 bitów spodziewalibyśmy się około 5000 błędów. My mamy tylko 50, więc taki wynik jest zdecydowanie za duży. Dla 10^-7 byłoby to około 500 błędów, nadal za dużo. Z kolei BER = 10^-9 sugerowałby około 5 błędów na 5·10^9 bitów, czyli wynik zbyt optymistyczny w stosunku do podanych danych. Dopiero 10^-8 daje logiczną zgodność: 5·10^9 · 10^-8 = 50 błędów. Takie sprawdzenie „od tyłu” jest bardzo dobrą praktyką inżynierską. Z mojego doświadczenia typowy błąd polega na ignorowaniu jednostek i sensu fizycznego. BER to liczba bezwymiarowa, ale zawsze można ją przełożyć na „ile błędów na ile bitów” i wtedy od razu widać, czy dany rząd wielkości ma sens. W standardach telekomunikacyjnych (np. ITU-T G.826, IEEE 802.3) dużo uwagi przykłada się właśnie do poprawnej interpretacji wartości BER, bo od niej zależy, czy dane łącze można uznać za spełniające wymagania jakościowe. Dlatego przy każdym takim obliczeniu warto nie tylko policzyć ułamek, ale też zrobić krótką weryfikację, czy wynik pasuje do liczby zaobserwowanych błędów. To prosta metoda, która skutecznie eliminuje błędne odpowiedzi wynikające z pomyłek w rachunkach na potęgach dziesięciu.