Poprawna jest odpowiedź 65 dB/μV, bo 5 dB/mV to po prostu 5 dB odniesione do poziomu 1 mV, a 1 mV = 1000 μV. W decybelach liczy się różnicę poziomów w skali logarytmicznej, więc trzeba przeliczyć zmianę jednostki z mV na μV. Stosujemy standardowy wzór na poziom napięcia: L[dB] = 20·log10(U/U0). Skoro przechodzimy z miliwoltów na mikrovolty, to napięcie odniesienia zmienia się 1000 razy: 1 mV = 1000 μV. Różnica poziomów między 1 mV a 1 μV wynosi 20·log10(1000) = 20·3 = 60 dB. To oznacza, że każdy poziom wyrażony w dB/mV po przeliczeniu na dB/μV będzie większy o 60 dB. Czyli 5 dB/mV + 60 dB = 65 dB/μV. I to jest cały trik, nic bardziej skomplikowanego. W praktyce takie przeliczenia są bardzo częste np. w pomiarach kompatybilności elektromagnetycznej (EMC), przy strojeniu odbiorników radiowych czy analizie poziomów sygnałów w torach antenowych. W kartach katalogowych przyrządów pomiarowych, jak analizatory widma czy mierniki poziomu sygnału, producenci zgodnie z normami (np. CISPR, ETSI) podają czułość i zakresy w dBμV, dBm, czasem w dBμV/m. Umiejętność szybkiego przeliczania między dB/mV a dB/μV pozwala łatwo porównywać wyniki pomiarów z wymaganiami norm. Moim zdaniem, jak ktoś pracuje z radiem, telewizją kablową, instalacjami DVB-T, to powinien takie 20·log10(krotność) umieć liczyć z głowy. Dobra praktyka jest taka, żeby zawsze pamiętać: zmiana napięcia o czynnik 10 to 20 dB, o 100 to 40 dB, o 1000 to 60 dB. Dzięki temu od razu widać, że przejście z mV na μV dodaje 60 dB do poziomu wyrażonego w decybelach.
W tym zadaniu cała trudność polega nie na samych decybelach, tylko na poprawnym ogarnięciu zmiany jednostek napięcia z mV na μV. Wiele osób patrzy na odpowiedzi i próbuje „na czuja” dodać albo odjąć kilka decybeli, zamiast wrócić do definicji: poziom napięcia w decybelach liczymy ze wzoru L[dB] = 20·log10(U/U0). Gdy zmieniamy jednostkę z miliwoltów na mikrovolty, to faktycznie zmieniamy napięcie odniesienia o czynnik 1000, bo 1 mV = 1000 μV. I to właśnie ten faktor 1000 generuje różnicę 60 dB, wynikającą z 20·log10(1000) = 60 dB. Jeśli ktoś wybiera wartości typu 45 dB/μV lub 50 dB/μV, to zwykle wynika to z intuicyjnego, ale błędnego założenia, że przelicznik między mV a μV jest „niewielki” albo że wystarczy dodać 40 lub 45 dB, bo kojarzy mu się to z przeliczeniami mocy (10·log10) albo myli rzędy wielkości. W praktyce zmiana o trzy rzędy wielkości w napięciu to aż 60 dB, nie 40 czy 50. Z kolei wybór 105 dB/μV sugeruje, że ktoś połączył dwa różne przeliczniki naraz albo dodał 1000 jako 100 dB, co kompletnie nie pasuje do logarytmicznej natury skali decybelowej. Typowym błędem jest też mieszanie wzorów: dla mocy stosuje się 10·log10(P/P0), a dla napięcia 20·log10(U/U0). Jeżeli w głowie zostanie tylko ten pierwszy, to łatwo się pomylić o całe 20 dB przy dużych krotnościach. W dobrych praktykach pomiarowych, np. przy testach EMC zgodnych z CISPR, IEC czy ETSI, inżynierowie zawsze pilnują, z jaką wielkością mają do czynienia: napięcie, moc, natężenie pola. Moim zdaniem warto sobie na kartce rozpisać: 1 mV = 10⁻³ V, 1 μV = 10⁻⁶ V, więc przejście między nimi to czynnik 10³, a to automatycznie przekłada się na 60 dB różnicy w poziomie napięcia. Jak się to raz dobrze zrozumie, to wszystkie odpowiedzi typu 45, 50 czy 105 dB/μV od razu przestają wyglądać wiarygodnie i widać, że jedynym poprawnym przeliczeniem z 5 dB/mV jest 65 dB/μV.