Poprawna odpowiedź wynika bezpośrednio z tzw. prawa odwrotności kwadratu odległości. W diagnostyce rentgenowskiej przyjmuje się, że natężenie promieniowania X (a w praktyce: ilość fotonów docierających na jednostkę powierzchni, czyli ekspozycja) jest odwrotnie proporcjonalne do kwadratu odległości od ogniska lampy rentgenowskiej. Matematycznie zapisuje się to jako I ~ 1/d². Jeśli zwiększamy odległość ognisko–film/detektor (OF) z 100 cm do 200 cm, to odległość rośnie dwukrotnie, ale natężenie nie spada „tylko” dwa razy, tylko cztery razy, bo 2² = 4. Czyli promieniowanie na detektorze będzie czterokrotnie mniejsze. Moim zdaniem to jedno z kluczowych praw, które trzeba mieć w małym palcu w pracowni RTG. W praktyce oznacza to, że jeżeli z jakiegoś powodu musisz zwiększyć OF z 100 do 200 cm (np. przy zdjęciach klatki piersiowej wykonywanych w większej odległości, żeby zmniejszyć powiększenie serca i zniekształcenia geometryczne), to żeby utrzymać podobną gęstość optyczną obrazu, trzeba odpowiednio zwiększyć ładunek mAs mniej więcej czterokrotnie. Standardowe zalecenia w radiografii mówią wprost: podwojenie odległości wymaga około czterokrotnego zwiększenia mAs dla utrzymania ekspozycji. Jednocześnie, z punktu widzenia ochrony radiologicznej, zwiększenie odległości jest korzystne dla personelu – im dalej od źródła, tym mniejsze narażenie, dokładnie na tej samej zasadzie. Właśnie dlatego w dobrych praktykach BHP w radiologii podkreśla się zasadę „distance, shielding, time” – odległość jest jednym z podstawowych środków ochrony. Warto też pamiętać, że zmiana OF wpływa nie tylko na dawkę, ale i na parametry geometryczne obrazu (ostrość, powiększenie), więc technik zawsze musi łączyć fizykę promieniowania z wymaganiami jakości obrazu i zasadami ochrony pacjenta.
W tym zadaniu kłopot zwykle bierze się z intuicji, że jak coś jest dalej, to „trochę słabnie”, ale bez dokładnego zrozumienia, jak szybko to słabnie. Natężenie promieniowania X nie zmienia się liniowo z odległością, tylko zgodnie z prawem odwrotności kwadratu odległości. Oznacza to, że jeżeli odległość od źródła zwiększamy dwa razy, to natężenie nie spada dwa razy, tylko cztery razy, bo liczy się kwadrat tej zmiany. Dlatego odpowiedzi mówiące o „dwukrotnym” zwiększeniu albo zmniejszeniu natężenia są oparte na błędnym założeniu, że zależność jest proporcjonalna do 1/d, a nie do 1/d². Taki błąd jest bardzo typowy, zwłaszcza gdy ktoś myśli bardziej „na czuja” niż przez pryzmat wzoru. W praktyce klinicznej w radiografii, jeżeli odległość ognisko–film (OF) zmienia się z 100 cm na 200 cm, odległość rośnie dwukrotnie. Gdyby natężenie zmieniało się proporcjonalnie do 1/d, można by dyskutować o spadku dwukrotnym, ale fizyka promieniowania mówi jasno: liczy się powierzchnia, na którą rozkładają się fotony. Powierzchnia kuli (albo wycinka wiązki) rośnie z kwadratem promienia, więc ta sama liczba fotonów jest rozsmarowana na cztery razy większej powierzchni. Stąd czterokrotny spadek, a nie dwukrotny. Z drugiej strony, pomysł, że natężenie przy zwiększeniu odległości mogłoby się „zwiększyć” (czy to dwukrotnie, czy czterokrotnie), jest sprzeczny z zasadami ochrony radiologicznej i zdrowym rozsądkiem: im dalej od źródła, tym bezpieczniej i tym mniej promieniowania dociera do danego punktu. Wyobrażenie, że odsuwając detektor dalej od lampy rentgenowskiej dostaniemy więcej promieniowania, kłóci się zarówno z doświadczeniem z pracowni RTG, jak i z oficjalnymi wytycznymi, które zalecają zwiększanie odległości jako jedną z podstawowych metod redukcji dawki dla personelu. Z mojego doświadczenia warto od razu skojarzyć: podwojenie odległości = czterokrotny spadek natężenia, a jeśli chcemy utrzymać ekspozycję, trzeba z grubsza czterokrotnie zwiększyć mAs. Dzięki temu unika się wielu błędów przy ustawianiu parametrów i lepiej rozumie się, jak geometria wpływa na dawkę i jakość obrazu.