Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 15 kwietnia 2026 21:20
  • Data zakończenia: 15 kwietnia 2026 21:37

Egzamin niezdany

Wynik: 17/40 punktów (42,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W brachyterapii MDR stosowane są dawki promieniowania

A. od 0,5 do 1,0 Gy/h
B. od 2,0 do 12 Gy/h
C. od 0,2 do 0,4 Gy/h
D. od 0,01 do 0,1 Gy/h
W brachyterapii bardzo łatwo się pomylić, bo zakresy tempa dawki są do siebie dość podobne liczbowo, ale ich znaczenie kliniczne jest zupełnie inne. Odpowiedzi z wartościami rzędu setnych czy dziesiątych części Gy na godzinę odpowiadają tak naprawdę klasycznej brachyterapii LDR (low dose rate), czyli małej mocy dawki. Tam mówimy typowo o około 0,4–2 Gy/h, a historycznie nawet mniej, z bardzo długim czasem utrzymywania źródeł w ciele pacjenta, często przez wiele godzin albo całe doby. Zakresy 0,01–0,1 Gy/h czy 0,2–0,4 Gy/h kojarzą się raczej z dawkami tła, długotrwałą ekspozycją środowiskową albo dawnymi technikami, które dziś praktycznie nie są stosowane w nowoczesnej brachyterapii klinicznej. Taki poziom mocy dawki nie pozwoliłby na efektywne leczenie w rozsądnym czasie, a pacjent musiałby przebywać ze źródłem zbyt długo, co jest organizacyjnie i logistycznie bardzo kłopotliwe. Z kolei przedział 0,5–1,0 Gy/h też wciąż pozostaje w granicach LDR lub na pograniczu niskiej i średniej mocy dawki, ale nie spełnia przyjętych kryteriów dla MDR według zaleceń międzynarodowych towarzystw (np. ESTRO, ICRU). Typowy podział jest taki: LDR poniżej ok. 2 Gy/h, MDR około 2–12 Gy/h, HDR powyżej 12 Gy/h. Błąd myślowy polega często na intuicji, że „średnia moc dawki” to coś po prostu między małą a dużą w sensie potocznym, więc wybiera się wartości w okolicach 0,5–1 Gy/h, bo one wyglądają „bezpiecznie” i umiarkowanie. Tymczasem skala w radioterapii nie jest liniowa z naszym potocznym odczuciem, tylko wynika z radiobiologii, historii rozwoju technik i praktycznych możliwości źródeł promieniowania. W brachyterapii MDR chcemy skrócić czas leczenia w stosunku do LDR, ale nie wchodzić jeszcze w ekstremalnie wysokie tempa charakterystyczne dla HDR, dlatego zakres 2–12 Gy/h jest tak istotny. Odpowiedzi z niższym tempem dawki po prostu nie pasują ani do współczesnych standardów, ani do praktyki klinicznej brachyterapii MDR.

Pytanie 2

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. beta plus.
B. beta minus.
C. gamma.
D. alfa.
W tym zagadnieniu kluczowe jest rozróżnienie między promieniowaniem cząstkowymi a elektromagnetycznym. Promieniowanie alfa i oba typy promieniowania beta (plus i minus) to emisja cząstek materialnych z jądra atomowego, natomiast promieniowanie gamma jest emisją wysokoenergetycznych fotonów, czyli właśnie fali elektromagnetycznej. Pomyłki biorą się często z tego, że wszystkie te procesy są „promieniotwórcze”, więc intuicyjnie wrzuca się je do jednego worka, a to jednak zupełnie inne mechanizmy fizyczne i inny sposób oddziaływania z tkanką. Promieniowanie alfa to jądra helu (dwie protony i dwie neutrony). Mają dużą masę i ładunek dodatni, bardzo silnie jonizują ośrodek, ale mają bardzo mały zasięg – kilka dziesiątych milimetra w tkankach, zatrzymuje je już kartka papieru czy naskórek. Nie są to fale elektromagnetyczne, tylko konkretne, ciężkie cząstki. Z kolei promieniowanie beta minus to elektrony emitowane z jądra, a beta plus to pozytony. To dalej cząstki, o znacznie mniejszej masie niż alfa, o ładunku ujemnym (beta minus) lub dodatnim (beta plus). Rozpraszają się, hamują, jonizują materiał, ale wciąż nie mają natury fali elektromagnetycznej. W medycynie nuklearnej pozytony z rozpadu beta plus są ważne, bo ulegają anihilacji z elektronami, a w wyniku tej anihilacji dopiero powstają dwa fotony gamma o energii 511 keV, rejestrowane w PET. I tu jest często źródło błędu: ktoś widzi PET, beta plus i fotony gamma i myśli, że sam rozpad beta plus to już emisja fali elektromagnetycznej. Tymczasem najpierw emitowana jest cząstka (pozyton), a dopiero jej dalszy los powoduje emisję fotonów. Rozpad beta minus również nie jest emisją fali elektromagnetycznej, tylko cząstek – ma to znaczenie przy ochronie radiologicznej, bo osłony materiałowe i planowanie odległości roboczych dobiera się inaczej dla elektronów niż dla fotonów. W badaniach i terapii, gdzie liczy się rejestracja promieniowania przez detektory z zewnątrz, wykorzystuje się głównie promieniowanie gamma (lub X), właśnie dlatego, że jako fala elektromagnetyczna ma duży zasięg i dobrze przenika tkanki. Dlatego tylko odpowiedź związana z promieniowaniem gamma odpowiada definicji emisji fali elektromagnetycznej w procesie rozpadu promieniotwórczego.

Pytanie 3

Gadolin jako dożylny środek kontrastowy stosowany w MR powoduje

A. skrócenie czasów relaksacji T₁ i T₂
B. wydłużenie czasów relaksacji T₁ i T₂
C. wydłużenie czasu relaksacji T₂ i brak zmian w czasie relaksacji T₁
D. skrócenie czasu relaksacji T₁ i brak zmian w czasie relaksacji T₂
W tym zagadnieniu kluczowe jest zrozumienie, że gadolin jako środek kontrastowy w MR jest związkiem paramagnetycznym i jego głównym efektem fizycznym jest skracanie czasów relaksacji, a nie ich wydłużanie ani pozostawianie bez zmian. Typowym błędem jest mylenie działania gadolinu z działaniem środków negatywnych lub zjawisk powodujących wygaszanie sygnału na obrazach T2‑zależnych, co czasem prowadzi do przekonania, że kontrast „przedłuża” relaksację albo wpływa tylko na jeden z czasów. Założenie, że gadolin wydłuża T2 przy braku wpływu na T1, jest niezgodne z fizyką rezonansu. Obecność jonów gadolinu zwiększa lokalną niejednorodność pola magnetycznego na poziomie mikroskopowym, co ułatwia wymianę energii między jądrami wodoru a otoczeniem i skutkuje skróceniem zarówno T1, jak i T2. W warunkach klinicznych dominuje efekt T1‑skracający, ale to nie znaczy, że T2 pozostaje nietknięte. Stąd koncepcja „brak zmian T2” po kontraście gadolinowym jest uproszczeniem, które może być groźne, gdy ktoś próbuje tłumaczyć artefakty lub nietypowe obrazy tylko parametrami T1. Z kolei twierdzenie, że gadolin wpływa wyłącznie na T1, bez jakiegokolwiek wpływu na T2, też jest błędnym uproszczeniem. W praktyce, przy standardowych stężeniach klinicznych, efekt na T2 bywa mniej widoczny w porównaniu z T1, ale w wyższych stężeniach lub w sekwencjach bardzo czułych na T2* (np. GRE) dochodzi do wyraźnego spadku sygnału. To jest szczególnie ważne przy ocenie naczyń, krwawień, czy przy artefaktach od depozytów kontrastu. Nieprawidłowe jest też myślenie, że środki kontrastowe w MR „dodają jasności” bez zmiany parametrów relaksacji. W odróżnieniu od CT, gdzie kontrast zwiększa pochłanianie promieniowania i podnosi jednostki Hounsfielda, w MR cała historia kręci się właśnie wokół relaksacji T1 i T2. Gadolin nie działa jak barwnik, tylko jak modyfikator właściwości magnetycznych tkanek. Dobra praktyka w diagnostyce obrazowej zakłada rozumienie, że wzmacnianie kontrastowe na T1 po gadolinie wynika ze skrócenia T1, a potencjalne wygaszanie sygnału na pewnych T2/T2*‑zależnych sekwencjach to efekt skrócenia T2. Pomylenie tych mechanizmów może prowadzić do błędnej interpretacji badań, np. niedocenienia rozległości zmiany lub mylenia jej charakteru naczyniowego czy zapalnego.

Pytanie 4

Obszary napromieniania w technice IMRT w trakcie wykonywania zabiegu radioterapeutycznego wyznacza

A. fizyk medyczny.
B. lekarz radioterapeuta.
C. technik elektroradiolog.
D. system komputerowy.
Prawidłowa odpowiedź wskazuje na kluczową cechę techniki IMRT: obszary napromieniania w trakcie wykonywania zabiegu są wyznaczane i realizowane przez system komputerowy, zgodnie z wcześniej przygotowanym planem leczenia. W praktyce wygląda to tak, że lekarz radioterapeuta i fizyk medyczny wspólnie ustalają cele kliniczne, marginesy bezpieczeństwa, dawki dla guza i narządów krytycznych, a następnie fizyk (albo planista) tworzy plan w specjalistycznym systemie TPS (Treatment Planning System). Ten plan zawiera bardzo szczegółowe informacje: kształt pól, modulację intensywności, przebieg łuków, segmenty MLC, liczbę monitor units itd. Jednak w samej fazie wykonywania zabiegu, w czasie faktycznego napromieniania, to już nie człowiek „rysuje” pola, tylko system komputerowy steruje aparatem zgodnie z zapisanym planem. System na bieżąco ustawia listki kolimatora MLC, kontroluje dawkę, kąt obrotu głowicy, czas ekspozycji i inne parametry. Technik elektroradiolog ma wtedy przede wszystkim zadanie poprawnie ułożyć pacjenta, zweryfikować pozycję (często przy pomocy obrazowania portalowego lub CBCT), załadować właściwy plan leczenia i nadzorować przebieg seansu, ale nie zmienia ręcznie kształtu obszarów napromieniania. Moim zdaniem to bardzo ważne, żeby kojarzyć IMRT właśnie z automatyzacją i dużym zaufaniem do algorytmów optymalizacyjnych i systemów sterowania. Z punktu widzenia bezpieczeństwa i jakości leczenia ostateczne „wyznaczanie” obszaru w danej sekundzie napromieniania jest realizowane przez oprogramowanie, które precyzyjnie przesuwa listki MLC i reguluje dawkę zgodnie z planem zaakceptowanym wcześniej przez lekarza i fizyka. Tak działają nowoczesne standardy radioterapii – człowiek definiuje cele i weryfikuje poprawność, a system komputerowy wykonuje skomplikowaną, powtarzalną pracę techniczną z dokładnością co do milimetra.

Pytanie 5

Obrazy DDR są tworzone w trakcie

A. wykonywania przekrojów w tomografii komputerowej.
B. napromieniowania na aparacie terapeutycznym.
C. weryfikacji geometrii pól terapeutycznych na symulatorze rentgenowskim.
D. planowania radioterapii w komputerowym systemie planowania leczenia.
Prawidłowo – obrazy DDR (Digital DRR, czyli cyfrowe Digitally Reconstructed Radiographs) powstają właśnie na etapie planowania radioterapii w komputerowym systemie planowania leczenia. System bierze trójwymiarowe dane z tomografii komputerowej pacjenta i na ich podstawie „symuluje” projekcje podobne do klasycznego zdjęcia RTG. W efekcie dostajemy obraz, który wygląda jak zdjęcie rentgenowskie, ale jest całkowicie wyliczony matematycznie z danych TK, a nie wykonany na aparacie terapeutycznym czy symulatorze. Taki DDR pokazuje, jak powinno wyglądać ustawienie pacjenta i pól terapeutycznych przy prawidłowym napromienianiu. W praktyce klinicznej używa się go do weryfikacji geometrii napromieniania: technik porównuje obraz DDR z obrazami weryfikacyjnymi wykonanymi już na aparacie (np. portal imaging, EPID) i sprawdza, czy kości, narządy krytyczne i obszar PTV są w tym samym położeniu. Moim zdaniem to jest jedno z kluczowych narzędzi bezpieczeństwa w radioterapii – dzięki DDR można wcześnie wychwycić błędne ustawienie pacjenta, przesunięcie stołu, złą rotację czy pomyłkę w doborze projekcji. Dobre praktyki mówią jasno: poprawnie przygotowany plan musi mieć wygenerowane DRR dla każdej wiązki, z czytelnie zaznaczonym konturem guza, narządów krytycznych i osiami referencyjnymi. W nowoczesnych systemach planowania (np. Eclipse, Monaco, RayStation) generacja DDR to standardowy krok workflow, praktycznie nie da się zakończyć planu bez tych obrazów. Warto też pamiętać, że jakość DDR zależy od jakości badania TK (grubość warstw, artefakty), więc już na etapie skanowania pacjenta trzeba myśleć o tym, że te dane posłużą później do rekonstrukcji obrazów referencyjnych dla całej radioterapii.

Pytanie 6

Jaki jest cel stosowania bolusa w radioterapii?

A. Ochronić narządy krytyczne.
B. "Wyciągnąć" dawkę bliżej skóry.
C. "Wyciągnąć" dawkę dalej od skóry.
D. Ochronić skórę przed poparzeniem.
Prawidłowo – bolus w radioterapii stosuje się po to, żeby „wyciągnąć” dawkę bliżej skóry, czyli podnieść dawkę w warstwach powierzchownych. Promieniowanie fotonowe ma tzw. zjawisko build‑up: maksymalna dawka nie pojawia się na samej powierzchni, tylko kilka–kilkanaście milimetrów pod skórą. To jest fajne przy klasycznych napromienianiach głębiej położonych guzów, bo naturalnie trochę oszczędza się naskórek. Ale jeśli celem leczenia jest zmiana bardzo powierzchowna, np. rak skóry, blizna pooperacyjna, zajęta skóra klatki piersiowej po mastektomii, to ta „dziura dawki” przy skórze staje się problemem. Wtedy właśnie zakłada się bolus – materiał o gęstości zbliżonej do tkanek miękkich (najczęściej 0,5–1 cm, czasem więcej), który symuluje dodatkową warstwę tkanki. Dla wiązki fotonów linak widzi bolus jak ciało pacjenta: maksimum dawki przesuwa się w głąb bolusa, a nie w głąb faktycznej skóry. Efekt praktyczny jest taki, że na powierzchni skóry pacjenta dawka rośnie, bo dla wiązki to już nie jest „początek”, tylko strefa bliżej dawki maksymalnej. Moim zdaniem kluczowe jest, żeby kojarzyć bolus nie z ochroną skóry, ale właśnie z jej dodatkowym „dobiciem” dawką. W planowaniu leczenia w TPS zawsze zaznacza się obecność bolusa (z odpowiednią grubością i materiałem), bo wpływa to na rozkład izodoz i na wyliczenie dawki w punktach kontrolnych. W dobrych praktykach klinicznych pilnuje się też, żeby bolus dobrze przylegał do skóry (bez pęcherzyków powietrza), bo każda szczelina może powodować nierównomierny rozkład dawki na powierzchni, co widać potem w rozkładach i, niestety, na odczynach skórnych.

Pytanie 7

W brachyterapii MDR stosowane są dawki promieniowania

A. od 0,2 do 0,4 Gy/h
B. od 0,01 do 0,1 Gy/h
C. od 0,5 do 1,0 Gy/h
D. od 2,0 do 12 Gy/h
Zakresy mocy dawki w brachyterapii są ściśle zdefiniowane i trochę podchwytliwe, bo liczby wydają się do siebie podobne, ale mają duże znaczenie kliniczne. Wiele osób myli je, bo intuicyjnie myśli: „brachyterapia = małe dawki”, co nie jest do końca prawdą. W brachyterapii chodzi o bardzo wysoką dawkę całkowitą, ale podawaną lokalnie i w określonym tempie, czyli mocy dawki podanej w Gy/h. Bardzo niskie wartości, rzędu 0,01–0,1 Gy/h, odpowiadają klasycznej brachyterapii LDR (low dose rate). Tam źródła promieniotwórcze są pozostawiane w ciele pacjenta na wiele godzin czy dni, a moc dawki jest na tyle mała, że ekspozycja może być praktycznie ciągła. To już dawno ma swoje miejsce w literaturze, ale coraz częściej jest wypierane przez techniki z wyższą mocą dawki. Zakres 0,2–0,4 Gy/h to nadal obszar typowy dla niskiej mocy dawki, czasem określany jako „wydłużone LDR” albo wartości przejściowe, ale nie spełnia on kryteriów MDR według współczesnych standardów ICRU czy IAEA. W praktyce klinicznej takie tempo napromieniania też oznacza długotrwałe procedury, z koniecznością izolacji pacjenta i specyficznej organizacji pracy oddziału. Przedział 0,5–1,0 Gy/h wydaje się już całkiem spory, więc łatwo pomyśleć, że to „średnia” moc dawki, jednak z punktu widzenia klasyfikacji to nadal poniżej progu przyjmowanego dla MDR. Typowy podział jest dość jednoznaczny: LDR to około 0,4–2 Gy/h, MDR około 2–12 Gy/h, a HDR powyżej 12 Gy/h. Błąd w tym pytaniu zwykle wynika z mieszania pojęć: dawka całkowita vs moc dawki, oraz z intuicyjnego oceniania liczb bez odniesienia do norm i definicji. Z mojego doświadczenia dobrze jest zapamiętać właśnie wartości graniczne, bo one potem przewijają się w planowaniu leczenia, w kartach zabiegowych i w dokumentacji ochrony radiologicznej. Jeśli moc dawki jest za niska, nie mówimy już o MDR, tylko o przedłużonym LDR, a to zmienia zarówno przebieg terapii, jak i wymagania organizacyjne oraz radiobiologiczne.

Pytanie 8

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. ze źródeł umieszczonych tylko na skórze pacjenta.
B. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
C. cząsteczkowym pochodzącym z akceleratora.
D. fotonowym pochodzącym z akceleratora.
Prawidłowo – istota brachyterapii polega właśnie na tym, że źródła promieniowania jonizującego umieszcza się w bezpośrednim sąsiedztwie guza albo wręcz w samych napromienianych tkankach. Dzięki temu dawka jest bardzo wysoka w objętości nowotworu, a bardzo szybko spada w miarę oddalania się od źródła. To jest kluczowa zaleta tej metody w porównaniu z teleradioterapią, gdzie promieniowanie dociera z zewnątrz, z dużej odległości (z akceleratora liniowego). W praktyce klinicznej stosuje się różne techniki brachyterapii: śródtkankową (np. przy rakach prostaty, języka, piersi – igły lub implanty z izotopem wprowadzane w guz), śródjamową (np. rak szyjki macicy, endometrium – aplikatory w jamie macicy lub pochwie) czy powierzchowną, gdy źródło jest tuż przy skórze. Najczęściej używane są źródła irydu-192 (HDR, PDR) lub jodu-125, cezu-137, palladu-103, w zależności od wskazań. Planowanie brachyterapii odbywa się na podstawie badań obrazowych (TK, MR, czasem USG), a system planowania dawki dokładnie wylicza rozkład izodoz wokół źródeł. Zgodnie ze standardami radioterapii onkologicznej (np. wytyczne ESTRO, ICRU) bardzo ważne jest precyzyjne pozycjonowanie aplikatorów oraz kontrola ich położenia przed napromienianiem, bo nawet niewielkie przesunięcie może zmienić rozkład dawki w krytycznych narządach. Moim zdaniem warto zapamiętać jedno: brachyterapia = źródło promieniowania blisko guza, wysoka dawka lokalnie, oszczędzenie tkanek zdrowych. To właśnie odróżnia ją od „klasycznego” napromieniania z akceleratora.

Pytanie 9

W technice napromieniania SSD mierzona jest odległość źródła promieniowania od

A. stołu aparatu terapeutycznego.
B. napromienianego guza.
C. izocentrum aparatu terapeutycznego.
D. punktu zdefiniowanego na skórze pacjenta.
Pomyłka w tym pytaniu bardzo często wynika z mieszania pojęć z techniki SSD i SAD oraz z intuicyjnego myślenia, że „skoro napromieniamy guz, to mierzymy odległość właśnie do guza”. W praktyce teleterapii z użyciem akceleratorów liniowych nie mierzymy bezpośrednio odległości źródła do guza, bo guz jest wewnątrz ciała, a my nie mamy fizycznego dostępu do tego punktu. Poza tym jego położenie może się minimalnie zmieniać, np. przez oddychanie, wypełnienie narządów, zmiany masy ciała. Dlatego w technice SSD zawsze odniesieniem jest powierzchnia ciała – punkt na skórze, który został geometrycznie powiązany z położeniem guza na etapie planowania. Często pojawia się też skojarzenie z izocentrum aparatu terapeutycznego. To dotyczy jednak techniki SAD (source–axis distance), gdzie odległość źródło–izocentrum jest stała, np. 100 cm, a izocentrum leży wewnątrz pacjenta, w okolicy planowanego punktu referencyjnego. W SSD izocentrum, jeśli w ogóle jest używane w planie, nie jest punktem, do którego mierzymy odległość przy ustawianiu pacjenta. Tam liczy się odległość do skóry. Równie mylące bywa myślenie, że mierzymy do stołu aparatu. Stół jest tylko elementem pomocniczym do ułożenia pacjenta, może mieć różną wysokość, różne nakładki, materace, podkładki. Nie jest stałą geometryczną wiązki, więc opieranie się na nim do wyznaczania SSD byłoby po prostu nieprecyzyjne i sprzeczne z zasadami jakości w radioterapii. Dobra praktyka kliniczna mówi jasno: w technice SSD ustala się konkretną, zadeklarowaną odległość od źródła promieniowania do punktu na skórze pacjenta. Ten punkt jest oznaczony i kontrolowany przy każdej frakcji, często z użyciem wskaźnika mechanicznego lub elektronicznego. Cała geometria dawki, obliczenia PDD, głębokości referencyjne – wszystko to jest oparte o tę odległość. Mylenie tego z pomiarem do guza, stołu czy izocentrum wynika najczęściej z braku rozróżnienia między technikami SSD i SAD oraz z prób uproszczenia sobie obrazu sytuacji, które niestety w fizyce medycznej nie działają zbyt dobrze.

Pytanie 10

W scyntygrafii wykorzystywane są głównie radioizotopy emitujące promieniowanie

A. beta.
B. gamma.
C. neutronowe.
D. alfa.
W scyntygrafii łatwo się pomylić, bo mówimy ogólnie o promieniowaniu jonizującym i radioizotopach, a to wielu osobom od razu kojarzy się z cząstkami alfa albo beta. W obrazowaniu scyntygraficznym nie chodzi jednak o to, żeby naładowane cząstki działały bezpośrednio na tkanki, tylko o rejestrowanie promieniowania wychodzącego na zewnątrz ciała i tworzenie z niego obrazu rozkładu radioznacznika. Z tego powodu promieniowanie alfa kompletnie się do tego nie nadaje: ma bardzo mały zasięg w tkankach (rzędu mikrometrów), jest silnie jonizujące i w ogóle nie „wylatuje” na zewnątrz organizmu, żeby gammakamera mogła je zarejestrować. Alfa jest wykorzystywana raczej w bardzo specyficznych terapiach celowanych, a nie w diagnostyce obrazowej całych narządów. Podobnie z promieniowaniem beta – to są elektrony lub pozytony o ograniczonym zasięgu w tkankach. Elektrony beta minus są bardziej przydatne w radioterapii, np. w leczeniu zmian powierzchownych lub w terapii izotopowej, bo oddają energię lokalnie. W scyntygrafii one są w zasadzie przeszkodą, bo zwiększają dawkę w tkankach, a nie dają użytecznego sygnału obrazowego na zewnątrz. W PET co prawda używa się emiterów pozytonów, ale kluczowe jest to, że pozyton anihiluje z elektronem i dopiero wtedy powstają dwa fotony gamma 511 keV, które rejestrują detektory. Czyli nadal obraz budujemy z promieniowania gamma, a nie z samych cząstek beta. Promieniowanie neutronowe też bywa mylące w skojarzeniach, bo jest bardzo przenikliwe, ale w diagnostyce nuklearnej praktycznie się go nie używa. Neutrony trudniej skutecznie i selektywnie rejestrować w warunkach klinicznych, wymagają zupełnie innej aparatury i osłon, a poza tym ich zastosowanie wiązałoby się ze znacznie większymi problemami ochrony radiologicznej. Typowym błędem jest wrzucanie wszystkich rodzajów promieniowania do jednego worka i zakładanie, że skoro coś jest „mocne” albo „jonizujące”, to nadaje się do każdego zastosowania. W medycynie nuklearnej do obrazowania standardem są izotopy emitujące fotony gamma o dobrze dobranej energii, bo to właśnie te fotony zgodnie z dobrą praktyką kliniczną rejestruje gammakamera lub detektory PET, tworząc obraz scyntygraficzny.

Pytanie 11

Który detektor w radiografii wymaga laserowego czytnika obrazu?

A. Płyta fosforowa.
B. Błona halogenosrebrowa.
C. Detektor selenowy.
D. Detektor krzemowy.
W radiografii łatwo się pogubić między różnymi typami detektorów, bo nazwy brzmią podobnie technicznie, a zasady działania są inne. Kluczowa rzecz: laserowy czytnik obrazu to element typowy dla systemu CR, czyli radiografii pośredniej na płytach fosforowych, a nie dla detektorów selenowych, krzemowych czy klasycznej błony halogenosrebrowej. Detektor selenowy kojarzy się wielu osobom z klasyczną radiografią cyfrową DR, bo amorficzny selen jest stosowany w detektorach bezpośrednich. W takim układzie promieniowanie X jest zamieniane bezpośrednio na ładunek elektryczny, który trafia do matrycy TFT. Nie ma tam etapu skanowania laserem, nie ma odczytu z płyty w osobnym urządzeniu. Obraz powstaje praktycznie od razu na konsoli operatora. To zupełnie inny workflow pracy niż w CR. Podobnie detektor krzemowy, zwykle amorficzny krzem z warstwą scyntylatora (np. CsI), działa jako detektor pośredni: promieniowanie rentgenowskie zamienia się najpierw w światło, a dopiero potem światło w sygnał elektryczny. Ale znowu – odczyt zachodzi elektronicznie w tym samym panelu detektora, bez żadnego lasera, bez kaset i bez przenoszenia czegoś do osobnego czytnika. To są panele płaskie DR, które montuje się w statywach, stołach czy mammografach. Błona halogenosrebrowa to z kolei klasyczna technika analogowa. Obraz jest utrwalany chemicznie w ciemni, w wywoływarce, przy użyciu odczynników. Żaden laser nie jest tu potrzebny, chyba że mówimy o późniejszym skanowaniu filmu do archiwizacji – ale to już nie jest standardowy etap tworzenia obrazu w radiografii, tylko dodatkowa digitalizacja. Typowym błędem myślowym jest wrzucanie wszystkiego, co „cyfrowe”, do jednego worka i automatyczne łączenie z laserem. W rzeczywistości laserowy czytnik obrazu jest znakiem rozpoznawczym właśnie płyt fosforowych CR: najpierw ekspozycja, potem skanowanie laserem w czytniku, dopiero potem cyfrowy obraz. Detektory selenowe i krzemowe pracują w systemach DR i nie wymagają osobnego laserowego skanera, a błona halogenosrebrowa opiera się o proces chemiczny, nie optyczno‑laserowy.

Pytanie 12

Na ilustracji przedstawiono zjawisko

Ilustracja do pytania
A. tworzenia par.
B. anihilacji.
C. emisji fotonu.
D. fotoelektryczne.
Poprawnie rozpoznano zjawisko fotoelektryczne. Na ilustracji widać kwant promieniowania (γ lub ogólnie foton), który pada na elektron związany w atomie, a następnie wybija go, tworząc elektron swobodny. Dokładnie to opisuje wzór Eₑ = hν − E_w, gdzie hν to energia fotonu, a E_w to energia wiązania elektronu w atomie. Różnica tych energii jest przekazywana elektronowi jako energia kinetyczna. W praktyce medycznej to zjawisko jest absolutnie kluczowe dla diagnostyki obrazowej w zakresie promieniowania X: w detektorach cyfrowych, w błonach rentgenowskich, w komorach jonizacyjnych, dozymetrach – wszędzie tam konwersja promieniowania na ładunek elektryczny opiera się właśnie na efekcie fotoelektrycznym. Moim zdaniem warto pamiętać, że efekt fotoelektryczny dominuje przy niższych energiach fotonów (kilkadziesiąt keV), czyli typowych dla klasycznej radiografii i mammografii. Z tego wynika silna zależność pochłaniania od liczby atomowej Z – kości (wapń, wysoka Z) pochłaniają dużo bardziej niż tkanki miękkie, dzięki czemu na zdjęciu RTG mamy wyraźny kontrast. Właśnie dlatego dobór napięcia na lampie rentgenowskiej (kV) jest tak ważny: zbyt wysokie kV zwiększa udział zjawiska Comptona kosztem fotoelektrycznego i obraz staje się bardziej „płaski”, z gorszym kontrastem tkankowym. Efekt fotoelektryczny ma też duże znaczenie w ochronie radiologicznej – materiały osłonowe o dużej liczbie atomowej (np. ołów) bardzo skutecznie pochłaniają promieniowanie właśnie przez ten mechanizm. W podręcznikach z fizyki medycznej podkreśla się, że zrozumienie tego zjawiska jest podstawą świadomego ustawiania parametrów ekspozycji i oceny jakości obrazu, a nie tylko „klikania” domyślnych protokołów.

Pytanie 13

Jakie wymagania techniczne muszą spełniać aparaty terapeutyczne stosowane w zakładach brachyterapii, służące bezpośrednio do napromieniania pacjenta metodą zdalnego wprowadzania źródeł promieniotwórczych?

A. Wyłączenie i ponowne włączenie aparatu likwiduje sygnalizowany błąd.
B. Weryfikują ustawione warunki i nie sygnalizują przypadkowych błędów personelu.
C. Posiadają jeden niezależny system odliczający czas i informujący o zakończeniu napromieniania.
D. Wyłączenie i ponowne włączenie aparatu nie likwiduje sygnalizowanego błędu.
W technice medycznej, szczególnie w radioterapii, bardzo łatwo przenieść nawyki z codziennej obsługi zwykłej elektroniki: jak coś się zawiesi, to „zrestartuj i może zadziała”. W przypadku aparatów do brachyterapii HDR taka logika jest jednak po prostu niebezpieczna. Urządzenie zdalnie wprowadzające źródło promieniotwórcze ma do czynienia z wysokimi dawkami w bardzo krótkim czasie, a każdy błąd systemu sterowania, mechaniki lub zabezpieczeń może oznaczać realne ryzyko dla pacjenta. Dlatego wymagania techniczne są znacznie ostrzejsze niż dla zwykłego sprzętu. Założenie, że wyłączenie i ponowne włączenie aparatu powinno likwidować sygnalizowany błąd, opiera się na błędnym przekonaniu, że błąd jest czymś przypadkowym, mało znaczącym. W rzeczywistości w systemach krytycznych błąd traktuje się jako sygnał potencjalnie poważnej usterki. Jeśli po restarcie wszystko wygląda „czysto”, to łatwo ukryć problem, który może się ujawnić w trakcie kolejnego napromieniania. Z punktu widzenia ochrony radiologicznej i norm jakości, system ma pamiętać, że coś było nie tak, dopóki nie zostanie to świadomie zweryfikowane. Podobnie mylne jest wyobrażenie, że urządzenie nie powinno sygnalizować błędów personelu. W nowoczesnych afterloaderach to właśnie jedna z kluczowych funkcji: weryfikacja ustawionych parametrów, kontroli zgodności planu z konfiguracją aparatu, nadzór nad pozycjonowaniem, blokady przy nieprawidłowym wprowadzeniu danych. To nie jest „przypadkowy błąd”, tylko element systemu bezpieczeństwa, który ma wyłapać ludzkie pomyłki, zanim spowodują one błędne napromienianie. Brak takich ostrzeżeń byłby sprzeczny z zasadami dobrej praktyki klinicznej i wytycznymi QA w radioterapii. Kolejne nieporozumienie dotyczy liczby i charakteru systemów pomiaru czasu napromieniania. Urządzenia do brachyterapii nie mogą polegać na jednym, pojedynczym liczniku. Wymagane są redundantne, niezależne układy nadzoru czasu i pozycji źródła, tak żeby awaria jednego z nich nie doprowadziła do niekontrolowanego wydłużenia ekspozycji. Jeden system odliczający czas bez dodatkowego, niezależnego nadzoru byłby sprzeczny z zasadą redundancji w systemach bezpieczeństwa. Typowym błędem myślowym jest tu uproszczenie: „jeden licznik wystarczy, byle działał”. W rzeczywistości normy projektowania urządzeń radioterapeutycznych wymagają kilku warstw zabezpieczeń, bo tu nie chodzi o wygodę obsługi, tylko o ochronę życia i zdrowia pacjenta oraz personelu. Patrząc całościowo, wszystkie te błędne założenia mają wspólny mianownik: traktowanie aparatu do brachyterapii jak zwykłego sprzętu medycznego, a nie jak systemu krytycznego bezpieczeństwa. Tymczasem konstrukcja afterloadera, jego elektroniki, oprogramowania i interfejsu z użytkownikiem jest podporządkowana zasadzie fail-safe, redundancji i pełnej śledzalności błędów. To właśnie dlatego poprawna odpowiedź mówi o tym, że sam restart nie może kasować sygnalizowanego błędu – musi być ślad, musi być analiza i świadoma decyzja o powrocie do pracy.

Pytanie 14

W pozytonowej tomografii emisyjnej PET zostaje zarejestrowane promieniowanie powstające podczas

A. rozpraszania comptonowskiego.
B. anihilacji pary elektron-pozyton.
C. rozpraszania culombowskiego.
D. anihilacji pary proton-antyproton.
W pozytonowej tomografii emisyjnej (PET) kluczowym zjawiskiem fizycznym jest właśnie anihilacja pary elektron–pozyton. Radiofarmaceutyk podany pacjentowi emituje pozytony, czyli antycząstki elektronów. Pozyton w tkankach bardzo szybko traci energię kinetyczną, zderzając się z elektronami otoczenia, aż w końcu dochodzi do ich spotkania i anihilacji. W wyniku tej anihilacji powstają dwa fotony promieniowania gamma o energii 511 keV każdy, emitowane prawie dokładnie w przeciwnych kierunkach (pod kątem około 180°). To właśnie te dwa skorelowane fotony są rejestrowane w aparacie PET w trybie tzw. koincydencji. Z mojego doświadczenia to jest najważniejszy fizyczny „trik” PET-u: aparat nie widzi bezpośrednio pozytonu, tylko parę fotonów po anihilacji. Detektory ułożone dookoła pacjenta rejestrują jednoczesne (w bardzo krótkim oknie czasowym) uderzenia fotonów w przeciwległe kryształy scyntylacyjne. Na tej podstawie system rekonstruuje linię, wzdłuż której musiała zajść anihilacja, czyli tzw. line of response (LOR). Sumując miliony takich zdarzeń, komputer odtwarza rozkład radioaktywności w organizmie. W praktyce klinicznej, np. w onkologii, pozwala to ocenić metabolizm glukozy w guzach przy użyciu 18F-FDG albo wychwyt innych znaczników. Standardy pracowni medycyny nuklearnej (np. EANM) podkreślają znaczenie prawidłowego doboru radiofarmaceutyku i kalibracji systemu detekcji właśnie pod kątem rejestracji fotonów 511 keV i ich koincydencji. Moim zdaniem, jak dobrze zrozumiesz mechanizm anihilacji i rejestracji tych dwóch fotonów, dużo łatwiej ogarnąć później takie rzeczy jak korekcja osłabienia, rozpraszania czy artefakty w obrazach PET/CT.

Pytanie 15

Który artefakt jest widoczny na skanie tomografii komputerowej?

Ilustracja do pytania
A. Elektrostatyczny.
B. Metaliczny.
C. Ruchowy.
D. Utwardzonej wiązki.
Na przedstawionym skanie TK widać bardzo charakterystyczny artefakt metaliczny: od jasnego, silnie pochłaniającego struktury (materiał metaliczny – np. śruba, stabilizacja, klips) odchodzą promieniste smugi i pasma o bardzo wysokiej i bardzo niskiej gęstości (przepalenia i wyciemnienia). To klasyczny obraz tzw. streak artifacts związanych z obecnością metalu w polu obrazowania. Metal ma bardzo wysoki współczynnik pochłaniania promieniowania rentgenowskiego, powoduje nasycenie detektorów, zjawisko częściowego objętościowania i silne utwardzenie wiązki, ale w praktyce w diagnostyce TK takie zjawisko określa się właśnie jako artefakt metaliczny. Moim zdaniem warto zapamiętać, że jeśli na obrazie TK widzisz gwiaździste smugi wychodzące z jasnego, „przepalonego” implantu albo cementu kostnego, to praktycznie zawsze mówimy o artefakcie metalicznym. W codziennej pracy technika obrazowania stosuje się różne metody jego redukcji: zwiększenie kV, węższe pole obrazowania, algorytmy MAR (Metal Artifact Reduction), rekonstrukcję iteracyjną, a także cienkie warstwy i odpowiedni dobór okna. W wielu pracowniach, zgodnie z aktualnymi zaleceniami producentów i standardami dobrej praktyki, przed badaniem TK dokładnie dokumentuje się obecność implantów metalowych, a w protokole badań ustawia się specjalne programy „post-op spine”, „hip prosthesis” itp. Pozwala to ograniczyć wpływ metalu na ocenę tkanek sąsiednich, np. kanału kręgowego czy struktur naczyniowych. Z mojego doświadczenia im lepiej technik rozumie mechanizm powstawania artefaktu metalicznego, tym sprawniej dobiera parametry ekspozycji oraz rekonstrukcji, tak żeby lekarz radiolog dostał obraz możliwie czytelny mimo obecności metalu.

Pytanie 16

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. poniżej 400 ms
B. powyżej 2000 ms
C. od 500 ms do 700 ms
D. od 800 ms do 900 ms
W tym pytaniu łatwo się pomylić, bo wartości TR rzędu kilkuset milisekund rzeczywiście pojawiają się w wielu sekwencjach MR, ale kluczowe jest zrozumienie, kiedy dominuje kontrast T1, a kiedy T2. Przy bardzo krótkich TR, poniżej 400 ms, obraz jest wyraźnie T1-zależny. Tkanki nie zdążą się w pełni zrelaksować podłużnie między kolejnymi impulsami, dlatego różnice T1 są bardzo podkreślone. To jest logika stosowana np. w szybkich sekwencjach T1 do obrazowania z kontrastem gadolinowym. Taki TR jest zdecydowanie za krótki, żeby zbudować typowy kontrast T2. Podobnie wartości TR rzędu 500–700 ms nadal mieszczą się w zakresie raczej krótkich czasów repetycji dla klasycznego spin echo. Obraz przy takich ustawieniach będzie wciąż silnie T1-zależny, szczególnie jeśli TE jest też krótki. Typowym błędem jest myślenie: „skoro to już nie jest bardzo krótki TR, to pewnie T2”. Niestety tak to nie działa – dla T2 trzeba naprawdę długiego TR, tak żeby efekt T1 w zasadzie „zniknął” z równania. Zakres 800–900 ms bywa kojarzony z obrazami pośrednimi, czasem z próbą kompromisu między czasem badania a kontrastem, ale w klasycznym podejściu do nauki MR nadal jest to strefa, gdzie T1 ma duże znaczenie. Obrazy T2-zależne w klasycznym spin echo uzyskujemy przy TR powyżej 2000 ms i jednocześnie długim TE. Z mojego doświadczenia typowy błąd polega na patrzeniu tylko na jedną liczbę i oderwaniu jej od kontekstu fizycznego. Warto zapamiętać prostą zasadę z podręczników i standardów: krótkie TR – T1, długie TR – T2 (o ile TE też jest długie). Jeżeli TR jest poniżej około 1500–2000 ms, trudno mówić o czysto T2-zależnym obrazie w klasycznym SE. Dlatego wszystkie odpowiedzi z zakresami kilkuset milisekund nie pasują do definicji obrazu T2-zależnego i prowadzą do mylnego utożsamiania „trochę dłuższego” TR z typową sekwencją T2.

Pytanie 17

W ultrasonografii występuje zależność:

A. im wyższa rozdzielczość, tym głębsza penetracja wiązki.
B. im wyższa częstotliwość, tym płytsza penetracja wiązki.
C. im wyższa częstotliwość, tym głębsza penetracja wiązki.
D. im wyższa częstotliwość, tym gorsza rozdzielczość.
Zależność między częstotliwością a penetracją w ultrasonografii bywa często mylona, bo intuicyjnie wydaje się, że „więcej” znaczy „lepiej i głębiej”. W fizyce ultradźwięków jest dokładnie odwrotnie: im wyższa częstotliwość, tym silniejsze tłumienie fali w tkankach i tym płytszy zasięg użytecznego sygnału. To tłumienie wynika z absorpcji energii i rozpraszania na granicach ośrodków. W efekcie fala o wysokiej częstotliwości traci energię szybciej niż fala o niskiej częstotliwości, więc nie może wiarygodnie zobrazować struktur położonych głęboko. Pojawia się też mylące skojarzenie, że wyższa rozdzielczość obrazu automatycznie zapewni głębszą penetrację. W ultrasonografii rozdzielczość osiowa jest ściśle związana właśnie z częstotliwością – im wyższa, tym lepsza zdolność rozróżniania dwóch blisko położonych struktur. Jednak ta poprawa rozdzielczości odbywa się kosztem głębokości. Standardy pracy w USG mówią wprost: do struktur powierzchownych stosujemy wysokie częstotliwości i wysoką rozdzielczość, do struktur głębokich – niższe częstotliwości i gorszą rozdzielczość, ale za to większą penetrację. Przeciwstawne stwierdzenie, że wzrost częstotliwości pogarsza rozdzielczość, jest sprzeczne z podstawową teorią fal akustycznych i z praktyką kliniczną. Głowice wysokoczęstotliwościowe są właśnie projektowane po to, żeby uzyskać obraz o bardzo wysokiej szczegółowości, tylko na mniejszej głębokości. Typowy błąd myślowy polega na mieszaniu pojęć: część osób utożsamia „silniejszą wiązkę” z „większą głębokością”, tymczasem aparaty kompensują mocą tylko do pewnego stopnia, nie są w stanie pokonać fizycznego prawa tłumienia w tkankach. Podobnie mylące jest przekonanie, że rozdzielczość to coś niezależnego od częstotliwości – w USG to jest bezpośrednio ze sobą powiązane. Dobre praktyki mówią jasno: wybór głowicy i częstotliwości zaczyna się od pytania, jak głęboko leży interesująca nas struktura, a dopiero potem szuka się maksimum rozdzielczości w tym zakresie głębokości, a nie odwrotnie.

Pytanie 18

Jakie źródła promieniowania stosowane są w brachyterapii?

A. Otwarte emitujące tylko promieniowanie cząsteczkowe.
B. Zamknięte emitujące tylko promieniowanie cząsteczkowe.
C. Otwarte emitujące promieniowanie cząsteczkowe i fotonowe.
D. Zamknięte emitujące promieniowanie cząsteczkowe i fotonowe.
Wątpliwości wokół tego pytania zwykle wynikają z mieszania pojęć z medycyny nuklearnej i radioterapii. W brachyterapii kluczowe jest to, że stosuje się źródła promieniowania zamknięte, a nie otwarte. Źródło otwarte to takie, które może się przemieszczać, rozlać, być wchłonięte do organizmu – typowy przykład to radiofarmaceutyki podawane dożylnie czy doustnie w medycynie nuklearnej, np. jod-131 w leczeniu tarczycy. W brachyterapii byłoby to kompletnie niepraktyczne i niebezpieczne, bo celem jest bardzo precyzyjne, geometrycznie stabilne napromienianie guza, a nie ogólne rozprowadzenie izotopu po całym organizmie. Dlatego odpowiedzi sugerujące „źródła otwarte” wynikają raczej z automatycznego skojarzenia: promieniowanie jonizujące = radioizotopy podawane pacjentowi. Tutaj jest odwrotnie, izotop jest zamknięty w aplikatorze, igle czy kapsule. Druga pułapka dotyczy typu emitowanego promieniowania. Część osób sądzi, że w brachyterapii stosuje się tylko promieniowanie cząsteczkowe, bo kojarzą igły czy druty z jakąś formą „bombardowania” cząstkami. Tymczasem większość klasycznych źródeł brachyterapeutycznych emituje przede wszystkim promieniowanie fotonowe (gamma, czasem X), a promieniowanie cząsteczkowe, jeśli występuje, ma zwykle mniejszy zasięg i inne znaczenie kliniczne. Z punktu widzenia planowania dawki i algorytmów w systemach TPS istotne jest znane widmo fotonów oraz geometryczna konfiguracja zamkniętego źródła, a nie swobodne rozprzestrzenianie się radioizotopu. Mylenie tego z terapią izotopową w medycynie nuklearnej prowadzi do wniosku, że wystarczą „otwarte” źródła, co byłoby sprzeczne z zasadami ochrony radiologicznej, przepisami prawa i praktyką kliniczną. Standardy radioterapii (np. wytyczne ESTRO, IAEA) jasno podkreślają, że brachyterapia opiera się na szczelnych, kontrolowanych źródłach zamkniętych, które można bezpiecznie przechowywać w afterloaderze, precyzyjnie pozycjonować i okresowo testować pod kątem szczelności i aktywności. Dlatego odpowiedzi ograniczające się tylko do promieniowania cząsteczkowego lub mówiące o źródłach otwartych po prostu nie odzwierciedlają realnej technologii używanej w nowoczesnych pracowniach brachyterapii.

Pytanie 19

W celu maksymalnego ograniczenia dawki promieniowania badanie rentgenowskie u dzieci należy wykonać

A. z kratką przeciwrozproszeniową i przy zwiększonej filtracji.
B. bez kratki przeciwrozproszeniowej i przy zwiększonej filtracji.
C. bez kratki przeciwrozproszeniowej i przy zmniejszonej filtracji.
D. z kratką przeciwrozproszeniową i przy zmniejszonej filtracji.
Prawidłowa odpowiedź dobrze odzwierciedla podstawową zasadę ochrony radiologicznej u dzieci: dawka ma być jak najmniejsza, ale przy zachowaniu akceptowalnej jakości obrazu. U pacjentów pediatrycznych zazwyczaj rezygnuje się z kratki przeciwrozproszeniowej, ponieważ dziecko ma małą grubość anatomiczną, więc udział promieniowania rozproszonego jest mniejszy niż u dorosłych. Kratka poprawia co prawda kontrast obrazu, ale „pożera” sporą część promieniowania pierwotnego, przez co aparat musi podać wyższą dawkę (większe mAs), żeby na detektorze było wystarczająco dużo fotonów. U dziecka to jest kompletnie nieopłacalne – zysk w jakości jest niewielki, a dawka rośnie zauważalnie. Dlatego w dobrych praktykach pediatrycznej radiologii klasycznej kratki używa się wyjątkowo rzadko i tylko przy naprawdę grubych obszarach, np. u starszych dzieci z otyłością. Drugim elementem jest zwiększona filtracja wiązki. Dodatkowa filtracja (np. filtracja własna + filtracja dodatkowa z aluminium lub miedzi) usuwa z wiązki niskoenergetyczne fotony, które u dziecka praktycznie nie biorą udziału w tworzeniu obrazu, tylko są pochłaniane w tkankach i zwiększają dawkę powierzchniową skóry. Po „utwardzeniu” wiązki rośnie średnia energia promieniowania, dzięki czemu więcej fotonów przechodzi przez ciało i efektywnie dociera do detektora. W praktyce na aparatach pediatrycznych stosuje się dedykowane programy z podwyższoną filtracją i odpowiednio dobranym kV, zgodnie z zasadą ALARA oraz rekomendacjami kampanii typu Image Gently. Moim zdaniem warto zapamiętać prostą regułę: u dzieci bez kratki, z twardą, dobrze przefiltrowaną wiązką, plus ścisła kolimacja i ewentualne osłony – to jest standard bezpiecznego badania RTG.

Pytanie 20

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
Klucz do zrozumienia tego pytania to pojęcie rozdzielczości przestrzennej i wielkości piksela w obrazowaniu MR. Rozdzielczość przestrzenna określa, jak małe szczegóły jesteśmy w stanie odróżnić na obrazie. Matematycznie w prostym ujęciu jest to bezpośrednio związane z rozmiarem piksela: im mniejszy piksel, tym więcej szczegółów można zobaczyć. Rozmiar piksela wynika z podzielenia pola widzenia (FoV – field of view) przez liczbę elementów matrycy w danym kierunku. Jeżeli zwiększamy FoV przy tej samej lub mniejszej matrycy, każdy piksel obejmuje większy fragment ciała, więc drobne struktury „zlewają się” w jednym pikselu. To typowy błąd myślowy: ktoś myśli, że większy FoV to „więcej informacji”, bo widać większy obszar. Faktycznie widzimy większą część anatomii, ale kosztem szczegółowości. To tak jakby zrobić zdjęcie całego boiska zamiast zbliżenia na jednego zawodnika – widać więcej tła, ale mniej detalu. Z kolei zmniejszenie matrycy przy dużym FoV jeszcze bardziej pogarsza rozdzielczość, bo mamy mniej pikseli na ten sam obszar. W praktyce takie ustawienie stosuje się, gdy zależy nam na szybszym badaniu przeglądowym, a nie na dokładnej analizie małych struktur. Zmniejszenie jednocześnie FoV i matrycy też nie jest korzystne dla rozdzielczości, bo choć obejmujemy mniejszy obszar, to dzielimy go na mało elementów. Taki obraz może być szybki do uzyskania, ale mało szczegółowy. Dodatkowo warto mieć w głowie kompromisy: zwiększanie matrycy poprawia rozdzielczość, ale zwykle wydłuża czas akwizycji i obniża SNR, a bardzo małe FoV może prowadzić do aliasingu. Dobre praktyki w pracowniach rezonansu polegają na świadomym balansowaniu tymi parametrami: dla badań wymagających wysokiej szczegółowości (stawy, drobne struktury mózgu, nerwy) stosuje się mniejsze FoV i możliwie dużą matrycę, natomiast dla badań przeglądowych dopuszcza się większe FoV i mniej „agresywne” ustawienia matrycy. Błędne odpowiedzi wynikają więc głównie z pomieszania pojęcia „więcej widać” z „widać dokładniej”, a to w obrazowaniu to nie jest to samo.

Pytanie 21

SPECT to

A. komputerowa tomografia osiowa.
B. wielorzędowa tomografia komputerowa.
C. pozytonowa emisyjna tomografia komputerowa.
D. tomografia emisyjna pojedynczego fotonu.
SPECT bardzo łatwo pomylić z innymi metodami obrazowania, bo wszystkie nazwy brzmią podobnie i wszędzie przewija się słowo „tomografia”. Jednak kluczowe jest, jak powstaje obraz. W tomografii komputerowej (TK, dawniej CAT – komputerowa tomografia osiowa) źródłem promieniowania jest lampa rentgenowska na gantrze, a detektory mierzą osłabienie wiązki przechodzącej przez ciało. To jest klasyczna metoda anatomiczna, oparta na promieniowaniu rentgenowskim, bez podawania radioaktywnego znacznika emitującego fotony z wnętrza organizmu. Dlatego odpowiedzi kojarzące SPECT z tomografią komputerową, zarówno tą tradycyjną, jak i wielorzędową (multislice CT), są merytorycznie błędne – to inna modalność, inne urządzenia, inne zasady fizyczne. Wielorzędowa TK to po prostu nowocześniejsza wersja klasycznej tomografii, z wieloma rzędami detektorów, umożliwiająca szybsze skanowanie i cieńsze warstwy, ale nadal nie ma nic wspólnego z emisyjną rejestracją fotonów gamma. Kolejne typowe pomieszanie dotyczy PET. Pozytonowa emisyjna tomografia komputerowa wykorzystuje radioizotopy emitujące pozytony, które anihilują z elektronami, dając parę fotonów 511 keV rejestrowanych w koincydencji przez pierścień detektorów. W SPECT nie ma ani pozytonów, ani anihilacji, ani detekcji w koincydencji – rejestrujemy pojedyncze fotony gamma emitowane bezpośrednio przez radiofarmaceutyk. Z mojego doświadczenia często spotykany błąd myślowy polega na tym, że skoro i PET, i SPECT, i TK robią przekroje, to ludzie wrzucają je do jednego worka. Tymczasem różnice mają ogromne znaczenie praktyczne: inne wskazania kliniczne, inne radiofarmaceutyki, inne wymagania ochrony radiologicznej i inne artefakty obrazu. Dobra praktyka w diagnostyce obrazowej wymaga świadomego rozróżniania metod emisyjnych (SPECT, PET) od transmisyjnych (RTG, TK) i zapamiętania prostego klucza: SPECT – pojedynczy foton gamma, PET – pozyton i para fotonów, TK – promieniowanie rentgenowskie z zewnątrz ciała.

Pytanie 22

W leczeniu izotopowym tarczycy należy podać

A. dożylnie emiter promieniowania alfa.
B. dożylnie emiter promieniowania beta.
C. doustnie emiter promieniowania beta.
D. doustnie emiter promieniowania alfa.
W leczeniu izotopowym tarczycy standardem jest podanie doustne radiojodu, czyli emitera promieniowania beta. Najczęściej stosuje się jod-131, który gromadzi się selektywnie w tkance tarczycowej, bo tarczyca fizjologicznie wychwytuje jod z krwi do syntezy hormonów. Dzięki temu mamy coś w rodzaju „celowanej” radioterapii – promieniowanie beta działa głównie w obrębie tarczycy, a otaczające tkanki dostają relatywnie mniejszą dawkę. Emiter beta ma stosunkowo krótki zasięg w tkankach (kilka milimetrów), co ogranicza uszkodzenia narządów sąsiednich. Doustne podanie w kapsułce lub płynie jest wygodne, tanie, dobrze tolerowane przez pacjentów i zgodne z obowiązującymi procedurami medycyny nuklearnej. Podanie dożylne w tym wskazaniu nie jest potrzebne – układ pokarmowy bardzo dobrze wchłania jod, a później krew rozprowadza go do tarczycy. W praktyce klinicznej stosuje się tę metodę m.in. w leczeniu nadczynności tarczycy, wola toksycznego oraz po operacjach raka tarczycy do zniszczenia pozostałej tkanki tarczycowej lub przerzutów wychwytujących jod. Z mojego doświadczenia to jedno z prostszych do zapamiętania skojarzeń: tarczyca = jod-131 doustnie, emiter beta. W dobrych ośrodkach dużą wagę przykłada się do prawidłowego przygotowania pacjenta (dieta uboga w jod, odstawienie niektórych leków, weryfikacja ciąży u kobiet), a także do ochrony radiologicznej po podaniu dawki – pacjent dostaje szczegółowe zalecenia, jak ograniczyć narażenie domowników. Moim zdaniem warto to kojarzyć nie tylko jako „pytanie testowe”, ale jako klasyczny przykład praktycznego wykorzystania fizyki promieniowania w medycynie nuklearnej.

Pytanie 23

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Iloczyn natężenia promieniowania i czasu [mAs].
B. Filtracja [mm Al].
C. Odległość źródła promieniowania od detektora [cm].
D. Napięcie na lampie [kV].
Kontrast obrazu rentgenowskiego bardzo często jest mylony z ogólną „jakością” albo jasnością zdjęcia i stąd biorą się błędne skojarzenia z innymi parametrami ekspozycji. Filtracja w milimetrach aluminium jest ważnym elementem aparatu RTG, ale jej głównym celem jest odfiltrowanie miękkich, mało energetycznych fotonów, które zwiększają dawkę skórną, a niewiele wnoszą do obrazu. Zwiększenie filtracji rzeczywiście trochę „utwardza” wiązkę, ale w praktyce klinicznej nie jest to podstawowe narzędzie do sterowania kontrastem, tylko raczej do poprawy bezpieczeństwa i ujednolicenia widma promieniowania zgodnie z wymaganiami ochrony radiologicznej i normami jakościowymi. Iloczyn natężenia promieniowania i czasu, czyli mAs, odpowiada głównie za całkowitą ilość fotonów padających na detektor. Zwiększenie mAs powoduje, że obraz jest mniej zaszumiony i „gęstszy”, ale nie zmienia istotnie relacji pochłaniania między tkankami, więc nie ma decydującego wpływu na kontrast. Typowym błędem jest myślenie: więcej mAs = „mocniejsze” promieniowanie = większy kontrast. W rzeczywistości to jest bardziej kwestia ekspozycji i dawki, a nie różnic tonalnych między strukturami. Z kolei odległość źródło–detektor (SID) wpływa na natężenie promieniowania na detektorze zgodnie z prawem odwrotności kwadratu odległości. Zmiana SID zmienia więc ekspozycję i ostrość geometryczną (wielkość powiększenia, rozmycia), ale nie selektywnie kontrast między tkankami. Można mieć wrażenie, że przy innej odległości obraz wygląda trochę inaczej, jednak w profesjonalnych warunkach różnice te kompensuje się odpowiednią zmianą mAs. Kluczowy błąd myślowy przy tym pytaniu polega na utożsamianiu każdego parametru technicznego z kontrastem, podczas gdy mechanizm jest bardzo konkretny: kontrast w klasycznym RTG zależy przede wszystkim od energii fotonów, czyli od napięcia na lampie, które decyduje o tym, jak silne są różnice w pochłanianiu promieniowania przez tkanki o różnej gęstości i składzie chemicznym. Pozostałe parametry są ważne, ale z innych powodów – ekspozycji, dawki, ostrości czy bezpieczeństwa, a nie jako podstawowe narzędzie do sterowania kontrastem.

Pytanie 24

W diagnostyce metodą rezonansu magnetycznego biorą udział

A. elektrony wapnia.
B. jądra wapnia.
C. protony wodoru.
D. elektrony wodoru.
W rezonansie magnetycznym kluczową rolę odgrywają protony wodoru, czyli po prostu jądra atomów wodoru obecne głównie w wodzie i tłuszczu. Moim zdaniem to jedna z tych rzeczy, które warto mieć „wryte” w pamięć, bo przewija się praktycznie wszędzie, gdzie mowa o MR. W organizmie człowieka woda stanowi większość masy, a każdy atom wodoru ma pojedynczy proton z własnym momentem magnetycznym (tzw. spinem). W silnym polu magnetycznym tomografu MR te protony ustawiają się częściowo równolegle do kierunku pola. Następnie urządzenie wysyła fale radiowe (impuls RF) o częstotliwości rezonansowej Larmora, które wytrącają te protony z równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego, emitując sygnał, który jest rejestrowany przez cewki odbiorcze. Na podstawie różnic w czasie relaksacji T1 i T2 oraz gęstości protonów w różnych tkankach komputer rekonstruuje obraz przekrojowy ciała. Dlatego w praktyce im więcej protonów wodoru w danej tkance, tym silniejszy sygnał MR, choć ważne są też właściwości środowiska chemicznego, np. różnice między tkanką tłuszczową a mięśniową. W standardach opisów badań MR często odnosi się do sekwencji zależnych od T1, T2, PD (proton density), co bezpośrednio pokazuje, że to właśnie protony wodoru są głównym „źródłem informacji” w tym badaniu. W codziennej pracy technika czy elektroradiologa przekłada się to na dobór odpowiednich sekwencji, parametrów TR, TE i typów obrazowania, aby jak najlepiej wykorzystać sygnał od protonów wodoru do uwidocznienia zmian patologicznych, np. obrzęku, martwicy, zmian demielinizacyjnych czy guzów. Bez obecności protonów wodoru obraz MR praktycznie by nie powstał, co widać chociażby w obrębie struktur zawierających mało wody (np. kość korowa), które dają bardzo słaby sygnał.

Pytanie 25

Radioizotopowa terapia medycyny nuklearnej polega na wprowadzeniu do tkanek lub narządów radiofarmaceutyku

A. emitującego promieniowanie β ze źródeł otwartych.
B. znajdującego się w odległości 50 cm od pacjenta.
C. emitującego promieniowanie γ ze źródeł otwartych.
D. znajdującego się w odległości 100 cm od pacjenta.
Prawidłowo – istota radioizotopowej terapii w medycynie nuklearnej polega na podaniu radiofarmaceutyku emitującego głównie promieniowanie β ze źródeł otwartych, czyli takiego, który wnika do organizmu (do krwi, tkanek, narządów), a nie jest zamknięty w jakiejś osłonie czy aplikatorze. Promieniowanie beta ma stosunkowo krótki zasięg w tkankach (zwykle kilka milimetrów), dzięki czemu dawka pochłonięta koncentruje się w obrębie zmiany chorobowej – guza, przerzutów do kości, nadczynnego guzka tarczycy – a mniej uszkadza otaczające, zdrowe tkanki. To jest właśnie ten „terapeutyczny” efekt medycyny nuklearnej, w odróżnieniu od diagnostyki scyntygraficznej, gdzie ważniejsze jest promieniowanie γ rejestrowane przez gammakamerę. Typowy przykład z praktyki: leczenie nadczynności tarczycy radiojodem I-131 – izotop jest podawany doustnie, kumuluje się w tarczycy i dzięki emisji β niszczy komórki produkujące nadmiar hormonów. Inne przykłady to terapia przerzutów do kości z użyciem Sr-89 czy Sm-153, albo nowocześniejsze terapie receptorowe (np. 177Lu-DOTATATE w guzach neuroendokrynnych). We wszystkich tych przypadkach stosuje się źródła otwarte – radiofarmaceutyk krąży w organizmie i jest częściowo wydalany, dlatego obowiązują ścisłe zasady ochrony radiologicznej: wydzielone sale, kontrola skażeń, instrukcje dla pacjenta po wypisie. Moim zdaniem warto zapamiętać prostą zasadę: β = leczenie (terapia), γ = obrazowanie (diagnostyka), oczywiście z pewnymi wyjątkami, ale jako skrót myślowy działa całkiem dobrze.

Pytanie 26

W której technice brachyterapii stosuje się źródła promieniowania o mocy dawki 2-12 Gy/h?

A. LDR
B. PDR
C. MDR
D. HDR
Prawidłowa odpowiedź to MDR, czyli brachyterapia średniej mocy dawki (medium dose rate). W tej technice źródła promieniowania dostarczają dawkę w zakresie około 2–12 Gy/h, co dokładnie odpowiada wartościom podanym w pytaniu. Jest to coś pośredniego między klasycznym LDR a nowoczesnym HDR – zarówno jeśli chodzi o moc dawki, jak i organizację zabiegu. W praktyce MDR historycznie stosowano np. w leczeniu niektórych nowotworów ginekologicznych czy nowotworów głowy i szyi, gdy chciano skrócić czas napromieniania w porównaniu z LDR, ale jednocześnie zachować bardziej ciągły charakter ekspozycji. Moc dawki na poziomie kilku Gy na godzinę pozwalała na wykonywanie zabiegów trwających kilka godzin, a nie kilkadziesiąt, jak w LDR. Z mojego doświadczenia z materiałów dydaktycznych wynika, że MDR jest często omawiane głównie jako pojęcie historyczne i klasyfikacyjne, ale nadal pojawia się w pytaniach testowych i w standardach opisu brachyterapii. Standardowo wyróżnia się trzy główne zakresy mocy dawki w brachyterapii: LDR (low dose rate) poniżej 2 Gy/h, MDR (medium dose rate) właśnie 2–12 Gy/h oraz HDR (high dose rate) powyżej 12 Gy/h. Dodatkowo istnieje PDR (pulsed dose rate), która formalnie jest zbliżona do LDR, ale realizowana w postaci impulsów z użyciem aparatury HDR. Znajomość tych progów jest ważna nie tylko „pod testy”, ale też do rozumienia, jak planuje się leczenie, jakie są wymagania ochrony radiologicznej, jak wygląda nadzór nad pacjentem i personel medyczny. Moim zdaniem warto zapamiętać sobie tę wartość 2–12 Gy/h jako typowy podpis MDR, bo pojawia się ona w wielu podręcznikach z radioterapii i fizyki medycznej. Dzięki temu łatwiej później rozumieć, czemu pewne techniki wymagają hospitalizacji i osłon stałych, a inne można wykonywać bardziej ambulatoryjnie, tak jak przy HDR.

Pytanie 27

Który radioizotop jest emiterem promieniowania alfa?

A. 131I
B. 99mTc
C. 223Ra
D. 18F
W tym pytaniu haczyk polega na odróżnieniu typów promieniowania emitowanych przez popularne radioizotopy stosowane w medycynie nuklearnej. Wiele osób intuicyjnie kojarzy izotopy używane w diagnostyce, takie jak 18F, 99mTc czy 131I, z „mocnym promieniowaniem” i przez to mylnie zakłada, że mogą być to emitery alfa. Tymczasem ich główne zastosowanie wynika z emisji promieniowania beta lub gamma, które mają zupełnie inne właściwości fizyczne i biologiczne niż cząstki alfa. Fluor-18 (18F) jest typowym emiterem pozytonów, czyli promieniowania beta plus. Pozyton ulega anihilacji z elektronem, co prowadzi do powstania dwóch kwantów promieniowania gamma o energii 511 keV, rejestrowanych przez skaner PET. Cała diagnostyka PET-CT opiera się właśnie na tym zjawisku anihilacji, a nie na promieniowaniu alfa. Gdyby 18F emitował cząstki alfa, zasięg promieniowania byłby zbyt mały, a obrazowanie całego ciała praktycznie niewykonalne. Jod-131 (131I) jest z kolei emiterem promieniowania beta minus oraz gamma. Wykorzystuje się go zarówno diagnostycznie, jak i terapeutycznie, na przykład w leczeniu raka tarczycy i nadczynności tarczycy. Działanie terapeutyczne wynika z cząstek beta, które mają większy zasięg niż alfa, ale mniejszy niż czyste gamma, natomiast komponent gamma pozwala na obrazowanie rozmieszczenia izotopu w organizmie. Myląc 131I z emiterem alfa, pomija się te dość dobrze opisane w podręcznikach właściwości. Technet-99m (99mTc) to w zasadzie „złoty standard” w scyntygrafii. Jest to izomer jądrowy emitujący promieniowanie gamma o energii około 140 keV, idealnej do gammakamery. Praktycznie nie wykorzystuje się go do celów terapeutycznych, bo nie emituje ani istotnego promieniowania beta, ani alfa. Typowy błąd myślowy polega tu na tym, że skoro coś jest bardzo popularne w medycynie nuklearnej, to musi być „silnym” izotopem, może nawet alfa – co jest nieprawdą, liczy się rodzaj i energia promieniowania, a nie „popularność” radionuklidu. Jedynym z podanych izotopów, który jest klasycznym emiterem alfa, pozostaje 223Ra. W nowoczesnych terapiach celowanych coraz częściej zwraca się uwagę na alfa-emiterów właśnie ze względu na wysoki LET i mały zasięg, ale to zupełnie inna grupa niż typowe diagnostyczne izotopy PET czy scyntygraficzne. Dlatego, analizując takie pytania, warto zawsze kojarzyć: PET – pozytony (beta plus), klasyczna scyntygrafia – głównie gamma, terapie jodem – beta i gamma, a alfa to raczej wyspecjalizowane, nieliczne radionuklidy, jak 223Ra w leczeniu przerzutów do kości.

Pytanie 28

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 0,1-0,3 MeV
B. 100-150 MeV
C. 1-3 MeV
D. 4-25 MeV
Zakres energii fotonów generowanych w medycznym przyspieszaczu liniowym jest dość charakterystyczny i łatwo go pomylić z energiami używanymi w diagnostyce obrazowej albo w bardziej eksperymentalnych zastosowaniach. Typowym błędem jest myślenie, że skoro w diagnostyce rentgenowskiej używa się napięć rzędu 100–150 kV, to w linaku może to być „trochę więcej”, czyli 0,1–0,3 MeV. To jednak dotyczy głównie lamp rentgenowskich, gdzie mówimy o napięciu anodowym w kilowoltach, a nie o przyspieszaczach liniowych wysokiej energii. Energia fotonów 0,1–0,3 MeV jest typowa raczej dla klasycznej radioterapii ortowoltowej, która była stosowana dawniej, przy użyciu aparatów rentgenowskich o napięciu 200–300 kV, a nie dla nowoczesnych linaków megawoltowych. Inne skojarzenie to zakres 1–3 MeV. Brzmi już bardziej „terapeutycznie”, ale w praktyce klinicznej przyspieszacze liniowe stosowane w radioterapii działają na wyższych energiach. Przy około 1 MeV promieniowanie w tkankach ma inny rozkład dawki: maksimum dawki jest bliżej powierzchni, a efekt oszczędzenia skóry jest dużo słabszy. Standardowe linaki pracują z wiązkami opisanymi jako 4 MV, 6 MV, 10 MV itd., co przekłada się na maksymalne energie fotonów w tym właśnie wyższym przedziale. Z mojego doświadczenia to właśnie mylenie się o „jeden rząd wielkości” jest tu najczęstsze – ktoś intuicyjnie wybiera kilka MeV, ale za mało. Z kolei zakres 100–150 MeV kojarzy się bardziej z terapią protonową lub ciężkimi jonami, gdzie mówimy o energiach rzędu kilkudziesięciu do ponad stu MeV na nukleon. Dla fotonów tak wysokie energie w rutynowej radioterapii z użyciem linaka nie są stosowane, bo nie ma takiej potrzeby klinicznej, a wymagania osłonowe i techniczne byłyby ogromne. Przy takiej energii zmienia się też charakter oddziaływań z materią, rośnie znaczenie zjawisk hadronowych, pojawiają się dodatkowe problemy z ochroną radiologiczną. Moim zdaniem kluczowe jest rozróżnienie: lampy rentgenowskie do diagnostyki pracują w dziesiątkach–setkach keV, aparaty ortowoltowe około 0,1–0,3 MeV, natomiast medyczne linaki terapeutyczne w zakresie kilku–kilkudziesięciu MeV (4–25 MeV). Energię rzędu 100 MeV zostawiamy głównie dla protonów i cząstek naładowanych w wyspecjalizowanych ośrodkach, a nie dla standardowej fotonowej radioterapii megawoltowej.

Pytanie 29

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
W obrazowaniu MR łatwo się pomylić, bo intuicja podpowiada, że „im większy FoV, tym więcej widać, więc jakość rośnie”. To jest typowy błąd myślowy: mylenie zakresu anatomicznego z rozdzielczością. Duże FoV faktycznie obejmuje większy obszar ciała, ale jeśli matryca pozostaje taka sama lub jest nawet zmniejszana, to każdy pojedynczy piksel reprezentuje większy fragment tkanek, więc szczegółów jest mniej. Rozdzielczość przestrzenna to nie jest to, ile narządów wejdzie w kadr, tylko jak małe struktury da się od siebie odróżnić na obrazie. Dlatego powiększanie FoV przy tej samej lub mniejszej matrycy pogarsza rozdzielczość, choć obraz „wydaje się” lepszy, bo widzimy całe kolano albo całą głowę. Drugie częste nieporozumienie dotyczy samej matrycy. Zmniejszenie matrycy oznacza mniej punktów pomiarowych w przestrzeni k‑przestrzeni, czyli de facto większe piksele po rekonstrukcji. Nawet jeśli dołożymy do tego mały FoV, to i tak ograniczamy ilość informacji przestrzennej. Efekt jest taki, że struktury drobne, jak nerwy, małe naczynia, cienkie warstwy chrząstki, zaczynają się zlewać i obraz robi się „miękki”, mniej ostry. Z mojego doświadczenia wiele osób na początku nauki MR skupia się tylko na jednym parametrze – albo na FoV, albo na macierzy – i nie patrzy na ich proporcje. Tymczasem standardy i dobre praktyki w MR mówią jasno: o rozdzielczości decyduje rozmiar piksela i grubość warstwy, a rozmiar piksela zależy jednocześnie od FoV i liczby punktów w matrycy. Dlatego konfiguracje typu duży FoV z małą matrycą lub mały FoV z małą matrycą są kompromisami raczej do szybkich przeglądowych sekwencji, a nie do badań wysokorozdzielczych. W protokołach wysokiej jakości zawsze dąży się do możliwie małego FoV obejmującego tylko interesujący obszar i możliwie dużej matrycy, oczywiście z uwzględnieniem czasu skanowania i SNR. Zrozumienie tego mechanizmu bardzo pomaga potem świadomie modyfikować parametry, zamiast klikać „na czuja”.

Pytanie 30

W obrazowaniu MR wykorzystuje się moment magnetyczny

A. neutronów.
B. protonów.
C. elektronów.
D. pozytonów.
W rezonansie magnetycznym często myli się, które cząstki biorą realnie udział w wytwarzaniu sygnału. Intuicyjnie ktoś może pomyśleć: przecież jądro atomowe ma protony i neutrony, więc może każde z nich „coś tam daje” do obrazu. Albo: elektron też ma ładunek i moment magnetyczny, to czemu nie on? Technicznie rzecz biorąc, moment magnetyczny mają i protony, i neutrony, i elektrony, a nawet pozytony, ale w warunkach klinicznego MR wykorzystuje się praktycznie wyłącznie moment magnetyczny protonów wodoru. Neutrony są cząstkami obojętnymi elektrycznie, posiadają co prawda moment magnetyczny, jednak ich właściwości i liczebność w organizmie nie pozwalają na efektywne zastosowanie w standardowych skanerach MR. Cała aparatura, częstotliwości Larmora, cewki nadawczo-odbiorcze są zoptymalizowane właśnie pod rezonans jądrowy protonów wodoru, a nie neutronów. To nie jest przypadek, tylko wynik fizyki i praktyki inżynierskiej. Elektrony z kolei są wykorzystywane w zupełnie innej technice – w elektronowym rezonansie paramagnetycznym (EPR), który w medycynie klinicznej jest stosowany marginalnie, głównie w badaniach naukowych, a nie w klasycznym obrazowaniu MR całego ciała czy mózgu. Elektrony mają inne częstotliwości rezonansowe, wymagają innych pól magnetycznych i całkowicie innej konstrukcji urządzenia. Pozytony natomiast kojarzą się raczej z badaniem PET w medycynie nuklearnej, gdzie mamy anihilację pozyton–elektron i rejestrację fotonów 511 keV, a nie z MR. W rezonansie magnetycznym nie generujemy, nie śledzimy ani nie wykorzystujemy pozytonów. Typowy błąd myślowy polega na wrzuceniu wszystkich technik obrazowych „pod jedną czapkę” promieniowania i cząstek. Tymczasem MR to metoda oparta na zjawisku rezonansu jądrowego protonów wodoru w silnym polu magnetycznym, podczas gdy PET czy inne techniki nuklearne bazują na rozpadających się izotopach i promieniowaniu gamma. Dlatego wybór neutronów, pozytonów albo elektronów jako źródła sygnału w standardowym badaniu MR jest po prostu niezgodny z fizyką tej metody i z praktyką kliniczną stosowaną na co dzień w pracowniach rezonansu.

Pytanie 31

Planowany obszar napromieniania PTV obejmuje

A. guz w mózgu bez marginesów.
B. guz w płucach bez marginesów.
C. obszar napromieniania guza wraz z marginesami.
D. wyłącznie obszar napromieniania guza.
W radioterapii bardzo łatwo pomylić się, jeśli myśli się o guzie tylko jako o „plamie” widocznej na obrazie TK czy MR. Intuicyjnie kusi, żeby planowany obszar napromieniania PTV utożsamić po prostu z guzem, na przykład guzem w mózgu albo w płucu, bez żadnych marginesów. To jednak podejście zbyt uproszczone i w praktyce klinicznej po prostu niebezpieczne. Sam guz, czyli tzw. GTV, to tylko część całej historii. Guz nigdy nie jest strukturą „zamrożoną w przestrzeni”. Pacjent oddycha, połyka, napina mięśnie, różni się jego ułożenie między frakcjami. Szczególnie w płucach czy jamie brzusznej położenie tkanek zmienia się nawet w ciągu kilku sekund. Jeśli więc PTV ograniczyć do guza bez marginesów, łatwo doprowadzić do sytuacji, że fragment guza lub strefa mikroskopowego naciekania wypadnie poza obszar wysokiej dawki. To typowy błąd myślowy: „skoro na obrazie widzę guz, to wystarczy naświetlić dokładnie ten kształt”. Standardy ICRU jasno mówią, że z GTV wyprowadza się CTV, które obejmuje również potencjalne mikroskopowe szerzenie nowotworu, a dopiero na CTV nakłada się marginesy geometryczne, tworząc PTV. Dlatego odpowiedzi mówiące o „guzie w mózgu bez marginesów” czy „guzie w płucach bez marginesów” pomijają całkowicie koncepcję niepewności pozycjonowania i ruchu narządów. Równie błędne jest myślenie, że PTV to „wyłącznie obszar napromieniania guza”, bo to ignoruje fakt, że planujemy nie tylko to, co widać, ale też to, czego nie widać idealnie oraz błąd ustawienia pacjenta. W dobrych praktykach radioterapii PTV zawsze musi zawierać margines bezpieczeństwa, którego wielkość dobiera się indywidualnie, zależnie od lokalizacji, techniki (np. IMRT, VMAT, stereotaksja) i jakości kontroli obrazowej IGRT. Z mojego doświadczenia, kluczowe jest przestawienie się z myślenia „rysuję guz” na myślenie „rysuję objętość, która ma być na pewno w pełni pokryta dawką mimo wszystkich niepewności”. Bez marginesów koncepcja PTV po prostu traci sens.

Pytanie 32

Co jest przyczyną artefaktu widocznego na obrazie MR?

Ilustracja do pytania
A. Zjawisko zawijania fazy.
B. Pulsacyjny przepływ krwi.
C. Ruch narządu lub pacjenta.
D. Zjawisko zaniku sygnału.
Prawidłowo wskazany został ruch narządu lub pacjenta jako przyczyna widocznego artefaktu. W badaniach MR oko, gałki oczne, język, żuchwa, a nawet drobne drżenia głowy bardzo łatwo „psują” obraz, bo sekwencje są stosunkowo długie i sygnał z kolejnych linii k‑przestrzeni zbierany jest w czasie. Jeśli w trakcie akwizycji pacjent poruszy głową albo np. mrugnie, informacje z różnych momentów zostają nałożone na siebie i rekonstrukcja obrazu daje charakterystyczne rozmycia, podwójne kontury, przesunięcia czy „smugi” w kierunku kodowania fazy. Na prezentowanym przekroju przez oczodoły widać typowy obraz – struktury nie są ostre, brzegi są jakby „pociągnięte”, co nie wygląda ani na zanik sygnału, ani na klasyczne zawijanie fazy. W praktyce, zgodnie z dobrymi standardami pracowni MR, zawsze dąży się do minimalizacji ruchu: dokładne unieruchomienie głowy (podkładki, maski, pianki), jasne instrukcje dla pacjenta, krótsze sekwencje, techniki motion‑correction, a w badaniach u dzieci czasem sedacja zgodnie z procedurami anestezjologicznymi. Moim zdaniem kluczowe jest też spokojne wytłumaczenie pacjentowi, dlaczego musi leżeć nieruchomo – to naprawdę robi różnicę. W opisie badania warto wspomnieć o obecności artefaktów ruchowych, bo mogą one ograniczać wiarygodność oceny np. nerwów wzrokowych czy struktur tylnego dołu. Z perspektywy technika dobrze jest od razu, na konsoli, krytycznie ocenić jakość obrazów i w razie wyraźnych artefaktów rozważyć powtórzenie wybranych sekwencji, zamiast oddawać badanie z mocno zniekształconym obrazem.

Pytanie 33

Fala głosowa rozchodzi się

A. w gazach, cieczach i próżni.
B. w gazach i cieczach.
C. w gazach i próżni.
D. w cieczach i próżni.
Fala głosowa, czyli klasyczny dźwięk, jest falą mechaniczną podłużną. To oznacza, że do jej rozchodzenia się konieczna jest obecność ośrodka materialnego: cząsteczek, które mogą drgać i przekazywać sobie energię. W gazach drgają cząsteczki powietrza, w cieczach – cząsteczki cieczy, w ciałach stałych – atomy w sieci krystalicznej. Jeżeli ktoś zakłada, że fala dźwiękowa może rozchodzić się w próżni, to zwykle myli pojęcia związane z falami mechanicznymi i falami elektromagnetycznymi. W próżni nie ma praktycznie żadnych cząsteczek, więc nie ma ośrodka sprężystego, który mógłby przenosić zaburzenie ciśnienia. W efekcie fala głosowa tam zanika – po prostu nie może się utworzyć. Tymczasem fale elektromagnetyczne, takie jak promieniowanie rentgenowskie, gamma czy fale radiowe, nie potrzebują ośrodka, więc bez problemu rozchodzą się w próżni. Kto przyzwyczaił się do filmowego obrazu „głośnych eksplozji w kosmosie”, łatwo przenosi ten obraz na fizykę, co prowadzi do błędnych wniosków. Czasami pojawia się też mylne założenie, że skoro ultradźwięki wykorzystuje się w medycynie i są „falą”, to muszą zachowywać się jak fale elektromagnetyczne. Tymczasem ultradźwięki to nadal fale mechaniczne, tylko o wyższej częstotliwości niż słyszalna dla człowieka. Dlatego w ultrasonografii konieczny jest żel między głowicą a skórą – powietrze (gaz) słabo przenosi ultradźwięki, a w próżni nie przeszłyby w ogóle. Z mojego doświadczenia typowy błąd myślowy polega na wrzuceniu wszystkich „fal” do jednego worka i nieodróżnianiu, które wymagają ośrodka, a które nie. W poprawnym rozumieniu akustyki trzeba jasno oddzielić fale mechaniczne (dźwięk, ultradźwięki) od elektromagnetycznych (światło, RTG), bo od tego zależy sposób ich wykorzystania w diagnostyce i technice medycznej.

Pytanie 34

Która sekwencja obrazowania MR wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do tłumienia sygnału pochodzącego z tkanki tłuszczowej?

A. FAT SAT
B. MTC
C. TOF
D. PCA
Prawidłowa odpowiedź to FAT SAT, czyli tzw. fat saturation albo fat suppression. W tej technice wykorzystuje się impulsy RF o częstotliwości dokładnie dopasowanej do rezonansu protonów w tłuszczu. Najpierw aparat MR podaje selektywny impuls nasycający dla tłuszczu, a dopiero potem właściwą sekwencję obrazowania. Protony tłuszczu zostają „wybite” ze stanu równowagi i nie zdążą się zrelaksować przed pomiarem, więc ich sygnał jest mocno osłabiony albo praktycznie znika. W efekcie na obrazach tkanka tłuszczowa staje się ciemna, a struktury o wysokiej zawartości wody (np. obrzęk, zapalenie, guzy) są lepiej widoczne. Moim zdaniem to jedna z najbardziej praktycznych sztuczek w MR, bo bardzo poprawia kontrast obrazu. W praktyce klinicznej FAT SAT jest standardem przy badaniach stawów (kolano, bark, skokowy), kręgosłupa, tkanek miękkich oraz w onkologii. Klasyczny przykład: sekwencja T2-zależna z saturacją tłuszczu – idealna do uwidaczniania płynu, obrzęku szpiku, zmian zapalnych. Podobnie w badaniach po kontraście gadolinowym używa się T1 FAT SAT, żeby wzmocnienie kontrastowe na tle wyciszonego tłuszczu było wyraźne i czytelne. Dobre praktyki mówią, żeby zawsze sprawdzać jednorodność pola B0, bo FAT SAT jest wrażliwy na niejednorodności – szczególnie w okolicach metalowych implantów czy przy dużym polu widzenia. Dlatego technicy często korygują shim, dobierają odpowiednie parametry i pilnują pozycji pacjenta. W nowoczesnych protokołach MR często łączy się FAT SAT z innymi modyfikacjami sekwencji (np. FSE, 3D, Dixon), ale zasada pozostaje ta sama: selektywne nasycenie sygnału tłuszczu przy użyciu impulsów RF o jego częstotliwości rezonansowej, żeby uzyskać lepszą diagnostykę i czytelniejszy obraz patologii.

Pytanie 35

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w miesiącu.
B. w kwartale.
C. w roku.
D. w tygodniu.
W diagnostyce obrazowej bardzo łatwo przecenić albo nie docenić częstości wykonywania testów kontroli jakości. Przy testach geometrii pola rentgenowskiego, czyli sprawdzaniu zgodności pola wiązki z symulacją świetlną, myślenie w stylu „raz w roku wystarczy, przecież aparat ma przegląd serwisowy” jest dość typowym błędem. Przegląd roczny jest ważny, ale dotyczy głównie pełnego serwisu, bezpieczeństwa elektrycznego, kalibracji systemowej. Geometria głowicy, kolimatora, mechaniki stołu i statywu potrafi się delikatnie rozjechać dużo szybciej, chociażby przez codzienną eksploatację, uderzenia, luzowanie się elementów. Gdyby taki test robić tylko raz w roku, to przez wiele miesięcy można by pracować na sprzęcie, który nieprawidłowo wyznacza pole napromieniania, co skutkuje albo niepotrzebnym zwiększeniem napromienianej objętości pacjenta, albo ucięciem istotnych struktur na obrazie. Z drugiej strony zbyt częste testowanie, np. co tydzień, też nie jest rozsądne. To nie jest test dzienny jak sprawdzenie ogólnej sprawności systemu czy prosty test wizualny. Comiesięczny cykl to kompromis między bezpieczeństwem, realnymi możliwościami organizacyjnymi pracowni a stabilnością parametrów geometrycznych współczesnych aparatów RTG. Comiesięczne testy pozwalają wyłapać stopniowe zmiany zanim staną się krytyczne, ale nie blokują pracy zespołu ciągłymi pomiarami. Podobnie mylące jest myślenie o kontroli geometrycznej jako o zadaniu „na kwartał”. Kwartalne odstępy są stosowane raczej przy niektórych testach bardziej stabilnych parametrów, jednak zgodność pola świetlnego i promieniowania jest kluczowa przy każdym badaniu, więc nie powinna być zostawiona bez weryfikacji przez trzy miesiące. Z mojego doświadczenia, jeśli ktoś przyjmuje zbyt rzadkie testy, to zwykle wynika to z niedoceniania wpływu geometrii na dawkę i jakość obrazu. A to właśnie geometra pola decyduje, czy to co na lampie „widzimy”, rzeczywiście jest tym, co napromieniamy. Dlatego poprawnym, zgodnym ze standardami podejściem jest traktowanie tego testu jako badania comiesięcznego, a nie rocznego, kwartalnego czy tygodniowego.

Pytanie 36

Do czego służy do symulator rentgenowski wykorzystywany w procesie radioterapii?

A. Do określania odległości od wirtualnego źródła promieniowania do skóry pacjenta.
B. Do weryfikacji dawki podanej pacjentowi w obszarze PTV.
C. Do generowania trójwymiarowych informacji o lokalizacji obszaru guza.
D. Do weryfikacji i odwzorowania geometrii pól poszczególnych wiązek terapeutycznych.
Symulator rentgenowski w radioterapii bywa czasem mylony z innymi urządzeniami używanymi w planowaniu leczenia, co prowadzi do różnych nieporozumień. Jego główna rola nie polega na pomiarze ani weryfikacji dawki w obszarze PTV. Kontrola dawki odbywa się poprzez obliczenia w systemie planowania leczenia (TPS), pomiary fantomowe, testy QA akceleratora oraz za pomocą dozymetrii in vivo, a nie na klasycznym symulatorze RTG. Symulator daje obraz geometryczny pól, ale nie jest narzędziem do precyzyjnego sprawdzania rozkładu dawki terapeutycznej, bo używa innej energii promieniowania i innych warunków niż właściwa wiązka megawoltowa. Często też przypisuje się symulatorowi funkcję generowania trójwymiarowych informacji o lokalizacji guza. W nowoczesnej radioterapii do tego służy przede wszystkim tomograf komputerowy do planowania (CT-sim) oraz oprogramowanie TPS, które pozwala na rekonstrukcję 3D, segmentację PTV i OAR, fuzję obrazów z MR czy PET. Klasyczny symulator rentgenowski wykonuje głównie projekcje 2D (AP, PA, boczne, skośne) i umożliwia ustawienie pól, a nie pełne modelowanie objętości guza w trzech wymiarach. Kolejne nieporozumienie dotyczy odległości od wirtualnego źródła promieniowania do skóry pacjenta. Owszem, na symulatorze można sprawdzić i ustawić SSD lub SAD, ale nie jest to jego unikalne zadanie – te odległości są standardowo kontrolowane na samym akceleratorze przy każdym zabiegu, z użyciem wskaźników odległości, laserów i systemów pozycjonowania. Redukowanie roli symulatora tylko do mierzenia odległości trochę mija się z celem, bo sednem jego użycia jest właśnie odtworzenie geometrii pól terapeutycznych, sprawdzenie projekcji osłon, listków MLC (w miarę możliwości), bloków, klinów oraz porównanie ich z anatomią pacjenta na obrazie RTG. Typowy błąd myślowy polega na mieszaniu funkcji: CT-symulatora, systemu planowania, akceleratora i symulatora RTG. Ten ostatni służy głównie do geometrycznej weryfikacji ustawień – czy pola są tam, gdzie trzeba, czy marginesy są prawidłowe, czy znaczniki na skórze i lasery zgadzają się z planem. Dlatego poprawne rozumienie jego roli jest ważne, bo wpływa bezpośrednio na bezpieczeństwo i dokładność całego procesu napromieniania.

Pytanie 37

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, rozpuszczalne w wodzie.
B. Środki na bazie gadolinu.
C. Środki na bazie siarczanu baru.
D. Jodowe, nierozpuszczalne w wodzie.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 38

Hiperfrakcjonowanie dawki w radioterapii oznacza napromieniowywanie pacjenta

A. kilka razy dziennie.
B. raz w tygodniu.
C. pięć razy w tygodniu.
D. codziennie.
Prawidłowo – hiperfrakcjonowanie w radioterapii oznacza podawanie dawki promieniowania kilka razy dziennie, w postaci wielu małych frakcji, a nie jednej większej. Chodzi o to, że całkowita dawka napromieniania jest podzielona na mniejsze porcje, zwykle 2 (czasem nawet 3) frakcje na dobę, z odpowiednim odstępem czasowym między nimi, najczęściej minimum 6 godzin. Z punktu widzenia radiobiologii wykorzystuje się tu różnice w zdolności naprawy uszkodzeń DNA między komórkami nowotworowymi a zdrowymi. Komórki prawidłowe lepiej regenerują się między kolejnymi frakcjami, więc mniejsze, częściej podawane dawki mogą ograniczać późne powikłania w tkankach zdrowych, a jednocześnie zwiększać szansę na kontrolę guza. W praktyce klinicznej takie schematy stosuje się np. w niektórych nowotworach głowy i szyi czy w wybranych guzach pediatrycznych, gdzie istotne jest zmniejszenie ryzyka późnych uszkodzeń narządów krytycznych. Hiperfrakcjonowanie wymaga bardzo dobrej organizacji pracy ośrodka: precyzyjnego planowania leczenia, rzetelnej weryfikacji pozycjonowania pacjenta przy każdym naświetlaniu oraz ścisłego trzymania się harmonogramu frakcji w ciągu dnia. W wytycznych z zakresu radioterapii onkologicznej podkreśla się też, że ten sposób frakcjonowania powinien być stosowany głównie w ośrodkach, które mają odpowiednie doświadczenie i zaplecze kadrowo‑techniczne, bo obciążenie dla zespołu i pacjenta jest po prostu większe niż przy standardowym schemacie raz dziennie.

Pytanie 39

Czas repetycji w obrazowaniu metodą rezonansu magnetycznego to

A. czas kąta przeskoku.
B. czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce.
C. czas między dwoma impulsami częstotliwości radiowej.
D. czas mierzony od impulsu odwracającego 180° do impulsu 90°.
W rezonansie magnetycznym łatwo się pogubić w różnych czasach: mamy czas repetycji (TR), czas echa (TE) i czas inwersji (TI). Jeżeli nie złapie się intuicji, co który oznacza, to odpowiedzi oparte na skojarzeniach typu „kąt”, „szczyt sygnału” czy „odwrócenie” brzmią sensownie, ale niestety mijają się z fizyką badania. Czas repetycji nie ma nic wspólnego z „czasem kąta przeskoku”. W MR owszem, mówimy o kącie odchylenia magnetyzacji (np. 90°, 180°, małe kąty w sekwencjach GRE), ale nie mierzymy żadnego „czasu kąta”. Kąt jest parametrem impulsu RF, a TR to odstęp czasowy między kolejnymi impulsami pobudzającymi. Łączenie TR z kątem wynika często z mylenia definicji z pracą gradientów i zmianą fazy, ale to zupełnie inna bajka. Z kolei określenie „czas mierzony od impulsu odwracającego 180° do impulsu 90°” opisuje w istocie czas inwersji (TI) stosowany w sekwencjach inwersyjno-odtworzeniowych, takich jak STIR czy FLAIR. TI dobieramy tak, żeby wygasić sygnał określonej tkanki, np. tłuszczu albo płynu mózgowo-rdzeniowego. To bardzo ważny parametr, ale nie jest to TR. W tych sekwencjach nadal istnieje TR, który liczymy od cyklu do cyklu pobudzenia, natomiast TI jest dodatkowym czasem w środku sekwencji. Następne błędne skojarzenie to „czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce”. To już bardziej przypomina definicję czasu echa (TE). TE to odstęp między impulsem pobudzającym RF (zwykle 90°) a momentem, w którym rejestrujemy maksimum sygnału echa w cewce. TE wpływa głównie na ważenie T2, bo od niego zależy, jak bardzo zdąży zajść relaksacja poprzeczna. Typowy błąd myślowy polega na tym, że wszystko, co „czasowe” w MR, wrzuca się do jednego worka i nazywa TR. W dobrej praktyce diagnostycznej trzeba te pojęcia rozdzielić: TR – czas między kolejnymi impulsami RF pobudzającymi ten sam wycinek, TE – czas do szczytu echa, TI – czas od impulsu 180° do 90°. Dopiero świadome operowanie tymi trzema parametrami pozwala rozumieć, dlaczego dany protokół daje obraz bardziej T1-, T2- czy PD-zależny i jak modyfikacje wpływają na kontrast, SNR i całkowity czas badania.

Pytanie 40

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
B. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
C. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
D. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
Poprawnie – w hiperfrakcjonowaniu w teleradioterapii kluczowe są dwie rzeczy: dawka frakcyjna jest mniejsza niż standardowe 2 Gy oraz całkowity czas leczenia zasadniczo się nie wydłuża. Czyli zamiast np. 1 × 2 Gy dziennie, pacjent dostaje 2–3 frakcje po ok. 1,1–1,2 Gy każda, ale cały plan (np. 6–7 tygodni) trwa podobnie jak w klasycznym schemacie. Z punktu widzenia radiobiologii chodzi o wykorzystanie różnic w zdolności do naprawy uszkodzeń DNA między guzem a zdrowymi tkankami. Mniejsza dawka na frakcję lepiej chroni tkanki późno reagujące (np. rdzeń kręgowy, nerki), a jednocześnie większa liczba frakcji pozwala podnieść całkowitą dawkę biologicznie skuteczną dla guza. Moim zdaniem to jest jeden z fajniejszych przykładów, jak teoria frakcji i model liniowo-kwadratowy (parametry α/β) przekładają się na praktykę. Nowotwory o wysokim współczynniku α/β (np. rak głowy i szyi, część guzów dziecięcych) szczególnie korzystają z takiego schematu, bo są wrażliwe na sumaryczną dawkę, a mniej na wielkość pojedynczej frakcji. W praktyce klinicznej wymaga to dobrej organizacji pracy ośrodka: dokładnego planowania czasów między frakcjami (minimum 6 godzin przerwy), pilnowania harmonogramu i bardzo precyzyjnej kontroli jakości ustawienia pacjenta przy każdym naświetlaniu. W wytycznych wielu towarzystw onkologicznych podkreśla się, że przy hiperfrakcjonowaniu nie chodzi o „wydłużanie leczenia”, tylko o modyfikację podziału dawki przy zachowaniu podobnego czasu całkowitego, tak żeby zwiększyć szansę wyleczenia przy akceptowalnej toksyczności późnej.