Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 11 kwietnia 2026 14:45
  • Data zakończenia: 11 kwietnia 2026 14:51

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 1-3 MeV
B. 100-150 MeV
C. 4-25 MeV
D. 0,1-0,3 MeV
Zakres energii fotonów generowanych w medycznym przyspieszaczu liniowym jest dość charakterystyczny i łatwo go pomylić z energiami używanymi w diagnostyce obrazowej albo w bardziej eksperymentalnych zastosowaniach. Typowym błędem jest myślenie, że skoro w diagnostyce rentgenowskiej używa się napięć rzędu 100–150 kV, to w linaku może to być „trochę więcej”, czyli 0,1–0,3 MeV. To jednak dotyczy głównie lamp rentgenowskich, gdzie mówimy o napięciu anodowym w kilowoltach, a nie o przyspieszaczach liniowych wysokiej energii. Energia fotonów 0,1–0,3 MeV jest typowa raczej dla klasycznej radioterapii ortowoltowej, która była stosowana dawniej, przy użyciu aparatów rentgenowskich o napięciu 200–300 kV, a nie dla nowoczesnych linaków megawoltowych. Inne skojarzenie to zakres 1–3 MeV. Brzmi już bardziej „terapeutycznie”, ale w praktyce klinicznej przyspieszacze liniowe stosowane w radioterapii działają na wyższych energiach. Przy około 1 MeV promieniowanie w tkankach ma inny rozkład dawki: maksimum dawki jest bliżej powierzchni, a efekt oszczędzenia skóry jest dużo słabszy. Standardowe linaki pracują z wiązkami opisanymi jako 4 MV, 6 MV, 10 MV itd., co przekłada się na maksymalne energie fotonów w tym właśnie wyższym przedziale. Z mojego doświadczenia to właśnie mylenie się o „jeden rząd wielkości” jest tu najczęstsze – ktoś intuicyjnie wybiera kilka MeV, ale za mało. Z kolei zakres 100–150 MeV kojarzy się bardziej z terapią protonową lub ciężkimi jonami, gdzie mówimy o energiach rzędu kilkudziesięciu do ponad stu MeV na nukleon. Dla fotonów tak wysokie energie w rutynowej radioterapii z użyciem linaka nie są stosowane, bo nie ma takiej potrzeby klinicznej, a wymagania osłonowe i techniczne byłyby ogromne. Przy takiej energii zmienia się też charakter oddziaływań z materią, rośnie znaczenie zjawisk hadronowych, pojawiają się dodatkowe problemy z ochroną radiologiczną. Moim zdaniem kluczowe jest rozróżnienie: lampy rentgenowskie do diagnostyki pracują w dziesiątkach–setkach keV, aparaty ortowoltowe około 0,1–0,3 MeV, natomiast medyczne linaki terapeutyczne w zakresie kilku–kilkudziesięciu MeV (4–25 MeV). Energię rzędu 100 MeV zostawiamy głównie dla protonów i cząstek naładowanych w wyspecjalizowanych ośrodkach, a nie dla standardowej fotonowej radioterapii megawoltowej.

Pytanie 2

Która sekwencja obrazowania MR wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do tłumienia sygnału pochodzącego z tkanki tłuszczowej?

A. PCA
B. FAT SAT
C. TOF
D. MTC
Prawidłowa odpowiedź to FAT SAT, czyli tzw. fat saturation albo fat suppression. W tej technice wykorzystuje się impulsy RF o częstotliwości dokładnie dopasowanej do rezonansu protonów w tłuszczu. Najpierw aparat MR podaje selektywny impuls nasycający dla tłuszczu, a dopiero potem właściwą sekwencję obrazowania. Protony tłuszczu zostają „wybite” ze stanu równowagi i nie zdążą się zrelaksować przed pomiarem, więc ich sygnał jest mocno osłabiony albo praktycznie znika. W efekcie na obrazach tkanka tłuszczowa staje się ciemna, a struktury o wysokiej zawartości wody (np. obrzęk, zapalenie, guzy) są lepiej widoczne. Moim zdaniem to jedna z najbardziej praktycznych sztuczek w MR, bo bardzo poprawia kontrast obrazu. W praktyce klinicznej FAT SAT jest standardem przy badaniach stawów (kolano, bark, skokowy), kręgosłupa, tkanek miękkich oraz w onkologii. Klasyczny przykład: sekwencja T2-zależna z saturacją tłuszczu – idealna do uwidaczniania płynu, obrzęku szpiku, zmian zapalnych. Podobnie w badaniach po kontraście gadolinowym używa się T1 FAT SAT, żeby wzmocnienie kontrastowe na tle wyciszonego tłuszczu było wyraźne i czytelne. Dobre praktyki mówią, żeby zawsze sprawdzać jednorodność pola B0, bo FAT SAT jest wrażliwy na niejednorodności – szczególnie w okolicach metalowych implantów czy przy dużym polu widzenia. Dlatego technicy często korygują shim, dobierają odpowiednie parametry i pilnują pozycji pacjenta. W nowoczesnych protokołach MR często łączy się FAT SAT z innymi modyfikacjami sekwencji (np. FSE, 3D, Dixon), ale zasada pozostaje ta sama: selektywne nasycenie sygnału tłuszczu przy użyciu impulsów RF o jego częstotliwości rezonansowej, żeby uzyskać lepszą diagnostykę i czytelniejszy obraz patologii.

Pytanie 3

Który materiał światłoczuły należy zastosować w rentgenodiagnostyce analogowej, by zminimalizować dawkę promieniowania jonizującego otrzymaną przez pacjenta?

A. Film z folią z pierwiastkami ziem rzadkich.
B. Film jednostronnie pokryty emulsją.
C. Film z folią wolframowo-wapniową.
D. Film bez folii wzmacniającej.
W diagnostyce analogowej kluczowa zasada jest prosta: im wyższa czułość układu obrazującego, tym mniejszą dawkę promieniowania trzeba podać pacjentowi, żeby uzyskać obraz o akceptowalnej jakości. Film z folią z pierwiastkami ziem rzadkich właśnie to zapewnia. Takie folie (np. z lantanem, gadolinem) emitują dużo światła pod wpływem promieniowania rentgenowskiego, a widmo tego światła jest dobrze dopasowane do czułości emulsji filmowej. Dzięki temu większość informacji o obrazie pochodzi z naświetlenia przez światło z folii, a nie bezpośrednio z promieniowania X. W praktyce oznacza to, że można znacząco obniżyć mAs na aparacie i skrócić czas ekspozycji, co zmniejsza zarówno dawkę pochłoniętą przez pacjenta, jak i ryzyko poruszenia. W nowoczesnych standardach radiologii analogowej zaleca się stosowanie folii ze związkami ziem rzadkich właśnie ze względu na wysoki współczynnik wzmocnienia przy jednocześnie akceptowalnej rozdzielczości obrazu. Moim zdaniem to jest taki złoty kompromis: trochę tracimy na ultra-drobnych szczegółach, ale bardzo zyskujemy na bezpieczeństwie pacjenta, a to jest priorytet w ochronie radiologicznej. W badaniach klatki piersiowej, kręgosłupa czy miednicy takie systemy są standardem, bo tam nie potrzebujemy aż tak ekstremalnie wysokiej rozdzielczości jak np. w radiografii stomatologicznej czy badaniach drobnych kości dłoni. Dobrą praktyką jest też dobieranie klas czułości folii (np. 400, 800) do rodzaju badania – im wyższa czułość, tym niższa dawka, ale też trochę gorsza szczegółowość. W każdym razie w kontekście pytania, jeśli celem jest minimalizacja dawki, to film z folią z pierwiastkami ziem rzadkich jest rozwiązaniem najbliższym współczesnym wymaganiom ochrony radiologicznej i zasadzie ALARA.

Pytanie 4

W obrazowaniu MR wykorzystuje się moment magnetyczny

A. protonów.
B. pozytonów.
C. elektronów.
D. neutronów.
W obrazowaniu rezonansu magnetycznego kluczową rolę odgrywa moment magnetyczny protonów, głównie protonów wodoru obecnych w cząsteczkach wody i tłuszczu w organizmie. Każdy proton zachowuje się trochę jak miniaturowy magnes – ma swój spin i związany z nim moment magnetyczny. W silnym polu magnetycznym skanera MR te „magnesiki” ustawiają się wzdłuż linii pola, a następnie są wytrącane z równowagi impulsami fal radiowych (RF). Po wyłączeniu impulsu RF protony wracają do stanu równowagi i oddają energię, co rejestruje system odbiorczy. Właśnie ta sygnałowa odpowiedź protonów (sygnał MR) jest przeliczana komputerowo na obraz. Moim zdaniem najważniejsze praktyczne skojarzenie dla technika jest takie: im więcej protonów wodoru w tkance, tym silniejszy sygnał, dlatego np. tkanka tłuszczowa czy mięśniowa wygląda inaczej niż kość korowa, a płyn mózgowo-rdzeniowy inaczej niż istota biała w mózgu. Różnice w czasie relaksacji T1 i T2 protonów w różnych tkankach pozwalają na dobranie odpowiednich sekwencji (T1-zależnych, T2-zależnych, PD, FLAIR, STIR itd.), co jest standardem w protokołach badań MR zgodnie z zaleceniami producentów i wytycznymi towarzystw radiologicznych. W praktyce klinicznej technik, planując badanie, świadomie wykorzystuje fizykę protonów: dobiera parametry takie jak TR, TE, flip angle, żeby podkreślić różnice w zachowaniu momentów magnetycznych protonów w danych strukturach. Bez momentu magnetycznego protonów nie byłoby ani kontrastu tkanek, ani samego sygnału w MR – cała metoda po prostu by nie działała. Dlatego właśnie poprawna odpowiedź to protony, a nie inne cząstki.

Pytanie 5

W medycynie nuklearnej wykorzystuje się:

A. gammakamerę, PET, USG i scyntygraf.
B. scyntygraf, gammakamerę, emisyjną tomografię i PET.
C. ultrasonograf, scyntygraf i EMG.
D. emisyjną tomografię, EEG, scyntygraf.
Prawidłowo wskazałeś zestaw aparatury typowej dla medycyny nuklearnej: scyntygraf, gammakamera, emisyjna tomografia i PET. Wszystkie te urządzenia mają jedną wspólną cechę – rejestrują promieniowanie emitowane z wnętrza ciała pacjenta po podaniu radiofarmaceutyku. To właśnie odróżnia medycynę nuklearną od klasycznej radiologii, gdzie źródło promieniowania jest na zewnątrz (np. lampa rentgenowska). Scyntygraf i gammakamera to w praktyce nazwy bliskoznaczne – gammakamera jest współczesnym urządzeniem rejestrującym promieniowanie gamma i tworzącym obrazy scyntygraficzne. Wykorzystuje się ją np. w scyntygrafii kości, tarczycy, perfuzji mięśnia sercowego. Emisyjna tomografia (SPECT – tomografia emisyjna pojedynczych fotonów) pozwala uzyskać obrazy przekrojowe, podobnie jak tomografia komputerowa, ale pokazuje głównie funkcję narządu, a nie tylko jego budowę. Dzięki temu można ocenić perfuzję mózgu, żywotność mięśnia sercowego czy czynność nerek. PET, czyli pozytonowa tomografia emisyjna, wykorzystuje radioizotopy emitujące pozytony i zjawisko anihilacji. Standardowo stosuje się np. 18F-FDG do oceny metabolizmu glukozy w onkologii, kardiologii czy neurologii. W nowoczesnych pracowniach łączy się PET z CT lub MR (PET/CT, PET/MR), co pozwala na bardzo dokładne połączenie informacji funkcjonalnej z anatomiczną. Z mojego doświadczenia to właśnie zrozumienie, że medycyna nuklearna bada przede wszystkim funkcję i metabolizm, a nie samą anatomię, bardzo pomaga w zapamiętaniu, jakie urządzenia do niej należą. W dobrych praktykach ważne jest też prawidłowe przygotowanie radiofarmaceutyku, kontrola jakości aparatury oraz ścisłe przestrzeganie zasad ochrony radiologicznej, bo pracujemy z promieniowaniem jonizującym podanym do organizmu pacjenta.

Pytanie 6

Rozpraszanie promieniowania X, w wyniku którego następuje zwiększenie długości fali promieniowania, to zjawisko

A. Maxwella.
B. Comptona.
C. Boltzmana.
D. Bragga.
Prawidłowo wskazane zjawisko to efekt Comptona. W fizyce promieniowania mówi się, że jest to sprężyste rozpraszanie fotonów promieniowania X (albo gamma) na praktycznie swobodnych elektronach, po którym foton ma mniejszą energię, a więc większą długość fali. Energia nie znika, tylko dzieli się: część przejmuje elektron (zostaje on wybity z powłoki i zyskuje energię kinetyczną), a część zachowuje foton, ale już o niższej energii i zmienionym kierunku. Właśnie ta utrata energii fotonu jest fizyczną przyczyną zwiększenia długości fali. W praktyce radiologicznej efekt Comptona dominuje w zakresie energii typowej dla diagnostycznych zdjęć RTG klatki piersiowej czy jamy brzusznej, szczególnie w tkankach o średniej gęstości. Z mojego doświadczenia to jedno z kluczowych zjawisk, które trzeba rozumieć, jeśli ktoś chce sensownie mówić o kontraście obrazu i dawce rozproszonej. Rozproszone promieniowanie Comptona odpowiada za tzw. mgłę na obrazie, pogarsza kontrast i zwiększa niepotrzebne narażenie personelu. Dlatego w dobrych praktykach pracowni RTG stosuje się kratki przeciwrozproszeniowe, odpowiednie kolimowanie wiązki, właściwe parametry kV i mAs – właśnie po to, żeby ograniczać wpływ rozpraszania Comptona. W planowaniu osłon stałych i organizacji pracowni fizyk medyczny też musi brać pod uwagę udział promieniowania rozproszonego na ściany, sufit i podłogę. Co ważne, efekt Comptona jest w dużej mierze niezależny od liczby atomowej materiału, więc występuje zarówno w tkankach miękkich, jak i w kości, a jego intensywność bardziej zależy od gęstości elektronowej i energii wiązki. W tomografii komputerowej, przy typowych energiach efektywnych wiązki, rozpraszanie Comptona również ma duży udział i wpływa na artefakty oraz konieczność stosowania filtrów i algorytmów rekonstrukcji uwzględniających rozproszenie. Dlatego kojarzenie „zwiększenia długości fali po rozproszeniu” z nazwiskiem Compton to w medycynie obrazowej absolutna podstawa fizyki promieniowania.

Pytanie 7

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. skrócenie fali i zwiększenie przenikliwości promieniowania X.
B. wydłużenie fali i zmniejszenie przenikliwości promieniowania X.
C. skrócenie fali i zmniejszenie przenikliwości promieniowania X.
D. wydłużenie fali i zwiększenie przenikliwości promieniowania X.
Prawidłowe rozumowanie opiera się na bardzo podstawowej zależności fizycznej: im wyższe napięcie na lampie rentgenowskiej (kV), tym elektrony są silniej przyspieszane, a więc zderzając się z anodą oddają więcej energii. Ta większa energia kinetyczna elektronów przekłada się na wyższą energię fotonów promieniowania X. A ponieważ długość fali jest odwrotnie proporcjonalna do energii (λ ~ 1/E), wyższa energia oznacza krótszą długość fali. Czyli: wyższe kV → krótsza fala. Krótsza fala i wyższa energia fotonów powodują większą przenikliwość promieniowania X. W praktyce oznacza to, że promieniowanie o wyższym kV łatwiej przechodzi przez grubsze lub gęstsze struktury, np. miednicę, kręgosłup lędźwiowy czy klatkę piersiową u pacjentów o większej masie ciała. W pracowni RTG dobór napięcia jest jednym z kluczowych parametrów ekspozycji. Standardy i dobre praktyki mówią jasno: dla struktur kostnych grubych i gęstych stosuje się wyższe kV, właśnie po to, żeby promieniowanie było bardziej przenikliwe i nie zatrzymywało się w tkankach powierzchownych. Z mojego doświadczenia, przy badaniu klatki piersiowej typowo używa się wysokich napięć (np. 110–125 kV), żeby wiązka przeszła przez cały przekrój klatki i dobrze uwidoczniła serce, płuca i kręgosłup, przy rozsądnej dawce. Przy niższym kV obraz byłby zbyt kontrastowy, mocno „twardy” dla kości, ale tkanki miękkie mogłyby być niedostatecznie uwidocznione. Warto też pamiętać, że zwiększenie kV zmienia charakter wiązki: rośnie udział efektu Comptona, co wpływa na kontrast obrazu (kontrast spada), ale poprawia się przenikliwość. Dlatego w praktyce technik zawsze musi balansować między kV a mAs, żeby uzyskać właściwą jakość obrazu przy jak najniższej dawce, zgodnie z zasadą ALARA. Zwiększenie napięcia to więc nie tylko „mocniejszy” promień, ale konkretnie: krótsza długość fali i większa przenikliwość promieniowania X, co jest dokładnie opisane w poprawnej odpowiedzi.

Pytanie 8

Jakie źródła promieniowania stosowane są w brachyterapii?

A. Otwarte emitujące tylko promieniowanie cząsteczkowe.
B. Zamknięte emitujące promieniowanie cząsteczkowe i fotonowe.
C. Zamknięte emitujące tylko promieniowanie cząsteczkowe.
D. Otwarte emitujące promieniowanie cząsteczkowe i fotonowe.
Wątpliwości wokół tego pytania zwykle wynikają z mieszania pojęć z medycyny nuklearnej i radioterapii. W brachyterapii kluczowe jest to, że stosuje się źródła promieniowania zamknięte, a nie otwarte. Źródło otwarte to takie, które może się przemieszczać, rozlać, być wchłonięte do organizmu – typowy przykład to radiofarmaceutyki podawane dożylnie czy doustnie w medycynie nuklearnej, np. jod-131 w leczeniu tarczycy. W brachyterapii byłoby to kompletnie niepraktyczne i niebezpieczne, bo celem jest bardzo precyzyjne, geometrycznie stabilne napromienianie guza, a nie ogólne rozprowadzenie izotopu po całym organizmie. Dlatego odpowiedzi sugerujące „źródła otwarte” wynikają raczej z automatycznego skojarzenia: promieniowanie jonizujące = radioizotopy podawane pacjentowi. Tutaj jest odwrotnie, izotop jest zamknięty w aplikatorze, igle czy kapsule. Druga pułapka dotyczy typu emitowanego promieniowania. Część osób sądzi, że w brachyterapii stosuje się tylko promieniowanie cząsteczkowe, bo kojarzą igły czy druty z jakąś formą „bombardowania” cząstkami. Tymczasem większość klasycznych źródeł brachyterapeutycznych emituje przede wszystkim promieniowanie fotonowe (gamma, czasem X), a promieniowanie cząsteczkowe, jeśli występuje, ma zwykle mniejszy zasięg i inne znaczenie kliniczne. Z punktu widzenia planowania dawki i algorytmów w systemach TPS istotne jest znane widmo fotonów oraz geometryczna konfiguracja zamkniętego źródła, a nie swobodne rozprzestrzenianie się radioizotopu. Mylenie tego z terapią izotopową w medycynie nuklearnej prowadzi do wniosku, że wystarczą „otwarte” źródła, co byłoby sprzeczne z zasadami ochrony radiologicznej, przepisami prawa i praktyką kliniczną. Standardy radioterapii (np. wytyczne ESTRO, IAEA) jasno podkreślają, że brachyterapia opiera się na szczelnych, kontrolowanych źródłach zamkniętych, które można bezpiecznie przechowywać w afterloaderze, precyzyjnie pozycjonować i okresowo testować pod kątem szczelności i aktywności. Dlatego odpowiedzi ograniczające się tylko do promieniowania cząsteczkowego lub mówiące o źródłach otwartych po prostu nie odzwierciedlają realnej technologii używanej w nowoczesnych pracowniach brachyterapii.

Pytanie 9

W badaniu PET CT wykorzystuje się radioizotopy emitujące promieniowanie

A. beta minus.
B. alfa.
C. gamma.
D. beta plus.
W PET/CT bardzo łatwo pomylić się, bo na pierwszy rzut oka wydaje się, że skoro urządzenie rejestruje promieniowanie gamma, to używa się izotopów gamma. I tu jest ten typowy błąd myślowy: mylimy to, co emituje radioizotop, z tym, co w końcu rejestruje detektor. W PET kluczowy jest emiter beta plus, czyli taki radionuklid, który w swoim rozpadzie wytwarza pozyton. Pozyton to antycząstka elektronu, naładowana dodatnio. Po krótkim torze w tkance pozyton zderza się z elektronem i dopiero wtedy dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV. Detektory PET nie rejestrują więc bezpośrednio rozpadu beta, tylko produkty anihilacji. Promieniowanie alfa nie ma tu w ogóle zastosowania – cząstki alfa mają bardzo mały zasięg w tkankach i są silnie jonizujące, przez co kompletnie nie nadają się do obrazowania tomograficznego całego ciała. Stosuje się je czasem w terapii izotopowej, ale nie w PET. Emiter beta minus też nie pasuje, bo w tym rozpadzie powstaje elektron, a nie pozyton. Elektron nie anihiluje z elektronem, tylko traci energię w ośrodku przez jonizację i hamowanie, więc nie generuje tych charakterystycznych dwóch fotonów 511 keV pod kątem 180°. Tego rodzaju izotopy wykorzystuje się głównie w terapii (np. 90Y, 131I), ewentualnie w innych typach badań, ale nie w klasycznym PET. Często zdarza się też, że ktoś odpowiada „gamma”, bo kojarzy, że w medycynie nuklearnej jest gammakamera i scyntygrafia. Tam faktycznie używa się emiterów gamma, ale to jest SPECT, a nie PET. PET opiera się właśnie na fizyce anihilacji pozyton–elektron. Moim zdaniem warto sobie to poukładać tak: do ciała zawsze podajemy emiter beta plus, a urządzenie rejestruje pary fotonów gamma po anihilacji. Jak zapamiętasz ten ciąg zdarzeń, to podobne pytania przestają być problemem.

Pytanie 10

Promieniowanie rentgenowskie jest

A. falą elektromagnetyczną.
B. strumieniem elektronów.
C. strumieniem protonów.
D. falą ultradźwiękową.
Poprawnie: promieniowanie rentgenowskie jest falą elektromagnetyczną o bardzo krótkiej długości fali i dużej energii fotonów. Należy do tego samego „rodzaju” promieniowania co światło widzialne, promieniowanie UV czy fale radiowe, tylko ma znacznie krótszą długość fali i dzięki temu jest jonizujące. To właśnie ta elektromagnetyczna natura powoduje, że promieniowanie X rozchodzi się z prędkością światła, można je skupiać, filtrować, kolimować i rejestrować na detektorach, które reagują na energię fotonów, a nie na cząstki materialne. W praktyce radiologicznej ma to ogromne znaczenie. W aparacie RTG elektrony są rozpędzane w lampie rentgenowskiej i hamowane na anodzie, ale samo promieniowanie, które powstaje, nie jest strumieniem elektronów, tylko właśnie wiązką fotonów – falą elektromagnetyczną. To dlatego dobieramy parametry ekspozycji takie jak kV i mAs, myślimy o „twardości” wiązki (czyli rozkład energii fotonów), stosujemy filtry aluminiowe, siatki przeciwrozproszeniowe oraz osłony ołowiane zgodnie z zasadami ochrony radiologicznej i standardami ALARA. Moim zdaniem warto to sobie porządnie poukładać: w diagnostyce obrazowej (RTG, TK) pracujemy zawsze z fotonami promieniowania X, które przechodzą przez ciało pacjenta, ulegają pochłanianiu i rozproszeniu zależnie od gęstości i liczby atomowej tkanek. To właśnie różnice w osłabieniu wiązki elektromagnetycznej tworzą kontrast na obrazie. Cała fizyka zjawiska fotoelektrycznego, efektu Comptona, warstwy półchłonnej, filtracji wiązki – to wszystko ma sens tylko wtedy, gdy pamiętamy, że promieniowanie rentgenowskie to fala elektromagnetyczna, a nie ultradźwięki czy strumień cząstek. W nowoczesnych wytycznych i podręcznikach z fizyki medycznej (np. standardy ICRP, IAEA) promieniowanie X jest zawsze klasyfikowane właśnie jako wysokoenergetyczne promieniowanie elektromagnetyczne z zakresu jonizującego, co przekłada się na konkretne procedury bezpieczeństwa, dobór parametrów i interpretację obrazów w radiologii.

Pytanie 11

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. wielkości ogniska optycznego.
B. ilości promieniowania rozproszonego.
C. wielkości ziarna luminoforu folii wzmacniającej.
D. grubości emulsji błony rentgenowskiej.
Problem nieostrości obrazu w radiografii często myli się z innymi zjawiskami, jak kontrast czy ziarnistość. W tym pytaniu chodzi konkretnie o nieostrość geometryczną, czyli o rozmycie krawędzi wynikające z geometrii układu: ognisko – obiekt – detektor. Podstawowa sprawa: im większe rzeczywiste ognisko anody, tym większy półcień i gorsza ostrość. To jest klasyczna definicja nieostrości geometrycznej, omawiana w fizyce medycznej i w standardach opisujących jakość obrazowania. Ilość promieniowania rozproszonego oczywiście pogarsza jakość obrazu, ale w inny sposób. Rozproszenie głównie obniża kontrast, powoduje „zamglenie” całego obrazu, ale nie jest źródłem typowej nieostrości geometrycznej. Z promieniowaniem rozproszonym walczy się kratką przeciwrozproszeniową, odpowiednim polem naświetlania, kolimacją wiązki oraz prawidłowym doborem kV, a nie przez zmianę ogniska. To jest inny aspekt jakości zdjęcia. Grubość emulsji błony rentgenowskiej ma znaczenie dla czułości, kontrastu i pewnej ziarnistości obrazu w klasycznych systemach analogowych, ale nie jest głównym czynnikiem definiującym nieostrość geometryczną. Można powiedzieć, że dotyczy raczej właściwości materiału rejestrującego niż geometrii wiązki. Podobnie wielkość ziarna luminoforu w folii wzmacniającej wpływa na tzw. nieostrość strukturalną: im większe ziarno, tym większe rozmycie i mniejsza rozdzielczość przestrzenna, ale to nie jest to samo, co nieostrość geometryczna wynikająca z wielkości ogniska i odległości w układzie. Typowy błąd myślowy polega na wrzucaniu wszystkich efektów pogorszenia jakości obrazu do jednego worka pod hasłem „nieostrość”. W praktyce trzeba rozróżniać: nieostrość geometryczną (ognisko, odległości), nieostrość ruchową (ruch pacjenta, zbyt długi czas ekspozycji) oraz nieostrość wynikającą z systemu rejestracji (błona, folia, piksel w detektorze cyfrowym). Dopiero takie rozróżnienie pozwala świadomie dobrać parametry ekspozycji i osprzęt, zgodnie z zasadami dobrej praktyki radiologicznej.

Pytanie 12

Jaki jest cel stosowania bolusa w radioterapii?

A. "Wyciągnąć" dawkę bliżej skóry.
B. Ochronić narządy krytyczne.
C. "Wyciągnąć" dawkę dalej od skóry.
D. Ochronić skórę przed poparzeniem.
W radioterapii łatwo pomylić rolę bolusa z ogólną ochroną skóry czy narządów krytycznych, bo na pierwszy rzut oka wygląda jak jakiś „opatrunek” nałożony na ciało. W rzeczywistości jest dokładnie odwrotnie: bolus nie służy do osłaniania skóry przed poparzeniem, tylko do zwiększania dawki w warstwach powierzchownych. Dla wiązek fotonowych typowych dla teleradioterapii charakterystyczne jest zjawisko build‑up – dawka rośnie od powierzchni i osiąga maksimum dopiero na pewnej głębokości. Skóra naturalnie otrzymuje trochę mniejszą dawkę niż tkanki leżące głębiej. Kiedy dołożymy bolus, przesuwamy tę strefę maksymalnej dawki w kierunku powierzchni pacjenta, a nie od niej. Stąd przekonanie, że bolus „chroni” skórę, wynika zwykle z intuicyjnego myślenia: coś kładziemy na skórę, więc ma ją zabezpieczać. W fizyce medycznej jest jednak odwrotnie – materiał bolusowy jest traktowany jak dodatkowa warstwa tkanek i właśnie po to się go używa w leczeniu zmian powierzchownych, np. w raku skóry, naciekach nowotworowych na klatce piersiowej czy przy napromienianiu blizny po mastektomii. Podobny błąd pojawia się przy skojarzeniu bolusa z ochroną narządów krytycznych. Ograniczanie dawki w narządach krytycznych uzyskuje się głównie przez odpowiednie planowanie geometrii wiązek, modulację intensywności (IMRT/VMAT), kolimację, kształtowanie pól, czasem zmiany energii wiązki czy zastosowanie klinów, a nie przez doczepienie bolusa na skórze. Bolus w klasycznej teleterapii nie przesunie istotnie dawki w głąb, żeby „oszczędzić” narząd leżący głęboko, on działa w zakresie centymetrów od powierzchni. Częstym uproszczeniem jest też myśl, że bolus „wyciąga” dawkę dalej od skóry, jakby przesuwał maksimum głębiej do środka ciała. To byłoby sprzeczne z jego definicją: dokładamy warstwę materiału równoznaczną z dodatkową tkanką, więc maksimum przesuwa się do tego materiału, a dla właściwej skóry realnie zbliża się do powierzchni. W nowoczesnych standardach radioterapii bolus jest po prostu narzędziem do modyfikacji rozkładu dawki w obszarze powierzchownym, a nie środkiem ochrony. Dobrze jest zawsze zadać sobie pytanie: czy chcę zwiększyć dawkę przy powierzchni, czy ją zmniejszyć? Jeśli zwiększyć – wtedy myślę o bolusie; jeśli zmniejszyć – szukam innych rozwiązań planistycznych.

Pytanie 13

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
B. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
C. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
D. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
Prawidłowo – czas repetycji TR w badaniu rezonansu magnetycznego to odstęp czasu między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°. To jest taki podstawowy „rytmem serca” sekwencji spin-echo i większości klasycznych sekwencji. Po pierwszym impulsie 90° następuje wzbudzenie magnetyzacji poprzecznej, potem relaksacja T1 i T2, pojawia się echo, a dopiero po zadanym czasie TR podajemy kolejny impuls 90° i zaczyna się następny cykl pomiaru dla tej samej warstwy. W praktyce dobór TR decyduje o tym, jak bardzo obraz będzie zależny od relaksacji T1. Krótkie TR (np. 300–700 ms) silnie eksponuje różnice T1, czyli daje typowe obrazy T1-zależne. Długie TR (np. 2000 ms i więcej) zmniejsza wpływ T1 i pozwala bardziej „wybrzmieć” kontrastowi T2 lub gęstości protonowej. Moim zdaniem warto to sobie kojarzyć tak: technik ustawiając TR de facto ustawia, ile czasu da tkankom na odtworzenie magnetyzacji podłużnej po impulsie 90°. Jeśli czasu jest mało, tkanki o krótkim T1 będą jaśniejsze, bo szybciej się regenerują; jeśli dużo, różnice T1 się spłaszczają. W codziennej pracy przy planowaniu protokołów MR TR jest jednym z kluczowych parametrów razem z TE i ewentualnie TI. W standardowych sekwencjach spin-echo zawsze myślimy o TR jako o czasie pomiędzy kolejnymi impulsami 90°, a nie 180° czy impulsami inwersyjnymi. To pomaga też szybko odróżnić, czym jest TR, a czym TI, które definiuje się zupełnie inaczej. Dobrą praktyką jest zawsze patrzeć na TR i od razu kojarzyć, jaki rodzaj kontrastu uzyskamy oraz jak wpłynie to na czas trwania całej sekwencji i komfort pacjenta.

Pytanie 14

Planowany obszar napromieniania PTV obejmuje

A. guz w płucach bez marginesów.
B. guz w mózgu bez marginesów.
C. obszar napromieniania guza wraz z marginesami.
D. wyłącznie obszar napromieniania guza.
W radioterapii bardzo łatwo pomylić się, jeśli myśli się o guzie tylko jako o „plamie” widocznej na obrazie TK czy MR. Intuicyjnie kusi, żeby planowany obszar napromieniania PTV utożsamić po prostu z guzem, na przykład guzem w mózgu albo w płucu, bez żadnych marginesów. To jednak podejście zbyt uproszczone i w praktyce klinicznej po prostu niebezpieczne. Sam guz, czyli tzw. GTV, to tylko część całej historii. Guz nigdy nie jest strukturą „zamrożoną w przestrzeni”. Pacjent oddycha, połyka, napina mięśnie, różni się jego ułożenie między frakcjami. Szczególnie w płucach czy jamie brzusznej położenie tkanek zmienia się nawet w ciągu kilku sekund. Jeśli więc PTV ograniczyć do guza bez marginesów, łatwo doprowadzić do sytuacji, że fragment guza lub strefa mikroskopowego naciekania wypadnie poza obszar wysokiej dawki. To typowy błąd myślowy: „skoro na obrazie widzę guz, to wystarczy naświetlić dokładnie ten kształt”. Standardy ICRU jasno mówią, że z GTV wyprowadza się CTV, które obejmuje również potencjalne mikroskopowe szerzenie nowotworu, a dopiero na CTV nakłada się marginesy geometryczne, tworząc PTV. Dlatego odpowiedzi mówiące o „guzie w mózgu bez marginesów” czy „guzie w płucach bez marginesów” pomijają całkowicie koncepcję niepewności pozycjonowania i ruchu narządów. Równie błędne jest myślenie, że PTV to „wyłącznie obszar napromieniania guza”, bo to ignoruje fakt, że planujemy nie tylko to, co widać, ale też to, czego nie widać idealnie oraz błąd ustawienia pacjenta. W dobrych praktykach radioterapii PTV zawsze musi zawierać margines bezpieczeństwa, którego wielkość dobiera się indywidualnie, zależnie od lokalizacji, techniki (np. IMRT, VMAT, stereotaksja) i jakości kontroli obrazowej IGRT. Z mojego doświadczenia, kluczowe jest przestawienie się z myślenia „rysuję guz” na myślenie „rysuję objętość, która ma być na pewno w pełni pokryta dawką mimo wszystkich niepewności”. Bez marginesów koncepcja PTV po prostu traci sens.

Pytanie 15

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w miesiącu.
B. w tygodniu.
C. w kwartale.
D. w roku.
Prawidłowa odpowiedź „w miesiącu” wynika z zasad rutynowej kontroli jakości w diagnostyce rentgenowskiej. Testy podstawowe geometrii pola rentgenowskiego, czyli sprawdzenie zgodności pola wiązki promieniowania z polem świetlnym lampy, zalicza się do badań wykonywanych regularnie, ale nie aż tak rzadko jak roczne przeglądy ani tak często jak testy dzienne. Chodzi o to, żeby na bieżąco wychwycić wszelkie rozjazdy między polem świetlnym a rzeczywistym polem napromieniania, zanim zaczną one wpływać na jakość badań i narażenie pacjenta. W dobrych praktykach pracowni RTG przyjmuje się, że testy geometryczne wykonuje się co miesiąc, razem z innymi testami okresowymi, np. kontrolą wskaźnika ogniskowo–skórnego, centrowania wiązki czy dokładności wskaźników odległości. W praktyce wygląda to tak, że na detektorze lub kasecie układa się specjalny przyrząd testowy (np. test do oceny zgodności pola świetlnego i promieniowania), ustawia się typową odległość ognisko–detektor, włącza się lampę, zaznacza się granice pola świetlnego, a następnie wykonuje się ekspozycję. Po wywołaniu obrazu sprawdza się, czy granice pola promieniowania mieszczą się w dopuszczalnych tolerancjach, zwykle rzędu kilku milimetrów lub określonego procentu wymiaru pola. Moim zdaniem to jest jeden z bardziej „przyziemnych”, ale kluczowych testów – jeśli pole wiązki jest przesunięte, można niechcący napromieniać tkanki, które w ogóle nie miały być badane, albo odwrotnie, „uciąć” istotny fragment obrazu, co potem rozwala całą diagnostykę. Normy krajowe i wytyczne z kontroli jakości (np. oparte na zaleceniach europejskich) właśnie dlatego zaliczają ten test do comiesięcznych, żeby utrzymać stabilną, powtarzalną geometrię układu lampy RTG i pola ekspozycji.

Pytanie 16

W radiologii analogowej lampy rentgenowskiej z tubusem używa się do wykonania zdjęcia

A. osiowego czaszki.
B. PA zatok.
C. wewnątrzustnego zębów.
D. bocznego czaszki.
Prawidłowo – w radiologii analogowej lampa rentgenowska z tubusem jest typowo wykorzystywana właśnie do wykonywania zdjęć wewnątrzustnych zębów. Tubus to nic innego jak specjalna nasadka/kanał ograniczający wiązkę promieniowania X do stosunkowo małego pola. Dzięki temu można precyzyjnie naświetlić obszar zębowy, minimalizując dawkę dla pozostałych tkanek i poprawiając jakość obrazu poprzez redukcję rozproszenia. W stomatologii klasycznym przykładem są zdjęcia zębowe okołowierzchołkowe, zgryzowe czy skrzydłowo-zgryzowe, gdzie aparat stomatologiczny (często ścienny lub mobilny) ma właśnie wąski, długi tubus. W dobrych praktykach przyjmuje się używanie tubusów prostokątnych lub kolimowanych, co dodatkowo ogranicza niepotrzebne napromienianie. Moim zdaniem to jedno z lepszych zastosowań promieniowania – małe pole, konkretna informacja diagnostyczna. W przeciwieństwie do projekcji czaszki czy zatok, gdzie stosuje się raczej klasyczne aparaty ogólnodiagnostyczne z ruchomą lampą i stołem, zdjęcia wewnątrzustne wymagają bardzo precyzyjnego ustawienia wiązki względem zęba i błony obrazowej/filmu umieszczonej w jamie ustnej pacjenta. Stąd tubus: ustala odległość ognisko–film, kierunek wiązki i ogranicza pole ekspozycji. Standardy stomatologiczne i wytyczne ochrony radiologicznej mocno podkreślają znaczenie właściwej kolimacji i stosowania osłon (fartuch ołowiany, osłona na tarczycę), a przy tubusie jest to łatwiejsze do zrealizowania. W praktyce technik powinien kojarzyć: mały aparat z tubusem = zdjęcia wewnątrzustne, duży aparat z bucky/stojakiem = klasyczne projekcje czaszki, zatok itp.

Pytanie 17

Standardowo do wykonania których zdjęć należy zastosować kratkę przeciwrozproszeniową?

A. Jamy brzusznej i stawu łokciowego.
B. Czaszki i stawu skokowego.
C. Klatki piersiowej i nadgarstka.
D. Czaszki i jamy brzusznej.
Prawidłowa odpowiedź wskazuje na czaszkę i jamę brzuszną, co bardzo dobrze oddaje standardowe zasady stosowania kratki przeciwrozproszeniowej w klasycznej radiografii. Kratka (grid) jest potrzebna tam, gdzie mamy stosunkowo grubą część ciała i dużo tkanek miękkich, które generują silne promieniowanie rozproszone na skutek zjawiska Comptona. To rozproszenie psuje kontrast obrazu, powoduje „zamglenie” i utratę szczegółów. Moim zdaniem najłatwiej to zapamiętać tak: im grubsza i bardziej „miękka” anatomicznie okolica, tym większa szansa, że trzeba użyć kratki. W badaniach czaszki najczęściej używa się napięć rzędu 70–80 kV, a grubość struktur kostnych i części miękkich głowy jest na tyle duża, że ilość promieniowania rozproszonego jest istotna. Z mojego doświadczenia, bez kratki obraz byłby wyraźnie bardziej „płaski”, szczególnie przy ocenie struktur podstawy czaszki czy zatok. Podobnie w jamie brzusznej: mamy tam głównie tkanki miękkie, narządy miąższowe, gaz w jelitach, a ekspozycje są wykonywane na dość wysokich wartościach kV. To wszystko sprzyja powstawaniu rozproszenia, więc kratka przeciwrozproszeniowa jest tu praktycznie standardem w prawidłowo prowadzonej pracowni RTG. W dobrych praktykach zaleca się stosowanie kratki dla obszarów o grubości powyżej ok. 10–12 cm, co klasycznie dotyczy właśnie czaszki (w wielu projekcjach) i jamy brzusznej. Warto też pamiętać, że użycie kratki wymaga odpowiedniej centracji wiązki, właściwej odległości ognisko–kratka i dostosowania parametrów ekspozycji (zwykle trzeba podnieść mAs), żeby skompensować pochłanianie promieniowania przez kratkę. W nowoczesnych systemach cyfrowych część ośrodków próbuje ograniczać stosowanie kratki przy mniejszych pacjentach, ale w typowych, dorosłych badaniach czaszki i brzucha kratka nadal pozostaje złotym standardem poprawy jakości obrazu.

Pytanie 18

Podczas badania gammakamerą źródłem promieniowania jest

A. pacjent.
B. kolimator.
C. fotopowielacz.
D. detektor.
W gammakamerze łatwo pomylić elementy układu i uznać, że to urządzenie samo jest źródłem promieniowania, trochę na zasadzie skojarzenia z aparatem RTG. Tymczasem w medycynie nuklearnej logika jest odwrócona: promieniowanie pochodzi z radioizotopu podanego pacjentowi, a cała reszta aparatury służy wyłącznie do jego selektywnego wychwytywania, przetwarzania i zapisu. Detektor w gammakamerze, zwykle kryształ scyntylacyjny (np. NaI(Tl)), jest tylko przetwornikiem energii – zamienia fotony promieniowania gamma docierające z pacjenta na błyski światła. Sam z siebie nie generuje promieniowania jonizującego, on je jedynie rejestruje. Podobnie kolimator, ta masywna ołowiana „plaster miodu” przytwierdzona do głowicy, pełni funkcję filtra geometrycznego. Ogranicza kierunki, z których fotony mogą dotrzeć do kryształu. Nie jest to źródło, tylko bierny element ochronno-selekcyjny, który wręcz dużą część promieniowania pochłania. Mylenie kolimatora ze źródłem wynika często z tego, że jest ciężki, ołowiany i kojarzy się z „promieniowaniem”. Fotopowielacz z kolei to element elektroniki detekcyjnej. Jego zadaniem jest wzmocnienie bardzo słabego sygnału świetlnego ze scyntylatora do poziomu impulsu elektrycznego możliwego do zliczenia i analizy. W środku zachodzą procesy emisji fotoelektronów i ich multiplikacji, ale to nie jest promieniowanie jonizujące używane do obrazowania pacjenta, tylko zjawiska wewnątrz układu elektronicznego. Typowy błąd myślowy polega na przenoszeniu schematu z klasycznej radiologii: tam lampa jest źródłem i znajduje się po stronie aparatu, więc odruchowo szukamy „źródła” w gammakamerze. W rzeczywistości w scyntygrafii źródło jest ruchome, biologiczne i znajduje się w ciele pacjenta, a cały system detekcyjny jest bierny. Zrozumienie tej różnicy jest kluczowe nie tylko dla teorii, ale też dla ochrony radiologicznej – to pacjent po podaniu radiofarmaceutyku staje się obiektem, od którego trzeba się czasem osłaniać, a nie głowica gammakamery.

Pytanie 19

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. MDR
B. HDR
C. LDR
D. PDR
W tym pytaniu haczyk polega na tym, żeby nie pomylić rodzaju brachyterapii z samą szybkością dawki. MDR, HDR i LDR opisują głównie tempo podawania dawki (moc dawki), natomiast PDR odnosi się do konkretnego sposobu pracy systemu afterloadingowego: wielokrotne, pulsacyjne wsuwanie i wysuwanie źródła do tego samego aplikatora. To właśnie ten cykliczny charakter ekspozycji definiuje poprawną odpowiedź. Wysokodawkowa brachyterapia HDR kojarzy się wielu osobom z tym, że źródło jest dynamicznie przesuwane między pozycjami, ale zazwyczaj odbywa się to w ramach jednej krótkiej frakcji, a nie w postaci serii powtarzających się impulsów rozłożonych w czasie tak, by imitować LDR. HDR to przede wszystkim bardzo duża moc dawki dostarczona w kilku lub kilkunastu krótkich sesjach, a nie koniecznie „pulsowanie” w sensie radiobiologicznym. Z kolei LDR, czyli Low Dose Rate, to technika, w której źródło ma niską aktywność i pozostaje w tkankach przez dłuższy, praktycznie ciągły czas, bez wielokrotnego wsuwania i wysuwania. W klasycznej LDR źródła są albo tymczasowe, albo stałe (np. implanty nasionkowe), ale nie pracują w trybie pulsacyjnym sterowanym afterloaderem. MDR jest pojęciem używanym rzadziej, historycznie dotyczyło tempa dawki pośredniego między LDR a HDR, jednak samo w sobie nie opisuje mechanizmu wielokrotnego, automatycznego wprowadzania źródła. Typowy błąd myślowy przy tym pytaniu to skupienie się tylko na skrótach i skojarzeniu „wysuwanie/wsuwanie = HDR, bo tam źródło się rusza”. Tymczasem w definicjach klinicznych i w dokumentach zaleceń (np. ICRU, ESTRO) PDR jest jasno określone jako pulsacyjne podawanie dawki z użyciem źródła o aktywności zbliżonej do HDR, ale z powtarzanymi impulsami co określony interwał. W praktyce planistycznej i przy obsłudze afterloadera warto zawsze pamiętać, że nazwa techniki mówi nie tylko o mocy dawki, ale też o sposobie jej dystrybucji w czasie, i właśnie ten aspekt odróżnia PDR od pozostałych skrótów.

Pytanie 20

Do czego służy do symulator rentgenowski wykorzystywany w procesie radioterapii?

A. Do weryfikacji dawki podanej pacjentowi w obszarze PTV.
B. Do określania odległości od wirtualnego źródła promieniowania do skóry pacjenta.
C. Do generowania trójwymiarowych informacji o lokalizacji obszaru guza.
D. Do weryfikacji i odwzorowania geometrii pól poszczególnych wiązek terapeutycznych.
Symulator rentgenowski w radioterapii bywa czasem mylony z innymi urządzeniami używanymi w planowaniu leczenia, co prowadzi do różnych nieporozumień. Jego główna rola nie polega na pomiarze ani weryfikacji dawki w obszarze PTV. Kontrola dawki odbywa się poprzez obliczenia w systemie planowania leczenia (TPS), pomiary fantomowe, testy QA akceleratora oraz za pomocą dozymetrii in vivo, a nie na klasycznym symulatorze RTG. Symulator daje obraz geometryczny pól, ale nie jest narzędziem do precyzyjnego sprawdzania rozkładu dawki terapeutycznej, bo używa innej energii promieniowania i innych warunków niż właściwa wiązka megawoltowa. Często też przypisuje się symulatorowi funkcję generowania trójwymiarowych informacji o lokalizacji guza. W nowoczesnej radioterapii do tego służy przede wszystkim tomograf komputerowy do planowania (CT-sim) oraz oprogramowanie TPS, które pozwala na rekonstrukcję 3D, segmentację PTV i OAR, fuzję obrazów z MR czy PET. Klasyczny symulator rentgenowski wykonuje głównie projekcje 2D (AP, PA, boczne, skośne) i umożliwia ustawienie pól, a nie pełne modelowanie objętości guza w trzech wymiarach. Kolejne nieporozumienie dotyczy odległości od wirtualnego źródła promieniowania do skóry pacjenta. Owszem, na symulatorze można sprawdzić i ustawić SSD lub SAD, ale nie jest to jego unikalne zadanie – te odległości są standardowo kontrolowane na samym akceleratorze przy każdym zabiegu, z użyciem wskaźników odległości, laserów i systemów pozycjonowania. Redukowanie roli symulatora tylko do mierzenia odległości trochę mija się z celem, bo sednem jego użycia jest właśnie odtworzenie geometrii pól terapeutycznych, sprawdzenie projekcji osłon, listków MLC (w miarę możliwości), bloków, klinów oraz porównanie ich z anatomią pacjenta na obrazie RTG. Typowy błąd myślowy polega na mieszaniu funkcji: CT-symulatora, systemu planowania, akceleratora i symulatora RTG. Ten ostatni służy głównie do geometrycznej weryfikacji ustawień – czy pola są tam, gdzie trzeba, czy marginesy są prawidłowe, czy znaczniki na skórze i lasery zgadzają się z planem. Dlatego poprawne rozumienie jego roli jest ważne, bo wpływa bezpośrednio na bezpieczeństwo i dokładność całego procesu napromieniania.

Pytanie 21

W lampie rentgenowskiej promieniowanie X powstaje w wyniku hamowania

A. elektronów na katodzie.
B. protonów na katodzie.
C. elektronów na anodzie.
D. protonów na anodzie.
Poprawnie – w lampie rentgenowskiej promieniowanie X powstaje głównie w wyniku gwałtownego hamowania szybkich elektronów na anodzie. W typowej lampie mamy katodę (żarnik), która emituje elektrony przez emisję termojonową. Następnie między katodą a anodą przykładane jest wysokie napięcie, zwykle kilkadziesiąt do nawet ponad 100 kV. To napięcie bardzo mocno przyspiesza elektrony w próżni w kierunku anody. Kiedy te rozpędzone elektrony uderzają w materiał anody (najczęściej wolfram, rzadziej molibden lub inne stopy), są gwałtownie hamowane w polu elektrycznym jąder atomowych anody. I właśnie to hamowanie powoduje emisję promieniowania hamowania, tzw. bremsstrahlung, które stanowi podstawową część widma promieniowania rentgenowskiego. Dodatkowo dochodzi jeszcze promieniowanie charakterystyczne, gdy elektron wybija elektron z wewnętrznej powłoki atomu wolframu, ale ono też powstaje w materiale anody, a nie na katodzie. W praktyce technik obrazowania musi rozumieć, że zmiana napięcia na lampie (kV) wpływa na energię elektronów i tym samym na energię i przenikliwość promieniowania X, a zmiana natężenia prądu (mA) wpływa głównie na ilość elektronów, czyli na ilość promieniowania. Z mojego doświadczenia opłaca się to dobrze ogarnąć, bo potem łatwiej rozumie się zależności między ustawieniami aparatu a jakością obrazu i dawką dla pacjenta. W nowoczesnych aparatach RTG cała konstrukcja lampy, chłodzenie anody (np. anoda obrotowa) i dobór materiałów są oparte właśnie na tym zjawisku hamowania elektronów w anodzie, żeby uzyskać dużo stabilnego promieniowania przy jednoczesnym bezpiecznym odprowadzeniu ciepła.

Pytanie 22

Elementem systemu rejestracji obrazu, w którym fotony promieniowania X są bezpośrednio konwertowane na sygnał elektryczny, jest

A. detektor z jodkiem cezu.
B. detektor z amorficznym selenem.
C. płyta luminoforowa.
D. błona halogenosrebrowa.
Prawidłowo wybrany detektor z amorficznym selenem to klasyczny przykład tzw. bezpośredniej detekcji promieniowania X. W takim układzie fotony promieniowania rentgenowskiego są pochłaniane bez udziału pośredniego świecenia (bez etapu emisji światła widzialnego), a ich energia jest od razu zamieniana na ładunek elektryczny w warstwie półprzewodnika, właśnie amorficznego selenu (a-Se). Pod wpływem promieniowania w a-Se powstają pary elektron–dziura, które następnie są zbierane dzięki przyłożonemu polu elektrycznemu i rejestrowane przez matrycę cienkowarstwowych tranzystorów (TFT). Daje to bardzo dobrą rozdzielczość przestrzenną, co w praktyce świetnie sprawdza się np. w mammografii cyfrowej, gdzie liczy się widoczność drobnych mikrozwapnień i bardzo delikatnych struktur. W systemach bezpośrednich unika się rozmycia związanego z rozpraszaniem światła w luminoforze, dlatego krawędzie struktur są ostrzejsze, a obraz bardziej „czysty”. Z mojego doświadczenia to właśnie na detektorach z a-Se najłatwiej dostrzec subtelne różnice gęstości tkanek. W wielu zaleceniach producentów i wytycznych dotyczących jakości obrazów (np. w mammografii) podkreśla się znaczenie wysokiej rozdzielczości i niskiego szumu, co systemy z bezpośrednią konwersją bardzo dobrze zapewniają. W praktyce klinicznej technik zwykle nie widzi „gołego” selenu, tylko cały panel detektora, ale warto kojarzyć, że jeśli w opisie sprzętu jest mowa o direct conversion, direct digital radiography z a-Se, to właśnie chodzi o taki mechanizm: promieniowanie X → ładunek elektryczny, bez etapu świecenia. To jest podstawowa różnica wobec detektorów scyntylacyjnych z jodkiem cezu, które pracują w trybie pośrednim.

Pytanie 23

Zastosowana w badaniu radiologicznym kratka przeciwrozproszeniowa powoduje

A. zmniejszenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
B. zwiększenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
C. zwiększenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
D. zmniejszenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
Właściwie wychwyciłeś sedno działania kratki przeciwrozproszeniowej. Jej głównym zadaniem jest właśnie zmniejszenie ilości promieniowania rozproszonego docierającego do detektora lub kliszy, dzięki czemu poprawia się kontrast obrazu. Fizycznie wygląda to tak, że kratka składa się z równoległych lub zbieżnych listew ołowianych przedzielonych materiałem przepuszczającym promieniowanie. Promieniowanie pierwotne, biegnące mniej więcej prostopadle do detektora, przechodzi przez szczeliny, a promieniowanie rozproszone, które ma kierunek skośny (po zjawisku Comptona w pacjencie), jest w dużej części pochłaniane przez listwy ołowiane. W efekcie na obrazie jest mniej „mgły” promiennej, a różnice gęstości tkanek są wyraźniejsze. To właśnie nazywamy wzrostem kontrastu. W praktyce klinicznej kratkę stosuje się szczególnie przy badaniach struktur grubych lub gęstych: klatka piersiowa u dorosłych, zdjęcia kręgosłupa, miednicy, czaszki. Tam rozproszenia jest dużo i bez kratki obraz byłby mocno spłaszczony tonalnie. Trzeba jednak pamiętać o jednym ważnym aspekcie – kratka usuwa nie tylko promieniowanie rozproszone, ale też część promieniowania pierwotnego. To oznacza, że aby uzyskać odpowiednią ekspozycję, trzeba zwiększyć dawkę (mAs), co z kolei podnosi narażenie pacjenta. Z mojego doświadczenia to jest klasyczny kompromis w radiologii: lepsza jakość obrazu kontra dawka. Standardy dobrej praktyki (np. wytyczne ICRP, europejskie zalecenia dla radiografii) mówią jasno: kratkę stosować wtedy, gdy rzeczywiście jest potrzebna, a u dzieci i w badaniach cienkich części ciała raczej z niej rezygnować. Warto też dobrać odpowiedni współczynnik kratki (np. 8:1, 10:1) do typu badania i odległości ognisko–detektor, bo to ma wpływ zarówno na kontrast, jak i na konieczną ekspozycję.

Pytanie 24

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. grubości emulsji błony rentgenowskiej.
B. ilości promieniowania rozproszonego.
C. wielkości ogniska optycznego.
D. wielkości ziarna luminoforu folii wzmacniającej.
W tym pytaniu łatwo się złapać na skojarzeniach z ogólną jakością obrazu, a nie z samą nieostrością geometryczną. Wiele osób myśli, że skoro coś pogarsza obraz, to na pewno odpowiada też za nieostrość. To nie do końca tak działa. Nieostrość geometryczna jest ściśle związana z geometrią układu: wielkością ogniska lampy, odległością ognisko–detektor oraz odległością obiekt–detektor. Dlatego kluczowe jest właśnie fizyczne rozmiar ogniska, a nie parametry emulsji czy luminoforu. Ilość promieniowania rozproszonego rzeczywiście psuje obraz, ale głównie przez obniżenie kontrastu. Rozproszenie dodaje do obrazu „mgłę”, przez co zanika różnica gęstości optycznych między strukturami. To wygląda jak brzydki, zamglony obraz, więc intuicyjnie kojarzy się z nieostrością, ale z punktu widzenia fizyki jest to degradacja kontrastu, a nie typowa nieostrość geometryczna. Dlatego w praktyce stosuje się kratki przeciwrozproszeniowe, kolimację wiązki, odpowiednie napięcia kV – wszystko po to, aby poprawić kontrast, a nie ostrość krawędzi wynikającą z wielkości ogniska. Grubość emulsji błony rentgenowskiej też ma znaczenie, ale dla tak zwanej nieostrości ziarnowej i czułości błony. Grubsza emulsja, większe ziarna srebra – rośnie czułość, skraca się czas ekspozycji, ale rośnie też ziarnistość i spada rozdzielczość. To nadal nie jest nieostrość geometryczna, tylko właściwości detektora. Podobnie z wielkością ziarna luminoforu w folii wzmacniającej: duże ziarna dają więcej światła (czyli większą czułość układu), ale pogarszają rozdzielczość przestrzenną folii. To jest nieostrość związana z systemem obrazowania, a nie z geometrią wiązki i ogniska. Typowy błąd myślowy polega na wrzuceniu wszystkich rodzajów pogorszenia obrazu do jednego worka pod hasłem „nieostrość”. W radiologii technicznej rozróżnia się jednak precyzyjnie: nieostrość geometryczną (ognisko, odległości), nieostrość detektora (błona, folia, piksel), nieostrość ruchową (ruch pacjenta, oddech, drżenie). W tym pytaniu chodziło dokładnie o tę pierwszą, stąd poprawna jest tylko odpowiedź dotycząca wielkości ogniska lampy rentgenowskiej.

Pytanie 25

Na którym obrazie MR jest widoczne pasmo saturacji?

A. Obraz 3
Ilustracja do odpowiedzi A
B. Obraz 1
Ilustracja do odpowiedzi B
C. Obraz 4
Ilustracja do odpowiedzi C
D. Obraz 2
Ilustracja do odpowiedzi D
W tym pytaniu łatwo dać się zmylić, bo wszystkie cztery obrazy pochodzą z planowania lub prezentacji badań MR, ale tylko jeden z nich pokazuje typowe pasmo saturacji. Na pierwszym obrazie widoczne są liczne ukośne linie przecinające obraz oczodołów – to linie planowania przyszłych przekrojów, tzw. lokalizatory lub warstwy planowane w różnych płaszczyznach. Mają one tylko funkcję pomocniczą dla technika, nie są związane z nasycaniem sygnału. Typowym błędem jest utożsamianie każdej ukośnej strefy czy linii z pasmem saturacji, podczas gdy są to po prostu graficzne znaczniki na ekranie konsoli. Na drugim obrazie, w projekcji strzałkowej kręgosłupa szyjnego, widać równoległe prostokątne ramki – to również planowane warstwy poprzeczne (axialne). Każdy taki prostokąt odpowiada jednej warstwie, w której będzie zbierany sygnał. Nie obserwujemy tu jednolitego wygaszenia sygnału w jakimś obszarze, tylko czyste, geometryczne kontury. Warstwy pomiarowe nie są tym samym co pasmo saturacji: warstwa jest miejscem, gdzie rejestrujemy obraz, a pasmo saturacji to strefa, w której sygnał jest celowo tłumiony przed pomiarem. Trzeci obraz przedstawia przekrój poprzeczny z naniesionym okręgiem i podziałem na sektory oznaczone numerami. To schemat podziału pola obrazowania, używany np. do opisu położenia zmian, planowania cewki czy orientacji. Nie ma tam żadnego rzeczywistego paska wygaszonego sygnału, tylko konstrukcja graficzna. Częsty błąd polega na szukaniu „pasma” w samym rysunku, zamiast patrzeć na to, co dzieje się z sygnałem tkanek. Prawdziwe pasmo saturacji, jak na obrazie 4, to jednorodny, prostokątny pas sygnału o obniżonej intensywności, ustawiony zwykle skośnie do głównego przekroju, który w praktyce używa się do tłumienia przepływu krwi lub ruchu struktur spoza obszaru zainteresowania. Warto zapamiętać: linie i ramki cienkie, ostre – to planowanie warstw; szerokie, półprzezroczyste, „wypełnione” pole – to pasmo saturacji. Skupienie się na wyglądzie sygnału, a nie tylko na geometrii linii, pozwala uniknąć takich pomyłek przy analizie obrazów MR.

Pytanie 26

Wskaż przyczynę powstania artefaktu widocznego na obrazie MR.

Ilustracja do pytania
A. Nieprawidłowa kalibracja aparatu.
B. Błędny dobór cewki gradientowej.
C. Wymiary obiektu przekroczyły pole widzenia.
D. Niejednorodność pola magnetycznego.
Prawidłowo powiązałeś artefakt z przekroczeniem pola widzenia (FOV) przez obrazowany obiekt. Na pokazanym obrazie MR mózgowia widać typowy przykład tzw. wrap-around albo aliasingu: struktury anatomiczne, które „nie mieszczą się” w zadanym polu widzenia, są składane z powrotem na przeciwległą krawędź obrazu. Dzieje się tak, bo system MR próbuje przypisać sygnał z obszaru poza FOV do najbliższej pozycji wynikającej z zakresu próbkowania w przestrzeni k‑przestrzeni. W praktyce wygląda to tak, że np. część tkanek z przodu lub z tyłu głowy pojawia się jakby „nad” mózgiem albo w innym nielogicznym miejscu przekroju. Z mojego doświadczenia, przy głowie ten artefakt widzi się dość często, gdy technik ustawi zbyt małe FOV w kierunku fazowym, bo chce poprawić rozdzielczość albo skrócić czas badania. Standardową dobrą praktyką jest tak dobrać FOV i kierunek kodowania fazy, żeby całe ciało pacjenta w danym przekroju znajdowało się wewnątrz pola widzenia, albo zastosować techniki antyaliasingowe (np. oversampling w kierunku fazowym, no phase wrap, sat bandy). W opisach MR radiolodzy zwracają uwagę, czy artefakt aliasingu nie maskuje istotnych struktur, zwłaszcza w okolicy czaszki, kręgosłupa szyjnego i kończyn. W codziennej pracy technika jest to też kwestia komfortu – jak FOV jest za małe, badanie często trzeba powtarzać, co wydłuża czas i irytuje pacjenta. Dlatego warto odruchowo sprawdzać, czy głowa, brzuch czy inny badany obszar naprawdę mieści się w polu widzenia w obu kierunkach kodowania.

Pytanie 27

Na zamieszczonej rycinie przedstawiono

Ilustracja do pytania
A. zjawisko tworzenia par.
B. efekt Comptona.
C. zjawisko anihilacji.
D. zjawisko fotoelektryczne.
Na rycinie widać klasyczny schemat zjawiska fotoelektrycznego: kwant promieniowania γ (lub X) pada na elektron związany w atomie, przekazuje mu energię i wybija go poza atom jako elektron swobodny. Opis matematyczny Ee = hν − Ew pokazuje, że energia kinetyczna elektronu wybitego (Ee) jest równa energii fotonu (hν) pomniejszonej o energię wiązania elektronu w atomie (Ew). To jest dokładnie definicja efektu fotoelektrycznego, tak jak uczą w fizyce medycznej i w podstawach radiologii. W diagnostyce obrazowej to zjawisko ma ogromne znaczenie przy niższych energiach promieniowania, typowych np. dla mammografii czy zdjęć kostnych – tam dominująca absorpcja w tkankach to właśnie fotoefekt. Moim zdaniem warto zapamiętać, że fotoefekt jest mocno zależny od liczby atomowej Z materiału (z grubsza rośnie jak Z³) – dlatego kości, zawierające dużo wapnia, pochłaniają więcej promieniowania niż tkanki miękkie i wychodzą na zdjęciu jaśniej. W praktyce technika radiologiczna wykorzystuje to przy doborze napięcia kV: niższe kV wzmacnia udział zjawiska fotoelektrycznego, poprawia kontrast tkankowy, ale zwiększa dawkę pochłoniętą. Standardy ochrony radiologicznej i dobre praktyki (np. zasada ALARA) wymagają takiego doboru parametrów, żeby uzyskać wystarczającą jakość obrazu przy jak najmniejszej dawce, czyli rozsądnego kompromisu między udziałem fotoefektu a rozpraszaniem Comptona. Warto też pamiętać, że po wybiciu elektronu w atomie powstaje luka w powłoce, co prowadzi do emisji promieniowania charakterystycznego lub elektronów Augera – to z kolei leży u podstaw działania kontrastów zawierających jod czy gadolin w niektórych technikach obrazowania.

Pytanie 28

Przemiana promieniotwórcza radu w ren opisana wzorem \( {}_{88}^{226}\text{Ra} \to {}_{86}^{222}\text{Rn} + {}_{2}^{4}\text{He} \) jest rozpadem

A. gamma.
B. alfa.
C. beta minus.
D. beta plus.
Rozpad opisany równaniem \( {}_{88}^{226}\text{Ra} \to {}_{86}^{222}\text{Rn} + {}_{2}^{4}\text{He} \) to klasyczny przykład przemiany alfa. Widać to po tym, że z jądra radu „odrywa się” cząstka o liczbie masowej 4 i liczbie atomowej 2, czyli dokładnie jądro helu – to jest właśnie cząstka alfa. Liczba masowa zmniejsza się z 226 do 222 (spadek o 4), a liczba atomowa z 88 do 86 (spadek o 2), co jest typowym wzorcem dla rozpadu alfa. Z fizycznego punktu widzenia jądro ciężkiego pierwiastka, jak rad, pozbywa się nadmiaru energii i „zbyt dużej” liczby nukleonów właśnie przez emisję takiej cząstki. W medycynie, szczególnie w medycynie nuklearnej i w ochronie radiologicznej, rozumienie tego typu przemian jest bardzo praktyczne. Cząstki alfa mają bardzo mały zasięg w tkankach (rzędu dziesiątek mikrometrów), ale jednocześnie bardzo duże liniowe przekazywanie energii (wysoki LET). To oznacza, że jeśli źródło alfa znajdzie się wewnątrz organizmu, może silnie uszkadzać komórki w bardzo małym obszarze. Dlatego w procedurach, które opisują dobre praktyki ochrony radiologicznej, tak mocno podkreśla się, żeby nie spożywać, nie wdychać i nie zanieczyszczać skóry materiałami emitującymi alfa. Z zewnątrz skóra praktycznie zatrzymuje to promieniowanie, ale wewnętrznie jest ono bardzo niebezpieczne. Moim zdaniem znajomość rozpadu alfa przydaje się też przy rozumieniu łańcuchów promieniotwórczych, np. szeregu uranowo-radowego. W takich szeregach wielokrotnie pojawiają się kolejne rozpady alfa prowadzące do powstania gazowego radu i radu–222, który z kolei ma znaczenie w ocenie narażenia na radon w budynkach. W standardach oceny ryzyka radiacyjnego i w dokumentacji ochrony radiologicznej zawsze uwzględnia się, czy mamy do czynienia z promieniowaniem alfa, beta czy gamma, bo od tego zależy zarówno sposób ekranowania, jak i metody monitorowania skażeń. W praktyce technika medycznego znajomość tego typu reakcji pomaga lepiej rozumieć opisy źródeł, charakterystyki radioizotopów w kartach katalogowych oraz zalecenia BHP przy pracy z materiałami promieniotwórczymi.

Pytanie 29

Która przyczyna spowodowała powstanie artefaktu widocznego na zamieszczonym obrazie MR?

Ilustracja do pytania
A. Zły dobór cewki gradientowej.
B. Wymiary obiektu przekroczyły pole widzenia.
C. Nieprawidłowa kalibracja aparatu.
D. Niejednorodność pola magnetycznego.
Prawidłowo – na tym obrazie mamy klasyczny przykład artefaktu typu „cut off”, czyli sytuacji, gdy wymiary obiektu przekraczają pole widzenia (FOV – field of view). W badaniu MR, gdy FOV jest ustawione zbyt małe w stosunku do rzeczywistych rozmiarów badanego obszaru, część sygnału z tkanek leżących poza polem widzenia zostaje „przefazowana” i odwzorowuje się w niewłaściwym miejscu obrazu. Moim zdaniem to jeden z bardziej podchwytliwych artefaktów, bo wynika wyłącznie z parametrów akwizycji, a nie z awarii sprzętu. W praktyce technik powinien zawsze sprawdzić, czy dobrane FOV obejmuje całą głowę pacjenta w danej płaszczyźnie, szczególnie w sekwencjach T2-zależnych w projekcji strzałkowej i osiowej. Standardem dobrej praktyki jest kontrola tzw. prescan lub scout view i korekta FOV jeszcze przed właściwą serią. Jeśli FOV jest za małe, pojawiają się charakterystyczne „obcięcia” lub powtórzenia struktur anatomicznych przy krawędziach obrazu, widoczne nieraz jako dziwne przesunięcia lub brak fragmentów czaszki czy tkanek miękkich. W protokołach MR mózgu zwykle stosuje się FOV rzędu 220–260 mm, ale zawsze trzeba to dostosować do budowy pacjenta – u osób z dużą czaszką albo przy badaniach z maską unieruchamiającą lepiej od razu dać trochę większe FOV. W codziennej pracy ważne jest też, żeby nie próbować „ratować” jakości obrazu innymi parametrami (np. macierzą czy zoomem), jeśli pierwotnie FOV jest źle ustawione. Podsumowując: artefakt, który tu widzisz, nie wynika z uszkodzenia aparatu, tylko z czysto geometrycznego ograniczenia pola widzenia – i to właśnie tłumaczy, dlaczego poprawną odpowiedzią jest przekroczenie FOV przez badany obiekt.

Pytanie 30

Jaka jest odległość pomiędzy źródłem promieniowania a powierzchnią ciała pacjenta w technice izocentrycznej radioterapii?

A. Stała i wynosi 100 cm.
B. Zmienna, zależna od grubości pacjenta i rodzaju akceleratora.
C. Stała i wynosi 110 cm.
D. Zmienna, zależna od lokalizacji punktu izocentrycznego w ciele pacjenta.
Nieporozumienia w tym pytaniu biorą się najczęściej z mylenia dwóch pojęć: odległości źródło–skóra (SSD, source–skin distance) i odległości źródło–izocentrum (SID lub SAD, source–axis distance). W starszych, prostszych technikach radioterapii opartych na stałej SSD faktycznie często ustawiano pacjenta tak, aby odległość od źródła do powierzchni skóry wynosiła np. 100 cm. Stąd łatwo powstaje automatyczne skojarzenie, że „w radioterapii zawsze jest 100 cm” i że ta odległość jest stała. Jednak w technice izocentrycznej logika jest inna: stała ma być odległość od źródła do osi obrotu, czyli do izocentrum, a nie do skóry. Przekonanie, że odległość źródło–skóra jest zawsze 100 cm lub 110 cm, wynika często z pamiętania parametrów geometrycznych konkretnego akceleratora albo z uproszczonych schematów z podręcznika. Rzeczywiście, wiele akceleratorów ma zdefiniowaną stałą odległość źródło–izocentrum, np. 100 cm, i czasami studenci przenoszą to bezrefleksyjnie na powierzchnię ciała. Problem w tym, że powierzchnia pacjenta nie pokrywa się z izocentrum – pacjent ma swoją grubość, różne krzywizny, garby kostne, tkankę tłuszczową. Gdy izocentrum planuje się głęboko, np. w guzie płuca czy w miednicy, to geometrycznie nie ma możliwości, żeby jednocześnie utrzymać stałą odległość do skóry i stałą odległość do izocentrum. Zdarza się też inny błąd myślowy: ktoś zakłada, że odległość zależy głównie od „grubości pacjenta i rodzaju akceleratora”. Oczywiście, grubość ciała wpływa na to, jaka faktycznie wyjdzie SSD, a konstrukcja akceleratora narzuca pewne minimalne i maksymalne odległości, ale to nie jest parametr, który świadomie ustawiamy jako stały w technice izocentrycznej. W tej technice celem jest ustawienie punktu izocentrycznego w odpowiednim miejscu w ciele, zgodnie z planem leczenia. To lokalizacja tego punktu – w guzie, w PTV – decyduje, jak daleko od głowicy będzie leżała skóra w danym polu i kącie gantry. Innymi słowy: to geometria ustawienia izocentrum względem anatomii pacjenta robi całą robotę, a nie sama grubość czy typ maszyny. Moim zdaniem warto zapamiętać pewną prostą zasadę praktyczną: jeśli mówimy o technice izocentrycznej, to myślimy w kategoriach „stałe SAD, zmienne SSD”. Wtedy łatwiej uniknąć pokusy przyklejania się do magicznych liczb 100 cm czy 110 cm jako czegoś niezmiennego. W nowoczesnych standardach radioterapii, zwłaszcza przy IMRT, VMAT, stereotaksji, planowanie zawsze obraca się wokół izocentrum i objętości tarczowych, a nie wokół odległości od skóry. To podejście jest po prostu bardziej precyzyjne i bezpieczne dla pacjenta.

Pytanie 31

W której technice obrazowania zostają zarejestrowane jednocześnie dwa przeciwbieżne kwanty promieniowania gamma o równej energii 511 keV?

A. Scyntygrafii dynamicznej.
B. Pozytonowej tomografii emisyjnej.
C. Tomografii emisyjnej pojedynczego fotonu.
D. Tomografii komputerowej.
W tym pytaniu pułapka polega głównie na skojarzeniu słowa „gamma” z każdą metodą medycyny nuklearnej albo w ogóle z radiologią. Tymczasem rejestracja dwóch przeciwbieżnych fotonów gamma o energii dokładnie 511 keV jest charakterystyczna wyłącznie dla pozytonowej tomografii emisyjnej (PET), gdzie wykorzystuje się anihilację pozytonu z elektronem. W klasycznej scyntygrafii dynamicznej używa się gammakamery, ale rejestruje ona pojedyncze fotony gamma emitowane przez izotopy takie jak technet-99m. Nie ma tam zjawiska koincydencji dwóch przeciwległych kwantów ani stałej energii 511 keV – energia zależy od konkretnego radionuklidu (np. około 140 keV dla 99mTc). Dynamiczny jest tylko sposób akwizycji w czasie, a nie fizyka promieniowania. Tomografia komputerowa (TK, CT) z kolei w ogóle nie pracuje na promieniowaniu gamma z anihilacji, tylko na promieniowaniu rentgenowskim generowanym w lampie rentgenowskiej. Wiązka przechodzi przez pacjenta, a detektory mierzą osłabienie promieniowania X, nie mają tu miejsca ani pozytony, ani koincydencja dwóch fotonów. To dość częsty błąd: wrzucanie TK, PET i SPECT do jednego worka „bo wszystkie to tomografie”. W tomografii emisyjnej pojedynczego fotonu (SPECT) faktycznie używa się promieniowania gamma i rekonstrukcji tomograficznej, ale rejestruje się pojedyncze fotony, nie pary przeciwbieżnych kwantów. Aparat obraca się wokół pacjenta, zbiera projekcje emisji z różnych kątów i z tego liczy obraz 3D. Energia fotonów znowu zależy od użytego izotopu, a nie jest stała 511 keV. Typowy schemat błędnego myślenia jest taki: „jest gamma, jest tomografia, to pewnie chodzi o SPECT albo scyntygrafię”, albo odwrotnie – utożsamianie każdej tomografii z promieniowaniem X. Dlatego warto zapamiętać prostą zasadę: 511 keV + dwa przeciwbieżne fotony w koincydencji = PET; pojedyncze fotony gamma z gammakamery = scyntygrafia/SPECT; promieniowanie X z lampy = RTG/TK.

Pytanie 32

W radioterapii konwencjonalnej pacjent jest leczony promieniowaniem pochodzącym

A. ze źródeł zewnętrznych.
B. z rozpadu izotopu uranu.
C. ze źródeł wewnętrznych.
D. z rozpadu izotopu radu.
W tym pytaniu łatwo się pogubić, bo pojawiają się różne typy źródeł promieniowania i trochę kusi, żeby je wrzucić do jednego worka. Radioterapia kojarzy się wielu osobom z „radem” albo „uranem”, bo historycznie używano izotopów promieniotwórczych, a w fizyce jądrowej dużo się o nich mówi. Współczesna radioterapia onkologiczna wygląda jednak inaczej i jest dużo bardziej uporządkowana. W radioterapii konwencjonalnej mówimy przede wszystkim o teleterapii, czyli o wykorzystaniu zewnętrznych wiązek promieniowania jonizującego. Obecnie standardem są akceleratory liniowe generujące fotony X lub elektrony. Dawniej stosowano aparaty kobaltowe (Co-60), ale one też były źródłami zewnętrznymi, choć opartymi o izotop. Pacjent leży na stole terapeutycznym, a głowica aparatu obraca się wokół niego, podając dawkę z różnych kierunków. To jest sedno pojęcia „źródła zewnętrzne”. Pomyłką jest kojarzenie radioterapii konwencjonalnej z radem. Rad miał znaczenie historyczne, używano go w dawnych metodach brachyterapii, ale dzisiaj praktycznie się go nie stosuje ze względów bezpieczeństwa i lepszej dostępności innych izotopów, jak iryd-192 czy cez-137. Poza tym brachyterapia, gdzie źródło jest wprowadzone do guza lub w jego sąsiedztwo, to inny rodzaj radioterapii niż klasyczna teleterapia. Podobnie uran nie jest izotopem terapeutycznym w radioterapii onkologicznej. Uran kojarzy się raczej z reaktorami jądrowymi czy bronią, a nie z leczeniem nowotworów. W standardach klinicznych nie znajdziemy schematów napromieniania opartych o rozpad izotopu uranu, więc wybór takiej odpowiedzi wynika zwykle z ogólnego skojarzenia „promieniowanie = uran”, co jest bardzo uproszczone i po prostu błędne w tym kontekście. Mylenie źródeł wewnętrznych i zewnętrznych też jest typowe. Źródła wewnętrzne to domena brachyterapii i terapii izotopowej w medycynie nuklearnej, gdzie radioizotop znajduje się w ciele pacjenta. Radioterapia konwencjonalna, o którą pytano, opiera się natomiast na wiązce wytwarzanej poza organizmem. Zapamiętanie tego rozróżnienia pomaga później rozumieć schematy leczenia i zasady ochrony radiologicznej personelu oraz rodziny pacjenta.

Pytanie 33

Do pomiaru dawek indywidualnych u osób narażonych zawodowo na promieniowanie rentgenowskie są stosowane

A. detektory termoluminescencyjne.
B. liczniki scyntylacyjne.
C. liczniki geigera.
D. detektory półprzewodnikowe.
W ochronie radiologicznej łatwo pomylić urządzenia służące do pomiarów w pracowni z tymi, które są przeznaczone do monitorowania dawki indywidualnej pracownika. To dwa różne światy. Licznik Geigera kojarzy się większości osób z promieniowaniem, bo „tyka” i reaguje na obecność promieniowania jonizującego. W praktyce jednak jest to przyrząd do pomiaru mocy dawki lub do wykrywania skażeń, a nie do precyzyjnego, długookresowego monitorowania dawek osobistych. Nie nosi się go stale przy sobie w kieszeni przez miesiąc, tylko używa doraźnie, np. do sprawdzania szczelności osłon, kontroli pomieszczeń czy badania obecności źródeł. Podobnie liczniki scyntylacyjne, choć bardzo czułe i świetne do pomiarów w medycynie nuklearnej czy przy kontroli źródeł, są głównie stacjonarne lub ręczne. Służą do pomiaru aktywności, mocy dawki, lokalizowania ognisk promieniowania, ale nie do tego, żeby technik RTG nosił je przez cały miesiąc przypięte do fartucha ołowianego. To po prostu byłoby kompletnie niepraktyczne i kosztowne, a do tego pomiar byłby mało powtarzalny. Detektory półprzewodnikowe też brzmią nowocześnie i faktycznie są szeroko stosowane w aparatach rentgenowskich, tomografach komputerowych czy w dozymetrii referencyjnej jako bardzo precyzyjne sondy pomiarowe. Jednak ich konstrukcja i cena powodują, że używa się ich raczej do krótkotrwałych pomiarów kontrolnych, testów akceptacyjnych czy kontroli jakości, a nie jako masowe dozymetry osobiste dla całego personelu. Typowym błędem myślowym jest założenie, że „skoro coś mierzy promieniowanie, to nadaje się do wszystkiego”. W dozymetrii indywidualnej liczy się możliwość długiego noszenia, odporność na warunki pracy, powtarzalność odczytu i niski koszt wymiany. Dlatego standardem stały się detektory termoluminescencyjne, ewentualnie dawkomierze OSL, a nie liczniki Geigera, scyntylatory czy detektory półprzewodnikowe. Właśnie rozróżnianie tych zastosowań to kluczowy element praktycznej ochrony radiologicznej.

Pytanie 34

Gruboziarnista folia wzmacniająca wpływa na zwiększenie na obrazie rentgenowskim nieostrości

A. ruchowej.
B. fotograficznej.
C. rozproszeniowej.
D. geometrycznej.
W tym pytaniu haczyk polega głównie na tym, żeby dobrze rozróżniać typy nieostrości w radiografii. Gruboziarnista folia wzmacniająca jest elementem układu obrazującego, czyli części odpowiedzialnej za rejestrację obrazu, a nie za ruch, geometrię wiązki czy rozproszenie promieniowania. Dlatego nie może powodować nieostrości ruchowej. Nieostrość ruchowa pojawia się, gdy pacjent się porusza, gdy technik nie ustabilizuje odpowiednio kończyny, albo gdy czas ekspozycji jest za długi. Z mojego doświadczenia w pracowni: jeśli ktoś ma problem z rozmazanymi zdjęciami klatki piersiowej, to zwykle chodzi o oddech pacjenta lub kaszel, a nie o rodzaj folii. Druga często mylona sprawa to nieostrość geometryczna. Ona wynika z wielkości ogniska lampy rentgenowskiej, odległości ognisko–film (OID, FFD) i rozbieżności wiązki. Jeśli ognisko jest duże, a obiekt znajduje się daleko od detektora, powstaje powiększenie i rozmycie krawędzi – to typowa nieostrość geometryczna. Folia wzmacniająca nie zmienia geometrii układu, więc nie może wpływać na ten typ nieostrości. Kto miesza te pojęcia, zwykle wrzuca wszystko do jednego worka: „jak obraz jest nieostry, to pewnie geometria”, a to spore uproszczenie. Pojawia się też skojarzenie z nieostrością rozproszeniową. Ta natomiast jest związana z promieniowaniem rozproszonym w ciele pacjenta i w otoczeniu, które dociera do detektora z innych kierunków niż wiązka pierwotna. Do jej ograniczania służą kratki przeciwrozproszeniowe, kolimacja i odpowiednie parametry ekspozycji. Folia wzmacniająca jedynie przetwarza to, co do niej dociera – nie generuje dodatkowego rozproszenia promieniowania X w takim sensie, by tworzyć osobny typ nieostrości. Typowym błędem myślowym jest tu łączenie „grubej” folii z czymś, co „rozprasza” wszystko dookoła. W rzeczywistości mamy do czynienia z rozpraszaniem światła w samej folii, co właśnie zaliczamy do nieostrości fotograficznej, a nie rozproszeniowej w sensie fizyki promieniowania. Dlatego poprawne rozróżnianie tych pojęć jest kluczowe przy analizie jakości obrazu i planowaniu parametrów badania RTG.

Pytanie 35

Promieniowanie rentgenowskie jest

A. falą ultradźwiękową.
B. strumieniem elektronów.
C. strumieniem protonów.
D. falą elektromagnetyczną.
Promieniowanie rentgenowskie należy do fal elektromagnetycznych, tak samo jak światło widzialne, ultrafiolet, podczerwień czy promieniowanie gamma. Różni się od nich głównie długością fali i energią kwantów. Promieniowanie X ma bardzo krótką długość fali i wysoką energię, dzięki czemu ma właściwości jonizujące – potrafi wybijać elektrony z atomów. To właśnie ta cecha pozwala na tworzenie obrazów w radiologii, ale jednocześnie wymaga ścisłego przestrzegania zasad ochrony radiologicznej. W aparacie RTG elektrony są rozpędzane i gwałtownie hamowane na anodzie lampy – w tym procesie powstaje promieniowanie hamowania oraz charakterystyczne, ale końcowy efekt i tak jest taki, że wychodzi z lampy wiązka fali elektromagnetycznej o określonym widmie energii. W praktyce medycznej to promieniowanie przechodzi przez ciało pacjenta i jest różnie pochłaniane przez tkanki: kości absorbują więcej, płuca mniej, dlatego na detektorze lub kliszy powstaje kontrastowy obraz. W tomografii komputerowej, mammografii czy radiografii cyfrowej zasada fizyczna jest ta sama – zawsze pracujemy z falą elektromagnetyczną z zakresu promieniowania X, tylko zmieniają się parametry ekspozycji, geometria wiązki i rodzaj detektora. Warto też pamiętać, że zgodnie z podstawami fizyki medycznej i normami opisującymi pracę z promieniowaniem jonizującym (np. zalecenia ICRP), wszystkie procedury z użyciem RTG traktowane są jako praca z promieniowaniem elektromagnetycznym, a nie z wiązką cząstek materialnych. Moim zdaniem dobrze jest to sobie jasno poukładać, bo potem łatwiej zrozumieć takie pojęcia jak energia fotonu, twardość wiązki, filtracja czy warstwa półchłonna.

Pytanie 36

Ligand stosuje się

A. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
B. w radiologii klasycznej jako środek kontrastujący negatywny.
C. w radiologii klasycznej jako środek kontrastujący pozytywny.
D. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który wiąże się selektywnie z określonym celem biologicznym, np. receptorem, enzymem czy transporterem, i właśnie w medycynie nuklearnej pełni rolę nośnika radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi za rękę” izotop promieniotwórczy dokładnie tam, gdzie chcemy zobaczyć czynność narządu albo ognisko chorobowe. Radioizotop sam z siebie nie jest wybiórczy, dopiero połączenie go z odpowiednim ligandem tworzy radiofarmaceutyk o określonej tropowości, np. do kości, mięśnia sercowego, guzów neuroendokrynnych czy receptorów dopaminergicznych. W scyntygrafii kości używa się ligandów fosfonianowych znakowanych technetem-99m, które gromadzą się w miejscach wzmożonego metabolizmu kostnego. W scyntygrafii perfuzyjnej serca mamy ligandy lipofilne, które wnikają do kardiomiocytów proporcjonalnie do przepływu krwi. W PET z kolei typowym przykładem jest 18F-FDG, gdzie ligandem jest analog glukozy, a izotopem fluor-18. Z mojego doświadczenia to właśnie zrozumienie roli liganda tłumaczy, czemu dwa różne radiofarmaceutyki z tym samym izotopem mogą mieć zupełnie inne wskazania. Dobre praktyki w medycynie nuklearnej wymagają bardzo świadomego doboru liganda do konkretnego badania: bierzemy pod uwagę farmakokinetykę, specyficzność wiązania, szybkość eliminacji, a także bezpieczeństwo dla pacjenta. W wytycznych EANM czy IAEA wyraźnie podkreśla się, że to właściwości liganda decydują o jakości obrazowania funkcjonalnego, a nie tylko sam izotop. Dlatego poprawne skojarzenie pojęcia „ligand” z nośnikiem radiofarmaceutyku w medycynie nuklearnej jest bardzo istotne i praktycznie przydatne w pracy z gammakamerą czy PET.

Pytanie 37

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. cząsteczkowym pochodzącym z akceleratora.
B. ze źródeł umieszczonych tylko na skórze pacjenta.
C. fotonowym pochodzącym z akceleratora.
D. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
Prawidłowo – istota brachyterapii polega właśnie na tym, że źródła promieniowania jonizującego umieszcza się w bezpośrednim sąsiedztwie guza albo wręcz w samych napromienianych tkankach. Dzięki temu dawka jest bardzo wysoka w objętości nowotworu, a bardzo szybko spada w miarę oddalania się od źródła. To jest kluczowa zaleta tej metody w porównaniu z teleradioterapią, gdzie promieniowanie dociera z zewnątrz, z dużej odległości (z akceleratora liniowego). W praktyce klinicznej stosuje się różne techniki brachyterapii: śródtkankową (np. przy rakach prostaty, języka, piersi – igły lub implanty z izotopem wprowadzane w guz), śródjamową (np. rak szyjki macicy, endometrium – aplikatory w jamie macicy lub pochwie) czy powierzchowną, gdy źródło jest tuż przy skórze. Najczęściej używane są źródła irydu-192 (HDR, PDR) lub jodu-125, cezu-137, palladu-103, w zależności od wskazań. Planowanie brachyterapii odbywa się na podstawie badań obrazowych (TK, MR, czasem USG), a system planowania dawki dokładnie wylicza rozkład izodoz wokół źródeł. Zgodnie ze standardami radioterapii onkologicznej (np. wytyczne ESTRO, ICRU) bardzo ważne jest precyzyjne pozycjonowanie aplikatorów oraz kontrola ich położenia przed napromienianiem, bo nawet niewielkie przesunięcie może zmienić rozkład dawki w krytycznych narządach. Moim zdaniem warto zapamiętać jedno: brachyterapia = źródło promieniowania blisko guza, wysoka dawka lokalnie, oszczędzenie tkanek zdrowych. To właśnie odróżnia ją od „klasycznego” napromieniania z akceleratora.

Pytanie 38

W której technice brachyterapii stosuje się źródła promieniowania o mocy dawki 2-12 Gy/h?

A. LDR
B. PDR
C. MDR
D. HDR
Zakres 2–12 Gy/h jest charakterystyczny dla brachyterapii MDR, czyli medium dose rate. Pomyłki przy tym pytaniu zwykle biorą się z mieszania definicji mocy dawki w brachyterapii i intuicyjnego myślenia, że „wysoka dawka” to zawsze HDR, a „niska” to LDR, bez znajomości konkretnych progów liczbowych. HDR, czyli high dose rate, to technika, w której moc dawki przekracza 12 Gy/h, często jest to nawet kilkadziesiąt Gy/h. Zabiegi HDR są bardzo krótkie czasowo, trwają minuty, a nie godziny, i są wykonywane z użyciem afterloaderów o bardzo aktywnych źródłach, najczęściej 192Ir. Z punktu widzenia planowania leczenia i ochrony radiologicznej HDR ma inny profil ryzyka niż MDR – pacjent nie leży godzinami z założonymi aplikatorami i aktywnym źródłem, tylko jest napromieniany krótkotrwale i w sposób bardzo precyzyjnie kontrolowany. Dlatego przypisywanie zakresu 2–12 Gy/h do HDR jest po prostu niezgodne z przyjętymi międzynarodowo definicjami (m.in. ICRU, IAEA). LDR, low dose rate, klasycznie obejmuje zakres poniżej 2 Gy/h. To są dawne metody z zastosowaniem igieł, nasion czy drutów o małej aktywności, w których pacjent bywał hospitalizowany przez kilkadziesiąt godzin, a nawet kilka dni. Moc dawki jest tam na tyle niska, że skutki biologiczne są inne niż przy HDR czy MDR, co przekłada się na inne modele radiobiologiczne i inne schematy leczenia. Wrzucenie zakresu 2–12 Gy/h do LDR powoduje rozmycie tej granicy i psuje logikę podziału: LDR <2 Gy/h, MDR 2–12 Gy/h, HDR >12 Gy/h. Osobną kategorią jest PDR – pulsed dose rate. Technicznie wykorzystuje się tu sprzęt HDR, ale dawka jest podawana w krótkich impulsach, najczęściej co godzinę, tak żeby średnia dawka w czasie przypominała klasyczną brachyterapię LDR. To jest trochę „symulowanie LDR impulsami HDR”. Dlatego PDR nie definiuje się przez ten zakres 2–12 Gy/h, tylko przez sposób frakcjonowania dawki i średnią moc w dłuższym okresie. Mylenie PDR z konkretnym przedziałem Gy/h wynika często z tego, że ktoś zapamięta tylko nazwę, a nie koncepcję biologiczną stojącą za tą techniką. Moim zdaniem warto podejść do tego schematycznie: trzy zakresy liczbowo (LDR, MDR, HDR) plus PDR jako szczególna metoda, która stara się łączyć zalety LDR z wygodą aparatury HDR. Jak już to się ułoży w głowie, takie pytania przestają być problemem, bo od razu widać, że 2–12 Gy/h to musi być MDR.

Pytanie 39

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
B. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
C. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
D. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
W tym pytaniu bardzo łatwo pomylić różne schematy frakcjonowania, bo wszystkie brzmią dość podobnie, a różnice są czysto „liczbowe”, ale za tymi liczbami stoi konkretna radiobiologia. Hiperfrakcjonowanie to nie jest po prostu „więcej razy dziennie” ani „większa dawka”, tylko konkretny sposób podawania promieniowania: dawka na pojedynczą frakcję jest mniejsza niż standardowe 2 Gy, frakcji jest więcej w ciągu dnia, a całkowity czas leczenia pozostaje zbliżony do klasycznego schematu. Błędne skojarzenie, że skoro robimy 2–3 frakcje dziennie, to dawka jednostkowa powinna być większa, wynika często z mylenia hiperfrakcjonowania z hipofrakcjonowaniem. W hipofrakcjonowaniu właśnie podnosi się dawkę frakcyjną (np. 3–8 Gy), zwykle przy mniejszej liczbie frakcji i często skróceniu całkowitego czasu leczenia, co wykorzystuje się np. w radioterapii paliatywnej czy stereotaktycznej (SBRT). Z kolei pomysł wydłużania całkowitego czasu leczenia przy hiperfrakcjonowaniu jest sprzeczny z jego celem. Jeżeli leczenie trwa dłużej, dochodzi do repopulacji komórek nowotworowych, czyli guz ma więcej czasu na „odbudowę”, co obniża skuteczność terapii. Standardy planowania radioterapii jasno mówią, że w schematach hiperfrakcyjnych całkowity czas leczenia powinien być podobny do konwencjonalnego, właśnie po to, żeby nie zwiększać ryzyka odrastania guza. Dodatkowo, zwiększanie dawki frakcyjnej przy dwóch lub trzech frakcjach dziennie mocno podbiłoby ryzyko powikłań późnych w tkankach zdrowych, takich jak zwłóknienia, mielopatie czy uszkodzenia narządów krytycznych. Z mojego doświadczenia w nauczaniu ten błąd bierze się z prostego skojarzenia: „więcej frakcji = więcej dawki na raz”, a tymczasem w radioterapii często jest odwrotnie – im więcej frakcji, tym mniejsza dawka na pojedyncze naświetlanie, przy starannie zaplanowanej dawce całkowitej i czasie leczenia.

Pytanie 40

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. od 800 ms do 900 ms
B. od 500 ms do 700 ms
C. od 300 ms do 400 ms
D. powyżej 2000 ms
Prawidłowa odpowiedź „powyżej 2000 ms” dobrze oddaje charakter obrazowania T2-zależnego w klasycznej sekwencji echa spinowego (spin echo). Żeby uzyskać kontrast T2, trzeba możliwie mocno zredukować wpływ różnic w T1, a podkreślić różnice w czasie relaksacji poprzecznej T2 między tkankami. Z praktycznego punktu widzenia oznacza to zastosowanie długiego czasu repetycji TR (typowo > 2000 ms) oraz stosunkowo długiego czasu echa TE (zwykle rzędu 80–120 ms). Długi TR sprawia, że magnetyzacja podłużna większości tkanek zdąży się w dużej mierze zregenerować przed kolejnym impulsem RF, przez co kontrast T1 ulega „spłaszczeniu”. Wtedy głównym czynnikiem różnicującym jasność tkanek na obrazie staje się ich T2. W praktyce klinicznej, np. w badaniach mózgowia, sekwencje T2-zależne (SE lub FSE/TSE) z TR powyżej 2000 ms są standardem do uwidaczniania obrzęku, zmian zapalnych, demielinizacyjnych czy ognisk niedokrwiennych. Płyn mózgowo-rdzeniowy przy długim TR i długim TE jest bardzo jasny, a tkanka tłuszczowa mniej dominuje niż w obrazach T1-zależnych. Moim zdaniem warto zapamiętać prostą zasadę: długie TR = wyciszamy T1, długie TE = podkreślamy T2. W większości protokołów MR stosowanych w szpitalach i przychodniach właśnie takie parametry (TR > 2000 ms) są wpisane jako domyślne dla sekwencji T2-zależnych spin echo, zgodnie z powszechnie przyjętymi rekomendacjami producentów skanerów i standardami opisów radiologicznych.