Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 2 maja 2026 09:42
  • Data zakończenia: 2 maja 2026 09:50

Egzamin zdany!

Wynik: 31/40 punktów (77,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Obszary napromieniania w technice IMRT w trakcie wykonywania zabiegu radioterapeutycznego wyznacza

A. system komputerowy.
B. fizyk medyczny.
C. lekarz radioterapeuta.
D. technik elektroradiolog.
Prawidłowa odpowiedź wskazuje na kluczową cechę techniki IMRT: obszary napromieniania w trakcie wykonywania zabiegu są wyznaczane i realizowane przez system komputerowy, zgodnie z wcześniej przygotowanym planem leczenia. W praktyce wygląda to tak, że lekarz radioterapeuta i fizyk medyczny wspólnie ustalają cele kliniczne, marginesy bezpieczeństwa, dawki dla guza i narządów krytycznych, a następnie fizyk (albo planista) tworzy plan w specjalistycznym systemie TPS (Treatment Planning System). Ten plan zawiera bardzo szczegółowe informacje: kształt pól, modulację intensywności, przebieg łuków, segmenty MLC, liczbę monitor units itd. Jednak w samej fazie wykonywania zabiegu, w czasie faktycznego napromieniania, to już nie człowiek „rysuje” pola, tylko system komputerowy steruje aparatem zgodnie z zapisanym planem. System na bieżąco ustawia listki kolimatora MLC, kontroluje dawkę, kąt obrotu głowicy, czas ekspozycji i inne parametry. Technik elektroradiolog ma wtedy przede wszystkim zadanie poprawnie ułożyć pacjenta, zweryfikować pozycję (często przy pomocy obrazowania portalowego lub CBCT), załadować właściwy plan leczenia i nadzorować przebieg seansu, ale nie zmienia ręcznie kształtu obszarów napromieniania. Moim zdaniem to bardzo ważne, żeby kojarzyć IMRT właśnie z automatyzacją i dużym zaufaniem do algorytmów optymalizacyjnych i systemów sterowania. Z punktu widzenia bezpieczeństwa i jakości leczenia ostateczne „wyznaczanie” obszaru w danej sekundzie napromieniania jest realizowane przez oprogramowanie, które precyzyjnie przesuwa listki MLC i reguluje dawkę zgodnie z planem zaakceptowanym wcześniej przez lekarza i fizyka. Tak działają nowoczesne standardy radioterapii – człowiek definiuje cele i weryfikuje poprawność, a system komputerowy wykonuje skomplikowaną, powtarzalną pracę techniczną z dokładnością co do milimetra.

Pytanie 2

Do czego służy do symulator rentgenowski wykorzystywany w procesie radioterapii?

A. Do weryfikacji i odwzorowania geometrii pól poszczególnych wiązek terapeutycznych.
B. Do generowania trójwymiarowych informacji o lokalizacji obszaru guza.
C. Do weryfikacji dawki podanej pacjentowi w obszarze PTV.
D. Do określania odległości od wirtualnego źródła promieniowania do skóry pacjenta.
Symulator rentgenowski w radioterapii bywa czasem mylony z innymi urządzeniami używanymi w planowaniu leczenia, co prowadzi do różnych nieporozumień. Jego główna rola nie polega na pomiarze ani weryfikacji dawki w obszarze PTV. Kontrola dawki odbywa się poprzez obliczenia w systemie planowania leczenia (TPS), pomiary fantomowe, testy QA akceleratora oraz za pomocą dozymetrii in vivo, a nie na klasycznym symulatorze RTG. Symulator daje obraz geometryczny pól, ale nie jest narzędziem do precyzyjnego sprawdzania rozkładu dawki terapeutycznej, bo używa innej energii promieniowania i innych warunków niż właściwa wiązka megawoltowa. Często też przypisuje się symulatorowi funkcję generowania trójwymiarowych informacji o lokalizacji guza. W nowoczesnej radioterapii do tego służy przede wszystkim tomograf komputerowy do planowania (CT-sim) oraz oprogramowanie TPS, które pozwala na rekonstrukcję 3D, segmentację PTV i OAR, fuzję obrazów z MR czy PET. Klasyczny symulator rentgenowski wykonuje głównie projekcje 2D (AP, PA, boczne, skośne) i umożliwia ustawienie pól, a nie pełne modelowanie objętości guza w trzech wymiarach. Kolejne nieporozumienie dotyczy odległości od wirtualnego źródła promieniowania do skóry pacjenta. Owszem, na symulatorze można sprawdzić i ustawić SSD lub SAD, ale nie jest to jego unikalne zadanie – te odległości są standardowo kontrolowane na samym akceleratorze przy każdym zabiegu, z użyciem wskaźników odległości, laserów i systemów pozycjonowania. Redukowanie roli symulatora tylko do mierzenia odległości trochę mija się z celem, bo sednem jego użycia jest właśnie odtworzenie geometrii pól terapeutycznych, sprawdzenie projekcji osłon, listków MLC (w miarę możliwości), bloków, klinów oraz porównanie ich z anatomią pacjenta na obrazie RTG. Typowy błąd myślowy polega na mieszaniu funkcji: CT-symulatora, systemu planowania, akceleratora i symulatora RTG. Ten ostatni służy głównie do geometrycznej weryfikacji ustawień – czy pola są tam, gdzie trzeba, czy marginesy są prawidłowe, czy znaczniki na skórze i lasery zgadzają się z planem. Dlatego poprawne rozumienie jego roli jest ważne, bo wpływa bezpośrednio na bezpieczeństwo i dokładność całego procesu napromieniania.

Pytanie 3

W radiografii mianem SID określa się

A. odległość między źródłem promieniowania a detektorem obrazu.
B. system automatycznej kontroli ekspozycji.
C. odległość między obiektem badanym a detektorem obrazu.
D. system automatycznej regulacji jasności.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 4

Na zamieszczonej rycinie przedstawiono

Ilustracja do pytania
A. efekt Comptona.
B. zjawisko fotoelektryczne.
C. zjawisko anihilacji.
D. zjawisko tworzenia par.
Na rycinie widać klasyczny schemat zjawiska fotoelektrycznego: kwant promieniowania γ (lub X) pada na elektron związany w atomie, przekazuje mu energię i wybija go poza atom jako elektron swobodny. Opis matematyczny Ee = hν − Ew pokazuje, że energia kinetyczna elektronu wybitego (Ee) jest równa energii fotonu (hν) pomniejszonej o energię wiązania elektronu w atomie (Ew). To jest dokładnie definicja efektu fotoelektrycznego, tak jak uczą w fizyce medycznej i w podstawach radiologii. W diagnostyce obrazowej to zjawisko ma ogromne znaczenie przy niższych energiach promieniowania, typowych np. dla mammografii czy zdjęć kostnych – tam dominująca absorpcja w tkankach to właśnie fotoefekt. Moim zdaniem warto zapamiętać, że fotoefekt jest mocno zależny od liczby atomowej Z materiału (z grubsza rośnie jak Z³) – dlatego kości, zawierające dużo wapnia, pochłaniają więcej promieniowania niż tkanki miękkie i wychodzą na zdjęciu jaśniej. W praktyce technika radiologiczna wykorzystuje to przy doborze napięcia kV: niższe kV wzmacnia udział zjawiska fotoelektrycznego, poprawia kontrast tkankowy, ale zwiększa dawkę pochłoniętą. Standardy ochrony radiologicznej i dobre praktyki (np. zasada ALARA) wymagają takiego doboru parametrów, żeby uzyskać wystarczającą jakość obrazu przy jak najmniejszej dawce, czyli rozsądnego kompromisu między udziałem fotoefektu a rozpraszaniem Comptona. Warto też pamiętać, że po wybiciu elektronu w atomie powstaje luka w powłoce, co prowadzi do emisji promieniowania charakterystycznego lub elektronów Augera – to z kolei leży u podstaw działania kontrastów zawierających jod czy gadolin w niektórych technikach obrazowania.

Pytanie 5

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w tygodniu.
B. w miesiącu.
C. w roku.
D. w kwartale.
Prawidłowa odpowiedź „w miesiącu” wynika z przyjętych w radiologii standardów kontroli jakości dla aparatów rentgenowskich. Testy podstawowe z zakresu geometrii pola rentgenowskiego mają za zadanie sprawdzić, czy pole wiązki promieniowania rzeczywiście pokrywa się z tym, co pokazuje lampa z kolimatorem i symulacja świetlna. Innymi słowy, czy to, co widzisz w polu świetlnym na stole, faktycznie jest naświetlane promieniowaniem X. Moim zdaniem to jest absolutny fundament bezpiecznej pracy w pracowni RTG, bo każdy błąd w geometrii pola od razu odbija się na jakości obrazu i na narażeniu pacjenta. Zgodnie z dobrymi praktykami (różne wytyczne krajowe i europejskie dotyczące kontroli jakości w diagnostyce obrazowej) testy geometrii pola zalicza się do tzw. testów podstawowych, wykonywanych cyklicznie, zwykle właśnie raz w miesiącu. Chodzi o sprawdzenie zgodności wielkości pola, jego centrowania względem kasety/detektora, zbieżności osi wiązki z osią stołu i lampy, oraz zgodności wskaźników odległości ognisko–detektor. W praktyce taki test może polegać na ułożeniu specjalnego fantomu do testów geometrii pola, z naniesionymi znacznikami, i wykonaniu ekspozycji przy różnych ustawieniach pola świetlnego. Potem ocenia się, czy krawędzie obszaru naświetlonego zgadzają się z zaznaczonym obszarem w polu świetlnym, zwykle dopuszczalne odchylenia są rzędu kilku procent wymiaru pola (np. 2% SID). Regularność comiesięcznego testu ma sens, bo geometria pola może się stopniowo rozjeżdżać: poluzowane mechanizmy kolimatora, uszkodzenie lustra, zmiana położenia żarówki, drobne uderzenia lampą o stół – to wszystko w praktyce się zdarza. Miesięczny interwał jest takim rozsądnym kompromisem: na tyle często, żeby szybko wychwycić nieprawidłowości, a jednocześnie nie paraliżować pracy pracowni nadmiarem testów. W wielu pracowniach, z mojego doświadczenia, łączy się ten test z innymi prostymi kontrolami okresowymi, np. sprawdzeniem działania wskaźników odległości, poprawności blokad mechanicznych czy stabilności nastaw ekspozycji. To wszystko wpisuje się w system zapewnienia jakości i ochrony radiologicznej, gdzie jednym z kluczowych celów jest unikanie zbędnych powtórzeń badań i ograniczanie dawek dla pacjenta i personelu.

Pytanie 6

Na którym obrazie MR jest widoczne pasmo saturacji?

A. Obraz 2
Ilustracja do odpowiedzi A
B. Obraz 1
Ilustracja do odpowiedzi B
C. Obraz 3
Ilustracja do odpowiedzi C
D. Obraz 4
Ilustracja do odpowiedzi D
Prawidłowo wskazany jest obraz 4 – to właśnie tutaj widać klasyczne pasmo saturacji w badaniu MR. Na tym obrazie widoczne jest skośne, półprzezroczyste, jednorodne pasmo obejmujące fragment pola obrazowania, które nie przedstawia szczegółów anatomicznych, tylko równomierne wygaszenie sygnału. To efekt użycia dodatkowego selektywnego impulsu RF, który nasyca (wysyca) magnetyzację jąder w wybranym przekroju, zanim zostanie wykonana sekwencja pomiarowa. W praktyce klinicznej takie pasma saturacji stosuje się bardzo często, np. przy obrazowaniu kręgosłupa szyjnego, aby wyciszyć przepływ w dużych naczyniach (tętnice szyjne, kręgowe) albo zredukować artefakty ruchowe pochodzące spoza interesującego nas FOV. Moim zdaniem to jedno z prostszych, a bardzo skutecznych narzędzi optymalizacji jakości obrazu – zgodne z rutyną pracowni MR i zaleceniami producentów aparatów. Pasmo saturacji zawsze ma kształt prostokątnego „paska” w rzucie na obraz planujący i jest ustawiane przez technika w taki sposób, żeby obejmowało struktury, których sygnał chcemy stłumić (np. klatkę piersiową przy badaniu szyi, naczynia przy badaniu mózgu). Charakterystyczne jest to, że ten pasek nie oznacza warstwy obrazowej, tylko obszar wcześniejszej saturacji sygnału. W odróżnieniu od zwykłych warstw, w docelowych obrazach z sekwencji widać tam obniżenie sygnału lub wręcz „dziurę” w strukturach o dużym przepływie, co poprawia czytelność badania i ułatwia lekarzowi interpretację. W dobrze prowadzonych protokołach MR położenie i kąt pasma saturacji dobiera się indywidualnie do badanej okolicy, tak żeby skutecznie wyciszyć niepożądany sygnał, ale jednocześnie nie ucinać informacji z interesującego obszaru anatomicznego.

Pytanie 7

W obrazowaniu metodą rezonansu magnetycznego T1 oznacza czas

A. relaksacji poprzecznej.
B. inwersji.
C. relaksacji podłużnej.
D. echa.
Prawidłowo: w obrazowaniu metodą rezonansu magnetycznego T1 oznacza czas relaksacji podłużnej (spin–sieć). Chodzi o to, jak szybko namagnesowanie podłużne protonów (w osi głównego pola magnesu) wraca do stanu równowagi po pobudzeniu impulsami RF. W praktyce im krótszy T1, tym dany rodzaj tkanek szybciej „odzyskuje” swoje namagnesowanie podłużne i tym jaśniej świeci na obrazach T1‑zależnych. Dlatego na typowych sekwencjach T1‑zależnych tłuszcz ma krótki T1 i jest jasny, a płyny (np. płyn mózgowo‑rdzeniowy) mają długi T1 i wypadają ciemno. To jest bardzo użyteczne np. w rezonansie głowy: kontrast między istotą białą i szarą mózgu wynika w dużej mierze z różnic w T1. Po podaniu środka kontrastowego gadolinowego też patrzymy głównie na obrazy T1‑zależne, bo skrócenie T1 powoduje wzmocnienie sygnału w miejscach gromadzenia się kontrastu (np. guz, obszar zapalny, zaburzona bariera krew–mózg). Moim zdaniem dobrze jest kojarzyć, że T1 to nie jest żaden „czas echa” ani „czas inwersji”, tylko fizyczny parametr tkanki, który decyduje o kontraście przy odpowiednio dobranych parametrach sekwencji (TR, TE, ewentualnie TI). W codziennej pracy technika czy elektroradiologa rozumienie T1 pomaga świadomie dobierać protokoły, wiedzieć czemu zmiana TR zmienia kontrast i dlaczego w jednych badaniach lekarz chce mocno T1‑zależne obrazy, a w innych bardziej T2‑zależne. To jest taka podstawa fizyki MR, do której ciągle się wraca.

Pytanie 8

Więzka promieniowania X to

A. kwanty energii nieuginające się w polu elektromagnetycznym.
B. cząstki dodatnio naładowane uginające się w polu elektromagnetycznym.
C. cząstki ujemnie naładowane uginające się w polu elektromagnetycznym.
D. kwanty energii uginające się w polu elektromagnetycznym.
Prawidłowo, promieniowanie X to wiązka fotonów, czyli kwantów energii elektromagnetycznej, a nie strumień cząstek naładowanych. Foton nie ma ładunku elektrycznego ani masy spoczynkowej, dlatego nie ugina się w polu elektrycznym ani magnetycznym w taki sposób, jak robią to elektrony czy protony. To jest kluczowa cecha, która odróżnia promieniowanie X od wiązek cząstek stosowanych np. w niektórych technikach radioterapii (protonoterapia, wiązki elektronowe). W diagnostyce obrazowej, w klasycznym RTG, TK czy mammografii zawsze pracujemy z promieniowaniem elektromagnetycznym – dokładnie takimi właśnie kwantami energii. W praktyce oznacza to, że do kształtowania wiązki promieniowania X używamy kolimatorów, filtrów i geometrii lampy rentgenowskiej, a nie cewek magnetycznych jak w akceleratorach cząstek. Z mojego doświadczenia to rozróżnienie pomaga też zrozumieć, dlaczego osłony z ołowiu są skuteczne: nie „zaginają” promieniowania, tylko je pochłaniają lub silnie osłabiają przez zjawiska fotoelektryczne i Comptona. W standardach ochrony radiologicznej i dobrej praktyce technika elektroradiologii zakłada się, że wiązka X rozchodzi się liniowo, dlatego tak ważne jest prawidłowe pozycjonowanie pacjenta, dobór odległości ognisko–detektor i stosowanie przesłon, żeby ograniczyć niepotrzebne naświetlenie tkanek sąsiednich. W tomografii komputerowej to samo zjawisko wykorzystuje się do rekonstrukcji obrazu na podstawie osłabienia fotonów w różnych kierunkach. Moim zdaniem, jak raz się zapamięta, że promieniowanie X to „światło o bardzo dużej energii”, tylko o krótszej długości fali, to od razu łatwiej ogarnąć całą fizykę radiologii i sens parametrów ekspozycji, takich jak kV i mAs.

Pytanie 9

W badaniu PET stosuje się tylko radioizotopy emitujące

A. cząstki alfa.
B. elektrony.
C. pozytony.
D. neutrony.
W badaniu PET (pozytonowa tomografia emisyjna) kluczowe jest właśnie to, że używa się radioizotopów emitujących pozytony, czyli dodatnio naładowane odpowiedniki elektronów. To nie jest przypadek ani ciekawostka fizyczna, tylko fundament całej techniki obrazowania. Pozyton wychodzi z jądra radioaktywnego nuklidu (np. 18F, 11C, 15O, 13N), po bardzo krótkiej drodze w tkankach zderza się z elektronem i dochodzi do zjawiska anihilacji. W wyniku anihilacji powstają dwa fotony gamma o energii 511 keV, które rozlatują się w przybliżeniu w przeciwnych kierunkach (pod kątem 180°). Detektory PET rejestrują te dwa fotony jednocześnie, w tzw. koincydencji, i na tej podstawie system wyznacza linię, na której zaszła anihilacja. Z bardzo wielu takich zdarzeń komputer rekonstruuje trójwymiarowy obraz rozmieszczenia radiofarmaceutyku w organizmie. W praktyce klinicznej najczęściej stosuje się 18F-FDG, czyli fluorodeoksyglukozę znakowaną fluorem-18. Ten radiofarmaceutyk zachowuje się podobnie jak glukoza, więc gromadzi się w tkankach o zwiększonym metabolizmie glukozy, np. w większości nowotworów złośliwych, ale też w mózgu czy mięśniu sercowym. Dzięki temu PET pozwala ocenić aktywność metaboliczną zmian, a nie tylko ich strukturę anatomiczną. Z mojego doświadczenia to jest ogromna przewaga PET nad klasycznym RTG czy nawet samą TK: widzimy „żywotność” guza, odpowiedź na chemioterapię, wczesne nawroty. Standardy medycyny nuklearnej (np. EANM) wyraźnie mówią o stosowaniu wyłącznie emiterów pozytonów do badań PET, bo cała aparatura, algorytmy rekonstrukcji i procedury bezpieczeństwa są projektowane właśnie pod anihilacyjne fotony 511 keV i koincydencyjny system detekcji. Zastosowanie innych typów promieniowania (np. cząstek alfa czy czystych emiterów beta minus) uniemożliwiłoby uzyskanie obrazu typowego dla PET, bo nie powstawałyby te charakterystyczne pary fotonów. Dlatego wybór odpowiedzi „pozytony” idealnie pasuje do fizycznej zasady działania PET i do praktyki klinicznej opisanej w aktualnych wytycznych medycyny nuklearnej.

Pytanie 10

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. HDR
B. PDR
C. LDR
D. MDR
Prawidłowa odpowiedź to PDR – czyli Pulsed Dose Rate brachyterapia. W praktyce oznacza to technikę, w której wysokoaktywny radionuklid (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się „pulsach” dawki. Z zewnątrz wygląda to jak seria krótkich frakcji HDR, ale rozkład dawki w czasie ma naśladować efekt biologiczny klasycznej LDR (ciągłego, niskiego tempo dawki). Moim zdaniem to jest fajny przykład, jak fizyka medyczna i radiobiologia łączą się z techniką – mamy źródło HDR, ale sposób jego użycia sprawia, że tkanki widzą coś bardziej zbliżonego do LDR. W PDR źródło jest automatycznie przesuwane przez afterloader do poszczególnych pozycji w aplikatorze, zatrzymuje się tam na określony czas (tzw. dwell time), a potem jest wycofywane do bezpiecznego położenia. Cały cykl powtarza się co określony interwał, np. co godzinę, przez kilkanaście–kilkadziesiąt godzin. W wytycznych wielu ośrodków radioterapii podkreśla się, że PDR jest szczególnie użyteczna tam, gdzie chcemy mieć lepszą kontrolę nad rozkładem dawki niż w LDR, ale jednocześnie zachować korzystny profil powikłań późnych. Stosuje się ją m.in. w guzach ginekologicznych, nowotworach głowy i szyi czy w niektórych nawrotach nowotworów, gdzie precyzyjna rekonstrukcja pozycji aplikatora w TK lub MR i planowanie 3D pozwalają dokładnie zoptymalizować dawkę. W codziennej pracy technika PDR wymaga dobrej koordynacji zespołu: prawidłowego założenia aplikatorów, weryfikacji ich położenia obrazowaniem, rzetelnego planowania w systemie TPS oraz ścisłego przestrzegania procedur ochrony radiologicznej, bo mimo że źródło jest schowane w afterloaderze, jego aktywność jest wysoka i każda ekspozycja musi być pod pełną kontrolą.

Pytanie 11

W radiografii mianem SID określa się

A. system automatycznej regulacji jasności.
B. system automatycznej kontroli ekspozycji.
C. odległość między źródłem promieniowania a detektorem obrazu.
D. odległość między obiektem badanym a detektorem obrazu.
Prawidłowo, w radiografii SID (Source to Image Distance) oznacza odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu, czyli kasetą, przetwornikiem cyfrowym, płytą DR itp. To jest podstawowy parametr geometryczny badania RTG. Moim zdaniem warto go traktować tak samo poważnie, jak kV czy mAs, bo wpływa bezpośrednio na jakość obrazu i dawkę. Im większy SID, tym promieniowanie jest bardziej równoległe, co zmniejsza powiększenie i zniekształcenia obrazu, a poprawia odwzorowanie wymiarów anatomicznych. Standardowo przy zdjęciach klatki piersiowej stosuje się duży SID (np. ok. 180 cm), żeby ograniczyć powiększenie sylwetki serca i uzyskać lepszą ocenę pól płucnych. Przy zdjęciach kończyn często używa się krótszych odległości, np. 100–115 cm, bo łatwiej wtedy uzyskać odpowiednią ekspozycję przy mniejszej dawce. Z mojego doświadczenia w pracowni radiologicznej jednym z typowych błędów jest przypadkowa zmiana SID, np. przy przesuwaniu statywu, bez korekty parametrów ekspozycji. Prowadzi to do prześwietlonych lub niedoświetlonych zdjęć, a czasem do konieczności powtórzenia badania, czyli niepotrzebnego zwiększenia dawki dla pacjenta. Dobre praktyki mówią jasno: dla danej projekcji należy stosować stały, powtarzalny SID, zgodny z protokołem pracowni, a każda zmiana odległości wymaga przeliczenia ekspozycji zgodnie z prawem odwrotności kwadratu odległości. W nowoczesnych aparatach RTG SID jest zwykle wyświetlany na konsoli i warto na to zerkać rutynowo, bo to naprawdę ułatwia utrzymanie stałej jakości badań.

Pytanie 12

Wskaż roczną dawkę graniczną dla osób zatrudnionych w warunkach narażenia na promieniowanie jonizujące.

A. 20 mSv
B. 30 mSv
C. 15 mSv
D. 5 mSv
Prawidłowo wskazana roczna dawka graniczna 20 mSv wynika z aktualnych zaleceń międzynarodowych (ICRP – International Commission on Radiological Protection) oraz przepisów prawa krajowego dotyczących osób zawodowo narażonych na promieniowanie jonizujące. Chodzi tu o tzw. efektywną dawkę roczną u pracowników zakwalifikowanych do kategorii A narażenia. W praktyce oznacza to, że planując pracę technika elektroradiologii, fizyka medycznego czy personelu w medycynie nuklearnej, całkowita zsumowana dawka z wszystkich badań i procedur w danym roku kalendarzowym nie powinna przekroczyć właśnie 20 mSv, liczonych jako średnia w okresie 5 lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Moim zdaniem ważne jest, żeby nie traktować tego limitu jako „celu do osiągnięcia”, tylko jako absolutny górny sufit, którego staramy się w ogóle nie dotykać. W dobrze zorganizowanej pracowni dawki osobiste techników zwykle są znacznie niższe, często na poziomie pojedynczych mSv rocznie. W codziennej pracy przekłada się to na obowiązek stosowania osłon stałych (parawany ołowiane, ściany ekranowane), środków ochrony indywidualnej (fartuchy, kołnierze, osłony na gonady), odpowiedniego pozycjonowania się względem źródła promieniowania, korzystania z zdalnego sterowania aparatem oraz rygorystycznego przestrzegania zasady ALARA – As Low As Reasonably Achievable. Dodatkowo każdy pracownik objęty jest dozymetrią indywidualną (dawkomierze osobiste), a wyniki są dokumentowane i okresowo analizowane. Jeśli dawki zbliżają się do poziomów ostrzegawczych, pracodawca ma obowiązek zmodyfikować organizację pracy, np. rotować personel, zmieniać obsadę dyżurów w pracowniach wysokodawkowych (TK, radiologia zabiegowa, medycyna nuklearna, radioterapia). Właśnie takie rozumienie limitu 20 mSv – jako narzędzia do planowania i kontroli narażenia – jest sednem profesjonalnej ochrony radiologicznej.

Pytanie 13

SPECT to

A. wielorzędowa tomografia komputerowa.
B. pozytonowa emisyjna tomografia komputerowa.
C. tomografia emisyjna pojedynczego fotonu.
D. komputerowa tomografia osiowa.
SPECT bardzo łatwo pomylić z innymi metodami obrazowania, bo wszystkie nazwy brzmią podobnie i wszędzie przewija się słowo „tomografia”. Jednak kluczowe jest, jak powstaje obraz. W tomografii komputerowej (TK, dawniej CAT – komputerowa tomografia osiowa) źródłem promieniowania jest lampa rentgenowska na gantrze, a detektory mierzą osłabienie wiązki przechodzącej przez ciało. To jest klasyczna metoda anatomiczna, oparta na promieniowaniu rentgenowskim, bez podawania radioaktywnego znacznika emitującego fotony z wnętrza organizmu. Dlatego odpowiedzi kojarzące SPECT z tomografią komputerową, zarówno tą tradycyjną, jak i wielorzędową (multislice CT), są merytorycznie błędne – to inna modalność, inne urządzenia, inne zasady fizyczne. Wielorzędowa TK to po prostu nowocześniejsza wersja klasycznej tomografii, z wieloma rzędami detektorów, umożliwiająca szybsze skanowanie i cieńsze warstwy, ale nadal nie ma nic wspólnego z emisyjną rejestracją fotonów gamma. Kolejne typowe pomieszanie dotyczy PET. Pozytonowa emisyjna tomografia komputerowa wykorzystuje radioizotopy emitujące pozytony, które anihilują z elektronami, dając parę fotonów 511 keV rejestrowanych w koincydencji przez pierścień detektorów. W SPECT nie ma ani pozytonów, ani anihilacji, ani detekcji w koincydencji – rejestrujemy pojedyncze fotony gamma emitowane bezpośrednio przez radiofarmaceutyk. Z mojego doświadczenia często spotykany błąd myślowy polega na tym, że skoro i PET, i SPECT, i TK robią przekroje, to ludzie wrzucają je do jednego worka. Tymczasem różnice mają ogromne znaczenie praktyczne: inne wskazania kliniczne, inne radiofarmaceutyki, inne wymagania ochrony radiologicznej i inne artefakty obrazu. Dobra praktyka w diagnostyce obrazowej wymaga świadomego rozróżniania metod emisyjnych (SPECT, PET) od transmisyjnych (RTG, TK) i zapamiętania prostego klucza: SPECT – pojedynczy foton gamma, PET – pozyton i para fotonów, TK – promieniowanie rentgenowskie z zewnątrz ciała.

Pytanie 14

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 8 mSv
B. 20 mSv
C. 15 mSv
D. 6 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 15

Ile razy i jak zmieni się wartość natężenia promieniowania X przy zwiększeniu odległości OF ze 100 cm do 200 cm?

A. Czterokrotnie się zmniejszy.
B. Dwukrotnie się zmniejszy.
C. Czterokrotnie się zwiększy.
D. Dwukrotnie się zwiększy.
W tym zadaniu kłopot zwykle bierze się z intuicji, że jak coś jest dalej, to „trochę słabnie”, ale bez dokładnego zrozumienia, jak szybko to słabnie. Natężenie promieniowania X nie zmienia się liniowo z odległością, tylko zgodnie z prawem odwrotności kwadratu odległości. Oznacza to, że jeżeli odległość od źródła zwiększamy dwa razy, to natężenie nie spada dwa razy, tylko cztery razy, bo liczy się kwadrat tej zmiany. Dlatego odpowiedzi mówiące o „dwukrotnym” zwiększeniu albo zmniejszeniu natężenia są oparte na błędnym założeniu, że zależność jest proporcjonalna do 1/d, a nie do 1/d². Taki błąd jest bardzo typowy, zwłaszcza gdy ktoś myśli bardziej „na czuja” niż przez pryzmat wzoru. W praktyce klinicznej w radiografii, jeżeli odległość ognisko–film (OF) zmienia się z 100 cm na 200 cm, odległość rośnie dwukrotnie. Gdyby natężenie zmieniało się proporcjonalnie do 1/d, można by dyskutować o spadku dwukrotnym, ale fizyka promieniowania mówi jasno: liczy się powierzchnia, na którą rozkładają się fotony. Powierzchnia kuli (albo wycinka wiązki) rośnie z kwadratem promienia, więc ta sama liczba fotonów jest rozsmarowana na cztery razy większej powierzchni. Stąd czterokrotny spadek, a nie dwukrotny. Z drugiej strony, pomysł, że natężenie przy zwiększeniu odległości mogłoby się „zwiększyć” (czy to dwukrotnie, czy czterokrotnie), jest sprzeczny z zasadami ochrony radiologicznej i zdrowym rozsądkiem: im dalej od źródła, tym bezpieczniej i tym mniej promieniowania dociera do danego punktu. Wyobrażenie, że odsuwając detektor dalej od lampy rentgenowskiej dostaniemy więcej promieniowania, kłóci się zarówno z doświadczeniem z pracowni RTG, jak i z oficjalnymi wytycznymi, które zalecają zwiększanie odległości jako jedną z podstawowych metod redukcji dawki dla personelu. Z mojego doświadczenia warto od razu skojarzyć: podwojenie odległości = czterokrotny spadek natężenia, a jeśli chcemy utrzymać ekspozycję, trzeba z grubsza czterokrotnie zwiększyć mAs. Dzięki temu unika się wielu błędów przy ustawianiu parametrów i lepiej rozumie się, jak geometria wpływa na dawkę i jakość obrazu.

Pytanie 16

Które urządzenie zostało przedstawione na fotografii i w jakiej pracowni znajduje zastosowanie?

Ilustracja do pytania
A. Kamera scyntygraficzna w pracowni medycyny nuklearnej.
B. Gammakamera w pracowni radioterapii.
C. Densytometr rentgenowski w pracowni medycyny nuklearnej.
D. Rentgenograf w pracowni rentgenowskiej.
Na zdjęciu widać klasyczną kamerę scyntygraficzną, często nazywaną też gammakamerą, używaną w pracowni medycyny nuklearnej. Charakterystyczny jest duży pierścień z głowicami detekcyjnymi oraz ruchomy stół pacjenta, który wsuwa się w obszar detekcji. W medycynie nuklearnej nie oświetlamy pacjenta z zewnątrz promieniowaniem, tylko wykorzystujemy promieniowanie gamma emitowane z wnętrza ciała po podaniu radiofarmaceutyku. Detektory kamery scyntygraficznej (zwykle kryształ NaI(Tl) i fotopowielacze) rejestrują to promieniowanie i tworzą obraz rozmieszczenia znacznika w narządach. Dzięki temu można ocenić nie tylko anatomię, ale przede wszystkim funkcję – np. perfuzję mięśnia sercowego, czynność tarczycy, perfuzję nerek, metabolizm kości. W praktyce klinicznej wykonuje się takie badania jak scyntygrafia kości, scyntygrafia perfuzyjna płuc, SPECT serca, SPECT mózgu. Moim zdaniem to właśnie jest główna przewaga medycyny nuklearnej nad klasycznym RTG: widzimy fizjologię, a nie tylko kształt narządu. Dobre praktyki wymagają tu m.in. prawidłowego doboru radiofarmaceutyku, kalibracji kolimatorów, kontroli jakości detektorów oraz właściwego pozycjonowania pacjenta, żeby uniknąć artefaktów ruchowych. W nowoczesnych pracowniach często stosuje się systemy hybrydowe SPECT/CT – z zewnątrz wyglądają podobnie, ale oprócz kamery scyntygraficznej mają zintegrowany tomograf komputerowy, co pozwala łączyć informację czynnościową z anatomiczną i dokładniej lokalizować zmiany patologiczne. Zdjęcie w pytaniu pokazuje właśnie typowy układ głowic scyntygraficznych wokół stołu, a nie klasyczny aparat RTG czy akcelerator do radioterapii.

Pytanie 17

Parametr SNR w obrazowaniu MR oznacza

A. rozmiar matrycy.
B. wielkość pola widzenia.
C. grubość obrazowanej warstwy.
D. stosunek sygnału do szumu.
Parametr SNR w obrazowaniu MR to stosunek sygnału do szumu (Signal to Noise Ratio) i jest jednym z absolutnie kluczowych pojęć przy ocenie jakości obrazów rezonansu. Mówiąc po ludzku: patrzymy, jak silny jest użyteczny sygnał pochodzący z tkanek pacjenta w porównaniu do przypadkowych zakłóceń, czyli szumu. Im wyższy SNR, tym obraz jest bardziej „czysty”, gładszy, z wyraźniejszym zarysem struktur anatomicznych i mniejszym ziarnem. Przy niskim SNR obraz robi się „ziarnisty”, poszarpany, trudniej odróżnić szczegóły, a diagnostyka staje się mniej pewna. W praktyce technik MR ciągle balansuje parametrami, które wpływają na SNR: zwiększenie grubości warstwy, liczby akwizycji (NEX/NSA), pola widzenia (FOV), czy zastosowanie odpowiednich cewek odbiorczych poprawia SNR, ale często kosztem rozdzielczości lub czasu badania. Z kolei zwiększenie rozdzielczości (większa matryca, mniejszy voxel) zwykle SNR obniża. Moim zdaniem ważne jest, żeby nie traktować SNR jako abstrakcyjnej liczby, tylko jako realne narzędzie do oceny, czy dana sekwencja nadaje się do wiarygodnej interpretacji. W wielu ośrodkach przyjmuje się minimalne wartości SNR dla konkretnych protokołów, tak żeby radiolog miał wystarczająco „czysty” obraz do opisu. W zaawansowanych systemach kontroli jakości MR SNR mierzy się regularnie na fantomach, żeby sprawdzać stabilność aparatu i wychwycić spadek jakości zanim zauważy go lekarz. W codziennej pracy, jeśli radiolog mówi, że „za dużo szumu na obrazach”, to w praktyce właśnie ma zastrzeżenia do zbyt niskiego SNR i trzeba tak dobrać parametry, żeby ten stosunek sygnału do szumu poprawić, nie tracąc przy tym istotnych informacji diagnostycznych.

Pytanie 18

Radioizotopowa terapia medycyny nuklearnej polega na wprowadzeniu do tkanek lub narządów radiofarmaceutyku

A. znajdującego się w odległości 100 cm od pacjenta.
B. emitującego promieniowanie γ ze źródeł otwartych.
C. znajdującego się w odległości 50 cm od pacjenta.
D. emitującego promieniowanie β ze źródeł otwartych.
Prawidłowo – istota radioizotopowej terapii w medycynie nuklearnej polega na podaniu radiofarmaceutyku emitującego głównie promieniowanie β ze źródeł otwartych, czyli takiego, który wnika do organizmu (do krwi, tkanek, narządów), a nie jest zamknięty w jakiejś osłonie czy aplikatorze. Promieniowanie beta ma stosunkowo krótki zasięg w tkankach (zwykle kilka milimetrów), dzięki czemu dawka pochłonięta koncentruje się w obrębie zmiany chorobowej – guza, przerzutów do kości, nadczynnego guzka tarczycy – a mniej uszkadza otaczające, zdrowe tkanki. To jest właśnie ten „terapeutyczny” efekt medycyny nuklearnej, w odróżnieniu od diagnostyki scyntygraficznej, gdzie ważniejsze jest promieniowanie γ rejestrowane przez gammakamerę. Typowy przykład z praktyki: leczenie nadczynności tarczycy radiojodem I-131 – izotop jest podawany doustnie, kumuluje się w tarczycy i dzięki emisji β niszczy komórki produkujące nadmiar hormonów. Inne przykłady to terapia przerzutów do kości z użyciem Sr-89 czy Sm-153, albo nowocześniejsze terapie receptorowe (np. 177Lu-DOTATATE w guzach neuroendokrynnych). We wszystkich tych przypadkach stosuje się źródła otwarte – radiofarmaceutyk krąży w organizmie i jest częściowo wydalany, dlatego obowiązują ścisłe zasady ochrony radiologicznej: wydzielone sale, kontrola skażeń, instrukcje dla pacjenta po wypisie. Moim zdaniem warto zapamiętać prostą zasadę: β = leczenie (terapia), γ = obrazowanie (diagnostyka), oczywiście z pewnymi wyjątkami, ale jako skrót myślowy działa całkiem dobrze.

Pytanie 19

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Odległość źródła promieniowania od detektora [cm].
B. Napięcie na lampie [kV].
C. Iloczyn natężenia promieniowania i czasu [mAs].
D. Filtracja [mm Al].
Prawidłowo wskazany parametr to napięcie na lampie [kV], bo to ono w praktyce najbardziej „rządzi” kontrastem obrazu rentgenowskiego. Z fizycznego punktu widzenia kV decyduje o energii fotonów promieniowania X. Im wyższe napięcie, tym bardziej przenikliwe promieniowanie, tym mniejsza różnica w pochłanianiu między tkankami o różnej gęstości i liczbie atomowej. Efekt jest taki, że kontrast maleje – obraz staje się bardziej „szary”, z mniejszym odróżnieniem struktur. Przy niższym kV fotony mają mniejszą energię, silniej ujawniają się różnice pochłaniania między np. kością a tkanką miękką, więc kontrast rośnie. W praktyce, w dobrych pracowniach RTG, dobór kV jest kluczowym elementem protokołu badania: do zdjęć klatki piersiowej u dorosłych stosuje się zwykle wyższe kV (np. 100–130 kV), żeby uzyskać niski kontrast, ale dobrą wizualizację całej objętości klatki i zmniejszyć dawkę. Natomiast do zdjęć kości, np. ręki czy stopy, używa się niższych napięć (55–65 kV), żeby podkreślić różnice między korą kostną, jamą szpikową i otaczającymi tkankami miękkimi. Moim zdaniem warto zapamiętać prostą zasadę: kV to przede wszystkim kontrast, a mAs to głównie jasność/zaszumienie (czyli ekspozycja). Oczywiście w praktyce wszystko się trochę przenika, ale w standardach radiologicznych i w podręcznikach fizyki medycznej właśnie tak to się uczy. Dobrą praktyką jest też to, że technik nie zmienia kV „na oko”, tylko trzyma się ustalonych protokołów dla danej projekcji i typu pacjenta, modyfikując kV świadomie, np. przy pacjencie otyłym albo u dziecka, pamiętając o wpływie na kontrast i dawkę.

Pytanie 20

Na którym obrazie TK uwidoczniony jest artefakt spowodowany ruchami oddechowymi pacjenta?

A. Obraz 1
Ilustracja do odpowiedzi A
B. Obraz 4
Ilustracja do odpowiedzi B
C. Obraz 3
Ilustracja do odpowiedzi C
D. Obraz 2
Ilustracja do odpowiedzi D
Prawidłowo wskazany jest obraz 1. Na tym przekroju TK widać bardzo charakterystyczne, „pofalowane”, zygzakowate zniekształcenie konturów tkanek miękkich i ścian jamy brzusznej, jakby ktoś przesunął fragment obrazu w bok. Struktury anatomiczne nie są ostro odcięte, tylko rozciągnięte i nieregularne w kierunku osi Z i częściowo w płaszczyźnie obrazu. To typowy artefakt ruchowy wynikający z oddychania pacjenta w trakcie akwizycji danych. W TK brzucha i klatki piersiowej ruch oddechowy przepony oraz przesuwanie się narządów (wątroba, śledziona, jelita) powoduje, że kolejne projekcje są zbierane z narządami w nieco innym położeniu. Rekonstrukcja takiego „mieszanego” zestawu danych skutkuje właśnie takim falowaniem, rozmyciem, czasem podwójnymi konturami. W praktyce, zgodnie z dobrymi standardami (ESR, wytyczne producentów skanerów), badając jamę brzuszną prosimy pacjenta o wstrzymanie oddechu na czas skanu, stosujemy krótkie czasy rotacji lampy, odpowiednio dobraną kolimację i pitch, żeby skrócić czas zbierania danych. U pacjentów, którzy mają problem ze współpracą (np. dzieci, osoby z dusznością), często warto rozważyć techniki niskodawkowe z bardzo szybkim skanem, a czasem nawet sedację. Moim zdaniem kluczowe jest też dokładne wytłumaczenie pacjentowi przed badaniem, jak ma oddychać i kiedy przestać, bo to w prosty sposób zmniejsza ryzyko takich artefaktów i poprawia jakość diagnostyczną obrazów.

Pytanie 21

Wiązka elektronów najczęściej stosowana jest do leczenia zmian nowotworowych w obrębie

A. macicy.
B. skóry i płytko pod skórą.
C. prostaty.
D. płuc.
Prawidłowo wskazana odpowiedź „skóry i płytko pod skórą” idealnie oddaje główne zastosowanie kliniczne wiązki elektronów w radioterapii. Elektrony mają stosunkowo mały zasięg w tkankach – ich dawka rośnie szybko od powierzchni, osiąga maksimum na kilku–kilkunastu milimetrach głębokości, a potem gwałtownie spada. Moim zdaniem to jest właśnie najważniejszy parametr, który trzeba kojarzyć: krótki zasięg i oszczędzanie głębiej położonych narządów. Dlatego w standardach radioterapii (np. zalecenia ESTRO, krajowe rekomendacje) elektrony stosuje się głównie do leczenia zmian powierzchownych: rak skóry, przerzuty skórne, naciekające blizny pooperacyjne, węzły chłonne leżące płytko, blizna po mastektomii, czasem kikut piersi. W praktyce planowania leczenia fizyk medyczny dobiera energię wiązki elektronów (np. 6 MeV, 9 MeV, 12 MeV) tak, żeby maksymalna dawka pokrywała guz, ale nie „przebijała” zbyt głęboko. To jest właśnie przewaga nad fotonami, które penetrują głęboko i oddają istotną dawkę w narządach położonych za guzem. Wiązka elektronowa pozwala np. napromieniać rozległy rak skóry na czaszce, minimalizując dawkę w mózgu, albo zmiany skórne na klatce piersiowej z ograniczeniem dawki w płucach. Dobrą praktyką jest też stosowanie bolusa (materiału dosłownie położonego na skórze), żeby „przesunąć” maksimum dawki bliżej powierzchni, gdy zmiana jest bardzo płytka. Warto zapamiętać: jak widzisz zmianę nowotworową w skórze lub do ok. 3–4 cm pod skórą, w głowie od razu powinna zapalić się lampka – to potencjalne pole do zastosowania elektronów, oczywiście po weryfikacji onkologicznej i fizycznej.

Pytanie 22

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
Wysoka rozdzielczość przestrzenna w obrazowaniu MR zależy tak naprawdę od dwóch kluczowych parametrów: wielkości pola widzenia (FoV, field of view) oraz rozmiaru matrycy, czyli liczby pikseli w kierunku fazowym i częstotliwościowym. Prawidłowa odpowiedź – zmniejszenie FoV i jednoczesne zwiększenie matrycy – oznacza, że pojedynczy piksel reprezentuje mniejszy fragment tkanki. Innymi słowy, voxel ma mniejsze wymiary w płaszczyźnie obrazowania, więc lepiej widzimy drobne szczegóły anatomiczne, np. nerwy, drobne ogniska demielinizacji czy małe zmiany guzowate. Technicznie patrząc, rozdzielczość przestrzenną w MR opisuje się jako FoV / liczba elementów matrycy. Im mniejszy ten iloraz, tym wyższa rozdzielczość. Standardem w dobrych pracowniach jest świadome dobieranie FoV do badanego obszaru: np. dla badania przysadki czy oczodołów stosuje się małe FoV i wysoką matrycę (np. 256×256 lub 320×320), żeby dokładnie ocenić drobne struktury. Dla kręgosłupa lędźwiowego czy jamy brzusznej FoV jest większe, ale jeśli zależy nam na szczegółach (np. w onkologii), także podnosi się matrycę, akceptując dłuższy czas skanowania lub niższy SNR. Z mojego doświadczenia technicznego wynika, że w praktyce często trzeba szukać kompromisu między rozdzielczością, czasem badania a stosunkiem sygnału do szumu (SNR). Zmniejszenie FoV i zwiększenie matrycy poprawia rozdzielczość, ale może pogarszać SNR i wydłużać czas. Dlatego w dobrych praktykach pracowni MR zawsze dopasowuje się te parametry do konkretnego wskazania klinicznego, zamiast używać jednego „uniwersalnego” protokołu. Mimo tego kompromisu, zasada fizyczna pozostaje jasna: małe FoV + duża matryca = wysoka rozdzielczość przestrzenna.

Pytanie 23

Podczas badania gammakamerą źródłem promieniowania jest

A. detektor.
B. kolimator.
C. fotopowielacz.
D. pacjent.
Poprawnie – w klasycznym badaniu gammakamerą to pacjent jest faktycznym źródłem promieniowania. Do organizmu podaje się radiofarmaceutyk, czyli związek chemiczny połączony z radioizotopem (np. technet-99m). Ten izotop emituje promieniowanie gamma z wnętrza ciała. Gammakamera nic sama nie „wysyła” w stronę pacjenta, ona tylko rejestruje to, co wychodzi z organizmu. To jest podstawowa różnica między medycyną nuklearną a np. RTG – w RTG źródłem promieniowania jest lampa rentgenowska, a w scyntygrafii źródłem staje się sam pacjent po podaniu radiofarmaceutyku. W praktyce klinicznej pozwala to ocenić funkcję narządów, a nie tylko ich anatomię. Przykład: w scyntygrafii kości radiofarmaceutyk gromadzi się tam, gdzie jest zwiększony metabolizm kostny, więc na obrazie widzimy „gorące ogniska” np. przerzutów. W scyntygrafii perfuzyjnej płuc oceniamy przepływ krwi przez miąższ płucny na podstawie rozmieszczenia znacznika. Wszystko to jest możliwe właśnie dlatego, że promieniowanie wychodzi z wnętrza ciała, a nie z zewnątrz. Z mojego doświadczenia wielu uczniów myli to z RTG i myśli, że gammakamera świeci jak lampa, a pacjent tylko „pochłania”. A jest dokładnie odwrotnie: pacjent świeci (w sensie emituje kwanty gamma), a kamera je łapie. Z punktu widzenia ochrony radiologicznej też się tak go traktuje – po podaniu radioizotopu pacjent jest traktowany jak źródło promieniowania i obowiązują określone zasady postępowania, ograniczanie czasu przebywania personelu blisko pacjenta, zalecenia wypisowe dla chorego itp. To jest standard w medycynie nuklearnej, opisany w wytycznych IAEA, EANM i krajowych rekomendacjach.

Pytanie 24

Fala głosowa rozchodzi się

A. w cieczach i próżni.
B. w gazach, cieczach i próżni.
C. w gazach i cieczach.
D. w gazach i próżni.
Poprawnie – fala głosowa, czyli fala akustyczna, w fizyce jest falą mechaniczną. To znaczy, że do swojego rozchodzenia się potrzebuje ośrodka materialnego, w którym cząsteczki mogą drgać i przekazywać energię dalej. Takim ośrodkiem mogą być gazy (np. powietrze), ciecze (np. woda) albo ciała stałe. W próżni nie ma cząsteczek, więc nie ma co drgać i klasyczna fala dźwiękowa po prostu nie może się tam rozchodzić. Dlatego odpowiedź „w gazach i cieczach” jest merytorycznie poprawna, chociaż warto pamiętać, że w rzeczywistości dźwięk rozchodzi się też w ciałach stałych. W praktyce medycznej i okołomedycznej ma to spore znaczenie. W audiometrii, badaniach słuchu czy przy kalibracji sprzętu do pomiaru hałasu zakłada się, że fala dźwiękowa biegnie głównie w powietrzu, czyli w gazie. Z kolei w ultrasonografii medycznej wykorzystujemy rozchodzenie się fal mechanicznych w tkankach, które fizycznie zachowują się jak różne ciecze i ciała stałe – stąd żel USG, żeby poprawić sprzężenie między głowicą a skórą, bo powietrze bardzo słabo przewodzi ultradźwięki. Moim zdaniem to jedno z tych prostych pytań, które później ułatwia zrozumienie, czemu np. badanie USG nie działa w powietrzu i czemu w kosmosie, w próżni, nie „słychać” eksplozji mimo że mogą emitować promieniowanie elektromagnetyczne. W dobrych praktykach technicznych zawsze rozróżniamy fale mechaniczne (wymagające ośrodka, jak dźwięk) od fal elektromagnetycznych (np. promieniowanie RTG, radiowe), które mogą iść w próżni.

Pytanie 25

Folia wzmacniająca umieszczona w kasecie rentgenowskiej emituje pod wpływem promieniowania X światło

A. widzialne, wymagające zwiększenia dawki promieniowania do wykonania badania.
B. ultrafioletowe, wymagające zwiększenia dawki promieniowania do wykonania badania.
C. widzialne, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
D. ultrafioletowe, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
Prawidłowo – folia wzmacniająca (ekran wzmacniający) w kasecie rentgenowskiej emituje światło widzialne, a jej głównym zadaniem jest właśnie umożliwienie zmniejszenia dawki promieniowania X potrzebnej do wykonania zdjęcia. Promieniowanie rentgenowskie pada na folię, a kryształy luminoforu (np. wolframian wapnia w starszych kasetach albo związki ziem rzadkich – gadolinu, lantanu – w nowoczesnych) pochłaniają fotony X i zamieniają ich energię na błysk światła widzialnego. To światło naświetla film dużo efektywniej niż same fotony X, dlatego do uzyskania odpowiedniej czerni na filmie wystarczy znacznie mniejsza dawka promieniowania. W praktyce klinicznej oznacza to realne obniżenie narażenia pacjenta – w klasycznych systemach analogowych nawet kilkukrotne. Moim zdaniem to jeden z podstawowych przykładów, jak fizyka medyczna przekłada się na ochronę radiologiczną w codziennej pracy. W nowoczesnych kasetach CR/DR idea jest podobna: mamy warstwę fosforową lub detektor półprzewodnikowy, który też ma za zadanie jak najlepiej „wyłapać” fotony X i przekształcić je w sygnał (świetlny lub elektryczny), żeby nie trzeba było sztucznie podkręcać dawki. Ważna dobra praktyka: zawsze dobiera się kasetę i rodzaj folii do typu badania (np. folie o większej czułości do badań pediatrycznych), właśnie po to, żeby zgodnie ze standardem ALARA (As Low As Reasonably Achievable) trzymać dawki jak najniższe przy zachowaniu diagnostycznej jakości obrazu. Widać to choćby przy zdjęciach klatki piersiowej – odpowiednio dobrany ekran wzmacniający pozwala skrócić czas ekspozycji, zmniejszyć dawkę i jednocześnie ograniczyć poruszenie obrazu.

Pytanie 26

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
B. ze źródeł umieszczonych tylko na skórze pacjenta.
C. cząsteczkowym pochodzącym z akceleratora.
D. fotonowym pochodzącym z akceleratora.
Brachyterapia często myli się ludziom z klasycznym napromienianiem z akceleratora liniowego, czyli teleradioterapią. To prowadzi do przekonania, że skoro w radioterapii używa się fotonów i cząstek z akceleratora, to brachyterapia też musi tak działać. Tymczasem jest odwrotnie: w brachyterapii kluczowe nie jest to, jaki dokładnie rodzaj promieniowania wychodzi z urządzenia zewnętrznego, tylko to, że mamy zamknięte źródło promieniowania umieszczone bardzo blisko guza albo bezpośrednio w nim. Nie stosuje się tu napromieniania z odległego akceleratora, tylko specjalne źródła radioizotopowe wprowadzane aplikatorami, igłami czy implantami. To, że w odpowiedziach pojawia się promieniowanie fotonowe lub cząsteczkowe „pochodzące z akceleratora”, jest typowym uproszczeniem: tak działa teleterapia, gdzie wiązka promieniowania wytwarzana jest w akceleratorze liniowym i kierowana z zewnątrz na pacjenta. W brachyterapii też możemy mieć promieniowanie fotonowe (gamma) lub cząsteczkowe (np. elektrony beta), ale jego źródło to izotop umieszczony w ciele chorego, a nie głowica akceleratora stojącego parę metrów od stołu. Kolejny częsty błąd to mylenie brachyterapii z prostym naświetlaniem skóry. Owszem, istnieją techniki powierzchowne, ale nie ograniczają się one tylko do położenia źródła na skórze. Najważniejsze jest pojęcie „bezpośredniego sąsiedztwa lub wnętrza napromienianych tkanek”. W praktyce oznacza to, że w raku szyjki macicy aplikator jest w jamie macicy i pochwie, w raku prostaty igły lub ziarenka izotopu są wkłuwane do gruczołu, a w niektórych guzach piersi stosuje się implanty śródtkankowe. Typowym błędem myślowym jest patrzenie wyłącznie na rodzaj promieniowania (fotonowe vs cząsteczkowe), zamiast na geometrię napromieniania i lokalizację źródła. W radioterapii zawsze warto najpierw zadać sobie pytanie: skąd wychodzi promieniowanie – z zewnątrz czy z wnętrza ciała pacjenta? Jeśli z wnętrza lub z bezpośredniego sąsiedztwa guza, to mówimy o brachyterapii, a nie o klasycznym napromienianiu z akceleratora.

Pytanie 27

Największa wartość energii promieniowania stosowanego w radioterapii jest generowana przy użyciu

A. aparatu kobaltowego.
B. przyspieszacza liniowego.
C. aparatu rentgenowskiego.
D. radioaktywnego cezu-137.
Prawidłowo wskazany został przyspieszacz liniowy, bo to właśnie linac jest podstawowym źródłem najwyższych energii promieniowania stosowanych we współczesnej teleradioterapii. Typowy aparat kobaltowy (Co‑60) emituje promieniowanie gamma o stałej energii około 1,17–1,33 MeV, natomiast przyspieszacz liniowy generuje wiązki fotonowe o energiach nominalnych 4, 6, 10, 15, a nawet 18 MV, a także wiązki elektronowe o różnych energiach do leczenia zmian powierzchownych. Dzięki temu można dobrać energię do głębokości guza, uzyskać odpowiedni rozkład dawki i lepiej oszczędzić tkanki zdrowe. W praktyce klinicznej, zgodnie ze standardami nowoczesnej radioterapii, większość planów leczenia nowotworów głęboko położonych (np. rak płuca, rak prostaty, guzy głowy i szyi) wykonuje się właśnie na linacach, często w technikach IMRT, VMAT czy stereotaksji. Moim zdaniem kluczowe jest zrozumienie, że wysoka energia wiązki z przyspieszacza liniowego pozwala na tzw. efekt build‑up – maksymalna dawka pojawia się pod powierzchnią skóry, co zmniejsza jej uszkodzenie. Aparat rentgenowski do klasycznych zdjęć RTG pracuje na znacznie niższych napięciach (rzędu 30–150 kV), więc jego promieniowanie ma dużo mniejszą energię fotonów i nie nadaje się do głębokiego leczenia onkologicznego. Cez‑137 i kobalt‑60 są używane głównie w starszych typach teleterapii lub w brachyterapii, ale także nie osiągają tak szerokiego zakresu energii jak linac. W dobrze wyposażonych ośrodkach onkologicznych przyspieszacz liniowy jest dziś złotym standardem, właśnie ze względu na możliwość generowania najwyższych energii promieniowania terapeutycznego oraz precyzyjną modulację dawki w przestrzeni i czasie.

Pytanie 28

Podstawowym elementem diagnostycznym aparatury izotopowej wykorzystującej emisyjne metody pomiaru jest

A. komora jonizacyjna.
B. woltomierz.
C. amperomierz.
D. kamera scyntylacyjna.
Prawidłową odpowiedzią jest kamera scyntylacyjna, bo to właśnie ona stanowi podstawowy element diagnostyczny w aparaturze izotopowej wykorzystującej emisyjne metody pomiaru. W emisyjnych technikach medycyny nuklearnej źródłem promieniowania jest radioizotop podany pacjentowi, a zadaniem układu pomiarowego jest rejestracja promieniowania gamma wychodzącego z organizmu. Kamera scyntylacyjna (gammakamera) zamienia te kwanty promieniowania na błyski światła w krysztale scyntylacyjnym (najczęściej NaI(Tl)), a potem na sygnał elektryczny w fotopowielaczach. Na tej podstawie system tworzy obraz rozkładu radiofarmaceutyku w ciele. To właśnie ten element decyduje o jakości diagnostycznej badania: rozdzielczości przestrzennej, czułości detekcji, możliwości wykonywania projekcji planarnych i badań SPECT. W praktyce klinicznej kamera scyntylacyjna jest sercem całego zestawu – reszta aparatury (kolimatory, układy akwizycji, oprogramowanie) tylko wspiera jej działanie. Z mojego doświadczenia to na ustawieniu parametrów pracy kamery, doborze odpowiedniego kolimatora i właściwej energii okna fotopiku opiera się większość dobrej praktyki w scyntygrafii. W nowoczesnych pracowniach standardem jest używanie kamer scyntylacyjnych sprzężonych z TK (SPECT/CT), ale wciąż kluczowy element emisyjny to właśnie detektor scyntylacyjny. Bez niego mamy co najwyżej licznik promieniowania, a nie rzeczywiste narzędzie diagnostyki obrazowej zgodne z wytycznymi medycyny nuklearnej.

Pytanie 29

Źródłem promieniowania protonowego stosowanego w radioterapii jest

A. cyberknife.
B. bomba kobaltowa.
C. przyspieszacz liniowy.
D. cyklotron.
W tym pytaniu łatwo pomylić różne źródła promieniowania stosowane w radioterapii, bo na pierwszy rzut oka wszystkie wydają się „maszynami do naświetlania”. Kluczowe jest jednak rozróżnienie, jakie cząstki lub fotony generuje dane urządzenie i na jakiej zasadzie pracuje. Radioterapia protonowa to terapia z użyciem ciężkich naładowanych cząstek – protonów – które wymagają specjalnego akceleratora cząstek. Taki akcelerator musi nadać protonom energię pozwalającą dotrzeć na wymaganą głębokość w ciele pacjenta i wytworzyć tam pik Bragga, czyli charakterystyczne maksimum dawki. Tym zajmują się cyklotrony lub synchrotrony, a nie typowe maszyny z klasycznej radioterapii fotonowej. Częsty błąd polega na wrzuceniu do jednego worka wszystkich zaawansowanych technologicznie aparatów, takich jak cyberknife. Cyberknife brzmi bardzo nowocześnie i kojarzy się z precyzją, ale fizycznie jest to niewielki przyspieszacz liniowy generujący wysokoenergetyczne promieniowanie X, zamontowany na robocie. To dalej terapia fotonowa, tylko z bardzo zaawansowanym systemem pozycjonowania i planowania, a nie protonoterapia. Podobnie bomba kobaltowa, historycznie bardzo ważna w teleterapii, wykorzystuje promieniowanie gamma emitowane przez izotop kobaltu-60. Jest to promieniowanie fotonowe o stałej energii, bez możliwości modulacji energii wiązki tak jak w akceleratorach cząstek. Z tego powodu bomba kobaltowa absolutnie nie jest źródłem protonów. Przyspieszacz liniowy również bywa wskazywany z przyzwyczajenia, bo to podstawowe urządzenie na większości oddziałów radioterapii. Jednak klasyczny linak medyczny przyspiesza elektrony w linii prostej i wytwarza promieniowanie X w głowicy terapeutycznej. Nie ma tam toru dla protonów ani odpowiedniej konstrukcji optyki wiązki protonowej. To jest typowy przykład błędu myślowego: „skoro to przyspieszacz, to na pewno też protony”. W praktyce klinicznej protonoterapii używa się wyspecjalizowanych akceleratorów hadronowych (cyklotronów, synchrotronów), a nie standardowych linaków czy bomb kobaltowych. Dlatego tylko cyklotron odpowiada wymaganiom pytania jako źródło wiązki protonowej stosowanej w radioterapii.

Pytanie 30

Która przyczyna spowodowała powstanie artefaktu widocznego na zamieszczonym obrazie MR?

Ilustracja do pytania
A. Nieprawidłowa kalibracja aparatu.
B. Zły dobór cewki gradientowej.
C. Wymiary obiektu przekroczyły pole widzenia.
D. Niejednorodność pola magnetycznego.
W tego typu pytaniu łatwo pójść w stronę skomplikowanych wyjaśnień o sprzęcie, a tymczasem problem jest czysto geometryczny. Artefakt widoczny na obrazie MR nie wynika ani ze złego doboru cewki gradientowej, ani z nieprawidłowej kalibracji aparatu, ani z ogólnej niejednorodności pola magnetycznego, tylko z faktu, że badany obszar jest większy niż ustawione pole widzenia. Z mojego doświadczenia wielu uczniów automatycznie obwinia gradienty, bo kojarzą je z zniekształceniami obrazu, ale w nowoczesnych systemach dobór cewki gradientowej jest z góry narzucony przez konstrukcję skanera. Operator nie wybiera sobie innej cewki gradientowej do głowy czy brzucha – gradienty są integralną częścią gantry. Dlatego „zły dobór cewki gradientowej” praktycznie nie występuje jako przyczyna pojedynczego artefaktu na jednym badaniu, raczej jako poważna wada konstrukcyjna, która psułaby wszystkie obrazy. Podobnie z kalibracją aparatu: błędna kalibracja zwykle daje globalne problemy jakościowe, niestabilność sygnału, błędy w geometrii całego badania, a nie lokalne „obcięcie” struktur przy krawędzi pola widzenia. Takie zjawisko jest typowe dla źle dobranego FOV, a nie dla offsetu kalibracyjnego. Niejednorodność pola magnetycznego z kolei daje inne typowe artefakty: zniekształcenia geometryczne przy granicy powietrze–kość, przemieszczenia sygnału, deformacje w sekwencjach EPI, ale nie efekt dosłownego urwania obrazu poza pewnym obszarem. To jest częsty błąd myślowy: skoro coś wygląda nienaturalnie, to „na pewno magnes jest nierówny”. Tymczasem tu kluczowe jest zrozumienie relacji między FOV, macierzą i rozmiarem pacjenta. Jeśli obiekt jest większy niż FOV, część sygnału aliasuje się, czyli nakłada na obraz, albo po prostu nie jest obrazowana. Właśnie dlatego w dobrych praktykach MR tak duży nacisk kładzie się na poprawne ustawienie scoutów, sprawdzenie, czy cała anatomia mieści się w polu widzenia, i dopiero potem uruchomienie właściwych sekwencji. Gdy się o tym pamięta, większości takich artefaktów można spokojnie uniknąć.

Pytanie 31

Jakie wiązki promieniowania emituje medyczny akcelerator liniowy?

A. Fotonowe i elektronowe.
B. Fotonowe i protonowe.
C. Protonowe i neutronowe.
D. Elektronowe i neutronowe.
Medyczny akcelerator liniowy w radioterapii bywa mylony z innymi typami akceleratorów cząstek, co prowadzi do różnych ciekawych, ale jednak błędnych skojarzeń. W odpowiedziach pojawiają się protony i neutrony, bo kojarzą się z nowoczesnymi metodami leczenia onkologicznego. W praktyce klinicznej klasyczny linac, jaki stoi na typowym oddziale radioterapii, generuje wyłącznie elektrony i pośrednio z nich – promieniowanie fotonowe o wysokiej energii. Żadne protony czy neutrony nie są tam terapeutycznie emitowane jako wiązka użytkowa. Protony wykorzystuje się w tzw. protonoterapii, ale do tego służą specjalne instalacje: cyklotrony, synchrotrony, gantry protonowe. To jest osobna gałąź radioterapii, z inną fizyką dawki (pik Bragga), inną infrastrukturą osłonową i zupełnie innym kosztem. Myląc akcelerator liniowy z ośrodkiem protonowym, pomijamy bardzo ważną różnicę techniczną: w linacu tor przyspieszania jest liniowy, a konstrukcja zoptymalizowana jest właśnie pod kątem wiązek fotonowych i elektronowych. Neutrony natomiast nie są w standardzie terapeutycznym w teleterapii megawoltowej. Owszem, przy bardzo wysokich energiach fotonów mogą powstawać tzw. neutrony fotoprodukowane, ale traktuje się je jako niepożądane promieniowanie uboczne, uwzględniane w ochronie radiologicznej, a nie jako wiązkę leczniczą. Dlatego skojarzenie „protonowe i neutronowe” albo „elektronowe i neutronowe” wynika zwykle z mieszania pojęć: ktoś słyszał o terapiach cząstkami naładowanymi albo o promieniowaniu neutronowym w reaktorach, i przenosi to automatycznie na zwykły akcelerator liniowy. Z punktu widzenia poprawnej fizyki medycznej i standardów radioterapii, prawidłowy zestaw wiązek z linaca to: fotony megawoltowe do leczenia głębokich guzów i elektrony o różnych energiach do zmian powierzchownych. To właśnie na tych dwóch typach promieniowania opiera się codzienna praca większości ośrodków radioterapii.

Pytanie 32

Czas połowicznego zaniku jest wykorzystywany

A. w medycynie nuklearnej.
B. w teleradioterapii.
C. w tomografii komputerowej.
D. w rentgenografii.
Prawidłowo – czas połowicznego zaniku (okres półtrwania) to pojęcie absolutnie kluczowe właśnie w medycynie nuklearnej. Opisuje on, w jakim czasie aktywność promieniotwórcza danego radionuklidu spada o połowę. W praktyce oznacza to, że po jednym czasie połowicznego zaniku mamy 50% wyjściowej aktywności, po dwóch – 25%, po trzech – 12,5% itd. W medycynie nuklearnej trzeba brać pod uwagę zarówno fizyczny czas połowicznego zaniku (rozpad jądra atomowego), jak i biologiczny czas półtrwania (eliminacja radiofarmaceutyku z organizmu), a w planowaniu badań często korzysta się z tzw. efektywnego czasu połowicznego zaniku, który łączy oba te procesy. Dzięki temu można prawidłowo dobrać dawkę radiofarmaceutyku do scyntygrafii, PET czy terapii izotopowej (np. jodem-131 w leczeniu nadczynności tarczycy lub raka tarczycy), tak żeby uzyskać wystarczająco dobrą jakość obrazu, a jednocześnie nie narażać pacjenta na niepotrzebnie dużą dawkę promieniowania. W standardach medycyny nuklearnej ogromny nacisk kładzie się na świadome dobieranie izotopu o odpowiednim okresie półtrwania: do diagnostyki preferuje się radionuklidy o krótkim czasie połowicznego zaniku (np. technet-99m, fluor-18), które szybko się rozpadają i zmniejszają narażenie po badaniu, natomiast w terapii można stosować izotopy o dłuższym okresie, żeby efekt terapeutyczny utrzymywał się wystarczająco długo w tkance nowotworowej. Z mojego doświadczenia uczenia się do egzaminów, zrozumienie tego pojęcia bardzo ułatwia ogarniecie, dlaczego konkretne radioizotopy wybiera się do konkretnych procedur i czemu w opisach badań zawsze pojawia się informacja o aktywności w MBq i momencie jej podania. To nie jest sucha teoria, tylko realny fundament bezpiecznego i sensownego planowania badań i terapii radioizotopowych.

Pytanie 33

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
Prawidłowo – wysoka rozdzielczość przestrzenna w MR zależy głównie od wielkości piksela, a ten wynika z relacji: rozmiar piksela = FoV / matryca obrazująca (osobno w kierunku X i Y). Jeśli zmniejszamy FoV i jednocześnie zwiększamy matrycę, to dzielimy mniejszy obszar na większą liczbę elementów, więc każdy piksel reprezentuje mniejszy fragment ciała. To właśnie daje lepszą zdolność do rozróżniania drobnych struktur, czyli wyższą rozdzielczość przestrzenną. W praktyce technik MR, planując badanie, bardzo często świadomie zmniejsza FoV dla małych struktur, np. nadgarstka, kolana, przysadki mózgowej czy drobnych zmian w kręgosłupie, i ustawia możliwie dużą matrycę (np. 320×320, 512×512), oczywiście w granicach czasu badania i dostępnego SNR. Standardy pracy w pracowniach rezonansu, zalecane przez producentów skanerów i towarzystwa radiologiczne, mówią wprost: jeśli chcesz poprawić szczegółowość obrazu, manipuluj FoV i rozdzielczością matrycy, pamiętając o kompromisie z SNR i czasem akwizycji. Moim zdaniem to jedno z kluczowych ustawień, które odróżnia „byle jakie” badanie od naprawdę diagnostycznego. Warto też pamiętać, że przy bardzo małym FoV trzeba uważać na aliasing (zawijanie obrazu), dlatego często stosuje się techniki antyaliasingowe lub oversampling. Zwiększenie matrycy zwykle wydłuża czas sekwencji, więc w praktyce szuka się złotego środka: tak dobra rozdzielczość, żeby lekarz widział szczegóły, ale jednocześnie akceptowalny czas badania i poziom szumów. Dobrą praktyką jest też różnicowanie parametrów: inne FoV i matryca dla sekwencji przeglądowych, a inne – bardziej „wyżyłowane” – dla sekwencji celowanych na konkretną zmianę.

Pytanie 34

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. elektrony atomów wodoru.
B. protony atomów tlenu.
C. elektrony atomów tlenu.
D. protony atomów wodoru.
Prawidłowo wskazane zostały protony atomów wodoru, czyli dokładnie to, na czym opiera się klasyczna metoda rezonansu magnetycznego wykorzystywana w medycynie. W obrazowaniu MR wykorzystuje się zjawisko jądrowego rezonansu magnetycznego (NMR). W praktyce oznacza to, że w silnym polu magnetycznym jądra wodoru (protony) ustawiają się zgodnie lub przeciwnie do kierunku pola. Następnie aparat wysyła fale radiowe (impuls RF), które wybijają te protony z ich równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego i w tym procesie emitują sygnał, który jest rejestrowany przez cewki odbiorcze. To właśnie ten sygnał jest potem przeliczany komputerowo na obraz przekrojowy ciała. W tkankach ludzkiego organizmu jest bardzo dużo wody i tłuszczu, a więc bardzo dużo atomów wodoru – dlatego MR jest tak czuły na różnice w nawodnieniu i składzie tkanek. W praktyce klinicznej wykorzystuje się to np. do oceny zmian w mózgu (udar, stwardnienie rozsiane), stawach, kręgosłupie, narządach jamy brzusznej. Różne sekwencje (T1, T2, PD, FLAIR, DWI itd.) bazują cały czas na tym samym zjawisku: relaksacji protonów wodoru i różnicach w czasach relaksacji T1 i T2 w różnych tkankach. Z mojego doświadczenia, jak raz się zrozumie, że MR „słucha” protonów wodoru w polu magnetycznym, to dużo łatwiej ogarnąć, dlaczego metal w ciele pacjenta jest problemem, czemu ważne jest jednorodne pole magnetyczne i czemu obecność wody w tkankach tak mocno wpływa na kontrast obrazu. To jest absolutna podstawa fizyki rezonansu, którą warto mieć dobrze poukładaną, bo przewija się wszędzie w diagnostyce obrazowej.

Pytanie 35

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, rozpuszczalne w wodzie.
B. Środki na bazie gadolinu.
C. Jodowe, nierozpuszczalne w wodzie.
D. Środki na bazie siarczanu baru.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 36

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. tomografii komputerowej, wykonane w fazie oddechowej.
B. klasycznej rentgenografii, wykonane w fazie oddechowej.
C. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
D. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 37

W metodzie RM (rezonansu magnetycznego) po umieszczeniu pacjenta w silnym, stałym polu magnetycznym dochodzi do oddziaływania

A. fal radiowych o ściśle określonej częstotliwości z jądrami atomów wodoru.
B. wiązki protonów z jądrami atomów wodoru i tlenu.
C. wiązki protonów z jądrami atomów wodoru.
D. fal radiowych o ściśle określonej częstotliwości z jądrami atomów wodoru i tlenu.
W rezonansie magnetycznym łatwo pomylić kilka pojęć, szczególnie jeśli kojarzy się badania obrazowe głównie z promieniowaniem jonizującym. W MR nie wykorzystuje się wiązki protonów wysyłanej w stronę pacjenta, więc mówienie o oddziaływaniu „wiązki protonów” z jądrami wodoru lub wodoru i tlenu jest po prostu fizycznie niepoprawne. Protony, o których mówimy w MR, to jądra atomów wodoru obecne w tkankach pacjenta, a nie żadna zewnętrzna wiązka cząstek, jak w akceleratorze czy w niektórych typach terapii protonowej. Cały układ polega na tym, że te wewnętrzne protony ustawiają się w silnym, stałym polu magnetycznym, a następnie są pobudzane przez zewnętrzne fale radiowe. Drugi częsty błąd to włączanie tlenu do opisu zjawiska podstawowego. Tlen oczywiście występuje w organizmie i jest ważny biologicznie, ale z punktu widzenia klasycznego obrazowania MR standardowo wykorzystuje się rezonans jąder wodoru, bo to one są najliczniejsze (woda, tłuszcz) i dają silny sygnał. Jądra tlenu nie są w rutynowej pracy klinicznej celem obrazowania w konwencjonalnym MRI, więc mówienie o oddziaływaniu fal radiowych z jądrami wodoru i tlenu jest mylące i sugeruje technikę, której się po prostu na co dzień nie stosuje. Typowym schematem błędnego rozumowania jest przenoszenie intuicji z radiografii czy tomografii komputerowej na MR: tam rzeczywiście mamy wiązkę promieniowania (fotony X), która „pada” na ciało. W MR nic takiego nie ma – jest stałe pole magnetyczne i impulsy RF o konkretnej częstotliwości rezonansowej. Z mojego doświadczenia wynika, że dopiero jasne oddzielenie: w TK – promieniowanie jonizujące, w MR – pole magnetyczne i fale radiowe, pozwala uniknąć takich pomyłek na egzaminach i w praktyce. W dobrych praktykach opisuje się MRI właśnie jako metodę opartą na rezonansie jąder wodoru w polu magnetycznym, bez udziału wiązek cząstek czy obrazowania rutynowego innych jąder, jak tlen.

Pytanie 38

Zgodnie z obowiązującymi przepisami powierzchnia gabinetu rentgenowskiego, w którym jest zainstalowany zestaw rentgenowski do badań naczyniowych, powinna wynosić

A. 15 m²
B. 25 m²
C. 20 m²
D. 8 m²
Prawidłowo – dla gabinetu rentgenowskiego z zestawem do badań naczyniowych obowiązujące przepisy wymagają powierzchni co najmniej 25 m². Wynika to z charakteru badań naczyniowych: mamy tu duży stół angiograficzny, ruchome ramię C lub inny tor obrazowania, zasilacze, pompy kontrastu, często dodatkowe monitory, a do tego cały zespół: lekarz, technik, pielęgniarka, czasem anestezjolog. W pomieszczeniu musi być realna przestrzeń na bezpieczne przemieszczanie się personelu, manewrowanie aparatem, ustawianie pacjenta, wjazd łóżka czy wózka, a także swobodny dostęp do pacjenta w razie nagłego zdarzenia, np. reakcji na kontrast czy zatrzymania krążenia. Zbyt małe pomieszczenie ogranicza możliwości prawidłowego pozycjonowania pacjenta i ustawiania ramienia C, utrudnia zachowanie właściwych odległości od źródła promieniowania oraz właściwe rozmieszczenie osłon stałych i ruchomych. Moim zdaniem ważne jest też to, że w praktyce w takich gabinetach instaluje się dodatkowe systemy, np. iniekcji automatycznej, monitoring hemodynamiczny, czasem aparat USG – to wszystko zabiera miejsce. Normy powierzchni są tak dobrane, żeby oprócz samego aparatu i stołu dało się zapewnić ergonomię pracy i spełnić wymagania ochrony radiologicznej: odpowiednią odległość od źródła promieniowania, możliwość ustawienia ścian osłonowych, drzwi, okienka podglądowego, a często też zaplanowanie osobnej sterowni. W dobrych praktykach projektowania pracowni RTG zawsze przy badaniach naczyniowych przyjmuje się te większe metraże właśnie po to, żeby nie „dusić” stanowiska pracy i nie ryzykować kompromisów bezpieczeństwa.

Pytanie 39

W celu wyeliminowania zakłóceń obrazu MR przez sygnały pochodzące z tkanki tłuszczowej, stosuje się

A. sekwencje STIR.
B. sekwencje FLAIR.
C. obrazowanie T1 – zależne.
D. obrazowanie PD – zależne.
W obrazowaniu MR łatwo się pomylić, bo wiele sekwencji daje obrazy pozornie podobne, ale ich zadanie jest zupełnie inne. W tym pytaniu kluczowe jest rozumienie, że wyeliminowanie sygnału z tkanki tłuszczowej wymaga specjalnej techniki tłumienia tłuszczu, a nie tylko zmiany typu kontrastu (T1, T2, PD). Obrazowanie PD-zależne (proton density) koncentruje się głównie na różnicach w gęstości protonowej tkanek. Tłuszcz w takich sekwencjach zwykle nadal świeci dość jasno, bo ma wysoką gęstość protonów i stosunkowo krótki T1, więc jego sygnał nie jest ani tłumiony, ani selektywnie wygaszany. W praktyce PD używa się często w obrazowaniu stawów, ale dopiero w połączeniu z technikami fat-sat daje dobrą separację struktur. Obrazowanie T1-zależne kojarzy się wielu osobom z jasnym sygnałem z tłuszczu, i to jest właśnie odwrotność tego, o co chodzi w pytaniu. W sekwencjach T1-weighted tłuszcz jest z reguły bardzo jasny, co jest wykorzystywane do oceny anatomii, zawartości tłuszczu, patologii szpiku kostnego czy badania po kontraście gadolinowym. Samo przejście na sekwencję T1 nie usuwa zakłóceń od tłuszczu, tylko je wręcz podkreśla. To typowy błąd myślowy: „skoro tłuszcz jest wyraźny, to łatwiej go odróżnię”, ale pytanie dotyczy tłumienia jego sygnału, a nie lepszego zobaczenia. Sekwencje FLAIR to inna pułapka. FLAIR jest odmianą sekwencji T2-zależnej z inwersją, ale jej celem jest tłumienie sygnału z płynu mózgowo-rdzeniowego, a nie z tłuszczu. W neuroobrazowaniu FLAIR jest standardem do wykrywania zmian demielinizacyjnych, zapalnych czy niedokrwiennych przy komorach, bo CSF jest ciemny, a zmiany patologiczne w istocie białej pozostają jasne. Mechanizm fizyczny (inversion recovery) jest podobny jak w STIR, ale punkt „wyzerowania” ustawia się na T1 płynu, nie tłuszczu. Dlatego wybór FLAIR jako sekwencji do tłumienia tłuszczu jest merytorycznie błędny. Sedno sprawy jest takie: tylko sekwencje STIR są zaprojektowane tak, by dzięki odpowiednio dobranemu czasowi TI wyzerować sygnał z tłuszczu. Pozostałe odpowiedzi opisują sekwencje o innym przeznaczeniu, które bez dodatkowych technik fat-sat nie usuwają sygnału z tkanki tłuszczowej, a często wręcz go wzmacniają. W praktyce klinicznej zawsze warto pamiętać, co dokładnie dana sekwencja tłumi: STIR – tłuszcz, FLAIR – płyn, T1/PD – żadnego konkretnego komponentu, tylko ustawiają inny typ kontrastu między tkankami.

Pytanie 40

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. alfa.
B. beta plus.
C. beta minus.
D. gamma.
Prawidłowo, w procesie rozpadu promieniotwórczego emisja fali elektromagnetycznej dotyczy właśnie promieniowania gamma. Rozpad gamma polega na tym, że jądro atomu przechodzi ze stanu wzbudzonego do stanu o niższej energii, bez zmiany liczby protonów i neutronów. Nie zmienia się więc ani liczba masowa, ani liczba atomowa – zmienia się tylko poziom energetyczny jądra. W tym przejściu jądro emituje kwant promieniowania elektromagnetycznego o bardzo dużej energii, czyli foton gamma. To jest fizycznie fala elektromagnetyczna, podobna z natury do światła widzialnego czy promieniowania rentgenowskiego, tylko o znacznie wyższej energii i krótszej długości fali. W medycynie to ma ogromne znaczenie praktyczne. W medycynie nuklearnej izotopy stosowane do scyntygrafii (np. 99mTc) emitują właśnie promieniowanie gamma, które rejestruje gammakamera. Dzięki temu można tworzyć obrazy narządów i oceniać ich funkcję, np. perfuzję mięśnia sercowego czy czynność nerek. Podobnie w PET wykorzystuje się fotony gamma powstające w wyniku anihilacji pozytonu z elektronem. Z mojego doświadczenia, zrozumienie że gamma to fala elektromagnetyczna, a alfa i beta to cząstki, bardzo porządkuje całą fizykę promieniowania i ułatwia później ogarnięcie zasad ochrony radiologicznej. Standardy ochrony (np. ICRP) wyraźnie rozróżniają promieniowanie fotonowe (X, gamma) od cząstkowego, bo inne są materiały osłonowe i sposoby zabezpieczenia. W radioterapii też mamy wiązki fotonowe o energiach zbliżonych do gamma (z akceleratorów liniowych), które zachowują się bardzo podobnie w tkankach, co jest istotne przy planowaniu dawek.