Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 29 kwietnia 2026 10:34
  • Data zakończenia: 29 kwietnia 2026 10:40

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w roku.
B. w kwartale.
C. w tygodniu.
D. w miesiącu.
Prawidłowa odpowiedź „w miesiącu” wynika z przyjętych w radiologii standardów kontroli jakości dla aparatów rentgenowskich. Testy podstawowe z zakresu geometrii pola rentgenowskiego mają za zadanie sprawdzić, czy pole wiązki promieniowania rzeczywiście pokrywa się z tym, co pokazuje lampa z kolimatorem i symulacja świetlna. Innymi słowy, czy to, co widzisz w polu świetlnym na stole, faktycznie jest naświetlane promieniowaniem X. Moim zdaniem to jest absolutny fundament bezpiecznej pracy w pracowni RTG, bo każdy błąd w geometrii pola od razu odbija się na jakości obrazu i na narażeniu pacjenta. Zgodnie z dobrymi praktykami (różne wytyczne krajowe i europejskie dotyczące kontroli jakości w diagnostyce obrazowej) testy geometrii pola zalicza się do tzw. testów podstawowych, wykonywanych cyklicznie, zwykle właśnie raz w miesiącu. Chodzi o sprawdzenie zgodności wielkości pola, jego centrowania względem kasety/detektora, zbieżności osi wiązki z osią stołu i lampy, oraz zgodności wskaźników odległości ognisko–detektor. W praktyce taki test może polegać na ułożeniu specjalnego fantomu do testów geometrii pola, z naniesionymi znacznikami, i wykonaniu ekspozycji przy różnych ustawieniach pola świetlnego. Potem ocenia się, czy krawędzie obszaru naświetlonego zgadzają się z zaznaczonym obszarem w polu świetlnym, zwykle dopuszczalne odchylenia są rzędu kilku procent wymiaru pola (np. 2% SID). Regularność comiesięcznego testu ma sens, bo geometria pola może się stopniowo rozjeżdżać: poluzowane mechanizmy kolimatora, uszkodzenie lustra, zmiana położenia żarówki, drobne uderzenia lampą o stół – to wszystko w praktyce się zdarza. Miesięczny interwał jest takim rozsądnym kompromisem: na tyle często, żeby szybko wychwycić nieprawidłowości, a jednocześnie nie paraliżować pracy pracowni nadmiarem testów. W wielu pracowniach, z mojego doświadczenia, łączy się ten test z innymi prostymi kontrolami okresowymi, np. sprawdzeniem działania wskaźników odległości, poprawności blokad mechanicznych czy stabilności nastaw ekspozycji. To wszystko wpisuje się w system zapewnienia jakości i ochrony radiologicznej, gdzie jednym z kluczowych celów jest unikanie zbędnych powtórzeń badań i ograniczanie dawek dla pacjenta i personelu.

Pytanie 2

Centratory laserowe zamontowane w kabinie aparatu terapeutycznego służą do

A. oświetlania kabiny podczas terapii.
B. odmierzania odległości.
C. pozycjonowania pacjenta.
D. ustalania położenia zmiany nowotworowej.
Centratory laserowe w kabinie aparatu terapeutycznego często bywają mylone z różnego typu „gadżetami pomocniczymi”, ale ich rola jest dość precyzyjna i wąska: służą do geometrycznego pozycjonowania pacjenta, a nie do mierzenia odległości, oświetlania czy lokalizowania samej zmiany nowotworowej. Warto to sobie dobrze poukładać, bo w praktyce klinicznej takie nieporozumienia potrafią prowadzić do złych nawyków. Pomysł, że lasery „odmierzają odległość”, wynika zwykle z tego, że ktoś widzi linie na ścianach i myśli jak o dalmierzu laserowym. W radioterapii jest inaczej: lasery nie podają nam wartości w centymetrach, one tylko wyznaczają płaszczyzny odniesienia zgodne z izocentrum i układem współrzędnych aparatu. Odległość od źródła promieniowania do skóry (SSD) czy do izocentrum (SAD) mierzy się innymi narzędziami, np. wskaźnikami mechanicznymi, miarkami, ewentualnie weryfikuje obrazowo. Kolejne nieporozumienie to traktowanie laserów jak zwykłego oświetlenia kabiny. Jasne, one dają światło, ale to światło jest bardzo wąskie, liniowe i techniczne, absolutnie nie służy do komfortowego oświetlenia pacjenta czy pomieszczenia. Do tego są normalne lampy sufitowe, o regulowanej jasności, często przygaszane w trakcie napromieniania. Jeszcze bardziej mylące jest przekonanie, że lasery „ustalają położenie zmiany nowotworowej”. Zmiana nowotworowa jest lokalizowana na badaniach obrazowych – TK, MR, PET – a potem lekarz i fizyk zaznaczają ją w systemie planowania leczenia jako GTV/CTV/PTV. Lasery nie widzą guza, one tylko pomagają nam ustawić pacjenta tak, żeby ta zaplanowana objętość znalazła się we właściwym miejscu względem wiązki. Dodatkowo, w nowoczesnej radioterapii precyzja jest dopiero domykana przez obrazowanie przy aparacie (IGRT), np. CBCT, a lasery są pierwszym, bazowym krokiem ustawienia. Typowy błąd myślowy polega więc na „przypisywaniu” laserom zbyt wielu funkcji: mierzenia, diagnozowania czy rozświetlania, podczas gdy ich zadanie jest jedno – zapewnić powtarzalne, geometrycznie poprawne ułożenie pacjenta zgodne z planem leczenia.

Pytanie 3

W badaniu PET CT wykorzystuje się radioizotopy emitujące promieniowanie

A. gamma.
B. beta plus.
C. beta minus.
D. alfa.
W PET/CT bardzo łatwo pomylić się, bo na pierwszy rzut oka wydaje się, że skoro urządzenie rejestruje promieniowanie gamma, to używa się izotopów gamma. I tu jest ten typowy błąd myślowy: mylimy to, co emituje radioizotop, z tym, co w końcu rejestruje detektor. W PET kluczowy jest emiter beta plus, czyli taki radionuklid, który w swoim rozpadzie wytwarza pozyton. Pozyton to antycząstka elektronu, naładowana dodatnio. Po krótkim torze w tkance pozyton zderza się z elektronem i dopiero wtedy dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV. Detektory PET nie rejestrują więc bezpośrednio rozpadu beta, tylko produkty anihilacji. Promieniowanie alfa nie ma tu w ogóle zastosowania – cząstki alfa mają bardzo mały zasięg w tkankach i są silnie jonizujące, przez co kompletnie nie nadają się do obrazowania tomograficznego całego ciała. Stosuje się je czasem w terapii izotopowej, ale nie w PET. Emiter beta minus też nie pasuje, bo w tym rozpadzie powstaje elektron, a nie pozyton. Elektron nie anihiluje z elektronem, tylko traci energię w ośrodku przez jonizację i hamowanie, więc nie generuje tych charakterystycznych dwóch fotonów 511 keV pod kątem 180°. Tego rodzaju izotopy wykorzystuje się głównie w terapii (np. 90Y, 131I), ewentualnie w innych typach badań, ale nie w klasycznym PET. Często zdarza się też, że ktoś odpowiada „gamma”, bo kojarzy, że w medycynie nuklearnej jest gammakamera i scyntygrafia. Tam faktycznie używa się emiterów gamma, ale to jest SPECT, a nie PET. PET opiera się właśnie na fizyce anihilacji pozyton–elektron. Moim zdaniem warto sobie to poukładać tak: do ciała zawsze podajemy emiter beta plus, a urządzenie rejestruje pary fotonów gamma po anihilacji. Jak zapamiętasz ten ciąg zdarzeń, to podobne pytania przestają być problemem.

Pytanie 4

Który radioizotop jest emiterem promieniowania alfa?

A. ⁹⁹ᵐTc
B. ²²³Ra
C. ¹⁸F
D. ¹³¹I
Prawidłowa odpowiedź to 223Ra, ponieważ jest to klasyczny emiter promieniowania alfa stosowany w medycynie nuklearnej, głównie w terapii izotopowej przerzutów do kości. Rad-223 emituje cząstki alfa, czyli jądra helu (2 protony + 2 neutrony). To promieniowanie ma bardzo mały zasięg w tkankach – rzędu kilku dziesiątych milimetra – ale bardzo wysoką gęstość jonizacji, czyli dużą liniową energię hamowania (wysokie LET). Dzięki temu uszkadza DNA komórek nowotworowych bardzo skutecznie, a jednocześnie relatywnie oszczędza tkanki zdrowe położone dalej. W praktyce klinicznej 223Ra wykorzystuje się np. w leczeniu przerzutów osteoblastycznych w raku prostaty. Podaje się go dożylnie jako radiofarmaceutyk, który wybiórczo gromadzi się w kościach, szczególnie w miejscach nasilonego metabolizmu kostnego. To się bardzo dobrze wpisuje w zasady medycyny nuklearnej, gdzie dobiera się izotop nie tylko pod kątem rodzaju promieniowania, ale też biokinetyki i okresu półtrwania. Z mojego doświadczenia, w technice medycznej warto zapamiętać, że emitery alfa, takie jak 223Ra, są raczej „narzędziem terapeutycznym”, a nie diagnostycznym – w przeciwieństwie do emiterów gamma czy beta+ wykorzystywanych w obrazowaniu (scyntygrafia, PET). W wytycznych i dobrych praktykach kładzie się nacisk na ścisłą kontrolę dawek i ochronę radiologiczną, bo mimo małego zasięgu w tkance, promieniowanie alfa jest bardzo niebezpieczne przy ekspozycji wewnętrznej (np. po wchłonięciu lub inhalacji). Dlatego przygotowanie, przechowywanie i podawanie 223Ra wymaga dobrze ogarniętej procedury, osobnych pomieszczeń i ścisłego przestrzegania zasad BHP w pracowni medycyny nuklearnej.

Pytanie 5

Promieniowanie rentgenowskie powstaje w wyniku hamowania

A. elektronów na katodzie lampy rentgenowskiej.
B. kwantów energii na anodzie lampy rentgenowskiej.
C. kwantów energii na katodzie lampy rentgenowskiej.
D. elektronów na anodzie lampy rentgenowskiej.
Prawidłowo – promieniowanie rentgenowskie w klasycznej lampie diagnostycznej powstaje głównie w wyniku gwałtownego hamowania elektronów na anodzie. W lampie RTG elektrony są emitowane z rozżarzonej katody (emisja termoelektronowa), a następnie przyspieszane silnym napięciem wysokim, rzędu kilkudziesięciu do nawet 120 kV, w kierunku anody. Lecą więc z dużą energią kinetyczną. Kiedy uderzają w ognisko anody (zwykle z wolframu lub stopu wolframu), są bardzo gwałtownie hamowane w polu elektrycznym jąder atomów materiału tarczy. Właśnie to hamowanie, czyli zmiana pędu i kierunku ruchu elektronu w polu jądra, powoduje emisję promieniowania hamowania – tzw. bremsstrahlung, które stanowi podstawową składową widma promieniowania w diagnostyce obrazowej. Dodatkowo część fotonów powstaje jako promieniowanie charakterystyczne, gdy elektron wybija elektron z powłoki wewnętrznej atomu wolframu i następuje przeskok z wyższej powłoki – ale to wciąż efekt zderzenia elektronu z anodą, nie z katodą. W praktyce klinicznej dobra znajomość tego mechanizmu tłumaczy, dlaczego zmiana napięcia kV wpływa na energię (twardość) wiązki, a zmiana natężenia mA – na ilość wytwarzanych fotonów. Z mojego doświadczenia w pracowniach RTG osoby, które rozumieją, że źródłem promieniowania jest właśnie interakcja szybkich elektronów z materiałem anody, lepiej ogarniają takie tematy jak filtracja wiązki, warstwa półchłonna czy dobór ogniska. Ma to znaczenie nie tylko dla jakości obrazu (kontrast, kontrastowość, szumy), ale też dla ochrony radiologicznej – bo wiemy, skąd bierze się promieniowanie rozproszone i jak parametry pracy lampy przekładają się na dawkę dla pacjenta i personelu. W standardach pracy (np. wytyczne ICRP, EUREF i krajowe rekomendacje) cały czas podkreśla się zależność: energia elektronów przy anodzie → widmo i intensywność promieniowania X.

Pytanie 6

W radiografii mianem SID określa się

A. odległość między źródłem promieniowania a detektorem obrazu.
B. odległość między obiektem badanym a detektorem obrazu.
C. system automatycznej kontroli ekspozycji.
D. system automatycznej regulacji jasności.
W radiografii bardzo łatwo pomylić różne skróty i funkcje aparatu, bo jest ich po prostu sporo. SID to jednak pojęcie czysto geometryczne, a nie elektroniczny system automatyki. Nie oznacza ani systemu automatycznej regulacji jasności, ani systemu automatycznej kontroli ekspozycji. Tego typu rozwiązania techniczne w aparatach RTG czy fluoroskopii opisuje się raczej jako AEC (Automatic Exposure Control) lub ABC (Automatic Brightness Control) w torze fluoroskopowym. Ich zadaniem jest dobór parametrów ekspozycji tak, żeby obraz miał odpowiednią gęstość optyczną czy jasność, niezależnie od grubości pacjenta. SID nie ma z tym bezpośredniego związku, choć oczywiście pośrednio wpływa na ekspozycję, bo zmienia się natężenie wiązki na detektorze zgodnie z prawem odwrotności kwadratu odległości. Kolejne częste nieporozumienie dotyczy odległości mierzonych w układzie pacjent–detektor. Odległość między badanym obiektem (np. klatką piersiową) a detektorem dotyczy raczej OID (Object to Image Distance) lub czasem mówi się po prostu o odległości obiekt–detektor. Ten parametr jest również istotny, bo im większa odległość obiektu od detektora, tym większe powiększenie i rozmycie krawędzi na obrazie. Jednak to nie jest SID. SID zawsze odnosi się do drogi od ogniska lampy rentgenowskiej (czyli źródła promieniowania) do powierzchni detektora obrazu. Mylenie SID z OID prowadzi do błędnego myślenia o geometrii projekcji, a w konsekwencji do złego pozycjonowania pacjenta i niestabilnych warunków ekspozycji. Dobre praktyki w diagnostyce obrazowej mówią o konieczności utrzymywania stałego, zadeklarowanego SID dla danej projekcji oraz świadomego kontrolowania OID, np. dociśnięcia pacjenta do detektora wszędzie tam, gdzie chcemy ograniczyć powiększenie. Warto więc rozdzielić w głowie: SID – źródło do detektora, OID – obiekt do detektora, a systemy automatycznej ekspozycji to zupełnie inna kategoria zagadnień, związana z elektroniką i automatyką aparatu, a nie z geometrią wiązki.

Pytanie 7

Fala głosowa rozchodzi się

A. w gazach, cieczach i próżni.
B. w gazach i cieczach.
C. w gazach i próżni.
D. w cieczach i próżni.
Poprawnie – fala głosowa, czyli fala akustyczna, w fizyce jest falą mechaniczną. To znaczy, że do swojego rozchodzenia się potrzebuje ośrodka materialnego, w którym cząsteczki mogą drgać i przekazywać energię dalej. Takim ośrodkiem mogą być gazy (np. powietrze), ciecze (np. woda) albo ciała stałe. W próżni nie ma cząsteczek, więc nie ma co drgać i klasyczna fala dźwiękowa po prostu nie może się tam rozchodzić. Dlatego odpowiedź „w gazach i cieczach” jest merytorycznie poprawna, chociaż warto pamiętać, że w rzeczywistości dźwięk rozchodzi się też w ciałach stałych. W praktyce medycznej i okołomedycznej ma to spore znaczenie. W audiometrii, badaniach słuchu czy przy kalibracji sprzętu do pomiaru hałasu zakłada się, że fala dźwiękowa biegnie głównie w powietrzu, czyli w gazie. Z kolei w ultrasonografii medycznej wykorzystujemy rozchodzenie się fal mechanicznych w tkankach, które fizycznie zachowują się jak różne ciecze i ciała stałe – stąd żel USG, żeby poprawić sprzężenie między głowicą a skórą, bo powietrze bardzo słabo przewodzi ultradźwięki. Moim zdaniem to jedno z tych prostych pytań, które później ułatwia zrozumienie, czemu np. badanie USG nie działa w powietrzu i czemu w kosmosie, w próżni, nie „słychać” eksplozji mimo że mogą emitować promieniowanie elektromagnetyczne. W dobrych praktykach technicznych zawsze rozróżniamy fale mechaniczne (wymagające ośrodka, jak dźwięk) od fal elektromagnetycznych (np. promieniowanie RTG, radiowe), które mogą iść w próżni.

Pytanie 8

Teleterapia polega na napromienowaniu

A. wyłącznie promieniowaniem fotonowym ze źródeł zewnętrznych.
B. promieniowaniem ze źródła umieszczonego pod skórą pacjenta.
C. promieniowaniem fotonowym lub cząsteczkowym ze źródeł zewnętrznych.
D. promieniowaniem ze źródła umieszczonego w obrębie guza nowotworowego.
W tym pytaniu łatwo się pomylić, bo wszystkie odpowiedzi opisują jakąś formę napromieniania, ale tylko jedna dokładnie pasuje do definicji teleterapii. Podstawowy błąd, który często się pojawia, to mieszanie teleterapii z brachyterapią. Gdy mówimy o źródle promieniowania umieszczonym pod skórą pacjenta albo bezpośrednio w obrębie guza, to tak naprawdę opisujemy brachyterapię, a nie teleterapię. W brachyterapii źródło promieniowania znajduje się bardzo blisko guza albo wręcz w nim, co daje bardzo stromy spadek dawki w tkankach otaczających. Natomiast w teleterapii źródło jest zawsze poza ciałem, w aparacie, i wiązka musi przejść przez tkanki, żeby dotrzeć do celu. Kolejna pułapka to myślenie, że teleterapia to wyłącznie promieniowanie fotonowe. Historycznie kojarzy się ją z promieniowaniem gamma (np. z kobaltu) lub z promieniowaniem X z akceleratora liniowego, więc łatwo przyjąć, że chodzi tylko o fotony. Tymczasem współczesne standardy radioterapii wyraźnie zaliczają do teleterapii także napromienianie wiązkami cząstek, np. elektronami (stosowanymi do zmian powierzchownych) czy protonami i jonami ciężkimi (radioterapia protonowa, hadronowa). Kluczowe są tu dwa elementy: rodzaj promieniowania (fotonowe lub cząsteczkowe) oraz fakt, że pochodzi ono ze źródła zewnętrznego. Mylenie tych pojęć wynika często z uproszczonego skojarzenia: „źródło promieniowania = coś w środku pacjenta”, co jest prawdą tylko przy brachyterapii. W praktyce klinicznej bardzo ważne jest poprawne rozróżnienie tych technik, bo planowanie, ochrona radiologiczna, sposób unieruchomienia pacjenta, a nawet organizacja pracy działu radioterapii są inne dla tele- i brachyterapii. Moim zdaniem warto na spokojnie zapamiętać: teleterapia – źródło na zewnątrz, brachyterapia – źródło w ciele lub tuż przy guzie. To pomaga uniknąć takich nieporozumień w przyszłości i lepiej rozumieć wytyczne oraz opisy procedur w dokumentacji medycznej.

Pytanie 9

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co miesiąc.
B. co 6 miesięcy.
C. co najmniej raz na 12 miesięcy.
D. co najmniej raz na 24 miesiące.
W przypadku testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych bardzo łatwo pomylić je z innymi rodzajami kontroli jakości, które robi się częściej. Stąd biorą się odpowiedzi typu „co miesiąc” czy „co 6 miesięcy”. W codziennej praktyce faktycznie wykonuje się różne sprawdzenia – np. testy podstawowe, bieżącą ocenę jakości obrazu, testy eksploatacyjne po naprawie. To jednak nie są testy specjalistyczne w rozumieniu przepisów ochrony radiologicznej i nadzoru nad aparaturą rentgenowską. Zbyt krótki, comiesięczny lub półroczny interwał jest w tym kontekście nadinterpretacją wymagań. Można oczywiście wykonywać takie pomiary częściej z własnej inicjatywy, ale prawo mówi o minimalnej częstości testów specjalistycznych, a nie o maksymalnym dopuszczalnym odstępie pomiędzy dowolnymi kontrolami. Typowym błędem myślowym jest tu wrzucenie do jednego worka wszystkich rodzajów testów: podstawowych, specjalistycznych, odbiorczych i okresowych. Tymczasem testy specjalistyczne są bardziej rozbudowane, zwykle prowadzone przez uprawnionego fizyka medycznego lub inspektora, z użyciem profesjonalnych fantomów i przyrządów pomiarowych, i dlatego ich cykl jest dłuższy. Z kolei odpowiedź „co najmniej raz na 12 miesięcy” sugeruje intuicyjne przekonanie, że „raz w roku” to taki bezpieczny, standardowy okres dla każdej kontroli technicznej. W wielu dziedzinach faktycznie tak jest, ale w diagnostyce stomatologicznej dla aparatów wewnątrzustnych przepisy dopuszczają dłuższy, dwuletni okres między testami specjalistycznymi. Nie oznacza to oczywiście, że aparat może działać „samopas” przez dwa lata. Nadal obowiązują testy podstawowe, bieżąca obserwacja jakości zdjęć, kontrola dokumentacji dawek i reagowanie na wszelkie nieprawidłowości. Jednak formalny, pełny test specjalistyczny, z kompleksową oceną dawki, warstwy półchłonnej, geometrii wiązki i stabilności parametrów, musi być wykonany co najmniej raz na 24 miesiące. Moim zdaniem ważne jest rozróżnienie między racjonalną ostrożnością a wymogami prawnymi i organizacyjnymi. Jeśli ktoś odpowiada krótszym okresem, zwykle kieruje się chęcią „większego bezpieczeństwa”, ale nie odróżnia, które testy są wymagane jak często. Dobra praktyka to zapamiętać: testy specjalistyczne dla aparatów do zdjęć wewnątrzustnych – maksymalnie co 2 lata, a wszystko, co dzieje się częściej, to już inne kategorie kontroli jakości i nadzoru nad pracą aparatu.

Pytanie 10

Radioizotopowa terapia medycyny nuklearnej polega na wprowadzeniu do tkanek lub narządów radiofarmaceutyku

A. znajdującego się w odległości 100 cm od pacjenta.
B. emitującego promieniowanie β ze źródeł otwartych.
C. emitującego promieniowanie γ ze źródeł otwartych.
D. znajdującego się w odległości 50 cm od pacjenta.
Prawidłowo – istota radioizotopowej terapii w medycynie nuklearnej polega na podaniu radiofarmaceutyku emitującego głównie promieniowanie β ze źródeł otwartych, czyli takiego, który wnika do organizmu (do krwi, tkanek, narządów), a nie jest zamknięty w jakiejś osłonie czy aplikatorze. Promieniowanie beta ma stosunkowo krótki zasięg w tkankach (zwykle kilka milimetrów), dzięki czemu dawka pochłonięta koncentruje się w obrębie zmiany chorobowej – guza, przerzutów do kości, nadczynnego guzka tarczycy – a mniej uszkadza otaczające, zdrowe tkanki. To jest właśnie ten „terapeutyczny” efekt medycyny nuklearnej, w odróżnieniu od diagnostyki scyntygraficznej, gdzie ważniejsze jest promieniowanie γ rejestrowane przez gammakamerę. Typowy przykład z praktyki: leczenie nadczynności tarczycy radiojodem I-131 – izotop jest podawany doustnie, kumuluje się w tarczycy i dzięki emisji β niszczy komórki produkujące nadmiar hormonów. Inne przykłady to terapia przerzutów do kości z użyciem Sr-89 czy Sm-153, albo nowocześniejsze terapie receptorowe (np. 177Lu-DOTATATE w guzach neuroendokrynnych). We wszystkich tych przypadkach stosuje się źródła otwarte – radiofarmaceutyk krąży w organizmie i jest częściowo wydalany, dlatego obowiązują ścisłe zasady ochrony radiologicznej: wydzielone sale, kontrola skażeń, instrukcje dla pacjenta po wypisie. Moim zdaniem warto zapamiętać prostą zasadę: β = leczenie (terapia), γ = obrazowanie (diagnostyka), oczywiście z pewnymi wyjątkami, ale jako skrót myślowy działa całkiem dobrze.

Pytanie 11

W pracowni radioterapii wyświetlenie na ekranie monitora aparatu komunikatu „ROTATION” oznacza prowadzoną terapię

A. całego ciała.
B. obrotową.
C. radykalną.
D. paliatywną.
Prawidłowo, komunikat „ROTATION” na konsoli akceleratora liniowego oznacza, że prowadzona jest terapia obrotowa, czyli napromienianie przy ciągłym obrocie głowicy aparatu wokół pacjenta. Chodzi o to, że wiązka promieniowania nie pada z jednego lub kilku statycznych pól, tylko „okrąża” pacjenta po zadanym łuku lub pełnym obrocie 360°. W praktyce klinicznej stosuje się takie techniki głównie w teleterapii, np. przy napromienianiu guzów mózgu, guzów w obrębie miednicy czy klatki piersiowej, gdy zależy nam na jak najlepszym rozkładzie dawki i ochronie tkanek zdrowych. Dzięki terapii obrotowej dawka w guzie sumuje się z wielu kierunków, a narządy krytyczne dostają mniejsze dawki cząstkowe z każdego pojedynczego przejścia wiązki. Moim zdaniem to jeden z fajniejszych przykładów, jak geometria ruchu aparatu realnie wpływa na bezpieczeństwo pacjenta. Współczesne systemy planowania leczenia wykorzystują różne odmiany terapii obrotowej, np. techniki łukowe (arc therapy), VMAT, czy rotacyjne techniki 3D, gdzie ruch gantry jest ściśle zsynchronizowany z kolimatorem i czasem z ruchem stołu. Operator, widząc na monitorze tryb „ROTATION”, powinien zawsze sprawdzić wcześniej w karcie zabiegowej i w systemie planowania, czy zaplanowany jest łuk, ile stopni ma obejmować, w jakim kierunku obraca się gantry i czy parametry dawki zgadzają się z zatwierdzonym planem. To jest standard dobrej praktyki: przed włączeniem napromieniania potwierdzić tryb pracy aparatu (statyczny, rotacyjny, IMRT, itp.), pozycję pacjenta, ustawienie izocentrum i ewentualne akcesoria unieruchamiające. W pracowni radioterapii takie szczegóły decydują o jakości i powtarzalności leczenia, więc rozpoznawanie komunikatów typu „ROTATION” to podstawa codziennej pracy przy akceleratorze.

Pytanie 12

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
B. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
C. klasycznej rentgenografii, wykonane w fazie oddechowej.
D. tomografii komputerowej, wykonane w fazie oddechowej.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 13

W badaniu PETCT radioizotop ulega

A. rozpadowi γ, emitując foton promieniowania.
B. rozpadowi β -, emitując elektron.
C. rozpadowi γ, emitując pozyton.
D. rozpadowi β +, emitując pozyton.
W pytaniu o PET/CT dość łatwo się pomylić, bo wszystkie odpowiedzi kręcą się wokół promieniowania jonizującego i na pierwszy rzut oka brzmią nawet podobnie. Kluczowy błąd polega zwykle na tym, że myli się różne typy promieniowania: β+, β− i γ. W badaniach PET fundamentem jest emisja pozytonu, czyli rozpadu β+, a nie zwykłe promieniowanie γ ani emisja elektronu. Radioizotopy stosowane w PET, takie jak 18F, 11C, 13N czy 15O, ulegają rozpadowi β+, co oznacza, że w jądrze powstaje pozyton. Ten dodatnio naładowany elektron po bardzo krótkim torze w tkankach anihiluje z elektronem, a efektem są dwa fotony γ o energii 511 keV, lecące prawie w przeciwnych kierunkach. Dopiero te fotony rejestruje detektor PET w koincydencji. To jest bardzo charakterystyczny mechanizm i różni się zasadniczo od tego, co dzieje się np. w klasycznej scyntygrafii. Rozpad β−, z emisją elektronu, jest typowy dla wielu radioizotopów używanych bardziej w terapii (np. 90Y, 131I w aspekcie terapeutycznym) albo w innych zastosowaniach, ale nie stanowi podstawy działania aparatu PET. Elektron emitowany w rozpadzie β− nie daje takiego uporządkowanego, koincydencyjnego sygnału jak para fotonów po anihilacji, więc nie da się na nim zbudować precyzyjnego systemu obrazowania podobnego do PET. To jest częsty błąd myślowy: skoro to też promieniowanie β, to może być użyte tak samo – niestety fizyka tu jest dość bezlitosna. Kolejna pułapka to utożsamianie promieniowania γ z PET wprost. Owszem, w PET rejestrujemy fotony γ, ale one nie pochodzą z prostego „rozpadu γ radioizotopu”, tylko właśnie z anihilacji pozyton–elektron po wcześniejszym rozpadzie β+. Odpowiedzi sugerujące sam rozpad γ pomijają ten kluczowy etap z pozytonem. Rozpad γ jako taki polega na przejściu jądra z pobudzonego stanu do niższego bez zmiany liczby protonów i neutronów, co jest typowe np. dla niektórych znaczników w scyntygrafii (jak 99mTc), ale to już inna technika obrazowa i inny sprzęt (gammakamera, SPECT). Z mojego punktu widzenia warto zapamiętać logiczny schemat: PET = emiter pozytonów (β+) → anihilacja → dwa fotony 511 keV → detekcja koincydencyjna. Jeśli w opisie brakuje pozytonu lub pojawia się elektron β− albo „gołe” promieniowanie γ bez anihilacji, to nie mówimy już o klasycznym mechanizmie PET. Taka świadomość pomaga potem lepiej rozumieć dobór radiofarmaceutyków, zasady bezpieczeństwa oraz różnice między PET, SPECT i innymi metodami medycyny nuklearnej.

Pytanie 14

Osłony na gonady dla osób dorosłych powinny posiadać równoważnik osłabienia promieniowania nie mniejszy niż

A. 1,00 mm Pb
B. 0,75 mm Pb
C. 0,35 mm Pb
D. 0,50 mm Pb
Prawidłowo – dla osób dorosłych osłony na gonady powinny mieć równoważnik osłabienia co najmniej 1,00 mm Pb. Wynika to z zasad ochrony radiologicznej, gdzie gonady traktuje się jako narząd szczególnie wrażliwy, kluczowy dla płodności i ryzyka dziedzicznych skutków promieniowania. Grubość 1,00 mm ołowiu zapewnia bardzo wysoki stopień osłabienia wiązki promieniowania w typowych warunkach badań RTG, np. w radiografii miednicy, bioder, kręgosłupa lędźwiowego. Przy takiej grubości osłony dawka pochłonięta przez jądra lub jajniki jest istotnie zredukowana, a jednocześnie osłona jest jeszcze na tyle ergonomiczna, że da się ją wygodnie stosować w praktyce. Moim zdaniem ważne jest, żeby nie traktować tej wartości jako „opcji”, tylko jako minimum – jeśli w pracowni są osłony cieńsze, to dla dorosłych nie spełniają one standardów ochrony. W dobrych pracowniach radiologicznych rutynowo stosuje się osłony gonadowe właśnie o grubości około 1 mm Pb, dopasowane kształtem: fartuchy typu „figi”, ochraniacze moszny, osłony na okolice miednicy. Warto pamiętać, że zgodnie z zasadą ALARA (As Low As Reasonably Achievable) redukujemy dawkę wszędzie tam, gdzie to możliwe, bez utraty jakości diagnostycznej obrazu. Dobrze dobrana osłona 1 mm Pb nie powinna wchodzić w pole obrazowania i nie może zasłaniać interesujących nas struktur, dlatego tak ważne jest poprawne pozycjonowanie pacjenta i prawidłowe ułożenie samej osłony. Z mojego doświadczenia wiele błędów w pracowni polega właśnie na tym, że ktoś ma dobrą osłonę, ale źle ją zakłada i albo wchodzi w projekcję, albo w ogóle nie przykrywa gonad. Sama grubość 1,00 mm Pb to jedno, a prawidłowa technika i nawyk jej stosowania – drugie, równie ważne.

Pytanie 15

Który radioizotop jest emiterem promieniowania alfa?

A. 18F
B. 223Ra
C. 131I
D. 99mTc
Prawidłowo wskazany radioizotop to 223Ra, czyli rad-223. Jest to klasyczny emiter promieniowania alfa, wykorzystywany w medycynie nuklearnej głównie w leczeniu przerzutów do kości u chorych na raka prostaty opornego na kastrację. Cząstki alfa to jądra helu (2 protony i 2 neutrony), mają bardzo mały zasięg w tkankach – rzędu kilku dziesiątych milimetra – ale bardzo wysoką liniową gęstość jonizacji (wysoki LET). To oznacza, że oddają energię na bardzo krótkim dystansie, silnie uszkadzając DNA komórek nowotworowych, a jednocześnie relatywnie oszczędzając bardziej odległe, zdrowe tkanki. Właśnie dlatego 223Ra jest tak ceniony w tzw. terapii ukierunkowanej na kości: jako radionuklid emituje głównie promieniowanie alfa, wiąże się z tkanką kostną w miejscach wzmożonego metabolizmu kostnego (czyli tam, gdzie są przerzuty osteoblastyczne) i dostarcza bardzo skoncentrowaną dawkę w ognisku nowotworu. Z praktycznego punktu widzenia ważne jest, że alfa-emiter wymaga szczególnej ostrożności w zakresie ochrony radiologicznej personelu przy przygotowaniu i podawaniu radiofarmaceutyku, ale jednocześnie dawka narażenia dla otoczenia pacjenta jest zwykle mniejsza niż przy silnych emiterach gamma, bo cząstki alfa są łatwo pochłaniane. Moim zdaniem, jeśli ktoś pracuje w medycynie nuklearnej, to kojarzenie 223Ra z terapią paliatywną przerzutów do kości to absolutna podstawa. W wytycznych i standardach (różne towarzystwa onkologiczne i medycyny nuklearnej) podkreśla się, że wybór alfa-emiterów, takich jak 223Ra, jest szczególnie korzystny tam, gdzie zależy nam na wysokiej skuteczności biologicznej przy ograniczonym zasięgu promieniowania. To bardzo dobry przykład praktycznego zastosowania fizyki promieniowania w nowoczesnej terapii celowanej.

Pytanie 16

Jednostką indukcji magnetycznej jest

A. om (Ω)
B. tesla (T)
C. weber (Wb)
D. kulomb (C)
Prawidłową jednostką indukcji magnetycznej (nazywanej też gęstością strumienia magnetycznego) w układzie SI jest tesla (T). Indukcja magnetyczna B opisuje „siłę” pola magnetycznego w danym miejscu, czyli jak mocno to pole oddziałuje na ładunki elektryczne w ruchu lub na przewodnik z prądem. Formalnie 1 tesla to taka indukcja magnetyczna, przy której na przewód o długości 1 m, ustawiony prostopadle do linii pola i przewodzący prąd 1 A, działa siła 1 N. Wzór, który to ładnie pokazuje, to F = B · I · l · sinα. W praktyce, w technice medycznej, z indukcją magnetyczną spotykasz się głównie przy rezonansie magnetycznym (MR). Typowe skanery kliniczne mają pola 1,5 T albo 3 T, a w badaniach naukowych używa się nawet 7 T i więcej. Im większa wartość tesli, tym silniejsze pole magnetyczne, lepszy sygnał i potencjalnie wyższa rozdzielczość obrazów, ale też większe wymagania dotyczące ochrony i bezpieczeństwa. W dokumentacji producentów magnesów, cewek gradientowych czy systemów do MR zawsze podaje się natężenie pola właśnie w teslach, zgodnie z normami i standardami (np. IEC dotyczące bezpieczeństwa MR). Dobrą praktyką w pracy z aparaturą jest świadome odróżnianie jednostek: tesla odnosi się do pola magnetycznego, gauss to starsza jednostka spoza SI (1 T = 10 000 G), a weber służy do opisu całkowitego strumienia magnetycznego, a nie jego gęstości. Moim zdaniem warto mieć to w głowie, bo potem łatwiej czytać instrukcje urządzeń, wytyczne BHP i opisy stref bezpieczeństwa w pracowni MR.

Pytanie 17

Hiperfrakcjonowanie dawki w radioterapii oznacza napromieniowywanie pacjenta

A. codziennie.
B. pięć razy w tygodniu.
C. raz w tygodniu.
D. kilka razy dziennie.
W radioterapii bardzo łatwo pomylić różne pojęcia związane z frakcjonowaniem dawki, bo w praktyce klinicznej funkcjonuje kilka schematów: konwencjonalny, hiperfrakcjonowanie, hipofrakcjonowanie, przyspieszone frakcjonowanie. Intuicyjnie wiele osób kojarzy leczenie promieniowaniem z codziennymi wizytami, pięć razy w tygodniu, i to jest prawda dla tzw. frakcjonowania konwencjonalnego, ale nie dla hiperfrakcjonowania. Standardowy schemat, stosowany w większości klasycznych planów radykalnych, to jedna frakcja dziennie, od poniedziałku do piątku, czyli de facto pięć razy w tygodniu. Taki rozkład dawki ma swoje uzasadnienie radiobiologiczne i organizacyjne, jednak nie jest to hiperfrakcjonowanie, tylko podstawowy, konwencjonalny tryb napromieniania. Dlatego odpowiedzi typu „codziennie” albo „pięć razy w tygodniu” opisują zwykły, rutynowy plan leczenia, a nie szczególną technikę modyfikacji frakcji. Z kolei „raz w tygodniu” bardziej pasowałoby do specyficznych schematów hipofrakcjonowania o bardzo dużej dawce na frakcję, używanych np. w niektórych procedurach paliatywnych lub stereotaktycznych, gdzie celem jest szybkie podanie wysokiej dawki w niewielkiej liczbie sesji. To zupełnie inna filozofia niż hiperfrakcjonowanie. W hiperfrakcjonowaniu kluczowe są właśnie „wiele małych porcji” w ciągu jednej doby, czyli kilka frakcji dziennie. Całkowita dawka bywa nawet większa niż w klasycznym schemacie, ale dzięki podziałowi na mniejsze frakcje zmniejsza się ryzyko późnych powikłań w tkankach zdrowych. Typowym błędem myślowym jest utożsamianie słowa „hiper” z „więcej dni leczenia” albo „dłużej trwająca terapia”, podczas gdy w rzeczywistości chodzi o większą liczbę frakcji w jednostce czasu, najczęściej w jednym dniu. W nowoczesnych wytycznych radioterapii podkreśla się, że dobór schematu frakcjonowania zależy od biologii guza, wrażliwości narządów krytycznych, stanu ogólnego pacjenta oraz możliwości organizacyjnych ośrodka. Dlatego warto zapamiętać: hiperfrakcjonowanie = częściej w ciągu doby, a nie po prostu „częściej w tygodniu” czy „dłużej w kalendarzu”.

Pytanie 18

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. protony atomów wodoru.
B. elektrony atomów tlenu.
C. protony atomów tlenu.
D. elektrony atomów wodoru.
Prawidłowo wskazane zostały protony atomów wodoru, czyli dokładnie to, na czym opiera się klasyczna metoda rezonansu magnetycznego wykorzystywana w medycynie. W obrazowaniu MR wykorzystuje się zjawisko jądrowego rezonansu magnetycznego (NMR). W praktyce oznacza to, że w silnym polu magnetycznym jądra wodoru (protony) ustawiają się zgodnie lub przeciwnie do kierunku pola. Następnie aparat wysyła fale radiowe (impuls RF), które wybijają te protony z ich równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego i w tym procesie emitują sygnał, który jest rejestrowany przez cewki odbiorcze. To właśnie ten sygnał jest potem przeliczany komputerowo na obraz przekrojowy ciała. W tkankach ludzkiego organizmu jest bardzo dużo wody i tłuszczu, a więc bardzo dużo atomów wodoru – dlatego MR jest tak czuły na różnice w nawodnieniu i składzie tkanek. W praktyce klinicznej wykorzystuje się to np. do oceny zmian w mózgu (udar, stwardnienie rozsiane), stawach, kręgosłupie, narządach jamy brzusznej. Różne sekwencje (T1, T2, PD, FLAIR, DWI itd.) bazują cały czas na tym samym zjawisku: relaksacji protonów wodoru i różnicach w czasach relaksacji T1 i T2 w różnych tkankach. Z mojego doświadczenia, jak raz się zrozumie, że MR „słucha” protonów wodoru w polu magnetycznym, to dużo łatwiej ogarnąć, dlaczego metal w ciele pacjenta jest problemem, czemu ważne jest jednorodne pole magnetyczne i czemu obecność wody w tkankach tak mocno wpływa na kontrast obrazu. To jest absolutna podstawa fizyki rezonansu, którą warto mieć dobrze poukładaną, bo przewija się wszędzie w diagnostyce obrazowej.

Pytanie 19

Elementem systemu rejestracji obrazu, w którym fotony promieniowania X są bezpośrednio konwertowane na sygnał elektryczny, jest

A. detektor z jodkiem cezu.
B. detektor z amorficznym selenem.
C. błona halogenosrebrowa.
D. płyta luminoforowa.
Prawidłowo wybrany detektor z amorficznym selenem to klasyczny przykład tzw. bezpośredniej detekcji promieniowania X. W takim układzie fotony promieniowania rentgenowskiego są pochłaniane bez udziału pośredniego świecenia (bez etapu emisji światła widzialnego), a ich energia jest od razu zamieniana na ładunek elektryczny w warstwie półprzewodnika, właśnie amorficznego selenu (a-Se). Pod wpływem promieniowania w a-Se powstają pary elektron–dziura, które następnie są zbierane dzięki przyłożonemu polu elektrycznemu i rejestrowane przez matrycę cienkowarstwowych tranzystorów (TFT). Daje to bardzo dobrą rozdzielczość przestrzenną, co w praktyce świetnie sprawdza się np. w mammografii cyfrowej, gdzie liczy się widoczność drobnych mikrozwapnień i bardzo delikatnych struktur. W systemach bezpośrednich unika się rozmycia związanego z rozpraszaniem światła w luminoforze, dlatego krawędzie struktur są ostrzejsze, a obraz bardziej „czysty”. Z mojego doświadczenia to właśnie na detektorach z a-Se najłatwiej dostrzec subtelne różnice gęstości tkanek. W wielu zaleceniach producentów i wytycznych dotyczących jakości obrazów (np. w mammografii) podkreśla się znaczenie wysokiej rozdzielczości i niskiego szumu, co systemy z bezpośrednią konwersją bardzo dobrze zapewniają. W praktyce klinicznej technik zwykle nie widzi „gołego” selenu, tylko cały panel detektora, ale warto kojarzyć, że jeśli w opisie sprzętu jest mowa o direct conversion, direct digital radiography z a-Se, to właśnie chodzi o taki mechanizm: promieniowanie X → ładunek elektryczny, bez etapu świecenia. To jest podstawowa różnica wobec detektorów scyntylacyjnych z jodkiem cezu, które pracują w trybie pośrednim.

Pytanie 20

Która metoda diagnostyczna służy do określenia gęstości minerału kostnego w ujęciu objętościowym g/cm³?

A. Ilościowa tomografia komputerowa.
B. Absorpcjometria podwójnej energii promieniowania rentgenowskiego.
C. Ilościowa metoda ultradźwiękowa.
D. Absorpcjometria pojedynczej energii promieniowania rentgenowskiego.
W tym pytaniu łatwo się złapać na skojarzeniach z klasyczną densytometrią, bo większość osób od razu myśli o DXA jako o „badaniu gęstości kości”. Trzeba jednak rozróżnić dwie rzeczy: pomiar powierzchniowy (arealny) w g/cm² i pomiar objętościowy w g/cm³. W metodach opartych na promieniowaniu rentgenowskim w projekcji 2D, takich jak absorpcjometria podwójnej energii (DXA) czy pojedynczej energii, wynik jest de facto gęstością masy na powierzchnię, a nie na objętość. To jest bardzo przydatne klinicznie, bo na DXA opierają się oficjalne kryteria rozpoznawania osteoporozy (T-score według WHO), ale fizycznie nie jest to gęstość objętościowa. DXA (podwójna energia) wykorzystuje dwa widma energii promieniowania, co pozwala odróżnić kość od tkanek miękkich i uzyskać precyzyjny pomiar BMD, lecz nadal jest to wartość przeliczona na cm², wynikająca z projekcyjnego charakteru badania. Jednoenergetyczna absorpcjometria rentgenowska to starsza, mniej dokładna technika, historycznie stosowana głównie w badaniach obwodowych (nadgarstek, pięta). Ona także opiera się na projekcji 2D i nie daje wiarygodnej gęstości w g/cm³. Wiele osób intuicyjnie zakłada, że skoro jest „absorpcjometria”, to musi oznaczać bezpośredni pomiar gęstości fizycznej, ale to jest właśnie typowy błąd myślowy: mylenie gęstości mineralnej w sensie klinicznym (BMD arealna) z gęstością objętościową. Z kolei ilościowa metoda ultradźwiękowa w ogóle nie mierzy gęstości w jednostkach g/cm³. W ultrasonografii ilościowej analizuje się prędkość rozchodzenia się fali w kości i tłumienie (BUA – Broadband Ultrasound Attenuation). Na tej podstawie szacuje się jakość kości, ryzyko złamań i pośrednio strukturę beleczkową, ale wynik jest podawany w jednostkach charakterystycznych dla ultradźwięków, nie w standardowych jednostkach gęstości masowej. Z mojego doświadczenia sporo osób myśli, że „ilościowa” = „absolutna w g/cm³”, co też jest mylące. Jedyną z wymienionych metod, która naprawdę potrafi wyznaczyć gęstość mineralną w ujęciu objętościowym, jest ilościowa tomografia komputerowa, ponieważ wykorzystuje obrazowanie 3D i kalibrację z fantomem referencyjnym, a wynik odnosi do objętości tkanki kostnej. To właśnie różni QCT od metod projekcyjnych i ultradźwiękowych i dlatego pozostałe odpowiedzi, choć brzmią sensownie, nie spełniają kryterium pomiaru w g/cm³.

Pytanie 21

Po wykonanej radioterapii do dokumentacji pacjenta należy wpisać dawkę promieniowania w jednostce

A. Grej (Gy)
B. Bekerel (Bq)
C. Kiur (Ci)
D. Siwert (Sv)
Prawidłową jednostką dawki pochłoniętej w radioterapii jest grej (Gy). W dokumentacji po napromienianiu zawsze wpisujemy dawkę w Gy, ponieważ ta jednostka opisuje ile energii promieniowania zostało pochłonięte przez tkankę: 1 Gy = 1 dżul na kilogram. To jest dokładnie to, co nas interesuje przy planowaniu i ocenie skuteczności leczenia onkologicznego – ile energii oddaliśmy do guza i tkanek zdrowych. W praktyce klinicznej zapis wygląda np. tak: „Dawka całkowita: 50 Gy w 25 frakcjach po 2 Gy”, albo przy brachyterapii: „HDR 7 Gy na frakcję do punktu referencyjnego”. Moim zdaniem warto od początku przyzwyczajać się do czytania i pisania takich zapisów, bo to jest codzienny chleb w radioterapii. Grej jest jednostką układu SI i jest standardem w wytycznych międzynarodowych (ICRU, ICRP), w planach leczenia, w systemach TPS i w kartach informacyjnych. Oczywiście w radiologii i ochronie radiologicznej pojawiają się też inne jednostki, jak siwert (Sv) dla dawki równoważnej i skutecznej czy bekerel (Bq) dla aktywności źródła, ale to są inne wielkości fizyczne. W radioterapii, przy opisie konkretnego napromieniania pacjenta, wpisujemy właśnie dawkę pochłoniętą w Gy. W dokumentacji dodatkowo często zaznacza się rozkład dawki (DVH), dawki na narządy krytyczne też w Gy, np. „maks. dawka do rdzenia kręgowego 45 Gy”. To wszystko musi być spójne, dlatego użycie greja nie jest kwestią mody, tylko po prostu standardem i wymogiem poprawnej dokumentacji medycznej.

Pytanie 22

Standardowe badanie USG średniej wielkości piersi wykonuje się głowicą w zakresie częstotliwości

A. 0,5-1 MHz
B. 7,5-15 MHz
C. 4,5-7 MHz
D. 2-3,5 MHz
W ultrasonografii piersi kluczowe jest zrozumienie zależności między częstotliwością a głębokością penetracji i rozdzielczością. Piersi, zwłaszcza średniej wielkości, są narządem raczej powierzchownym, więc priorytetem jest wysoka rozdzielczość obrazu, a nie bardzo duża głębokość wnikania fali. To jest główny powód, dla którego stosuje się głowice o częstotliwości 7,5–15 MHz, a nie niższe zakresy podane w odpowiedziach. Najniższy zakres 0,5–1 MHz to w ogóle częstotliwości zupełnie nieprzydatne do obrazowania takich struktur jak pierś. Tak niskie częstotliwości kojarzą się raczej z zastosowaniami terapeutycznymi, ewentualnie bardzo głęboką penetracją w dużych strukturach, ale kosztem fatalnej rozdzielczości. Obraz przy takiej częstotliwości byłby tak mało szczegółowy, że nie dałoby się ocenić ani granic zmiany, ani jej wewnętrznej struktury. Typowym błędem jest myślenie: „im niższa częstotliwość, tym lepiej, bo głębiej widać”, ale w piersi nie chodzi o głębię, tylko o detale. Zakres 2–3,5 MHz jest typowy raczej dla badań jamy brzusznej u osób otyłych, echokardiografii przezklatkowej czy obrazowania głęboko położonych narządów u dorosłych. W piersi, szczególnie średniej, taka częstotliwość dałaby zbyt małą rozdzielczość, a dodatkowa głębokość wnikania jest po prostu niepotrzebna. Moim zdaniem to częsty skrót myślowy: „to też USG, więc będzie ok”, ale standardy diagnostyki piersi wymagają znacznie wyższej częstotliwości. Zakres 4,5–7 MHz jest już bliżej prawidłowego, bo stosuje się go do niektórych badań narządów powierzchownych u osób z grubszą tkanką podskórną, ale w nowoczesnej diagnostyce piersi nadal uznaje się go za zbyt niski jako podstawowy wybór. Rozdzielczość przy 5 MHz jest wyraźnie gorsza niż przy 10–12 MHz, co ma ogromne znaczenie przy wykrywaniu małych zmian, np. guzków rzędu 3–5 mm. Przy zbyt niskiej częstotliwości łatwo o niedoszacowanie wielkości zmiany, mylne wrażenie jej jednorodności albo wręcz przeoczenie subtelnych ognisk. Podsumowując, wszystkie niższe zakresy częstotliwości kuszą większą głębokością penetracji, ale w badaniu piersi nie o to chodzi. Tu obowiązuje zasada: jak najwyższa częstotliwość, przy której fala jeszcze wystarczająco penetruje całą grubość piersi. Z tego powodu standardem dla średniej piersi są głowice 7,5–15 MHz, zgodnie z dobrymi praktykami i zaleceniami towarzystw radiologicznych.

Pytanie 23

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 1-3 MeV
B. 0,1-0,3 MeV
C. 100-150 MeV
D. 4-25 MeV
Prawidłowy zakres 4–25 MeV bardzo dobrze pasuje do typowego medycznego przyspieszacza liniowego używanego w radioterapii zdalnej (teleterapii). W linaku medycznym przyspiesza się elektrony do energii rzędu kilku–kilkunastu MeV, a następnie kieruje je na tarczę wolframową. W wyniku hamowania elektronów w materiale tarczy powstaje promieniowanie hamowania (bremsstrahlung) – właśnie wiązka fotonów o energii maksymalnej zbliżonej do energii elektronów, czyli np. 6 MV, 10 MV, 15 MV itd. W praktyce klinicznej stosuje się najczęściej energie fotonów 4–6 MV dla płycej położonych zmian i 10–18 MV dla głębiej leżących guzów, żeby uzyskać odpowiedni rozkład dawki w tkankach, tzw. efekt build-up i oszczędzić skórę. Moim zdaniem warto zapamiętać, że te energie są dużo wyższe niż w diagnostyce obrazowej, bo tu już mówimy o dawkach terapeutycznych, a nie tylko o tworzeniu obrazu. W planowaniu radioterapii fizyk medyczny dobiera energię fotonów właśnie z tego przedziału, uwzględniając głębokość guza, gęstość tkanek po drodze i wymagania dotyczące ochrony narządów krytycznych. Standardy radioterapii (np. IAEA, ESTRO) opisują linaki z energiami fotonów typowo 4–25 MV jako złoty standard w nowoczesnej teleterapii. Warto też pamiętać, że ta energia fotonów przekłada się na wymagania osłonowe bunkra – ściany z betonu mają zwykle kilkadziesiąt cm grubości, właśnie dlatego, że pracujemy w zakresie kilku–kilkudziesięciu MeV. W praktyce technika radioterapii to jest Twój chleb powszedni: dobór odpowiedniego pola, kolimatora MLC, weryfikacja ustawienia pacjenta – wszystko to zakłada, że wiązka fotonowa ma energię z tego zakresu i tak jest też opisywana w planie leczenia i w dokumentacji dawki.

Pytanie 24

Obrazy DDR są tworzone w trakcie

A. weryfikacji geometrii pól terapeutycznych na symulatorze rentgenowskim.
B. planowania radioterapii w komputerowym systemie planowania leczenia.
C. napromieniowania na aparacie terapeutycznym.
D. wykonywania przekrojów w tomografii komputerowej.
Prawidłowo – obrazy DDR (Digital DRR, czyli cyfrowe Digitally Reconstructed Radiographs) powstają właśnie na etapie planowania radioterapii w komputerowym systemie planowania leczenia. System bierze trójwymiarowe dane z tomografii komputerowej pacjenta i na ich podstawie „symuluje” projekcje podobne do klasycznego zdjęcia RTG. W efekcie dostajemy obraz, który wygląda jak zdjęcie rentgenowskie, ale jest całkowicie wyliczony matematycznie z danych TK, a nie wykonany na aparacie terapeutycznym czy symulatorze. Taki DDR pokazuje, jak powinno wyglądać ustawienie pacjenta i pól terapeutycznych przy prawidłowym napromienianiu. W praktyce klinicznej używa się go do weryfikacji geometrii napromieniania: technik porównuje obraz DDR z obrazami weryfikacyjnymi wykonanymi już na aparacie (np. portal imaging, EPID) i sprawdza, czy kości, narządy krytyczne i obszar PTV są w tym samym położeniu. Moim zdaniem to jest jedno z kluczowych narzędzi bezpieczeństwa w radioterapii – dzięki DDR można wcześnie wychwycić błędne ustawienie pacjenta, przesunięcie stołu, złą rotację czy pomyłkę w doborze projekcji. Dobre praktyki mówią jasno: poprawnie przygotowany plan musi mieć wygenerowane DRR dla każdej wiązki, z czytelnie zaznaczonym konturem guza, narządów krytycznych i osiami referencyjnymi. W nowoczesnych systemach planowania (np. Eclipse, Monaco, RayStation) generacja DDR to standardowy krok workflow, praktycznie nie da się zakończyć planu bez tych obrazów. Warto też pamiętać, że jakość DDR zależy od jakości badania TK (grubość warstw, artefakty), więc już na etapie skanowania pacjenta trzeba myśleć o tym, że te dane posłużą później do rekonstrukcji obrazów referencyjnych dla całej radioterapii.

Pytanie 25

W brachyterapii MDR stosowane są dawki promieniowania

A. od 0,2 do 0,4 Gy/h
B. od 0,5 do 1,0 Gy/h
C. od 2,0 do 12 Gy/h
D. od 0,01 do 0,1 Gy/h
Poprawnie – w brachyterapii typu MDR (medium dose rate) przyjmuje się, że tempo dawki mieści się w zakresie od ok. 2 do 12 Gy/h i to właśnie odpowiada zaznaczonej odpowiedzi. Ten przedział jest ustalony w oparciu o klasyczne podziały ICRU/ICRP na LDR, MDR, HDR i PDR. W praktyce klinicznej takie dawki uzyskuje się głównie przy użyciu źródeł o średniej aktywności i systemów afterloading, gdzie aplikator jest już założony w ciele pacjenta, a źródło jest wsuwane automatycznie pod kontrolą aparatu. Moim zdaniem warto zapamiętać proste skojarzenie: LDR to dawki rzędu dziesiątych części Gy na godzinę, HDR to kilkanaście Gy na godzinę i więcej, a MDR leży właśnie pomiędzy, czyli te 2–12 Gy/h. W tym zakresie dawki mamy jeszcze relatywnie długi czas ekspozycji, liczony w dziesiątkach minut, czasem w godzinach, ale już zdecydowanie krótszy niż przy klasycznej brachyterapii LDR, gdzie źródła pozostawały w pacjencie nawet kilka dni. Z punktu widzenia planowania leczenia tempo dawki wpływa na biologiczny efekt promieniowania – przy MDR można uzyskać pewien kompromis między wygodą organizacyjną (krótszy pobyt pacjenta w osłoniętej sali, większa przepustowość) a korzyściami radiobiologicznymi podobnymi do LDR, np. lepszą tolerancją tkanek zdrowych dzięki częściowej możliwości naprawy subletalnych uszkodzeń. W standardach radioterapii podkreśla się, że przy planowaniu brachyterapii MDR trzeba bardzo dokładnie określić geometrię aplikatorów, zweryfikować położenie w obrazowaniu (najczęściej TK) i kontrolować czas przebywania źródła w poszczególnych pozycjach (tzw. dwell time), bo przy 2–12 Gy/h nawet niewielkie przesunięcie aplikatora albo błąd w czasie może skutkować istotnym przedawkowaniem w krytycznych narządach, np. pęcherzu czy odbytnicy. W wielu ośrodkach MDR jest stosowana np. w leczeniu nowotworów ginekologicznych czy guzów głowy i szyi, gdzie ważne jest połączenie precyzji przestrzennej z umiarkowanym tempem dawki.

Pytanie 26

Zarejestrowany na obrazie TK artefakt jest spowodowany

Ilustracja do pytania
A. wysokim stężeniem środka cieniującego.
B. nieliniowym osłabieniem wiązki.
C. ruchem mimowolnym.
D. metalowym implantem.
Prawidłowo powiązałeś obraz z obecnością metalowego implantu. Na przedstawionym skanie TK widoczny jest bardzo typowy artefakt metaliczny: centralny, ekstremalnie jasny obszar (wysoka gęstość, wartości HU wykraczające poza skalę) oraz promieniste smugi i pasma wychodzące na zewnątrz. To tzw. streak artifacts. Metal bardzo silnie pochłania promieniowanie rentgenowskie, przez co detektory rejestrują skrajne wartości sygnału, a algorytm rekonstrukcji obrazu „gubi się” i tworzy te charakterystyczne smugi. Z mojego doświadczenia, tak wygląda np. endoproteza, śruba kostna, proteza stawu, czasem klips naczyniowy – zawsze coś metalowego o dużej gęstości. W praktyce technik TK powinien od razu kojarzyć taki obraz z metalem w polu badania i wiedzieć, że może to istotnie utrudniać ocenę struktur sąsiednich. Standardem jest wtedy stosowanie technik redukcji artefaktów: odpowiednie ułożenie pacjenta, dobór wyższej kV, włączenie algorytmów MAR (Metal Artifact Reduction) w konsoli, czasem rekonstrukcja iteracyjna lub dual-energy CT. Warto pamiętać, że artefakty od ruchu wyglądają inaczej – dają rozmycie, podwójne kontury, ząbkowanie krawędzi, a nie ostre, promieniste smugi wychodzące z jednego bardzo gęstego punktu. Również wysoki kontrast jodowy zwykle nie powoduje aż tak dramatycznych smug, choć może dawać tzw. blooming. W nowoczesnych protokołach TK zawsze uwzględnia się obecność metalu, bo ma to wpływ na dawkę, jakość obrazu i sposób interpretacji – radiolog musi wiedzieć, że część zmian może być zwyczajnie „ukryta” w artefaktach metalicznych. Moim zdaniem to jedno z ważniejszych rozpoznań artefaktu, bo występuje bardzo często w praktyce szpitalnej, szczególnie na ortopedii i neurochirurgii.

Pytanie 27

Planowany obszar napromieniania PTV obejmuje

A. wyłącznie obszar napromieniania guza.
B. obszar napromieniania guza wraz z marginesami.
C. guz w płucach bez marginesów.
D. guz w mózgu bez marginesów.
Planowany obszar napromieniania PTV (Planning Target Volume) to w radioterapii pojęcie bardzo konkretne i wbrew pozorom wcale nie chodzi tylko o sam guz. PTV zawsze obejmuje obszar napromieniania guza wraz z odpowiednimi marginesami bezpieczeństwa. Te marginesy dodaje się po to, żeby skompensować wszystkie możliwe niepewności: drobne przesunięcia pacjenta, ruchy narządów (np. oddech, perystaltyka), różnice w ułożeniu z dnia na dzień, a nawet nieidealną powtarzalność ustawień aparatu. W standardach ICRU (np. ICRU 50, 62) wyróżnia się kilka objętości: GTV (gross tumor volume – widoczny guz), CTV (clinical target volume – guz + mikroskopowe szerzenie) i dopiero na CTV nakłada się marginesy, tworząc PTV. Czyli PTV to nie „to co widać”, tylko „to co chcemy na pewno pokryć dawką mimo wszystkich odchyłek”. W praktyce, przy planowaniu w TPS (system planowania leczenia), fizyk medyczny i lekarz radioterapeuta definiują GTV i CTV na obrazach TK/MR, a następnie automatycznie lub ręcznie generują marginesy, np. 5–10 mm, uzależnione od lokalizacji, stabilizacji pacjenta i techniki (IMRT, VMAT, stereotaksja). W nowoczesnych technikach IGRT marginesy czasem można zmniejszać, ale nigdy nie rezygnuje się z nich całkowicie, bo to byłoby wbrew zasadom bezpieczeństwa onkologicznego. Moim zdaniem kluczowe jest zapamiętanie: PTV = objętość kliniczna + marginesy na błędy ustawienia i ruch, a nie sam guz. Dzięki temu dawka terapeutyczna realnie trafia tam, gdzie ma trafić, a ryzyko niedonapromienienia fragmentu guza jest dużo mniejsze.

Pytanie 28

W radiografii mianem SID określa się

A. odległość między obiektem badanym a detektorem obrazu.
B. odległość między źródłem promieniowania a detektorem obrazu.
C. system automatycznej kontroli ekspozycji.
D. system automatycznej regulacji jasności.
W tym pytaniu kłopot sprawia głównie to, że w radiologii jest sporo skrótów i łatwo je ze sobą pomylić. SID to konkretny termin geometryczny: Source to Image Distance, czyli odległość od lampy rentgenowskiej (ogniska promieniowania) do płaszczyzny detektora obrazu. Nie ma on nic wspólnego z elektroniką sterującą jasnością ani z automatyką ekspozycji, chociaż wszystkie te rzeczy razem wpływają na ostateczny wygląd zdjęcia. System automatycznej regulacji jasności kojarzy się raczej z fluoroskopią, gdzie aparat na bieżąco dopasowuje parametry, żeby obraz na monitorze miał stałą jasność, mimo że np. pacjent jest grubszy lub cieńszy w różnych miejscach. To są układy sterujące kV, mA lub czasem filtracją wiązki, ale ich nazwy to zwykle ABC (Automatic Brightness Control) albo podobne, a nie SID. Z kolei system automatycznej kontroli ekspozycji, znany jako AEC, to czujniki umieszczone za lub przed detektorem, które „wyłączają” ekspozycję, gdy zarejestrują odpowiednią ilość promieniowania. Dzięki temu zdjęcia są bardziej powtarzalne, a pacjent nie dostaje zbędnej dawki. To też nie ma związku z samą odległością, tylko z pomiarem promieniowania w czasie ekspozycji. Częsty błąd polega na tym, że ktoś widzi skrót i myśli: skoro w radiografii jest dużo automatyki, to pewnie chodzi o jakiś system sterowania. Tymczasem SID to czysta geometria. Równie mylące bywa utożsamianie SID z odległością między obiektem badanym a detektorem. Ta odległość też jest ważna i określa się ją osobno, jako OID (Object to Image Distance). OID wpływa na powiększenie i nieostrość, ale w definicji SID zawsze chodzi o źródło promieniowania, a nie o sam obiekt. Dobra praktyka w pracowni RTG polega na tym, żeby rozróżniać wszystkie te pojęcia: SID – odległość źródło–detektor, OID – odległość obiekt–detektor, AEC – automatyczna kontrola ekspozycji, systemy jasności – układy fluoroskopowe. Gdy to się poukłada w głowie, dużo łatwiej świadomie dobierać parametry badania i rozumieć, dlaczego protokoły wymagają konkretnych ustawień geometrii.

Pytanie 29

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. wielkości ziarna luminoforu folii wzmacniającej.
B. wielkości ogniska optycznego.
C. grubości emulsji błony rentgenowskiej.
D. ilości promieniowania rozproszonego.
Prawidłowo – klucz do zrozumienia nieostrości geometrycznej leży w wielkości ogniska optycznego lampy rentgenowskiej, czyli w praktyce w wielkości rzeczywistego ogniska anody. Im większe ognisko, tym większe „rozmycie” krawędzi struktur na obrazie, bo promienie wychodzą z większego obszaru, a nie z jednego punktu. Tworzy się wtedy tzw. półcień geometryczny. Dlatego w nowoczesnych aparatach RTG stosuje się małe ogniska (np. 0,6 mm, 1,0 mm) do badań wymagających wysokiej rozdzielczości, np. zdjęcia kości nadgarstka, stopy, zdjęcia zębowo-zębodołowe czy mammografia, gdzie standardy mówią wręcz o bardzo małych ogniskach, żeby dobrze pokazać drobne zwapnienia. Moim zdaniem warto zapamiętać prostą zasadę z praktyki: jeśli zależy nam na bardzo ostrym obrazie drobnych struktur, technik wybiera możliwie najmniejsze ognisko, jakie jeszcze „wytrzyma” wymaganą mAs, bez przegrzewania anody. Z kolei przy dużych polach, np. zdjęcie klatki piersiowej u dorosłego, często używa się większego ogniska, żeby nie przeciążyć lampy, kosztem lekkiego spadku ostrości, ale nadal akceptowalnego zgodnie z wytycznymi jakościowymi. Warto też kojarzyć, że nieostrość geometryczna zależy dodatkowo od odległości ognisko–błona (FDD) oraz odległości obiekt–błona: im większa odległość obiektu od detektora, tym większy półcień. Jednak w pytaniu pytają konkretnie, od czego zależy sama nieostrość geometryczna jako parametr aparatu – i tutaj decydująca jest właśnie wielkość ogniska optycznego, co jest klasycznym elementem fizyki medycznej i zasad wykonywania zdjęć RTG.

Pytanie 30

Do pomiaru dawek indywidualnych u osób narażonych zawodowo na promieniowanie rentgenowskie są stosowane

A. liczniki geigera.
B. detektory półprzewodnikowe.
C. liczniki scyntylacyjne.
D. detektory termoluminescencyjne.
Prawidłowa odpowiedź to detektory termoluminescencyjne i dokładnie takie dozymetry są standardem w ochronie radiologicznej pracowników narażonych na promieniowanie rentgenowskie. Dozymetr termoluminescencyjny (TLD) zawiera kryształ, najczęściej fluorek litu (LiF) albo inne materiały termoluminescencyjne, w których podczas napromieniania gromadzi się energia z promieniowania jonizującego. Później, w pracowni dozymetrycznej, ten kryształ jest podgrzewany w specjalnym czytniku, a zgromadzona energia jest uwalniana w postaci światła. Ilość tego światła jest proporcjonalna do pochłoniętej dawki. To pozwala bardzo dokładnie wyznaczyć dawkę indywidualną, czyli to, co faktycznie „złapał” pracownik na swoim ciele. W praktyce takie dozymetry nosi się zwykle na klatce piersiowej, czasem dodatkowo przy tarczycy lub dłoniach, zależnie od rodzaju pracy. Z mojego doświadczenia w pracowniach RTG i TK właśnie TLD są najczęściej spotykane, bo są małe, tanie, stabilne i dobrze znoszą warunki codziennej pracy. Spełniają wymagania przepisów BHP i zaleceń inspekcji sanitarnej oraz Państwowej Agencji Atomistyki dotyczących monitorowania dawek zawodowych. W wielu ośrodkach stosuje się też tzw. dawkomierze pierścionkowe TLD dla osób pracujących blisko wiązki, np. przy zabiegach hemodynamicznych czy w salach hybrydowych. Warto też pamiętać, że dozymetr indywidualny nie służy do bieżącej kontroli w czasie zabiegu, tylko do oceny skumulowanej dawki w miesięcznych lub kwartalnych okresach rozliczeniowych. To jest typowa i uznana dobra praktyka w ochronie radiologicznej personelu medycznego.

Pytanie 31

Parametr SNR w obrazowaniu MR oznacza

A. wielkość pola widzenia.
B. stosunek sygnału do szumu.
C. rozmiar matrycy.
D. grubość obrazowanej warstwy.
W obrazowaniu MR bardzo łatwo pomylić różne parametry techniczne, bo wszystkie one wpływają na końcowy wygląd obrazu, ale nie wszystkie opisują to samo. Rozmiar matrycy określa liczbę punktów pomiarowych w kierunku fazy i częstotliwości, czyli w praktyce rozdzielczość przestrzenną obrazu. Większa matryca daje drobniejsze detale, ale zwykle obniża SNR, bo ten sam sygnał jest „rozsmarowany” na większą liczbę pikseli. To jednak nie jest definicja SNR, tylko jeden z czynników, który na niego wpływa. Podobnie pole widzenia (FOV) określa obszar ciała obejmowany obrazem. Zwiększenie FOV powoduje, że obejmujemy większą część pacjenta, ale też zmienia rozmiar pojedynczego voxela. Większy voxel zwykle poprawia SNR, bo zawiera więcej sygnału z większej objętości tkanki, jednak to dalej tylko pośredni wpływ, a nie sama istota parametru. Grubość warstwy działa analogicznie: grubsza warstwa to większa objętość tkanki, więcej protonów, silniejszy sygnał, więc lepszy SNR, ale jednocześnie gorsza rozdzielczość w kierunku osiowym i możliwość nakładania się struktur. Typowym błędem myślowym jest utożsamianie parametru, który poprawia „jakość obrazu”, z samą definicją SNR. SNR nie mówi ani o rozmiarze obrazu, ani o ilości pikseli, ani o grubości warstwy, tylko o relacji między sygnałem a losowym szumem w układzie pomiarowym. W dobrych praktykach MR rozmiar matrycy, FOV i grubość warstwy traktuje się jako narzędzia do kształtowania SNR i rozdzielczości, ale same w sobie nie są SNR. Z mojego doświadczenia dobrze jest to sobie poukładać tak: matryca, FOV, grubość warstwy opisują GEOMETRIĘ i ROZDZIELCZOŚĆ obrazu, a SNR opisuje jego CZYTELNOŚĆ w kontekście zakłóceń. I dopiero połączenie tych parametrów daje optymalny protokół badania, zgodny ze standardami diagnostycznymi.

Pytanie 32

W celu wyeliminowania zakłóceń obrazu MR przez sygnały pochodzące z tkanki tłuszczowej, stosuje się

A. sekwencje FLAIR.
B. obrazowanie T1 - zależne.
C. sekwencje STIR.
D. obrazowanie PD - zależne.
W obrazowaniu MR różne sekwencje mają bardzo konkretne zastosowania i łatwo się pomylić, jeśli kojarzy się je tylko ogólnie z „kontrastem” czy „lepszym obrazem”. W tym pytaniu chodziło ściśle o eliminację zakłóceń od tkanki tłuszczowej. Sekwencje zależne od PD, czyli proton density, są ukierunkowane na ocenę gęstości protonowej tkanek. Dają dobrą rozdzielczość struktur anatomicznych, szczególnie w stawach, ale same z siebie nie wygaszają selektywnie sygnału z tłuszczu. Można oczywiście nałożyć na nie dodatkową technikę fat‑sat, ale wtedy mówimy o PD z saturacją tłuszczu, a nie o „obrazowaniu PD‑zależnym” jako takim. Podobnie sekwencje T1‑zależne: tłuszcz naturalnie świeci jasno w T1, co jest przydatne np. do oceny anatomii, szpiku, zmian po kontraście gadolinowym. Jednak to, że tłuszcz jest dobrze widoczny, nie oznacza jego supresji. Wręcz przeciwnie – w klasycznym T1 bez fat‑satu tłuszcz będzie jednym z najjaśniejszych elementów obrazu. Częsty błąd polega na myleniu „ładnego kontrastu” z „tłumieniem tłuszczu”. Sekwencje FLAIR też bywają mylące. FLAIR (Fluid Attenuated Inversion Recovery) jest bardzo podobny konstrukcyjnie do STIR, bo też używa impulsu inwersyjnego, ale jest zaprojektowany do tłumienia sygnału płynu, głównie płynu mózgowo‑rdzeniowego, a nie tłuszczu. W neuroobrazowaniu to standard do wykrywania zmian w istocie białej, udarów, ognisk demielinizacyjnych. Jednak jeśli chcemy pozbyć się sygnału z tłuszczu, FLAIR po prostu nie spełni tego zadania. Prawidłowa koncepcja polega na tym, że tłumienie tłuszczu metodą inwersji uzyskujemy właśnie w STIR, gdzie czas TI jest dobrany do czasu relaksacji T1 tkanki tłuszczowej. W praktyce klinicznej stosuje się też inne techniki fat‑sat, np. CHESS czy Dixon, ale one działają na zasadzie selektywnej saturacji częstotliwościowej, a nie inwersji. Kluczowe jest więc rozróżnienie: PD i T1 opisują rodzaj kontrastu, FLAIR wycisza płyn, a STIR – tłuszcz. Mylenie tych pojęć to typowy błąd na egzaminach i w nauce MR, bo wszystkie nazwy brzmią podobnie i opierają się na relaksacji, ale ich cel kliniczny jest zupełnie inny.

Pytanie 33

W technice napromieniania SSD mierzona jest odległość źródła promieniowania od

A. punktu zdefiniowanego na skórze pacjenta.
B. izocentrum aparatu terapeutycznego.
C. napromienianego guza.
D. stołu aparatu terapeutycznego.
W technice napromieniania SSD (source–skin distance) kluczowe jest właśnie to, że jako punkt odniesienia przyjmuje się punkt zdefiniowany na skórze pacjenta. Cała metoda polega na ustawieniu stałej odległości od źródła promieniowania do powierzchni ciała, a nie do guza czy izocentrum. Dzięki temu łatwiej kontrolować warunki geometryczne wiązki, dawkę na głębokości referencyjnej oraz powtarzalność ułożeń między frakcjami. W praktyce wygląda to tak, że terapeuta wyznacza na skórze pacjenta odpowiedni punkt (np. tuszem, markerem, czasem z użyciem tatuaży), a potem za pomocą wskaźnika odległości (tzw. distance indicator, suwak SSD, czasem laser + miarka) ustawia dokładnie wymaganą SSD, np. 100 cm. Moim zdaniem to jest bardzo „technicznie wygodna” metoda, szczególnie przy prostszych polach i technikach 2D. W standardach radioterapii opisuje się ją jako alternatywę dla napromieniania izocentrycznego (SAD), gdzie odległość jest stała do izocentrum w ciele pacjenta. W SSD zawsze kalibruje się dawkę przy określonej odległości źródło–skóra, a planowanie dawki na głębokości wymaga już uwzględnienia krzywych procentowej dawki głębokiej (PDD). W codziennej pracy technika SSD bywa wykorzystywana np. przy napromienianiu zmian powierzchownych, pól na skórę, czasem w prostych polach paliatywnych, gdzie ważne jest szybkie i powtarzalne ustawienie. Dobrą praktyką jest, żeby ten punkt na skórze był jednoznacznie oznaczony, łatwy do odtworzenia, a kontrola SSD odbywała się przed każdą frakcją, bo każda zmiana ułożenia, podkładek czy materaca może tę odległość zaburzyć.

Pytanie 34

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 1 ÷ 3 MeV
B. 0,1 ÷ 0,3 MeV
C. 100 ÷ 150 MeV
D. 4 ÷ 25 MeV
W tym pytaniu haczyk polega głównie na rozróżnieniu energii wiązek stosowanych w diagnostyce obrazowej od energii używanych w radioterapii megawoltowej. Wiele osób intuicyjnie wybiera zakresy bliższe tym znanym z aparatu RTG, a to prowadzi do błędu. Zakres 0,1–0,3 MeV, czyli 100–300 keV, to typowe energie fotonów używanych w klasycznej radiodiagnostyce: zdjęcia RTG, fluoroskopia, tomografia komputerowa. Takie fotony dobrze obrazują struktury anatomiczne, bo są silnie pochłaniane i rozpraszane w tkankach, ale ich zasięg jest zbyt mały, a rozkład dawki niekorzystny do celów terapeutycznych dla guzów położonych głęboko. W radioterapii zewnętrznej potrzebujemy znacznie wyższych energii, aby dawka mogła „dojść” do guza przy jednoczesnym względnym oszczędzeniu skóry. Zakres 1–3 MeV jest niejako „pomiędzy” diagnostyką a typową teleterapią. W tej okolicy energii pracowały historyczne aparaty kobaltowe (ok. 1,25 MeV), ale nowoczesne przyspieszacze liniowe, stosowane rutynowo w ośrodkach onkologicznych, generują wiązki o wyższych energiach. W praktyce standardem są fotony rzędu 4–25 MeV, co w dokumentacji często oznacza się jako 4 MV, 6 MV, 10 MV itd. Dlatego wybór niższego zakresu jest zwykle efektem mylenia energii fotonów z napięciem na lampie RTG. Z kolei zakres 100–150 MeV to już zbyt wysokie energie jak na typowe medyczne linaki fotonowe. W takich wartościach pracują raczej akceleratory dla radioterapii cząstkami naładowanymi, np. terapia protonowa (tam mówimy o protonach 70–250 MeV), a nie klasyczne linaki fotonowe do teleterapii. Takie energie wymagają zupełnie innej infrastruktury, osłon bunkra, innej fizyki oddziaływania z materią. Typowym błędem myślowym jest tu przekonanie, że „im wyżej, tym lepiej”, ale w radioterapii liczy się optymalny kompromis: odpowiednia penetracja, możliwość formowania wiązki i bezpieczeństwo. Dlatego prawidłowy jest właśnie zakres 4–25 MeV, a pozostałe przedziały odnoszą się albo do diagnostyki, albo do bardzo specjalistycznych, innych typów akceleratorów, a nie standardowego medycznego przyspieszacza liniowego fotonowego.

Pytanie 35

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. gamma.
B. beta plus.
C. alfa.
D. beta minus.
Prawidłowo, w procesie rozpadu promieniotwórczego emisja fali elektromagnetycznej dotyczy właśnie promieniowania gamma. Rozpad gamma polega na tym, że jądro atomu przechodzi ze stanu wzbudzonego do stanu o niższej energii, bez zmiany liczby protonów i neutronów. Nie zmienia się więc ani liczba masowa, ani liczba atomowa – zmienia się tylko poziom energetyczny jądra. W tym przejściu jądro emituje kwant promieniowania elektromagnetycznego o bardzo dużej energii, czyli foton gamma. To jest fizycznie fala elektromagnetyczna, podobna z natury do światła widzialnego czy promieniowania rentgenowskiego, tylko o znacznie wyższej energii i krótszej długości fali. W medycynie to ma ogromne znaczenie praktyczne. W medycynie nuklearnej izotopy stosowane do scyntygrafii (np. 99mTc) emitują właśnie promieniowanie gamma, które rejestruje gammakamera. Dzięki temu można tworzyć obrazy narządów i oceniać ich funkcję, np. perfuzję mięśnia sercowego czy czynność nerek. Podobnie w PET wykorzystuje się fotony gamma powstające w wyniku anihilacji pozytonu z elektronem. Z mojego doświadczenia, zrozumienie że gamma to fala elektromagnetyczna, a alfa i beta to cząstki, bardzo porządkuje całą fizykę promieniowania i ułatwia później ogarnięcie zasad ochrony radiologicznej. Standardy ochrony (np. ICRP) wyraźnie rozróżniają promieniowanie fotonowe (X, gamma) od cząstkowego, bo inne są materiały osłonowe i sposoby zabezpieczenia. W radioterapii też mamy wiązki fotonowe o energiach zbliżonych do gamma (z akceleratorów liniowych), które zachowują się bardzo podobnie w tkankach, co jest istotne przy planowaniu dawek.

Pytanie 36

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. od 800 ms do 900 ms
B. poniżej 400 ms
C. powyżej 2000 ms
D. od 500 ms do 700 ms
W tym pytaniu łatwo się pomylić, bo wartości TR rzędu kilkuset milisekund rzeczywiście pojawiają się w wielu sekwencjach MR, ale kluczowe jest zrozumienie, kiedy dominuje kontrast T1, a kiedy T2. Przy bardzo krótkich TR, poniżej 400 ms, obraz jest wyraźnie T1-zależny. Tkanki nie zdążą się w pełni zrelaksować podłużnie między kolejnymi impulsami, dlatego różnice T1 są bardzo podkreślone. To jest logika stosowana np. w szybkich sekwencjach T1 do obrazowania z kontrastem gadolinowym. Taki TR jest zdecydowanie za krótki, żeby zbudować typowy kontrast T2. Podobnie wartości TR rzędu 500–700 ms nadal mieszczą się w zakresie raczej krótkich czasów repetycji dla klasycznego spin echo. Obraz przy takich ustawieniach będzie wciąż silnie T1-zależny, szczególnie jeśli TE jest też krótki. Typowym błędem jest myślenie: „skoro to już nie jest bardzo krótki TR, to pewnie T2”. Niestety tak to nie działa – dla T2 trzeba naprawdę długiego TR, tak żeby efekt T1 w zasadzie „zniknął” z równania. Zakres 800–900 ms bywa kojarzony z obrazami pośrednimi, czasem z próbą kompromisu między czasem badania a kontrastem, ale w klasycznym podejściu do nauki MR nadal jest to strefa, gdzie T1 ma duże znaczenie. Obrazy T2-zależne w klasycznym spin echo uzyskujemy przy TR powyżej 2000 ms i jednocześnie długim TE. Z mojego doświadczenia typowy błąd polega na patrzeniu tylko na jedną liczbę i oderwaniu jej od kontekstu fizycznego. Warto zapamiętać prostą zasadę z podręczników i standardów: krótkie TR – T1, długie TR – T2 (o ile TE też jest długie). Jeżeli TR jest poniżej około 1500–2000 ms, trudno mówić o czysto T2-zależnym obrazie w klasycznym SE. Dlatego wszystkie odpowiedzi z zakresami kilkuset milisekund nie pasują do definicji obrazu T2-zależnego i prowadzą do mylnego utożsamiania „trochę dłuższego” TR z typową sekwencją T2.

Pytanie 37

Czas repetycji w obrazowaniu metodą rezonansu magnetycznego to

A. czas między dwoma impulsami częstotliwości radiowej.
B. czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce.
C. czas kąta przeskoku.
D. czas mierzony od impulsu odwracającego 180° do impulsu 90°.
W rezonansie magnetycznym łatwo się pogubić w różnych czasach: mamy czas repetycji (TR), czas echa (TE) i czas inwersji (TI). Jeżeli nie złapie się intuicji, co który oznacza, to odpowiedzi oparte na skojarzeniach typu „kąt”, „szczyt sygnału” czy „odwrócenie” brzmią sensownie, ale niestety mijają się z fizyką badania. Czas repetycji nie ma nic wspólnego z „czasem kąta przeskoku”. W MR owszem, mówimy o kącie odchylenia magnetyzacji (np. 90°, 180°, małe kąty w sekwencjach GRE), ale nie mierzymy żadnego „czasu kąta”. Kąt jest parametrem impulsu RF, a TR to odstęp czasowy między kolejnymi impulsami pobudzającymi. Łączenie TR z kątem wynika często z mylenia definicji z pracą gradientów i zmianą fazy, ale to zupełnie inna bajka. Z kolei określenie „czas mierzony od impulsu odwracającego 180° do impulsu 90°” opisuje w istocie czas inwersji (TI) stosowany w sekwencjach inwersyjno-odtworzeniowych, takich jak STIR czy FLAIR. TI dobieramy tak, żeby wygasić sygnał określonej tkanki, np. tłuszczu albo płynu mózgowo-rdzeniowego. To bardzo ważny parametr, ale nie jest to TR. W tych sekwencjach nadal istnieje TR, który liczymy od cyklu do cyklu pobudzenia, natomiast TI jest dodatkowym czasem w środku sekwencji. Następne błędne skojarzenie to „czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce”. To już bardziej przypomina definicję czasu echa (TE). TE to odstęp między impulsem pobudzającym RF (zwykle 90°) a momentem, w którym rejestrujemy maksimum sygnału echa w cewce. TE wpływa głównie na ważenie T2, bo od niego zależy, jak bardzo zdąży zajść relaksacja poprzeczna. Typowy błąd myślowy polega na tym, że wszystko, co „czasowe” w MR, wrzuca się do jednego worka i nazywa TR. W dobrej praktyce diagnostycznej trzeba te pojęcia rozdzielić: TR – czas między kolejnymi impulsami RF pobudzającymi ten sam wycinek, TE – czas do szczytu echa, TI – czas od impulsu 180° do 90°. Dopiero świadome operowanie tymi trzema parametrami pozwala rozumieć, dlaczego dany protokół daje obraz bardziej T1-, T2- czy PD-zależny i jak modyfikacje wpływają na kontrast, SNR i całkowity czas badania.

Pytanie 38

Glukoza podawana pacjentowi w badaniu PET jest znakowana radioaktywnym

A. torem.
B. fluorem.
C. fosforem.
D. technetem.
W medycynie nuklearnej dobór właściwego radionuklidu do konkretnej procedury jest absolutnie kluczowy. W PET nie wystarczy, że pierwiastek jest radioaktywny; musi emitować pozytony o odpowiedniej energii, mieć dopasowany okres półtrwania i dać się wbudować w cząsteczkę biologicznie aktywną. Dlatego w przypadku obrazowania metabolizmu glukozy stosuje się fluor-18, a nie tor, fosfor czy technet. Tor kojarzy się niektórym z promieniotwórczością, ale w diagnostyce obrazowej praktycznie się go nie używa. Jego izotopy mają niekorzystne właściwości fizyczne i radiotoksykologiczne, a do tego nie ma uzasadnionych klinicznie radiofarmaceutyków z torem do rutynowych badań PET. To raczej temat badań specjalistycznych, głównie w kontekście terapii, a nie obrazowania metabolizmu glukozy. Fosfor rzeczywiście jest ważnym pierwiastkiem w biologii, a izotop 32P bywa używany w badaniach naukowych czy w niektórych terapiach, ale nie jest emiterem pozytonów stosowanym w klasycznym PET. Można spotkać go w kontekście terapii izotopowej, jednak nie jako znacznik glukozy. W PET do znakowania związków metabolicznych używa się głównie izotopów takich jak 18F, 11C, 13N czy 15O, właśnie ze względu na ich właściwości fizyczne. Technet-99m jest natomiast bardzo popularny w scyntygrafii planarne i SPECT, ale to emiter promieniowania gamma, a nie pozytonów. Świetnie sprawdza się w badaniach kości, perfuzji mięśnia sercowego czy nerek, jednak nie nadaje się do PET. Typowym błędem jest wrzucanie „wszystkich radioizotopów” do jednego worka – że jak coś jest promieniotwórcze, to można to podać i zobaczyć na każdym urządzeniu. W praktyce każdy tryb obrazowania (SPECT, PET, RTG) wymaga ściśle określonych energii i typów promieniowania. Właśnie dlatego glukoza w PET musi być znakowana fluorem-18, a nie dowolnym innym pierwiastkiem radioaktywnym.

Pytanie 39

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Przestrzeń międzyżebrowa.
B. Wypełnione gazami jelito cienkie.
C. Wypełniony płynem pęcherz moczowy.
D. Złóg w pęcherzyku żółciowym.
W ultrasonografii pojęcie okna akustycznego jest kluczowe dla jakości obrazu i komfortu badania. Chodzi o taką strukturę lub obszar w ciele, który dobrze przewodzi fale ultradźwiękowe, nie pochłania ich nadmiernie i nie powoduje silnych odbić czy rozproszenia. Najlepszym środowiskiem do tego jest jednorodny płyn, dlatego to właśnie wypełniony płynem pęcherz moczowy stanowi modelowe okno akustyczne w badaniach miednicy mniejszej. Pozostałe odpowiedzi kuszą, bo brzmią logicznie, ale fizycznie zachowują się zupełnie inaczej. Przestrzeń międzyżebrowa bywa wykorzystywana do badania serca czy wątroby, jednak sama w sobie nie jest idealnym oknem. Problemem są żebra – kość bardzo silnie odbija ultradźwięki i powoduje zacienienie akustyczne za sobą. Z doświadczenia wiadomo, że operator musi „manewrować” głowicą między żebrami, żeby ominąć przeszkodę kostną, a nie korzysta z niej jak z dobrego ośrodka przewodzenia fal. To raczej kompromis niż wzorcowe okno. Jeszcze mniej przydatne jest jelito cienkie wypełnione gazem. Gaz w USG to wróg numer jeden: ma ogromną różnicę impedancji akustycznej względem tkanek miękkich, przez co większość fali odbija się na granicy gaz–tkanka. Powstaje silne odbicie powierzchowne, za którym obraz głębiej położonych struktur jest praktycznie niewidoczny. To właśnie dlatego w standardach przygotowania pacjenta do USG jamy brzusznej wymaga się bycia na czczo i ograniczenia wzdęć – chodzi o redukcję gazu w przewodzie pokarmowym. Złóg w pęcherzyku żółciowym również nie może być oknem akustycznym. Kamień jest strukturą bardzo echogeniczną, tworzy wyraźne echo i typowy cień akustyczny za sobą. Ten cień bywa diagnostycznie przydatny do rozpoznawania kamicy, ale kompletnie uniemożliwia zobrazowanie tego, co leży za złogiem. Typowym błędem myślowym jest utożsamianie „dobrze widocznej struktury” z „dobrym oknem akustycznym”. Tymczasem okno to coś, przez co patrzymy dalej, a nie tylko dobrze widzimy samą strukturę. Dobra praktyka w USG polega na świadomym wykorzystaniu płynu jako sprzymierzeńca i unikaniu gazu oraz kości jako barier dla ultradźwięków.

Pytanie 40

Gadolin jako dożylny środek kontrastowy stosowany w MR powoduje

A. skrócenie czasu relaksacji T₁ i brak zmian w czasie relaksacji T₂
B. wydłużenie czasów relaksacji T₁ i T₂
C. skrócenie czasów relaksacji T₁ i T₂
D. wydłużenie czasu relaksacji T₂ i brak zmian w czasie relaksacji T₁
W tym zagadnieniu kluczowe jest zrozumienie, że gadolin jako środek kontrastowy w MR jest związkiem paramagnetycznym i jego głównym efektem fizycznym jest skracanie czasów relaksacji, a nie ich wydłużanie ani pozostawianie bez zmian. Typowym błędem jest mylenie działania gadolinu z działaniem środków negatywnych lub zjawisk powodujących wygaszanie sygnału na obrazach T2‑zależnych, co czasem prowadzi do przekonania, że kontrast „przedłuża” relaksację albo wpływa tylko na jeden z czasów. Założenie, że gadolin wydłuża T2 przy braku wpływu na T1, jest niezgodne z fizyką rezonansu. Obecność jonów gadolinu zwiększa lokalną niejednorodność pola magnetycznego na poziomie mikroskopowym, co ułatwia wymianę energii między jądrami wodoru a otoczeniem i skutkuje skróceniem zarówno T1, jak i T2. W warunkach klinicznych dominuje efekt T1‑skracający, ale to nie znaczy, że T2 pozostaje nietknięte. Stąd koncepcja „brak zmian T2” po kontraście gadolinowym jest uproszczeniem, które może być groźne, gdy ktoś próbuje tłumaczyć artefakty lub nietypowe obrazy tylko parametrami T1. Z kolei twierdzenie, że gadolin wpływa wyłącznie na T1, bez jakiegokolwiek wpływu na T2, też jest błędnym uproszczeniem. W praktyce, przy standardowych stężeniach klinicznych, efekt na T2 bywa mniej widoczny w porównaniu z T1, ale w wyższych stężeniach lub w sekwencjach bardzo czułych na T2* (np. GRE) dochodzi do wyraźnego spadku sygnału. To jest szczególnie ważne przy ocenie naczyń, krwawień, czy przy artefaktach od depozytów kontrastu. Nieprawidłowe jest też myślenie, że środki kontrastowe w MR „dodają jasności” bez zmiany parametrów relaksacji. W odróżnieniu od CT, gdzie kontrast zwiększa pochłanianie promieniowania i podnosi jednostki Hounsfielda, w MR cała historia kręci się właśnie wokół relaksacji T1 i T2. Gadolin nie działa jak barwnik, tylko jak modyfikator właściwości magnetycznych tkanek. Dobra praktyka w diagnostyce obrazowej zakłada rozumienie, że wzmacnianie kontrastowe na T1 po gadolinie wynika ze skrócenia T1, a potencjalne wygaszanie sygnału na pewnych T2/T2*‑zależnych sekwencjach to efekt skrócenia T2. Pomylenie tych mechanizmów może prowadzić do błędnej interpretacji badań, np. niedocenienia rozległości zmiany lub mylenia jej charakteru naczyniowego czy zapalnego.