Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 5 maja 2026 19:37
  • Data zakończenia: 5 maja 2026 19:43

Egzamin zdany!

Wynik: 26/40 punktów (65,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, nierozpuszczalne w wodzie.
B. Środki na bazie gadolinu.
C. Środki na bazie siarczanu baru.
D. Jodowe, rozpuszczalne w wodzie.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 2

Zarejestrowany na obrazie TK artefakt jest spowodowany

Ilustracja do pytania
A. wysokim stężeniem środka cieniującego.
B. metalowym implantem.
C. ruchem mimowolnym.
D. nieliniowym osłabieniem wiązki.
Prawidłowo powiązałeś obraz z obecnością metalowego implantu. Na przedstawionym skanie TK widoczny jest bardzo typowy artefakt metaliczny: centralny, ekstremalnie jasny obszar (wysoka gęstość, wartości HU wykraczające poza skalę) oraz promieniste smugi i pasma wychodzące na zewnątrz. To tzw. streak artifacts. Metal bardzo silnie pochłania promieniowanie rentgenowskie, przez co detektory rejestrują skrajne wartości sygnału, a algorytm rekonstrukcji obrazu „gubi się” i tworzy te charakterystyczne smugi. Z mojego doświadczenia, tak wygląda np. endoproteza, śruba kostna, proteza stawu, czasem klips naczyniowy – zawsze coś metalowego o dużej gęstości. W praktyce technik TK powinien od razu kojarzyć taki obraz z metalem w polu badania i wiedzieć, że może to istotnie utrudniać ocenę struktur sąsiednich. Standardem jest wtedy stosowanie technik redukcji artefaktów: odpowiednie ułożenie pacjenta, dobór wyższej kV, włączenie algorytmów MAR (Metal Artifact Reduction) w konsoli, czasem rekonstrukcja iteracyjna lub dual-energy CT. Warto pamiętać, że artefakty od ruchu wyglądają inaczej – dają rozmycie, podwójne kontury, ząbkowanie krawędzi, a nie ostre, promieniste smugi wychodzące z jednego bardzo gęstego punktu. Również wysoki kontrast jodowy zwykle nie powoduje aż tak dramatycznych smug, choć może dawać tzw. blooming. W nowoczesnych protokołach TK zawsze uwzględnia się obecność metalu, bo ma to wpływ na dawkę, jakość obrazu i sposób interpretacji – radiolog musi wiedzieć, że część zmian może być zwyczajnie „ukryta” w artefaktach metalicznych. Moim zdaniem to jedno z ważniejszych rozpoznań artefaktu, bo występuje bardzo często w praktyce szpitalnej, szczególnie na ortopedii i neurochirurgii.

Pytanie 3

Diagnozowanie metodą PET oparte jest na zjawisku

A. rozproszenia klasycznego.
B. anihilacji pozytonu i elektronu.
C. Comptona.
D. fotoelektrycznym.
Prawidłowa odpowiedź opiera się na kluczowym zjawisku fizycznym w medycynie nuklearnej: anihilacji pozytonu i elektronu. W badaniu PET (Pozytonowa Tomografia Emisyjna) do organizmu podaje się radiofarmaceutyk, który emituje pozytony, najczęściej jest to 18F-FDG, czyli fluorodeoksyglukoza znakowana fluorem-18. Pozyton, czyli dodatnio naładowany odpowiednik elektronu, po bardzo krótkiej drodze w tkance zderza się z elektronem. W momencie ich spotkania dochodzi do anihilacji – masa obu cząstek zamienia się w energię w postaci dwóch kwantów promieniowania gamma o energii 511 keV, wysyłanych prawie dokładnie w przeciwne strony (pod kątem około 180°). I właśnie to rejestruje skaner PET. Detektory ustawione w pierścieniu wokół pacjenta wychwytują te dwa fotony w tzw. koincydencji. System elektroniki i oprogramowanie rekonstruują na tej podstawie, wzdłuż której linii w ciele pacjenta doszło do anihilacji. Z mojego doświadczenia to jest główny moment „olśnienia” u uczniów: PET nie rejestruje bezpośrednio pozytonów, tylko fotony powstałe po ich anihilacji. W praktyce klinicznej pozwala to bardzo dokładnie oceniać metabolizm tkanek, np. w onkologii do wykrywania przerzutów, w kardiologii do oceny żywotności mięśnia sercowego, a w neurologii do analizy metabolizmu mózgu. Standardem jest też łączenie PET z TK (PET/CT), dzięki czemu oprócz informacji czynnościowej (metabolizm, perfuzja) mamy dokładne odniesienie anatomiczne. Dobre praktyki wymagają poprawnego przygotowania pacjenta (np. głodówka, kontrola glikemii przy FDG), bo to wpływa na wychwyt radiofarmaceutyku i jakość obrazów. Moim zdaniem zrozumienie anihilacji to podstawa, żeby nie mylić PET z klasycznym RTG czy TK, które bazują na zupełnie innych zjawiskach fizycznych.

Pytanie 4

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
B. klasycznej rentgenografii, wykonane w fazie oddechowej.
C. tomografii komputerowej, wykonane w fazie oddechowej.
D. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 5

W radioterapii konwencjonalnej pacjent jest leczony promieniowaniem pochodzącym

A. ze źródeł wewnętrznych.
B. z rozpadu izotopu radu.
C. z rozpadu izotopu uranu.
D. ze źródeł zewnętrznych.
W tym pytaniu łatwo się pogubić, bo pojawiają się różne typy źródeł promieniowania i trochę kusi, żeby je wrzucić do jednego worka. Radioterapia kojarzy się wielu osobom z „radem” albo „uranem”, bo historycznie używano izotopów promieniotwórczych, a w fizyce jądrowej dużo się o nich mówi. Współczesna radioterapia onkologiczna wygląda jednak inaczej i jest dużo bardziej uporządkowana. W radioterapii konwencjonalnej mówimy przede wszystkim o teleterapii, czyli o wykorzystaniu zewnętrznych wiązek promieniowania jonizującego. Obecnie standardem są akceleratory liniowe generujące fotony X lub elektrony. Dawniej stosowano aparaty kobaltowe (Co-60), ale one też były źródłami zewnętrznymi, choć opartymi o izotop. Pacjent leży na stole terapeutycznym, a głowica aparatu obraca się wokół niego, podając dawkę z różnych kierunków. To jest sedno pojęcia „źródła zewnętrzne”. Pomyłką jest kojarzenie radioterapii konwencjonalnej z radem. Rad miał znaczenie historyczne, używano go w dawnych metodach brachyterapii, ale dzisiaj praktycznie się go nie stosuje ze względów bezpieczeństwa i lepszej dostępności innych izotopów, jak iryd-192 czy cez-137. Poza tym brachyterapia, gdzie źródło jest wprowadzone do guza lub w jego sąsiedztwo, to inny rodzaj radioterapii niż klasyczna teleterapia. Podobnie uran nie jest izotopem terapeutycznym w radioterapii onkologicznej. Uran kojarzy się raczej z reaktorami jądrowymi czy bronią, a nie z leczeniem nowotworów. W standardach klinicznych nie znajdziemy schematów napromieniania opartych o rozpad izotopu uranu, więc wybór takiej odpowiedzi wynika zwykle z ogólnego skojarzenia „promieniowanie = uran”, co jest bardzo uproszczone i po prostu błędne w tym kontekście. Mylenie źródeł wewnętrznych i zewnętrznych też jest typowe. Źródła wewnętrzne to domena brachyterapii i terapii izotopowej w medycynie nuklearnej, gdzie radioizotop znajduje się w ciele pacjenta. Radioterapia konwencjonalna, o którą pytano, opiera się natomiast na wiązce wytwarzanej poza organizmem. Zapamiętanie tego rozróżnienia pomaga później rozumieć schematy leczenia i zasady ochrony radiologicznej personelu oraz rodziny pacjenta.

Pytanie 6

Jakie wymagania techniczne muszą spełniać aparaty terapeutyczne stosowane w zakładach brachyterapii, służące bezpośrednio do napromieniania pacjenta metodą zdalnego wprowadzania źródeł promieniotwórczych?

A. Weryfikują ustawione warunki i nie sygnalizują przypadkowych błędów personelu.
B. Wyłączenie i ponowne włączenie aparatu likwiduje sygnalizowany błąd.
C. Wyłączenie i ponowne włączenie aparatu nie likwiduje sygnalizowanego błędu.
D. Posiadają jeden niezależny system odliczający czas i informujący o zakończeniu napromieniania.
Prawidłowa odpowiedź podkreśla bardzo ważną zasadę bezpieczeństwa w brachyterapii HDR: wyłączenie i ponowne włączenie aparatu nie może kasować wcześniej zgłoszonego błędu. W aparatach do zdalnego wprowadzania źródeł (afterloaderach) mamy do czynienia z bardzo silnymi źródłami promieniowania, które są prowadzone do ciała pacjenta systemem prowadnic. Jeśli system raz wykryje sytuację niebezpieczną – np. problem z pozycją źródła, zablokowanie prowadnicy, błąd w układzie bezpieczeństwa, uszkodzenie czujnika – to z punktu widzenia norm ochrony radiologicznej ten stan musi być traktowany jako trwały alarm, dopóki nie zostanie sprawdzony i skasowany w kontrolowany sposób przez uprawnioną osobę, a nie przez zwykły „reset zasilania”. W praktyce klinicznej obowiązuje zasada tzw. fail-safe: jeżeli coś jest nie tak, urządzenie przechodzi w stan bezpieczny (źródło wraca do osłony, napromienianie jest przerwane), a system wymaga świadomej interwencji. Moim zdaniem to jest trochę jak z hamulcem bezpieczeństwa w windzie: samo wyłączenie i włączenie prądu nie może sprawić, że system uzna, iż nagle jest bezpiecznie. W nowoczesnych afterloaderach błędy są zapisywane w logach, trzeba je zdiagnozować, czasem wykonać testy serwisowe, dopiero potem można przywrócić normalną pracę. Takie podejście wynika z zaleceń producentów, wymagań prawa atomowego, rozporządzeń dotyczących urządzeń radioterapeutycznych oraz z ogólnych standardów QA w radioterapii (np. wytyczne IAEA czy ESTRO). Dodatkowo, aparaty te zwykle mają wielopoziomowe systemy nadzoru: niezależne układy kontroli pozycji źródła, monitorowania czasu napromieniania, kontroli ruchu kabla źródła, systemy blokad drzwiowych bunkra. Gdy którykolwiek z krytycznych podsystemów zgłosi błąd, musi to być sygnał do zatrzymania procedury i analizy, a nie coś, co można „przeklikać” restartem. Dzięki temu unika się sytuacji, w której potencjalna usterka techniczna prowadzi do niekontrolowanego narażenia pacjenta lub personelu. To jest dokładnie sens tej odpowiedzi: błąd ma być trwałym ostrzeżeniem, a nie komunikatem, który da się łatwo ukryć prostym trikiem z wyłącznikiem.

Pytanie 7

W obrazowaniu MR wykorzystuje się moment magnetyczny

A. elektronów.
B. neutronów.
C. protonów.
D. pozytonów.
W rezonansie magnetycznym często myli się, które cząstki biorą realnie udział w wytwarzaniu sygnału. Intuicyjnie ktoś może pomyśleć: przecież jądro atomowe ma protony i neutrony, więc może każde z nich „coś tam daje” do obrazu. Albo: elektron też ma ładunek i moment magnetyczny, to czemu nie on? Technicznie rzecz biorąc, moment magnetyczny mają i protony, i neutrony, i elektrony, a nawet pozytony, ale w warunkach klinicznego MR wykorzystuje się praktycznie wyłącznie moment magnetyczny protonów wodoru. Neutrony są cząstkami obojętnymi elektrycznie, posiadają co prawda moment magnetyczny, jednak ich właściwości i liczebność w organizmie nie pozwalają na efektywne zastosowanie w standardowych skanerach MR. Cała aparatura, częstotliwości Larmora, cewki nadawczo-odbiorcze są zoptymalizowane właśnie pod rezonans jądrowy protonów wodoru, a nie neutronów. To nie jest przypadek, tylko wynik fizyki i praktyki inżynierskiej. Elektrony z kolei są wykorzystywane w zupełnie innej technice – w elektronowym rezonansie paramagnetycznym (EPR), który w medycynie klinicznej jest stosowany marginalnie, głównie w badaniach naukowych, a nie w klasycznym obrazowaniu MR całego ciała czy mózgu. Elektrony mają inne częstotliwości rezonansowe, wymagają innych pól magnetycznych i całkowicie innej konstrukcji urządzenia. Pozytony natomiast kojarzą się raczej z badaniem PET w medycynie nuklearnej, gdzie mamy anihilację pozyton–elektron i rejestrację fotonów 511 keV, a nie z MR. W rezonansie magnetycznym nie generujemy, nie śledzimy ani nie wykorzystujemy pozytonów. Typowy błąd myślowy polega na wrzuceniu wszystkich technik obrazowych „pod jedną czapkę” promieniowania i cząstek. Tymczasem MR to metoda oparta na zjawisku rezonansu jądrowego protonów wodoru w silnym polu magnetycznym, podczas gdy PET czy inne techniki nuklearne bazują na rozpadających się izotopach i promieniowaniu gamma. Dlatego wybór neutronów, pozytonów albo elektronów jako źródła sygnału w standardowym badaniu MR jest po prostu niezgodny z fizyką tej metody i z praktyką kliniczną stosowaną na co dzień w pracowniach rezonansu.

Pytanie 8

W badaniu PET stosuje się tylko radioizotopy emitujące

A. neutrony.
B. pozytony.
C. cząstki alfa.
D. elektrony.
W badaniu PET kluczowa jest emisja pozytonów, dlatego poprawna jest odpowiedź z radioizotopami emitującymi właśnie pozytony. Cała fizyka PET opiera się na zjawisku anihilacji pozyton–elektron. Radioizotop (np. 18F, 11C, 13N, 15O) wprowadzony do organizmu jest wbudowywany w radiofarmaceutyk, który zachowuje się jak zwykła cząsteczka metaboliczna, np. 18F-FDG zachowuje się podobnie do glukozy. Taki radionuklid rozpada się beta plus, czyli emituje pozyton. Pozyton po bardzo krótkiej drodze w tkankach (rzędu milimetrów) zderza się z elektronem, dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV, biegnące prawie dokładnie w przeciwnych kierunkach. Detektory w gantrze PET rejestrują te dwa kwanty jednocześnie (koincydencja czasowa) i na tej podstawie wyznaczana jest linia, na której zaszła anihilacja. Oprogramowanie rekonstruuje z milionów takich zdarzeń trójwymiarowy rozkład aktywności radiofarmaceutyku w ciele pacjenta. W praktyce klinicznej ma to ogromne znaczenie np. w onkologii: PET-CT z 18F-FDG pozwala wykryć przerzuty, ocenić żywotność guza czy odpowiedź na chemioterapię. Standardy pracowni medycyny nuklearnej (np. EANM) jasno wskazują stosowanie wyłącznie radionuklidów beta plus dla klasycznego PET, bo tylko one dają charakterystyczny sygnał dwóch fotonów 511 keV. Moim zdaniem warto zapamiętać prostą regułę: PET = pozytony + anihilacja + dwa fotony 511 keV, reszta rodzajów promieniowania tutaj się po prostu nie sprawdza do obrazowania tą techniką.

Pytanie 9

Która sekwencja obrazowania MR wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do tłumienia sygnału pochodzącego z tkanki tłuszczowej?

A. TOF
B. MTC
C. FAT SAT
D. PCA
W tym pytaniu sedno sprawy leży w zrozumieniu, jak działają różne specjalistyczne sekwencje MR i jakie mają konkretne zadania. Tylko jedna z nich faktycznie wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do selektywnego tłumienia sygnału z tkanki tłuszczowej, i jest to właśnie technika typu FAT SAT, czyli fat saturation/fat suppression. Pozostałe odpowiedzi są związane z naczyniami, przepływem lub strukturą tkanek, ale nie z selektywnym wygaszaniem tłuszczu. TOF (Time of Flight) to sekwencja angiograficzna. Bazuje na zjawisku napływu świeżej, nienasyconej krwi do warstwy obrazowanej. Krew daje wtedy silniejszy sygnał niż statyczne tkanki, które są już częściowo nasycone impulsami RF. Dzięki temu doskonale widać naczynia krwionośne bez konieczności podawania kontrastu. Jednak TOF nie służy do tłumienia tłuszczu, nie używa selektywnych impulsów RF skierowanych na częstotliwość rezonansową tłuszczu, tylko wykorzystuje efekt przepływu. MTC (Magnetization Transfer Contrast) to z kolei technika, która moduluje kontrast między protonami związanymi w makrocząsteczkach (np. białkach) a „wolną” wodą. Wykorzystuje się dodatkowy impuls RF, który nasyca spinowo frakcję związanych protonów, a magnetyzacja przenosi się na frakcję wolną. To daje lepszy kontrast np. w obrazowaniu OUN, ale nie jest to klasyczne wygaszanie tłuszczu. Tłuszcz może się pośrednio zmieniać w obrazie, ale nie jest bezpośrednim celem tej sekwencji. PCA (Phase Contrast Angiography) to metoda do pomiaru przepływu krwi, gdzie informacja o prędkości przepływu jest kodowana w fazie sygnału MR. Umożliwia ilościową ocenę prędkości i kierunku przepływu, np. w tętnicach mózgowych czy w sercu. Tutaj też nie ma mowy o selektywnym nasycaniu sygnału z tłuszczu za pomocą częstotliwości rezonansowej tłuszczu. Typowy błąd myślowy polega na tym, że skoro coś jest „specjalną” sekwencją, to może od razu służyć do tłumienia tłuszczu – ale każda z tych technik ma bardzo precyzyjne, wąskie zastosowanie. FAT SAT jest jedyną odpowiedzią, która pasuje dokładnie do treści pytania: używa selektywnego impulsu RF dostrojonego do przesunięcia chemicznego tłuszczu względem wody, co skutkuje nasyceniem magnetyzacji tłuszczu i osłabieniem jego sygnału. To jest fundament wielu protokołów MR, szczególnie w diagnostyce urazów, stanów zapalnych, zmian nowotworowych i badaniach po kontraście gadolinowym. Warto sobie mocno utrwalić, że TOF i PCA to angiografia przepływowa, MTC to kontrast magnetyzacji przeniesionej, a prawdziwe „wyciszanie” tłuszczu impulsami RF to domena FAT SAT.

Pytanie 10

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. HDR
B. LDR
C. PDR
D. MDR
Prawidłowa odpowiedź to PDR, czyli Pulsed Dose Rate brachyterapia. Chodzi dokładnie o taką technikę, gdzie wysokoaktywny izotop (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się impulsach dawki. Mechanicznie wygląda to bardzo podobnie do HDR, bo też używa się afterloadera krokowego, który przemieszcza źródło po kolejnych pozycjach w aplikatorze, ale kluczowa różnica jest w sposobie podawania dawki w czasie: w PDR podaje się wiele krótkich impulsów, np. co godzinę, tak żeby biologicznie przypominało to napromienianie ciągłe jak w klasycznej LDR. W praktyce klinicznej PDR jest często stosowana tam, gdzie chcemy mieć precyzję i elastyczność HDR (dokładne pozycjonowanie źródła, możliwość modyfikacji planu), ale jednocześnie zależy nam na ochronie tkanek zdrowych dzięki efektowi repopulacji i naprawy uszkodzeń DNA pomiędzy impulsami. Moim zdaniem fajne w PDR jest to, że łączy trochę dwa światy: technologię wysokiej mocy dawki z radiobiologią dawki niskiej. W zaleceniach międzynarodowych (np. ESTRO, ICRU) podkreśla się, że planowanie PDR wymaga bardzo dokładnego określenia czasu trwania impulsu, przerw między impulsami oraz całkowitej dawki, bo z punktu widzenia tkanek liczy się nie tylko suma Gy, ale też rozkład w czasie. W codziennej pracy technika czy fizyka medycznego ważne jest rozumienie, że „pulsed” w nazwie to właśnie te wielokrotne wjazdy i wyjazdy źródła do tego samego aplikatora według zaprogramowanego harmonogramu, a nie jednorazowa ekspozycja jak w HDR. Dzięki temu łatwiej odróżnić PDR od pozostałych skrótów, które mówią głównie o mocy dawki, a nie o tym specyficznym, impulsowym sposobie jej podawania.

Pytanie 11

Zadaniem technika elektroradiologa w pracowni naczyniowej jest

A. przygotowanie niezbędnych narzędzi.
B. nadzorowanie sprawnego działania aparatury rentgenowskiej.
C. wprowadzenie cewnika w światło naczyń.
D. przygotowanie cewników.
Prawidłowo wskazana rola technika elektroradiologa w pracowni naczyniowej to nadzorowanie sprawnego działania aparatury rentgenowskiej. W pracowni angiograficznej technik jest odpowiedzialny przede wszystkim za stronę techniczną badania, a nie za wykonywanie czynności inwazyjnych w obrębie naczyń. To lekarz – najczęściej radiolog interwencyjny, kardiolog lub chirurg naczyniowy – wprowadza cewnik do światła naczynia, prowadzi go, podaje kontrast i wykonuje właściwy zabieg. Technik natomiast musi zadbać o to, żeby cały system obrazowania działał stabilnie, bezpiecznie i dawał obrazy o jak najlepszej jakości przy możliwie najmniejszej dawce promieniowania. W praktyce oznacza to m.in. prawidłowe ustawienie parametrów ekspozycji, kontrolę pracy lampy rentgenowskiej, generatora, stołu angiograficznego, systemu akwizycji obrazu oraz monitorów. Technik sprawdza przed badaniem poprawność działania układów sterowania, kolimatorów, systemów automatycznej kontroli ekspozycji, a także współpracuje z lekarzem przy doborze protokołów obrazowania, np. częstości serii, czasu akwizycji, projekcji, synchronizacji z podaniem kontrastu. Moim zdaniem bardzo ważne jest też to, że technik pilnuje bezpieczeństwa radiologicznego całego zespołu i pacjenta: dobiera osłony, kontroluje dawkę, dba o prawidłowe ustawienie ramienia C, żeby ograniczyć niepotrzebne ekspozycje. W dobrze działającej pracowni naczyniowej technik jest takim „operatorem systemu”, który musi szybko reagować, gdy pojawiają się komunikaty błędów, spadek jakości obrazu, przegrzewanie lampy czy problemy z archiwizacją w systemie PACS. To wszystko bezpośrednio przekłada się na bezpieczeństwo zabiegu, komfort pracy lekarza i skuteczność diagnostyki oraz terapii.

Pytanie 12

Technika stereotaktyczna polega na napromienianiu nowotworu

A. wieloma wiązkami wychodzącymi z jednego punktu.
B. jednym dużym polem.
C. wieloma wiązkami z jednej strony.
D. wieloma wiązkami zbiegającymi się w jednym punkcie.
Technika stereotaktyczna polega właśnie na tym, co jest w treści poprawnej odpowiedzi: wiele wąskich, precyzyjnie zaplanowanych wiązek promieniowania z różnych kierunków zbiera się w jednym, dokładnie wyznaczonym punkcie w ciele pacjenta. Ten punkt to cel – najczęściej guz lub malformacja naczyniowa. Poza tym punktem dawka w każdej pojedynczej wiązce jest stosunkowo mała, ale w miejscu ich zbiegu sumuje się do bardzo wysokiej dawki terapeutycznej. To jest cała „magia” stereotaksji. W praktyce klinicznej mówimy o radiochirurgii stereotaktycznej (SRS) dla mózgu, stereotaktycznej radioterapii frakcjonowanej (FSRT) albo stereotaktycznej radioterapii ciała (SBRT/SABR) dla zmian pozaczaszkowych, np. w płucu czy wątrobie. Moim zdaniem kluczowe jest tu skojarzenie: stereotaksja = precyzyjne unieruchomienie + dokładne obrazowanie (TK, MR, czasem PET) + planowanie 3D/4D + wiele wiązek zbieżnych w jeden punkt. Dzięki temu można podać bardzo dużą dawkę na małą objętość przy jednoczesnej ochronie tkanek zdrowych, zgodnie z zasadami ALARA i wytycznymi ICRU oraz ESTRO. W dobrych ośrodkach dba się o dokładność pozycjonowania rzędu milimetrów, stosuje się maski termoplastyczne, ramy stereotaktyczne, systemy IGRT (obrazowanie w trakcie napromieniania), żeby ten punkt zbiegu wiązek pokrywał się idealnie z położeniem guza. To jest standard dobrej praktyki w nowoczesnej radioterapii: wysoka precyzja geometryczna, małe marginesy bezpieczeństwa i bardzo strome gradienty dawki wokół celu. Stereotaksja jest szczególnie przydatna przy małych guzach, dobrze widocznych w obrazowaniu, gdzie zależy nam na maksymalnej oszczędności otaczających struktur krytycznych, na przykład nerwu wzrokowego, pnia mózgu czy rdzenia kręgowego.

Pytanie 13

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
Klucz do zrozumienia tego pytania to pojęcie rozdzielczości przestrzennej i wielkości piksela w obrazowaniu MR. Rozdzielczość przestrzenna określa, jak małe szczegóły jesteśmy w stanie odróżnić na obrazie. Matematycznie w prostym ujęciu jest to bezpośrednio związane z rozmiarem piksela: im mniejszy piksel, tym więcej szczegółów można zobaczyć. Rozmiar piksela wynika z podzielenia pola widzenia (FoV – field of view) przez liczbę elementów matrycy w danym kierunku. Jeżeli zwiększamy FoV przy tej samej lub mniejszej matrycy, każdy piksel obejmuje większy fragment ciała, więc drobne struktury „zlewają się” w jednym pikselu. To typowy błąd myślowy: ktoś myśli, że większy FoV to „więcej informacji”, bo widać większy obszar. Faktycznie widzimy większą część anatomii, ale kosztem szczegółowości. To tak jakby zrobić zdjęcie całego boiska zamiast zbliżenia na jednego zawodnika – widać więcej tła, ale mniej detalu. Z kolei zmniejszenie matrycy przy dużym FoV jeszcze bardziej pogarsza rozdzielczość, bo mamy mniej pikseli na ten sam obszar. W praktyce takie ustawienie stosuje się, gdy zależy nam na szybszym badaniu przeglądowym, a nie na dokładnej analizie małych struktur. Zmniejszenie jednocześnie FoV i matrycy też nie jest korzystne dla rozdzielczości, bo choć obejmujemy mniejszy obszar, to dzielimy go na mało elementów. Taki obraz może być szybki do uzyskania, ale mało szczegółowy. Dodatkowo warto mieć w głowie kompromisy: zwiększanie matrycy poprawia rozdzielczość, ale zwykle wydłuża czas akwizycji i obniża SNR, a bardzo małe FoV może prowadzić do aliasingu. Dobre praktyki w pracowniach rezonansu polegają na świadomym balansowaniu tymi parametrami: dla badań wymagających wysokiej szczegółowości (stawy, drobne struktury mózgu, nerwy) stosuje się mniejsze FoV i możliwie dużą matrycę, natomiast dla badań przeglądowych dopuszcza się większe FoV i mniej „agresywne” ustawienia matrycy. Błędne odpowiedzi wynikają więc głównie z pomieszania pojęcia „więcej widać” z „widać dokładniej”, a to w obrazowaniu to nie jest to samo.

Pytanie 14

Który radioizotop jest emiterem promieniowania alfa?

A. ¹⁸F
B. ⁹⁹ᵐTc
C. ¹³¹I
D. ²²³Ra
Prawidłowa odpowiedź to 223Ra, ponieważ jest to klasyczny emiter promieniowania alfa stosowany w medycynie nuklearnej, głównie w terapii izotopowej przerzutów do kości. Rad-223 emituje cząstki alfa, czyli jądra helu (2 protony + 2 neutrony). To promieniowanie ma bardzo mały zasięg w tkankach – rzędu kilku dziesiątych milimetra – ale bardzo wysoką gęstość jonizacji, czyli dużą liniową energię hamowania (wysokie LET). Dzięki temu uszkadza DNA komórek nowotworowych bardzo skutecznie, a jednocześnie relatywnie oszczędza tkanki zdrowe położone dalej. W praktyce klinicznej 223Ra wykorzystuje się np. w leczeniu przerzutów osteoblastycznych w raku prostaty. Podaje się go dożylnie jako radiofarmaceutyk, który wybiórczo gromadzi się w kościach, szczególnie w miejscach nasilonego metabolizmu kostnego. To się bardzo dobrze wpisuje w zasady medycyny nuklearnej, gdzie dobiera się izotop nie tylko pod kątem rodzaju promieniowania, ale też biokinetyki i okresu półtrwania. Z mojego doświadczenia, w technice medycznej warto zapamiętać, że emitery alfa, takie jak 223Ra, są raczej „narzędziem terapeutycznym”, a nie diagnostycznym – w przeciwieństwie do emiterów gamma czy beta+ wykorzystywanych w obrazowaniu (scyntygrafia, PET). W wytycznych i dobrych praktykach kładzie się nacisk na ścisłą kontrolę dawek i ochronę radiologiczną, bo mimo małego zasięgu w tkance, promieniowanie alfa jest bardzo niebezpieczne przy ekspozycji wewnętrznej (np. po wchłonięciu lub inhalacji). Dlatego przygotowanie, przechowywanie i podawanie 223Ra wymaga dobrze ogarniętej procedury, osobnych pomieszczeń i ścisłego przestrzegania zasad BHP w pracowni medycyny nuklearnej.

Pytanie 15

Ligand stosuje się

A. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
B. w radiologii klasycznej jako środek kontrastujący negatywny.
C. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
D. w radiologii klasycznej jako środek kontrastujący pozytywny.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który wiąże się selektywnie z określonym celem biologicznym, np. receptorem, enzymem czy transporterem, i właśnie w medycynie nuklearnej pełni rolę nośnika radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi za rękę” izotop promieniotwórczy dokładnie tam, gdzie chcemy zobaczyć czynność narządu albo ognisko chorobowe. Radioizotop sam z siebie nie jest wybiórczy, dopiero połączenie go z odpowiednim ligandem tworzy radiofarmaceutyk o określonej tropowości, np. do kości, mięśnia sercowego, guzów neuroendokrynnych czy receptorów dopaminergicznych. W scyntygrafii kości używa się ligandów fosfonianowych znakowanych technetem-99m, które gromadzą się w miejscach wzmożonego metabolizmu kostnego. W scyntygrafii perfuzyjnej serca mamy ligandy lipofilne, które wnikają do kardiomiocytów proporcjonalnie do przepływu krwi. W PET z kolei typowym przykładem jest 18F-FDG, gdzie ligandem jest analog glukozy, a izotopem fluor-18. Z mojego doświadczenia to właśnie zrozumienie roli liganda tłumaczy, czemu dwa różne radiofarmaceutyki z tym samym izotopem mogą mieć zupełnie inne wskazania. Dobre praktyki w medycynie nuklearnej wymagają bardzo świadomego doboru liganda do konkretnego badania: bierzemy pod uwagę farmakokinetykę, specyficzność wiązania, szybkość eliminacji, a także bezpieczeństwo dla pacjenta. W wytycznych EANM czy IAEA wyraźnie podkreśla się, że to właściwości liganda decydują o jakości obrazowania funkcjonalnego, a nie tylko sam izotop. Dlatego poprawne skojarzenie pojęcia „ligand” z nośnikiem radiofarmaceutyku w medycynie nuklearnej jest bardzo istotne i praktycznie przydatne w pracy z gammakamerą czy PET.

Pytanie 16

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Wypełnione gazami jelito cienkie.
B. Przestrzeń międzyżebrowa.
C. Złóg w pęcherzyku żółciowym.
D. Wypełniony płynem pęcherz moczowy.
Prawidłowo wskazany wypełniony płynem pęcherz moczowy jest klasycznym przykładem tzw. okna akustycznego w badaniu USG. W praktyce oznacza to, że struktura zawierająca jednorodny płyn bardzo dobrze przewodzi fale ultradźwiękowe, nie rozprasza ich nadmiernie i nie tworzy silnych artefaktów, które zasłaniają głębiej położone narządy. Dzięki temu przez taki pęcherz można „podglądać” struktury leżące za nim, np. macicę, jajniki, prostatę czy fragmenty jelit, z dużo lepszą jakością obrazu. W standardach badań ginekologicznych i urologicznych USG jamy brzusznej zaleca się, żeby pacjent przyszedł z wypełnionym pęcherzem – to nie jest przypadek, tylko właśnie świadome wykorzystanie okna akustycznego. Płyn w pęcherzu jest anechogeniczny, czyli na monitorze widzimy czarny, jednolity obszar, bez wewnętrznych ech. Ułatwia to ocenę ściany pęcherza, polipów, guzów oraz umożliwia lepszą wizualizację narządów miednicy mniejszej. Moim zdaniem to jeden z najbardziej „namacalnych” przykładów, jak fizyka ultradźwięków przekłada się bezpośrednio na praktykę pracy technika elektroradiologii. W codziennej pracy dobrze jest pamiętać, że każde środowisko płynowe w ciele (torbiele, zbiorniki płynu w jamach ciała) może pełnić podobną rolę – często specjalnie wykorzystuje się wysięki lub płyn w jamie otrzewnej czy opłucnej, żeby lepiej zobrazować narządy, które normalnie byłyby częściowo zasłonięte przez gaz lub kości. To jest zgodne z dobrymi praktykami opisywanymi w podręcznikach USG i wytycznych towarzystw radiologicznych: szukamy takich „okien”, które poprawiają jakość obrazu, skracają czas badania i zmniejszają ryzyko błędnej interpretacji.

Pytanie 17

W której technice obrazowania zostają zarejestrowane jednocześnie dwa przeciwbieżne kwanty promieniowania gamma o równej energii 511 keV?

A. Tomografii komputerowej.
B. Scyntygrafii dynamicznej.
C. Tomografii emisyjnej pojedynczego fotonu.
D. Pozytonowej tomografii emisyjnej.
W tym pytaniu pułapka polega głównie na skojarzeniu słowa „gamma” z każdą metodą medycyny nuklearnej albo w ogóle z radiologią. Tymczasem rejestracja dwóch przeciwbieżnych fotonów gamma o energii dokładnie 511 keV jest charakterystyczna wyłącznie dla pozytonowej tomografii emisyjnej (PET), gdzie wykorzystuje się anihilację pozytonu z elektronem. W klasycznej scyntygrafii dynamicznej używa się gammakamery, ale rejestruje ona pojedyncze fotony gamma emitowane przez izotopy takie jak technet-99m. Nie ma tam zjawiska koincydencji dwóch przeciwległych kwantów ani stałej energii 511 keV – energia zależy od konkretnego radionuklidu (np. około 140 keV dla 99mTc). Dynamiczny jest tylko sposób akwizycji w czasie, a nie fizyka promieniowania. Tomografia komputerowa (TK, CT) z kolei w ogóle nie pracuje na promieniowaniu gamma z anihilacji, tylko na promieniowaniu rentgenowskim generowanym w lampie rentgenowskiej. Wiązka przechodzi przez pacjenta, a detektory mierzą osłabienie promieniowania X, nie mają tu miejsca ani pozytony, ani koincydencja dwóch fotonów. To dość częsty błąd: wrzucanie TK, PET i SPECT do jednego worka „bo wszystkie to tomografie”. W tomografii emisyjnej pojedynczego fotonu (SPECT) faktycznie używa się promieniowania gamma i rekonstrukcji tomograficznej, ale rejestruje się pojedyncze fotony, nie pary przeciwbieżnych kwantów. Aparat obraca się wokół pacjenta, zbiera projekcje emisji z różnych kątów i z tego liczy obraz 3D. Energia fotonów znowu zależy od użytego izotopu, a nie jest stała 511 keV. Typowy schemat błędnego myślenia jest taki: „jest gamma, jest tomografia, to pewnie chodzi o SPECT albo scyntygrafię”, albo odwrotnie – utożsamianie każdej tomografii z promieniowaniem X. Dlatego warto zapamiętać prostą zasadę: 511 keV + dwa przeciwbieżne fotony w koincydencji = PET; pojedyncze fotony gamma z gammakamery = scyntygrafia/SPECT; promieniowanie X z lampy = RTG/TK.

Pytanie 18

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
B. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
C. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
D. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
W tym pytaniu bardzo łatwo pomylić różne schematy frakcjonowania, bo wszystkie brzmią dość podobnie, a różnice są czysto „liczbowe”, ale za tymi liczbami stoi konkretna radiobiologia. Hiperfrakcjonowanie to nie jest po prostu „więcej razy dziennie” ani „większa dawka”, tylko konkretny sposób podawania promieniowania: dawka na pojedynczą frakcję jest mniejsza niż standardowe 2 Gy, frakcji jest więcej w ciągu dnia, a całkowity czas leczenia pozostaje zbliżony do klasycznego schematu. Błędne skojarzenie, że skoro robimy 2–3 frakcje dziennie, to dawka jednostkowa powinna być większa, wynika często z mylenia hiperfrakcjonowania z hipofrakcjonowaniem. W hipofrakcjonowaniu właśnie podnosi się dawkę frakcyjną (np. 3–8 Gy), zwykle przy mniejszej liczbie frakcji i często skróceniu całkowitego czasu leczenia, co wykorzystuje się np. w radioterapii paliatywnej czy stereotaktycznej (SBRT). Z kolei pomysł wydłużania całkowitego czasu leczenia przy hiperfrakcjonowaniu jest sprzeczny z jego celem. Jeżeli leczenie trwa dłużej, dochodzi do repopulacji komórek nowotworowych, czyli guz ma więcej czasu na „odbudowę”, co obniża skuteczność terapii. Standardy planowania radioterapii jasno mówią, że w schematach hiperfrakcyjnych całkowity czas leczenia powinien być podobny do konwencjonalnego, właśnie po to, żeby nie zwiększać ryzyka odrastania guza. Dodatkowo, zwiększanie dawki frakcyjnej przy dwóch lub trzech frakcjach dziennie mocno podbiłoby ryzyko powikłań późnych w tkankach zdrowych, takich jak zwłóknienia, mielopatie czy uszkodzenia narządów krytycznych. Z mojego doświadczenia w nauczaniu ten błąd bierze się z prostego skojarzenia: „więcej frakcji = więcej dawki na raz”, a tymczasem w radioterapii często jest odwrotnie – im więcej frakcji, tym mniejsza dawka na pojedyncze naświetlanie, przy starannie zaplanowanej dawce całkowitej i czasie leczenia.

Pytanie 19

Wskaż roczną dawkę graniczną dla osób zatrudnionych w warunkach narażenia na promieniowanie jonizujące.

A. 30 mSv
B. 15 mSv
C. 20 mSv
D. 5 mSv
Prawidłowo wskazana roczna dawka graniczna 20 mSv wynika z aktualnych zaleceń międzynarodowych (ICRP – International Commission on Radiological Protection) oraz przepisów prawa krajowego dotyczących osób zawodowo narażonych na promieniowanie jonizujące. Chodzi tu o tzw. efektywną dawkę roczną u pracowników zakwalifikowanych do kategorii A narażenia. W praktyce oznacza to, że planując pracę technika elektroradiologii, fizyka medycznego czy personelu w medycynie nuklearnej, całkowita zsumowana dawka z wszystkich badań i procedur w danym roku kalendarzowym nie powinna przekroczyć właśnie 20 mSv, liczonych jako średnia w okresie 5 lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Moim zdaniem ważne jest, żeby nie traktować tego limitu jako „celu do osiągnięcia”, tylko jako absolutny górny sufit, którego staramy się w ogóle nie dotykać. W dobrze zorganizowanej pracowni dawki osobiste techników zwykle są znacznie niższe, często na poziomie pojedynczych mSv rocznie. W codziennej pracy przekłada się to na obowiązek stosowania osłon stałych (parawany ołowiane, ściany ekranowane), środków ochrony indywidualnej (fartuchy, kołnierze, osłony na gonady), odpowiedniego pozycjonowania się względem źródła promieniowania, korzystania z zdalnego sterowania aparatem oraz rygorystycznego przestrzegania zasady ALARA – As Low As Reasonably Achievable. Dodatkowo każdy pracownik objęty jest dozymetrią indywidualną (dawkomierze osobiste), a wyniki są dokumentowane i okresowo analizowane. Jeśli dawki zbliżają się do poziomów ostrzegawczych, pracodawca ma obowiązek zmodyfikować organizację pracy, np. rotować personel, zmieniać obsadę dyżurów w pracowniach wysokodawkowych (TK, radiologia zabiegowa, medycyna nuklearna, radioterapia). Właśnie takie rozumienie limitu 20 mSv – jako narzędzia do planowania i kontroli narażenia – jest sednem profesjonalnej ochrony radiologicznej.

Pytanie 20

Jakie są wielkości mocy dawki stosowanej w brachyterapii HDR?

A. 7 – 12 Gy/godzinę.
B. 0,4 – 2 Gy/godzinę.
C. 3 – 6 Gy/godzinę.
D. ponad 12 Gy/godzinę.
W brachyterapii często myli się pojęcie dawki całkowitej z mocą dawki, a to prowadzi do błędnych skojarzeń co do prawidłowych zakresów liczbowych. Zakresy 0,4–2 Gy/godz., 3–6 Gy/godz. czy 7–12 Gy/godz. kojarzą się intuicyjnie z „umiarkowanym” lub „średnim” tempem napromieniania, ale w klasyfikacji brachyterapii one nie definiują HDR. Zgodnie z powszechnie przyjętymi standardami, m.in. ICRU i zaleceniami towarzystw radioterapeutycznych, za brachyterapię HDR uznaje się technikę, w której moc dawki przekracza 12 Gy na godzinę. Niższe wartości mocy dawki odpowiadają innym kategoriom: w okolicy 0,4–2 Gy/godz. mówimy o LDR (Low Dose Rate), czyli napromienianiu trwającym wiele godzin lub nawet dni, często ze stałym źródłem umieszczonym w ciele pacjenta. Zakresy pośrednie, kilka Gy/godz., nie są typową definicją HDR, lecz raczej obszarem między klasycznym LDR a technikami średniej mocy dawki, które w praktyce klinicznej nie są tak często używane jako osobna kategoria. Częsty błąd polega na tym, że ktoś patrzy na liczby i myśli: „3–6 Gy/godz. to już jest dość dużo, więc pewnie HDR”, albo „7–12 Gy/godz. brzmi jak wysoka dawka, więc to musi być HDR”. Tymczasem granica jest umowna, ale jasno ustalona na poziomie ponad 12 Gy/godz. i jest stosowana w literaturze oraz w dokumentacji klinicznej. Z mojego doświadczenia wynika, że jeśli nie odróżnimy mocy dawki od dawki frakcyjnej, łatwo w głowie pomieszać te zakresy. W HDR bardzo ważne jest to, że wysoką dawkę frakcyjną podaje się w krótkim czasie, przy użyciu zdalnego afterloadingu, z odpowiednimi procedurami ochrony radiologicznej. Przy niższych mocach dawki priorytety organizacyjne, sposób monitorowania pacjenta i ryzyko dla personelu wyglądają inaczej. Dlatego wybór jednej z niższych odpowiedzi świadczy raczej o intuicyjnym niż o definicyjnym podejściu do tematu i warto ten próg >12 Gy/godz. zapamiętać jako element podstawowej klasyfikacji brachyterapii.

Pytanie 21

Do pomiaru dawek indywidualnych u osób narażonych zawodowo na promieniowanie rentgenowskie są stosowane

A. liczniki geigera.
B. liczniki scyntylacyjne.
C. detektory termoluminescencyjne.
D. detektory półprzewodnikowe.
Prawidłowa odpowiedź to detektory termoluminescencyjne i dokładnie takie dozymetry są standardem w ochronie radiologicznej pracowników narażonych na promieniowanie rentgenowskie. Dozymetr termoluminescencyjny (TLD) zawiera kryształ, najczęściej fluorek litu (LiF) albo inne materiały termoluminescencyjne, w których podczas napromieniania gromadzi się energia z promieniowania jonizującego. Później, w pracowni dozymetrycznej, ten kryształ jest podgrzewany w specjalnym czytniku, a zgromadzona energia jest uwalniana w postaci światła. Ilość tego światła jest proporcjonalna do pochłoniętej dawki. To pozwala bardzo dokładnie wyznaczyć dawkę indywidualną, czyli to, co faktycznie „złapał” pracownik na swoim ciele. W praktyce takie dozymetry nosi się zwykle na klatce piersiowej, czasem dodatkowo przy tarczycy lub dłoniach, zależnie od rodzaju pracy. Z mojego doświadczenia w pracowniach RTG i TK właśnie TLD są najczęściej spotykane, bo są małe, tanie, stabilne i dobrze znoszą warunki codziennej pracy. Spełniają wymagania przepisów BHP i zaleceń inspekcji sanitarnej oraz Państwowej Agencji Atomistyki dotyczących monitorowania dawek zawodowych. W wielu ośrodkach stosuje się też tzw. dawkomierze pierścionkowe TLD dla osób pracujących blisko wiązki, np. przy zabiegach hemodynamicznych czy w salach hybrydowych. Warto też pamiętać, że dozymetr indywidualny nie służy do bieżącej kontroli w czasie zabiegu, tylko do oceny skumulowanej dawki w miesięcznych lub kwartalnych okresach rozliczeniowych. To jest typowa i uznana dobra praktyka w ochronie radiologicznej personelu medycznego.

Pytanie 22

Promieniowanie rentgenowskie jest

A. strumieniem elektronów.
B. strumieniem protonów.
C. falą ultradźwiękową.
D. falą elektromagnetyczną.
Poprawnie: promieniowanie rentgenowskie jest falą elektromagnetyczną o bardzo krótkiej długości fali i dużej energii fotonów. Należy do tego samego „rodzaju” promieniowania co światło widzialne, promieniowanie UV czy fale radiowe, tylko ma znacznie krótszą długość fali i dzięki temu jest jonizujące. To właśnie ta elektromagnetyczna natura powoduje, że promieniowanie X rozchodzi się z prędkością światła, można je skupiać, filtrować, kolimować i rejestrować na detektorach, które reagują na energię fotonów, a nie na cząstki materialne. W praktyce radiologicznej ma to ogromne znaczenie. W aparacie RTG elektrony są rozpędzane w lampie rentgenowskiej i hamowane na anodzie, ale samo promieniowanie, które powstaje, nie jest strumieniem elektronów, tylko właśnie wiązką fotonów – falą elektromagnetyczną. To dlatego dobieramy parametry ekspozycji takie jak kV i mAs, myślimy o „twardości” wiązki (czyli rozkład energii fotonów), stosujemy filtry aluminiowe, siatki przeciwrozproszeniowe oraz osłony ołowiane zgodnie z zasadami ochrony radiologicznej i standardami ALARA. Moim zdaniem warto to sobie porządnie poukładać: w diagnostyce obrazowej (RTG, TK) pracujemy zawsze z fotonami promieniowania X, które przechodzą przez ciało pacjenta, ulegają pochłanianiu i rozproszeniu zależnie od gęstości i liczby atomowej tkanek. To właśnie różnice w osłabieniu wiązki elektromagnetycznej tworzą kontrast na obrazie. Cała fizyka zjawiska fotoelektrycznego, efektu Comptona, warstwy półchłonnej, filtracji wiązki – to wszystko ma sens tylko wtedy, gdy pamiętamy, że promieniowanie rentgenowskie to fala elektromagnetyczna, a nie ultradźwięki czy strumień cząstek. W nowoczesnych wytycznych i podręcznikach z fizyki medycznej (np. standardy ICRP, IAEA) promieniowanie X jest zawsze klasyfikowane właśnie jako wysokoenergetyczne promieniowanie elektromagnetyczne z zakresu jonizującego, co przekłada się na konkretne procedury bezpieczeństwa, dobór parametrów i interpretację obrazów w radiologii.

Pytanie 23

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. protony atomów tlenu.
B. elektrony atomów tlenu.
C. elektrony atomów wodoru.
D. protony atomów wodoru.
W rezonansie magnetycznym bardzo łatwo pomylić się, bo mamy i elektrony, i protony, i różne pierwiastki w organizmie. Kluczowe jest jednak to, że standardowe kliniczne badania MR oparte są na zjawisku jądrowego rezonansu magnetycznego, a więc dotyczą jąder atomowych, a nie elektronów. Elektrony oczywiście mają własny moment magnetyczny i istnieje coś takiego jak elektronowy rezonans paramagnetyczny, ale nie jest to metoda używana w rutynowej diagnostyce medycznej. W tomografii MR interesują nas przede wszystkim jądra wodoru, czyli protony, bo wodór w organizmie występuje w ogromnej ilości głównie w wodzie i tłuszczu. To zapewnia silny sygnał i dobry stosunek sygnału do szumu, co przekłada się na wysoką jakość obrazu. Wybranie odpowiedzi z elektronami atomów wodoru lub tlenu wynika zwykle z intuicyjnego przekonania, że „coś związanego z magnetyzmem to pewnie elektrony”, bo kojarzymy je z prądem i spinem elektronów. W MR jednak rejestrujemy sygnał z przejść energetycznych jąder w polu magnetycznym, a nie z powłok elektronowych. Z kolei odpowiedzi odwołujące się do protonów atomów tlenu też brzmią na pozór sensownie, bo tlen jest ważnym pierwiastkiem w organizmie, kojarzy się z krwią, utlenowaniem tkanek itd. Problem w tym, że atomów wodoru jest w ciele człowieka znacznie więcej niż tlenu, a dodatkowo właściwości magnetyczne jąder innych pierwiastków (np. tlenu, węgla) są dużo mniej korzystne do klasycznego obrazowania klinicznego: mają słabszy sygnał, inne częstości rezonansowe, trudniejszą technikę pobudzenia i odbioru. Dlatego w codziennej praktyce diagnostycznej bazuje się na protonach wodoru, a nie na tlenie. Typowym błędem myślowym jest też mieszanie pojęcia „magnetyczny” z „elektronowy”, bo w fizyce szkolnej dużo mówi się o elektronach, a mało o jądrze. W medycznym MR trzeba się przestawić: interesuje nas spin jądrowy protonów wodoru w silnym stałym polu magnetycznym i sygnał RF emitowany podczas relaksacji tych protonów. To jest fundament, który potem tłumaczy wszystkie dalsze zagadnienia: dobór sekwencji, kontrast obrazów, wpływ pola magnetycznego i cewek gradientowych.

Pytanie 24

Źródłem promieniowania protonowego stosowanego w radioterapii jest

A. cyklotron.
B. bomba kobaltowa.
C. przyspieszacz liniowy.
D. cyberknife.
W tym pytaniu łatwo pomylić różne źródła promieniowania stosowane w radioterapii, bo na pierwszy rzut oka wszystkie wydają się „maszynami do naświetlania”. Kluczowe jest jednak rozróżnienie, jakie cząstki lub fotony generuje dane urządzenie i na jakiej zasadzie pracuje. Radioterapia protonowa to terapia z użyciem ciężkich naładowanych cząstek – protonów – które wymagają specjalnego akceleratora cząstek. Taki akcelerator musi nadać protonom energię pozwalającą dotrzeć na wymaganą głębokość w ciele pacjenta i wytworzyć tam pik Bragga, czyli charakterystyczne maksimum dawki. Tym zajmują się cyklotrony lub synchrotrony, a nie typowe maszyny z klasycznej radioterapii fotonowej. Częsty błąd polega na wrzuceniu do jednego worka wszystkich zaawansowanych technologicznie aparatów, takich jak cyberknife. Cyberknife brzmi bardzo nowocześnie i kojarzy się z precyzją, ale fizycznie jest to niewielki przyspieszacz liniowy generujący wysokoenergetyczne promieniowanie X, zamontowany na robocie. To dalej terapia fotonowa, tylko z bardzo zaawansowanym systemem pozycjonowania i planowania, a nie protonoterapia. Podobnie bomba kobaltowa, historycznie bardzo ważna w teleterapii, wykorzystuje promieniowanie gamma emitowane przez izotop kobaltu-60. Jest to promieniowanie fotonowe o stałej energii, bez możliwości modulacji energii wiązki tak jak w akceleratorach cząstek. Z tego powodu bomba kobaltowa absolutnie nie jest źródłem protonów. Przyspieszacz liniowy również bywa wskazywany z przyzwyczajenia, bo to podstawowe urządzenie na większości oddziałów radioterapii. Jednak klasyczny linak medyczny przyspiesza elektrony w linii prostej i wytwarza promieniowanie X w głowicy terapeutycznej. Nie ma tam toru dla protonów ani odpowiedniej konstrukcji optyki wiązki protonowej. To jest typowy przykład błędu myślowego: „skoro to przyspieszacz, to na pewno też protony”. W praktyce klinicznej protonoterapii używa się wyspecjalizowanych akceleratorów hadronowych (cyklotronów, synchrotronów), a nie standardowych linaków czy bomb kobaltowych. Dlatego tylko cyklotron odpowiada wymaganiom pytania jako źródło wiązki protonowej stosowanej w radioterapii.

Pytanie 25

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. wydłużenie fali i zmniejszenie przenikliwości promieniowania X.
B. skrócenie fali i zwiększenie przenikliwości promieniowania X.
C. skrócenie fali i zmniejszenie przenikliwości promieniowania X.
D. wydłużenie fali i zwiększenie przenikliwości promieniowania X.
Prawidłowe rozumowanie opiera się na bardzo podstawowej zależności fizycznej: im wyższe napięcie na lampie rentgenowskiej (kV), tym elektrony są silniej przyspieszane, a więc zderzając się z anodą oddają więcej energii. Ta większa energia kinetyczna elektronów przekłada się na wyższą energię fotonów promieniowania X. A ponieważ długość fali jest odwrotnie proporcjonalna do energii (λ ~ 1/E), wyższa energia oznacza krótszą długość fali. Czyli: wyższe kV → krótsza fala. Krótsza fala i wyższa energia fotonów powodują większą przenikliwość promieniowania X. W praktyce oznacza to, że promieniowanie o wyższym kV łatwiej przechodzi przez grubsze lub gęstsze struktury, np. miednicę, kręgosłup lędźwiowy czy klatkę piersiową u pacjentów o większej masie ciała. W pracowni RTG dobór napięcia jest jednym z kluczowych parametrów ekspozycji. Standardy i dobre praktyki mówią jasno: dla struktur kostnych grubych i gęstych stosuje się wyższe kV, właśnie po to, żeby promieniowanie było bardziej przenikliwe i nie zatrzymywało się w tkankach powierzchownych. Z mojego doświadczenia, przy badaniu klatki piersiowej typowo używa się wysokich napięć (np. 110–125 kV), żeby wiązka przeszła przez cały przekrój klatki i dobrze uwidoczniła serce, płuca i kręgosłup, przy rozsądnej dawce. Przy niższym kV obraz byłby zbyt kontrastowy, mocno „twardy” dla kości, ale tkanki miękkie mogłyby być niedostatecznie uwidocznione. Warto też pamiętać, że zwiększenie kV zmienia charakter wiązki: rośnie udział efektu Comptona, co wpływa na kontrast obrazu (kontrast spada), ale poprawia się przenikliwość. Dlatego w praktyce technik zawsze musi balansować między kV a mAs, żeby uzyskać właściwą jakość obrazu przy jak najniższej dawce, zgodnie z zasadą ALARA. Zwiększenie napięcia to więc nie tylko „mocniejszy” promień, ale konkretnie: krótsza długość fali i większa przenikliwość promieniowania X, co jest dokładnie opisane w poprawnej odpowiedzi.

Pytanie 26

Która przyczyna spowodowała powstanie artefaktu widocznego na zamieszczonym obrazie MR?

Ilustracja do pytania
A. Nieprawidłowa kalibracja aparatu.
B. Wymiary obiektu przekroczyły pole widzenia.
C. Niejednorodność pola magnetycznego.
D. Zły dobór cewki gradientowej.
W tego typu pytaniu łatwo pójść w stronę skomplikowanych wyjaśnień o sprzęcie, a tymczasem problem jest czysto geometryczny. Artefakt widoczny na obrazie MR nie wynika ani ze złego doboru cewki gradientowej, ani z nieprawidłowej kalibracji aparatu, ani z ogólnej niejednorodności pola magnetycznego, tylko z faktu, że badany obszar jest większy niż ustawione pole widzenia. Z mojego doświadczenia wielu uczniów automatycznie obwinia gradienty, bo kojarzą je z zniekształceniami obrazu, ale w nowoczesnych systemach dobór cewki gradientowej jest z góry narzucony przez konstrukcję skanera. Operator nie wybiera sobie innej cewki gradientowej do głowy czy brzucha – gradienty są integralną częścią gantry. Dlatego „zły dobór cewki gradientowej” praktycznie nie występuje jako przyczyna pojedynczego artefaktu na jednym badaniu, raczej jako poważna wada konstrukcyjna, która psułaby wszystkie obrazy. Podobnie z kalibracją aparatu: błędna kalibracja zwykle daje globalne problemy jakościowe, niestabilność sygnału, błędy w geometrii całego badania, a nie lokalne „obcięcie” struktur przy krawędzi pola widzenia. Takie zjawisko jest typowe dla źle dobranego FOV, a nie dla offsetu kalibracyjnego. Niejednorodność pola magnetycznego z kolei daje inne typowe artefakty: zniekształcenia geometryczne przy granicy powietrze–kość, przemieszczenia sygnału, deformacje w sekwencjach EPI, ale nie efekt dosłownego urwania obrazu poza pewnym obszarem. To jest częsty błąd myślowy: skoro coś wygląda nienaturalnie, to „na pewno magnes jest nierówny”. Tymczasem tu kluczowe jest zrozumienie relacji między FOV, macierzą i rozmiarem pacjenta. Jeśli obiekt jest większy niż FOV, część sygnału aliasuje się, czyli nakłada na obraz, albo po prostu nie jest obrazowana. Właśnie dlatego w dobrych praktykach MR tak duży nacisk kładzie się na poprawne ustawienie scoutów, sprawdzenie, czy cała anatomia mieści się w polu widzenia, i dopiero potem uruchomienie właściwych sekwencji. Gdy się o tym pamięta, większości takich artefaktów można spokojnie uniknąć.

Pytanie 27

Obrazy DDR są tworzone w trakcie

A. weryfikacji geometrii pól terapeutycznych na symulatorze rentgenowskim.
B. planowania radioterapii w komputerowym systemie planowania leczenia.
C. wykonywania przekrojów w tomografii komputerowej.
D. napromieniowania na aparacie terapeutycznym.
Prawidłowo – obrazy DDR (Digital DRR, czyli cyfrowe Digitally Reconstructed Radiographs) powstają właśnie na etapie planowania radioterapii w komputerowym systemie planowania leczenia. System bierze trójwymiarowe dane z tomografii komputerowej pacjenta i na ich podstawie „symuluje” projekcje podobne do klasycznego zdjęcia RTG. W efekcie dostajemy obraz, który wygląda jak zdjęcie rentgenowskie, ale jest całkowicie wyliczony matematycznie z danych TK, a nie wykonany na aparacie terapeutycznym czy symulatorze. Taki DDR pokazuje, jak powinno wyglądać ustawienie pacjenta i pól terapeutycznych przy prawidłowym napromienianiu. W praktyce klinicznej używa się go do weryfikacji geometrii napromieniania: technik porównuje obraz DDR z obrazami weryfikacyjnymi wykonanymi już na aparacie (np. portal imaging, EPID) i sprawdza, czy kości, narządy krytyczne i obszar PTV są w tym samym położeniu. Moim zdaniem to jest jedno z kluczowych narzędzi bezpieczeństwa w radioterapii – dzięki DDR można wcześnie wychwycić błędne ustawienie pacjenta, przesunięcie stołu, złą rotację czy pomyłkę w doborze projekcji. Dobre praktyki mówią jasno: poprawnie przygotowany plan musi mieć wygenerowane DRR dla każdej wiązki, z czytelnie zaznaczonym konturem guza, narządów krytycznych i osiami referencyjnymi. W nowoczesnych systemach planowania (np. Eclipse, Monaco, RayStation) generacja DDR to standardowy krok workflow, praktycznie nie da się zakończyć planu bez tych obrazów. Warto też pamiętać, że jakość DDR zależy od jakości badania TK (grubość warstw, artefakty), więc już na etapie skanowania pacjenta trzeba myśleć o tym, że te dane posłużą później do rekonstrukcji obrazów referencyjnych dla całej radioterapii.

Pytanie 28

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 100-150 MeV
B. 1-3 MeV
C. 0,1-0,3 MeV
D. 4-25 MeV
Prawidłowy zakres 4–25 MeV bardzo dobrze pasuje do typowego medycznego przyspieszacza liniowego używanego w radioterapii zdalnej (teleterapii). W linaku medycznym przyspiesza się elektrony do energii rzędu kilku–kilkunastu MeV, a następnie kieruje je na tarczę wolframową. W wyniku hamowania elektronów w materiale tarczy powstaje promieniowanie hamowania (bremsstrahlung) – właśnie wiązka fotonów o energii maksymalnej zbliżonej do energii elektronów, czyli np. 6 MV, 10 MV, 15 MV itd. W praktyce klinicznej stosuje się najczęściej energie fotonów 4–6 MV dla płycej położonych zmian i 10–18 MV dla głębiej leżących guzów, żeby uzyskać odpowiedni rozkład dawki w tkankach, tzw. efekt build-up i oszczędzić skórę. Moim zdaniem warto zapamiętać, że te energie są dużo wyższe niż w diagnostyce obrazowej, bo tu już mówimy o dawkach terapeutycznych, a nie tylko o tworzeniu obrazu. W planowaniu radioterapii fizyk medyczny dobiera energię fotonów właśnie z tego przedziału, uwzględniając głębokość guza, gęstość tkanek po drodze i wymagania dotyczące ochrony narządów krytycznych. Standardy radioterapii (np. IAEA, ESTRO) opisują linaki z energiami fotonów typowo 4–25 MV jako złoty standard w nowoczesnej teleterapii. Warto też pamiętać, że ta energia fotonów przekłada się na wymagania osłonowe bunkra – ściany z betonu mają zwykle kilkadziesiąt cm grubości, właśnie dlatego, że pracujemy w zakresie kilku–kilkudziesięciu MeV. W praktyce technika radioterapii to jest Twój chleb powszedni: dobór odpowiedniego pola, kolimatora MLC, weryfikacja ustawienia pacjenta – wszystko to zakłada, że wiązka fotonowa ma energię z tego zakresu i tak jest też opisywana w planie leczenia i w dokumentacji dawki.

Pytanie 29

W badaniu PET CT wykorzystuje się radioizotopy emitujące promieniowanie

A. gamma.
B. alfa.
C. beta minus.
D. beta plus.
W PET/CT bardzo łatwo pomylić się, bo na pierwszy rzut oka wydaje się, że skoro urządzenie rejestruje promieniowanie gamma, to używa się izotopów gamma. I tu jest ten typowy błąd myślowy: mylimy to, co emituje radioizotop, z tym, co w końcu rejestruje detektor. W PET kluczowy jest emiter beta plus, czyli taki radionuklid, który w swoim rozpadzie wytwarza pozyton. Pozyton to antycząstka elektronu, naładowana dodatnio. Po krótkim torze w tkance pozyton zderza się z elektronem i dopiero wtedy dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV. Detektory PET nie rejestrują więc bezpośrednio rozpadu beta, tylko produkty anihilacji. Promieniowanie alfa nie ma tu w ogóle zastosowania – cząstki alfa mają bardzo mały zasięg w tkankach i są silnie jonizujące, przez co kompletnie nie nadają się do obrazowania tomograficznego całego ciała. Stosuje się je czasem w terapii izotopowej, ale nie w PET. Emiter beta minus też nie pasuje, bo w tym rozpadzie powstaje elektron, a nie pozyton. Elektron nie anihiluje z elektronem, tylko traci energię w ośrodku przez jonizację i hamowanie, więc nie generuje tych charakterystycznych dwóch fotonów 511 keV pod kątem 180°. Tego rodzaju izotopy wykorzystuje się głównie w terapii (np. 90Y, 131I), ewentualnie w innych typach badań, ale nie w klasycznym PET. Często zdarza się też, że ktoś odpowiada „gamma”, bo kojarzy, że w medycynie nuklearnej jest gammakamera i scyntygrafia. Tam faktycznie używa się emiterów gamma, ale to jest SPECT, a nie PET. PET opiera się właśnie na fizyce anihilacji pozyton–elektron. Moim zdaniem warto sobie to poukładać tak: do ciała zawsze podajemy emiter beta plus, a urządzenie rejestruje pary fotonów gamma po anihilacji. Jak zapamiętasz ten ciąg zdarzeń, to podobne pytania przestają być problemem.

Pytanie 30

W radiografii mianem SID określa się

A. odległość między obiektem badanym a detektorem obrazu.
B. system automatycznej regulacji jasności.
C. odległość między źródłem promieniowania a detektorem obrazu.
D. system automatycznej kontroli ekspozycji.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 31

Zastosowana w badaniu radiologicznym kratka przeciwrozproszeniowa powoduje

A. zwiększenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
B. zmniejszenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
C. zwiększenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
D. zmniejszenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
Właściwie wychwyciłeś sedno działania kratki przeciwrozproszeniowej. Jej głównym zadaniem jest właśnie zmniejszenie ilości promieniowania rozproszonego docierającego do detektora lub kliszy, dzięki czemu poprawia się kontrast obrazu. Fizycznie wygląda to tak, że kratka składa się z równoległych lub zbieżnych listew ołowianych przedzielonych materiałem przepuszczającym promieniowanie. Promieniowanie pierwotne, biegnące mniej więcej prostopadle do detektora, przechodzi przez szczeliny, a promieniowanie rozproszone, które ma kierunek skośny (po zjawisku Comptona w pacjencie), jest w dużej części pochłaniane przez listwy ołowiane. W efekcie na obrazie jest mniej „mgły” promiennej, a różnice gęstości tkanek są wyraźniejsze. To właśnie nazywamy wzrostem kontrastu. W praktyce klinicznej kratkę stosuje się szczególnie przy badaniach struktur grubych lub gęstych: klatka piersiowa u dorosłych, zdjęcia kręgosłupa, miednicy, czaszki. Tam rozproszenia jest dużo i bez kratki obraz byłby mocno spłaszczony tonalnie. Trzeba jednak pamiętać o jednym ważnym aspekcie – kratka usuwa nie tylko promieniowanie rozproszone, ale też część promieniowania pierwotnego. To oznacza, że aby uzyskać odpowiednią ekspozycję, trzeba zwiększyć dawkę (mAs), co z kolei podnosi narażenie pacjenta. Z mojego doświadczenia to jest klasyczny kompromis w radiologii: lepsza jakość obrazu kontra dawka. Standardy dobrej praktyki (np. wytyczne ICRP, europejskie zalecenia dla radiografii) mówią jasno: kratkę stosować wtedy, gdy rzeczywiście jest potrzebna, a u dzieci i w badaniach cienkich części ciała raczej z niej rezygnować. Warto też dobrać odpowiedni współczynnik kratki (np. 8:1, 10:1) do typu badania i odległości ognisko–detektor, bo to ma wpływ zarówno na kontrast, jak i na konieczną ekspozycję.

Pytanie 32

Promieniowanie jonizujące pośrednio to

A. promieniowanie β⁻
B. promieniowanie γ
C. promieniowanie α
D. promieniowanie β⁺
Promieniowanie γ zaliczamy do promieniowania jonizującego pośrednio, ponieważ samo w sobie jest strumieniem fotonów, czyli kwantów energii elektromagnetycznej, a nie naładowanych cząstek. Foton γ nie „wyrywa” elektronów z atomów bezpośrednio jak cząstka naładowana, tylko najpierw oddziałuje z materią (np. z elektronem powłokowym lub jądrem), wytwarzając wtórne cząstki naładowane – głównie elektrony wtórne. Dopiero te elektrony powodują zasadniczą część jonizacji w tkankach. Dlatego mówimy, że γ jonizuje pośrednio. W praktyce medycznej ma to ogromne znaczenie. W radioterapii z użyciem przyspieszaczy liniowych albo aparatów Co-60 wiązka promieniowania γ lub wysokoenergetycznego X przenika głębiej w ciało, a maksimum dawki pojawia się na pewnej głębokości, właśnie przez generację wtórnych elektronów. Dzięki temu można lepiej oszczędzić skórę i dostarczyć większą dawkę do guza położonego głębiej, co jest standardem w nowoczesnym planowaniu napromieniania. Podobnie w diagnostyce medycyny nuklearnej – w gammakamerze rejestrujemy fotony γ emitowane przez radioizotop (np. 99mTc), które same są nienaładowane, więc dobrze przechodzą przez tkanki, a ich detekcja wymaga kryształu scyntylacyjnego i fotopowielaczy. Z mojego doświadczenia, zrozumienie, że γ jest promieniowaniem pośrednio jonizującym, pomaga ogarnąć, czemu ochrona radiologiczna opiera się na grubych ekranach z ołowiu czy betonu: ekran nie tyle zatrzymuje ładunek, co pochłania fotony i ogranicza powstawanie wtórnych elektronów w organizmie osoby narażonej. To też tłumaczy, dlaczego normy dawek i zasada ALARA tak mocno podkreślają czas, odległość i osłony – bo pracujemy z promieniowaniem, które ma duży zasięg i jonizuje trochę „okrężną drogą”.

Pytanie 33

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. dwoma kolejnymi impulsami pobudzającymi RF90°.
B. impulsem inwersji 180° a czasem powstania sygnału (echa).
C. impulsem inwersji 90° a czasem powstania sygnału (echa).
D. dwoma kolejnymi impulsami pobudzającymi RF180°.
Czas repetycji TR w rezonansie magnetycznym jest jednym z tych parametrów, które łatwo pomylić z innymi, zwłaszcza jeśli ktoś dopiero zaczyna ogarniać sekwencje impulsowe. Podstawowy błąd myślowy polega na tym, że każda sekwencja ma różne impulsy RF, więc część osób automatycznie łączy TR z dowolnym impulsem, który kojarzy się z powstaniem echa. Tymczasem definicja jest dość precyzyjna: TR odnosi się do odstępu między kolejnymi impulsami pobudzającymi RF o kącie 90°, a nie 180° ani impulsami inwersyjnymi. Impulsy RF180° w klasycznych sekwencjach spin-echo służą głównie do refokusa magnetyzacji poprzecznej i wygenerowania echa spinowego. Odstęp czasu związany z powstaniem echa opisuje się parametrem TE (time to echo), a nie TR. Łatwo tu poplątać pojęcia: ktoś widzi na schemacie impuls 90°, potem 180° i myśli, że TR dotyczy tych dwóch impulsów albo dwóch kolejnych impulsów 180°. W rzeczywistości TR w ogóle nie jest zdefiniowany przez impuls 180°, tylko przez kolejne cykle pobudzenia, czyli kolejne „starty” akwizycji, które są inicjowane impulsem 90°. Jeszcze inny kierunek pomyłki dotyczy sekwencji inwersyjno-odtworzeniowych (IR). W nich pojawia się impuls 180° inwersyjny, a potem po określonym czasie TI (czas inwersji) dopiero impuls 90° i echa. Niektórzy mylą TI z TR i zakładają, że TR to odstęp od impulsu 180° do echa. W standardowej terminologii MR ten czas nazywamy TI, a TR nadal liczymy między kolejnymi impulsami pobudzającymi 90°. To rozróżnienie jest ważne, bo każdy z tych parametrów ma inne znaczenie kliniczne: TR kontroluje głównie nasycenie T1, TE – wrażliwość na T2, a TI – stopień tłumienia określonych tkanek (np. płynu w FLAIR, tłuszczu w STIR). Jeśli pomylimy te definicje, łatwo później źle interpretować protokoły producenta, nieprawidłowo modyfikować sekwencje i w efekcie uzyskiwać obrazy o nieoczekiwanym kontraście. Moim zdaniem warto sobie raz porządnie narysować schemat sekwencji i podpisać TR, TE oraz TI, wtedy te pojęcia naprawdę siadają w głowie i nie mieszają się przy pracy na konsoli.

Pytanie 34

Przemiana promieniotwórcza radu w ren opisana wzorem \( {}_{88}^{226}\text{Ra} \to {}_{86}^{222}\text{Rn} + {}_{2}^{4}\text{He} \) jest rozpadem

A. beta plus.
B. beta minus.
C. alfa.
D. gamma.
Rozpad opisany równaniem \( {}_{88}^{226}\text{Ra} \to {}_{86}^{222}\text{Rn} + {}_{2}^{4}\text{He} \) to klasyczny przykład przemiany alfa. Widać to po tym, że z jądra radu „odrywa się” cząstka o liczbie masowej 4 i liczbie atomowej 2, czyli dokładnie jądro helu – to jest właśnie cząstka alfa. Liczba masowa zmniejsza się z 226 do 222 (spadek o 4), a liczba atomowa z 88 do 86 (spadek o 2), co jest typowym wzorcem dla rozpadu alfa. Z fizycznego punktu widzenia jądro ciężkiego pierwiastka, jak rad, pozbywa się nadmiaru energii i „zbyt dużej” liczby nukleonów właśnie przez emisję takiej cząstki. W medycynie, szczególnie w medycynie nuklearnej i w ochronie radiologicznej, rozumienie tego typu przemian jest bardzo praktyczne. Cząstki alfa mają bardzo mały zasięg w tkankach (rzędu dziesiątek mikrometrów), ale jednocześnie bardzo duże liniowe przekazywanie energii (wysoki LET). To oznacza, że jeśli źródło alfa znajdzie się wewnątrz organizmu, może silnie uszkadzać komórki w bardzo małym obszarze. Dlatego w procedurach, które opisują dobre praktyki ochrony radiologicznej, tak mocno podkreśla się, żeby nie spożywać, nie wdychać i nie zanieczyszczać skóry materiałami emitującymi alfa. Z zewnątrz skóra praktycznie zatrzymuje to promieniowanie, ale wewnętrznie jest ono bardzo niebezpieczne. Moim zdaniem znajomość rozpadu alfa przydaje się też przy rozumieniu łańcuchów promieniotwórczych, np. szeregu uranowo-radowego. W takich szeregach wielokrotnie pojawiają się kolejne rozpady alfa prowadzące do powstania gazowego radu i radu–222, który z kolei ma znaczenie w ocenie narażenia na radon w budynkach. W standardach oceny ryzyka radiacyjnego i w dokumentacji ochrony radiologicznej zawsze uwzględnia się, czy mamy do czynienia z promieniowaniem alfa, beta czy gamma, bo od tego zależy zarówno sposób ekranowania, jak i metody monitorowania skażeń. W praktyce technika medycznego znajomość tego typu reakcji pomaga lepiej rozumieć opisy źródeł, charakterystyki radioizotopów w kartach katalogowych oraz zalecenia BHP przy pracy z materiałami promieniotwórczymi.

Pytanie 35

W pozytonowej tomografii emisyjnej PET zostaje zarejestrowane promieniowanie powstające podczas

A. rozpraszania comptonowskiego.
B. anihilacji pary elektron-pozyton.
C. anihilacji pary proton-antyproton.
D. rozpraszania culombowskiego.
W pozytonowej tomografii emisyjnej (PET) kluczowym zjawiskiem fizycznym jest właśnie anihilacja pary elektron–pozyton. Radiofarmaceutyk podany pacjentowi emituje pozytony, czyli antycząstki elektronów. Pozyton w tkankach bardzo szybko traci energię kinetyczną, zderzając się z elektronami otoczenia, aż w końcu dochodzi do ich spotkania i anihilacji. W wyniku tej anihilacji powstają dwa fotony promieniowania gamma o energii 511 keV każdy, emitowane prawie dokładnie w przeciwnych kierunkach (pod kątem około 180°). To właśnie te dwa skorelowane fotony są rejestrowane w aparacie PET w trybie tzw. koincydencji. Z mojego doświadczenia to jest najważniejszy fizyczny „trik” PET-u: aparat nie widzi bezpośrednio pozytonu, tylko parę fotonów po anihilacji. Detektory ułożone dookoła pacjenta rejestrują jednoczesne (w bardzo krótkim oknie czasowym) uderzenia fotonów w przeciwległe kryształy scyntylacyjne. Na tej podstawie system rekonstruuje linię, wzdłuż której musiała zajść anihilacja, czyli tzw. line of response (LOR). Sumując miliony takich zdarzeń, komputer odtwarza rozkład radioaktywności w organizmie. W praktyce klinicznej, np. w onkologii, pozwala to ocenić metabolizm glukozy w guzach przy użyciu 18F-FDG albo wychwyt innych znaczników. Standardy pracowni medycyny nuklearnej (np. EANM) podkreślają znaczenie prawidłowego doboru radiofarmaceutyku i kalibracji systemu detekcji właśnie pod kątem rejestracji fotonów 511 keV i ich koincydencji. Moim zdaniem, jak dobrze zrozumiesz mechanizm anihilacji i rejestracji tych dwóch fotonów, dużo łatwiej ogarnąć później takie rzeczy jak korekcja osłabienia, rozpraszania czy artefakty w obrazach PET/CT.

Pytanie 36

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. ilości promieniowania rozproszonego.
B. wielkości ogniska optycznego.
C. grubości emulsji błony rentgenowskiej.
D. wielkości ziarna luminoforu folii wzmacniającej.
Prawidłowo wskazana została wielkość ogniska optycznego, czyli w praktyce rozmiar ogniska lampy rentgenowskiej. To właśnie od niego w dużym stopniu zależy nieostrość geometryczna, nazywana też nieostrością ogniskową. Im większe ognisko, tym bardziej krawędzie struktur na obrazie stają się rozmyte, bo promienie wychodzą z większego obszaru, a nie z jednego „punktu”. Z mojego doświadczenia dobrze to widać np. w radiogramach kości dłoni: przy dużym ognisku beleczki kostne i zarysy drobnych stawów są mniej wyraźne, przy małym ognisku – ostre jak żyleta. Dlatego w standardach pracowni RTG zaleca się używanie małego ogniska do badań wymagających wysokiej rozdzielczości przestrzennej: zdjęcia kostne, mammografia, drobne struktury stomatologiczne. Przy badaniach dużych części ciała, np. klatki piersiowej u dorosłego, częściej stosuje się większe ognisko, bo trzeba wytrzymać większe obciążenie cieplne lampy. W praktyce technik zawsze musi znaleźć kompromis między ostrością a możliwościami technicznymi aparatu i dawką dla pacjenta. Warto też pamiętać, że na nieostrość geometryczną wpływa dodatkowo odległość ognisko–błona oraz odległość obiekt–błona, ale „startem” całego problemu jest właśnie fizyczna wielkość ogniska. Gdy opanujesz tę zależność, łatwiej rozumiesz, dlaczego w protokołach badań RTG tak mocno podkreśla się dobór ogniska w zależności od badanej okolicy i masy ciała pacjenta.

Pytanie 37

Skrótem CTV w radioterapii oznacza się

A. obszar guza.
B. zaplanowany obszar napromieniania.
C. obszar leczony.
D. kliniczny obszar napromieniania.
W radioterapii bardzo łatwo pomylić nazwy poszczególnych objętości, bo wszystkie brzmią podobnie i dotyczą mniej więcej tego samego obszaru ciała pacjenta. W rzeczywistości jednak każde z tych pojęć ma swoją konkretną rolę w planowaniu leczenia i ich zamiana prowadzi do nieporozumień, a czasem nawet do błędów klinicznych. Skrót CTV nie oznacza po prostu obszaru guza. Obszar guza, czyli to co makroskopowo widzimy w TK, MR lub PET, nazywa się GTV (Gross Tumor Volume). GTV to widoczna masa nowotworu, bez dodatkowych marginesów. CTV, czyli Clinical Target Volume, jest pojęciem szerszym: obejmuje GTV oraz strefę potencjalnego mikroskopowego nacieku nowotworu, a czasem także regionalne węzły chłonne, jeśli z punktu widzenia onkologicznego są zagrożone zajęciem. Dlatego utożsamianie CTV tylko z guzem jest zbyt dużym uproszczeniem. Równie mylące jest traktowanie CTV jako „obszaru leczonego” w potocznym sensie. W praktyce klinicznej obszar faktycznie napromieniany wiąże się z PTV, czyli Planned Target Volume, a nie z samym CTV. CTV jest strukturą kliniczną, wynikającą z wiedzy lekarza o biologii nowotworu i drogach szerzenia się choroby. PTV natomiast powstaje z CTV poprzez dodanie marginesów technicznych i geometrycznych, które mają uwzględnić niepewności ustawienia pacjenta, ruchy narządów, różnice między frakcjami. Stąd odpowiedź mówiąca, że CTV to zaplanowany obszar napromieniania, też jest nieprawidłowa – opisuje raczej definicję PTV. W wytycznych ICRU oraz w dobrych praktykach ośrodków radioterapii zawsze rozróżnia się te pojęcia: GTV – guz makroskopowy, CTV – kliniczny obszar napromieniania, PTV – zaplanowany obszar napromieniania. Typowym błędem myślowym jest skracanie całego procesu planowania do jednego „pola napromieniania” i wrzucanie wszystkich objętości do jednego worka. Tymczasem to rozdzielenie na GTV, CTV i PTV pozwala osobno uwzględnić biologię guza, ryzyko mikroskopowego nacieku oraz czysto techniczne ograniczenia aparatu i pozycjonowania. Z punktu widzenia jakości i bezpieczeństwa leczenia to rozróżnienie jest absolutnie kluczowe.

Pytanie 38

Podstawowym elementem diagnostycznym aparatury izotopowej wykorzystującej emisyjne metody pomiaru jest

A. kamera scyntylacyjna.
B. woltomierz.
C. amperomierz.
D. komora jonizacyjna.
Prawidłową odpowiedzią jest kamera scyntylacyjna, bo to właśnie ona stanowi podstawowy element diagnostyczny w aparaturze izotopowej wykorzystującej emisyjne metody pomiaru. W emisyjnych technikach medycyny nuklearnej źródłem promieniowania jest radioizotop podany pacjentowi, a zadaniem układu pomiarowego jest rejestracja promieniowania gamma wychodzącego z organizmu. Kamera scyntylacyjna (gammakamera) zamienia te kwanty promieniowania na błyski światła w krysztale scyntylacyjnym (najczęściej NaI(Tl)), a potem na sygnał elektryczny w fotopowielaczach. Na tej podstawie system tworzy obraz rozkładu radiofarmaceutyku w ciele. To właśnie ten element decyduje o jakości diagnostycznej badania: rozdzielczości przestrzennej, czułości detekcji, możliwości wykonywania projekcji planarnych i badań SPECT. W praktyce klinicznej kamera scyntylacyjna jest sercem całego zestawu – reszta aparatury (kolimatory, układy akwizycji, oprogramowanie) tylko wspiera jej działanie. Z mojego doświadczenia to na ustawieniu parametrów pracy kamery, doborze odpowiedniego kolimatora i właściwej energii okna fotopiku opiera się większość dobrej praktyki w scyntygrafii. W nowoczesnych pracowniach standardem jest używanie kamer scyntylacyjnych sprzężonych z TK (SPECT/CT), ale wciąż kluczowy element emisyjny to właśnie detektor scyntylacyjny. Bez niego mamy co najwyżej licznik promieniowania, a nie rzeczywiste narzędzie diagnostyki obrazowej zgodne z wytycznymi medycyny nuklearnej.

Pytanie 39

Standardowe badanie USG średniej wielkości piersi wykonuje się głowicą w zakresie częstotliwości

A. 2-3,5 MHz
B. 4,5-7 MHz
C. 7,5-15 MHz
D. 0,5-1 MHz
W ultrasonografii piersi kluczowe jest zrozumienie zależności między częstotliwością a głębokością penetracji i rozdzielczością. Piersi, zwłaszcza średniej wielkości, są narządem raczej powierzchownym, więc priorytetem jest wysoka rozdzielczość obrazu, a nie bardzo duża głębokość wnikania fali. To jest główny powód, dla którego stosuje się głowice o częstotliwości 7,5–15 MHz, a nie niższe zakresy podane w odpowiedziach. Najniższy zakres 0,5–1 MHz to w ogóle częstotliwości zupełnie nieprzydatne do obrazowania takich struktur jak pierś. Tak niskie częstotliwości kojarzą się raczej z zastosowaniami terapeutycznymi, ewentualnie bardzo głęboką penetracją w dużych strukturach, ale kosztem fatalnej rozdzielczości. Obraz przy takiej częstotliwości byłby tak mało szczegółowy, że nie dałoby się ocenić ani granic zmiany, ani jej wewnętrznej struktury. Typowym błędem jest myślenie: „im niższa częstotliwość, tym lepiej, bo głębiej widać”, ale w piersi nie chodzi o głębię, tylko o detale. Zakres 2–3,5 MHz jest typowy raczej dla badań jamy brzusznej u osób otyłych, echokardiografii przezklatkowej czy obrazowania głęboko położonych narządów u dorosłych. W piersi, szczególnie średniej, taka częstotliwość dałaby zbyt małą rozdzielczość, a dodatkowa głębokość wnikania jest po prostu niepotrzebna. Moim zdaniem to częsty skrót myślowy: „to też USG, więc będzie ok”, ale standardy diagnostyki piersi wymagają znacznie wyższej częstotliwości. Zakres 4,5–7 MHz jest już bliżej prawidłowego, bo stosuje się go do niektórych badań narządów powierzchownych u osób z grubszą tkanką podskórną, ale w nowoczesnej diagnostyce piersi nadal uznaje się go za zbyt niski jako podstawowy wybór. Rozdzielczość przy 5 MHz jest wyraźnie gorsza niż przy 10–12 MHz, co ma ogromne znaczenie przy wykrywaniu małych zmian, np. guzków rzędu 3–5 mm. Przy zbyt niskiej częstotliwości łatwo o niedoszacowanie wielkości zmiany, mylne wrażenie jej jednorodności albo wręcz przeoczenie subtelnych ognisk. Podsumowując, wszystkie niższe zakresy częstotliwości kuszą większą głębokością penetracji, ale w badaniu piersi nie o to chodzi. Tu obowiązuje zasada: jak najwyższa częstotliwość, przy której fala jeszcze wystarczająco penetruje całą grubość piersi. Z tego powodu standardem dla średniej piersi są głowice 7,5–15 MHz, zgodnie z dobrymi praktykami i zaleceniami towarzystw radiologicznych.

Pytanie 40

Ligand stosuje się

A. w radiologii klasycznej jako środek kontrastujący pozytywny.
B. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
C. w radiologii klasycznej jako środek kontrastujący negatywny.
D. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który w medycynie nuklearnej służy jako nośnik radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi” znacznik promieniotwórczy dokładnie do tej tkanki, którą chcemy zobrazować albo ocenić czynnościowo. Radioizotop sam z siebie zwykle nie jest wybiórczy, dopiero po połączeniu z odpowiednim ligandem powstaje radiofarmaceutyk o określonym powinowactwie, np. do kości, mięśnia sercowego, receptorów somatostatynowych czy komórek nowotworowych. Przykładem są związki znakowane technetem-99m, gdzie część „Tc-99m” odpowiada za emisję promieniowania gamma, a część ligandowa (np. MDP dla kości, sestamibi dla serca) decyduje o dystrybucji w organizmie. W badaniach PET podobnie: 18F-FDG to glukoza zmodyfikowana tak, by przenosić izotop fluoru – glukozowa część pełni rolę ligandu, który wykorzystuje naturalny metabolizm komórek. W praktyce klinicznej dobór właściwego ligandu ma ogromne znaczenie dla czułości i swoistości badania. Standardy medycyny nuklearnej (np. zalecenia EANM) podkreślają konieczność stosowania radiofarmaceutyków o dobrze zdefiniowanych właściwościach farmakokinetycznych i receptorowych. Moim zdaniem warto zapamiętać prosty schemat: izotop = źródło promieniowania, ligand = adres na który to promieniowanie „wysyłamy”. Bez ligandu badanie scyntygraficzne czy PET byłoby dużo mniej użyteczne, bo nie mielibyśmy tak fajnej selektywności narządowej i receptorowej, którą wykorzystuje się na co dzień choćby w diagnostyce onkologicznej, kardiologii czy w badaniach układu kostnego.