Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 3 maja 2026 09:49
  • Data zakończenia: 3 maja 2026 09:56

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie wymagania techniczne muszą spełniać aparaty terapeutyczne stosowane w zakładach brachyterapii, służące bezpośrednio do napromieniania pacjenta metodą zdalnego wprowadzania źródeł promieniotwórczych?

A. Posiadają jeden niezależny system odliczający czas i informujący o zakończeniu napromieniania.
B. Weryfikują ustawione warunki i nie sygnalizują przypadkowych błędów personelu.
C. Wyłączenie i ponowne włączenie aparatu likwiduje sygnalizowany błąd.
D. Wyłączenie i ponowne włączenie aparatu nie likwiduje sygnalizowanego błędu.
W technice medycznej, szczególnie w radioterapii, bardzo łatwo przenieść nawyki z codziennej obsługi zwykłej elektroniki: jak coś się zawiesi, to „zrestartuj i może zadziała”. W przypadku aparatów do brachyterapii HDR taka logika jest jednak po prostu niebezpieczna. Urządzenie zdalnie wprowadzające źródło promieniotwórcze ma do czynienia z wysokimi dawkami w bardzo krótkim czasie, a każdy błąd systemu sterowania, mechaniki lub zabezpieczeń może oznaczać realne ryzyko dla pacjenta. Dlatego wymagania techniczne są znacznie ostrzejsze niż dla zwykłego sprzętu. Założenie, że wyłączenie i ponowne włączenie aparatu powinno likwidować sygnalizowany błąd, opiera się na błędnym przekonaniu, że błąd jest czymś przypadkowym, mało znaczącym. W rzeczywistości w systemach krytycznych błąd traktuje się jako sygnał potencjalnie poważnej usterki. Jeśli po restarcie wszystko wygląda „czysto”, to łatwo ukryć problem, który może się ujawnić w trakcie kolejnego napromieniania. Z punktu widzenia ochrony radiologicznej i norm jakości, system ma pamiętać, że coś było nie tak, dopóki nie zostanie to świadomie zweryfikowane. Podobnie mylne jest wyobrażenie, że urządzenie nie powinno sygnalizować błędów personelu. W nowoczesnych afterloaderach to właśnie jedna z kluczowych funkcji: weryfikacja ustawionych parametrów, kontroli zgodności planu z konfiguracją aparatu, nadzór nad pozycjonowaniem, blokady przy nieprawidłowym wprowadzeniu danych. To nie jest „przypadkowy błąd”, tylko element systemu bezpieczeństwa, który ma wyłapać ludzkie pomyłki, zanim spowodują one błędne napromienianie. Brak takich ostrzeżeń byłby sprzeczny z zasadami dobrej praktyki klinicznej i wytycznymi QA w radioterapii. Kolejne nieporozumienie dotyczy liczby i charakteru systemów pomiaru czasu napromieniania. Urządzenia do brachyterapii nie mogą polegać na jednym, pojedynczym liczniku. Wymagane są redundantne, niezależne układy nadzoru czasu i pozycji źródła, tak żeby awaria jednego z nich nie doprowadziła do niekontrolowanego wydłużenia ekspozycji. Jeden system odliczający czas bez dodatkowego, niezależnego nadzoru byłby sprzeczny z zasadą redundancji w systemach bezpieczeństwa. Typowym błędem myślowym jest tu uproszczenie: „jeden licznik wystarczy, byle działał”. W rzeczywistości normy projektowania urządzeń radioterapeutycznych wymagają kilku warstw zabezpieczeń, bo tu nie chodzi o wygodę obsługi, tylko o ochronę życia i zdrowia pacjenta oraz personelu. Patrząc całościowo, wszystkie te błędne założenia mają wspólny mianownik: traktowanie aparatu do brachyterapii jak zwykłego sprzętu medycznego, a nie jak systemu krytycznego bezpieczeństwa. Tymczasem konstrukcja afterloadera, jego elektroniki, oprogramowania i interfejsu z użytkownikiem jest podporządkowana zasadzie fail-safe, redundancji i pełnej śledzalności błędów. To właśnie dlatego poprawna odpowiedź mówi o tym, że sam restart nie może kasować sygnalizowanego błędu – musi być ślad, musi być analiza i świadoma decyzja o powrocie do pracy.

Pytanie 2

Warstwa półchłonna (WP) służy do obliczania

A. dawki promieniowania.
B. czasu napromieniania.
C. bezpiecznej odległości.
D. grubości osłon.
Warstwa półchłonna kojarzy się wielu osobom z różnymi aspektami pracy z promieniowaniem: dawką, czasem świecenia lampy, nawet odległością od źródła. To dość typowe, bo w praktyce wszystko to jest ze sobą powiązane, ale fizycznie są to różne pojęcia. WP jest parametrem materiału i wiązki promieniowania, a nie parametrem czasu czy odległości. Jej definicja jest czysto geometryczna i fizyczna: to taka grubość osłony, która redukuje natężenie wiązki o połowę. Nie ma tam ani słowa o sekundach, ani o metrach. Jeśli ktoś łączy WP z czasem napromieniania, to zwykle wynika to z myślenia: „skoro coś zmniejsza dawkę, to pewnie wpływa też na czas”. W praktyce czas napromieniania w diagnostyce ustala się przez parametry ekspozycji (mAs, kV) i wymagany poziom jakości obrazu, a w radioterapii – przez zaplanowaną dawkę i moc dawki wiązki. Warstwa półchłonna nie służy do ustawiania czasu, tylko do oceny, jak szybko wiązka jest osłabiana przez materiał ochronny. Można potem oczywiście skrócić lub wydłużyć czas, żeby skompensować tłumienie, ale to już inny etap obliczeń. Podobnie jest z dawką promieniowania. WP wpływa na to, ile promieniowania „przejdzie” przez osłonę, więc pośrednio ma związek z dawką po drugiej stronie bariery, ale nie jest bezpośrednim narzędziem do obliczania dawki u pacjenta czy personelu. Do dawki używa się parametrów ekspozycji, współczynników pochłaniania w tkankach, krzywych głębokościowych w radioterapii, współczynników konwersji – a warstwa półchłonna jest jednym z elementów służących głównie do projektowania ekranowania. Częste jest też mylenie WP z bezpieczną odległością. Odległość od źródła promieniowania opisuje prawo odwrotności kwadratu odległości: im dalej, tym natężenie spada z kwadratem odległości, niezależnie od materiału. Warstwa półchłonna natomiast opisuje tłumienie w materiale, a nie w powietrzu na drodze geometrycznej. W praktyce w ochronie radiologicznej łączy się te trzy rzeczy: czas, odległość i osłony, ale tylko to ostatnie jest bezpośrednio związane z WP. Dlatego w dobrych praktykach ochrony radiologicznej warstwa półchłonna jest używana przede wszystkim przy obliczaniu grubości ścian, drzwi, fartuchów i innych osłon, a nie jako narzędzie do wyznaczania czasu ekspozycji, dawki czy „magicznej” bezpiecznej odległości.

Pytanie 3

SPECT to

A. tomografia emisyjna pojedynczego fotonu.
B. komputerowa tomografia osiowa.
C. pozytonowa emisyjna tomografia komputerowa.
D. wielorzędowa tomografia komputerowa.
SPECT bardzo łatwo pomylić z innymi metodami obrazowania, bo wszystkie nazwy brzmią podobnie i wszędzie przewija się słowo „tomografia”. Jednak kluczowe jest, jak powstaje obraz. W tomografii komputerowej (TK, dawniej CAT – komputerowa tomografia osiowa) źródłem promieniowania jest lampa rentgenowska na gantrze, a detektory mierzą osłabienie wiązki przechodzącej przez ciało. To jest klasyczna metoda anatomiczna, oparta na promieniowaniu rentgenowskim, bez podawania radioaktywnego znacznika emitującego fotony z wnętrza organizmu. Dlatego odpowiedzi kojarzące SPECT z tomografią komputerową, zarówno tą tradycyjną, jak i wielorzędową (multislice CT), są merytorycznie błędne – to inna modalność, inne urządzenia, inne zasady fizyczne. Wielorzędowa TK to po prostu nowocześniejsza wersja klasycznej tomografii, z wieloma rzędami detektorów, umożliwiająca szybsze skanowanie i cieńsze warstwy, ale nadal nie ma nic wspólnego z emisyjną rejestracją fotonów gamma. Kolejne typowe pomieszanie dotyczy PET. Pozytonowa emisyjna tomografia komputerowa wykorzystuje radioizotopy emitujące pozytony, które anihilują z elektronami, dając parę fotonów 511 keV rejestrowanych w koincydencji przez pierścień detektorów. W SPECT nie ma ani pozytonów, ani anihilacji, ani detekcji w koincydencji – rejestrujemy pojedyncze fotony gamma emitowane bezpośrednio przez radiofarmaceutyk. Z mojego doświadczenia często spotykany błąd myślowy polega na tym, że skoro i PET, i SPECT, i TK robią przekroje, to ludzie wrzucają je do jednego worka. Tymczasem różnice mają ogromne znaczenie praktyczne: inne wskazania kliniczne, inne radiofarmaceutyki, inne wymagania ochrony radiologicznej i inne artefakty obrazu. Dobra praktyka w diagnostyce obrazowej wymaga świadomego rozróżniania metod emisyjnych (SPECT, PET) od transmisyjnych (RTG, TK) i zapamiętania prostego klucza: SPECT – pojedynczy foton gamma, PET – pozyton i para fotonów, TK – promieniowanie rentgenowskie z zewnątrz ciała.

Pytanie 4

W celu wyeliminowania zakłóceń obrazu MR przez sygnały pochodzące z tkanki tłuszczowej, stosuje się

A. obrazowanie T1 – zależne.
B. sekwencje STIR.
C. sekwencje FLAIR.
D. obrazowanie PD – zależne.
W obrazowaniu MR łatwo się pomylić, bo wiele sekwencji daje obrazy pozornie podobne, ale ich zadanie jest zupełnie inne. W tym pytaniu kluczowe jest rozumienie, że wyeliminowanie sygnału z tkanki tłuszczowej wymaga specjalnej techniki tłumienia tłuszczu, a nie tylko zmiany typu kontrastu (T1, T2, PD). Obrazowanie PD-zależne (proton density) koncentruje się głównie na różnicach w gęstości protonowej tkanek. Tłuszcz w takich sekwencjach zwykle nadal świeci dość jasno, bo ma wysoką gęstość protonów i stosunkowo krótki T1, więc jego sygnał nie jest ani tłumiony, ani selektywnie wygaszany. W praktyce PD używa się często w obrazowaniu stawów, ale dopiero w połączeniu z technikami fat-sat daje dobrą separację struktur. Obrazowanie T1-zależne kojarzy się wielu osobom z jasnym sygnałem z tłuszczu, i to jest właśnie odwrotność tego, o co chodzi w pytaniu. W sekwencjach T1-weighted tłuszcz jest z reguły bardzo jasny, co jest wykorzystywane do oceny anatomii, zawartości tłuszczu, patologii szpiku kostnego czy badania po kontraście gadolinowym. Samo przejście na sekwencję T1 nie usuwa zakłóceń od tłuszczu, tylko je wręcz podkreśla. To typowy błąd myślowy: „skoro tłuszcz jest wyraźny, to łatwiej go odróżnię”, ale pytanie dotyczy tłumienia jego sygnału, a nie lepszego zobaczenia. Sekwencje FLAIR to inna pułapka. FLAIR jest odmianą sekwencji T2-zależnej z inwersją, ale jej celem jest tłumienie sygnału z płynu mózgowo-rdzeniowego, a nie z tłuszczu. W neuroobrazowaniu FLAIR jest standardem do wykrywania zmian demielinizacyjnych, zapalnych czy niedokrwiennych przy komorach, bo CSF jest ciemny, a zmiany patologiczne w istocie białej pozostają jasne. Mechanizm fizyczny (inversion recovery) jest podobny jak w STIR, ale punkt „wyzerowania” ustawia się na T1 płynu, nie tłuszczu. Dlatego wybór FLAIR jako sekwencji do tłumienia tłuszczu jest merytorycznie błędny. Sedno sprawy jest takie: tylko sekwencje STIR są zaprojektowane tak, by dzięki odpowiednio dobranemu czasowi TI wyzerować sygnał z tłuszczu. Pozostałe odpowiedzi opisują sekwencje o innym przeznaczeniu, które bez dodatkowych technik fat-sat nie usuwają sygnału z tkanki tłuszczowej, a często wręcz go wzmacniają. W praktyce klinicznej zawsze warto pamiętać, co dokładnie dana sekwencja tłumi: STIR – tłuszcz, FLAIR – płyn, T1/PD – żadnego konkretnego komponentu, tylko ustawiają inny typ kontrastu między tkankami.

Pytanie 5

Który materiał światłoczuły należy zastosować w rentgenodiagnostyce analogowej, by zminimalizować dawkę promieniowania jonizującego otrzymaną przez pacjenta?

A. Film jednostronnie pokryty emulsją.
B. Film z folią wolframowo-wapniową.
C. Film z folią z pierwiastkami ziem rzadkich.
D. Film bez folii wzmacniającej.
W diagnostyce analogowej kluczowa zasada jest prosta: im wyższa czułość układu obrazującego, tym mniejszą dawkę promieniowania trzeba podać pacjentowi, żeby uzyskać obraz o akceptowalnej jakości. Film z folią z pierwiastkami ziem rzadkich właśnie to zapewnia. Takie folie (np. z lantanem, gadolinem) emitują dużo światła pod wpływem promieniowania rentgenowskiego, a widmo tego światła jest dobrze dopasowane do czułości emulsji filmowej. Dzięki temu większość informacji o obrazie pochodzi z naświetlenia przez światło z folii, a nie bezpośrednio z promieniowania X. W praktyce oznacza to, że można znacząco obniżyć mAs na aparacie i skrócić czas ekspozycji, co zmniejsza zarówno dawkę pochłoniętą przez pacjenta, jak i ryzyko poruszenia. W nowoczesnych standardach radiologii analogowej zaleca się stosowanie folii ze związkami ziem rzadkich właśnie ze względu na wysoki współczynnik wzmocnienia przy jednocześnie akceptowalnej rozdzielczości obrazu. Moim zdaniem to jest taki złoty kompromis: trochę tracimy na ultra-drobnych szczegółach, ale bardzo zyskujemy na bezpieczeństwie pacjenta, a to jest priorytet w ochronie radiologicznej. W badaniach klatki piersiowej, kręgosłupa czy miednicy takie systemy są standardem, bo tam nie potrzebujemy aż tak ekstremalnie wysokiej rozdzielczości jak np. w radiografii stomatologicznej czy badaniach drobnych kości dłoni. Dobrą praktyką jest też dobieranie klas czułości folii (np. 400, 800) do rodzaju badania – im wyższa czułość, tym niższa dawka, ale też trochę gorsza szczegółowość. W każdym razie w kontekście pytania, jeśli celem jest minimalizacja dawki, to film z folią z pierwiastkami ziem rzadkich jest rozwiązaniem najbliższym współczesnym wymaganiom ochrony radiologicznej i zasadzie ALARA.

Pytanie 6

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. MDR
B. HDR
C. LDR
D. PDR
W tym pytaniu łatwo się złapać na skróty HDR, LDR czy MDR i skojarzyć je tylko z „siłą” promieniowania, a nie z konkretną techniką pracy źródła. Sedno polega na tym, że pytanie nie pyta o sam poziom mocy dawki, tylko o sposób jej podawania: wielokrotne wsuwanie i wysuwanie źródła do tego samego aplikatora w postaci serii impulsów. To jest właśnie definicja brachyterapii PDR, czyli Pulsed Dose Rate, a nie klasycznych trybów ciągłych. Częsty błąd polega na tym, że jak ktoś widzi, że źródło jest „wysokoaktywne” i przemieszcza się w afterloaderze, to automatycznie myśli o HDR. Rzeczywiście, technicznie urządzenia HDR i PDR są bardzo podobne, ale w HDR dawka jest podawana w kilku krótkich, jednorazowych frakcjach o bardzo dużej mocy dawki, bez idei symulowania ciągłego napromieniania. W PDR natomiast intencją jest naśladowanie efektu biologicznego LDR, tylko w formie serii impulsów, np. co 60 minut, przez wiele godzin lub dni. LDR, czyli Low Dose Rate, odnosi się do napromieniania ciągłego niską mocą dawki, zwykle z izotopami o mniejszej aktywności, bez tego charakterystycznego wielokrotnego wjeżdżania i wyjeżdżania źródła – źródło po prostu leży w tkankach i świeci cały czas. MDR (Medium Dose Rate) to z kolei pośrednia moc dawki między LDR a HDR, historycznie stosowana, ale w nowoczesnej praktyce używana znacznie rzadziej i też nie definiowana przez pulsowy charakter pracy, tylko przez zakres mocy dawki. Typowy błąd myślowy to utożsamianie skrótów wyłącznie z liczbami Gy/h, bez zwrócenia uwagi na sposób frakcjonowania i organizację leczenia w czasie. W standardach radioterapii podkreśla się, że PDR to technika impulsowa, mająca radiobiologicznie przypominać LDR, natomiast HDR i LDR opisują raczej skrajne wartości mocy dawki i ciągłość ekspozycji, a nie wielokrotne wsuwanie źródła do aplikatora w jednym cyklu leczenia.

Pytanie 7

Z kratką przeciwrozproszeniową należy wykonać zdjęcie

A. stawu łokciowego.
B. łopatki.
C. stopy.
D. stawu kolanowego w pozycji leżącej.
Prawidłowo – łopatkę standardowo wykonuje się z użyciem kratki przeciwrozproszeniowej. Wynika to głównie z grubości i budowy anatomicznej tej okolicy. Obręcz barkowa jest stosunkowo masywna, zawiera dużo struktur kostnych i tkanek miękkich, a promień centralny przechodzi przez obszar o efektywnej grubości zwykle powyżej 10 cm. Przy takiej grubości wytwarza się duża ilość promieniowania rozproszonego (głównie rozpraszanie Comptona), które degraduje kontrast obrazu. Kratka przeciwrozproszeniowa ma za zadanie „wyciąć” promieniowanie rozproszone, które pada na detektor pod innym kątem niż wiązka pierwotna. Dzięki temu obraz łopatki staje się wyraźniejszy, struktury kostne są lepiej odgraniczone od tkanek miękkich, a możliwość oceny zarysów, wyrostków czy stawów (ramienno‑łopatkowego, barkowo‑obojczykowego) jest zdecydowanie większa. W praktyce klinicznej przyjmuje się prostą zasadę: jeżeli badany odcinek ma grubość powyżej ok. 10–12 cm lub wymaga wyższego kV, to kratka jest wskazana. Dotyczy to m.in. badań miednicy, kręgosłupa, mostka, klatki piersiowej w pozycji leżącej i właśnie łopatki. Bez kratki obraz byłby „zamglony”, o niskim kontraście, z utratą szczegółów beleczkowania kostnego. Warto też pamiętać, że zastosowanie kratki zwykle wymaga zwiększenia mAs (tzw. współczynnik Bucky’ego), co przekłada się na nieco wyższą dawkę, ale w tym przypadku jest to uzasadnione zasadą optymalizacji – lepsza jakość diagnostyczna przy akceptowalnym narażeniu pacjenta. W wielu pracowniach jest to wręcz standard procedury – projekcje łopatki i obręczy barkowej wykonuje się rutynowo z kratką, niezależnie od tego, czy to projekcja AP, Y‑scapula czy inne ustawienia specjalne.

Pytanie 8

Który detektor w radiografii wymaga laserowego czytnika obrazu?

A. Błona halogenosrebrowa.
B. Detektor selenowy.
C. Płyta fosforowa.
D. Detektor krzemowy.
Prawidłowa jest odpowiedź z płytą fosforową, bo to właśnie klasyczny detektor stosowany w radiografii pośredniej CR (Computed Radiography), który wymaga odczytu obrazu za pomocą skanera laserowego. Płyta fosforowa jest pokryta tzw. fosforem stymulowanym światłem (PSP – photostimulable phosphor). W momencie naświetlenia promieniowaniem rentgenowskim w krysztale tworzą się pułapki elektronowe, które „zapamiętują” rozkład dawki. Obraz nie jest widoczny od razu, tylko ma postać utajoną. Dopiero przejście wiązki laserowej w skanerze CR powoduje uwolnienie zmagazynowanej energii w formie światła, które jest następnie zamieniane na sygnał elektryczny i cyfrowy obraz. W praktyce oznacza to, że w pracowni z systemem CR zawsze mamy osobne urządzenie – czytnik płyt, do którego technik wkłada kasetę z płytą fosforową po wykonaniu ekspozycji. Jest to bardzo charakterystyczny etap pracy: najpierw ekspozycja przy aparacie RTG, potem transport kasety do czytnika, skanowanie laserem, a na końcu pojawienie się obrazu w systemie PACS. W nowocześniejszych systemach DR (detektory bezpośrednie lub pośrednie) takiego etapu już nie ma, bo obraz powstaje praktycznie w czasie rzeczywistym i jest od razu w formie cyfrowej. Mimo że CR jest powoli wypierane przez DR, w wielu szpitalach i przychodniach nadal jest szeroko używane, bo jest tańsze przy modernizacji starszych aparatów analogowych. Moim zdaniem dobrze jest mieć to rozróżnienie w małym palcu, bo na egzaminach i w praktyce ciągle pojawia się pytanie: który system wymaga laserowego skanera? Zawsze: płyta fosforowa, czyli radiografia pośrednia CR.

Pytanie 9

Który artefakt uwidoczniono na skanie RM głowy?

Ilustracja do pytania
A. Poruszenie pacjenta.
B. Zawijanie obrazu.
C. Efekt uśrednienia.
D. Przesunięcie chemiczne.
Prawidłowo rozpoznano artefakt zawijania obrazu (aliasing). Na tym skanie RM głowy widać struktury anatomiczne „przeniesione” spoza pola widzenia (FOV) do wnętrza obrazu – wyglądają jakby fragment czaszki lub tkanek miękkich nagle pojawiał się w nienaturalnym miejscu, przy brzegu kadru. To właśnie typowy obraz zawijania: sygnał z obszaru poza FOV zostaje „zmapowany” po przeciwnej stronie obrazu w kierunku fazowym. W praktyce klinicznej ten artefakt występuje najczęściej przy zbyt małym polu obrazowania w osi przednio–tylnej lub lewo–prawo, szczególnie w badaniach głowy, kręgosłupa szyjnego i jamy brzusznej. Dobre praktyki według standardów producentów aparatów MR i wytycznych to m.in.: zwiększenie FOV w kierunku fazowym, zastosowanie oversamplingu (phase oversampling, no phase wrap), zmianę kierunku kodowania fazy, a w razie potrzeby użycie cewek powierzchniowych o mniejszym zasięgu. Moim zdaniem bardzo ważne jest, żeby w technikum od razu kojarzyć: obraz „przełożony” przez krawędź kadru = zawijanie, a nie poruszenie czy efekt uśrednienia. W realnej pracy technika zawijanie potrafi całkowicie uniemożliwić ocenę np. tylnej jamy czaszki, jeśli sygnał z nosa lub twarzy wchodzi w pole móżdżku, dlatego rutynowo kontroluje się FOV i parametry fazy jeszcze przed rozpoczęciem sekwencji. Warto też pamiętać, że w sekwencjach szybkich, np. FSE, aliasing może być bardziej widoczny, więc tym bardziej trzeba pilnować ustawień.

Pytanie 10

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
Klucz do zrozumienia tego pytania to pojęcie rozdzielczości przestrzennej i wielkości piksela w obrazowaniu MR. Rozdzielczość przestrzenna określa, jak małe szczegóły jesteśmy w stanie odróżnić na obrazie. Matematycznie w prostym ujęciu jest to bezpośrednio związane z rozmiarem piksela: im mniejszy piksel, tym więcej szczegółów można zobaczyć. Rozmiar piksela wynika z podzielenia pola widzenia (FoV – field of view) przez liczbę elementów matrycy w danym kierunku. Jeżeli zwiększamy FoV przy tej samej lub mniejszej matrycy, każdy piksel obejmuje większy fragment ciała, więc drobne struktury „zlewają się” w jednym pikselu. To typowy błąd myślowy: ktoś myśli, że większy FoV to „więcej informacji”, bo widać większy obszar. Faktycznie widzimy większą część anatomii, ale kosztem szczegółowości. To tak jakby zrobić zdjęcie całego boiska zamiast zbliżenia na jednego zawodnika – widać więcej tła, ale mniej detalu. Z kolei zmniejszenie matrycy przy dużym FoV jeszcze bardziej pogarsza rozdzielczość, bo mamy mniej pikseli na ten sam obszar. W praktyce takie ustawienie stosuje się, gdy zależy nam na szybszym badaniu przeglądowym, a nie na dokładnej analizie małych struktur. Zmniejszenie jednocześnie FoV i matrycy też nie jest korzystne dla rozdzielczości, bo choć obejmujemy mniejszy obszar, to dzielimy go na mało elementów. Taki obraz może być szybki do uzyskania, ale mało szczegółowy. Dodatkowo warto mieć w głowie kompromisy: zwiększanie matrycy poprawia rozdzielczość, ale zwykle wydłuża czas akwizycji i obniża SNR, a bardzo małe FoV może prowadzić do aliasingu. Dobre praktyki w pracowniach rezonansu polegają na świadomym balansowaniu tymi parametrami: dla badań wymagających wysokiej szczegółowości (stawy, drobne struktury mózgu, nerwy) stosuje się mniejsze FoV i możliwie dużą matrycę, natomiast dla badań przeglądowych dopuszcza się większe FoV i mniej „agresywne” ustawienia matrycy. Błędne odpowiedzi wynikają więc głównie z pomieszania pojęcia „więcej widać” z „widać dokładniej”, a to w obrazowaniu to nie jest to samo.

Pytanie 11

Promieniowanie rentgenowskie jest

A. strumieniem protonów.
B. falą ultradźwiękową.
C. falą elektromagnetyczną.
D. strumieniem elektronów.
Poprawnie: promieniowanie rentgenowskie jest falą elektromagnetyczną o bardzo krótkiej długości fali i dużej energii fotonów. Należy do tego samego „rodzaju” promieniowania co światło widzialne, promieniowanie UV czy fale radiowe, tylko ma znacznie krótszą długość fali i dzięki temu jest jonizujące. To właśnie ta elektromagnetyczna natura powoduje, że promieniowanie X rozchodzi się z prędkością światła, można je skupiać, filtrować, kolimować i rejestrować na detektorach, które reagują na energię fotonów, a nie na cząstki materialne. W praktyce radiologicznej ma to ogromne znaczenie. W aparacie RTG elektrony są rozpędzane w lampie rentgenowskiej i hamowane na anodzie, ale samo promieniowanie, które powstaje, nie jest strumieniem elektronów, tylko właśnie wiązką fotonów – falą elektromagnetyczną. To dlatego dobieramy parametry ekspozycji takie jak kV i mAs, myślimy o „twardości” wiązki (czyli rozkład energii fotonów), stosujemy filtry aluminiowe, siatki przeciwrozproszeniowe oraz osłony ołowiane zgodnie z zasadami ochrony radiologicznej i standardami ALARA. Moim zdaniem warto to sobie porządnie poukładać: w diagnostyce obrazowej (RTG, TK) pracujemy zawsze z fotonami promieniowania X, które przechodzą przez ciało pacjenta, ulegają pochłanianiu i rozproszeniu zależnie od gęstości i liczby atomowej tkanek. To właśnie różnice w osłabieniu wiązki elektromagnetycznej tworzą kontrast na obrazie. Cała fizyka zjawiska fotoelektrycznego, efektu Comptona, warstwy półchłonnej, filtracji wiązki – to wszystko ma sens tylko wtedy, gdy pamiętamy, że promieniowanie rentgenowskie to fala elektromagnetyczna, a nie ultradźwięki czy strumień cząstek. W nowoczesnych wytycznych i podręcznikach z fizyki medycznej (np. standardy ICRP, IAEA) promieniowanie X jest zawsze klasyfikowane właśnie jako wysokoenergetyczne promieniowanie elektromagnetyczne z zakresu jonizującego, co przekłada się na konkretne procedury bezpieczeństwa, dobór parametrów i interpretację obrazów w radiologii.

Pytanie 12

Obszary napromieniania w technice IMRT w trakcie wykonywania zabiegu radioterapeutycznego wyznacza

A. lekarz radioterapeuta.
B. technik elektroradiolog.
C. fizyk medyczny.
D. system komputerowy.
Prawidłowa odpowiedź wskazuje na kluczową cechę techniki IMRT: obszary napromieniania w trakcie wykonywania zabiegu są wyznaczane i realizowane przez system komputerowy, zgodnie z wcześniej przygotowanym planem leczenia. W praktyce wygląda to tak, że lekarz radioterapeuta i fizyk medyczny wspólnie ustalają cele kliniczne, marginesy bezpieczeństwa, dawki dla guza i narządów krytycznych, a następnie fizyk (albo planista) tworzy plan w specjalistycznym systemie TPS (Treatment Planning System). Ten plan zawiera bardzo szczegółowe informacje: kształt pól, modulację intensywności, przebieg łuków, segmenty MLC, liczbę monitor units itd. Jednak w samej fazie wykonywania zabiegu, w czasie faktycznego napromieniania, to już nie człowiek „rysuje” pola, tylko system komputerowy steruje aparatem zgodnie z zapisanym planem. System na bieżąco ustawia listki kolimatora MLC, kontroluje dawkę, kąt obrotu głowicy, czas ekspozycji i inne parametry. Technik elektroradiolog ma wtedy przede wszystkim zadanie poprawnie ułożyć pacjenta, zweryfikować pozycję (często przy pomocy obrazowania portalowego lub CBCT), załadować właściwy plan leczenia i nadzorować przebieg seansu, ale nie zmienia ręcznie kształtu obszarów napromieniania. Moim zdaniem to bardzo ważne, żeby kojarzyć IMRT właśnie z automatyzacją i dużym zaufaniem do algorytmów optymalizacyjnych i systemów sterowania. Z punktu widzenia bezpieczeństwa i jakości leczenia ostateczne „wyznaczanie” obszaru w danej sekundzie napromieniania jest realizowane przez oprogramowanie, które precyzyjnie przesuwa listki MLC i reguluje dawkę zgodnie z planem zaakceptowanym wcześniej przez lekarza i fizyka. Tak działają nowoczesne standardy radioterapii – człowiek definiuje cele i weryfikuje poprawność, a system komputerowy wykonuje skomplikowaną, powtarzalną pracę techniczną z dokładnością co do milimetra.

Pytanie 13

Folia wzmacniająca umieszczona w kasecie rentgenowskiej emituje pod wpływem promieniowania X światło

A. ultrafioletowe, wymagające zwiększenia dawki promieniowania do wykonania badania.
B. widzialne, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
C. widzialne, wymagające zwiększenia dawki promieniowania do wykonania badania.
D. ultrafioletowe, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
Prawidłowo – folia wzmacniająca (ekran wzmacniający) w kasecie rentgenowskiej emituje światło widzialne, a jej głównym zadaniem jest właśnie umożliwienie zmniejszenia dawki promieniowania X potrzebnej do wykonania zdjęcia. Promieniowanie rentgenowskie pada na folię, a kryształy luminoforu (np. wolframian wapnia w starszych kasetach albo związki ziem rzadkich – gadolinu, lantanu – w nowoczesnych) pochłaniają fotony X i zamieniają ich energię na błysk światła widzialnego. To światło naświetla film dużo efektywniej niż same fotony X, dlatego do uzyskania odpowiedniej czerni na filmie wystarczy znacznie mniejsza dawka promieniowania. W praktyce klinicznej oznacza to realne obniżenie narażenia pacjenta – w klasycznych systemach analogowych nawet kilkukrotne. Moim zdaniem to jeden z podstawowych przykładów, jak fizyka medyczna przekłada się na ochronę radiologiczną w codziennej pracy. W nowoczesnych kasetach CR/DR idea jest podobna: mamy warstwę fosforową lub detektor półprzewodnikowy, który też ma za zadanie jak najlepiej „wyłapać” fotony X i przekształcić je w sygnał (świetlny lub elektryczny), żeby nie trzeba było sztucznie podkręcać dawki. Ważna dobra praktyka: zawsze dobiera się kasetę i rodzaj folii do typu badania (np. folie o większej czułości do badań pediatrycznych), właśnie po to, żeby zgodnie ze standardem ALARA (As Low As Reasonably Achievable) trzymać dawki jak najniższe przy zachowaniu diagnostycznej jakości obrazu. Widać to choćby przy zdjęciach klatki piersiowej – odpowiednio dobrany ekran wzmacniający pozwala skrócić czas ekspozycji, zmniejszyć dawkę i jednocześnie ograniczyć poruszenie obrazu.

Pytanie 14

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. beta plus.
B. alfa.
C. beta minus.
D. gamma.
Prawidłowo wskazana została emisja promieniowania gamma. W fizyce jądrowej mówimy, że rozpad gamma to proces, w którym jądro atomowe przechodzi ze stanu wzbudzonego do stanu o niższej energii, nie zmieniając ani liczby protonów, ani neutronów. Czyli skład jądra zostaje ten sam, ale pozbywa się ono nadmiaru energii właśnie w postaci fali elektromagnetycznej o bardzo wysokiej energii – fotonu gamma. To jest klucz: gamma to nie cząstka materialna jak elektron czy alfa, tylko kwant promieniowania elektromagnetycznego. W medycynie nuklearnej ta właściwość jest wykorzystywana non stop. W badaniach scyntygraficznych czy PET dobiera się takie radioizotopy, które emitują głównie promieniowanie gamma (lub w PET: parę fotonów 511 keV po anihilacji), bo fale elektromagnetyczne gamma dobrze przechodzą przez tkanki i można je zarejestrować gammakamerą lub detektorami PET. Standardem jest np. technet-99m, który po przejściu do stanu podstawowego emituje foton gamma, a aparat rejestruje jego tor i tworzy obraz rozmieszczenia radiofarmaceutyku. Z mojego doświadczenia, dobra praktyka w pracowni medycyny nuklearnej to zawsze myślenie o tym, jakie dokładnie promieniowanie emituje dany izotop: czy jest to czyste gamma, beta plus, beta minus, czy mieszane. Ma to znaczenie dla ochrony radiologicznej, jakości obrazu i dawki dla pacjenta. Warto też pamiętać, że po rozpadzie alfa lub beta jądro potomne często jest w stanie wzbudzonym i dopiero potem „dorzuca” rozpad gamma – więc w dokumentacji fizycznej często widzimy kaskadę: najpierw zmiana składu jądra, a potem emisja fali elektromagnetycznej gamma jako etap „dooczyszczający” energię.

Pytanie 15

Zastosowana w badaniu radiologicznym kratka przeciwrozproszeniowa powoduje

A. zmniejszenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
B. zmniejszenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
C. zwiększenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
D. zwiększenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
W tym pytaniu bardzo łatwo dać się złapać na intuicję typu: „kratka coś tam dodaje do wiązki, więc może zwiększa promieniowanie rozproszone” albo „jak coś się wkłada między lampę a detektor, to kontrast musi spaść”. To są typowe skróty myślowe, które niestety w radiologii często prowadzą na manowce. Kratka przeciwrozproszeniowa nigdy nie służy do zwiększania ilości promieniowania rozproszonego. Jej rola jest dokładnie odwrotna: ma to promieniowanie jak najbardziej odfiltrować zanim dotrze ono do detektora. Promieniowanie rozproszone powstaje głównie w ciele pacjenta w wyniku zjawiska Comptona i rozchodzi się pod różnymi kątami. Gdybyśmy nie zastosowali kratki, duża część tych skośnych fotonów docierałaby do detektora i tworzyła rodzaj „zaszumienia” obrazu. Skutkiem tego jest obniżenie kontrastu: różnice pomiędzy tkankami o różnych gęstościach ulegają spłyceniu, całe zdjęcie wygląda jakby było przymglone. Stąd założenie, że zmniejszenie promieniowania rozproszonego obniża kontrast, jest odwrotne do rzeczywistości. W praktyce klinicznej jest dokładnie tak, że im mniej rozproszenia na detektorze, tym lepsza separacja struktur, np. lepiej widać granicę między tkanką kostną a miękką, między miąższem płucnym a naczyniami. Druga błędna intuicja to myślenie, że zwiększenie promieniowania rozproszonego może poprawić obraz, bo „więcej promieniowania to jaśniejsze zdjęcie”. Jasność (czyli ogólna gęstość optyczna) to jedno, a kontrast to drugie. Rozproszenie owszem podnosi średni poziom sygnału na detektorze, ale robi to w sposób chaotyczny i niekontrolowany, przez co spłaszcza różnice między poszczególnymi obszarami. Standardy dobrej praktyki w radiografii zdecydowanie dążą do ograniczania rozproszenia – nie tylko przez kratkę, ale też przez odpowiednie kolimowanie wiązki, dobór kV, a nawet przez właściwe ułożenie pacjenta. Warto zapamiętać prostą zasadę: kratka zawsze „walczy” z promieniowaniem rozproszonym i jej obecność, jeśli jest dobrze dobrana i poprawnie ustawiona, poprawia kontrast obrazu, a nie go psuje. Błędne odpowiedzi wynikają więc głównie z pomieszania pojęć: ilość promieniowania ogółem vs. ilość promieniowania rozproszonego i wpływ tych dwóch rzeczy na kontrast.

Pytanie 16

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Środki na bazie gadolinu.
B. Jodowe, rozpuszczalne w wodzie.
C. Jodowe, nierozpuszczalne w wodzie.
D. Środki na bazie siarczanu baru.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 17

W radioterapii konwencjonalnej pacjent jest leczony promieniowaniem pochodzącym

A. z rozpadu izotopu uranu.
B. z rozpadu izotopu radu.
C. ze źródeł zewnętrznych.
D. ze źródeł wewnętrznych.
W tym pytaniu łatwo się pogubić, bo pojawiają się różne typy źródeł promieniowania i trochę kusi, żeby je wrzucić do jednego worka. Radioterapia kojarzy się wielu osobom z „radem” albo „uranem”, bo historycznie używano izotopów promieniotwórczych, a w fizyce jądrowej dużo się o nich mówi. Współczesna radioterapia onkologiczna wygląda jednak inaczej i jest dużo bardziej uporządkowana. W radioterapii konwencjonalnej mówimy przede wszystkim o teleterapii, czyli o wykorzystaniu zewnętrznych wiązek promieniowania jonizującego. Obecnie standardem są akceleratory liniowe generujące fotony X lub elektrony. Dawniej stosowano aparaty kobaltowe (Co-60), ale one też były źródłami zewnętrznymi, choć opartymi o izotop. Pacjent leży na stole terapeutycznym, a głowica aparatu obraca się wokół niego, podając dawkę z różnych kierunków. To jest sedno pojęcia „źródła zewnętrzne”. Pomyłką jest kojarzenie radioterapii konwencjonalnej z radem. Rad miał znaczenie historyczne, używano go w dawnych metodach brachyterapii, ale dzisiaj praktycznie się go nie stosuje ze względów bezpieczeństwa i lepszej dostępności innych izotopów, jak iryd-192 czy cez-137. Poza tym brachyterapia, gdzie źródło jest wprowadzone do guza lub w jego sąsiedztwo, to inny rodzaj radioterapii niż klasyczna teleterapia. Podobnie uran nie jest izotopem terapeutycznym w radioterapii onkologicznej. Uran kojarzy się raczej z reaktorami jądrowymi czy bronią, a nie z leczeniem nowotworów. W standardach klinicznych nie znajdziemy schematów napromieniania opartych o rozpad izotopu uranu, więc wybór takiej odpowiedzi wynika zwykle z ogólnego skojarzenia „promieniowanie = uran”, co jest bardzo uproszczone i po prostu błędne w tym kontekście. Mylenie źródeł wewnętrznych i zewnętrznych też jest typowe. Źródła wewnętrzne to domena brachyterapii i terapii izotopowej w medycynie nuklearnej, gdzie radioizotop znajduje się w ciele pacjenta. Radioterapia konwencjonalna, o którą pytano, opiera się natomiast na wiązce wytwarzanej poza organizmem. Zapamiętanie tego rozróżnienia pomaga później rozumieć schematy leczenia i zasady ochrony radiologicznej personelu oraz rodziny pacjenta.

Pytanie 18

Jaka jest odległość pomiędzy źródłem promieniowania a powierzchnią ciała pacjenta w technice izocentrycznej radioterapii?

A. Stała i wynosi 110 cm.
B. Stała i wynosi 100 cm.
C. Zmienna, zależna od grubości pacjenta i rodzaju akceleratora.
D. Zmienna, zależna od lokalizacji punktu izocentrycznego w ciele pacjenta.
Nieporozumienia w tym pytaniu biorą się najczęściej z mylenia dwóch pojęć: odległości źródło–skóra (SSD, source–skin distance) i odległości źródło–izocentrum (SID lub SAD, source–axis distance). W starszych, prostszych technikach radioterapii opartych na stałej SSD faktycznie często ustawiano pacjenta tak, aby odległość od źródła do powierzchni skóry wynosiła np. 100 cm. Stąd łatwo powstaje automatyczne skojarzenie, że „w radioterapii zawsze jest 100 cm” i że ta odległość jest stała. Jednak w technice izocentrycznej logika jest inna: stała ma być odległość od źródła do osi obrotu, czyli do izocentrum, a nie do skóry. Przekonanie, że odległość źródło–skóra jest zawsze 100 cm lub 110 cm, wynika często z pamiętania parametrów geometrycznych konkretnego akceleratora albo z uproszczonych schematów z podręcznika. Rzeczywiście, wiele akceleratorów ma zdefiniowaną stałą odległość źródło–izocentrum, np. 100 cm, i czasami studenci przenoszą to bezrefleksyjnie na powierzchnię ciała. Problem w tym, że powierzchnia pacjenta nie pokrywa się z izocentrum – pacjent ma swoją grubość, różne krzywizny, garby kostne, tkankę tłuszczową. Gdy izocentrum planuje się głęboko, np. w guzie płuca czy w miednicy, to geometrycznie nie ma możliwości, żeby jednocześnie utrzymać stałą odległość do skóry i stałą odległość do izocentrum. Zdarza się też inny błąd myślowy: ktoś zakłada, że odległość zależy głównie od „grubości pacjenta i rodzaju akceleratora”. Oczywiście, grubość ciała wpływa na to, jaka faktycznie wyjdzie SSD, a konstrukcja akceleratora narzuca pewne minimalne i maksymalne odległości, ale to nie jest parametr, który świadomie ustawiamy jako stały w technice izocentrycznej. W tej technice celem jest ustawienie punktu izocentrycznego w odpowiednim miejscu w ciele, zgodnie z planem leczenia. To lokalizacja tego punktu – w guzie, w PTV – decyduje, jak daleko od głowicy będzie leżała skóra w danym polu i kącie gantry. Innymi słowy: to geometria ustawienia izocentrum względem anatomii pacjenta robi całą robotę, a nie sama grubość czy typ maszyny. Moim zdaniem warto zapamiętać pewną prostą zasadę praktyczną: jeśli mówimy o technice izocentrycznej, to myślimy w kategoriach „stałe SAD, zmienne SSD”. Wtedy łatwiej uniknąć pokusy przyklejania się do magicznych liczb 100 cm czy 110 cm jako czegoś niezmiennego. W nowoczesnych standardach radioterapii, zwłaszcza przy IMRT, VMAT, stereotaksji, planowanie zawsze obraca się wokół izocentrum i objętości tarczowych, a nie wokół odległości od skóry. To podejście jest po prostu bardziej precyzyjne i bezpieczne dla pacjenta.

Pytanie 19

Do pomiaru dawek indywidualnych u osób narażonych zawodowo na promieniowanie rentgenowskie są stosowane

A. liczniki scyntylacyjne.
B. detektory półprzewodnikowe.
C. liczniki geigera.
D. detektory termoluminescencyjne.
Prawidłowa odpowiedź to detektory termoluminescencyjne i dokładnie takie dozymetry są standardem w ochronie radiologicznej pracowników narażonych na promieniowanie rentgenowskie. Dozymetr termoluminescencyjny (TLD) zawiera kryształ, najczęściej fluorek litu (LiF) albo inne materiały termoluminescencyjne, w których podczas napromieniania gromadzi się energia z promieniowania jonizującego. Później, w pracowni dozymetrycznej, ten kryształ jest podgrzewany w specjalnym czytniku, a zgromadzona energia jest uwalniana w postaci światła. Ilość tego światła jest proporcjonalna do pochłoniętej dawki. To pozwala bardzo dokładnie wyznaczyć dawkę indywidualną, czyli to, co faktycznie „złapał” pracownik na swoim ciele. W praktyce takie dozymetry nosi się zwykle na klatce piersiowej, czasem dodatkowo przy tarczycy lub dłoniach, zależnie od rodzaju pracy. Z mojego doświadczenia w pracowniach RTG i TK właśnie TLD są najczęściej spotykane, bo są małe, tanie, stabilne i dobrze znoszą warunki codziennej pracy. Spełniają wymagania przepisów BHP i zaleceń inspekcji sanitarnej oraz Państwowej Agencji Atomistyki dotyczących monitorowania dawek zawodowych. W wielu ośrodkach stosuje się też tzw. dawkomierze pierścionkowe TLD dla osób pracujących blisko wiązki, np. przy zabiegach hemodynamicznych czy w salach hybrydowych. Warto też pamiętać, że dozymetr indywidualny nie służy do bieżącej kontroli w czasie zabiegu, tylko do oceny skumulowanej dawki w miesięcznych lub kwartalnych okresach rozliczeniowych. To jest typowa i uznana dobra praktyka w ochronie radiologicznej personelu medycznego.

Pytanie 20

Proces chemicznego wywoływania radiogramów polega na

A. redukcji bromku potasowego na brom.
B. redukcji naświetlonych halogenków srebra na srebro metaliczne.
C. usunięciu z filmu naświetlonych halogenków srebra.
D. usunięciu z filmu bromku potasowego.
Prawidłowo wskazana odpowiedź dobrze oddaje istotę procesu chemicznego wywoływania radiogramów. W klasycznym filmie rentgenowskim warstwę światłoczułą stanowią halogenki srebra (najczęściej bromek srebra, czasem z domieszką jodku srebra), równomiernie rozmieszczone w emulsji żelatynowej. Po naświetleniu promieniowaniem X w tych ziarnach, które pochłonęły odpowiednią dawkę promieniowania, powstaje tzw. utajony obraz – zmienia się stan części jonów srebra, ale gołym okiem jeszcze nic nie widać. Dopiero w procesie wywoływania chemicznego dochodzi do kontrolowanej redukcji naświetlonych halogenków srebra do srebra metalicznego. Wywoływacz (najczęściej mieszanina substancji redukujących, np. metolu, hydrochinonu) oddaje elektrony jonom srebra w ziarnach, które zostały „pobudzone” przez promieniowanie. W efekcie tworzą się widoczne czarne ziarna srebra metalicznego, które budują właściwy obraz na radiogramie. Nienaświetlone ziarna pozostają w formie halogenków srebra i powinny zostać usunięte dopiero w kolejnym etapie – utrwalaniu. Moim zdaniem ważne jest, żeby kojarzyć: wywoływanie = redukcja naświetlonych kryształów, utrwalanie = wypłukanie reszty halogenków. W praktyce pracowni RTG poprawne przeprowadzenie procesu wywoływania (temperatura, czas, świeżość odczynników, prawidłowe pH) decyduje o kontraście i gęstości optycznej zdjęcia, a więc o tym, czy lekarz będzie w stanie zobaczyć subtelne złamanie, drobną zmianę zapalną czy początkowe zmiany nowotworowe. Zbyt krótkie wywoływanie da obraz zbyt jasny, zbyt długie – prześwietlony, z utratą szczegółów. Dlatego znajomość mechanizmu redukcji halogenków srebra na srebro metaliczne to nie jest tylko teoria, ale podstawa dobrej praktyki technika elektroradiologii, nawet dziś, gdy wiele pracowni przeszło na systemy cyfrowe, bo zasada obrazowania na filmie nadal bywa stosowana, np. w niektórych pracowniach stomatologicznych czy rezerwowych systemach analogowych.

Pytanie 21

W lampie rentgenowskiej promieniowanie X powstaje w wyniku hamowania

A. elektronów na katodzie.
B. elektronów na anodzie.
C. protonów na katodzie.
D. protonów na anodzie.
Poprawnie – w lampie rentgenowskiej promieniowanie X powstaje głównie w wyniku gwałtownego hamowania szybkich elektronów na anodzie. W typowej lampie mamy katodę (żarnik), która emituje elektrony przez emisję termojonową. Następnie między katodą a anodą przykładane jest wysokie napięcie, zwykle kilkadziesiąt do nawet ponad 100 kV. To napięcie bardzo mocno przyspiesza elektrony w próżni w kierunku anody. Kiedy te rozpędzone elektrony uderzają w materiał anody (najczęściej wolfram, rzadziej molibden lub inne stopy), są gwałtownie hamowane w polu elektrycznym jąder atomowych anody. I właśnie to hamowanie powoduje emisję promieniowania hamowania, tzw. bremsstrahlung, które stanowi podstawową część widma promieniowania rentgenowskiego. Dodatkowo dochodzi jeszcze promieniowanie charakterystyczne, gdy elektron wybija elektron z wewnętrznej powłoki atomu wolframu, ale ono też powstaje w materiale anody, a nie na katodzie. W praktyce technik obrazowania musi rozumieć, że zmiana napięcia na lampie (kV) wpływa na energię elektronów i tym samym na energię i przenikliwość promieniowania X, a zmiana natężenia prądu (mA) wpływa głównie na ilość elektronów, czyli na ilość promieniowania. Z mojego doświadczenia opłaca się to dobrze ogarnąć, bo potem łatwiej rozumie się zależności między ustawieniami aparatu a jakością obrazu i dawką dla pacjenta. W nowoczesnych aparatach RTG cała konstrukcja lampy, chłodzenie anody (np. anoda obrotowa) i dobór materiałów są oparte właśnie na tym zjawisku hamowania elektronów w anodzie, żeby uzyskać dużo stabilnego promieniowania przy jednoczesnym bezpiecznym odprowadzeniu ciepła.

Pytanie 22

Hiperfrakcjonowanie dawki w radioterapii oznacza napromieniowywanie pacjenta

A. raz w tygodniu.
B. kilka razy dziennie.
C. codziennie.
D. pięć razy w tygodniu.
Prawidłowo – hiperfrakcjonowanie w radioterapii oznacza podawanie dawki promieniowania kilka razy dziennie, w postaci wielu małych frakcji, a nie jednej większej. Chodzi o to, że całkowita dawka napromieniania jest podzielona na mniejsze porcje, zwykle 2 (czasem nawet 3) frakcje na dobę, z odpowiednim odstępem czasowym między nimi, najczęściej minimum 6 godzin. Z punktu widzenia radiobiologii wykorzystuje się tu różnice w zdolności naprawy uszkodzeń DNA między komórkami nowotworowymi a zdrowymi. Komórki prawidłowe lepiej regenerują się między kolejnymi frakcjami, więc mniejsze, częściej podawane dawki mogą ograniczać późne powikłania w tkankach zdrowych, a jednocześnie zwiększać szansę na kontrolę guza. W praktyce klinicznej takie schematy stosuje się np. w niektórych nowotworach głowy i szyi czy w wybranych guzach pediatrycznych, gdzie istotne jest zmniejszenie ryzyka późnych uszkodzeń narządów krytycznych. Hiperfrakcjonowanie wymaga bardzo dobrej organizacji pracy ośrodka: precyzyjnego planowania leczenia, rzetelnej weryfikacji pozycjonowania pacjenta przy każdym naświetlaniu oraz ścisłego trzymania się harmonogramu frakcji w ciągu dnia. W wytycznych z zakresu radioterapii onkologicznej podkreśla się też, że ten sposób frakcjonowania powinien być stosowany głównie w ośrodkach, które mają odpowiednie doświadczenie i zaplecze kadrowo‑techniczne, bo obciążenie dla zespołu i pacjenta jest po prostu większe niż przy standardowym schemacie raz dziennie.

Pytanie 23

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. dwoma kolejnymi impulsami pobudzającymi RF180°.
B. impulsem inwersji 180° a czasem powstania sygnału (echa).
C. dwoma kolejnymi impulsami pobudzającymi RF90°.
D. impulsem inwersji 90° a czasem powstania sygnału (echa).
Czas repetycji TR w badaniu rezonansu magnetycznego definiuje się jako odstęp czasu pomiędzy dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°. To jest taka podstawowa „miarka czasu” całej sekwencji, zwłaszcza w klasycznych sekwencjach spin-echo. W praktyce wygląda to tak: podajesz impuls RF90°, wzbudzasz magnetyzację poprzeczną, rejestrujesz sygnał echa, a potem czekasz do kolejnego impulsu RF90°. Właśnie ten odstęp to TR. Od TR w ogromnym stopniu zależy kontrast obrazów MR – przede wszystkim nasycenie sygnału, a więc wrażliwość na czasy relaksacji T1. Krótkie TR (np. 300–700 ms) dają silne T1-zależne obrazowanie, natomiast długie TR (np. 2000 ms i więcej) zmniejszają wpływ T1 i sprzyjają kontrastowi T2 lub PD, zależnie od TE. Z mojego doświadczenia w pracowni MR, technik bardzo często manipuluje TR i TE jako pierwszymi parametrami, żeby „dokręcić” kontrast pod konkretną strukturę: inne ustawimy do badania mózgu, inne do stawów, a jeszcze inne do kręgosłupa. W opisach protokołów producenci skanerów zawsze podają typową parę TR/TE dla danej sekwencji i wskazują, czy jest to sekwencja T1-zależna, T2-zależna czy PD. Warto też pamiętać, że TR wpływa na całkowity czas skanowania – im krótszy TR, tym szybciej wykonamy badanie, ale kosztem pewnych parametrów jakości. W dobrze prowadzonych protokołach MR świadome dobranie TR jest kluczowe dla uzyskania powtarzalnych, diagnostycznie wartościowych obrazów, zgodnie z zasadą optymalizacji dawki „czasowej” i komfortu pacjenta.

Pytanie 24

Fala głosowa rozchodzi się

A. w gazach i próżni.
B. w cieczach i próżni.
C. w gazach, cieczach i próżni.
D. w gazach i cieczach.
Poprawnie – fala głosowa, czyli fala akustyczna, w fizyce jest falą mechaniczną. To znaczy, że do swojego rozchodzenia się potrzebuje ośrodka materialnego, w którym cząsteczki mogą drgać i przekazywać energię dalej. Takim ośrodkiem mogą być gazy (np. powietrze), ciecze (np. woda) albo ciała stałe. W próżni nie ma cząsteczek, więc nie ma co drgać i klasyczna fala dźwiękowa po prostu nie może się tam rozchodzić. Dlatego odpowiedź „w gazach i cieczach” jest merytorycznie poprawna, chociaż warto pamiętać, że w rzeczywistości dźwięk rozchodzi się też w ciałach stałych. W praktyce medycznej i okołomedycznej ma to spore znaczenie. W audiometrii, badaniach słuchu czy przy kalibracji sprzętu do pomiaru hałasu zakłada się, że fala dźwiękowa biegnie głównie w powietrzu, czyli w gazie. Z kolei w ultrasonografii medycznej wykorzystujemy rozchodzenie się fal mechanicznych w tkankach, które fizycznie zachowują się jak różne ciecze i ciała stałe – stąd żel USG, żeby poprawić sprzężenie między głowicą a skórą, bo powietrze bardzo słabo przewodzi ultradźwięki. Moim zdaniem to jedno z tych prostych pytań, które później ułatwia zrozumienie, czemu np. badanie USG nie działa w powietrzu i czemu w kosmosie, w próżni, nie „słychać” eksplozji mimo że mogą emitować promieniowanie elektromagnetyczne. W dobrych praktykach technicznych zawsze rozróżniamy fale mechaniczne (wymagające ośrodka, jak dźwięk) od fal elektromagnetycznych (np. promieniowanie RTG, radiowe), które mogą iść w próżni.

Pytanie 25

Do czego służy do symulator rentgenowski wykorzystywany w procesie radioterapii?

A. Do określania odległości od wirtualnego źródła promieniowania do skóry pacjenta.
B. Do generowania trójwymiarowych informacji o lokalizacji obszaru guza.
C. Do weryfikacji i odwzorowania geometrii pól poszczególnych wiązek terapeutycznych.
D. Do weryfikacji dawki podanej pacjentowi w obszarze PTV.
Symulator rentgenowski w radioterapii bywa czasem mylony z innymi urządzeniami używanymi w planowaniu leczenia, co prowadzi do różnych nieporozumień. Jego główna rola nie polega na pomiarze ani weryfikacji dawki w obszarze PTV. Kontrola dawki odbywa się poprzez obliczenia w systemie planowania leczenia (TPS), pomiary fantomowe, testy QA akceleratora oraz za pomocą dozymetrii in vivo, a nie na klasycznym symulatorze RTG. Symulator daje obraz geometryczny pól, ale nie jest narzędziem do precyzyjnego sprawdzania rozkładu dawki terapeutycznej, bo używa innej energii promieniowania i innych warunków niż właściwa wiązka megawoltowa. Często też przypisuje się symulatorowi funkcję generowania trójwymiarowych informacji o lokalizacji guza. W nowoczesnej radioterapii do tego służy przede wszystkim tomograf komputerowy do planowania (CT-sim) oraz oprogramowanie TPS, które pozwala na rekonstrukcję 3D, segmentację PTV i OAR, fuzję obrazów z MR czy PET. Klasyczny symulator rentgenowski wykonuje głównie projekcje 2D (AP, PA, boczne, skośne) i umożliwia ustawienie pól, a nie pełne modelowanie objętości guza w trzech wymiarach. Kolejne nieporozumienie dotyczy odległości od wirtualnego źródła promieniowania do skóry pacjenta. Owszem, na symulatorze można sprawdzić i ustawić SSD lub SAD, ale nie jest to jego unikalne zadanie – te odległości są standardowo kontrolowane na samym akceleratorze przy każdym zabiegu, z użyciem wskaźników odległości, laserów i systemów pozycjonowania. Redukowanie roli symulatora tylko do mierzenia odległości trochę mija się z celem, bo sednem jego użycia jest właśnie odtworzenie geometrii pól terapeutycznych, sprawdzenie projekcji osłon, listków MLC (w miarę możliwości), bloków, klinów oraz porównanie ich z anatomią pacjenta na obrazie RTG. Typowy błąd myślowy polega na mieszaniu funkcji: CT-symulatora, systemu planowania, akceleratora i symulatora RTG. Ten ostatni służy głównie do geometrycznej weryfikacji ustawień – czy pola są tam, gdzie trzeba, czy marginesy są prawidłowe, czy znaczniki na skórze i lasery zgadzają się z planem. Dlatego poprawne rozumienie jego roli jest ważne, bo wpływa bezpośrednio na bezpieczeństwo i dokładność całego procesu napromieniania.

Pytanie 26

W technice napromieniania SSD mierzona jest odległość źródła promieniowania

A. od izocentrum aparatu terapeutycznego.
B. od stołu aparatu terapeutycznego.
C. od napromienianego guza.
D. od punktu zdefiniowanego na skórze pacjenta.
W technice SSD (source–skin distance) kluczowe jest właśnie to, że odległość mierzona jest od źródła promieniowania do punktu zdefiniowanego na skórze pacjenta. Ten punkt na skórze odpowiada zwykle punktowi referencyjnemu pola, np. środkowi wiązki lub miejscu, gdzie chcemy mieć określoną głębokość dawki. Moim zdaniem warto od razu zapamiętać: w SSD zawsze „patrzymy” na skórę, a nie na izocentrum. To odróżnia tę technikę od techniki SAD (source–axis distance), gdzie bazujemy na odległości do izocentrum aparatu terapeutycznego. W praktyce klinicznej technik ustawia pacjenta tak, aby SSD miało konkretną wartość, np. 100 cm, mierzoną do tatuażu, znacznika laserowego albo markera narysowanego na skórze. To ten punkt zdefiniowany na skórze jest geometrycznym punktem odniesienia do obliczeń dawki, tabel PDD (percent depth dose) i parametrów pola. Dzięki stałej SSD możemy korzystać z tablic procentowej dawki w głąb, które zakładają określoną odległość źródło–skóra, co upraszcza planowanie w prostszych technikach 2D albo w niektórych polach dodatkowych. Z mojego doświadczenia w radioterapii dobre ustawienie SSD przekłada się na powtarzalność napromieniania i zgodność rzeczywistej dawki z planem. W standardach i podręcznikach z radioterapii (np. klasyczne opisy teleterapii megawoltowej) technika SSD jest opisana właśnie jako metoda, w której główną kontrolowaną wielkością geometryczną jest odległość do skóry, a skorygowanie tej odległości o grubość tkanek pozwala wyznaczyć głębokość PTV i odpowiednio dobrać dawkę. W nowoczesnych ośrodkach SSD nadal jest używana np. przy polach skóry, piersi czy prostych polach paliatywnych. Dobra praktyka to zawsze oznaczenie na skórze punktu, do którego mierzymy SSD, i sprawdzanie go codziennie, a nie sugerowanie się jedynie pozycją stołu czy odczytem z konsoli.

Pytanie 27

W scyntygrafii wykorzystywane są głównie radioizotopy emitujące promieniowanie

A. gamma.
B. beta.
C. alfa.
D. neutronowe.
W scyntygrafii kluczowe jest to, żeby rejestrować promieniowanie wychodzące z wnętrza ciała pacjenta za pomocą gammakamery. Z tego powodu wykorzystuje się przede wszystkim radioizotopy emitujące promieniowanie gamma. Foton gamma ma dużą przenikliwość, przechodzi przez tkanki i może zostać zarejestrowany na zewnątrz organizmu przez detektor z kryształem scyntylacyjnym (np. NaI(Tl)). Dzięki temu aparat może zbudować obraz rozkładu radiofarmaceutyku w narządach – np. w kościach, nerkach, tarczycy czy mięśniu sercowym. Moim zdaniem to jest właśnie najważniejsza rzecz do zapamiętania: scyntygrafia = gamma + gammakamera. W praktyce klinicznej używa się typowo izotopów takich jak technet-99m (99mTc), jod-123, tal-201, a w PET – emiterów pozytonów, ale i tak końcowo rejestrowane jest promieniowanie gamma powstałe przy anihilacji. Standardy medycyny nuklearnej kładą nacisk na dobór takich radionuklidów, które emitują fotony gamma o odpowiedniej energii (zwykle ok. 100–200 keV), bo wtedy kompromis między dawką dla pacjenta a jakością obrazu jest najlepszy. Za duża energia – gorsza czułość detektora i większe problemy z osłonami; za mała – fotony są zbyt łatwo pochłaniane w tkankach. Dodatkowo emisja gamma nie wymaga, żeby cząstki opuszczały ciało i oddziaływały bezpośrednio z tkanką w miejscu detektora, jak to jest w radioterapii, tylko ma służyć wyłącznie do obrazowania. W dobrze prowadzonych pracowniach medycyny nuklearnej cała aparatura, osłony, kolimatory są właśnie zoptymalizowane pod promieniowanie gamma, co jest zgodne z obowiązującymi wytycznymi i normami ochrony radiologicznej.

Pytanie 28

Czas połowicznego zaniku jest wykorzystywany

A. w teleradioterapii.
B. w medycynie nuklearnej.
C. w rentgenografii.
D. w tomografii komputerowej.
Prawidłowo – czas połowicznego zaniku (okres półtrwania) to pojęcie absolutnie kluczowe właśnie w medycynie nuklearnej. Opisuje on, w jakim czasie aktywność promieniotwórcza danego radionuklidu spada o połowę. W praktyce oznacza to, że po jednym czasie połowicznego zaniku mamy 50% wyjściowej aktywności, po dwóch – 25%, po trzech – 12,5% itd. W medycynie nuklearnej trzeba brać pod uwagę zarówno fizyczny czas połowicznego zaniku (rozpad jądra atomowego), jak i biologiczny czas półtrwania (eliminacja radiofarmaceutyku z organizmu), a w planowaniu badań często korzysta się z tzw. efektywnego czasu połowicznego zaniku, który łączy oba te procesy. Dzięki temu można prawidłowo dobrać dawkę radiofarmaceutyku do scyntygrafii, PET czy terapii izotopowej (np. jodem-131 w leczeniu nadczynności tarczycy lub raka tarczycy), tak żeby uzyskać wystarczająco dobrą jakość obrazu, a jednocześnie nie narażać pacjenta na niepotrzebnie dużą dawkę promieniowania. W standardach medycyny nuklearnej ogromny nacisk kładzie się na świadome dobieranie izotopu o odpowiednim okresie półtrwania: do diagnostyki preferuje się radionuklidy o krótkim czasie połowicznego zaniku (np. technet-99m, fluor-18), które szybko się rozpadają i zmniejszają narażenie po badaniu, natomiast w terapii można stosować izotopy o dłuższym okresie, żeby efekt terapeutyczny utrzymywał się wystarczająco długo w tkance nowotworowej. Z mojego doświadczenia uczenia się do egzaminów, zrozumienie tego pojęcia bardzo ułatwia ogarniecie, dlaczego konkretne radioizotopy wybiera się do konkretnych procedur i czemu w opisach badań zawsze pojawia się informacja o aktywności w MBq i momencie jej podania. To nie jest sucha teoria, tylko realny fundament bezpiecznego i sensownego planowania badań i terapii radioizotopowych.

Pytanie 29

Kolimator wielolistkowy w akceleratorze liniowym jest stosowany do

A. wyznaczania pozycji pola napromienianego.
B. generowania czasu napromieniania.
C. modulacji mocy wiązki.
D. formowania kształtu pola napromienianego.
Kolimator wielolistkowy w akceleratorze liniowym bardzo często myli się osobom początkującym z innymi elementami toru wiązki, które odpowiadają za pozycjonowanie, czas lub moc napromieniania. Warto to sobie raz porządnie poukładać. MLC to w praktyce zestaw wielu wąskich listków z materiału silnie absorbującego promieniowanie, które wjeżdżają i wyjeżdżają w pole, tworząc jego kształt. Cała jego filozofia polega na modulowaniu geometrii wiązki, a nie na odmierzaniu czasu czy wyznaczaniu środka pola. Wyznaczanie pozycji pola napromienianego to zadanie głównie układu mechanicznego głowicy, pól świetlnych, laserów w bunkrze oraz systemów obrazowania portalowego i CBCT. MLC może wskazywać zarys planowanego pola, ale nie służy do ustalania, gdzie jest izocentrum czy jak ustawić pacjenta względem wiązki – to jest kwestia pozycjonowania i weryfikacji obrazowej, a nie roli samych listków kolimatora. Podobnie generowanie czasu napromieniania nie ma nic wspólnego z MLC. Czas ekspozycji jest wyliczany w systemie planowania leczenia na podstawie zaplanowanej dawki, mocy dawki (MU/min) i charakterystyki wiązki, a następnie kontrolowany przez układy elektroniczne akceleratora. Listki mogą się w tym czasie przemieszczać, ale nie „odliczają” czasu; to robi system sterowania i liczniki monitorowe. Często też pojawia się skojarzenie, że skoro w IMRT czy VMAT dawka w różnych częściach pola jest różna, to MLC „moduluje moc wiązki”. Technicznie rzecz biorąc, MLC moduluje rozkład dawki przestrzennie, zasłaniając lub odsłaniając fragmenty pola, natomiast moc wiązki (czyli moc dawki na wyjściu z głowicy) jest kontrolowana przez parametry akceleratora, takie jak prąd wiązki elektronów, napięcia w strukturze przyspieszającej czy ustawiona prędkość podawania MU. To typowy błąd myślowy: mylenie modulacji przestrzennej (kształtu i segmentów pola) z modulacją intensywności źródła. W dobrych praktykach radioterapii zakłada się, że MLC służy do kształtowania i ewentualnie dynamicznego zmieniania kształtu pola w trakcie obrotu głowicy, natomiast geometria pacjenta, czas i parametry mocy są definiowane w innych modułach systemu. Zrozumienie tej różnicy bardzo pomaga później przy nauce IMRT, VMAT i kontroli jakości planów leczenia.

Pytanie 30

Podczas badania gammakamerą źródłem promieniowania jest

A. detektor.
B. fotopowielacz.
C. kolimator.
D. pacjent.
Poprawnie – w klasycznym badaniu gammakamerą to pacjent jest faktycznym źródłem promieniowania. Do organizmu podaje się radiofarmaceutyk, czyli związek chemiczny połączony z radioizotopem (np. technet-99m). Ten izotop emituje promieniowanie gamma z wnętrza ciała. Gammakamera nic sama nie „wysyła” w stronę pacjenta, ona tylko rejestruje to, co wychodzi z organizmu. To jest podstawowa różnica między medycyną nuklearną a np. RTG – w RTG źródłem promieniowania jest lampa rentgenowska, a w scyntygrafii źródłem staje się sam pacjent po podaniu radiofarmaceutyku. W praktyce klinicznej pozwala to ocenić funkcję narządów, a nie tylko ich anatomię. Przykład: w scyntygrafii kości radiofarmaceutyk gromadzi się tam, gdzie jest zwiększony metabolizm kostny, więc na obrazie widzimy „gorące ogniska” np. przerzutów. W scyntygrafii perfuzyjnej płuc oceniamy przepływ krwi przez miąższ płucny na podstawie rozmieszczenia znacznika. Wszystko to jest możliwe właśnie dlatego, że promieniowanie wychodzi z wnętrza ciała, a nie z zewnątrz. Z mojego doświadczenia wielu uczniów myli to z RTG i myśli, że gammakamera świeci jak lampa, a pacjent tylko „pochłania”. A jest dokładnie odwrotnie: pacjent świeci (w sensie emituje kwanty gamma), a kamera je łapie. Z punktu widzenia ochrony radiologicznej też się tak go traktuje – po podaniu radioizotopu pacjent jest traktowany jak źródło promieniowania i obowiązują określone zasady postępowania, ograniczanie czasu przebywania personelu blisko pacjenta, zalecenia wypisowe dla chorego itp. To jest standard w medycynie nuklearnej, opisany w wytycznych IAEA, EANM i krajowych rekomendacjach.

Pytanie 31

Promieniowanie rentgenowskie powstaje w wyniku hamowania

A. kwantów energii na katodzie lampy rentgenowskiej.
B. kwantów energii na anodzie lampy rentgenowskiej.
C. elektronów na katodzie lampy rentgenowskiej.
D. elektronów na anodzie lampy rentgenowskiej.
Prawidłowo – promieniowanie rentgenowskie w klasycznej lampie diagnostycznej powstaje głównie w wyniku gwałtownego hamowania elektronów na anodzie. W lampie RTG elektrony są emitowane z rozżarzonej katody (emisja termoelektronowa), a następnie przyspieszane silnym napięciem wysokim, rzędu kilkudziesięciu do nawet 120 kV, w kierunku anody. Lecą więc z dużą energią kinetyczną. Kiedy uderzają w ognisko anody (zwykle z wolframu lub stopu wolframu), są bardzo gwałtownie hamowane w polu elektrycznym jąder atomów materiału tarczy. Właśnie to hamowanie, czyli zmiana pędu i kierunku ruchu elektronu w polu jądra, powoduje emisję promieniowania hamowania – tzw. bremsstrahlung, które stanowi podstawową składową widma promieniowania w diagnostyce obrazowej. Dodatkowo część fotonów powstaje jako promieniowanie charakterystyczne, gdy elektron wybija elektron z powłoki wewnętrznej atomu wolframu i następuje przeskok z wyższej powłoki – ale to wciąż efekt zderzenia elektronu z anodą, nie z katodą. W praktyce klinicznej dobra znajomość tego mechanizmu tłumaczy, dlaczego zmiana napięcia kV wpływa na energię (twardość) wiązki, a zmiana natężenia mA – na ilość wytwarzanych fotonów. Z mojego doświadczenia w pracowniach RTG osoby, które rozumieją, że źródłem promieniowania jest właśnie interakcja szybkich elektronów z materiałem anody, lepiej ogarniają takie tematy jak filtracja wiązki, warstwa półchłonna czy dobór ogniska. Ma to znaczenie nie tylko dla jakości obrazu (kontrast, kontrastowość, szumy), ale też dla ochrony radiologicznej – bo wiemy, skąd bierze się promieniowanie rozproszone i jak parametry pracy lampy przekładają się na dawkę dla pacjenta i personelu. W standardach pracy (np. wytyczne ICRP, EUREF i krajowe rekomendacje) cały czas podkreśla się zależność: energia elektronów przy anodzie → widmo i intensywność promieniowania X.

Pytanie 32

Diagnozowanie metodą PET oparte jest na zjawisku

A. anihilacji pozytonu i elektronu.
B. rozproszenia klasycznego.
C. Comptona.
D. fotoelektrycznym.
Prawidłowa odpowiedź opiera się na kluczowym zjawisku fizycznym w medycynie nuklearnej: anihilacji pozytonu i elektronu. W badaniu PET (Pozytonowa Tomografia Emisyjna) do organizmu podaje się radiofarmaceutyk, który emituje pozytony, najczęściej jest to 18F-FDG, czyli fluorodeoksyglukoza znakowana fluorem-18. Pozyton, czyli dodatnio naładowany odpowiednik elektronu, po bardzo krótkiej drodze w tkance zderza się z elektronem. W momencie ich spotkania dochodzi do anihilacji – masa obu cząstek zamienia się w energię w postaci dwóch kwantów promieniowania gamma o energii 511 keV, wysyłanych prawie dokładnie w przeciwne strony (pod kątem około 180°). I właśnie to rejestruje skaner PET. Detektory ustawione w pierścieniu wokół pacjenta wychwytują te dwa fotony w tzw. koincydencji. System elektroniki i oprogramowanie rekonstruują na tej podstawie, wzdłuż której linii w ciele pacjenta doszło do anihilacji. Z mojego doświadczenia to jest główny moment „olśnienia” u uczniów: PET nie rejestruje bezpośrednio pozytonów, tylko fotony powstałe po ich anihilacji. W praktyce klinicznej pozwala to bardzo dokładnie oceniać metabolizm tkanek, np. w onkologii do wykrywania przerzutów, w kardiologii do oceny żywotności mięśnia sercowego, a w neurologii do analizy metabolizmu mózgu. Standardem jest też łączenie PET z TK (PET/CT), dzięki czemu oprócz informacji czynnościowej (metabolizm, perfuzja) mamy dokładne odniesienie anatomiczne. Dobre praktyki wymagają poprawnego przygotowania pacjenta (np. głodówka, kontrola glikemii przy FDG), bo to wpływa na wychwyt radiofarmaceutyku i jakość obrazów. Moim zdaniem zrozumienie anihilacji to podstawa, żeby nie mylić PET z klasycznym RTG czy TK, które bazują na zupełnie innych zjawiskach fizycznych.

Pytanie 33

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 15 mSv
B. 20 mSv
C. 8 mSv
D. 6 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 34

Obrazowanie portalowe w radioterapii służy do

A. weryfikacji pola napromienianego.
B. zniekształcenia wiązki promieniowania.
C. pozycjonowania pacjenta.
D. przekazywania danych o pacjencie.
W obrazowaniu portalowym łatwo się pomylić, bo na pierwszy rzut oka wygląda to trochę jak zwykła kontrola ustawienia pacjenta. I faktycznie, pacjent jest pozycjonowany na stole terapeutycznym, ale sam sens obrazowania portalowego to nie samo ułożenie chorego, tylko weryfikacja pola napromienianego. Pozycjonowanie wykonuje się głównie na podstawie znaczników skórnych, tatuaży, laserów w sali terapeutycznej, czasem z pomocą unieruchomień i szablonów. Obrazowanie portalowe jest kolejnym etapem – ma sprawdzić, czy to pozycjonowanie przełożyło się na poprawne ustawienie wiązki względem struktur anatomicznych i planu leczenia. Myślenie, że obrazowanie portalowe służy do przekazywania danych o pacjencie, wynika często z mieszania pojęć z systemami informatycznymi typu PACS czy RIS. Dane pacjenta, opisy, plan leczenia, dokumentacja dawki są transmitowane i archiwizowane w systemach informatycznych, a nie przez samo obrazowanie portalowe. Portal imaging generuje obraz, który później może być zapisany w systemie, ale jego funkcja jest kliniczna – kontrola geometrii napromieniania – a nie administracyjno‑informacyjna. Kolejne mylne założenie to traktowanie obrazowania portalowego jako czegoś, co „zniekształca wiązkę promieniowania”. W rzeczywistości jest odwrotnie: cały sprzęt do obrazowania portalowego (np. detektor EPID) jest projektowany tak, żeby jak najmniej wpływać na wiązkę terapeutyczną. Celem nie jest zmiana charakterystyki wiązki, tylko jej rejestracja po przejściu przez pacjenta. Z mojego doświadczenia typowym błędem jest patrzenie na obrazowanie jak na dekorację do napromieniania, a nie jako kluczowy element IGRT. Sedno sprawy: obrazowanie portalowe ma potwierdzić, że pole napromieniania pokrywa właściwy obszar anatomiczny zgodnie z planem, a nie służyć do ogólnego pozycjonowania, przesyłania danych czy modyfikowania wiązki.

Pytanie 35

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. protony atomów tlenu.
B. elektrony atomów wodoru.
C. elektrony atomów tlenu.
D. protony atomów wodoru.
Prawidłowo wskazane zostały protony atomów wodoru, czyli dokładnie to, na czym opiera się klasyczna metoda rezonansu magnetycznego wykorzystywana w medycynie. W obrazowaniu MR wykorzystuje się zjawisko jądrowego rezonansu magnetycznego (NMR). W praktyce oznacza to, że w silnym polu magnetycznym jądra wodoru (protony) ustawiają się zgodnie lub przeciwnie do kierunku pola. Następnie aparat wysyła fale radiowe (impuls RF), które wybijają te protony z ich równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego i w tym procesie emitują sygnał, który jest rejestrowany przez cewki odbiorcze. To właśnie ten sygnał jest potem przeliczany komputerowo na obraz przekrojowy ciała. W tkankach ludzkiego organizmu jest bardzo dużo wody i tłuszczu, a więc bardzo dużo atomów wodoru – dlatego MR jest tak czuły na różnice w nawodnieniu i składzie tkanek. W praktyce klinicznej wykorzystuje się to np. do oceny zmian w mózgu (udar, stwardnienie rozsiane), stawach, kręgosłupie, narządach jamy brzusznej. Różne sekwencje (T1, T2, PD, FLAIR, DWI itd.) bazują cały czas na tym samym zjawisku: relaksacji protonów wodoru i różnicach w czasach relaksacji T1 i T2 w różnych tkankach. Z mojego doświadczenia, jak raz się zrozumie, że MR „słucha” protonów wodoru w polu magnetycznym, to dużo łatwiej ogarnąć, dlaczego metal w ciele pacjenta jest problemem, czemu ważne jest jednorodne pole magnetyczne i czemu obecność wody w tkankach tak mocno wpływa na kontrast obrazu. To jest absolutna podstawa fizyki rezonansu, którą warto mieć dobrze poukładaną, bo przewija się wszędzie w diagnostyce obrazowej.

Pytanie 36

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
B. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
C. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
D. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
W rezonansie magnetycznym łatwo się pomylić między różnymi kątami impulsów RF i różnymi czasami, bo nazwy są podobne, a w praktyce w sekwencji dzieje się dużo naraz. Czas repetycji TR ma jednak bardzo konkretne znaczenie: to odstęp między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°, czyli między początkiem jednego cyklu pomiarowego a początkiem następnego. Impulsy 180° pojawiają się głównie jako impulsy refokusujące w sekwencjach spin-echo, ale nie one definiują TR. Ich zadaniem jest odwrócenie dekoherencji spowodowanej niejednorodnościami pola i „złożenie” sygnału w echo, które rejestrujemy w czasie TE. Dlatego wiązanie TR z odległością między impulsami 180° to pomylenie roli tych impulsów z parametrem czasowym sekwencji. Podobny błąd pojawia się przy myleniu TR z czasem inwersji TI. TI definiuje się jako odstęp między impulsem inwersyjnym 180° a momentem rejestracji sygnału (echa). To jest typowe np. w sekwencjach STIR czy FLAIR, gdzie odpowiednio tłumimy sygnał tkanki tłuszczowej albo płynu mózgowo-rdzeniowego. Jeśli ktoś próbuje opisać TR jako odstęp między impulsem inwersji 90° czy 180° a echem, to w praktyce miesza pojęcia TR, TE i TI w jedno. Typowy schemat myślowy jest taki: „jest jakiś impuls i po jakimś czasie jest echo, więc to pewnie TR”, ale to właśnie bardziej opisuje TE, czyli time to echo. TR odnosi się do powtarzania całego cyklu pobudzenia, a TE do odstępu między impulsem pobudzającym 90° a rejestrowanym echem. Dobre opanowanie tych definicji jest kluczowe przy ustawianiu protokołów MR, bo od TR i TE zależy, czy sekwencja będzie T1-, T2- czy PD-zależna, a od TI – czy uda się skutecznie wyciszyć wybraną tkankę. Z mojego doświadczenia, jak się raz porządnie rozrysuje schemat sekwencji spin-echo, to te pomyłki znikają, bo widać wyraźnie: TR liczymy między impulsami 90°, TE od 90° do echa, a TI od impulsu inwersyjnego 180° do echa.

Pytanie 37

Która sekwencja obrazowania MR wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do tłumienia sygnału pochodzącego z tkanki tłuszczowej?

A. FAT SAT
B. MTC
C. TOF
D. PCA
W tym pytaniu sedno sprawy leży w zrozumieniu, jak działają różne specjalistyczne sekwencje MR i jakie mają konkretne zadania. Tylko jedna z nich faktycznie wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do selektywnego tłumienia sygnału z tkanki tłuszczowej, i jest to właśnie technika typu FAT SAT, czyli fat saturation/fat suppression. Pozostałe odpowiedzi są związane z naczyniami, przepływem lub strukturą tkanek, ale nie z selektywnym wygaszaniem tłuszczu. TOF (Time of Flight) to sekwencja angiograficzna. Bazuje na zjawisku napływu świeżej, nienasyconej krwi do warstwy obrazowanej. Krew daje wtedy silniejszy sygnał niż statyczne tkanki, które są już częściowo nasycone impulsami RF. Dzięki temu doskonale widać naczynia krwionośne bez konieczności podawania kontrastu. Jednak TOF nie służy do tłumienia tłuszczu, nie używa selektywnych impulsów RF skierowanych na częstotliwość rezonansową tłuszczu, tylko wykorzystuje efekt przepływu. MTC (Magnetization Transfer Contrast) to z kolei technika, która moduluje kontrast między protonami związanymi w makrocząsteczkach (np. białkach) a „wolną” wodą. Wykorzystuje się dodatkowy impuls RF, który nasyca spinowo frakcję związanych protonów, a magnetyzacja przenosi się na frakcję wolną. To daje lepszy kontrast np. w obrazowaniu OUN, ale nie jest to klasyczne wygaszanie tłuszczu. Tłuszcz może się pośrednio zmieniać w obrazie, ale nie jest bezpośrednim celem tej sekwencji. PCA (Phase Contrast Angiography) to metoda do pomiaru przepływu krwi, gdzie informacja o prędkości przepływu jest kodowana w fazie sygnału MR. Umożliwia ilościową ocenę prędkości i kierunku przepływu, np. w tętnicach mózgowych czy w sercu. Tutaj też nie ma mowy o selektywnym nasycaniu sygnału z tłuszczu za pomocą częstotliwości rezonansowej tłuszczu. Typowy błąd myślowy polega na tym, że skoro coś jest „specjalną” sekwencją, to może od razu służyć do tłumienia tłuszczu – ale każda z tych technik ma bardzo precyzyjne, wąskie zastosowanie. FAT SAT jest jedyną odpowiedzią, która pasuje dokładnie do treści pytania: używa selektywnego impulsu RF dostrojonego do przesunięcia chemicznego tłuszczu względem wody, co skutkuje nasyceniem magnetyzacji tłuszczu i osłabieniem jego sygnału. To jest fundament wielu protokołów MR, szczególnie w diagnostyce urazów, stanów zapalnych, zmian nowotworowych i badaniach po kontraście gadolinowym. Warto sobie mocno utrwalić, że TOF i PCA to angiografia przepływowa, MTC to kontrast magnetyzacji przeniesionej, a prawdziwe „wyciszanie” tłuszczu impulsami RF to domena FAT SAT.

Pytanie 38

Jaki jest cel stosowania bolusa w radioterapii?

A. Ochronić skórę przed poparzeniem.
B. Ochronić narządy krytyczne.
C. "Wyciągnąć" dawkę dalej od skóry.
D. "Wyciągnąć" dawkę bliżej skóry.
Prawidłowo – bolus w radioterapii stosuje się po to, żeby „wyciągnąć” dawkę bliżej skóry, czyli podnieść dawkę w warstwach powierzchownych. Promieniowanie fotonowe ma tzw. zjawisko build‑up: maksymalna dawka nie pojawia się na samej powierzchni, tylko kilka–kilkanaście milimetrów pod skórą. To jest fajne przy klasycznych napromienianiach głębiej położonych guzów, bo naturalnie trochę oszczędza się naskórek. Ale jeśli celem leczenia jest zmiana bardzo powierzchowna, np. rak skóry, blizna pooperacyjna, zajęta skóra klatki piersiowej po mastektomii, to ta „dziura dawki” przy skórze staje się problemem. Wtedy właśnie zakłada się bolus – materiał o gęstości zbliżonej do tkanek miękkich (najczęściej 0,5–1 cm, czasem więcej), który symuluje dodatkową warstwę tkanki. Dla wiązki fotonów linak widzi bolus jak ciało pacjenta: maksimum dawki przesuwa się w głąb bolusa, a nie w głąb faktycznej skóry. Efekt praktyczny jest taki, że na powierzchni skóry pacjenta dawka rośnie, bo dla wiązki to już nie jest „początek”, tylko strefa bliżej dawki maksymalnej. Moim zdaniem kluczowe jest, żeby kojarzyć bolus nie z ochroną skóry, ale właśnie z jej dodatkowym „dobiciem” dawką. W planowaniu leczenia w TPS zawsze zaznacza się obecność bolusa (z odpowiednią grubością i materiałem), bo wpływa to na rozkład izodoz i na wyliczenie dawki w punktach kontrolnych. W dobrych praktykach klinicznych pilnuje się też, żeby bolus dobrze przylegał do skóry (bez pęcherzyków powietrza), bo każda szczelina może powodować nierównomierny rozkład dawki na powierzchni, co widać potem w rozkładach i, niestety, na odczynach skórnych.

Pytanie 39

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
B. cząsteczkowym pochodzącym z akceleratora.
C. fotonowym pochodzącym z akceleratora.
D. ze źródeł umieszczonych tylko na skórze pacjenta.
Brachyterapia często myli się ludziom z klasycznym napromienianiem z akceleratora liniowego, czyli teleradioterapią. To prowadzi do przekonania, że skoro w radioterapii używa się fotonów i cząstek z akceleratora, to brachyterapia też musi tak działać. Tymczasem jest odwrotnie: w brachyterapii kluczowe nie jest to, jaki dokładnie rodzaj promieniowania wychodzi z urządzenia zewnętrznego, tylko to, że mamy zamknięte źródło promieniowania umieszczone bardzo blisko guza albo bezpośrednio w nim. Nie stosuje się tu napromieniania z odległego akceleratora, tylko specjalne źródła radioizotopowe wprowadzane aplikatorami, igłami czy implantami. To, że w odpowiedziach pojawia się promieniowanie fotonowe lub cząsteczkowe „pochodzące z akceleratora”, jest typowym uproszczeniem: tak działa teleterapia, gdzie wiązka promieniowania wytwarzana jest w akceleratorze liniowym i kierowana z zewnątrz na pacjenta. W brachyterapii też możemy mieć promieniowanie fotonowe (gamma) lub cząsteczkowe (np. elektrony beta), ale jego źródło to izotop umieszczony w ciele chorego, a nie głowica akceleratora stojącego parę metrów od stołu. Kolejny częsty błąd to mylenie brachyterapii z prostym naświetlaniem skóry. Owszem, istnieją techniki powierzchowne, ale nie ograniczają się one tylko do położenia źródła na skórze. Najważniejsze jest pojęcie „bezpośredniego sąsiedztwa lub wnętrza napromienianych tkanek”. W praktyce oznacza to, że w raku szyjki macicy aplikator jest w jamie macicy i pochwie, w raku prostaty igły lub ziarenka izotopu są wkłuwane do gruczołu, a w niektórych guzach piersi stosuje się implanty śródtkankowe. Typowym błędem myślowym jest patrzenie wyłącznie na rodzaj promieniowania (fotonowe vs cząsteczkowe), zamiast na geometrię napromieniania i lokalizację źródła. W radioterapii zawsze warto najpierw zadać sobie pytanie: skąd wychodzi promieniowanie – z zewnątrz czy z wnętrza ciała pacjenta? Jeśli z wnętrza lub z bezpośredniego sąsiedztwa guza, to mówimy o brachyterapii, a nie o klasycznym napromienianiu z akceleratora.

Pytanie 40

Które urządzenie zostało przedstawione na fotografii i w jakiej pracowni znajduje zastosowanie?

Ilustracja do pytania
A. Rentgenograf w pracowni rentgenowskiej.
B. Kamera scyntygraficzna w pracowni medycyny nuklearnej.
C. Gammakamera w pracowni radioterapii.
D. Densytometr rentgenowski w pracowni medycyny nuklearnej.
Na zdjęciu widać klasyczną kamerę scyntygraficzną, często nazywaną też gammakamerą, używaną w pracowni medycyny nuklearnej. Charakterystyczny jest duży pierścień z głowicami detekcyjnymi oraz ruchomy stół pacjenta, który wsuwa się w obszar detekcji. W medycynie nuklearnej nie oświetlamy pacjenta z zewnątrz promieniowaniem, tylko wykorzystujemy promieniowanie gamma emitowane z wnętrza ciała po podaniu radiofarmaceutyku. Detektory kamery scyntygraficznej (zwykle kryształ NaI(Tl) i fotopowielacze) rejestrują to promieniowanie i tworzą obraz rozmieszczenia znacznika w narządach. Dzięki temu można ocenić nie tylko anatomię, ale przede wszystkim funkcję – np. perfuzję mięśnia sercowego, czynność tarczycy, perfuzję nerek, metabolizm kości. W praktyce klinicznej wykonuje się takie badania jak scyntygrafia kości, scyntygrafia perfuzyjna płuc, SPECT serca, SPECT mózgu. Moim zdaniem to właśnie jest główna przewaga medycyny nuklearnej nad klasycznym RTG: widzimy fizjologię, a nie tylko kształt narządu. Dobre praktyki wymagają tu m.in. prawidłowego doboru radiofarmaceutyku, kalibracji kolimatorów, kontroli jakości detektorów oraz właściwego pozycjonowania pacjenta, żeby uniknąć artefaktów ruchowych. W nowoczesnych pracowniach często stosuje się systemy hybrydowe SPECT/CT – z zewnątrz wyglądają podobnie, ale oprócz kamery scyntygraficznej mają zintegrowany tomograf komputerowy, co pozwala łączyć informację czynnościową z anatomiczną i dokładniej lokalizować zmiany patologiczne. Zdjęcie w pytaniu pokazuje właśnie typowy układ głowic scyntygraficznych wokół stołu, a nie klasyczny aparat RTG czy akcelerator do radioterapii.