Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 5 maja 2026 19:12
  • Data zakończenia: 5 maja 2026 19:23

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Więzka promieniowania X to

A. cząstki dodatnio naładowane uginające się w polu elektromagnetycznym.
B. cząstki ujemnie naładowane uginające się w polu elektromagnetycznym.
C. kwanty energii uginające się w polu elektromagnetycznym.
D. kwanty energii nieuginające się w polu elektromagnetycznym.
Prawidłowo, promieniowanie X to wiązka fotonów, czyli kwantów energii elektromagnetycznej, a nie strumień cząstek naładowanych. Foton nie ma ładunku elektrycznego ani masy spoczynkowej, dlatego nie ugina się w polu elektrycznym ani magnetycznym w taki sposób, jak robią to elektrony czy protony. To jest kluczowa cecha, która odróżnia promieniowanie X od wiązek cząstek stosowanych np. w niektórych technikach radioterapii (protonoterapia, wiązki elektronowe). W diagnostyce obrazowej, w klasycznym RTG, TK czy mammografii zawsze pracujemy z promieniowaniem elektromagnetycznym – dokładnie takimi właśnie kwantami energii. W praktyce oznacza to, że do kształtowania wiązki promieniowania X używamy kolimatorów, filtrów i geometrii lampy rentgenowskiej, a nie cewek magnetycznych jak w akceleratorach cząstek. Z mojego doświadczenia to rozróżnienie pomaga też zrozumieć, dlaczego osłony z ołowiu są skuteczne: nie „zaginają” promieniowania, tylko je pochłaniają lub silnie osłabiają przez zjawiska fotoelektryczne i Comptona. W standardach ochrony radiologicznej i dobrej praktyce technika elektroradiologii zakłada się, że wiązka X rozchodzi się liniowo, dlatego tak ważne jest prawidłowe pozycjonowanie pacjenta, dobór odległości ognisko–detektor i stosowanie przesłon, żeby ograniczyć niepotrzebne naświetlenie tkanek sąsiednich. W tomografii komputerowej to samo zjawisko wykorzystuje się do rekonstrukcji obrazu na podstawie osłabienia fotonów w różnych kierunkach. Moim zdaniem, jak raz się zapamięta, że promieniowanie X to „światło o bardzo dużej energii”, tylko o krótszej długości fali, to od razu łatwiej ogarnąć całą fizykę radiologii i sens parametrów ekspozycji, takich jak kV i mAs.

Pytanie 2

Który artefakt uwidoczniono na skanie RM głowy?

Ilustracja do pytania
A. Przesunięcie chemiczne.
B. Poruszenie pacjenta.
C. Efekt uśrednienia.
D. Zawijanie obrazu.
Prawidłowo rozpoznano artefakt zawijania obrazu (aliasing). Na tym skanie RM głowy widać struktury anatomiczne „przeniesione” spoza pola widzenia (FOV) do wnętrza obrazu – wyglądają jakby fragment czaszki lub tkanek miękkich nagle pojawiał się w nienaturalnym miejscu, przy brzegu kadru. To właśnie typowy obraz zawijania: sygnał z obszaru poza FOV zostaje „zmapowany” po przeciwnej stronie obrazu w kierunku fazowym. W praktyce klinicznej ten artefakt występuje najczęściej przy zbyt małym polu obrazowania w osi przednio–tylnej lub lewo–prawo, szczególnie w badaniach głowy, kręgosłupa szyjnego i jamy brzusznej. Dobre praktyki według standardów producentów aparatów MR i wytycznych to m.in.: zwiększenie FOV w kierunku fazowym, zastosowanie oversamplingu (phase oversampling, no phase wrap), zmianę kierunku kodowania fazy, a w razie potrzeby użycie cewek powierzchniowych o mniejszym zasięgu. Moim zdaniem bardzo ważne jest, żeby w technikum od razu kojarzyć: obraz „przełożony” przez krawędź kadru = zawijanie, a nie poruszenie czy efekt uśrednienia. W realnej pracy technika zawijanie potrafi całkowicie uniemożliwić ocenę np. tylnej jamy czaszki, jeśli sygnał z nosa lub twarzy wchodzi w pole móżdżku, dlatego rutynowo kontroluje się FOV i parametry fazy jeszcze przed rozpoczęciem sekwencji. Warto też pamiętać, że w sekwencjach szybkich, np. FSE, aliasing może być bardziej widoczny, więc tym bardziej trzeba pilnować ustawień.

Pytanie 3

Kolimator wielolistkowy w akceleratorze liniowym jest stosowany do

A. modulacji mocy wiązki.
B. generowania czasu napromieniania.
C. wyznaczania pozycji pola napromienianego.
D. formowania kształtu pola napromienianego.
Kolimator wielolistkowy w akceleratorze liniowym bardzo często myli się osobom początkującym z innymi elementami toru wiązki, które odpowiadają za pozycjonowanie, czas lub moc napromieniania. Warto to sobie raz porządnie poukładać. MLC to w praktyce zestaw wielu wąskich listków z materiału silnie absorbującego promieniowanie, które wjeżdżają i wyjeżdżają w pole, tworząc jego kształt. Cała jego filozofia polega na modulowaniu geometrii wiązki, a nie na odmierzaniu czasu czy wyznaczaniu środka pola. Wyznaczanie pozycji pola napromienianego to zadanie głównie układu mechanicznego głowicy, pól świetlnych, laserów w bunkrze oraz systemów obrazowania portalowego i CBCT. MLC może wskazywać zarys planowanego pola, ale nie służy do ustalania, gdzie jest izocentrum czy jak ustawić pacjenta względem wiązki – to jest kwestia pozycjonowania i weryfikacji obrazowej, a nie roli samych listków kolimatora. Podobnie generowanie czasu napromieniania nie ma nic wspólnego z MLC. Czas ekspozycji jest wyliczany w systemie planowania leczenia na podstawie zaplanowanej dawki, mocy dawki (MU/min) i charakterystyki wiązki, a następnie kontrolowany przez układy elektroniczne akceleratora. Listki mogą się w tym czasie przemieszczać, ale nie „odliczają” czasu; to robi system sterowania i liczniki monitorowe. Często też pojawia się skojarzenie, że skoro w IMRT czy VMAT dawka w różnych częściach pola jest różna, to MLC „moduluje moc wiązki”. Technicznie rzecz biorąc, MLC moduluje rozkład dawki przestrzennie, zasłaniając lub odsłaniając fragmenty pola, natomiast moc wiązki (czyli moc dawki na wyjściu z głowicy) jest kontrolowana przez parametry akceleratora, takie jak prąd wiązki elektronów, napięcia w strukturze przyspieszającej czy ustawiona prędkość podawania MU. To typowy błąd myślowy: mylenie modulacji przestrzennej (kształtu i segmentów pola) z modulacją intensywności źródła. W dobrych praktykach radioterapii zakłada się, że MLC służy do kształtowania i ewentualnie dynamicznego zmieniania kształtu pola w trakcie obrotu głowicy, natomiast geometria pacjenta, czas i parametry mocy są definiowane w innych modułach systemu. Zrozumienie tej różnicy bardzo pomaga później przy nauce IMRT, VMAT i kontroli jakości planów leczenia.

Pytanie 4

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. PDR
B. LDR
C. HDR
D. MDR
Prawidłowa odpowiedź to PDR, czyli Pulsed Dose Rate brachyterapia. Chodzi dokładnie o taką technikę, gdzie wysokoaktywny izotop (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się impulsach dawki. Mechanicznie wygląda to bardzo podobnie do HDR, bo też używa się afterloadera krokowego, który przemieszcza źródło po kolejnych pozycjach w aplikatorze, ale kluczowa różnica jest w sposobie podawania dawki w czasie: w PDR podaje się wiele krótkich impulsów, np. co godzinę, tak żeby biologicznie przypominało to napromienianie ciągłe jak w klasycznej LDR. W praktyce klinicznej PDR jest często stosowana tam, gdzie chcemy mieć precyzję i elastyczność HDR (dokładne pozycjonowanie źródła, możliwość modyfikacji planu), ale jednocześnie zależy nam na ochronie tkanek zdrowych dzięki efektowi repopulacji i naprawy uszkodzeń DNA pomiędzy impulsami. Moim zdaniem fajne w PDR jest to, że łączy trochę dwa światy: technologię wysokiej mocy dawki z radiobiologią dawki niskiej. W zaleceniach międzynarodowych (np. ESTRO, ICRU) podkreśla się, że planowanie PDR wymaga bardzo dokładnego określenia czasu trwania impulsu, przerw między impulsami oraz całkowitej dawki, bo z punktu widzenia tkanek liczy się nie tylko suma Gy, ale też rozkład w czasie. W codziennej pracy technika czy fizyka medycznego ważne jest rozumienie, że „pulsed” w nazwie to właśnie te wielokrotne wjazdy i wyjazdy źródła do tego samego aplikatora według zaprogramowanego harmonogramu, a nie jednorazowa ekspozycja jak w HDR. Dzięki temu łatwiej odróżnić PDR od pozostałych skrótów, które mówią głównie o mocy dawki, a nie o tym specyficznym, impulsowym sposobie jej podawania.

Pytanie 5

Osłony na gonady dla osób dorosłych powinny posiadać równoważnik osłabienia promieniowania nie mniejszy niż

A. 0,75 mm Pb
B. 0,35 mm Pb
C. 1,00 mm Pb
D. 0,50 mm Pb
Prawidłowo – dla osób dorosłych osłony na gonady powinny mieć równoważnik osłabienia co najmniej 1,00 mm Pb. Wynika to z zasad ochrony radiologicznej, gdzie gonady traktuje się jako narząd szczególnie wrażliwy, kluczowy dla płodności i ryzyka dziedzicznych skutków promieniowania. Grubość 1,00 mm ołowiu zapewnia bardzo wysoki stopień osłabienia wiązki promieniowania w typowych warunkach badań RTG, np. w radiografii miednicy, bioder, kręgosłupa lędźwiowego. Przy takiej grubości osłony dawka pochłonięta przez jądra lub jajniki jest istotnie zredukowana, a jednocześnie osłona jest jeszcze na tyle ergonomiczna, że da się ją wygodnie stosować w praktyce. Moim zdaniem ważne jest, żeby nie traktować tej wartości jako „opcji”, tylko jako minimum – jeśli w pracowni są osłony cieńsze, to dla dorosłych nie spełniają one standardów ochrony. W dobrych pracowniach radiologicznych rutynowo stosuje się osłony gonadowe właśnie o grubości około 1 mm Pb, dopasowane kształtem: fartuchy typu „figi”, ochraniacze moszny, osłony na okolice miednicy. Warto pamiętać, że zgodnie z zasadą ALARA (As Low As Reasonably Achievable) redukujemy dawkę wszędzie tam, gdzie to możliwe, bez utraty jakości diagnostycznej obrazu. Dobrze dobrana osłona 1 mm Pb nie powinna wchodzić w pole obrazowania i nie może zasłaniać interesujących nas struktur, dlatego tak ważne jest poprawne pozycjonowanie pacjenta i prawidłowe ułożenie samej osłony. Z mojego doświadczenia wiele błędów w pracowni polega właśnie na tym, że ktoś ma dobrą osłonę, ale źle ją zakłada i albo wchodzi w projekcję, albo w ogóle nie przykrywa gonad. Sama grubość 1,00 mm Pb to jedno, a prawidłowa technika i nawyk jej stosowania – drugie, równie ważne.

Pytanie 6

Na zamieszczonej rycinie przedstawiono

Ilustracja do pytania
A. zjawisko fotoelektryczne.
B. zjawisko tworzenia par.
C. efekt Comptona.
D. zjawisko anihilacji.
Na rycinie widać klasyczny schemat zjawiska fotoelektrycznego: kwant promieniowania γ (lub X) pada na elektron związany w atomie, przekazuje mu energię i wybija go poza atom jako elektron swobodny. Opis matematyczny Ee = hν − Ew pokazuje, że energia kinetyczna elektronu wybitego (Ee) jest równa energii fotonu (hν) pomniejszonej o energię wiązania elektronu w atomie (Ew). To jest dokładnie definicja efektu fotoelektrycznego, tak jak uczą w fizyce medycznej i w podstawach radiologii. W diagnostyce obrazowej to zjawisko ma ogromne znaczenie przy niższych energiach promieniowania, typowych np. dla mammografii czy zdjęć kostnych – tam dominująca absorpcja w tkankach to właśnie fotoefekt. Moim zdaniem warto zapamiętać, że fotoefekt jest mocno zależny od liczby atomowej Z materiału (z grubsza rośnie jak Z³) – dlatego kości, zawierające dużo wapnia, pochłaniają więcej promieniowania niż tkanki miękkie i wychodzą na zdjęciu jaśniej. W praktyce technika radiologiczna wykorzystuje to przy doborze napięcia kV: niższe kV wzmacnia udział zjawiska fotoelektrycznego, poprawia kontrast tkankowy, ale zwiększa dawkę pochłoniętą. Standardy ochrony radiologicznej i dobre praktyki (np. zasada ALARA) wymagają takiego doboru parametrów, żeby uzyskać wystarczającą jakość obrazu przy jak najmniejszej dawce, czyli rozsądnego kompromisu między udziałem fotoefektu a rozpraszaniem Comptona. Warto też pamiętać, że po wybiciu elektronu w atomie powstaje luka w powłoce, co prowadzi do emisji promieniowania charakterystycznego lub elektronów Augera – to z kolei leży u podstaw działania kontrastów zawierających jod czy gadolin w niektórych technikach obrazowania.

Pytanie 7

Jaka jest standardowa odległość OF do wykonania rentgenowskich zdjęć kości i stawów kończyny górnej?

A. 100-115 cm
B. 135-150 cm
C. 70-90 cm
D. 120-130 cm
W diagnostyce rentgenowskiej kości i stawów kończyny górnej kluczowa jest prawidłowa geometria układu: lampa – pacjent – detektor. Odległość ognisko–film musi być dobrana tak, żeby z jednej strony zapewnić odpowiednią ostrość i minimalne zniekształcenia, a z drugiej nie wymuszać niepotrzebnie wysokich dawek. Zbyt mała odległość, w okolicach 70–90 cm, powoduje wyraźne powiększenie obrazu i większy wpływ nieostrości geometrycznej. Na zdjęciu stawy i drobne struktury kostne wyglądają wtedy trochę „rozlane”, trudniej ocenić szerokość szpar stawowych, ustawienie odłamów czy małe ubytki korowe. W praktyce jest to typowy błąd początkujących: myślenie, że skoro pacjent jest bliżej lampy, to „lepiej naświetlony”, a więc obraz będzie lepszy. Niestety fizyka promieniowania robi swoje i jakość geometryczna takiego zdjęcia jest po prostu gorsza. Z drugiej strony zbyt duże odległości, rzędu 120–130 cm czy nawet 135–150 cm, to już zakres stosowany głównie w zdjęciach klatki piersiowej, gdzie priorytetem jest minimalizacja powiększenia serca i równomierne napromienienie dużego pola. W przypadku kończyny górnej tak duża OF nie daje realnych korzyści diagnostycznych, za to wymusza zwiększenie mAs, bo natężenie promieniowania maleje z kwadratem odległości. To oznacza niepotrzebne podnoszenie dawki, a przy słabszych lampach także ryzyko niedoświetlenia obrazu, zwłaszcza u pacjentów o większej masie ciała. Częstym błędem myślowym jest przekonanie, że „im dalej, tym lepiej”, bo obraz będzie bardziej „równy” – w kończynie górnej mamy jednak stosunkowo małe pole obrazowania, więc tak duża odległość jest po prostu niepraktyczna i niezgodna z typowymi protokołami. Standardowe tabele ekspozycyjne i wytyczne pracowniane zakładają OF około 100 cm właśnie dla kończyn. Jeśli technik zaczyna dowolnie wydłużać albo skracać tę odległość, to później trudno porównywać badania kontrolne, bo zmienia się zarówno powiększenie, jak i kontrast oraz ziarnistość obrazu. Dlatego odpowiedź spoza zakresu 100–115 cm wskazuje na niezrozumienie podstawowych zasad geometrii w radiografii i oderwanie od rzeczywistych standardów stosowanych w pracowniach RTG.

Pytanie 8

Radioizotopowa terapia medycyny nuklearnej polega na wprowadzeniu do tkanek lub narządów radiofarmaceutyku

A. emitującego promieniowanie β ze źródeł otwartych.
B. znajdującego się w odległości 100 cm od pacjenta.
C. znajdującego się w odległości 50 cm od pacjenta.
D. emitującego promieniowanie γ ze źródeł otwartych.
Prawidłowo – istota radioizotopowej terapii w medycynie nuklearnej polega na podaniu radiofarmaceutyku emitującego głównie promieniowanie β ze źródeł otwartych, czyli takiego, który wnika do organizmu (do krwi, tkanek, narządów), a nie jest zamknięty w jakiejś osłonie czy aplikatorze. Promieniowanie beta ma stosunkowo krótki zasięg w tkankach (zwykle kilka milimetrów), dzięki czemu dawka pochłonięta koncentruje się w obrębie zmiany chorobowej – guza, przerzutów do kości, nadczynnego guzka tarczycy – a mniej uszkadza otaczające, zdrowe tkanki. To jest właśnie ten „terapeutyczny” efekt medycyny nuklearnej, w odróżnieniu od diagnostyki scyntygraficznej, gdzie ważniejsze jest promieniowanie γ rejestrowane przez gammakamerę. Typowy przykład z praktyki: leczenie nadczynności tarczycy radiojodem I-131 – izotop jest podawany doustnie, kumuluje się w tarczycy i dzięki emisji β niszczy komórki produkujące nadmiar hormonów. Inne przykłady to terapia przerzutów do kości z użyciem Sr-89 czy Sm-153, albo nowocześniejsze terapie receptorowe (np. 177Lu-DOTATATE w guzach neuroendokrynnych). We wszystkich tych przypadkach stosuje się źródła otwarte – radiofarmaceutyk krąży w organizmie i jest częściowo wydalany, dlatego obowiązują ścisłe zasady ochrony radiologicznej: wydzielone sale, kontrola skażeń, instrukcje dla pacjenta po wypisie. Moim zdaniem warto zapamiętać prostą zasadę: β = leczenie (terapia), γ = obrazowanie (diagnostyka), oczywiście z pewnymi wyjątkami, ale jako skrót myślowy działa całkiem dobrze.

Pytanie 9

Kasety do pośredniej radiografii cyfrowej CR są wyposażone

A. w płyty ołowiowe.
B. w płyty fosforowe.
C. w folie wzmacniające.
D. w filmy rentgenowskie.
Prawidłowo – w systemie pośredniej radiografii cyfrowej CR kasety są wyposażone w płyty fosforowe, nazywane też płytami obrazowymi (IP – imaging plate). To nie są klasyczne filmy, tylko specjalne płyty z fosforem luminescencyjnym, najczęściej fosforem halogenkowym z domieszką europu. Pod wpływem promieniowania rentgenowskiego w krysztale fosforu gromadzi się energia w postaci tzw. obrazu utajonego. Ten obraz nie jest widoczny gołym okiem, dopiero skaner CR odczytuje go laserem, powodując zjawisko fotostymulowanej luminescencji. Wtedy emisja światła jest zamieniana przez fotopowielacz i przetwornik A/C na sygnał cyfrowy, który trafia do systemu PACS. W praktyce, podczas pracy w pracowni RTG, płyta fosforowa zachowuje się podobnie jak dawny film: wkładasz ją do kasety, po ekspozycji przenosisz do czytnika CR, a po odczycie płyta jest kasowana i może być użyta ponownie dziesiątki, a nawet setki razy, o ile nie zostanie mechanicznie uszkodzona. Moim zdaniem ważne jest, żeby kojarzyć CR właśnie z płytą fosforową, a DR z detektorem płaskopanelowym – to dwa różne systemy cyfrowe. Standardem dobrej praktyki jest delikatne obchodzenie się z kasetami CR, unikanie zarysowań i zginania, bo wszelkie uszkodzenia płyty fosforowej potem wychodzą jako artefakty na obrazie (pasy, plamki, „zadrapania”). W wielu szpitalach CR nadal jest używany w pracowniach ogólnych, na SOR czy w weterynarii, bo jest tańszy i bardziej elastyczny niż pełne DR, a kluczowe jest właśnie to, że sercem kasety jest płyta fosforowa, a nie film rentgenowski czy płyta ołowiowa.

Pytanie 10

Który środek ochrony radiologicznej należy zastosować podczas badania czaszki 53-letniego pacjenta za pomocą tomografii komputerowej?

A. Osłonę z gumy ołowiowej na gonady.
B. Fartuch z gumy ołowiowej.
C. Osłonę z gumy ołowiowej na tarczycę.
D. Okulary ze szkłem ołowiowym.
Prawidłowo wskazany fartuch z gumy ołowiowej to podstawowy i najbardziej uniwersalny środek ochrony radiologicznej stosowany u pacjentów podczas badań TK, również przy tomografii komputerowej czaszki. W praktyce klinicznej, zgodnie z zasadą ALARA, dążymy do tego, żeby dawka promieniowania była tak niska, jak to rozsądnie możliwe, przy zachowaniu jakości diagnostycznej badania. Fartuch ołowiowy pozwala osłonić duże obszary ciała, które nie są objęte obszarem skanowania: klatkę piersiową, jamę brzuszną, miednicę. W badaniu czaszki wiązka promieniowania jest skupiona głównie na głowie, ale promieniowanie rozproszone rozchodzi się w różnych kierunkach i właśnie przed nim dodatkowo chroni fartuch. Z mojego doświadczenia w pracowni TK, dobrze założony fartuch (często tzw. dwuczęściowy – kamizelka i spódnica albo pełny fartuch 360°) realnie ogranicza niepotrzebne napromienianie narządów szczególnie wrażliwych, jak gonady, szpik kostny w miednicy czy narządy jamy brzusznej. Ważne jest też, żeby fartuch nie wchodził w pole skanowania, bo wtedy może powodować artefakty i pogorszyć jakość obrazu. Dlatego technik musi umieć pogodzić ochronę z prawidłowym pozycjonowaniem pacjenta. W aktualnych wytycznych podkreśla się, że osłony osobiste stosujemy wtedy, gdy nie zaburzają one diagnostyki i gdy rzeczywiście zmniejszają dawkę efektywną. Fartuch spełnia te warunki w badaniu głowy, w przeciwieństwie do bardziej wyspecjalizowanych osłon, które w tym konkretnym przypadku nie wnoszą tak dużo. To jest po prostu standard dobrej praktyki w tomografii – najpierw optymalizacja parametrów ekspozycji, a następnie rozsądne użycie osłon, z fartuchem ołowiowym jako podstawą.

Pytanie 11

Ligand stosuje się

A. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
B. w radiologii klasycznej jako środek kontrastujący pozytywny.
C. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
D. w radiologii klasycznej jako środek kontrastujący negatywny.
Pojęcie ligandu bywa mylone z różnymi środkami kontrastowymi, bo wszędzie pojawia się temat „podawania czegoś do organizmu przed badaniem obrazowym”. Jednak od strony merytorycznej to zupełnie inne zagadnienia. Ligand, o który chodzi w tym pytaniu, należy przede wszystkim do świata medycyny nuklearnej. Jest to część radiofarmaceutyku odpowiedzialna za swoiste wiązanie się z określonym celem biologicznym: receptorem, enzymem, strukturą tkankową. Do ligandu „doczepiony” jest radioizotop (np. technet-99m, jod-131, fluor-18), który emituje promieniowanie rejestrowane przez gammakamerę albo skaner PET. W radiologii klasycznej (RTG, TK) środki kontrastowe – pozytywne czy negatywne – działają na zupełnie innej zasadzie. Kontrast pozytywny (np. jodowe środki kontrastowe, siarczan baru) zawiera pierwiastki o dużej liczbie atomowej, które silniej pochłaniają promieniowanie rentgenowskie i dzięki temu struktury wypełnione kontrastem są jaśniejsze na obrazie. To nie jest ligand w rozumieniu radiofarmaceutyku, bo nie ma tam znacznika promieniotwórczego, a mechanizm opiera się głównie na różnicy pochłaniania promieniowania, nie na swoistym wiązaniu z receptorami. Kontrast negatywny (np. powietrze, CO2) działa odwrotnie – zmniejsza pochłanianie promieniowania, struktury wypełnione gazem są ciemniejsze na obrazie. Tu też nie mówimy o ligandach, tylko o prostych substancjach fizycznie zmieniających gęstość i współczynnik osłabienia. W rezonansie magnetycznym stosuje się środki kontrastowe oparte głównie na gadolinie, które zmieniają czasy relaksacji protonów w tkankach, przez co sygnał MR jest jaśniejszy lub ciemniejszy. W literaturze chemicznej zdarza się pojęcie „chelatu gadolinu” jako kompleksu gadolin–ligand, ale w praktyce klinicznej radiologii mówimy o „środkach kontrastowych do MR”, nie o ligandach jako nośnikach radioizotopu. Typowym błędem myślowym jest wrzucanie do jednego worka wszystkiego, co podajemy dożylnie przed badaniem obrazowym i nazywanie tego ligandem. Kluczowe rozróżnienie jest takie: w medycynie nuklearnej ligand + radioizotop = radiofarmaceutyk, który świeci sam z siebie i jest rejestrowany przez gammakamerę lub PET. W RTG, TK czy MR środek kontrastowy nie emituje promieniowania, jedynie modyfikuje obraz uzyskany za pomocą zewnętrznego źródła (lampa RTG, pole magnetyczne i fale radiowe). Dlatego poprawne skojarzenie ligandu dotyczy medycyny nuklearnej i roli nośnika radiofarmaceutyku, a nie klasycznych czy MR-owych środków kontrastowych.

Pytanie 12

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Napięcie na lampie [kV].
B. Iloczyn natężenia promieniowania i czasu [mAs].
C. Filtracja [mm Al].
D. Odległość źródła promieniowania od detektora [cm].
Prawidłowo wskazany parametr to napięcie na lampie [kV], bo to ono w praktyce najbardziej „rządzi” kontrastem obrazu rentgenowskiego. Z fizycznego punktu widzenia kV decyduje o energii fotonów promieniowania X. Im wyższe napięcie, tym bardziej przenikliwe promieniowanie, tym mniejsza różnica w pochłanianiu między tkankami o różnej gęstości i liczbie atomowej. Efekt jest taki, że kontrast maleje – obraz staje się bardziej „szary”, z mniejszym odróżnieniem struktur. Przy niższym kV fotony mają mniejszą energię, silniej ujawniają się różnice pochłaniania między np. kością a tkanką miękką, więc kontrast rośnie. W praktyce, w dobrych pracowniach RTG, dobór kV jest kluczowym elementem protokołu badania: do zdjęć klatki piersiowej u dorosłych stosuje się zwykle wyższe kV (np. 100–130 kV), żeby uzyskać niski kontrast, ale dobrą wizualizację całej objętości klatki i zmniejszyć dawkę. Natomiast do zdjęć kości, np. ręki czy stopy, używa się niższych napięć (55–65 kV), żeby podkreślić różnice między korą kostną, jamą szpikową i otaczającymi tkankami miękkimi. Moim zdaniem warto zapamiętać prostą zasadę: kV to przede wszystkim kontrast, a mAs to głównie jasność/zaszumienie (czyli ekspozycja). Oczywiście w praktyce wszystko się trochę przenika, ale w standardach radiologicznych i w podręcznikach fizyki medycznej właśnie tak to się uczy. Dobrą praktyką jest też to, że technik nie zmienia kV „na oko”, tylko trzyma się ustalonych protokołów dla danej projekcji i typu pacjenta, modyfikując kV świadomie, np. przy pacjencie otyłym albo u dziecka, pamiętając o wpływie na kontrast i dawkę.

Pytanie 13

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
B. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
C. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
D. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
W rezonansie magnetycznym łatwo się pomylić między różnymi kątami impulsów RF i różnymi czasami, bo nazwy są podobne, a w praktyce w sekwencji dzieje się dużo naraz. Czas repetycji TR ma jednak bardzo konkretne znaczenie: to odstęp między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°, czyli między początkiem jednego cyklu pomiarowego a początkiem następnego. Impulsy 180° pojawiają się głównie jako impulsy refokusujące w sekwencjach spin-echo, ale nie one definiują TR. Ich zadaniem jest odwrócenie dekoherencji spowodowanej niejednorodnościami pola i „złożenie” sygnału w echo, które rejestrujemy w czasie TE. Dlatego wiązanie TR z odległością między impulsami 180° to pomylenie roli tych impulsów z parametrem czasowym sekwencji. Podobny błąd pojawia się przy myleniu TR z czasem inwersji TI. TI definiuje się jako odstęp między impulsem inwersyjnym 180° a momentem rejestracji sygnału (echa). To jest typowe np. w sekwencjach STIR czy FLAIR, gdzie odpowiednio tłumimy sygnał tkanki tłuszczowej albo płynu mózgowo-rdzeniowego. Jeśli ktoś próbuje opisać TR jako odstęp między impulsem inwersji 90° czy 180° a echem, to w praktyce miesza pojęcia TR, TE i TI w jedno. Typowy schemat myślowy jest taki: „jest jakiś impuls i po jakimś czasie jest echo, więc to pewnie TR”, ale to właśnie bardziej opisuje TE, czyli time to echo. TR odnosi się do powtarzania całego cyklu pobudzenia, a TE do odstępu między impulsem pobudzającym 90° a rejestrowanym echem. Dobre opanowanie tych definicji jest kluczowe przy ustawianiu protokołów MR, bo od TR i TE zależy, czy sekwencja będzie T1-, T2- czy PD-zależna, a od TI – czy uda się skutecznie wyciszyć wybraną tkankę. Z mojego doświadczenia, jak się raz porządnie rozrysuje schemat sekwencji spin-echo, to te pomyłki znikają, bo widać wyraźnie: TR liczymy między impulsami 90°, TE od 90° do echa, a TI od impulsu inwersyjnego 180° do echa.

Pytanie 14

Technika stereotaktyczna polega na napromienianiu nowotworu

A. jednym dużym polem.
B. wieloma wiązkami zbiegającymi się w jednym punkcie.
C. wieloma wiązkami z jednej strony.
D. wieloma wiązkami wychodzącymi z jednego punktu.
W stereotaksji łatwo pomylić się, jeśli myśli się o niej jak o „zwykłym” napromienianiu tylko z trochę większą precyzją. Sedno problemu jest takie, że nie chodzi tu o jedno duże pole, które obejmuje guz. Pojedyncze szerokie pole powodowałoby, że duża dawka trafi nie tylko w nowotwór, ale także w znaczną objętość zdrowych tkanek po drodze i za guzem. To jest raczej podejście z prostszych technik teleterapii 2D, a nie z nowoczesnej radiochirurgii stereotaktycznej. Drugim częstym skojarzeniem jest użycie wielu wiązek, ale tylko z jednej strony. Wtedy nadal mamy skupienie dawki po jednej stronie ciała, a od strony przeciwnej tkanki są praktycznie oszczędzone, lecz gradient dawki nie jest aż tak stromy wokół guza. W stereotaksji standardem jest rozłożenie wiązek z różnych kierunków przestrzennych tak, żeby każda pojedyncza wiązka niosła stosunkowo niewielką dawkę, ale w miejscu ich przecięcia powstaje maksimum dawki. Stąd wzięło się to charakterystyczne pojęcie „zbiegających się wiązek”. Koncepcja wiązek „wychodzących z jednego punktu” jest fizycznie i geometrycznie odwrotna do tego, co robimy. Aparat terapeutyczny (np. akcelerator liniowy, Gamma Knife, CyberKnife) jest źródłem promieniowania i to wiązki wychodzą z głowicy urządzenia, a zbiegają się w guzie. Myślenie, że wychodzą z guza, to typowe odwrócenie perspektywy, które często widać u osób zaczynających naukę radioterapii. Dobra praktyka kliniczna polega na takim zaplanowaniu geometrii wiązek, kolimatorów, łuków i intensywności, aby uzyskać jak najwyższy stosunek dawki w guzie do dawki w tkankach zdrowych. W stereotaksji dąży się do bardzo stromego spadku dawki poza celem, co osiąga się właśnie przez wiele zbieżnych wiązek z różnych kątów, a nie przez jedno duże pole czy jednostronny „wachlarz” wiązek. Z mojego doświadczenia, jak się raz zrozumie ideę sumowania się małych dawek w jednym punkcie, to od razu odpadają wszystkie inne, pozornie podobne, ale jednak błędne koncepcje.

Pytanie 15

Rozpraszanie promieniowania X, w wyniku którego następuje zwiększenie długości fali promieniowania, to zjawisko

A. Maxwella.
B. Comptona.
C. Boltzmana.
D. Bragga.
Prawidłowo wskazane zjawisko to efekt Comptona. W fizyce promieniowania mówi się, że jest to sprężyste rozpraszanie fotonów promieniowania X (albo gamma) na praktycznie swobodnych elektronach, po którym foton ma mniejszą energię, a więc większą długość fali. Energia nie znika, tylko dzieli się: część przejmuje elektron (zostaje on wybity z powłoki i zyskuje energię kinetyczną), a część zachowuje foton, ale już o niższej energii i zmienionym kierunku. Właśnie ta utrata energii fotonu jest fizyczną przyczyną zwiększenia długości fali. W praktyce radiologicznej efekt Comptona dominuje w zakresie energii typowej dla diagnostycznych zdjęć RTG klatki piersiowej czy jamy brzusznej, szczególnie w tkankach o średniej gęstości. Z mojego doświadczenia to jedno z kluczowych zjawisk, które trzeba rozumieć, jeśli ktoś chce sensownie mówić o kontraście obrazu i dawce rozproszonej. Rozproszone promieniowanie Comptona odpowiada za tzw. mgłę na obrazie, pogarsza kontrast i zwiększa niepotrzebne narażenie personelu. Dlatego w dobrych praktykach pracowni RTG stosuje się kratki przeciwrozproszeniowe, odpowiednie kolimowanie wiązki, właściwe parametry kV i mAs – właśnie po to, żeby ograniczać wpływ rozpraszania Comptona. W planowaniu osłon stałych i organizacji pracowni fizyk medyczny też musi brać pod uwagę udział promieniowania rozproszonego na ściany, sufit i podłogę. Co ważne, efekt Comptona jest w dużej mierze niezależny od liczby atomowej materiału, więc występuje zarówno w tkankach miękkich, jak i w kości, a jego intensywność bardziej zależy od gęstości elektronowej i energii wiązki. W tomografii komputerowej, przy typowych energiach efektywnych wiązki, rozpraszanie Comptona również ma duży udział i wpływa na artefakty oraz konieczność stosowania filtrów i algorytmów rekonstrukcji uwzględniających rozproszenie. Dlatego kojarzenie „zwiększenia długości fali po rozproszeniu” z nazwiskiem Compton to w medycynie obrazowej absolutna podstawa fizyki promieniowania.

Pytanie 16

W której technice brachyterapii stosuje się źródła promieniowania o mocy dawki 2-12 Gy/h?

A. HDR
B. PDR
C. MDR
D. LDR
Zakres 2–12 Gy/h jest charakterystyczny dla brachyterapii MDR, czyli medium dose rate. Pomyłki przy tym pytaniu zwykle biorą się z mieszania definicji mocy dawki w brachyterapii i intuicyjnego myślenia, że „wysoka dawka” to zawsze HDR, a „niska” to LDR, bez znajomości konkretnych progów liczbowych. HDR, czyli high dose rate, to technika, w której moc dawki przekracza 12 Gy/h, często jest to nawet kilkadziesiąt Gy/h. Zabiegi HDR są bardzo krótkie czasowo, trwają minuty, a nie godziny, i są wykonywane z użyciem afterloaderów o bardzo aktywnych źródłach, najczęściej 192Ir. Z punktu widzenia planowania leczenia i ochrony radiologicznej HDR ma inny profil ryzyka niż MDR – pacjent nie leży godzinami z założonymi aplikatorami i aktywnym źródłem, tylko jest napromieniany krótkotrwale i w sposób bardzo precyzyjnie kontrolowany. Dlatego przypisywanie zakresu 2–12 Gy/h do HDR jest po prostu niezgodne z przyjętymi międzynarodowo definicjami (m.in. ICRU, IAEA). LDR, low dose rate, klasycznie obejmuje zakres poniżej 2 Gy/h. To są dawne metody z zastosowaniem igieł, nasion czy drutów o małej aktywności, w których pacjent bywał hospitalizowany przez kilkadziesiąt godzin, a nawet kilka dni. Moc dawki jest tam na tyle niska, że skutki biologiczne są inne niż przy HDR czy MDR, co przekłada się na inne modele radiobiologiczne i inne schematy leczenia. Wrzucenie zakresu 2–12 Gy/h do LDR powoduje rozmycie tej granicy i psuje logikę podziału: LDR <2 Gy/h, MDR 2–12 Gy/h, HDR >12 Gy/h. Osobną kategorią jest PDR – pulsed dose rate. Technicznie wykorzystuje się tu sprzęt HDR, ale dawka jest podawana w krótkich impulsach, najczęściej co godzinę, tak żeby średnia dawka w czasie przypominała klasyczną brachyterapię LDR. To jest trochę „symulowanie LDR impulsami HDR”. Dlatego PDR nie definiuje się przez ten zakres 2–12 Gy/h, tylko przez sposób frakcjonowania dawki i średnią moc w dłuższym okresie. Mylenie PDR z konkretnym przedziałem Gy/h wynika często z tego, że ktoś zapamięta tylko nazwę, a nie koncepcję biologiczną stojącą za tą techniką. Moim zdaniem warto podejść do tego schematycznie: trzy zakresy liczbowo (LDR, MDR, HDR) plus PDR jako szczególna metoda, która stara się łączyć zalety LDR z wygodą aparatury HDR. Jak już to się ułoży w głowie, takie pytania przestają być problemem, bo od razu widać, że 2–12 Gy/h to musi być MDR.

Pytanie 17

W badaniu PET CT wykorzystuje się radioizotopy emitujące promieniowanie

A. beta plus.
B. beta minus.
C. alfa.
D. gamma.
W PET/CT bardzo łatwo pomylić się, bo na pierwszy rzut oka wydaje się, że skoro urządzenie rejestruje promieniowanie gamma, to używa się izotopów gamma. I tu jest ten typowy błąd myślowy: mylimy to, co emituje radioizotop, z tym, co w końcu rejestruje detektor. W PET kluczowy jest emiter beta plus, czyli taki radionuklid, który w swoim rozpadzie wytwarza pozyton. Pozyton to antycząstka elektronu, naładowana dodatnio. Po krótkim torze w tkance pozyton zderza się z elektronem i dopiero wtedy dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV. Detektory PET nie rejestrują więc bezpośrednio rozpadu beta, tylko produkty anihilacji. Promieniowanie alfa nie ma tu w ogóle zastosowania – cząstki alfa mają bardzo mały zasięg w tkankach i są silnie jonizujące, przez co kompletnie nie nadają się do obrazowania tomograficznego całego ciała. Stosuje się je czasem w terapii izotopowej, ale nie w PET. Emiter beta minus też nie pasuje, bo w tym rozpadzie powstaje elektron, a nie pozyton. Elektron nie anihiluje z elektronem, tylko traci energię w ośrodku przez jonizację i hamowanie, więc nie generuje tych charakterystycznych dwóch fotonów 511 keV pod kątem 180°. Tego rodzaju izotopy wykorzystuje się głównie w terapii (np. 90Y, 131I), ewentualnie w innych typach badań, ale nie w klasycznym PET. Często zdarza się też, że ktoś odpowiada „gamma”, bo kojarzy, że w medycynie nuklearnej jest gammakamera i scyntygrafia. Tam faktycznie używa się emiterów gamma, ale to jest SPECT, a nie PET. PET opiera się właśnie na fizyce anihilacji pozyton–elektron. Moim zdaniem warto sobie to poukładać tak: do ciała zawsze podajemy emiter beta plus, a urządzenie rejestruje pary fotonów gamma po anihilacji. Jak zapamiętasz ten ciąg zdarzeń, to podobne pytania przestają być problemem.

Pytanie 18

Planowany obszar napromieniania PTV obejmuje

A. wyłącznie obszar napromieniania guza.
B. guz w płucach bez marginesów.
C. obszar napromieniania guza wraz z marginesami.
D. guz w mózgu bez marginesów.
Planowany obszar napromieniania PTV (Planning Target Volume) to w radioterapii pojęcie bardzo konkretne i wbrew pozorom wcale nie chodzi tylko o sam guz. PTV zawsze obejmuje obszar napromieniania guza wraz z odpowiednimi marginesami bezpieczeństwa. Te marginesy dodaje się po to, żeby skompensować wszystkie możliwe niepewności: drobne przesunięcia pacjenta, ruchy narządów (np. oddech, perystaltyka), różnice w ułożeniu z dnia na dzień, a nawet nieidealną powtarzalność ustawień aparatu. W standardach ICRU (np. ICRU 50, 62) wyróżnia się kilka objętości: GTV (gross tumor volume – widoczny guz), CTV (clinical target volume – guz + mikroskopowe szerzenie) i dopiero na CTV nakłada się marginesy, tworząc PTV. Czyli PTV to nie „to co widać”, tylko „to co chcemy na pewno pokryć dawką mimo wszystkich odchyłek”. W praktyce, przy planowaniu w TPS (system planowania leczenia), fizyk medyczny i lekarz radioterapeuta definiują GTV i CTV na obrazach TK/MR, a następnie automatycznie lub ręcznie generują marginesy, np. 5–10 mm, uzależnione od lokalizacji, stabilizacji pacjenta i techniki (IMRT, VMAT, stereotaksja). W nowoczesnych technikach IGRT marginesy czasem można zmniejszać, ale nigdy nie rezygnuje się z nich całkowicie, bo to byłoby wbrew zasadom bezpieczeństwa onkologicznego. Moim zdaniem kluczowe jest zapamiętanie: PTV = objętość kliniczna + marginesy na błędy ustawienia i ruch, a nie sam guz. Dzięki temu dawka terapeutyczna realnie trafia tam, gdzie ma trafić, a ryzyko niedonapromienienia fragmentu guza jest dużo mniejsze.

Pytanie 19

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. cząsteczkowym pochodzącym z akceleratora.
B. ze źródeł umieszczonych tylko na skórze pacjenta.
C. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
D. fotonowym pochodzącym z akceleratora.
Prawidłowo – istota brachyterapii polega właśnie na tym, że źródła promieniowania jonizującego umieszcza się w bezpośrednim sąsiedztwie guza albo wręcz w samych napromienianych tkankach. Dzięki temu dawka jest bardzo wysoka w objętości nowotworu, a bardzo szybko spada w miarę oddalania się od źródła. To jest kluczowa zaleta tej metody w porównaniu z teleradioterapią, gdzie promieniowanie dociera z zewnątrz, z dużej odległości (z akceleratora liniowego). W praktyce klinicznej stosuje się różne techniki brachyterapii: śródtkankową (np. przy rakach prostaty, języka, piersi – igły lub implanty z izotopem wprowadzane w guz), śródjamową (np. rak szyjki macicy, endometrium – aplikatory w jamie macicy lub pochwie) czy powierzchowną, gdy źródło jest tuż przy skórze. Najczęściej używane są źródła irydu-192 (HDR, PDR) lub jodu-125, cezu-137, palladu-103, w zależności od wskazań. Planowanie brachyterapii odbywa się na podstawie badań obrazowych (TK, MR, czasem USG), a system planowania dawki dokładnie wylicza rozkład izodoz wokół źródeł. Zgodnie ze standardami radioterapii onkologicznej (np. wytyczne ESTRO, ICRU) bardzo ważne jest precyzyjne pozycjonowanie aplikatorów oraz kontrola ich położenia przed napromienianiem, bo nawet niewielkie przesunięcie może zmienić rozkład dawki w krytycznych narządach. Moim zdaniem warto zapamiętać jedno: brachyterapia = źródło promieniowania blisko guza, wysoka dawka lokalnie, oszczędzenie tkanek zdrowych. To właśnie odróżnia ją od „klasycznego” napromieniania z akceleratora.

Pytanie 20

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. impulsem inwersji 180° a czasem powstania sygnału (echa).
B. dwoma kolejnymi impulsami pobudzającymi RF180°.
C. impulsem inwersji 90° a czasem powstania sygnału (echa).
D. dwoma kolejnymi impulsami pobudzającymi RF90°.
Czas repetycji TR w rezonansie magnetycznym jest jednym z tych parametrów, które łatwo pomylić z innymi, zwłaszcza jeśli ktoś dopiero zaczyna ogarniać sekwencje impulsowe. Podstawowy błąd myślowy polega na tym, że każda sekwencja ma różne impulsy RF, więc część osób automatycznie łączy TR z dowolnym impulsem, który kojarzy się z powstaniem echa. Tymczasem definicja jest dość precyzyjna: TR odnosi się do odstępu między kolejnymi impulsami pobudzającymi RF o kącie 90°, a nie 180° ani impulsami inwersyjnymi. Impulsy RF180° w klasycznych sekwencjach spin-echo służą głównie do refokusa magnetyzacji poprzecznej i wygenerowania echa spinowego. Odstęp czasu związany z powstaniem echa opisuje się parametrem TE (time to echo), a nie TR. Łatwo tu poplątać pojęcia: ktoś widzi na schemacie impuls 90°, potem 180° i myśli, że TR dotyczy tych dwóch impulsów albo dwóch kolejnych impulsów 180°. W rzeczywistości TR w ogóle nie jest zdefiniowany przez impuls 180°, tylko przez kolejne cykle pobudzenia, czyli kolejne „starty” akwizycji, które są inicjowane impulsem 90°. Jeszcze inny kierunek pomyłki dotyczy sekwencji inwersyjno-odtworzeniowych (IR). W nich pojawia się impuls 180° inwersyjny, a potem po określonym czasie TI (czas inwersji) dopiero impuls 90° i echa. Niektórzy mylą TI z TR i zakładają, że TR to odstęp od impulsu 180° do echa. W standardowej terminologii MR ten czas nazywamy TI, a TR nadal liczymy między kolejnymi impulsami pobudzającymi 90°. To rozróżnienie jest ważne, bo każdy z tych parametrów ma inne znaczenie kliniczne: TR kontroluje głównie nasycenie T1, TE – wrażliwość na T2, a TI – stopień tłumienia określonych tkanek (np. płynu w FLAIR, tłuszczu w STIR). Jeśli pomylimy te definicje, łatwo później źle interpretować protokoły producenta, nieprawidłowo modyfikować sekwencje i w efekcie uzyskiwać obrazy o nieoczekiwanym kontraście. Moim zdaniem warto sobie raz porządnie narysować schemat sekwencji i podpisać TR, TE oraz TI, wtedy te pojęcia naprawdę siadają w głowie i nie mieszają się przy pracy na konsoli.

Pytanie 21

Jakie są wielkości mocy dawki stosowanej w brachyterapii HDR?

A. 3 – 6 Gy/godzinę.
B. 0,4 – 2 Gy/godzinę.
C. ponad 12 Gy/godzinę.
D. 7 – 12 Gy/godzinę.
W brachyterapii często myli się pojęcie dawki całkowitej z mocą dawki, a to prowadzi do błędnych skojarzeń co do prawidłowych zakresów liczbowych. Zakresy 0,4–2 Gy/godz., 3–6 Gy/godz. czy 7–12 Gy/godz. kojarzą się intuicyjnie z „umiarkowanym” lub „średnim” tempem napromieniania, ale w klasyfikacji brachyterapii one nie definiują HDR. Zgodnie z powszechnie przyjętymi standardami, m.in. ICRU i zaleceniami towarzystw radioterapeutycznych, za brachyterapię HDR uznaje się technikę, w której moc dawki przekracza 12 Gy na godzinę. Niższe wartości mocy dawki odpowiadają innym kategoriom: w okolicy 0,4–2 Gy/godz. mówimy o LDR (Low Dose Rate), czyli napromienianiu trwającym wiele godzin lub nawet dni, często ze stałym źródłem umieszczonym w ciele pacjenta. Zakresy pośrednie, kilka Gy/godz., nie są typową definicją HDR, lecz raczej obszarem między klasycznym LDR a technikami średniej mocy dawki, które w praktyce klinicznej nie są tak często używane jako osobna kategoria. Częsty błąd polega na tym, że ktoś patrzy na liczby i myśli: „3–6 Gy/godz. to już jest dość dużo, więc pewnie HDR”, albo „7–12 Gy/godz. brzmi jak wysoka dawka, więc to musi być HDR”. Tymczasem granica jest umowna, ale jasno ustalona na poziomie ponad 12 Gy/godz. i jest stosowana w literaturze oraz w dokumentacji klinicznej. Z mojego doświadczenia wynika, że jeśli nie odróżnimy mocy dawki od dawki frakcyjnej, łatwo w głowie pomieszać te zakresy. W HDR bardzo ważne jest to, że wysoką dawkę frakcyjną podaje się w krótkim czasie, przy użyciu zdalnego afterloadingu, z odpowiednimi procedurami ochrony radiologicznej. Przy niższych mocach dawki priorytety organizacyjne, sposób monitorowania pacjenta i ryzyko dla personelu wyglądają inaczej. Dlatego wybór jednej z niższych odpowiedzi świadczy raczej o intuicyjnym niż o definicyjnym podejściu do tematu i warto ten próg >12 Gy/godz. zapamiętać jako element podstawowej klasyfikacji brachyterapii.

Pytanie 22

Z kratką przeciwrozproszeniową należy wykonać zdjęcie

A. stawu łokciowego.
B. stopy.
C. łopatki.
D. stawu kolanowego w pozycji leżącej.
Prawidłowo – łopatkę standardowo wykonuje się z użyciem kratki przeciwrozproszeniowej. Wynika to głównie z grubości i budowy anatomicznej tej okolicy. Obręcz barkowa jest stosunkowo masywna, zawiera dużo struktur kostnych i tkanek miękkich, a promień centralny przechodzi przez obszar o efektywnej grubości zwykle powyżej 10 cm. Przy takiej grubości wytwarza się duża ilość promieniowania rozproszonego (głównie rozpraszanie Comptona), które degraduje kontrast obrazu. Kratka przeciwrozproszeniowa ma za zadanie „wyciąć” promieniowanie rozproszone, które pada na detektor pod innym kątem niż wiązka pierwotna. Dzięki temu obraz łopatki staje się wyraźniejszy, struktury kostne są lepiej odgraniczone od tkanek miękkich, a możliwość oceny zarysów, wyrostków czy stawów (ramienno‑łopatkowego, barkowo‑obojczykowego) jest zdecydowanie większa. W praktyce klinicznej przyjmuje się prostą zasadę: jeżeli badany odcinek ma grubość powyżej ok. 10–12 cm lub wymaga wyższego kV, to kratka jest wskazana. Dotyczy to m.in. badań miednicy, kręgosłupa, mostka, klatki piersiowej w pozycji leżącej i właśnie łopatki. Bez kratki obraz byłby „zamglony”, o niskim kontraście, z utratą szczegółów beleczkowania kostnego. Warto też pamiętać, że zastosowanie kratki zwykle wymaga zwiększenia mAs (tzw. współczynnik Bucky’ego), co przekłada się na nieco wyższą dawkę, ale w tym przypadku jest to uzasadnione zasadą optymalizacji – lepsza jakość diagnostyczna przy akceptowalnym narażeniu pacjenta. W wielu pracowniach jest to wręcz standard procedury – projekcje łopatki i obręczy barkowej wykonuje się rutynowo z kratką, niezależnie od tego, czy to projekcja AP, Y‑scapula czy inne ustawienia specjalne.

Pytanie 23

Zarejestrowany na obrazie TK artefakt jest spowodowany

Ilustracja do pytania
A. wysokim stężeniem środka cieniującego.
B. nieliniowym osłabieniem wiązki.
C. metalowym implantem.
D. ruchem mimowolnym.
Prawidłowo powiązałeś obraz z obecnością metalowego implantu. Na przedstawionym skanie TK widoczny jest bardzo typowy artefakt metaliczny: centralny, ekstremalnie jasny obszar (wysoka gęstość, wartości HU wykraczające poza skalę) oraz promieniste smugi i pasma wychodzące na zewnątrz. To tzw. streak artifacts. Metal bardzo silnie pochłania promieniowanie rentgenowskie, przez co detektory rejestrują skrajne wartości sygnału, a algorytm rekonstrukcji obrazu „gubi się” i tworzy te charakterystyczne smugi. Z mojego doświadczenia, tak wygląda np. endoproteza, śruba kostna, proteza stawu, czasem klips naczyniowy – zawsze coś metalowego o dużej gęstości. W praktyce technik TK powinien od razu kojarzyć taki obraz z metalem w polu badania i wiedzieć, że może to istotnie utrudniać ocenę struktur sąsiednich. Standardem jest wtedy stosowanie technik redukcji artefaktów: odpowiednie ułożenie pacjenta, dobór wyższej kV, włączenie algorytmów MAR (Metal Artifact Reduction) w konsoli, czasem rekonstrukcja iteracyjna lub dual-energy CT. Warto pamiętać, że artefakty od ruchu wyglądają inaczej – dają rozmycie, podwójne kontury, ząbkowanie krawędzi, a nie ostre, promieniste smugi wychodzące z jednego bardzo gęstego punktu. Również wysoki kontrast jodowy zwykle nie powoduje aż tak dramatycznych smug, choć może dawać tzw. blooming. W nowoczesnych protokołach TK zawsze uwzględnia się obecność metalu, bo ma to wpływ na dawkę, jakość obrazu i sposób interpretacji – radiolog musi wiedzieć, że część zmian może być zwyczajnie „ukryta” w artefaktach metalicznych. Moim zdaniem to jedno z ważniejszych rozpoznań artefaktu, bo występuje bardzo często w praktyce szpitalnej, szczególnie na ortopedii i neurochirurgii.

Pytanie 24

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. elektrony atomów tlenu.
B. elektrony atomów wodoru.
C. protony atomów wodoru.
D. protony atomów tlenu.
Prawidłowo wskazane zostały protony atomów wodoru, czyli dokładnie to, na czym opiera się klasyczna metoda rezonansu magnetycznego wykorzystywana w medycynie. W obrazowaniu MR wykorzystuje się zjawisko jądrowego rezonansu magnetycznego (NMR). W praktyce oznacza to, że w silnym polu magnetycznym jądra wodoru (protony) ustawiają się zgodnie lub przeciwnie do kierunku pola. Następnie aparat wysyła fale radiowe (impuls RF), które wybijają te protony z ich równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego i w tym procesie emitują sygnał, który jest rejestrowany przez cewki odbiorcze. To właśnie ten sygnał jest potem przeliczany komputerowo na obraz przekrojowy ciała. W tkankach ludzkiego organizmu jest bardzo dużo wody i tłuszczu, a więc bardzo dużo atomów wodoru – dlatego MR jest tak czuły na różnice w nawodnieniu i składzie tkanek. W praktyce klinicznej wykorzystuje się to np. do oceny zmian w mózgu (udar, stwardnienie rozsiane), stawach, kręgosłupie, narządach jamy brzusznej. Różne sekwencje (T1, T2, PD, FLAIR, DWI itd.) bazują cały czas na tym samym zjawisku: relaksacji protonów wodoru i różnicach w czasach relaksacji T1 i T2 w różnych tkankach. Z mojego doświadczenia, jak raz się zrozumie, że MR „słucha” protonów wodoru w polu magnetycznym, to dużo łatwiej ogarnąć, dlaczego metal w ciele pacjenta jest problemem, czemu ważne jest jednorodne pole magnetyczne i czemu obecność wody w tkankach tak mocno wpływa na kontrast obrazu. To jest absolutna podstawa fizyki rezonansu, którą warto mieć dobrze poukładaną, bo przewija się wszędzie w diagnostyce obrazowej.

Pytanie 25

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Środki na bazie siarczanu baru.
B. Jodowe, rozpuszczalne w wodzie.
C. Jodowe, nierozpuszczalne w wodzie.
D. Środki na bazie gadolinu.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 26

Jakie źródła promieniowania stosowane są w brachyterapii?

A. Otwarte emitujące tylko promieniowanie cząsteczkowe.
B. Zamknięte emitujące tylko promieniowanie cząsteczkowe.
C. Zamknięte emitujące promieniowanie cząsteczkowe i fotonowe.
D. Otwarte emitujące promieniowanie cząsteczkowe i fotonowe.
Wątpliwości wokół tego pytania zwykle wynikają z mieszania pojęć z medycyny nuklearnej i radioterapii. W brachyterapii kluczowe jest to, że stosuje się źródła promieniowania zamknięte, a nie otwarte. Źródło otwarte to takie, które może się przemieszczać, rozlać, być wchłonięte do organizmu – typowy przykład to radiofarmaceutyki podawane dożylnie czy doustnie w medycynie nuklearnej, np. jod-131 w leczeniu tarczycy. W brachyterapii byłoby to kompletnie niepraktyczne i niebezpieczne, bo celem jest bardzo precyzyjne, geometrycznie stabilne napromienianie guza, a nie ogólne rozprowadzenie izotopu po całym organizmie. Dlatego odpowiedzi sugerujące „źródła otwarte” wynikają raczej z automatycznego skojarzenia: promieniowanie jonizujące = radioizotopy podawane pacjentowi. Tutaj jest odwrotnie, izotop jest zamknięty w aplikatorze, igle czy kapsule. Druga pułapka dotyczy typu emitowanego promieniowania. Część osób sądzi, że w brachyterapii stosuje się tylko promieniowanie cząsteczkowe, bo kojarzą igły czy druty z jakąś formą „bombardowania” cząstkami. Tymczasem większość klasycznych źródeł brachyterapeutycznych emituje przede wszystkim promieniowanie fotonowe (gamma, czasem X), a promieniowanie cząsteczkowe, jeśli występuje, ma zwykle mniejszy zasięg i inne znaczenie kliniczne. Z punktu widzenia planowania dawki i algorytmów w systemach TPS istotne jest znane widmo fotonów oraz geometryczna konfiguracja zamkniętego źródła, a nie swobodne rozprzestrzenianie się radioizotopu. Mylenie tego z terapią izotopową w medycynie nuklearnej prowadzi do wniosku, że wystarczą „otwarte” źródła, co byłoby sprzeczne z zasadami ochrony radiologicznej, przepisami prawa i praktyką kliniczną. Standardy radioterapii (np. wytyczne ESTRO, IAEA) jasno podkreślają, że brachyterapia opiera się na szczelnych, kontrolowanych źródłach zamkniętych, które można bezpiecznie przechowywać w afterloaderze, precyzyjnie pozycjonować i okresowo testować pod kątem szczelności i aktywności. Dlatego odpowiedzi ograniczające się tylko do promieniowania cząsteczkowego lub mówiące o źródłach otwartych po prostu nie odzwierciedlają realnej technologii używanej w nowoczesnych pracowniach brachyterapii.

Pytanie 27

W diagnostyce metodą rezonansu magnetycznego biorą udział

A. jądra wapnia.
B. protony wodoru.
C. elektrony wapnia.
D. elektrony wodoru.
W rezonansie magnetycznym bardzo łatwo pomylić, które cząstki rzeczywiście biorą udział w tworzeniu obrazu, bo w organizmie mamy jądra, elektrony, różne pierwiastki i to wszystko na pierwszy rzut oka wydaje się mieć znaczenie. Tymczasem fizyka MR opiera się głównie na jądrze wodoru, czyli pojedynczym protonie, a nie na elektronach ani na jądrach cięższych pierwiastków, takich jak wapń. Jądra wapnia są obecne w kościach, ale mają zupełnie inne właściwości magnetyczne i w dodatku dużo mniejszą „przydatność” w typowych klinicznych aparatach MR. Kość korowa zawierająca dużo wapnia praktycznie nie daje sygnału w standardowych sekwencjach, dlatego na obrazach MR wygląda zwykle bardzo ciemno. Gdyby to jądra wapnia były podstawą obrazowania, widzielibyśmy kości świetnie, a tkanki miękkie dużo gorzej, a jest dokładnie odwrotnie. Elektrony, zarówno w wapniu, jak i w wodorze, mają co prawda własny moment magnetyczny, ale rezonans elektronowy (EPR/ESR) to zupełnie inna technika, używana raczej w badaniach fizycznych i chemicznych, a nie w rutynowej diagnostyce medycznej. Aparaty kliniczne MR są projektowane pod częstotliwości rezonansowe jąder wodoru, a nie elektronów. To jest podstawowy błąd myślowy: założenie, że skoro elektrony też „reagują” na pole magnetyczne, to one muszą być obrazowane. W praktyce w medycynie używamy jądrowego rezonansu magnetycznego jąder o spinie niezerowym, głównie 1H, bo wodór jest w każdej tkance w ogromnej ilości. Elektrony są dla nas bardziej tłem fizycznym niż użytecznym sygnałem. Kolejne nieporozumienie dotyczy samego wapnia: kości są świetnie widoczne w RTG i TK, więc ktoś może intuicyjnie przenosić to skojarzenie na MR. Jednak RTG i TK bazują na osłabianiu promieniowania jonizującego, a nie na właściwościach magnetycznych jąder. W MR liczy się gęstość protonów wodoru i czasy relaksacji w środowisku wodnym, dlatego to tkanki miękkie, mózg, mięśnie, narządy miąższowe wyglądają tak dobrze, a struktury silnie zmineralizowane są ciemne. Z mojego doświadczenia warto sobie to poukładać: MR = protony wodoru w polu magnetycznym + fale radiowe; RTG/TK = promieniowanie jonizujące i pochłanianie przez różne tkanki. Takie rozdzielenie pomaga unikać mylenia roli elektronów czy jąder wapnia z faktycznym mechanizmem działania rezonansu magnetycznego.

Pytanie 28

W radiografii mianem SID określa się

A. system automatycznej regulacji jasności.
B. odległość między obiektem badanym a detektorem obrazu.
C. system automatycznej kontroli ekspozycji.
D. odległość między źródłem promieniowania a detektorem obrazu.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 29

Elementem pomocniczym w radioterapii, zapewniającym powtarzalność ułożenia w pozycji terapeutycznej, a także unieruchomienie pacjenta, jest

A. osłona.
B. filtr kompensacyjny.
C. bolus.
D. maska termoplastyczna.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione elementy pojawiają się na oddziale radioterapii, ale pełnią zupełnie różne funkcje. Typowy błąd polega na tym, że skoro coś leży na pacjencie albo przy nim, to automatycznie traktujemy to jako „unieruchomienie”. W radioterapii przyjmuje się jednak dość ścisły podział między systemami pozycjonowania i unieruchomienia a akcesoriami do modyfikacji wiązki promieniowania. Bolus to materiał nakładany na skórę, zwykle o gęstości zbliżonej do tkanek miękkich. Jego zadaniem jest przesunięcie maksimum dawki bliżej powierzchni ciała, np. przy guzach skóry, bliznach pooperacyjnych czy w okolicy klatki piersiowej. On w ogóle nie ma zapewniać stabilnego ułożenia pacjenta, tylko zmienia profil głębokościowy dawki. Oczywiście trochę „dociska” skórę, ale to jest efekt uboczny, a nie cel kliniczny. Podobnie jest z filtrami kompensacyjnymi – to specjalnie zaprojektowane wkładki z metalu lub innych materiałów, które umieszcza się w głowicy aparatu lub w torze wiązki, żeby wyrównać rozkład dawki w polu napromieniania, np. przy nierównym profilu tkanek (klatka piersiowa, kończyny). One w ogóle nie dotykają pacjenta, więc nie mogą wpływać na jego unieruchomienie. Osłony z kolei kojarzą się słusznie z ochroną: mogą to być indywidualne bloki ochronne, listki MLC, czasem dodatkowe ekranowanie narządów krytycznych. Ich rolą jest zmniejszenie dawki w wybranych obszarach, odcięcie fragmentu pola, ochrona zdrowych tkanek. To też jest modyfikacja wiązki, a nie pozycjonowanie. Moim zdaniem duży problem w nauce radioterapii polega właśnie na mieszaniu funkcji: co służy do kształtowania dawki, a co do ułożenia pacjenta. Do zapewnienia powtarzalności pozycji terapeutycznej stosuje się systemy unieruchomienia: maski termoplastyczne, materace próżniowe, kliny pod kolana, podpórki pod ramiona, systemy do piersi. To one są kluczowe dla precyzji i zgodności z planem leczenia. Jeśli w pytaniu pojawia się słowo „unieruchomienie” i „powtarzalność ułożenia”, warto od razu szukać właśnie takich indywidualnych systemów, a nie akcesoriów do modyfikacji wiązki.

Pytanie 30

Jaka jest odległość pomiędzy źródłem promieniowania a powierzchnią ciała pacjenta w technice izocentrycznej radioterapii?

A. Zmienna, zależna od lokalizacji punktu izocentrycznego w ciele pacjenta.
B. Zmienna, zależna od grubości pacjenta i rodzaju akceleratora.
C. Stała i wynosi 100 cm.
D. Stała i wynosi 110 cm.
Nieporozumienia w tym pytaniu biorą się najczęściej z mylenia dwóch pojęć: odległości źródło–skóra (SSD, source–skin distance) i odległości źródło–izocentrum (SID lub SAD, source–axis distance). W starszych, prostszych technikach radioterapii opartych na stałej SSD faktycznie często ustawiano pacjenta tak, aby odległość od źródła do powierzchni skóry wynosiła np. 100 cm. Stąd łatwo powstaje automatyczne skojarzenie, że „w radioterapii zawsze jest 100 cm” i że ta odległość jest stała. Jednak w technice izocentrycznej logika jest inna: stała ma być odległość od źródła do osi obrotu, czyli do izocentrum, a nie do skóry. Przekonanie, że odległość źródło–skóra jest zawsze 100 cm lub 110 cm, wynika często z pamiętania parametrów geometrycznych konkretnego akceleratora albo z uproszczonych schematów z podręcznika. Rzeczywiście, wiele akceleratorów ma zdefiniowaną stałą odległość źródło–izocentrum, np. 100 cm, i czasami studenci przenoszą to bezrefleksyjnie na powierzchnię ciała. Problem w tym, że powierzchnia pacjenta nie pokrywa się z izocentrum – pacjent ma swoją grubość, różne krzywizny, garby kostne, tkankę tłuszczową. Gdy izocentrum planuje się głęboko, np. w guzie płuca czy w miednicy, to geometrycznie nie ma możliwości, żeby jednocześnie utrzymać stałą odległość do skóry i stałą odległość do izocentrum. Zdarza się też inny błąd myślowy: ktoś zakłada, że odległość zależy głównie od „grubości pacjenta i rodzaju akceleratora”. Oczywiście, grubość ciała wpływa na to, jaka faktycznie wyjdzie SSD, a konstrukcja akceleratora narzuca pewne minimalne i maksymalne odległości, ale to nie jest parametr, który świadomie ustawiamy jako stały w technice izocentrycznej. W tej technice celem jest ustawienie punktu izocentrycznego w odpowiednim miejscu w ciele, zgodnie z planem leczenia. To lokalizacja tego punktu – w guzie, w PTV – decyduje, jak daleko od głowicy będzie leżała skóra w danym polu i kącie gantry. Innymi słowy: to geometria ustawienia izocentrum względem anatomii pacjenta robi całą robotę, a nie sama grubość czy typ maszyny. Moim zdaniem warto zapamiętać pewną prostą zasadę praktyczną: jeśli mówimy o technice izocentrycznej, to myślimy w kategoriach „stałe SAD, zmienne SSD”. Wtedy łatwiej uniknąć pokusy przyklejania się do magicznych liczb 100 cm czy 110 cm jako czegoś niezmiennego. W nowoczesnych standardach radioterapii, zwłaszcza przy IMRT, VMAT, stereotaksji, planowanie zawsze obraca się wokół izocentrum i objętości tarczowych, a nie wokół odległości od skóry. To podejście jest po prostu bardziej precyzyjne i bezpieczne dla pacjenta.

Pytanie 31

W ultrasonografii występuje zależność:

A. im wyższa rozdzielczość, tym głębsza penetracja wiązki.
B. im wyższa częstotliwość, tym głębsza penetracja wiązki.
C. im wyższa częstotliwość, tym płytsza penetracja wiązki.
D. im wyższa częstotliwość, tym gorsza rozdzielczość.
Prawidłowa odpowiedź opiera się na podstawowej zasadzie fizyki ultradźwięków: im wyższa częstotliwość fali USG, tym silniejsze jest jej tłumienie w tkankach, a więc tym płytsza jest efektywna penetracja wiązki. Fala o wysokiej częstotliwości oddaje więcej energii po drodze – jest bardziej pochłaniana i rozpraszana, więc szybciej „gaśnie” w głębszych strukturach. Dlatego głowice 10–15 MHz używane są do badania tkanek powierzchownych, jak tarczyca, piersi, moszna czy naczynia w USG dopplerowskim, a do jamy brzusznej, nerek czy narządów miednicy typowo stosuje się 3–5 MHz, żeby dotrzeć głębiej. Moim zdaniem to jest jedna z kluczowych zależności, które trzeba mieć w głowie przy każdym doborze głowicy i ustawień aparatu. Wyższa częstotliwość daje lepszą rozdzielczość osiową i boczną – można zobaczyć drobniejsze szczegóły, lepiej odróżnić granice między tkankami, dokładniej ocenić ścianę naczynia czy grubość skóry. Ceną za to jest jednak mniejsza głębokość obrazowania. W codziennej praktyce wygląda to tak, że operator balansuje między rozdzielczością a penetracją: jeśli obraz w głębi jest zbyt słaby, obniża częstotliwość; jeśli bada strukturę leżącą płytko, podkręca częstotliwość, żeby zyskać szczegółowość. W większości zaleceń i podręczników do ultrasonografii ta zasada jest podkreślana jako standard dobrej praktyki: dobór częstotliwości powinien być zawsze dopasowany do głębokości badanej struktury i budowy pacjenta (np. u osób otyłych z reguły schodzi się z częstotliwością niżej). Dobrze jest też pamiętać, że sama regulacja „depth” na aparacie nie zastąpi właściwego wyboru częstotliwości – to dwie różne rzeczy technicznie i fizycznie.

Pytanie 32

Który artefakt jest widoczny na skanie tomografii komputerowej?

Ilustracja do pytania
A. Elektrostatyczny.
B. Ruchowy.
C. Metaliczny.
D. Utwardzonej wiązki.
Na przedstawionym skanie TK widać bardzo charakterystyczny artefakt metaliczny: od jasnego, silnie pochłaniającego struktury (materiał metaliczny – np. śruba, stabilizacja, klips) odchodzą promieniste smugi i pasma o bardzo wysokiej i bardzo niskiej gęstości (przepalenia i wyciemnienia). To klasyczny obraz tzw. streak artifacts związanych z obecnością metalu w polu obrazowania. Metal ma bardzo wysoki współczynnik pochłaniania promieniowania rentgenowskiego, powoduje nasycenie detektorów, zjawisko częściowego objętościowania i silne utwardzenie wiązki, ale w praktyce w diagnostyce TK takie zjawisko określa się właśnie jako artefakt metaliczny. Moim zdaniem warto zapamiętać, że jeśli na obrazie TK widzisz gwiaździste smugi wychodzące z jasnego, „przepalonego” implantu albo cementu kostnego, to praktycznie zawsze mówimy o artefakcie metalicznym. W codziennej pracy technika obrazowania stosuje się różne metody jego redukcji: zwiększenie kV, węższe pole obrazowania, algorytmy MAR (Metal Artifact Reduction), rekonstrukcję iteracyjną, a także cienkie warstwy i odpowiedni dobór okna. W wielu pracowniach, zgodnie z aktualnymi zaleceniami producentów i standardami dobrej praktyki, przed badaniem TK dokładnie dokumentuje się obecność implantów metalowych, a w protokole badań ustawia się specjalne programy „post-op spine”, „hip prosthesis” itp. Pozwala to ograniczyć wpływ metalu na ocenę tkanek sąsiednich, np. kanału kręgowego czy struktur naczyniowych. Z mojego doświadczenia im lepiej technik rozumie mechanizm powstawania artefaktu metalicznego, tym sprawniej dobiera parametry ekspozycji oraz rekonstrukcji, tak żeby lekarz radiolog dostał obraz możliwie czytelny mimo obecności metalu.

Pytanie 33

Która właściwość promieniowania X pozwala na skierowanie promienia centralnego na wybrany punkt topograficzny podczas wykonywania badania radiologicznego?

A. Przenikliwość różnego stopnia.
B. Różnica w pochłanianiu przez różne substancje.
C. Prostoliniowe rozchodzenie się.
D. Wywoływanie zjawiska fotoelektrycznego.
W tym pytaniu łatwo się pomylić, bo wszystkie podane cechy promieniowania X są prawdziwe, ale tylko jedna z nich ma bezpośredni związek z celowaniem promieniem centralnym w konkretny punkt na ciele pacjenta. Właściwość opisana jako przenikliwość różnego stopnia dotyczy zdolności fotonów rentgenowskich do przechodzenia przez tkanki o różnej gęstości i liczbie atomowej. Jest to fundament kontrastu obrazowego – dzięki temu kości, płuca czy tkanki miękkie mają inną gęstość optyczną na zdjęciu. Jednak ta cecha nie mówi nic o kierunku biegu promieni, a więc nie pozwala na precyzyjne „nakierowanie” wiązki na wybrany punkt topograficzny. To, że promieniowanie przenika mniej lub bardziej, wpływa na jakość obrazu, dawkę i dobór kV, ale nie na samo ustawienie promienia centralnego w przestrzeni. Zjawisko fotoelektryczne jest kolejną ważną właściwością, ale bardziej z zakresu fizyki medycznej niż geometrii badania. Odpowiada ono za pochłanianie promieniowania w tkankach i w detektorze, co przekłada się na kontrast i dawkę. Wysoki udział zjawiska fotoelektrycznego np. w kościach powoduje ich jasny obraz na kliszy lub detektorze cyfrowym. Jednak znowu – jest to proces zachodzący w skali mikroskopowej, związany z interakcją fotonu z elektronem, a nie z makroskopowym kierunkiem biegu wiązki w przestrzeni. Różnica w pochłanianiu przez różne substancje to w zasadzie opisowo to samo, co kontrast pochłaniania w tkankach: kość pochłania więcej, powietrze mniej, tkanka miękka coś pośrodku. To klucz do interpretacji zdjęcia, ale nie do ustawiania lampy względem pacjenta. Typowym błędem myślowym jest mieszanie „jak powstaje obraz” z „jak ustawiamy geometrię badania”. Celowanie promieniem centralnym, wybór projekcji, użycie wskaźnika świetlnego i kolimatora wynikają z prostoliniowego rozchodzenia się promieniowania X i zasad geometrii wiązki, natomiast pozostałe właściwości wpływają głównie na kontrast, ekspozycję i dawkę, a nie na sam kierunek promienia.

Pytanie 34

Teleterapia polega na napromienowaniu

A. promieniowaniem fotonowym lub cząsteczkowym ze źródeł zewnętrznych.
B. wyłącznie promieniowaniem fotonowym ze źródeł zewnętrznych.
C. promieniowaniem ze źródła umieszczonego w obrębie guza nowotworowego.
D. promieniowaniem ze źródła umieszczonego pod skórą pacjenta.
W tym pytaniu łatwo się pomylić, bo wszystkie odpowiedzi opisują jakąś formę napromieniania, ale tylko jedna dokładnie pasuje do definicji teleterapii. Podstawowy błąd, który często się pojawia, to mieszanie teleterapii z brachyterapią. Gdy mówimy o źródle promieniowania umieszczonym pod skórą pacjenta albo bezpośrednio w obrębie guza, to tak naprawdę opisujemy brachyterapię, a nie teleterapię. W brachyterapii źródło promieniowania znajduje się bardzo blisko guza albo wręcz w nim, co daje bardzo stromy spadek dawki w tkankach otaczających. Natomiast w teleterapii źródło jest zawsze poza ciałem, w aparacie, i wiązka musi przejść przez tkanki, żeby dotrzeć do celu. Kolejna pułapka to myślenie, że teleterapia to wyłącznie promieniowanie fotonowe. Historycznie kojarzy się ją z promieniowaniem gamma (np. z kobaltu) lub z promieniowaniem X z akceleratora liniowego, więc łatwo przyjąć, że chodzi tylko o fotony. Tymczasem współczesne standardy radioterapii wyraźnie zaliczają do teleterapii także napromienianie wiązkami cząstek, np. elektronami (stosowanymi do zmian powierzchownych) czy protonami i jonami ciężkimi (radioterapia protonowa, hadronowa). Kluczowe są tu dwa elementy: rodzaj promieniowania (fotonowe lub cząsteczkowe) oraz fakt, że pochodzi ono ze źródła zewnętrznego. Mylenie tych pojęć wynika często z uproszczonego skojarzenia: „źródło promieniowania = coś w środku pacjenta”, co jest prawdą tylko przy brachyterapii. W praktyce klinicznej bardzo ważne jest poprawne rozróżnienie tych technik, bo planowanie, ochrona radiologiczna, sposób unieruchomienia pacjenta, a nawet organizacja pracy działu radioterapii są inne dla tele- i brachyterapii. Moim zdaniem warto na spokojnie zapamiętać: teleterapia – źródło na zewnątrz, brachyterapia – źródło w ciele lub tuż przy guzie. To pomaga uniknąć takich nieporozumień w przyszłości i lepiej rozumieć wytyczne oraz opisy procedur w dokumentacji medycznej.

Pytanie 35

Fala głosowa rozchodzi się

A. w cieczach i próżni.
B. w gazach i próżni.
C. w gazach, cieczach i próżni.
D. w gazach i cieczach.
Poprawnie – fala głosowa, czyli fala akustyczna, w fizyce jest falą mechaniczną. To znaczy, że do swojego rozchodzenia się potrzebuje ośrodka materialnego, w którym cząsteczki mogą drgać i przekazywać energię dalej. Takim ośrodkiem mogą być gazy (np. powietrze), ciecze (np. woda) albo ciała stałe. W próżni nie ma cząsteczek, więc nie ma co drgać i klasyczna fala dźwiękowa po prostu nie może się tam rozchodzić. Dlatego odpowiedź „w gazach i cieczach” jest merytorycznie poprawna, chociaż warto pamiętać, że w rzeczywistości dźwięk rozchodzi się też w ciałach stałych. W praktyce medycznej i okołomedycznej ma to spore znaczenie. W audiometrii, badaniach słuchu czy przy kalibracji sprzętu do pomiaru hałasu zakłada się, że fala dźwiękowa biegnie głównie w powietrzu, czyli w gazie. Z kolei w ultrasonografii medycznej wykorzystujemy rozchodzenie się fal mechanicznych w tkankach, które fizycznie zachowują się jak różne ciecze i ciała stałe – stąd żel USG, żeby poprawić sprzężenie między głowicą a skórą, bo powietrze bardzo słabo przewodzi ultradźwięki. Moim zdaniem to jedno z tych prostych pytań, które później ułatwia zrozumienie, czemu np. badanie USG nie działa w powietrzu i czemu w kosmosie, w próżni, nie „słychać” eksplozji mimo że mogą emitować promieniowanie elektromagnetyczne. W dobrych praktykach technicznych zawsze rozróżniamy fale mechaniczne (wymagające ośrodka, jak dźwięk) od fal elektromagnetycznych (np. promieniowanie RTG, radiowe), które mogą iść w próżni.

Pytanie 36

Elementem systemu rejestracji obrazu, w którym fotony promieniowania X są bezpośrednio konwertowane na sygnał elektryczny, jest

A. błona halogenosrebrowa.
B. płyta luminoforowa.
C. detektor z amorficznym selenem.
D. detektor z jodkiem cezu.
Prawidłowo wybrany detektor z amorficznym selenem to klasyczny przykład tzw. bezpośredniej detekcji promieniowania X. W takim układzie fotony promieniowania rentgenowskiego są pochłaniane bez udziału pośredniego świecenia (bez etapu emisji światła widzialnego), a ich energia jest od razu zamieniana na ładunek elektryczny w warstwie półprzewodnika, właśnie amorficznego selenu (a-Se). Pod wpływem promieniowania w a-Se powstają pary elektron–dziura, które następnie są zbierane dzięki przyłożonemu polu elektrycznemu i rejestrowane przez matrycę cienkowarstwowych tranzystorów (TFT). Daje to bardzo dobrą rozdzielczość przestrzenną, co w praktyce świetnie sprawdza się np. w mammografii cyfrowej, gdzie liczy się widoczność drobnych mikrozwapnień i bardzo delikatnych struktur. W systemach bezpośrednich unika się rozmycia związanego z rozpraszaniem światła w luminoforze, dlatego krawędzie struktur są ostrzejsze, a obraz bardziej „czysty”. Z mojego doświadczenia to właśnie na detektorach z a-Se najłatwiej dostrzec subtelne różnice gęstości tkanek. W wielu zaleceniach producentów i wytycznych dotyczących jakości obrazów (np. w mammografii) podkreśla się znaczenie wysokiej rozdzielczości i niskiego szumu, co systemy z bezpośrednią konwersją bardzo dobrze zapewniają. W praktyce klinicznej technik zwykle nie widzi „gołego” selenu, tylko cały panel detektora, ale warto kojarzyć, że jeśli w opisie sprzętu jest mowa o direct conversion, direct digital radiography z a-Se, to właśnie chodzi o taki mechanizm: promieniowanie X → ładunek elektryczny, bez etapu świecenia. To jest podstawowa różnica wobec detektorów scyntylacyjnych z jodkiem cezu, które pracują w trybie pośrednim.

Pytanie 37

Kto jest odpowiedzialny za wykonywanie testów podstawowych kontroli jakości gammakamery w Zakładzie Medycyny Nuklearnej?

A. Lekarz radiolog z technikiem elektroradiologiem.
B. Technik elektroradiolog z inżynierem medycznym.
C. Lekarz radiolog z inspektorem ochrony radiologicznej.
D. Technik elektroradiolog z inspektorem ochrony radiologicznej.
Prawidłowo wskazano, że za wykonywanie testów podstawowych kontroli jakości gammakamery odpowiada duet: technik elektroradiolog oraz inżynier medyczny (często jest to również fizyk medyczny, ale organizacyjnie zwykle podchodzi to pod inżynierię medyczną). Wynika to z podziału kompetencji w Zakładzie Medycyny Nuklearnej i z obowiązujących wytycznych dotyczących zapewnienia jakości w diagnostyce izotopowej. Technik elektroradiolog zna procedury kliniczne, obsługę gammakamery, zasady przygotowania pacjenta i wykonywania badań scyntygraficznych. To on w praktyce uruchamia aparat, wykonuje codzienne testy podstawowe, np. jednorodności pola, sprawdzenie energii fotopiku, prostoliniowości, rozdzielczości przestrzennej przy użyciu odpowiednich fantomów. Inżynier medyczny odpowiada natomiast za stronę techniczną i fizyczną systemu: konfigurację detektorów, parametry pracy kolimatorów, oprogramowanie rekonstrukcyjne, serwisowanie aparatu, analizę wyników testów i ich dokumentację. W dobrych zakładach, z mojego doświadczenia, inżynier bardzo pilnuje trendów wyników testów, bo pozwala to wychwycić wczesne pogorszenie parametrów pracy gammakamery, zanim pacjentowe obrazy zaczną być zauważalnie gorsze. Standardy jakości, zarówno krajowe jak i międzynarodowe (np. zalecenia IAEA czy wytyczne EANM), podkreślają, że kontrola jakości w medycynie nuklearnej musi być prowadzona systematycznie, według ustalonych protokołów, z podziałem zadań pomiędzy personel medyczny i techniczny. To nie jest tylko formalność – poprawnie wykonywane testy podstawowe zmniejszają ryzyko błędnej diagnozy, niepotrzebnych powtórek badań, a także ograniczają narażenie pacjentów na zbędną dawkę promieniowania, bo badania są wykonywane prawidłowo już za pierwszym razem. W praktyce oznacza to, że technik i inżynier działają razem: technik robi pomiary, inżynier je ocenia, interpretuje i w razie potrzeby inicjuje serwis lub korektę parametrów urządzenia.

Pytanie 38

Proces chemicznego wywoływania radiogramów polega na

A. usunięciu z filmu bromku potasowego.
B. redukcji naświetlonych halogenków srebra na srebro metaliczne.
C. usunięciu z filmu naświetlonych halogenków srebra.
D. redukcji bromku potasowego na brom.
Prawidłowo wskazana odpowiedź dobrze oddaje istotę procesu chemicznego wywoływania radiogramów. W klasycznym filmie rentgenowskim warstwę światłoczułą stanowią halogenki srebra (najczęściej bromek srebra, czasem z domieszką jodku srebra), równomiernie rozmieszczone w emulsji żelatynowej. Po naświetleniu promieniowaniem X w tych ziarnach, które pochłonęły odpowiednią dawkę promieniowania, powstaje tzw. utajony obraz – zmienia się stan części jonów srebra, ale gołym okiem jeszcze nic nie widać. Dopiero w procesie wywoływania chemicznego dochodzi do kontrolowanej redukcji naświetlonych halogenków srebra do srebra metalicznego. Wywoływacz (najczęściej mieszanina substancji redukujących, np. metolu, hydrochinonu) oddaje elektrony jonom srebra w ziarnach, które zostały „pobudzone” przez promieniowanie. W efekcie tworzą się widoczne czarne ziarna srebra metalicznego, które budują właściwy obraz na radiogramie. Nienaświetlone ziarna pozostają w formie halogenków srebra i powinny zostać usunięte dopiero w kolejnym etapie – utrwalaniu. Moim zdaniem ważne jest, żeby kojarzyć: wywoływanie = redukcja naświetlonych kryształów, utrwalanie = wypłukanie reszty halogenków. W praktyce pracowni RTG poprawne przeprowadzenie procesu wywoływania (temperatura, czas, świeżość odczynników, prawidłowe pH) decyduje o kontraście i gęstości optycznej zdjęcia, a więc o tym, czy lekarz będzie w stanie zobaczyć subtelne złamanie, drobną zmianę zapalną czy początkowe zmiany nowotworowe. Zbyt krótkie wywoływanie da obraz zbyt jasny, zbyt długie – prześwietlony, z utratą szczegółów. Dlatego znajomość mechanizmu redukcji halogenków srebra na srebro metaliczne to nie jest tylko teoria, ale podstawa dobrej praktyki technika elektroradiologii, nawet dziś, gdy wiele pracowni przeszło na systemy cyfrowe, bo zasada obrazowania na filmie nadal bywa stosowana, np. w niektórych pracowniach stomatologicznych czy rezerwowych systemach analogowych.

Pytanie 39

Standardowo do wykonania których zdjęć należy zastosować kratkę przeciwrozproszeniową?

A. Czaszki i jamy brzusznej.
B. Jamy brzusznej i stawu łokciowego.
C. Czaszki i stawu skokowego.
D. Klatki piersiowej i nadgarstka.
Prawidłowa odpowiedź wskazuje na czaszkę i jamę brzuszną, co bardzo dobrze oddaje standardowe zasady stosowania kratki przeciwrozproszeniowej w klasycznej radiografii. Kratka (grid) jest potrzebna tam, gdzie mamy stosunkowo grubą część ciała i dużo tkanek miękkich, które generują silne promieniowanie rozproszone na skutek zjawiska Comptona. To rozproszenie psuje kontrast obrazu, powoduje „zamglenie” i utratę szczegółów. Moim zdaniem najłatwiej to zapamiętać tak: im grubsza i bardziej „miękka” anatomicznie okolica, tym większa szansa, że trzeba użyć kratki. W badaniach czaszki najczęściej używa się napięć rzędu 70–80 kV, a grubość struktur kostnych i części miękkich głowy jest na tyle duża, że ilość promieniowania rozproszonego jest istotna. Z mojego doświadczenia, bez kratki obraz byłby wyraźnie bardziej „płaski”, szczególnie przy ocenie struktur podstawy czaszki czy zatok. Podobnie w jamie brzusznej: mamy tam głównie tkanki miękkie, narządy miąższowe, gaz w jelitach, a ekspozycje są wykonywane na dość wysokich wartościach kV. To wszystko sprzyja powstawaniu rozproszenia, więc kratka przeciwrozproszeniowa jest tu praktycznie standardem w prawidłowo prowadzonej pracowni RTG. W dobrych praktykach zaleca się stosowanie kratki dla obszarów o grubości powyżej ok. 10–12 cm, co klasycznie dotyczy właśnie czaszki (w wielu projekcjach) i jamy brzusznej. Warto też pamiętać, że użycie kratki wymaga odpowiedniej centracji wiązki, właściwej odległości ognisko–kratka i dostosowania parametrów ekspozycji (zwykle trzeba podnieść mAs), żeby skompensować pochłanianie promieniowania przez kratkę. W nowoczesnych systemach cyfrowych część ośrodków próbuje ograniczać stosowanie kratki przy mniejszych pacjentach, ale w typowych, dorosłych badaniach czaszki i brzucha kratka nadal pozostaje złotym standardem poprawy jakości obrazu.

Pytanie 40

W leczeniu izotopowym tarczycy podaje się

A. dożylnie emiter promieniowania α
B. doustnie emiter promieniowania β
C. dożylnie emiter promieniowania β
D. doustnie emiter promieniowania α
Prawidłowo: w leczeniu izotopowym nadczynności tarczycy stosuje się doustnie preparaty zawierające jod promieniotwórczy, najczęściej jod-131, który jest emiterem promieniowania β. Tarczyca fizjologicznie wychwytuje jod z krwi, więc po połknięciu kapsułki lub płynu radiojod trafia do gruczołu tak jak zwykły jod, a następnie emituje promieniowanie beta bezpośrednio w tkance. Dzięki temu mamy efekt tzw. terapii celowanej: dawka promieniowania jest skoncentrowana głównie w tarczycy, a narządy sąsiednie dostają relatywnie małą dawkę. To jest bardzo zgodne z zasadą ALARA i ze standardami medycyny nuklearnej. Promieniowanie β (elektrony) ma stosunkowo mały zasięg w tkankach – rzędu kilku milimetrów. To oznacza, że niszczy głównie komórki tarczycy gromadzące jod, bez głębokiego uszkadzania dalszych struktur. W praktyce klinicznej używa się specjalnie przygotowanych radiofarmaceutyków, zwykle w postaci kapsułek, które pacjent połyka jednorazowo pod kontrolą personelu medycyny nuklearnej. Nie ma tutaj żadnej iniekcji dożylnej, bo nie ma takiej potrzeby – fizjologia tarczycy sama „dowiezie” radiojod tam, gdzie trzeba. W procedurach opisanych w wytycznych (np. EANM, Polskie Towarzystwo Medycyny Nuklearnej) podkreśla się, że podanie doustne jest standardem, a dawka jest dobierana indywidualnie w zależności od masy tarczycy, stopnia nadczynności, czasem także wieku pacjenta. Moim zdaniem warto zapamiętać taki prosty schemat: leczenie nadczynności tarczycy = doustny jod-131 = emiter β. W praktyce technika jest dość prosta organizacyjnie, ale wymaga ścisłego przestrzegania zasad ochrony radiologicznej, np. odizolowania pacjenta przez pewien czas, ograniczenia kontaktu z dziećmi i kobietami w ciąży oraz dokładnej dokumentacji podanej aktywności. To jest typowy, klasyczny przykład terapeutycznego zastosowania medycyny nuklearnej, odróżniający ją od radioterapii zewnętrznej.