Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 13 maja 2026 17:19
  • Data zakończenia: 13 maja 2026 17:23

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. skrócenie fali i zwiększenie przenikliwości promieniowania X.
B. skrócenie fali i zmniejszenie przenikliwości promieniowania X.
C. wydłużenie fali i zwiększenie przenikliwości promieniowania X.
D. wydłużenie fali i zmniejszenie przenikliwości promieniowania X.
Prawidłowe rozumowanie opiera się na bardzo podstawowej zależności fizycznej: im wyższe napięcie na lampie rentgenowskiej (kV), tym elektrony są silniej przyspieszane, a więc zderzając się z anodą oddają więcej energii. Ta większa energia kinetyczna elektronów przekłada się na wyższą energię fotonów promieniowania X. A ponieważ długość fali jest odwrotnie proporcjonalna do energii (λ ~ 1/E), wyższa energia oznacza krótszą długość fali. Czyli: wyższe kV → krótsza fala. Krótsza fala i wyższa energia fotonów powodują większą przenikliwość promieniowania X. W praktyce oznacza to, że promieniowanie o wyższym kV łatwiej przechodzi przez grubsze lub gęstsze struktury, np. miednicę, kręgosłup lędźwiowy czy klatkę piersiową u pacjentów o większej masie ciała. W pracowni RTG dobór napięcia jest jednym z kluczowych parametrów ekspozycji. Standardy i dobre praktyki mówią jasno: dla struktur kostnych grubych i gęstych stosuje się wyższe kV, właśnie po to, żeby promieniowanie było bardziej przenikliwe i nie zatrzymywało się w tkankach powierzchownych. Z mojego doświadczenia, przy badaniu klatki piersiowej typowo używa się wysokich napięć (np. 110–125 kV), żeby wiązka przeszła przez cały przekrój klatki i dobrze uwidoczniła serce, płuca i kręgosłup, przy rozsądnej dawce. Przy niższym kV obraz byłby zbyt kontrastowy, mocno „twardy” dla kości, ale tkanki miękkie mogłyby być niedostatecznie uwidocznione. Warto też pamiętać, że zwiększenie kV zmienia charakter wiązki: rośnie udział efektu Comptona, co wpływa na kontrast obrazu (kontrast spada), ale poprawia się przenikliwość. Dlatego w praktyce technik zawsze musi balansować między kV a mAs, żeby uzyskać właściwą jakość obrazu przy jak najniższej dawce, zgodnie z zasadą ALARA. Zwiększenie napięcia to więc nie tylko „mocniejszy” promień, ale konkretnie: krótsza długość fali i większa przenikliwość promieniowania X, co jest dokładnie opisane w poprawnej odpowiedzi.

Pytanie 2

Wiązka elektronów najczęściej stosowana jest do leczenia zmian nowotworowych w obrębie

A. skóry i płytko pod skórą.
B. macicy.
C. płuc.
D. prostaty.
Prawidłowo wskazana odpowiedź „skóry i płytko pod skórą” idealnie oddaje główne zastosowanie kliniczne wiązki elektronów w radioterapii. Elektrony mają stosunkowo mały zasięg w tkankach – ich dawka rośnie szybko od powierzchni, osiąga maksimum na kilku–kilkunastu milimetrach głębokości, a potem gwałtownie spada. Moim zdaniem to jest właśnie najważniejszy parametr, który trzeba kojarzyć: krótki zasięg i oszczędzanie głębiej położonych narządów. Dlatego w standardach radioterapii (np. zalecenia ESTRO, krajowe rekomendacje) elektrony stosuje się głównie do leczenia zmian powierzchownych: rak skóry, przerzuty skórne, naciekające blizny pooperacyjne, węzły chłonne leżące płytko, blizna po mastektomii, czasem kikut piersi. W praktyce planowania leczenia fizyk medyczny dobiera energię wiązki elektronów (np. 6 MeV, 9 MeV, 12 MeV) tak, żeby maksymalna dawka pokrywała guz, ale nie „przebijała” zbyt głęboko. To jest właśnie przewaga nad fotonami, które penetrują głęboko i oddają istotną dawkę w narządach położonych za guzem. Wiązka elektronowa pozwala np. napromieniać rozległy rak skóry na czaszce, minimalizując dawkę w mózgu, albo zmiany skórne na klatce piersiowej z ograniczeniem dawki w płucach. Dobrą praktyką jest też stosowanie bolusa (materiału dosłownie położonego na skórze), żeby „przesunąć” maksimum dawki bliżej powierzchni, gdy zmiana jest bardzo płytka. Warto zapamiętać: jak widzisz zmianę nowotworową w skórze lub do ok. 3–4 cm pod skórą, w głowie od razu powinna zapalić się lampka – to potencjalne pole do zastosowania elektronów, oczywiście po weryfikacji onkologicznej i fizycznej.

Pytanie 3

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 15 mSv
B. 20 mSv
C. 8 mSv
D. 6 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 4

Centratory laserowe zamontowane w kabinie aparatu terapeutycznego służą do

A. odmierzania odległości.
B. ustalania położenia zmiany nowotworowej.
C. pozycjonowania pacjenta.
D. oświetlania kabiny podczas terapii.
Prawidłowa odpowiedź dotyczy pozycjonowania pacjenta i dokładnie do tego służą centratory laserowe w kabinie aparatu terapeutycznego w radioterapii. Te lasery wyświetlają na ciele pacjenta cienkie, jasne linie – najczęściej w trzech płaszczyznach: czołowej, strzałkowej i poprzecznej. Dzięki temu zespół techników może ustawić pacjenta tak, aby jego ciało było zgodne z układem współrzędnych użytym w planie leczenia. Mówiąc prościej: to, co zaplanował fizyk medyczny i lekarz w systemie planowania leczenia, musi zostać bardzo precyzyjnie odtworzone na stole terapeutycznym, a lasery są do tego podstawowym narzędziem. W praktyce wygląda to tak, że przed pierwszym napromienianiem, podczas symulacji czy CT planistycznego, na skórze pacjenta zaznacza się tatuaże lub markery. Później, przy każdym kolejnym frakcjonowaniu, te znaczniki ustawia się dokładnie w liniach laserowych. Umożliwia to powtarzalne, milimetrowo dokładne ułożenie pacjenta dzień po dniu, co jest kluczowe, żeby dawka promieniowania trafiała w objętość tarczową, a nie w zdrowe tkanki. Z mojego doświadczenia to właśnie praca z laserami i pozycjonowaniem odróżnia radioterapię „na oko” od nowoczesnej, obrazowo prowadzonej terapii zgodnej z wytycznymi ESTRO czy IAEA. Dobre praktyki mówią, że lasery muszą być regularnie kontrolowane (tzw. QA – quality assurance), ich położenie kalibruje się względem izocentrum aparatu, a personel powinien unikać „kombinowania” i zawsze bazować na jasno zdefiniowanych punktach odniesienia. Współcześnie, nawet przy technikach takich jak IMRT czy VMAT, gdzie geometria wiązek jest bardzo złożona, podstawą nadal pozostaje poprawne ustawienie pacjenta względem laserów, a dopiero potem korekta obrazowa (IGRT) na podstawie CBCT lub zdjęć portowych.

Pytanie 5

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
B. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
C. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
Prawidłowo – wysoka rozdzielczość przestrzenna w MR zależy głównie od wielkości piksela, a ten wynika z relacji: rozmiar piksela = FoV / matryca obrazująca (osobno w kierunku X i Y). Jeśli zmniejszamy FoV i jednocześnie zwiększamy matrycę, to dzielimy mniejszy obszar na większą liczbę elementów, więc każdy piksel reprezentuje mniejszy fragment ciała. To właśnie daje lepszą zdolność do rozróżniania drobnych struktur, czyli wyższą rozdzielczość przestrzenną. W praktyce technik MR, planując badanie, bardzo często świadomie zmniejsza FoV dla małych struktur, np. nadgarstka, kolana, przysadki mózgowej czy drobnych zmian w kręgosłupie, i ustawia możliwie dużą matrycę (np. 320×320, 512×512), oczywiście w granicach czasu badania i dostępnego SNR. Standardy pracy w pracowniach rezonansu, zalecane przez producentów skanerów i towarzystwa radiologiczne, mówią wprost: jeśli chcesz poprawić szczegółowość obrazu, manipuluj FoV i rozdzielczością matrycy, pamiętając o kompromisie z SNR i czasem akwizycji. Moim zdaniem to jedno z kluczowych ustawień, które odróżnia „byle jakie” badanie od naprawdę diagnostycznego. Warto też pamiętać, że przy bardzo małym FoV trzeba uważać na aliasing (zawijanie obrazu), dlatego często stosuje się techniki antyaliasingowe lub oversampling. Zwiększenie matrycy zwykle wydłuża czas sekwencji, więc w praktyce szuka się złotego środka: tak dobra rozdzielczość, żeby lekarz widział szczegóły, ale jednocześnie akceptowalny czas badania i poziom szumów. Dobrą praktyką jest też różnicowanie parametrów: inne FoV i matryca dla sekwencji przeglądowych, a inne – bardziej „wyżyłowane” – dla sekwencji celowanych na konkretną zmianę.

Pytanie 6

Który radioizotop jest emiterem promieniowania alfa?

A. 223Ra
B. 18F
C. 131I
D. 99mTc
Prawidłowo wskazany radioizotop to 223Ra, czyli rad-223. Jest to klasyczny emiter promieniowania alfa, wykorzystywany w medycynie nuklearnej głównie w leczeniu przerzutów do kości u chorych na raka prostaty opornego na kastrację. Cząstki alfa to jądra helu (2 protony i 2 neutrony), mają bardzo mały zasięg w tkankach – rzędu kilku dziesiątych milimetra – ale bardzo wysoką liniową gęstość jonizacji (wysoki LET). To oznacza, że oddają energię na bardzo krótkim dystansie, silnie uszkadzając DNA komórek nowotworowych, a jednocześnie relatywnie oszczędzając bardziej odległe, zdrowe tkanki. Właśnie dlatego 223Ra jest tak ceniony w tzw. terapii ukierunkowanej na kości: jako radionuklid emituje głównie promieniowanie alfa, wiąże się z tkanką kostną w miejscach wzmożonego metabolizmu kostnego (czyli tam, gdzie są przerzuty osteoblastyczne) i dostarcza bardzo skoncentrowaną dawkę w ognisku nowotworu. Z praktycznego punktu widzenia ważne jest, że alfa-emiter wymaga szczególnej ostrożności w zakresie ochrony radiologicznej personelu przy przygotowaniu i podawaniu radiofarmaceutyku, ale jednocześnie dawka narażenia dla otoczenia pacjenta jest zwykle mniejsza niż przy silnych emiterach gamma, bo cząstki alfa są łatwo pochłaniane. Moim zdaniem, jeśli ktoś pracuje w medycynie nuklearnej, to kojarzenie 223Ra z terapią paliatywną przerzutów do kości to absolutna podstawa. W wytycznych i standardach (różne towarzystwa onkologiczne i medycyny nuklearnej) podkreśla się, że wybór alfa-emiterów, takich jak 223Ra, jest szczególnie korzystny tam, gdzie zależy nam na wysokiej skuteczności biologicznej przy ograniczonym zasięgu promieniowania. To bardzo dobry przykład praktycznego zastosowania fizyki promieniowania w nowoczesnej terapii celowanej.

Pytanie 7

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Przestrzeń międzyżebrowa.
B. Wypełniony płynem pęcherz moczowy.
C. Złóg w pęcherzyku żółciowym.
D. Wypełnione gazami jelito cienkie.
Prawidłowo wskazany wypełniony płynem pęcherz moczowy jest klasycznym przykładem tzw. okna akustycznego w badaniu USG. W praktyce oznacza to, że struktura zawierająca jednorodny płyn bardzo dobrze przewodzi fale ultradźwiękowe, nie rozprasza ich nadmiernie i nie tworzy silnych artefaktów, które zasłaniają głębiej położone narządy. Dzięki temu przez taki pęcherz można „podglądać” struktury leżące za nim, np. macicę, jajniki, prostatę czy fragmenty jelit, z dużo lepszą jakością obrazu. W standardach badań ginekologicznych i urologicznych USG jamy brzusznej zaleca się, żeby pacjent przyszedł z wypełnionym pęcherzem – to nie jest przypadek, tylko właśnie świadome wykorzystanie okna akustycznego. Płyn w pęcherzu jest anechogeniczny, czyli na monitorze widzimy czarny, jednolity obszar, bez wewnętrznych ech. Ułatwia to ocenę ściany pęcherza, polipów, guzów oraz umożliwia lepszą wizualizację narządów miednicy mniejszej. Moim zdaniem to jeden z najbardziej „namacalnych” przykładów, jak fizyka ultradźwięków przekłada się bezpośrednio na praktykę pracy technika elektroradiologii. W codziennej pracy dobrze jest pamiętać, że każde środowisko płynowe w ciele (torbiele, zbiorniki płynu w jamach ciała) może pełnić podobną rolę – często specjalnie wykorzystuje się wysięki lub płyn w jamie otrzewnej czy opłucnej, żeby lepiej zobrazować narządy, które normalnie byłyby częściowo zasłonięte przez gaz lub kości. To jest zgodne z dobrymi praktykami opisywanymi w podręcznikach USG i wytycznych towarzystw radiologicznych: szukamy takich „okien”, które poprawiają jakość obrazu, skracają czas badania i zmniejszają ryzyko błędnej interpretacji.

Pytanie 8

Technika stereotaktyczna polega na napromienianiu nowotworu

A. jednym dużym polem.
B. wieloma wiązkami wychodzącymi z jednego punktu.
C. wieloma wiązkami z jednej strony.
D. wieloma wiązkami zbiegającymi się w jednym punkcie.
Technika stereotaktyczna polega właśnie na tym, co jest w treści poprawnej odpowiedzi: wiele wąskich, precyzyjnie zaplanowanych wiązek promieniowania z różnych kierunków zbiera się w jednym, dokładnie wyznaczonym punkcie w ciele pacjenta. Ten punkt to cel – najczęściej guz lub malformacja naczyniowa. Poza tym punktem dawka w każdej pojedynczej wiązce jest stosunkowo mała, ale w miejscu ich zbiegu sumuje się do bardzo wysokiej dawki terapeutycznej. To jest cała „magia” stereotaksji. W praktyce klinicznej mówimy o radiochirurgii stereotaktycznej (SRS) dla mózgu, stereotaktycznej radioterapii frakcjonowanej (FSRT) albo stereotaktycznej radioterapii ciała (SBRT/SABR) dla zmian pozaczaszkowych, np. w płucu czy wątrobie. Moim zdaniem kluczowe jest tu skojarzenie: stereotaksja = precyzyjne unieruchomienie + dokładne obrazowanie (TK, MR, czasem PET) + planowanie 3D/4D + wiele wiązek zbieżnych w jeden punkt. Dzięki temu można podać bardzo dużą dawkę na małą objętość przy jednoczesnej ochronie tkanek zdrowych, zgodnie z zasadami ALARA i wytycznymi ICRU oraz ESTRO. W dobrych ośrodkach dba się o dokładność pozycjonowania rzędu milimetrów, stosuje się maski termoplastyczne, ramy stereotaktyczne, systemy IGRT (obrazowanie w trakcie napromieniania), żeby ten punkt zbiegu wiązek pokrywał się idealnie z położeniem guza. To jest standard dobrej praktyki w nowoczesnej radioterapii: wysoka precyzja geometryczna, małe marginesy bezpieczeństwa i bardzo strome gradienty dawki wokół celu. Stereotaksja jest szczególnie przydatna przy małych guzach, dobrze widocznych w obrazowaniu, gdzie zależy nam na maksymalnej oszczędności otaczających struktur krytycznych, na przykład nerwu wzrokowego, pnia mózgu czy rdzenia kręgowego.

Pytanie 9

Ligand stosuje się

A. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
B. w radiologii klasycznej jako środek kontrastujący pozytywny.
C. w radiologii klasycznej jako środek kontrastujący negatywny.
D. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który wiąże się selektywnie z określonym celem biologicznym, np. receptorem, enzymem czy transporterem, i właśnie w medycynie nuklearnej pełni rolę nośnika radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi za rękę” izotop promieniotwórczy dokładnie tam, gdzie chcemy zobaczyć czynność narządu albo ognisko chorobowe. Radioizotop sam z siebie nie jest wybiórczy, dopiero połączenie go z odpowiednim ligandem tworzy radiofarmaceutyk o określonej tropowości, np. do kości, mięśnia sercowego, guzów neuroendokrynnych czy receptorów dopaminergicznych. W scyntygrafii kości używa się ligandów fosfonianowych znakowanych technetem-99m, które gromadzą się w miejscach wzmożonego metabolizmu kostnego. W scyntygrafii perfuzyjnej serca mamy ligandy lipofilne, które wnikają do kardiomiocytów proporcjonalnie do przepływu krwi. W PET z kolei typowym przykładem jest 18F-FDG, gdzie ligandem jest analog glukozy, a izotopem fluor-18. Z mojego doświadczenia to właśnie zrozumienie roli liganda tłumaczy, czemu dwa różne radiofarmaceutyki z tym samym izotopem mogą mieć zupełnie inne wskazania. Dobre praktyki w medycynie nuklearnej wymagają bardzo świadomego doboru liganda do konkretnego badania: bierzemy pod uwagę farmakokinetykę, specyficzność wiązania, szybkość eliminacji, a także bezpieczeństwo dla pacjenta. W wytycznych EANM czy IAEA wyraźnie podkreśla się, że to właściwości liganda decydują o jakości obrazowania funkcjonalnego, a nie tylko sam izotop. Dlatego poprawne skojarzenie pojęcia „ligand” z nośnikiem radiofarmaceutyku w medycynie nuklearnej jest bardzo istotne i praktycznie przydatne w pracy z gammakamerą czy PET.

Pytanie 10

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
B. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
C. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
D. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
Prawidłowo – czas repetycji TR w badaniu rezonansu magnetycznego to odstęp czasu między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°. To jest taki podstawowy „rytmem serca” sekwencji spin-echo i większości klasycznych sekwencji. Po pierwszym impulsie 90° następuje wzbudzenie magnetyzacji poprzecznej, potem relaksacja T1 i T2, pojawia się echo, a dopiero po zadanym czasie TR podajemy kolejny impuls 90° i zaczyna się następny cykl pomiaru dla tej samej warstwy. W praktyce dobór TR decyduje o tym, jak bardzo obraz będzie zależny od relaksacji T1. Krótkie TR (np. 300–700 ms) silnie eksponuje różnice T1, czyli daje typowe obrazy T1-zależne. Długie TR (np. 2000 ms i więcej) zmniejsza wpływ T1 i pozwala bardziej „wybrzmieć” kontrastowi T2 lub gęstości protonowej. Moim zdaniem warto to sobie kojarzyć tak: technik ustawiając TR de facto ustawia, ile czasu da tkankom na odtworzenie magnetyzacji podłużnej po impulsie 90°. Jeśli czasu jest mało, tkanki o krótkim T1 będą jaśniejsze, bo szybciej się regenerują; jeśli dużo, różnice T1 się spłaszczają. W codziennej pracy przy planowaniu protokołów MR TR jest jednym z kluczowych parametrów razem z TE i ewentualnie TI. W standardowych sekwencjach spin-echo zawsze myślimy o TR jako o czasie pomiędzy kolejnymi impulsami 90°, a nie 180° czy impulsami inwersyjnymi. To pomaga też szybko odróżnić, czym jest TR, a czym TI, które definiuje się zupełnie inaczej. Dobrą praktyką jest zawsze patrzeć na TR i od razu kojarzyć, jaki rodzaj kontrastu uzyskamy oraz jak wpłynie to na czas trwania całej sekwencji i komfort pacjenta.

Pytanie 11

Promieniowanie jonizujące pośrednio to

A. promieniowanie β⁺
B. promieniowanie α
C. promieniowanie γ
D. promieniowanie β⁻
Promieniowanie γ zaliczamy do promieniowania jonizującego pośrednio, ponieważ samo w sobie jest strumieniem fotonów, czyli kwantów energii elektromagnetycznej, a nie naładowanych cząstek. Foton γ nie „wyrywa” elektronów z atomów bezpośrednio jak cząstka naładowana, tylko najpierw oddziałuje z materią (np. z elektronem powłokowym lub jądrem), wytwarzając wtórne cząstki naładowane – głównie elektrony wtórne. Dopiero te elektrony powodują zasadniczą część jonizacji w tkankach. Dlatego mówimy, że γ jonizuje pośrednio. W praktyce medycznej ma to ogromne znaczenie. W radioterapii z użyciem przyspieszaczy liniowych albo aparatów Co-60 wiązka promieniowania γ lub wysokoenergetycznego X przenika głębiej w ciało, a maksimum dawki pojawia się na pewnej głębokości, właśnie przez generację wtórnych elektronów. Dzięki temu można lepiej oszczędzić skórę i dostarczyć większą dawkę do guza położonego głębiej, co jest standardem w nowoczesnym planowaniu napromieniania. Podobnie w diagnostyce medycyny nuklearnej – w gammakamerze rejestrujemy fotony γ emitowane przez radioizotop (np. 99mTc), które same są nienaładowane, więc dobrze przechodzą przez tkanki, a ich detekcja wymaga kryształu scyntylacyjnego i fotopowielaczy. Z mojego doświadczenia, zrozumienie, że γ jest promieniowaniem pośrednio jonizującym, pomaga ogarnąć, czemu ochrona radiologiczna opiera się na grubych ekranach z ołowiu czy betonu: ekran nie tyle zatrzymuje ładunek, co pochłania fotony i ogranicza powstawanie wtórnych elektronów w organizmie osoby narażonej. To też tłumaczy, dlaczego normy dawek i zasada ALARA tak mocno podkreślają czas, odległość i osłony – bo pracujemy z promieniowaniem, które ma duży zasięg i jonizuje trochę „okrężną drogą”.

Pytanie 12

W badaniu PET stosuje się tylko radioizotopy emitujące

A. cząstki alfa.
B. pozytony.
C. elektrony.
D. neutrony.
W badaniu PET kluczowa jest emisja pozytonów, dlatego poprawna jest odpowiedź z radioizotopami emitującymi właśnie pozytony. Cała fizyka PET opiera się na zjawisku anihilacji pozyton–elektron. Radioizotop (np. 18F, 11C, 13N, 15O) wprowadzony do organizmu jest wbudowywany w radiofarmaceutyk, który zachowuje się jak zwykła cząsteczka metaboliczna, np. 18F-FDG zachowuje się podobnie do glukozy. Taki radionuklid rozpada się beta plus, czyli emituje pozyton. Pozyton po bardzo krótkiej drodze w tkankach (rzędu milimetrów) zderza się z elektronem, dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV, biegnące prawie dokładnie w przeciwnych kierunkach. Detektory w gantrze PET rejestrują te dwa kwanty jednocześnie (koincydencja czasowa) i na tej podstawie wyznaczana jest linia, na której zaszła anihilacja. Oprogramowanie rekonstruuje z milionów takich zdarzeń trójwymiarowy rozkład aktywności radiofarmaceutyku w ciele pacjenta. W praktyce klinicznej ma to ogromne znaczenie np. w onkologii: PET-CT z 18F-FDG pozwala wykryć przerzuty, ocenić żywotność guza czy odpowiedź na chemioterapię. Standardy pracowni medycyny nuklearnej (np. EANM) jasno wskazują stosowanie wyłącznie radionuklidów beta plus dla klasycznego PET, bo tylko one dają charakterystyczny sygnał dwóch fotonów 511 keV. Moim zdaniem warto zapamiętać prostą regułę: PET = pozytony + anihilacja + dwa fotony 511 keV, reszta rodzajów promieniowania tutaj się po prostu nie sprawdza do obrazowania tą techniką.

Pytanie 13

Który system informatyczny służy do archiwizacji i transmisji obrazów radiologicznych?

A. HL7
B. PACS
C. IHE
D. DICOM
PACS (Picture Archiving and Communication System) to dokładnie ten system, który w nowoczesnej radiologii „trzyma w ryzach” wszystkie obrazy – od RTG, przez TK i MR, aż po USG czy mammografię. Jego podstawowa rola to archiwizacja i transmisja obrazów radiologicznych w formie cyfrowej. Z mojego doświadczenia, bez PACS-u praca pracowni obrazowej szybko zamienia się w chaos: płyty CD, pendrive’y, wydruki na kliszach, gubiące się opisy. W dobrze działającym szpitalu obrazy z aparatu (np. tomografu komputerowego) są automatycznie wysyłane do PACS, gdzie są bezpiecznie przechowywane, opisywane przez radiologa i udostępniane lekarzom klinicznym na oddziałach. Technicznie PACS opiera się na standardzie DICOM – to w tym formacie obrazy są zapisywane i przesyłane. Sam DICOM to jednak tylko język i zasady komunikacji, a PACS jest całym systemem: serwery archiwizujące, stacje opisowe, przeglądarki obrazów, mechanizmy backupu i kontroli dostępu. W praktyce PACS współpracuje z RIS (Radiology Information System) i systemem szpitalnym HIS, dzięki czemu lekarz na oddziale może jednym kliknięciem otworzyć badanie pacjenta wraz z opisem, bez biegania po klisze. Dobre praktyki mówią też o redundancji (kopie zapasowe), szyfrowaniu transmisji oraz nadawaniu uprawnień użytkownikom, bo to są dane wrażliwe. Moim zdaniem znajomość roli PACS jest absolutnie podstawowa dla każdego, kto pracuje przy diagnostyce obrazowej – to takie „kręgosłup informatyczny” radiologii.

Pytanie 14

Gruboziarnista folia wzmacniająca wpływa na zwiększenie na obrazie rentgenowskim nieostrości

A. ruchowej.
B. rozproszeniowej.
C. geometrycznej.
D. fotograficznej.
Prawidłowo – chodzi właśnie o nieostrość fotograficzną. Gruboziarnista folia wzmacniająca ma większe kryształki luminoforu, które po pochłonięciu promieniowania X emitują więcej światła, ale robią to mniej precyzyjnie. Światło rozchodzi się na większy obszar emulsji, przez co obraz ziarnuje i traci szczegółowość. Ta utrata szczegółu, związana z właściwościami materiału obrazującego (folia + film), to klasyczny przykład nieostrości fotograficznej. W praktyce radiologicznej zawsze jest kompromis: im grubsza i bardziej czuła folia, tym mniejsza dawka dla pacjenta, ale jednocześnie gorsza rozdzielczość przestrzenna. W standardach jakości obrazu przy zdjęciach kości dłoni, stawu skokowego czy drobnych struktur czaszki zaleca się stosowanie folii drobnoziarnistych, właśnie po to, żeby ograniczyć nieostrość fotograficzną i lepiej widzieć drobne złamania, linie szwów czy zmiany lityczne. Moim zdaniem warto to sobie kojarzyć tak: wszystko, co wynika z właściwości materiału rejestrującego (folia, film, system cyfrowy), to nieostrość fotograficzna, a wszystko, co wynika z ustawienia lampy, odległości, wielkości ogniska – to już inny typ nieostrości. W nowoczesnych systemach cyfrowych (CR, DR) pojęcie „gruboziarnistej folii” trochę się zmienia, ale zasada zostaje podobna: im większe elementy detekcyjne i im większe rozproszenie sygnału w detektorze, tym większa nieostrość wynikająca z samego systemu obrazowania. Dlatego w dobrych praktykach opisuje się wymaganą rozdzielczość systemu w lp/mm i dobiera się ją do badanej okolicy, żeby świadomie panować nad nieostrością fotograficzną i nie robić zdjęć „na ślepo”.

Pytanie 15

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. PDR
B. LDR
C. MDR
D. HDR
Prawidłowa odpowiedź to PDR – czyli Pulsed Dose Rate brachyterapia. W praktyce oznacza to technikę, w której wysokoaktywny radionuklid (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się „pulsach” dawki. Z zewnątrz wygląda to jak seria krótkich frakcji HDR, ale rozkład dawki w czasie ma naśladować efekt biologiczny klasycznej LDR (ciągłego, niskiego tempo dawki). Moim zdaniem to jest fajny przykład, jak fizyka medyczna i radiobiologia łączą się z techniką – mamy źródło HDR, ale sposób jego użycia sprawia, że tkanki widzą coś bardziej zbliżonego do LDR. W PDR źródło jest automatycznie przesuwane przez afterloader do poszczególnych pozycji w aplikatorze, zatrzymuje się tam na określony czas (tzw. dwell time), a potem jest wycofywane do bezpiecznego położenia. Cały cykl powtarza się co określony interwał, np. co godzinę, przez kilkanaście–kilkadziesiąt godzin. W wytycznych wielu ośrodków radioterapii podkreśla się, że PDR jest szczególnie użyteczna tam, gdzie chcemy mieć lepszą kontrolę nad rozkładem dawki niż w LDR, ale jednocześnie zachować korzystny profil powikłań późnych. Stosuje się ją m.in. w guzach ginekologicznych, nowotworach głowy i szyi czy w niektórych nawrotach nowotworów, gdzie precyzyjna rekonstrukcja pozycji aplikatora w TK lub MR i planowanie 3D pozwalają dokładnie zoptymalizować dawkę. W codziennej pracy technika PDR wymaga dobrej koordynacji zespołu: prawidłowego założenia aplikatorów, weryfikacji ich położenia obrazowaniem, rzetelnego planowania w systemie TPS oraz ścisłego przestrzegania procedur ochrony radiologicznej, bo mimo że źródło jest schowane w afterloaderze, jego aktywność jest wysoka i każda ekspozycja musi być pod pełną kontrolą.

Pytanie 16

Na zamieszczonej rycinie przedstawiono

Ilustracja do pytania
A. efekt Comptona.
B. zjawisko tworzenia par.
C. zjawisko anihilacji.
D. zjawisko fotoelektryczne.
Na rycinie widać klasyczny schemat zjawiska fotoelektrycznego: kwant promieniowania γ (lub X) pada na elektron związany w atomie, przekazuje mu energię i wybija go poza atom jako elektron swobodny. Opis matematyczny Ee = hν − Ew pokazuje, że energia kinetyczna elektronu wybitego (Ee) jest równa energii fotonu (hν) pomniejszonej o energię wiązania elektronu w atomie (Ew). To jest dokładnie definicja efektu fotoelektrycznego, tak jak uczą w fizyce medycznej i w podstawach radiologii. W diagnostyce obrazowej to zjawisko ma ogromne znaczenie przy niższych energiach promieniowania, typowych np. dla mammografii czy zdjęć kostnych – tam dominująca absorpcja w tkankach to właśnie fotoefekt. Moim zdaniem warto zapamiętać, że fotoefekt jest mocno zależny od liczby atomowej Z materiału (z grubsza rośnie jak Z³) – dlatego kości, zawierające dużo wapnia, pochłaniają więcej promieniowania niż tkanki miękkie i wychodzą na zdjęciu jaśniej. W praktyce technika radiologiczna wykorzystuje to przy doborze napięcia kV: niższe kV wzmacnia udział zjawiska fotoelektrycznego, poprawia kontrast tkankowy, ale zwiększa dawkę pochłoniętą. Standardy ochrony radiologicznej i dobre praktyki (np. zasada ALARA) wymagają takiego doboru parametrów, żeby uzyskać wystarczającą jakość obrazu przy jak najmniejszej dawce, czyli rozsądnego kompromisu między udziałem fotoefektu a rozpraszaniem Comptona. Warto też pamiętać, że po wybiciu elektronu w atomie powstaje luka w powłoce, co prowadzi do emisji promieniowania charakterystycznego lub elektronów Augera – to z kolei leży u podstaw działania kontrastów zawierających jod czy gadolin w niektórych technikach obrazowania.

Pytanie 17

Który artefakt uwidoczniono na skanie RM głowy?

Ilustracja do pytania
A. Zawijanie obrazu.
B. Poruszenie pacjenta.
C. Przesunięcie chemiczne.
D. Efekt uśrednienia.
Prawidłowo rozpoznano artefakt zawijania obrazu (aliasing). Na tym skanie RM głowy widać struktury anatomiczne „przeniesione” spoza pola widzenia (FOV) do wnętrza obrazu – wyglądają jakby fragment czaszki lub tkanek miękkich nagle pojawiał się w nienaturalnym miejscu, przy brzegu kadru. To właśnie typowy obraz zawijania: sygnał z obszaru poza FOV zostaje „zmapowany” po przeciwnej stronie obrazu w kierunku fazowym. W praktyce klinicznej ten artefakt występuje najczęściej przy zbyt małym polu obrazowania w osi przednio–tylnej lub lewo–prawo, szczególnie w badaniach głowy, kręgosłupa szyjnego i jamy brzusznej. Dobre praktyki według standardów producentów aparatów MR i wytycznych to m.in.: zwiększenie FOV w kierunku fazowym, zastosowanie oversamplingu (phase oversampling, no phase wrap), zmianę kierunku kodowania fazy, a w razie potrzeby użycie cewek powierzchniowych o mniejszym zasięgu. Moim zdaniem bardzo ważne jest, żeby w technikum od razu kojarzyć: obraz „przełożony” przez krawędź kadru = zawijanie, a nie poruszenie czy efekt uśrednienia. W realnej pracy technika zawijanie potrafi całkowicie uniemożliwić ocenę np. tylnej jamy czaszki, jeśli sygnał z nosa lub twarzy wchodzi w pole móżdżku, dlatego rutynowo kontroluje się FOV i parametry fazy jeszcze przed rozpoczęciem sekwencji. Warto też pamiętać, że w sekwencjach szybkich, np. FSE, aliasing może być bardziej widoczny, więc tym bardziej trzeba pilnować ustawień.

Pytanie 18

Jaka jest standardowa odległość OF do wykonania rentgenowskich zdjęć kości i stawów kończyny górnej?

A. 70-90 cm
B. 120-130 cm
C. 135-150 cm
D. 100-115 cm
Prawidłowy zakres 100–115 cm to standardowa odległość ognisko–film (OF, dziś częściej mówi się FFD lub SID) stosowana przy klasycznych zdjęciach kości i stawów kończyny górnej. Taka odległość jest pewnym kompromisem między geometrią wiązki promieniowania a praktycznymi możliwościami aparatu i pracowni. Przy około 100 cm uzyskujemy akceptowalne powiększenie obrazu, stosunkowo małe zniekształcenia geometryczne i dobrą ostrość krawędzi, a jednocześnie nie trzeba dramatycznie podnosić mAs, żeby skompensować spadek natężenia promieniowania. W praktyce technik ustawia statyw tak, żeby odległość od ogniska lampy do kasety z detektorem była stabilnie w tym przedziale; to pozwala też przewidywalnie dobierać ekspozycję według tabel technicznych. Moim zdaniem to jest jedna z tych „wartości do zapamiętania”, które naprawdę przydają się w codziennej pracy, bo większość protokołów RTG kończyny górnej (nadgarstek, łokieć, bark, dłoń, paliczki) jest na tym oparta. Warto też pamiętać, że większe odległości, typu 150–180 cm, zarezerwowane są raczej dla klatki piersiowej, gdzie zależy nam na minimalizacji powiększenia serca i lepszej jednorodności dawki. Z kolei zbyt mała OF powodowałaby wyraźne powiększenie i rozmycie struktur, co utrudnia ocenę np. szczelin stawowych czy drobnych odłamów kostnych. Dobrą praktyką jest zawsze sprawdzenie, czy rzeczywista OF zgadza się z protokołem pracowni, bo błędne ustawienie może później dawać pozorne różnice w wielkości zmian na kolejnych badaniach kontrolnych. W diagnostyce pourazowej kończyny górnej, gdzie liczy się dokładna ocena ustawienia odłamów, taka powtarzalność geometrii zdjęcia ma ogromne znaczenie.

Pytanie 19

W technice napromieniania SSD mierzona jest odległość źródła promieniowania

A. od izocentrum aparatu terapeutycznego.
B. od stołu aparatu terapeutycznego.
C. od napromienianego guza.
D. od punktu zdefiniowanego na skórze pacjenta.
W technice SSD (source–skin distance) kluczowe jest właśnie to, że odległość mierzona jest od źródła promieniowania do punktu zdefiniowanego na skórze pacjenta. Ten punkt na skórze odpowiada zwykle punktowi referencyjnemu pola, np. środkowi wiązki lub miejscu, gdzie chcemy mieć określoną głębokość dawki. Moim zdaniem warto od razu zapamiętać: w SSD zawsze „patrzymy” na skórę, a nie na izocentrum. To odróżnia tę technikę od techniki SAD (source–axis distance), gdzie bazujemy na odległości do izocentrum aparatu terapeutycznego. W praktyce klinicznej technik ustawia pacjenta tak, aby SSD miało konkretną wartość, np. 100 cm, mierzoną do tatuażu, znacznika laserowego albo markera narysowanego na skórze. To ten punkt zdefiniowany na skórze jest geometrycznym punktem odniesienia do obliczeń dawki, tabel PDD (percent depth dose) i parametrów pola. Dzięki stałej SSD możemy korzystać z tablic procentowej dawki w głąb, które zakładają określoną odległość źródło–skóra, co upraszcza planowanie w prostszych technikach 2D albo w niektórych polach dodatkowych. Z mojego doświadczenia w radioterapii dobre ustawienie SSD przekłada się na powtarzalność napromieniania i zgodność rzeczywistej dawki z planem. W standardach i podręcznikach z radioterapii (np. klasyczne opisy teleterapii megawoltowej) technika SSD jest opisana właśnie jako metoda, w której główną kontrolowaną wielkością geometryczną jest odległość do skóry, a skorygowanie tej odległości o grubość tkanek pozwala wyznaczyć głębokość PTV i odpowiednio dobrać dawkę. W nowoczesnych ośrodkach SSD nadal jest używana np. przy polach skóry, piersi czy prostych polach paliatywnych. Dobra praktyka to zawsze oznaczenie na skórze punktu, do którego mierzymy SSD, i sprawdzanie go codziennie, a nie sugerowanie się jedynie pozycją stołu czy odczytem z konsoli.

Pytanie 20

Z kratką przeciwrozproszeniową należy wykonać zdjęcie

A. stawu kolanowego w pozycji leżącej.
B. stawu łokciowego.
C. stopy.
D. łopatki.
Prawidłowo – łopatkę standardowo wykonuje się z użyciem kratki przeciwrozproszeniowej. Wynika to głównie z grubości i budowy anatomicznej tej okolicy. Obręcz barkowa jest stosunkowo masywna, zawiera dużo struktur kostnych i tkanek miękkich, a promień centralny przechodzi przez obszar o efektywnej grubości zwykle powyżej 10 cm. Przy takiej grubości wytwarza się duża ilość promieniowania rozproszonego (głównie rozpraszanie Comptona), które degraduje kontrast obrazu. Kratka przeciwrozproszeniowa ma za zadanie „wyciąć” promieniowanie rozproszone, które pada na detektor pod innym kątem niż wiązka pierwotna. Dzięki temu obraz łopatki staje się wyraźniejszy, struktury kostne są lepiej odgraniczone od tkanek miękkich, a możliwość oceny zarysów, wyrostków czy stawów (ramienno‑łopatkowego, barkowo‑obojczykowego) jest zdecydowanie większa. W praktyce klinicznej przyjmuje się prostą zasadę: jeżeli badany odcinek ma grubość powyżej ok. 10–12 cm lub wymaga wyższego kV, to kratka jest wskazana. Dotyczy to m.in. badań miednicy, kręgosłupa, mostka, klatki piersiowej w pozycji leżącej i właśnie łopatki. Bez kratki obraz byłby „zamglony”, o niskim kontraście, z utratą szczegółów beleczkowania kostnego. Warto też pamiętać, że zastosowanie kratki zwykle wymaga zwiększenia mAs (tzw. współczynnik Bucky’ego), co przekłada się na nieco wyższą dawkę, ale w tym przypadku jest to uzasadnione zasadą optymalizacji – lepsza jakość diagnostyczna przy akceptowalnym narażeniu pacjenta. W wielu pracowniach jest to wręcz standard procedury – projekcje łopatki i obręczy barkowej wykonuje się rutynowo z kratką, niezależnie od tego, czy to projekcja AP, Y‑scapula czy inne ustawienia specjalne.

Pytanie 21

Co jest przyczyną artefaktu widocznego na obrazie MR?

Ilustracja do pytania
A. Pulsacyjny przepływ krwi.
B. Zjawisko zaniku sygnału.
C. Ruch narządu lub pacjenta.
D. Zjawisko zawijania fazy.
Prawidłowo wskazany został ruch narządu lub pacjenta jako przyczyna widocznego artefaktu. W badaniach MR oko, gałki oczne, język, żuchwa, a nawet drobne drżenia głowy bardzo łatwo „psują” obraz, bo sekwencje są stosunkowo długie i sygnał z kolejnych linii k‑przestrzeni zbierany jest w czasie. Jeśli w trakcie akwizycji pacjent poruszy głową albo np. mrugnie, informacje z różnych momentów zostają nałożone na siebie i rekonstrukcja obrazu daje charakterystyczne rozmycia, podwójne kontury, przesunięcia czy „smugi” w kierunku kodowania fazy. Na prezentowanym przekroju przez oczodoły widać typowy obraz – struktury nie są ostre, brzegi są jakby „pociągnięte”, co nie wygląda ani na zanik sygnału, ani na klasyczne zawijanie fazy. W praktyce, zgodnie z dobrymi standardami pracowni MR, zawsze dąży się do minimalizacji ruchu: dokładne unieruchomienie głowy (podkładki, maski, pianki), jasne instrukcje dla pacjenta, krótsze sekwencje, techniki motion‑correction, a w badaniach u dzieci czasem sedacja zgodnie z procedurami anestezjologicznymi. Moim zdaniem kluczowe jest też spokojne wytłumaczenie pacjentowi, dlaczego musi leżeć nieruchomo – to naprawdę robi różnicę. W opisie badania warto wspomnieć o obecności artefaktów ruchowych, bo mogą one ograniczać wiarygodność oceny np. nerwów wzrokowych czy struktur tylnego dołu. Z perspektywy technika dobrze jest od razu, na konsoli, krytycznie ocenić jakość obrazów i w razie wyraźnych artefaktów rozważyć powtórzenie wybranych sekwencji, zamiast oddawać badanie z mocno zniekształconym obrazem.

Pytanie 22

Po zakończeniu badania angiograficznego należy zapisać w dokumentacji medycznej pacjenta:

A. ilość kontrastu, czas skopii, dawkę efektywną.
B. czas skopii, dawkę efektywną, równoważnik dawki.
C. ilość kontrastu, dawkę efektywną, równoważnik dawki.
D. ilość kontrastu, ilość znieczulenia, czas skopii.
W tej sytuacji wybrałeś dokładnie ten zestaw danych, który po badaniu angiograficznym rzeczywiście musi znaleźć się w dokumentacji: ilość podanego kontrastu, czas skopii oraz dawka efektywna. To jest taki podstawowy „pakiet” informacji, który pozwala później ocenić zarówno bezpieczeństwo pacjenta, jak i jakość całego badania. Ilość kontrastu zapisujemy po to, żeby mieć kontrolę nad ryzykiem nefropatii pokontrastowej, szczególnie u pacjentów z niewydolnością nerek, cukrzycą albo odwodnionych. Jeśli pacjent wróci za tydzień czy miesiąc na kolejne badanie, lekarz od razu widzi, ile kontrastu dostał poprzednio i może to uwzględnić w planowaniu. Czas skopii jest bezpośrednio związany z narażeniem na promieniowanie jonizujące – dłuższa skopia to zwykle większa dawka. Dlatego jego wpisanie do dokumentacji jest też elementem ochrony radiologicznej i kontroli jakości pracy pracowni. W wielu ośrodkach porównuje się potem średnie czasy skopii dla określonych typów procedur, żeby wychwycić, czy nie ma niepotrzebnie przedłużanych badań. Dawka efektywna (albo dawka skojarzona, wyliczona na podstawie parametrów aparatu, np. DAP – dose area product) jest kluczowa z punktu widzenia prawa i zasad ochrony radiologicznej. Normy i wytyczne (m.in. europejskie i krajowe rozporządzenia dot. ochrony radiologicznej pacjenta) wymagają, żeby narażenie było udokumentowane, tak aby można było je prześledzić w historii pacjenta i porównać z poziomami referencyjnymi. W praktyce, w opisie badania często pojawia się np.: „Ilość kontrastu: 120 ml, czas skopii: 7,2 min, DAP: 45 Gy·cm², dawka efektywna szac.: … mSv”. Moim zdaniem warto od razu wyrabiać sobie nawyk, że te trzy parametry są tak samo ważne jak sam opis obrazu angiograficznego. To nie jest sucha biurokracja, tylko realne dane, które wpływają na bezpieczeństwo pacjenta, planowanie kolejnych procedur i kontrolę jakości w pracowni angiograficznej.

Pytanie 23

W obrazowaniu MR wykorzystuje się moment magnetyczny

A. elektronów.
B. neutronów.
C. protonów.
D. pozytonów.
W obrazowaniu rezonansu magnetycznego kluczową rolę odgrywa moment magnetyczny protonów, głównie protonów wodoru obecnych w cząsteczkach wody i tłuszczu w organizmie. Każdy proton zachowuje się trochę jak miniaturowy magnes – ma swój spin i związany z nim moment magnetyczny. W silnym polu magnetycznym skanera MR te „magnesiki” ustawiają się wzdłuż linii pola, a następnie są wytrącane z równowagi impulsami fal radiowych (RF). Po wyłączeniu impulsu RF protony wracają do stanu równowagi i oddają energię, co rejestruje system odbiorczy. Właśnie ta sygnałowa odpowiedź protonów (sygnał MR) jest przeliczana komputerowo na obraz. Moim zdaniem najważniejsze praktyczne skojarzenie dla technika jest takie: im więcej protonów wodoru w tkance, tym silniejszy sygnał, dlatego np. tkanka tłuszczowa czy mięśniowa wygląda inaczej niż kość korowa, a płyn mózgowo-rdzeniowy inaczej niż istota biała w mózgu. Różnice w czasie relaksacji T1 i T2 protonów w różnych tkankach pozwalają na dobranie odpowiednich sekwencji (T1-zależnych, T2-zależnych, PD, FLAIR, STIR itd.), co jest standardem w protokołach badań MR zgodnie z zaleceniami producentów i wytycznymi towarzystw radiologicznych. W praktyce klinicznej technik, planując badanie, świadomie wykorzystuje fizykę protonów: dobiera parametry takie jak TR, TE, flip angle, żeby podkreślić różnice w zachowaniu momentów magnetycznych protonów w danych strukturach. Bez momentu magnetycznego protonów nie byłoby ani kontrastu tkanek, ani samego sygnału w MR – cała metoda po prostu by nie działała. Dlatego właśnie poprawna odpowiedź to protony, a nie inne cząstki.

Pytanie 24

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
Prawidłowo: wysoka rozdzielczość przestrzenna w MR zależy głównie od wielkości piksela, a ten wynika z relacji pole widzenia (FoV) / matryca obrazująca. Im mniejszy FoV i im większa matryca, tym mniejszy piksel i tym wyraźniej widoczne drobne struktury. Matematycznie można to zapisać bardzo prosto: rozmiar piksela = FoV / liczba punktów w danym kierunku. Czyli jeśli zmniejszamy FoV, a jednocześnie zwiększamy liczbę próbek (większa matryca, np. z 256×256 na 512×512), to piksele robią się „gęstsze”, a obraz bardziej szczegółowy. Tak właśnie robi się np. badania stawów, przysadki, oczodołów – małe FoV, wysoka matryca, wysokie wymagania co do geometrii i ostrości. W praktyce technik zawsze musi szukać kompromisu: mniejszy FoV i większa matryca oznaczają dłuższy czas skanowania i mniejszy sygnał na piksel (SNR spada, bo ten sam sygnał z większego obszaru dzielimy na więcej elementów). Dlatego w standardach protokołów MR (np. neuroradiologicznych) ustala się minimalnie akceptowalny SNR i na tej podstawie dobiera FoV i matrycę. Moim zdaniem warto na to patrzeć praktycznie: jeśli lekarz prosi o „wysoką rozdzielczość”, to technik od razu myśli o zmniejszeniu FoV w stosunku do interesującej okolicy anatomicznej i zwiększeniu matrycy, o ile czas badania i współpraca pacjenta na to pozwalają. To jest klasyczna dobra praktyka w MR, stosowana praktycznie w każdym nowoczesnym protokole wysokorozdzielczym, np. w badaniach 3D T1 mózgu czy drobnych struktur kostno‑chrzęstnych.

Pytanie 25

Radiofarmaceutyki stosowane w medycynie nuklearnej powstają dzięki połączeniu radioizotopu

A. z ligandem.
B. z wodorem.
C. z berylem.
D. z helem.
Prawidłowo – kluczowym elementem radiofarmaceutyku jest połączenie radioizotopu z ligandem. Ligand to cząsteczka chemiczna, która „prowadzi” radioizotop do konkretnego narządu, receptora albo procesu metabolicznego w organizmie. Sam radioizotop emituje promieniowanie (np. gamma w scyntygrafii czy pozytony w PET), ale bez ligandu byłby po prostu niespecyficznym źródłem promieniowania, które rozkłada się w organizmie dość chaotycznie. Dopiero dobranie odpowiedniego ligandu pozwala uzyskać tzw. swoistość narządową lub receptorową. W praktyce klinicznej klasycznym przykładem jest 99mTc-MDP używany w scyntygrafii kości – technet-99m to radioizotop, a MDP jest ligandem wiążącym się z tkanką kostną, szczególnie tam, gdzie jest wzmożony metabolizm kostny (np. przerzuty nowotworowe). Podobnie w PET mamy 18F-FDG, gdzie 18F to radioizotop fluoru, a FDG (fluorodeoksyglukoza) jest analogiem glukozy, który gromadzi się w komórkach o wysokim metabolizmie glukozy, np. komórkach nowotworowych lub w aktywnym zapaleniu. Z mojego doświadczenia nauki medycyny nuklearnej wynika, że zrozumienie roli ligandu bardzo ułatwia potem ogarnięcie, dlaczego różne radiofarmaceutyki mają inne wskazania: bo różne ligandy „celują” w inne struktury biologiczne. Standardem postępowania jest projektowanie radiofarmaceutyków właśnie w oparciu o właściwości farmakokinetyczne ligandu (droga podania, czas dystrybucji, metabolizm, wydalanie), a radioizotop dobiera się tak, żeby jego okres półtrwania i rodzaj promieniowania pasowały do planowanego badania lub terapii. W nowoczesnej medycynie nuklearnej coraz większy nacisk kładzie się na tzw. radiofarmaceutyki receptorowe, np. znakowane analogi somatostatyny w guzach neuroendokrynnych czy ligandy dla PSMA w diagnostyce raka prostaty. We wszystkich tych przypadkach fundamentem jest to samo: radioizotop + odpowiednio dobrany ligand tworzą razem skuteczny i bezpieczny radiofarmaceutyk.

Pytanie 26

W radiografii mianem SID określa się

A. system automatycznej regulacji jasności.
B. odległość między źródłem promieniowania a detektorem obrazu.
C. system automatycznej kontroli ekspozycji.
D. odległość między obiektem badanym a detektorem obrazu.
Prawidłowo, w radiografii SID (Source to Image Distance) oznacza odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu, czyli kasetą, przetwornikiem cyfrowym, płytą DR itp. To jest podstawowy parametr geometryczny badania RTG. Moim zdaniem warto go traktować tak samo poważnie, jak kV czy mAs, bo wpływa bezpośrednio na jakość obrazu i dawkę. Im większy SID, tym promieniowanie jest bardziej równoległe, co zmniejsza powiększenie i zniekształcenia obrazu, a poprawia odwzorowanie wymiarów anatomicznych. Standardowo przy zdjęciach klatki piersiowej stosuje się duży SID (np. ok. 180 cm), żeby ograniczyć powiększenie sylwetki serca i uzyskać lepszą ocenę pól płucnych. Przy zdjęciach kończyn często używa się krótszych odległości, np. 100–115 cm, bo łatwiej wtedy uzyskać odpowiednią ekspozycję przy mniejszej dawce. Z mojego doświadczenia w pracowni radiologicznej jednym z typowych błędów jest przypadkowa zmiana SID, np. przy przesuwaniu statywu, bez korekty parametrów ekspozycji. Prowadzi to do prześwietlonych lub niedoświetlonych zdjęć, a czasem do konieczności powtórzenia badania, czyli niepotrzebnego zwiększenia dawki dla pacjenta. Dobre praktyki mówią jasno: dla danej projekcji należy stosować stały, powtarzalny SID, zgodny z protokołem pracowni, a każda zmiana odległości wymaga przeliczenia ekspozycji zgodnie z prawem odwrotności kwadratu odległości. W nowoczesnych aparatach RTG SID jest zwykle wyświetlany na konsoli i warto na to zerkać rutynowo, bo to naprawdę ułatwia utrzymanie stałej jakości badań.

Pytanie 27

Folia wzmacniająca umieszczona w kasecie rentgenowskiej emituje pod wpływem promieniowania X światło

A. ultrafioletowe, wymagające zwiększenia dawki promieniowania do wykonania badania.
B. widzialne, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
C. ultrafioletowe, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
D. widzialne, wymagające zwiększenia dawki promieniowania do wykonania badania.
Prawidłowo – folia wzmacniająca (ekran wzmacniający) w kasecie rentgenowskiej emituje światło widzialne, a jej głównym zadaniem jest właśnie umożliwienie zmniejszenia dawki promieniowania X potrzebnej do wykonania zdjęcia. Promieniowanie rentgenowskie pada na folię, a kryształy luminoforu (np. wolframian wapnia w starszych kasetach albo związki ziem rzadkich – gadolinu, lantanu – w nowoczesnych) pochłaniają fotony X i zamieniają ich energię na błysk światła widzialnego. To światło naświetla film dużo efektywniej niż same fotony X, dlatego do uzyskania odpowiedniej czerni na filmie wystarczy znacznie mniejsza dawka promieniowania. W praktyce klinicznej oznacza to realne obniżenie narażenia pacjenta – w klasycznych systemach analogowych nawet kilkukrotne. Moim zdaniem to jeden z podstawowych przykładów, jak fizyka medyczna przekłada się na ochronę radiologiczną w codziennej pracy. W nowoczesnych kasetach CR/DR idea jest podobna: mamy warstwę fosforową lub detektor półprzewodnikowy, który też ma za zadanie jak najlepiej „wyłapać” fotony X i przekształcić je w sygnał (świetlny lub elektryczny), żeby nie trzeba było sztucznie podkręcać dawki. Ważna dobra praktyka: zawsze dobiera się kasetę i rodzaj folii do typu badania (np. folie o większej czułości do badań pediatrycznych), właśnie po to, żeby zgodnie ze standardem ALARA (As Low As Reasonably Achievable) trzymać dawki jak najniższe przy zachowaniu diagnostycznej jakości obrazu. Widać to choćby przy zdjęciach klatki piersiowej – odpowiednio dobrany ekran wzmacniający pozwala skrócić czas ekspozycji, zmniejszyć dawkę i jednocześnie ograniczyć poruszenie obrazu.

Pytanie 28

Który detektor w radiografii wymaga laserowego czytnika obrazu?

A. Detektor selenowy.
B. Płyta fosforowa.
C. Detektor krzemowy.
D. Błona halogenosrebrowa.
Prawidłowa jest odpowiedź z płytą fosforową, bo to właśnie klasyczny detektor stosowany w radiografii pośredniej CR (Computed Radiography), który wymaga odczytu obrazu za pomocą skanera laserowego. Płyta fosforowa jest pokryta tzw. fosforem stymulowanym światłem (PSP – photostimulable phosphor). W momencie naświetlenia promieniowaniem rentgenowskim w krysztale tworzą się pułapki elektronowe, które „zapamiętują” rozkład dawki. Obraz nie jest widoczny od razu, tylko ma postać utajoną. Dopiero przejście wiązki laserowej w skanerze CR powoduje uwolnienie zmagazynowanej energii w formie światła, które jest następnie zamieniane na sygnał elektryczny i cyfrowy obraz. W praktyce oznacza to, że w pracowni z systemem CR zawsze mamy osobne urządzenie – czytnik płyt, do którego technik wkłada kasetę z płytą fosforową po wykonaniu ekspozycji. Jest to bardzo charakterystyczny etap pracy: najpierw ekspozycja przy aparacie RTG, potem transport kasety do czytnika, skanowanie laserem, a na końcu pojawienie się obrazu w systemie PACS. W nowocześniejszych systemach DR (detektory bezpośrednie lub pośrednie) takiego etapu już nie ma, bo obraz powstaje praktycznie w czasie rzeczywistym i jest od razu w formie cyfrowej. Mimo że CR jest powoli wypierane przez DR, w wielu szpitalach i przychodniach nadal jest szeroko używane, bo jest tańsze przy modernizacji starszych aparatów analogowych. Moim zdaniem dobrze jest mieć to rozróżnienie w małym palcu, bo na egzaminach i w praktyce ciągle pojawia się pytanie: który system wymaga laserowego skanera? Zawsze: płyta fosforowa, czyli radiografia pośrednia CR.

Pytanie 29

Kolimator wielolistkowy w akceleratorze liniowym jest stosowany do

A. modulacji mocy wiązki.
B. generowania czasu napromieniania.
C. wyznaczania pozycji pola napromienianego.
D. formowania kształtu pola napromienianego.
Prawidłowo – kolimator wielolistkowy (MLC, z ang. multileaf collimator) w akceleratorze liniowym służy właśnie do formowania kształtu pola napromieniania. To jest jego podstawowa i najważniejsza rola w radioterapii z wykorzystaniem fotonów megawoltowych. Zamiast prostego, prostokątnego pola ustawianego tylko kolimatorami szczękowymi, MLC pozwala „wyciąć” pole dokładnie pod zarys guza widoczny na planie leczenia. Każdy listek MLC jest wykonany z materiału silnie pochłaniającego promieniowanie (najczęściej wolfram), a ich niezależny ruch powoduje, że można kształtować wiązkę bardzo precyzyjnie, praktycznie jak nożyczkami. W nowoczesnych technikach, takich jak 3D-CRT, IMRT czy VMAT, formowanie pola przez MLC jest standardem i podstawą dobrej praktyki klinicznej. Dzięki temu można lepiej oszczędzać narządy krytyczne (OAR), na przykład rdzeń kręgowy, nerki czy ślinianki, a jednocześnie dostarczać wysoką dawkę do objętości PTV. Moim zdaniem, bez sprawnego MLC trudno dziś mówić o zaawansowanej radioterapii – to jest element kluczowy w każdym nowoczesnym akceleratorze. W technikach dynamicznych listki mogą się poruszać w trakcie napromieniania, ale nadal ich główną funkcją jest zmiana kształtu i rozkładu dawki w polu, a nie samo odmierzanie czasu czy ustawianie środka pola. W praktyce technik radioterapii widzi na panelu sterowania właśnie kontur pola utworzony przez MLC, dopasowany do obrysu guza z obrazu planistycznego CT, co jest zgodne z zaleceniami międzynarodowych towarzystw, takich jak ICRU czy ESTRO.

Pytanie 30

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, nierozpuszczalne w wodzie.
B. Środki na bazie gadolinu.
C. Środki na bazie siarczanu baru.
D. Jodowe, rozpuszczalne w wodzie.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 31

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. LDR
B. HDR
C. PDR
D. MDR
Prawidłowa odpowiedź to PDR, czyli Pulsed Dose Rate brachyterapia. Chodzi dokładnie o taką technikę, gdzie wysokoaktywny izotop (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się impulsach dawki. Mechanicznie wygląda to bardzo podobnie do HDR, bo też używa się afterloadera krokowego, który przemieszcza źródło po kolejnych pozycjach w aplikatorze, ale kluczowa różnica jest w sposobie podawania dawki w czasie: w PDR podaje się wiele krótkich impulsów, np. co godzinę, tak żeby biologicznie przypominało to napromienianie ciągłe jak w klasycznej LDR. W praktyce klinicznej PDR jest często stosowana tam, gdzie chcemy mieć precyzję i elastyczność HDR (dokładne pozycjonowanie źródła, możliwość modyfikacji planu), ale jednocześnie zależy nam na ochronie tkanek zdrowych dzięki efektowi repopulacji i naprawy uszkodzeń DNA pomiędzy impulsami. Moim zdaniem fajne w PDR jest to, że łączy trochę dwa światy: technologię wysokiej mocy dawki z radiobiologią dawki niskiej. W zaleceniach międzynarodowych (np. ESTRO, ICRU) podkreśla się, że planowanie PDR wymaga bardzo dokładnego określenia czasu trwania impulsu, przerw między impulsami oraz całkowitej dawki, bo z punktu widzenia tkanek liczy się nie tylko suma Gy, ale też rozkład w czasie. W codziennej pracy technika czy fizyka medycznego ważne jest rozumienie, że „pulsed” w nazwie to właśnie te wielokrotne wjazdy i wyjazdy źródła do tego samego aplikatora według zaprogramowanego harmonogramu, a nie jednorazowa ekspozycja jak w HDR. Dzięki temu łatwiej odróżnić PDR od pozostałych skrótów, które mówią głównie o mocy dawki, a nie o tym specyficznym, impulsowym sposobie jej podawania.

Pytanie 32

Podstawowym elementem diagnostycznym aparatury izotopowej wykorzystującej emisyjne metody pomiaru jest

A. kamera scyntylacyjna.
B. woltomierz.
C. amperomierz.
D. komora jonizacyjna.
Prawidłową odpowiedzią jest kamera scyntylacyjna, bo to właśnie ona stanowi podstawowy element diagnostyczny w aparaturze izotopowej wykorzystującej emisyjne metody pomiaru. W emisyjnych technikach medycyny nuklearnej źródłem promieniowania jest radioizotop podany pacjentowi, a zadaniem układu pomiarowego jest rejestracja promieniowania gamma wychodzącego z organizmu. Kamera scyntylacyjna (gammakamera) zamienia te kwanty promieniowania na błyski światła w krysztale scyntylacyjnym (najczęściej NaI(Tl)), a potem na sygnał elektryczny w fotopowielaczach. Na tej podstawie system tworzy obraz rozkładu radiofarmaceutyku w ciele. To właśnie ten element decyduje o jakości diagnostycznej badania: rozdzielczości przestrzennej, czułości detekcji, możliwości wykonywania projekcji planarnych i badań SPECT. W praktyce klinicznej kamera scyntylacyjna jest sercem całego zestawu – reszta aparatury (kolimatory, układy akwizycji, oprogramowanie) tylko wspiera jej działanie. Z mojego doświadczenia to na ustawieniu parametrów pracy kamery, doborze odpowiedniego kolimatora i właściwej energii okna fotopiku opiera się większość dobrej praktyki w scyntygrafii. W nowoczesnych pracowniach standardem jest używanie kamer scyntylacyjnych sprzężonych z TK (SPECT/CT), ale wciąż kluczowy element emisyjny to właśnie detektor scyntylacyjny. Bez niego mamy co najwyżej licznik promieniowania, a nie rzeczywiste narzędzie diagnostyki obrazowej zgodne z wytycznymi medycyny nuklearnej.

Pytanie 33

Jaka jest moc dawki pochłoniętej w brachyterapii HDR?

A. Mniej niż 2 Gy/h
B. W zakresie 3-5 Gy/h
C. W zakresie 6-11 Gy/h
D. Więcej niż 12 Gy/h
Prawidłowo – brachyterapia HDR (High Dose Rate) to technika, w której moc dawki pochłoniętej wynosi powyżej 12 Gy/h. W praktyce klinicznej stosuje się jeszcze wyższe wartości, rzędu kilkudziesięciu, a nawet kilkuset Gy/h w miejscu źródła, ale definicyjnie HDR to właśnie zakres >12 Gy/h. Jest to zgodne z klasycznym podziałem brachyterapii na LDR (low dose rate, zwykle ok. 0,4–2 Gy/h), MDR (medium dose rate), PDR (pulsed dose rate) oraz HDR. Moim zdaniem warto to sobie po prostu skojarzyć: HDR = bardzo krótki czas zabiegu, ale bardzo duża moc dawki w trakcie ekspozycji. W brachyterapii HDR stosuje się najczęściej źródło 192Ir, które jest automatycznie wysuwane z afterloadera do aplikatorów umieszczonych w guzie albo w jego bezpośrednim sąsiedztwie. Dzięki wysokiej mocy dawki można podać zaplanowaną dawkę całkowitą w kilku-kilkunastu frakcjach trwających po kilka minut, zamiast wielu godzin czy dni jak w LDR. Z punktu widzenia organizacji pracy oddziału onkologii to ogromny plus: łatwiej zaplanować harmonogram, skraca się czas zajęcia sali i aparatury, a pacjent często może być leczony ambulatoryjnie. Jednocześnie, przy tak dużej mocy dawki, bardzo ważne jest precyzyjne planowanie leczenia w systemie TPS, dokładne obrazowanie (TK, MR) do wyznaczenia objętości tarczowych i narządów krytycznych oraz rygorystyczne przestrzeganie zasad ochrony radiologicznej. W HDR każdy błąd w pozycjonowaniu aplikatora czy czasie ekspozycji od razu przekłada się na duże odchylenie dawki. Dlatego w dobrych ośrodkach tak duży nacisk kładzie się na procedury QA, weryfikację czasu przebywania źródła w poszczególnych pozycjach (tzw. dwell time) oraz kontrolę geometrii układu. W praktyce technika HDR jest szeroko stosowana np. w nowotworach ginekologicznych, raka prostaty, raka płuca czy przełyku, właśnie dzięki możliwościom konformnego podania wysokiej dawki w krótkim czasie przy stosunkowo szybkim spadku dawki w tkankach otaczających.

Pytanie 34

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 0,1 + 0,3 MeV
B. 1 + 3 MeV
C. 4 + 25 MeV
D. 100 + 150 MeV
Poprawna odpowiedź „4–25 MeV” dobrze oddaje typowy zakres energii wiązki fotonowej generowanej w medycznym przyspieszaczu liniowym stosowanym w radioterapii. W praktyce klinicznej większość akceleratorów terapeutycznych pracuje z energiami fotonów około 4, 6, 10, 15, czasem 18 MV (czyli MeV, bo w tym kontekście używa się zamiennie skrótu MV), a górna granica rzędu 20–25 MeV jest już stosowana rzadziej, ale wciąż mieści się w standardach. Takie energie pozwalają na głęboką penetrację w tkankach, co jest kluczowe przy napromienianiu nowotworów położonych kilka–kilkanaście centymetrów pod powierzchnią skóry, np. guzów w miednicy czy w śródpiersiu. Z mojego doświadczenia, w codziennej pracy klinicznej najczęściej używa się wiązek 6 i 10 MV, bo dają dobry kompromis między głębokością dawki a ochroną skóry. Dzięki zjawisku tzw. build-up dawka maksymalna odkłada się na pewnej głębokości, a nie od razu na powierzchni, co jest ważnym elementem dobrej praktyki radioterapeutycznej. Standardy planowania (np. zalecenia ESTRO, IAEA) zakładają stosowanie właśnie takich energii w teleterapii megawoltowej, z użyciem technik IMRT czy VMAT. Przy niższych energiach fotonów nie uzyskano by odpowiedniej głębokości penetracji, a przy dużo wyższych pojawiłyby się dodatkowe problemy, jak nasilona produkcja neutronów i trudniejsza ochrona radiologiczna bunkra. Warto też pamiętać, że inny jest zakres energii w diagnostyce (kilkadziesiąt–kilkaset keV), a inny w terapii megawoltowej, i to pytanie właśnie ładnie to rozgranicza. W praktyce technik radioterapii, wiedza o typowym zakresie 4–25 MeV pomaga lepiej rozumieć krzywe procentowej dawki w głębokości, dobór energii do lokalizacji guza i ograniczeń narządów krytycznych, a więc realnie przekłada się na bezpieczeństwo i skuteczność leczenia.

Pytanie 35

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. powyżej 2000 ms
B. od 800 ms do 900 ms
C. od 500 ms do 700 ms
D. od 300 ms do 400 ms
Prawidłowa odpowiedź „powyżej 2000 ms” dobrze oddaje charakter obrazowania T2-zależnego w klasycznej sekwencji echa spinowego (spin echo). Żeby uzyskać kontrast T2, trzeba możliwie mocno zredukować wpływ różnic w T1, a podkreślić różnice w czasie relaksacji poprzecznej T2 między tkankami. Z praktycznego punktu widzenia oznacza to zastosowanie długiego czasu repetycji TR (typowo > 2000 ms) oraz stosunkowo długiego czasu echa TE (zwykle rzędu 80–120 ms). Długi TR sprawia, że magnetyzacja podłużna większości tkanek zdąży się w dużej mierze zregenerować przed kolejnym impulsem RF, przez co kontrast T1 ulega „spłaszczeniu”. Wtedy głównym czynnikiem różnicującym jasność tkanek na obrazie staje się ich T2. W praktyce klinicznej, np. w badaniach mózgowia, sekwencje T2-zależne (SE lub FSE/TSE) z TR powyżej 2000 ms są standardem do uwidaczniania obrzęku, zmian zapalnych, demielinizacyjnych czy ognisk niedokrwiennych. Płyn mózgowo-rdzeniowy przy długim TR i długim TE jest bardzo jasny, a tkanka tłuszczowa mniej dominuje niż w obrazach T1-zależnych. Moim zdaniem warto zapamiętać prostą zasadę: długie TR = wyciszamy T1, długie TE = podkreślamy T2. W większości protokołów MR stosowanych w szpitalach i przychodniach właśnie takie parametry (TR > 2000 ms) są wpisane jako domyślne dla sekwencji T2-zależnych spin echo, zgodnie z powszechnie przyjętymi rekomendacjami producentów skanerów i standardami opisów radiologicznych.

Pytanie 36

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w kwartale.
B. w tygodniu.
C. w miesiącu.
D. w roku.
Prawidłowa odpowiedź „w miesiącu” wynika z przyjętych w radiologii standardów kontroli jakości dla aparatów rentgenowskich. Testy podstawowe z zakresu geometrii pola rentgenowskiego mają za zadanie sprawdzić, czy pole wiązki promieniowania rzeczywiście pokrywa się z tym, co pokazuje lampa z kolimatorem i symulacja świetlna. Innymi słowy, czy to, co widzisz w polu świetlnym na stole, faktycznie jest naświetlane promieniowaniem X. Moim zdaniem to jest absolutny fundament bezpiecznej pracy w pracowni RTG, bo każdy błąd w geometrii pola od razu odbija się na jakości obrazu i na narażeniu pacjenta. Zgodnie z dobrymi praktykami (różne wytyczne krajowe i europejskie dotyczące kontroli jakości w diagnostyce obrazowej) testy geometrii pola zalicza się do tzw. testów podstawowych, wykonywanych cyklicznie, zwykle właśnie raz w miesiącu. Chodzi o sprawdzenie zgodności wielkości pola, jego centrowania względem kasety/detektora, zbieżności osi wiązki z osią stołu i lampy, oraz zgodności wskaźników odległości ognisko–detektor. W praktyce taki test może polegać na ułożeniu specjalnego fantomu do testów geometrii pola, z naniesionymi znacznikami, i wykonaniu ekspozycji przy różnych ustawieniach pola świetlnego. Potem ocenia się, czy krawędzie obszaru naświetlonego zgadzają się z zaznaczonym obszarem w polu świetlnym, zwykle dopuszczalne odchylenia są rzędu kilku procent wymiaru pola (np. 2% SID). Regularność comiesięcznego testu ma sens, bo geometria pola może się stopniowo rozjeżdżać: poluzowane mechanizmy kolimatora, uszkodzenie lustra, zmiana położenia żarówki, drobne uderzenia lampą o stół – to wszystko w praktyce się zdarza. Miesięczny interwał jest takim rozsądnym kompromisem: na tyle często, żeby szybko wychwycić nieprawidłowości, a jednocześnie nie paraliżować pracy pracowni nadmiarem testów. W wielu pracowniach, z mojego doświadczenia, łączy się ten test z innymi prostymi kontrolami okresowymi, np. sprawdzeniem działania wskaźników odległości, poprawności blokad mechanicznych czy stabilności nastaw ekspozycji. To wszystko wpisuje się w system zapewnienia jakości i ochrony radiologicznej, gdzie jednym z kluczowych celów jest unikanie zbędnych powtórzeń badań i ograniczanie dawek dla pacjenta i personelu.

Pytanie 37

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. poniżej 400 ms
B. powyżej 2000 ms
C. od 500 ms do 700 ms
D. od 800 ms do 900 ms
Poprawna jest odpowiedź „powyżej 2000 ms”, bo obraz T2-zależny w sekwencji echa spinowego uzyskuje się dopiero przy długim czasie repetycji TR i jednocześnie długim czasie echa TE. W uproszczeniu: TR kontroluje, na ile obraz będzie zależny od różnic T1, a TE – od różnic T2. Jeśli TR jest krótki, dominują efekty T1, jeśli TR jest długi (typowo > 2000 ms w klasycznych sekwencjach spin echo), efekt T1 jest mocno „wypłaszczony”, więc lepiej widać różnice relaksacji T2 między tkankami. W praktyce klinicznej, przy klasycznym SE, dla T2-zależnych obrazów stosuje się zwykle TR rzędu 2000–4000 ms i TE około 80–120 ms. Wtedy płyn (np. płyn mózgowo-rdzeniowy) jest bardzo jasny, a tkanki o krótkim T2 (np. istota biała) są ciemniejsze. To jest taki typowy „look” T2, który radiolodzy i technicy od razu rozpoznają. Moim zdaniem warto zapamiętać to w parze: T1 – krótki TR, krótki TE; T2 – długi TR, długi TE. W codziennej pracy, np. przy badaniu mózgowia, kręgosłupa czy stawów, sekwencje T2-zależne są kluczowe do wykrywania obrzęku, wysięku, zmian zapalnych i wielu guzów, bo płyn i obszary o podwyższonej zawartości wody świecą jasno. Dobrą praktyką jest zawsze patrzeć w protokole badania na ustawione TR i TE – dzięki temu łatwiej zrozumieć, dlaczego obraz wygląda tak, a nie inaczej, i odróżnić, czy patrzymy właśnie na T1, T2 czy obraz PD-zależny.

Pytanie 38

Standardowo do wykonania których zdjęć należy zastosować kratkę przeciwrozproszeniową?

A. Czaszki i stawu skokowego.
B. Klatki piersiowej i nadgarstka.
C. Czaszki i jamy brzusznej.
D. Jamy brzusznej i stawu łokciowego.
Prawidłowa odpowiedź wskazuje na czaszkę i jamę brzuszną, co bardzo dobrze oddaje standardowe zasady stosowania kratki przeciwrozproszeniowej w klasycznej radiografii. Kratka (grid) jest potrzebna tam, gdzie mamy stosunkowo grubą część ciała i dużo tkanek miękkich, które generują silne promieniowanie rozproszone na skutek zjawiska Comptona. To rozproszenie psuje kontrast obrazu, powoduje „zamglenie” i utratę szczegółów. Moim zdaniem najłatwiej to zapamiętać tak: im grubsza i bardziej „miękka” anatomicznie okolica, tym większa szansa, że trzeba użyć kratki. W badaniach czaszki najczęściej używa się napięć rzędu 70–80 kV, a grubość struktur kostnych i części miękkich głowy jest na tyle duża, że ilość promieniowania rozproszonego jest istotna. Z mojego doświadczenia, bez kratki obraz byłby wyraźnie bardziej „płaski”, szczególnie przy ocenie struktur podstawy czaszki czy zatok. Podobnie w jamie brzusznej: mamy tam głównie tkanki miękkie, narządy miąższowe, gaz w jelitach, a ekspozycje są wykonywane na dość wysokich wartościach kV. To wszystko sprzyja powstawaniu rozproszenia, więc kratka przeciwrozproszeniowa jest tu praktycznie standardem w prawidłowo prowadzonej pracowni RTG. W dobrych praktykach zaleca się stosowanie kratki dla obszarów o grubości powyżej ok. 10–12 cm, co klasycznie dotyczy właśnie czaszki (w wielu projekcjach) i jamy brzusznej. Warto też pamiętać, że użycie kratki wymaga odpowiedniej centracji wiązki, właściwej odległości ognisko–kratka i dostosowania parametrów ekspozycji (zwykle trzeba podnieść mAs), żeby skompensować pochłanianie promieniowania przez kratkę. W nowoczesnych systemach cyfrowych część ośrodków próbuje ograniczać stosowanie kratki przy mniejszych pacjentach, ale w typowych, dorosłych badaniach czaszki i brzucha kratka nadal pozostaje złotym standardem poprawy jakości obrazu.

Pytanie 39

Który artefakt jest widoczny na skanie tomografii komputerowej?

Ilustracja do pytania
A. Elektrostatyczny.
B. Metaliczny.
C. Ruchowy.
D. Utwardzonej wiązki.
Na przedstawionym skanie TK widać bardzo charakterystyczny artefakt metaliczny: od jasnego, silnie pochłaniającego struktury (materiał metaliczny – np. śruba, stabilizacja, klips) odchodzą promieniste smugi i pasma o bardzo wysokiej i bardzo niskiej gęstości (przepalenia i wyciemnienia). To klasyczny obraz tzw. streak artifacts związanych z obecnością metalu w polu obrazowania. Metal ma bardzo wysoki współczynnik pochłaniania promieniowania rentgenowskiego, powoduje nasycenie detektorów, zjawisko częściowego objętościowania i silne utwardzenie wiązki, ale w praktyce w diagnostyce TK takie zjawisko określa się właśnie jako artefakt metaliczny. Moim zdaniem warto zapamiętać, że jeśli na obrazie TK widzisz gwiaździste smugi wychodzące z jasnego, „przepalonego” implantu albo cementu kostnego, to praktycznie zawsze mówimy o artefakcie metalicznym. W codziennej pracy technika obrazowania stosuje się różne metody jego redukcji: zwiększenie kV, węższe pole obrazowania, algorytmy MAR (Metal Artifact Reduction), rekonstrukcję iteracyjną, a także cienkie warstwy i odpowiedni dobór okna. W wielu pracowniach, zgodnie z aktualnymi zaleceniami producentów i standardami dobrej praktyki, przed badaniem TK dokładnie dokumentuje się obecność implantów metalowych, a w protokole badań ustawia się specjalne programy „post-op spine”, „hip prosthesis” itp. Pozwala to ograniczyć wpływ metalu na ocenę tkanek sąsiednich, np. kanału kręgowego czy struktur naczyniowych. Z mojego doświadczenia im lepiej technik rozumie mechanizm powstawania artefaktu metalicznego, tym sprawniej dobiera parametry ekspozycji oraz rekonstrukcji, tak żeby lekarz radiolog dostał obraz możliwie czytelny mimo obecności metalu.

Pytanie 40

W lampie rentgenowskiej promieniowanie X powstaje w wyniku hamowania

A. protonów na katodzie.
B. elektronów na katodzie.
C. elektronów na anodzie.
D. protonów na anodzie.
Poprawnie – w lampie rentgenowskiej promieniowanie X powstaje głównie w wyniku gwałtownego hamowania szybkich elektronów na anodzie. W typowej lampie mamy katodę (żarnik), która emituje elektrony przez emisję termojonową. Następnie między katodą a anodą przykładane jest wysokie napięcie, zwykle kilkadziesiąt do nawet ponad 100 kV. To napięcie bardzo mocno przyspiesza elektrony w próżni w kierunku anody. Kiedy te rozpędzone elektrony uderzają w materiał anody (najczęściej wolfram, rzadziej molibden lub inne stopy), są gwałtownie hamowane w polu elektrycznym jąder atomowych anody. I właśnie to hamowanie powoduje emisję promieniowania hamowania, tzw. bremsstrahlung, które stanowi podstawową część widma promieniowania rentgenowskiego. Dodatkowo dochodzi jeszcze promieniowanie charakterystyczne, gdy elektron wybija elektron z wewnętrznej powłoki atomu wolframu, ale ono też powstaje w materiale anody, a nie na katodzie. W praktyce technik obrazowania musi rozumieć, że zmiana napięcia na lampie (kV) wpływa na energię elektronów i tym samym na energię i przenikliwość promieniowania X, a zmiana natężenia prądu (mA) wpływa głównie na ilość elektronów, czyli na ilość promieniowania. Z mojego doświadczenia opłaca się to dobrze ogarnąć, bo potem łatwiej rozumie się zależności między ustawieniami aparatu a jakością obrazu i dawką dla pacjenta. W nowoczesnych aparatach RTG cała konstrukcja lampy, chłodzenie anody (np. anoda obrotowa) i dobór materiałów są oparte właśnie na tym zjawisku hamowania elektronów w anodzie, żeby uzyskać dużo stabilnego promieniowania przy jednoczesnym bezpiecznym odprowadzeniu ciepła.