Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 9 maja 2026 17:55
  • Data zakończenia: 9 maja 2026 18:12

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W radiologii analogowej lampy rentgenowskiej z tubusem używa się do wykonania zdjęcia

A. wewnątrzustnego zębów.
B. osiowego czaszki.
C. bocznego czaszki.
D. PA zatok.
Prawidłowo – w radiologii analogowej lampa rentgenowska z tubusem jest typowo wykorzystywana właśnie do wykonywania zdjęć wewnątrzustnych zębów. Tubus to nic innego jak specjalna nasadka/kanał ograniczający wiązkę promieniowania X do stosunkowo małego pola. Dzięki temu można precyzyjnie naświetlić obszar zębowy, minimalizując dawkę dla pozostałych tkanek i poprawiając jakość obrazu poprzez redukcję rozproszenia. W stomatologii klasycznym przykładem są zdjęcia zębowe okołowierzchołkowe, zgryzowe czy skrzydłowo-zgryzowe, gdzie aparat stomatologiczny (często ścienny lub mobilny) ma właśnie wąski, długi tubus. W dobrych praktykach przyjmuje się używanie tubusów prostokątnych lub kolimowanych, co dodatkowo ogranicza niepotrzebne napromienianie. Moim zdaniem to jedno z lepszych zastosowań promieniowania – małe pole, konkretna informacja diagnostyczna. W przeciwieństwie do projekcji czaszki czy zatok, gdzie stosuje się raczej klasyczne aparaty ogólnodiagnostyczne z ruchomą lampą i stołem, zdjęcia wewnątrzustne wymagają bardzo precyzyjnego ustawienia wiązki względem zęba i błony obrazowej/filmu umieszczonej w jamie ustnej pacjenta. Stąd tubus: ustala odległość ognisko–film, kierunek wiązki i ogranicza pole ekspozycji. Standardy stomatologiczne i wytyczne ochrony radiologicznej mocno podkreślają znaczenie właściwej kolimacji i stosowania osłon (fartuch ołowiany, osłona na tarczycę), a przy tubusie jest to łatwiejsze do zrealizowania. W praktyce technik powinien kojarzyć: mały aparat z tubusem = zdjęcia wewnątrzustne, duży aparat z bucky/stojakiem = klasyczne projekcje czaszki, zatok itp.

Pytanie 2

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
B. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
C. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
D. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
W rezonansie magnetycznym łatwo się pomylić między różnymi kątami impulsów RF i różnymi czasami, bo nazwy są podobne, a w praktyce w sekwencji dzieje się dużo naraz. Czas repetycji TR ma jednak bardzo konkretne znaczenie: to odstęp między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°, czyli między początkiem jednego cyklu pomiarowego a początkiem następnego. Impulsy 180° pojawiają się głównie jako impulsy refokusujące w sekwencjach spin-echo, ale nie one definiują TR. Ich zadaniem jest odwrócenie dekoherencji spowodowanej niejednorodnościami pola i „złożenie” sygnału w echo, które rejestrujemy w czasie TE. Dlatego wiązanie TR z odległością między impulsami 180° to pomylenie roli tych impulsów z parametrem czasowym sekwencji. Podobny błąd pojawia się przy myleniu TR z czasem inwersji TI. TI definiuje się jako odstęp między impulsem inwersyjnym 180° a momentem rejestracji sygnału (echa). To jest typowe np. w sekwencjach STIR czy FLAIR, gdzie odpowiednio tłumimy sygnał tkanki tłuszczowej albo płynu mózgowo-rdzeniowego. Jeśli ktoś próbuje opisać TR jako odstęp między impulsem inwersji 90° czy 180° a echem, to w praktyce miesza pojęcia TR, TE i TI w jedno. Typowy schemat myślowy jest taki: „jest jakiś impuls i po jakimś czasie jest echo, więc to pewnie TR”, ale to właśnie bardziej opisuje TE, czyli time to echo. TR odnosi się do powtarzania całego cyklu pobudzenia, a TE do odstępu między impulsem pobudzającym 90° a rejestrowanym echem. Dobre opanowanie tych definicji jest kluczowe przy ustawianiu protokołów MR, bo od TR i TE zależy, czy sekwencja będzie T1-, T2- czy PD-zależna, a od TI – czy uda się skutecznie wyciszyć wybraną tkankę. Z mojego doświadczenia, jak się raz porządnie rozrysuje schemat sekwencji spin-echo, to te pomyłki znikają, bo widać wyraźnie: TR liczymy między impulsami 90°, TE od 90° do echa, a TI od impulsu inwersyjnego 180° do echa.

Pytanie 3

Hiperfrakcjonowanie dawki w radioterapii oznacza napromieniowywanie pacjenta

A. raz w tygodniu.
B. codziennie.
C. kilka razy dziennie.
D. pięć razy w tygodniu.
Prawidłowo – hiperfrakcjonowanie w radioterapii oznacza podawanie dawki promieniowania kilka razy dziennie, w postaci wielu małych frakcji, a nie jednej większej. Chodzi o to, że całkowita dawka napromieniania jest podzielona na mniejsze porcje, zwykle 2 (czasem nawet 3) frakcje na dobę, z odpowiednim odstępem czasowym między nimi, najczęściej minimum 6 godzin. Z punktu widzenia radiobiologii wykorzystuje się tu różnice w zdolności naprawy uszkodzeń DNA między komórkami nowotworowymi a zdrowymi. Komórki prawidłowe lepiej regenerują się między kolejnymi frakcjami, więc mniejsze, częściej podawane dawki mogą ograniczać późne powikłania w tkankach zdrowych, a jednocześnie zwiększać szansę na kontrolę guza. W praktyce klinicznej takie schematy stosuje się np. w niektórych nowotworach głowy i szyi czy w wybranych guzach pediatrycznych, gdzie istotne jest zmniejszenie ryzyka późnych uszkodzeń narządów krytycznych. Hiperfrakcjonowanie wymaga bardzo dobrej organizacji pracy ośrodka: precyzyjnego planowania leczenia, rzetelnej weryfikacji pozycjonowania pacjenta przy każdym naświetlaniu oraz ścisłego trzymania się harmonogramu frakcji w ciągu dnia. W wytycznych z zakresu radioterapii onkologicznej podkreśla się też, że ten sposób frakcjonowania powinien być stosowany głównie w ośrodkach, które mają odpowiednie doświadczenie i zaplecze kadrowo‑techniczne, bo obciążenie dla zespołu i pacjenta jest po prostu większe niż przy standardowym schemacie raz dziennie.

Pytanie 4

W radioterapii hadronowej leczenie odbywa się przy użyciu

A. aparatu kobaltowego.
B. aparatu rentgenowskiego.
C. mobetronu.
D. cyklotronu.
Prawidłowo – w radioterapii hadronowej kluczowe jest użycie akceleratora cząstek, najczęściej cyklotronu. Hadrony (np. protony, jony węgla) to naładowane cząstki cięższe od elektronów, które mają zupełnie inny rozkład dawki w tkankach niż klasyczne promieniowanie fotonowe z liniowego akceleratora. Najważniejsze zjawisko, o którym warto pamiętać, to tzw. pik Bragga: dawka rośnie w miarę penetracji i maksimum osiąga na określonej głębokości, po czym gwałtownie spada praktycznie do zera. Dzięki temu można bardzo precyzyjnie „położyć” wysoką dawkę w guzie, jednocześnie oszczędzając tkanki położone za nim. W praktyce klinicznej oznacza to np. możliwość skutecznego leczenia guzów mózgu u dzieci, nowotworów gałki ocznej, guzów przy kręgosłupie czy w okolicy podstawy czaszki, gdzie ochrona struktur krytycznych (rdzeń kręgowy, pień mózgu, nerwy wzrokowe) jest absolutnym priorytetem. Cyklotron przyspiesza protony do energii rzędu 70–250 MeV, a następnie wiązka jest formowana, skanowana i kształtowana w systemie terapeutycznym (skanowanie ołówkową wiązką, systemy kolimacji, modulatory energii). Z mojego doświadczenia, w planowaniu leczenia hadronowego bardzo mocno podkreśla się precyzyjne obrazowanie (TK, MR) oraz dokładne wyznaczenie objętości tarczowych i narządów krytycznych, bo cała przewaga protonoterapii polega na tej doskonałej konformności dawki. Standardy ośrodków referencyjnych i wytyczne międzynarodowe (np. ESTRO, PTCOG) podkreślają, że radioterapia hadronowa wymaga ścisłej kontroli jakości wiązki z cyklotronu, codziennych testów parametrów fizycznych oraz bardzo dokładnego unieruchomienia pacjenta. Takie leczenie nie jest realizowane aparatem rentgenowskim, kobaltem czy mobetronem – to już inna liga technologiczna i fizyczna.

Pytanie 5

Co jest przyczyną artefaktu widocznego na obrazie MR?

Ilustracja do pytania
A. Pulsacyjny przepływ krwi.
B. Ruch narządu lub pacjenta.
C. Zjawisko zawijania fazy.
D. Zjawisko zaniku sygnału.
W rezonansie magnetycznym istnieje kilka typowych artefaktów i łatwo je ze sobą pomylić, szczególnie kiedy patrzymy tylko na pojedynczy przekrój. W tym pytaniu kluczowe jest odróżnienie zjawisk związanych z samą fizyką obrazowania od efektów wynikających z ruchu pacjenta. Zjawisko zawijania fazy, czyli aliasing, powstaje wtedy, gdy pole widzenia (FOV) w kierunku kodowania fazy jest zbyt małe w stosunku do rzeczywistej wielkości obszaru, z którego pochodzi sygnał. Struktury spoza FOV są „przenoszone” na przeciwległą stronę obrazu, jakby nachodziły na badany obszar. Wygląda to jak zdublowane elementy anatomiczne pojawiające się w miejscu, gdzie ich w ogóle nie powinno być. Na obrazie oczodołów w pytaniu nie ma jednak takiego typowego nałożenia struktur spoza pola – jest raczej rozmycie i nieostrość, co sugeruje ruch, a nie aliasing. Zanik sygnału kojarzy się głównie z artefaktami przepływowymi, niejednorodnością pola lub obecnością materiału o silnych właściwościach magnetycznych. Wtedy w obrazie widzimy ciemne strefy, „dziury” w sygnale, czasem z towarzyszącymi zniekształceniami geometrii. Tu sygnał nie znika, tylko jest rozciągnięty i nieostry, więc mechanizm jest inny. Pulsacyjny przepływ krwi faktycznie może dawać artefakty, zwłaszcza w naczyniach podstawy czaszki czy zatokach żylnych, ale najczęściej objawia się to pasmami wysokiego lub niskiego sygnału w przebiegu naczyń, czasem przypominającymi duchy w kierunku kodowania fazy. W oczodołach bardziej widoczne byłyby naczynia oczodołowe lub struktury sąsiadujące, a nie tak uogólnione rozmazanie konturów. Typowy błąd myślowy polega na tym, że każdą nieostrość przypisuje się od razu zanikowi sygnału albo aliasingowi, bo brzmią bardziej „fizycznie”. Tymczasem w codziennej praktyce technika MR najczęstszą przyczyną problemów z jakością obrazu jest zwykły ruch: mruganie, poruszenie głową, przełykanie śliny. Dlatego przy analizie artefaktów zawsze warto najpierw zadać sobie pytanie, czy pacjent mógł się ruszyć, a dopiero później szukać bardziej złożonych wyjaśnień fizycznych.

Pytanie 6

Glukoza podawana pacjentowi w badaniu PET jest znakowana radioaktywnym

A. fluorem.
B. technetem.
C. torem.
D. fosforem.
W badaniu PET standardowym radiofarmaceutykiem jest 18F-FDG, czyli deoksyglukoza znakowana izotopem fluoru-18. To właśnie fluor jest tutaj kluczowy. Jest to emiter pozytonów, który po podaniu dożylnym ulega rozpadowi, a powstające pozytony anihilują z elektronami w tkankach pacjenta. W wyniku anihilacji powstają dwie kwanty promieniowania gamma o energii 511 keV, lecące w przeciwnych kierunkach. Detektory w skanerze PET rejestrują te dwa fotony w koincydencji i na tej podstawie system rekonstruuje trójwymiarowy rozkład aktywności radiofarmaceutyku w organizmie. Dzięki temu można ocenić metabolizm glukozy w różnych narządach, głównie w mózgu, mięśniu sercowym oraz w tkance nowotworowej. W praktyce klinicznej 18F-FDG jest złotym standardem w onkologii, np. przy ocenie zaawansowania chłoniaków, raka płuca czy monitorowaniu odpowiedzi na chemioterapię. Moim zdaniem warto zapamiętać, że fluor-18 ma stosunkowo krótki czas połowicznego zaniku (ok. 110 minut), co z jednej strony wymaga dobrej logistyki (cyklotron, pracownia radiofarmacji, szybki transport), ale z drugiej ogranicza dawkę skuteczną dla pacjenta. Z punktu widzenia technika medycyny nuklearnej ważne jest też to, że FDG zachowuje się bardzo podobnie do naturalnej glukozy: wnika do komórek poprzez transportery GLUT, jest fosforylowana, ale dalej nie bierze udziału w glikolizie, więc „zatrzymuje się” w komórkach o wysokim metabolizmie. To właśnie pozwala obrazować ogniska nowotworowe, procesy zapalne czy żywotność mięśnia sercowego zgodnie z obowiązującymi protokołami i standardami EANM czy SNMMI.

Pytanie 7

W diagnostyce metodą rezonansu magnetycznego biorą udział

A. protony wodoru.
B. elektrony wodoru.
C. elektrony wapnia.
D. jądra wapnia.
W rezonansie magnetycznym kluczową rolę odgrywają protony wodoru, czyli po prostu jądra atomów wodoru obecne głównie w wodzie i tłuszczu. Moim zdaniem to jedna z tych rzeczy, które warto mieć „wryte” w pamięć, bo przewija się praktycznie wszędzie, gdzie mowa o MR. W organizmie człowieka woda stanowi większość masy, a każdy atom wodoru ma pojedynczy proton z własnym momentem magnetycznym (tzw. spinem). W silnym polu magnetycznym tomografu MR te protony ustawiają się częściowo równolegle do kierunku pola. Następnie urządzenie wysyła fale radiowe (impuls RF) o częstotliwości rezonansowej Larmora, które wytrącają te protony z równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego, emitując sygnał, który jest rejestrowany przez cewki odbiorcze. Na podstawie różnic w czasie relaksacji T1 i T2 oraz gęstości protonów w różnych tkankach komputer rekonstruuje obraz przekrojowy ciała. Dlatego w praktyce im więcej protonów wodoru w danej tkance, tym silniejszy sygnał MR, choć ważne są też właściwości środowiska chemicznego, np. różnice między tkanką tłuszczową a mięśniową. W standardach opisów badań MR często odnosi się do sekwencji zależnych od T1, T2, PD (proton density), co bezpośrednio pokazuje, że to właśnie protony wodoru są głównym „źródłem informacji” w tym badaniu. W codziennej pracy technika czy elektroradiologa przekłada się to na dobór odpowiednich sekwencji, parametrów TR, TE i typów obrazowania, aby jak najlepiej wykorzystać sygnał od protonów wodoru do uwidocznienia zmian patologicznych, np. obrzęku, martwicy, zmian demielinizacyjnych czy guzów. Bez obecności protonów wodoru obraz MR praktycznie by nie powstał, co widać chociażby w obrębie struktur zawierających mało wody (np. kość korowa), które dają bardzo słaby sygnał.

Pytanie 8

Największa wartość energii promieniowania stosowanego w radioterapii jest generowana przy użyciu

A. radioaktywnego cezu-137.
B. aparatu kobaltowego.
C. przyspieszacza liniowego.
D. aparatu rentgenowskiego.
Prawidłowo wskazany został przyspieszacz liniowy, bo to właśnie linac jest podstawowym źródłem najwyższych energii promieniowania stosowanych we współczesnej teleradioterapii. Typowy aparat kobaltowy (Co‑60) emituje promieniowanie gamma o stałej energii około 1,17–1,33 MeV, natomiast przyspieszacz liniowy generuje wiązki fotonowe o energiach nominalnych 4, 6, 10, 15, a nawet 18 MV, a także wiązki elektronowe o różnych energiach do leczenia zmian powierzchownych. Dzięki temu można dobrać energię do głębokości guza, uzyskać odpowiedni rozkład dawki i lepiej oszczędzić tkanki zdrowe. W praktyce klinicznej, zgodnie ze standardami nowoczesnej radioterapii, większość planów leczenia nowotworów głęboko położonych (np. rak płuca, rak prostaty, guzy głowy i szyi) wykonuje się właśnie na linacach, często w technikach IMRT, VMAT czy stereotaksji. Moim zdaniem kluczowe jest zrozumienie, że wysoka energia wiązki z przyspieszacza liniowego pozwala na tzw. efekt build‑up – maksymalna dawka pojawia się pod powierzchnią skóry, co zmniejsza jej uszkodzenie. Aparat rentgenowski do klasycznych zdjęć RTG pracuje na znacznie niższych napięciach (rzędu 30–150 kV), więc jego promieniowanie ma dużo mniejszą energię fotonów i nie nadaje się do głębokiego leczenia onkologicznego. Cez‑137 i kobalt‑60 są używane głównie w starszych typach teleterapii lub w brachyterapii, ale także nie osiągają tak szerokiego zakresu energii jak linac. W dobrze wyposażonych ośrodkach onkologicznych przyspieszacz liniowy jest dziś złotym standardem, właśnie ze względu na możliwość generowania najwyższych energii promieniowania terapeutycznego oraz precyzyjną modulację dawki w przestrzeni i czasie.

Pytanie 9

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 8 mSv
B. 20 mSv
C. 6 mSv
D. 15 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 10

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. skrócenie fali i zmniejszenie przenikliwości promieniowania X
B. wydłużenie fali i zmniejszenie przenikliwości promieniowania X
C. wydłużenie fali i zwiększenie przenikliwości promieniowania X
D. skrócenie fali i zwiększenie przenikliwości promieniowania X
Prawidłowo – zwiększenie napięcia na lampie rentgenowskiej skraca długość fali promieniowania X i jednocześnie zwiększa jego przenikliwość. Wynika to bezpośrednio z fizyki zjawiska: wyższe napięcie anodowe (kV) nadaje elektronom większą energię kinetyczną. Te szybsze elektrony uderzają w anodę i wytwarzają fotony promieniowania X o wyższej energii. A im wyższa energia fotonu, tym krótsza długość fali (E = h·c/λ) i większa zdolność przenikania przez tkanki pacjenta czy materiały osłonowe. W praktyce radiologicznej oznacza to, że podnosząc kV, uzyskujemy bardziej „twarde” promieniowanie, które lepiej przechodzi przez gęste struktury, np. kości miednicy czy klatkę piersiową u pacjentów o większej masie ciała. Moim zdaniem kluczowe jest kojarzenie: kV = jakość promieniowania (energia, przenikliwość), a mAs = ilość promieniowania (liczba fotonów). W nowoczesnych aparatach RTG standardy pracy i dobre praktyki (np. wytyczne EFRS, europejskie zalecenia dla ekspozycji) mówią jasno: dobiera się możliwie wysokie kV i możliwie niskie mAs, aby zmniejszyć dawkę dla pacjenta, ale jednocześnie zachować odpowiedni kontrast obrazu. Dla zdjęć klatki piersiowej stosuje się zwykle wyższe napięcia (np. 100–125 kV), właśnie po to, żeby promieniowanie miało wysoką przenikliwość i równomiernie „przeszło” przez cały przekrój klatki. Przy badaniach kończyn, gdzie struktury są cieńsze, używa się niższego napięcia, bo nie potrzebujemy aż tak twardego widma. Warto też pamiętać, że zwiększenie kV zmniejsza kontrast tkankowy obrazu (bo wszystko jest bardziej przepuszczalne), ale za to redukuje pochłoniętą dawkę w skórze. W dobrze prowadzonym pracowni RTG technik świadomie balansuje kV i mAs, aby osiągnąć kompromis między jakością diagnostyczną a ochroną radiologiczną. Z mojego doświadczenia to jedna z podstawowych umiejętności w diagnostyce obrazowej – rozumieć, że zmiana napięcia to nie tylko „jaśniej/ciemniej”, ale przede wszystkim zmiana energii i przenikliwości promieniowania.

Pytanie 11

Promieniowanie rentgenowskie powstaje w wyniku hamowania

A. kwantów energii na anodzie lampy rentgenowskiej.
B. kwantów energii na katodzie lampy rentgenowskiej.
C. elektronów na anodzie lampy rentgenowskiej.
D. elektronów na katodzie lampy rentgenowskiej.
Prawidłowo – promieniowanie rentgenowskie w klasycznej lampie diagnostycznej powstaje głównie w wyniku gwałtownego hamowania elektronów na anodzie. W lampie RTG elektrony są emitowane z rozżarzonej katody (emisja termoelektronowa), a następnie przyspieszane silnym napięciem wysokim, rzędu kilkudziesięciu do nawet 120 kV, w kierunku anody. Lecą więc z dużą energią kinetyczną. Kiedy uderzają w ognisko anody (zwykle z wolframu lub stopu wolframu), są bardzo gwałtownie hamowane w polu elektrycznym jąder atomów materiału tarczy. Właśnie to hamowanie, czyli zmiana pędu i kierunku ruchu elektronu w polu jądra, powoduje emisję promieniowania hamowania – tzw. bremsstrahlung, które stanowi podstawową składową widma promieniowania w diagnostyce obrazowej. Dodatkowo część fotonów powstaje jako promieniowanie charakterystyczne, gdy elektron wybija elektron z powłoki wewnętrznej atomu wolframu i następuje przeskok z wyższej powłoki – ale to wciąż efekt zderzenia elektronu z anodą, nie z katodą. W praktyce klinicznej dobra znajomość tego mechanizmu tłumaczy, dlaczego zmiana napięcia kV wpływa na energię (twardość) wiązki, a zmiana natężenia mA – na ilość wytwarzanych fotonów. Z mojego doświadczenia w pracowniach RTG osoby, które rozumieją, że źródłem promieniowania jest właśnie interakcja szybkich elektronów z materiałem anody, lepiej ogarniają takie tematy jak filtracja wiązki, warstwa półchłonna czy dobór ogniska. Ma to znaczenie nie tylko dla jakości obrazu (kontrast, kontrastowość, szumy), ale też dla ochrony radiologicznej – bo wiemy, skąd bierze się promieniowanie rozproszone i jak parametry pracy lampy przekładają się na dawkę dla pacjenta i personelu. W standardach pracy (np. wytyczne ICRP, EUREF i krajowe rekomendacje) cały czas podkreśla się zależność: energia elektronów przy anodzie → widmo i intensywność promieniowania X.

Pytanie 12

Która sekwencja obrazowania MR wykorzystuje impulsy RF o częstotliwości rezonansowej tłuszczu do tłumienia sygnału pochodzącego z tkanki tłuszczowej?

A. MTC
B. TOF
C. FAT SAT
D. PCA
Prawidłowa odpowiedź to FAT SAT, czyli tzw. fat saturation albo fat suppression. W tej technice wykorzystuje się impulsy RF o częstotliwości dokładnie dopasowanej do rezonansu protonów w tłuszczu. Najpierw aparat MR podaje selektywny impuls nasycający dla tłuszczu, a dopiero potem właściwą sekwencję obrazowania. Protony tłuszczu zostają „wybite” ze stanu równowagi i nie zdążą się zrelaksować przed pomiarem, więc ich sygnał jest mocno osłabiony albo praktycznie znika. W efekcie na obrazach tkanka tłuszczowa staje się ciemna, a struktury o wysokiej zawartości wody (np. obrzęk, zapalenie, guzy) są lepiej widoczne. Moim zdaniem to jedna z najbardziej praktycznych sztuczek w MR, bo bardzo poprawia kontrast obrazu. W praktyce klinicznej FAT SAT jest standardem przy badaniach stawów (kolano, bark, skokowy), kręgosłupa, tkanek miękkich oraz w onkologii. Klasyczny przykład: sekwencja T2-zależna z saturacją tłuszczu – idealna do uwidaczniania płynu, obrzęku szpiku, zmian zapalnych. Podobnie w badaniach po kontraście gadolinowym używa się T1 FAT SAT, żeby wzmocnienie kontrastowe na tle wyciszonego tłuszczu było wyraźne i czytelne. Dobre praktyki mówią, żeby zawsze sprawdzać jednorodność pola B0, bo FAT SAT jest wrażliwy na niejednorodności – szczególnie w okolicach metalowych implantów czy przy dużym polu widzenia. Dlatego technicy często korygują shim, dobierają odpowiednie parametry i pilnują pozycji pacjenta. W nowoczesnych protokołach MR często łączy się FAT SAT z innymi modyfikacjami sekwencji (np. FSE, 3D, Dixon), ale zasada pozostaje ta sama: selektywne nasycenie sygnału tłuszczu przy użyciu impulsów RF o jego częstotliwości rezonansowej, żeby uzyskać lepszą diagnostykę i czytelniejszy obraz patologii.

Pytanie 13

W metodzie RM (rezonansu magnetycznego) po umieszczeniu pacjenta w silnym, stałym polu magnetycznym dochodzi do oddziaływania

A. wiązki protonów z jądrami atomów wodoru i tlenu.
B. fal radiowych o ściśle określonej częstotliwości z jądrami atomów wodoru.
C. fal radiowych o ściśle określonej częstotliwości z jądrami atomów wodoru i tlenu.
D. wiązki protonów z jądrami atomów wodoru.
W rezonansie magnetycznym łatwo pomylić kilka pojęć, szczególnie jeśli kojarzy się badania obrazowe głównie z promieniowaniem jonizującym. W MR nie wykorzystuje się wiązki protonów wysyłanej w stronę pacjenta, więc mówienie o oddziaływaniu „wiązki protonów” z jądrami wodoru lub wodoru i tlenu jest po prostu fizycznie niepoprawne. Protony, o których mówimy w MR, to jądra atomów wodoru obecne w tkankach pacjenta, a nie żadna zewnętrzna wiązka cząstek, jak w akceleratorze czy w niektórych typach terapii protonowej. Cały układ polega na tym, że te wewnętrzne protony ustawiają się w silnym, stałym polu magnetycznym, a następnie są pobudzane przez zewnętrzne fale radiowe. Drugi częsty błąd to włączanie tlenu do opisu zjawiska podstawowego. Tlen oczywiście występuje w organizmie i jest ważny biologicznie, ale z punktu widzenia klasycznego obrazowania MR standardowo wykorzystuje się rezonans jąder wodoru, bo to one są najliczniejsze (woda, tłuszcz) i dają silny sygnał. Jądra tlenu nie są w rutynowej pracy klinicznej celem obrazowania w konwencjonalnym MRI, więc mówienie o oddziaływaniu fal radiowych z jądrami wodoru i tlenu jest mylące i sugeruje technikę, której się po prostu na co dzień nie stosuje. Typowym schematem błędnego rozumowania jest przenoszenie intuicji z radiografii czy tomografii komputerowej na MR: tam rzeczywiście mamy wiązkę promieniowania (fotony X), która „pada” na ciało. W MR nic takiego nie ma – jest stałe pole magnetyczne i impulsy RF o konkretnej częstotliwości rezonansowej. Z mojego doświadczenia wynika, że dopiero jasne oddzielenie: w TK – promieniowanie jonizujące, w MR – pole magnetyczne i fale radiowe, pozwala uniknąć takich pomyłek na egzaminach i w praktyce. W dobrych praktykach opisuje się MRI właśnie jako metodę opartą na rezonansie jąder wodoru w polu magnetycznym, bez udziału wiązek cząstek czy obrazowania rutynowego innych jąder, jak tlen.

Pytanie 14

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
Wysoka rozdzielczość przestrzenna w obrazowaniu MR zależy tak naprawdę od dwóch kluczowych parametrów: wielkości pola widzenia (FoV, field of view) oraz rozmiaru matrycy, czyli liczby pikseli w kierunku fazowym i częstotliwościowym. Prawidłowa odpowiedź – zmniejszenie FoV i jednoczesne zwiększenie matrycy – oznacza, że pojedynczy piksel reprezentuje mniejszy fragment tkanki. Innymi słowy, voxel ma mniejsze wymiary w płaszczyźnie obrazowania, więc lepiej widzimy drobne szczegóły anatomiczne, np. nerwy, drobne ogniska demielinizacji czy małe zmiany guzowate. Technicznie patrząc, rozdzielczość przestrzenną w MR opisuje się jako FoV / liczba elementów matrycy. Im mniejszy ten iloraz, tym wyższa rozdzielczość. Standardem w dobrych pracowniach jest świadome dobieranie FoV do badanego obszaru: np. dla badania przysadki czy oczodołów stosuje się małe FoV i wysoką matrycę (np. 256×256 lub 320×320), żeby dokładnie ocenić drobne struktury. Dla kręgosłupa lędźwiowego czy jamy brzusznej FoV jest większe, ale jeśli zależy nam na szczegółach (np. w onkologii), także podnosi się matrycę, akceptując dłuższy czas skanowania lub niższy SNR. Z mojego doświadczenia technicznego wynika, że w praktyce często trzeba szukać kompromisu między rozdzielczością, czasem badania a stosunkiem sygnału do szumu (SNR). Zmniejszenie FoV i zwiększenie matrycy poprawia rozdzielczość, ale może pogarszać SNR i wydłużać czas. Dlatego w dobrych praktykach pracowni MR zawsze dopasowuje się te parametry do konkretnego wskazania klinicznego, zamiast używać jednego „uniwersalnego” protokołu. Mimo tego kompromisu, zasada fizyczna pozostaje jasna: małe FoV + duża matryca = wysoka rozdzielczość przestrzenna.

Pytanie 15

Pracownia radioterapii z przyspieszaczem liniowym jest obszarem

A. kontrolowanym.
B. nadzorowanym.
C. ograniczonym.
D. izolowanym.
Prawidłowa odpowiedź „obszar nadzorowany” dobrze oddaje charakter pracowni radioterapii z przyspieszaczem liniowym. Z punktu widzenia ochrony radiologicznej jest to miejsce, gdzie może występować podwyższone narażenie na promieniowanie jonizujące, ale dzięki odpowiednim osłonom stałym, procedurom i kontroli dawek utrzymuje się je poniżej ustalonych limitów dla pracowników i osób postronnych. W polskich przepisach i w zaleceniach międzynarodowych (np. IAEA, ICRP) wyróżnia się właśnie obszary nadzorowane i kontrolowane jako podstawowy podział stref pracy z promieniowaniem. W teleterapii megawoltowej (czyli z użyciem przyspieszacza liniowego) typowo sama bunkrowa sala z akceleratorem oraz przyległe pomieszczenia techniczne, korytarze serwisowe, sterownia – są klasyfikowane jako obszar nadzorowany, o ile plan osłon i pomiary dozymetryczne wykazały, że dawki skuteczne nie przekroczą określonych progów dla tej kategorii. W praktyce oznacza to m.in. czytelne oznakowanie drzwi i ścian znakami ostrzegawczymi, kontrolowany dostęp (ale nie aż tak restrykcyjny jak w obszarze kontrolowanym), obowiązek stosowania procedur BHP, prowadzenie regularnych pomiarów dozymetrycznych, przeglądów osłon oraz szkolenie personelu w zakresie zagrożeń radiacyjnych. Moim zdaniem ważne jest też zrozumienie, że „nadzorowany” nie znaczy „bezpieczny zawsze i wszędzie”, tylko „bezpieczny przy zachowaniu ustalonych zasad”: prawidłowego zamykania drzwi bunkra, sprawdzania sygnalizacji, poprawnego pozycjonowania pacjenta, używania systemów nadzoru wizyjnego i audio. W wielu ośrodkach przyspieszacz liniowy jest wręcz modelowym przykładem obszaru nadzorowanego, gdzie ochrona radiologiczna jest dobrze zaprojektowana, ale wymaga stałego monitorowania i dokumentowania, np. poprzez księgi kontroli, protokoły pomiarowe i systemy rejestracji zdarzeń niepożądanych.

Pytanie 16

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w kwartale.
B. w miesiącu.
C. w roku.
D. w tygodniu.
Prawidłowa odpowiedź „w miesiącu” wynika z przyjętych w radiologii standardów kontroli jakości dla aparatów rentgenowskich. Testy podstawowe z zakresu geometrii pola rentgenowskiego mają za zadanie sprawdzić, czy pole wiązki promieniowania rzeczywiście pokrywa się z tym, co pokazuje lampa z kolimatorem i symulacja świetlna. Innymi słowy, czy to, co widzisz w polu świetlnym na stole, faktycznie jest naświetlane promieniowaniem X. Moim zdaniem to jest absolutny fundament bezpiecznej pracy w pracowni RTG, bo każdy błąd w geometrii pola od razu odbija się na jakości obrazu i na narażeniu pacjenta. Zgodnie z dobrymi praktykami (różne wytyczne krajowe i europejskie dotyczące kontroli jakości w diagnostyce obrazowej) testy geometrii pola zalicza się do tzw. testów podstawowych, wykonywanych cyklicznie, zwykle właśnie raz w miesiącu. Chodzi o sprawdzenie zgodności wielkości pola, jego centrowania względem kasety/detektora, zbieżności osi wiązki z osią stołu i lampy, oraz zgodności wskaźników odległości ognisko–detektor. W praktyce taki test może polegać na ułożeniu specjalnego fantomu do testów geometrii pola, z naniesionymi znacznikami, i wykonaniu ekspozycji przy różnych ustawieniach pola świetlnego. Potem ocenia się, czy krawędzie obszaru naświetlonego zgadzają się z zaznaczonym obszarem w polu świetlnym, zwykle dopuszczalne odchylenia są rzędu kilku procent wymiaru pola (np. 2% SID). Regularność comiesięcznego testu ma sens, bo geometria pola może się stopniowo rozjeżdżać: poluzowane mechanizmy kolimatora, uszkodzenie lustra, zmiana położenia żarówki, drobne uderzenia lampą o stół – to wszystko w praktyce się zdarza. Miesięczny interwał jest takim rozsądnym kompromisem: na tyle często, żeby szybko wychwycić nieprawidłowości, a jednocześnie nie paraliżować pracy pracowni nadmiarem testów. W wielu pracowniach, z mojego doświadczenia, łączy się ten test z innymi prostymi kontrolami okresowymi, np. sprawdzeniem działania wskaźników odległości, poprawności blokad mechanicznych czy stabilności nastaw ekspozycji. To wszystko wpisuje się w system zapewnienia jakości i ochrony radiologicznej, gdzie jednym z kluczowych celów jest unikanie zbędnych powtórzeń badań i ograniczanie dawek dla pacjenta i personelu.

Pytanie 17

Z kratką przeciwrozproszeniową należy wykonać zdjęcie

A. łopatki.
B. stawu kolanowego w pozycji leżącej.
C. stawu łokciowego.
D. stopy.
Prawidłowo – łopatkę standardowo wykonuje się z użyciem kratki przeciwrozproszeniowej. Wynika to głównie z grubości i budowy anatomicznej tej okolicy. Obręcz barkowa jest stosunkowo masywna, zawiera dużo struktur kostnych i tkanek miękkich, a promień centralny przechodzi przez obszar o efektywnej grubości zwykle powyżej 10 cm. Przy takiej grubości wytwarza się duża ilość promieniowania rozproszonego (głównie rozpraszanie Comptona), które degraduje kontrast obrazu. Kratka przeciwrozproszeniowa ma za zadanie „wyciąć” promieniowanie rozproszone, które pada na detektor pod innym kątem niż wiązka pierwotna. Dzięki temu obraz łopatki staje się wyraźniejszy, struktury kostne są lepiej odgraniczone od tkanek miękkich, a możliwość oceny zarysów, wyrostków czy stawów (ramienno‑łopatkowego, barkowo‑obojczykowego) jest zdecydowanie większa. W praktyce klinicznej przyjmuje się prostą zasadę: jeżeli badany odcinek ma grubość powyżej ok. 10–12 cm lub wymaga wyższego kV, to kratka jest wskazana. Dotyczy to m.in. badań miednicy, kręgosłupa, mostka, klatki piersiowej w pozycji leżącej i właśnie łopatki. Bez kratki obraz byłby „zamglony”, o niskim kontraście, z utratą szczegółów beleczkowania kostnego. Warto też pamiętać, że zastosowanie kratki zwykle wymaga zwiększenia mAs (tzw. współczynnik Bucky’ego), co przekłada się na nieco wyższą dawkę, ale w tym przypadku jest to uzasadnione zasadą optymalizacji – lepsza jakość diagnostyczna przy akceptowalnym narażeniu pacjenta. W wielu pracowniach jest to wręcz standard procedury – projekcje łopatki i obręczy barkowej wykonuje się rutynowo z kratką, niezależnie od tego, czy to projekcja AP, Y‑scapula czy inne ustawienia specjalne.

Pytanie 18

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. protony atomów wodoru.
B. protony atomów tlenu.
C. elektrony atomów tlenu.
D. elektrony atomów wodoru.
W rezonansie magnetycznym bardzo łatwo pomylić się, bo mamy i elektrony, i protony, i różne pierwiastki w organizmie. Kluczowe jest jednak to, że standardowe kliniczne badania MR oparte są na zjawisku jądrowego rezonansu magnetycznego, a więc dotyczą jąder atomowych, a nie elektronów. Elektrony oczywiście mają własny moment magnetyczny i istnieje coś takiego jak elektronowy rezonans paramagnetyczny, ale nie jest to metoda używana w rutynowej diagnostyce medycznej. W tomografii MR interesują nas przede wszystkim jądra wodoru, czyli protony, bo wodór w organizmie występuje w ogromnej ilości głównie w wodzie i tłuszczu. To zapewnia silny sygnał i dobry stosunek sygnału do szumu, co przekłada się na wysoką jakość obrazu. Wybranie odpowiedzi z elektronami atomów wodoru lub tlenu wynika zwykle z intuicyjnego przekonania, że „coś związanego z magnetyzmem to pewnie elektrony”, bo kojarzymy je z prądem i spinem elektronów. W MR jednak rejestrujemy sygnał z przejść energetycznych jąder w polu magnetycznym, a nie z powłok elektronowych. Z kolei odpowiedzi odwołujące się do protonów atomów tlenu też brzmią na pozór sensownie, bo tlen jest ważnym pierwiastkiem w organizmie, kojarzy się z krwią, utlenowaniem tkanek itd. Problem w tym, że atomów wodoru jest w ciele człowieka znacznie więcej niż tlenu, a dodatkowo właściwości magnetyczne jąder innych pierwiastków (np. tlenu, węgla) są dużo mniej korzystne do klasycznego obrazowania klinicznego: mają słabszy sygnał, inne częstości rezonansowe, trudniejszą technikę pobudzenia i odbioru. Dlatego w codziennej praktyce diagnostycznej bazuje się na protonach wodoru, a nie na tlenie. Typowym błędem myślowym jest też mieszanie pojęcia „magnetyczny” z „elektronowy”, bo w fizyce szkolnej dużo mówi się o elektronach, a mało o jądrze. W medycznym MR trzeba się przestawić: interesuje nas spin jądrowy protonów wodoru w silnym stałym polu magnetycznym i sygnał RF emitowany podczas relaksacji tych protonów. To jest fundament, który potem tłumaczy wszystkie dalsze zagadnienia: dobór sekwencji, kontrast obrazów, wpływ pola magnetycznego i cewek gradientowych.

Pytanie 19

W radioterapii konwencjonalnej pacjent jest leczony promieniowaniem pochodzącym

A. ze źródeł zewnętrznych.
B. z rozpadu izotopu uranu.
C. z rozpadu izotopu radu.
D. ze źródeł wewnętrznych.
W radioterapii konwencjonalnej chodzi przede wszystkim o teleterapię, czyli napromienianie z tzw. źródeł zewnętrznych. To znaczy, że źródło promieniowania (najczęściej akcelerator liniowy generujący fotony wysokoenergetyczne, np. 6 MV, 10 MV) znajduje się poza ciałem pacjenta, w głowicy aparatu, a wiązka jest precyzyjnie kierowana w obszar guza. To jest standard postępowania w onkologii radioterapeutycznej dla większości nowotworów: raka płuca, piersi, prostaty, guzów głowy i szyi. Z mojego doświadczenia, jak ktoś myśli „radioterapia” w szpitalu, to w 90% chodzi właśnie o tę klasyczną teleterapię. W praktyce planowanie takiego leczenia odbywa się na podstawie tomografii komputerowej planistycznej, czasem z nałożeniem obrazów MR czy PET. Fizycy medyczni i lekarz radioterapeuta wyznaczają objętości PTV, CTV, OAR, a następnie komputer optymalizuje rozkład dawki tak, żeby jak najlepiej napromienić guz i maksymalnie oszczędzić narządy krytyczne. Dawka jest podawana frakcjami, np. 1,8–2 Gy dziennie przez kilka tygodni, co jest zgodne z zaleceniami EORTC czy ESTRO. W odróżnieniu od brachyterapii, tutaj nie wszczepia się żadnych źródeł do ciała – pacjent po zakończeniu seansu nie „promieniuje” i nie stanowi zagrożenia dla otoczenia. Teleterapia wymaga też bardzo ścisłej kontroli jakości: codziennego sprawdzania parametrów wiązki, systemów unieruchomienia pacjenta, weryfikacji pozycjonowania (IGRT – obrazowanie przed napromienianiem). Moim zdaniem warto zapamiętać prostą rzecz: radioterapia konwencjonalna = zewnętrzna wiązka promieniowania jonizującego, generowana przez specjalistyczny aparat, a nie przez izotop wszczepiony do środka ciała.

Pytanie 20

W lampie rentgenowskiej promieniowanie X powstaje w wyniku hamowania

A. elektronów na anodzie.
B. protonów na katodzie.
C. elektronów na katodzie.
D. protonów na anodzie.
Poprawnie – w lampie rentgenowskiej promieniowanie X powstaje głównie w wyniku gwałtownego hamowania szybkich elektronów na anodzie. W typowej lampie mamy katodę (żarnik), która emituje elektrony przez emisję termojonową. Następnie między katodą a anodą przykładane jest wysokie napięcie, zwykle kilkadziesiąt do nawet ponad 100 kV. To napięcie bardzo mocno przyspiesza elektrony w próżni w kierunku anody. Kiedy te rozpędzone elektrony uderzają w materiał anody (najczęściej wolfram, rzadziej molibden lub inne stopy), są gwałtownie hamowane w polu elektrycznym jąder atomowych anody. I właśnie to hamowanie powoduje emisję promieniowania hamowania, tzw. bremsstrahlung, które stanowi podstawową część widma promieniowania rentgenowskiego. Dodatkowo dochodzi jeszcze promieniowanie charakterystyczne, gdy elektron wybija elektron z wewnętrznej powłoki atomu wolframu, ale ono też powstaje w materiale anody, a nie na katodzie. W praktyce technik obrazowania musi rozumieć, że zmiana napięcia na lampie (kV) wpływa na energię elektronów i tym samym na energię i przenikliwość promieniowania X, a zmiana natężenia prądu (mA) wpływa głównie na ilość elektronów, czyli na ilość promieniowania. Z mojego doświadczenia opłaca się to dobrze ogarnąć, bo potem łatwiej rozumie się zależności między ustawieniami aparatu a jakością obrazu i dawką dla pacjenta. W nowoczesnych aparatach RTG cała konstrukcja lampy, chłodzenie anody (np. anoda obrotowa) i dobór materiałów są oparte właśnie na tym zjawisku hamowania elektronów w anodzie, żeby uzyskać dużo stabilnego promieniowania przy jednoczesnym bezpiecznym odprowadzeniu ciepła.

Pytanie 21

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
B. klasycznej rentgenografii, wykonane w fazie oddechowej.
C. tomografii komputerowej, wykonane w fazie oddechowej.
D. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 22

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. poniżej 400 ms
B. od 800 ms do 900 ms
C. od 500 ms do 700 ms
D. powyżej 2000 ms
W tym pytaniu łatwo się pomylić, bo wartości TR rzędu kilkuset milisekund rzeczywiście pojawiają się w wielu sekwencjach MR, ale kluczowe jest zrozumienie, kiedy dominuje kontrast T1, a kiedy T2. Przy bardzo krótkich TR, poniżej 400 ms, obraz jest wyraźnie T1-zależny. Tkanki nie zdążą się w pełni zrelaksować podłużnie między kolejnymi impulsami, dlatego różnice T1 są bardzo podkreślone. To jest logika stosowana np. w szybkich sekwencjach T1 do obrazowania z kontrastem gadolinowym. Taki TR jest zdecydowanie za krótki, żeby zbudować typowy kontrast T2. Podobnie wartości TR rzędu 500–700 ms nadal mieszczą się w zakresie raczej krótkich czasów repetycji dla klasycznego spin echo. Obraz przy takich ustawieniach będzie wciąż silnie T1-zależny, szczególnie jeśli TE jest też krótki. Typowym błędem jest myślenie: „skoro to już nie jest bardzo krótki TR, to pewnie T2”. Niestety tak to nie działa – dla T2 trzeba naprawdę długiego TR, tak żeby efekt T1 w zasadzie „zniknął” z równania. Zakres 800–900 ms bywa kojarzony z obrazami pośrednimi, czasem z próbą kompromisu między czasem badania a kontrastem, ale w klasycznym podejściu do nauki MR nadal jest to strefa, gdzie T1 ma duże znaczenie. Obrazy T2-zależne w klasycznym spin echo uzyskujemy przy TR powyżej 2000 ms i jednocześnie długim TE. Z mojego doświadczenia typowy błąd polega na patrzeniu tylko na jedną liczbę i oderwaniu jej od kontekstu fizycznego. Warto zapamiętać prostą zasadę z podręczników i standardów: krótkie TR – T1, długie TR – T2 (o ile TE też jest długie). Jeżeli TR jest poniżej około 1500–2000 ms, trudno mówić o czysto T2-zależnym obrazie w klasycznym SE. Dlatego wszystkie odpowiedzi z zakresami kilkuset milisekund nie pasują do definicji obrazu T2-zależnego i prowadzą do mylnego utożsamiania „trochę dłuższego” TR z typową sekwencją T2.

Pytanie 23

Na którym obrazie TK uwidoczniony jest artefakt spowodowany ruchami oddechowymi pacjenta?

A. Obraz 2
Ilustracja do odpowiedzi A
B. Obraz 1
Ilustracja do odpowiedzi B
C. Obraz 3
Ilustracja do odpowiedzi C
D. Obraz 4
Ilustracja do odpowiedzi D
W tym zadaniu łatwo pomylić różne typy artefaktów, bo wszystkie cztery obrazy pokazują zaburzenia jakości, ale tylko jeden z nich jest klasycznym przykładem artefaktu ruchowego związanego z oddychaniem. Artefakt oddechowy w tomografii komputerowej ma zwykle postać falistego, „pływającego” zniekształcenia konturów narządów, czasem jakby ktoś przesunął kawałek obrazu w bok lub wzdłuż osi ciała. Dotyczy to głównie badań klatki piersiowej i jamy brzusznej, bo tam ruch przepony i ściany klatki jest największy. Na obrazie 1 dokładnie to widać: narządy jamy brzusznej są pofalowane, ich granice nie są ostre, a ściana ciała wygląda jak zygzak. To efekt tego, że pacjent oddychał podczas zbierania danych i rekonstrukcja "złożyła" razem projekcje z różnych faz oddechu. Na pozostałych obrazach występują inne zjawiska. Jeden z nich pokazuje typowy szum kwantowy i ziarnistość, prawdopodobnie związane z niską dawką promieniowania albo niewłaściwymi parametrami rekonstrukcji – piksele są jak rozsypane ziarenka, ale kontury struktur są zasadniczo stabilne, nie pofalowane. To nie ma nic wspólnego z ruchem oddechowym, tylko z liczbą zarejestrowanych fotonów i filtracją rekonstrukcyjną. Inny przykład wygląda na artefakt metaliczny lub zjawisko utwardzenia wiązki: wokół struktur o bardzo wysokiej gęstości (np. metal, kość, kontrast) pojawiają się pasma, smugi, lokalne prześwietlenia albo zacienienia. To wynika z nieliniowej absorpcji promieniowania i ograniczeń algorytmów rekonstrukcji, a nie z przesuwania się narządu w czasie. Kolejny obraz może sugerować częściowy wolumen lub niewłaściwą rekonstrukcję 3D, gdzie granice są wygładzone, ale jednak zachowują prawidłowy przebieg anatomiczny – tam też nie widać charakterystycznego „rozjechania” struktur między kolejnymi rzędami pikseli. Typowym błędem jest utożsamianie każdego zniekształcenia z ruchem pacjenta. W praktyce trzeba zawsze zadać sobie pytanie: czy kontury są faliste i jakby przesunięte, czy raczej pojawia się ziarnistość, smugi, pasma albo efekt stopniowania? Artefakt oddechowy dotyczy zmian położenia narządów w czasie, więc jego ślad to właśnie deformacja geometrii, a nie tylko zmiana gęstości czy szumu. Dlatego poprawną odpowiedzią jest wyłącznie obraz 1, a wybór innych opcji oznacza pomylenie różnych mechanizmów powstawania artefaktów w TK.

Pytanie 24

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. wielkości ogniska optycznego.
B. ilości promieniowania rozproszonego.
C. wielkości ziarna luminoforu folii wzmacniającej.
D. grubości emulsji błony rentgenowskiej.
Problem nieostrości obrazu w radiografii często myli się z innymi zjawiskami, jak kontrast czy ziarnistość. W tym pytaniu chodzi konkretnie o nieostrość geometryczną, czyli o rozmycie krawędzi wynikające z geometrii układu: ognisko – obiekt – detektor. Podstawowa sprawa: im większe rzeczywiste ognisko anody, tym większy półcień i gorsza ostrość. To jest klasyczna definicja nieostrości geometrycznej, omawiana w fizyce medycznej i w standardach opisujących jakość obrazowania. Ilość promieniowania rozproszonego oczywiście pogarsza jakość obrazu, ale w inny sposób. Rozproszenie głównie obniża kontrast, powoduje „zamglenie” całego obrazu, ale nie jest źródłem typowej nieostrości geometrycznej. Z promieniowaniem rozproszonym walczy się kratką przeciwrozproszeniową, odpowiednim polem naświetlania, kolimacją wiązki oraz prawidłowym doborem kV, a nie przez zmianę ogniska. To jest inny aspekt jakości zdjęcia. Grubość emulsji błony rentgenowskiej ma znaczenie dla czułości, kontrastu i pewnej ziarnistości obrazu w klasycznych systemach analogowych, ale nie jest głównym czynnikiem definiującym nieostrość geometryczną. Można powiedzieć, że dotyczy raczej właściwości materiału rejestrującego niż geometrii wiązki. Podobnie wielkość ziarna luminoforu w folii wzmacniającej wpływa na tzw. nieostrość strukturalną: im większe ziarno, tym większe rozmycie i mniejsza rozdzielczość przestrzenna, ale to nie jest to samo, co nieostrość geometryczna wynikająca z wielkości ogniska i odległości w układzie. Typowy błąd myślowy polega na wrzucaniu wszystkich efektów pogorszenia jakości obrazu do jednego worka pod hasłem „nieostrość”. W praktyce trzeba rozróżniać: nieostrość geometryczną (ognisko, odległości), nieostrość ruchową (ruch pacjenta, zbyt długi czas ekspozycji) oraz nieostrość wynikającą z systemu rejestracji (błona, folia, piksel w detektorze cyfrowym). Dopiero takie rozróżnienie pozwala świadomie dobrać parametry ekspozycji i osprzęt, zgodnie z zasadami dobrej praktyki radiologicznej.

Pytanie 25

Nieostrość geometryczna obrazu rentgenowskiego zależy od

A. wielkości ziarna luminoforu folii wzmacniającej.
B. ilości promieniowania rozproszonego.
C. wielkości ogniska optycznego.
D. grubości emulsji błony rentgenowskiej.
W tym pytaniu łatwo się złapać na skojarzeniach z ogólną jakością obrazu, a nie z samą nieostrością geometryczną. Wiele osób myśli, że skoro coś pogarsza obraz, to na pewno odpowiada też za nieostrość. To nie do końca tak działa. Nieostrość geometryczna jest ściśle związana z geometrią układu: wielkością ogniska lampy, odległością ognisko–detektor oraz odległością obiekt–detektor. Dlatego kluczowe jest właśnie fizyczne rozmiar ogniska, a nie parametry emulsji czy luminoforu. Ilość promieniowania rozproszonego rzeczywiście psuje obraz, ale głównie przez obniżenie kontrastu. Rozproszenie dodaje do obrazu „mgłę”, przez co zanika różnica gęstości optycznych między strukturami. To wygląda jak brzydki, zamglony obraz, więc intuicyjnie kojarzy się z nieostrością, ale z punktu widzenia fizyki jest to degradacja kontrastu, a nie typowa nieostrość geometryczna. Dlatego w praktyce stosuje się kratki przeciwrozproszeniowe, kolimację wiązki, odpowiednie napięcia kV – wszystko po to, aby poprawić kontrast, a nie ostrość krawędzi wynikającą z wielkości ogniska. Grubość emulsji błony rentgenowskiej też ma znaczenie, ale dla tak zwanej nieostrości ziarnowej i czułości błony. Grubsza emulsja, większe ziarna srebra – rośnie czułość, skraca się czas ekspozycji, ale rośnie też ziarnistość i spada rozdzielczość. To nadal nie jest nieostrość geometryczna, tylko właściwości detektora. Podobnie z wielkością ziarna luminoforu w folii wzmacniającej: duże ziarna dają więcej światła (czyli większą czułość układu), ale pogarszają rozdzielczość przestrzenną folii. To jest nieostrość związana z systemem obrazowania, a nie z geometrią wiązki i ogniska. Typowy błąd myślowy polega na wrzuceniu wszystkich rodzajów pogorszenia obrazu do jednego worka pod hasłem „nieostrość”. W radiologii technicznej rozróżnia się jednak precyzyjnie: nieostrość geometryczną (ognisko, odległości), nieostrość detektora (błona, folia, piksel), nieostrość ruchową (ruch pacjenta, oddech, drżenie). W tym pytaniu chodziło dokładnie o tę pierwszą, stąd poprawna jest tylko odpowiedź dotycząca wielkości ogniska lampy rentgenowskiej.

Pytanie 26

W której technice brachyterapii stosuje się źródła promieniowania o mocy dawki 2-12 Gy/h?

A. HDR
B. LDR
C. MDR
D. PDR
Prawidłowa odpowiedź to MDR, czyli brachyterapia średniej mocy dawki (medium dose rate). W tej technice źródła promieniowania dostarczają dawkę w zakresie około 2–12 Gy/h, co dokładnie odpowiada wartościom podanym w pytaniu. Jest to coś pośredniego między klasycznym LDR a nowoczesnym HDR – zarówno jeśli chodzi o moc dawki, jak i organizację zabiegu. W praktyce MDR historycznie stosowano np. w leczeniu niektórych nowotworów ginekologicznych czy nowotworów głowy i szyi, gdy chciano skrócić czas napromieniania w porównaniu z LDR, ale jednocześnie zachować bardziej ciągły charakter ekspozycji. Moc dawki na poziomie kilku Gy na godzinę pozwalała na wykonywanie zabiegów trwających kilka godzin, a nie kilkadziesiąt, jak w LDR. Z mojego doświadczenia z materiałów dydaktycznych wynika, że MDR jest często omawiane głównie jako pojęcie historyczne i klasyfikacyjne, ale nadal pojawia się w pytaniach testowych i w standardach opisu brachyterapii. Standardowo wyróżnia się trzy główne zakresy mocy dawki w brachyterapii: LDR (low dose rate) poniżej 2 Gy/h, MDR (medium dose rate) właśnie 2–12 Gy/h oraz HDR (high dose rate) powyżej 12 Gy/h. Dodatkowo istnieje PDR (pulsed dose rate), która formalnie jest zbliżona do LDR, ale realizowana w postaci impulsów z użyciem aparatury HDR. Znajomość tych progów jest ważna nie tylko „pod testy”, ale też do rozumienia, jak planuje się leczenie, jakie są wymagania ochrony radiologicznej, jak wygląda nadzór nad pacjentem i personel medyczny. Moim zdaniem warto zapamiętać sobie tę wartość 2–12 Gy/h jako typowy podpis MDR, bo pojawia się ona w wielu podręcznikach z radioterapii i fizyki medycznej. Dzięki temu łatwiej później rozumieć, czemu pewne techniki wymagają hospitalizacji i osłon stałych, a inne można wykonywać bardziej ambulatoryjnie, tak jak przy HDR.

Pytanie 27

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 100-150 MeV
B. 1-3 MeV
C. 0,1-0,3 MeV
D. 4-25 MeV
Prawidłowy zakres 4–25 MeV bardzo dobrze pasuje do typowego medycznego przyspieszacza liniowego używanego w radioterapii zdalnej (teleterapii). W linaku medycznym przyspiesza się elektrony do energii rzędu kilku–kilkunastu MeV, a następnie kieruje je na tarczę wolframową. W wyniku hamowania elektronów w materiale tarczy powstaje promieniowanie hamowania (bremsstrahlung) – właśnie wiązka fotonów o energii maksymalnej zbliżonej do energii elektronów, czyli np. 6 MV, 10 MV, 15 MV itd. W praktyce klinicznej stosuje się najczęściej energie fotonów 4–6 MV dla płycej położonych zmian i 10–18 MV dla głębiej leżących guzów, żeby uzyskać odpowiedni rozkład dawki w tkankach, tzw. efekt build-up i oszczędzić skórę. Moim zdaniem warto zapamiętać, że te energie są dużo wyższe niż w diagnostyce obrazowej, bo tu już mówimy o dawkach terapeutycznych, a nie tylko o tworzeniu obrazu. W planowaniu radioterapii fizyk medyczny dobiera energię fotonów właśnie z tego przedziału, uwzględniając głębokość guza, gęstość tkanek po drodze i wymagania dotyczące ochrony narządów krytycznych. Standardy radioterapii (np. IAEA, ESTRO) opisują linaki z energiami fotonów typowo 4–25 MV jako złoty standard w nowoczesnej teleterapii. Warto też pamiętać, że ta energia fotonów przekłada się na wymagania osłonowe bunkra – ściany z betonu mają zwykle kilkadziesiąt cm grubości, właśnie dlatego, że pracujemy w zakresie kilku–kilkudziesięciu MeV. W praktyce technika radioterapii to jest Twój chleb powszedni: dobór odpowiedniego pola, kolimatora MLC, weryfikacja ustawienia pacjenta – wszystko to zakłada, że wiązka fotonowa ma energię z tego zakresu i tak jest też opisywana w planie leczenia i w dokumentacji dawki.

Pytanie 28

W ultrasonografii występuje zależność:

A. im wyższa częstotliwość, tym płytsza penetracja wiązki.
B. im wyższa częstotliwość, tym gorsza rozdzielczość.
C. im wyższa częstotliwość, tym głębsza penetracja wiązki.
D. im wyższa rozdzielczość, tym głębsza penetracja wiązki.
Zależność między częstotliwością a penetracją w ultrasonografii bywa często mylona, bo intuicyjnie wydaje się, że „więcej” znaczy „lepiej i głębiej”. W fizyce ultradźwięków jest dokładnie odwrotnie: im wyższa częstotliwość, tym silniejsze tłumienie fali w tkankach i tym płytszy zasięg użytecznego sygnału. To tłumienie wynika z absorpcji energii i rozpraszania na granicach ośrodków. W efekcie fala o wysokiej częstotliwości traci energię szybciej niż fala o niskiej częstotliwości, więc nie może wiarygodnie zobrazować struktur położonych głęboko. Pojawia się też mylące skojarzenie, że wyższa rozdzielczość obrazu automatycznie zapewni głębszą penetrację. W ultrasonografii rozdzielczość osiowa jest ściśle związana właśnie z częstotliwością – im wyższa, tym lepsza zdolność rozróżniania dwóch blisko położonych struktur. Jednak ta poprawa rozdzielczości odbywa się kosztem głębokości. Standardy pracy w USG mówią wprost: do struktur powierzchownych stosujemy wysokie częstotliwości i wysoką rozdzielczość, do struktur głębokich – niższe częstotliwości i gorszą rozdzielczość, ale za to większą penetrację. Przeciwstawne stwierdzenie, że wzrost częstotliwości pogarsza rozdzielczość, jest sprzeczne z podstawową teorią fal akustycznych i z praktyką kliniczną. Głowice wysokoczęstotliwościowe są właśnie projektowane po to, żeby uzyskać obraz o bardzo wysokiej szczegółowości, tylko na mniejszej głębokości. Typowy błąd myślowy polega na mieszaniu pojęć: część osób utożsamia „silniejszą wiązkę” z „większą głębokością”, tymczasem aparaty kompensują mocą tylko do pewnego stopnia, nie są w stanie pokonać fizycznego prawa tłumienia w tkankach. Podobnie mylące jest przekonanie, że rozdzielczość to coś niezależnego od częstotliwości – w USG to jest bezpośrednio ze sobą powiązane. Dobre praktyki mówią jasno: wybór głowicy i częstotliwości zaczyna się od pytania, jak głęboko leży interesująca nas struktura, a dopiero potem szuka się maksimum rozdzielczości w tym zakresie głębokości, a nie odwrotnie.

Pytanie 29

W obrazowaniu metodą rezonansu magnetycznego T1 oznacza czas

A. echa.
B. relaksacji podłużnej.
C. relaksacji poprzecznej.
D. inwersji.
W rezonansie magnetycznym łatwo się pomylić, bo mamy kilka różnych czasów: T1, T2, czas echa TE, czas inwersji TI, a wszystko brzmi podobnie i miesza się w głowie. Dlatego warto to sobie spokojnie poukładać. T1 to czas relaksacji podłużnej, czyli opisuje, jak szybko namagnesowanie wzdłuż głównego pola magnetycznego wraca do stanu równowagi po zadziałaniu impulsu RF. Nie jest to ani czas echa, ani czas inwersji, ani relaksacja poprzeczna. Czas echa, najczęściej oznaczany jako TE, to odstęp między impulsem pobudzającym RF a zarejestrowaniem maksimum sygnału echa. TE jest parametrem sekwencji ustawianym na konsoli przez technika, a nie właściwością fizyczną tkanki. Zbyt krótkie lub zbyt długie TE wpływa na to, czy obraz będzie bardziej T1‑, czy T2‑zależny, ale sam TE nie jest równoznaczny z T1. Podobnie czas inwersji, oznaczany jako TI, występuje w sekwencjach typu inversion recovery (np. STIR, FLAIR). TI to przerwa między impulsem odwracającym 180° a impulsem pobudzającym 90°. Dobierając odpowiedni TI można wygasić sygnał z wybranej tkanki, np. tłuszczu w STIR albo płynu mózgowo‑rdzeniowego w FLAIR, ale nadal – to jest parametr sekwencji, a nie definicja T1. Z kolei relaksacja poprzeczna to T2, związana z zanikiem namagnesowania w płaszczyźnie prostopadłej do pola głównego. T2 odpowiada za to, jak szybko sygnał w tej płaszczyźnie zanika w wyniku dekoherencji spinów. W obrazach T2‑zależnych płyny są jasne, bo mają długi T2, a tłuszcz zazwyczaj nie jest tak dominująco jasny jak na T1. Typowy błąd myślowy polega na tym, że skoro TE i TI też są „czasami” w MR, to ktoś automatycznie kojarzy je z T1. Tak samo część osób myli T1 i T2, bo oba to „czasy relaksacji”. W praktyce klinicznej rozróżnienie tego ma znaczenie: przy planowaniu badań i interpretacji obrazów lekarz i technik świadomie dobierają TR, TE i ewentualnie TI, żeby uwypuklić różnice w T1 lub T2 tkanek. Dlatego warto zapamiętać: T1 – relaksacja podłużna, T2 – poprzeczna, TE – czas echa, TI – czas inwersji. I wtedy cała reszta zaczyna być dużo bardziej logiczna.

Pytanie 30

Więzka promieniowania X to

A. kwanty energii nieuginające się w polu elektromagnetycznym.
B. cząstki dodatnio naładowane uginające się w polu elektromagnetycznym.
C. cząstki ujemnie naładowane uginające się w polu elektromagnetycznym.
D. kwanty energii uginające się w polu elektromagnetycznym.
W tym pytaniu łatwo się złapać na myleniu promieniowania X z wiązką cząstek naładowanych. W odpowiedziach błędnych pojawia się wątek cząstek dodatnio lub ujemnie naładowanych, które uginają się w polu elektromagnetycznym. Tak zachowują się np. protony, jony lub elektrony – i rzeczywiście w akceleratorach cząstek używa się pól magnetycznych do ich ogniskowania i zakrzywiania toru. Natomiast lampa rentgenowska nie wytwarza wiązki elektronów skierowanej na pacjenta. Elektrony są tam tylko wewnątrz lampy, przyspieszane między katodą a anodą, a promieniowanie X powstaje dopiero w wyniku ich hamowania w materiale anody (głównie zjawisko hamowania i promieniowanie charakterystyczne). Na zewnątrz z obudowy lampy wychodzą już fotony – kwanty promieniowania elektromagnetycznego. Innym częstym nieporozumieniem jest przekonanie, że skoro mówimy o polu elektromagnetycznym, to promieniowanie X musi się w nim jakoś uginać. Foton nie ma ładunku, więc nie doświadczy siły Lorentza, która zakrzywia tor cząstek naładowanych. W medycynie, zarówno w diagnostyce RTG, TK, jak i w mammografii, przyjmuje się, że promieniowanie X rozchodzi się po liniach prostych, a jego osłabienie w tkankach zależy od energii fotonów, gęstości i liczby atomowej materiału, a nie od jakiegoś „zakrzywiania w polu”. Moim zdaniem źródłem błędu jest często mieszanie pojęć: promieniowanie jonizujące kojarzone jest automatycznie z cząstkami, a tymczasem mamy dwie duże grupy – promieniowanie korpuskularne (np. alfa, beta, protony) i promieniowanie elektromagnetyczne (X, gamma). Dla technika elektroradiologii to rozróżnienie jest bardzo praktyczne: od niego zależy sposób ochrony radiologicznej, konstrukcja aparatury oraz interpretacja zjawisk fizycznych, takich jak zjawisko fotoelektryczne, rozpraszanie Comptona czy powstawanie kontrastu na obrazie. Jeśli myślimy o wiązce X jak o strumieniu fotonów, a nie elektronów czy jonów, wtedy cała fizyka diagnostyki obrazowej robi się dużo bardziej spójna.

Pytanie 31

W radiografii mianem SID określa się

A. system automatycznej kontroli ekspozycji.
B. odległość między źródłem promieniowania a detektorem obrazu.
C. odległość między obiektem badanym a detektorem obrazu.
D. system automatycznej regulacji jasności.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 32

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. beta plus.
B. gamma.
C. alfa.
D. beta minus.
Prawidłowo wskazana została emisja promieniowania gamma. W fizyce jądrowej mówimy, że rozpad gamma to proces, w którym jądro atomowe przechodzi ze stanu wzbudzonego do stanu o niższej energii, nie zmieniając ani liczby protonów, ani neutronów. Czyli skład jądra zostaje ten sam, ale pozbywa się ono nadmiaru energii właśnie w postaci fali elektromagnetycznej o bardzo wysokiej energii – fotonu gamma. To jest klucz: gamma to nie cząstka materialna jak elektron czy alfa, tylko kwant promieniowania elektromagnetycznego. W medycynie nuklearnej ta właściwość jest wykorzystywana non stop. W badaniach scyntygraficznych czy PET dobiera się takie radioizotopy, które emitują głównie promieniowanie gamma (lub w PET: parę fotonów 511 keV po anihilacji), bo fale elektromagnetyczne gamma dobrze przechodzą przez tkanki i można je zarejestrować gammakamerą lub detektorami PET. Standardem jest np. technet-99m, który po przejściu do stanu podstawowego emituje foton gamma, a aparat rejestruje jego tor i tworzy obraz rozmieszczenia radiofarmaceutyku. Z mojego doświadczenia, dobra praktyka w pracowni medycyny nuklearnej to zawsze myślenie o tym, jakie dokładnie promieniowanie emituje dany izotop: czy jest to czyste gamma, beta plus, beta minus, czy mieszane. Ma to znaczenie dla ochrony radiologicznej, jakości obrazu i dawki dla pacjenta. Warto też pamiętać, że po rozpadzie alfa lub beta jądro potomne często jest w stanie wzbudzonym i dopiero potem „dorzuca” rozpad gamma – więc w dokumentacji fizycznej często widzimy kaskadę: najpierw zmiana składu jądra, a potem emisja fali elektromagnetycznej gamma jako etap „dooczyszczający” energię.

Pytanie 33

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
B. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
C. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
D. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
Poprawnie – w hiperfrakcjonowaniu w teleradioterapii kluczowe są dwie rzeczy: dawka frakcyjna jest mniejsza niż standardowe 2 Gy oraz całkowity czas leczenia zasadniczo się nie wydłuża. Czyli zamiast np. 1 × 2 Gy dziennie, pacjent dostaje 2–3 frakcje po ok. 1,1–1,2 Gy każda, ale cały plan (np. 6–7 tygodni) trwa podobnie jak w klasycznym schemacie. Z punktu widzenia radiobiologii chodzi o wykorzystanie różnic w zdolności do naprawy uszkodzeń DNA między guzem a zdrowymi tkankami. Mniejsza dawka na frakcję lepiej chroni tkanki późno reagujące (np. rdzeń kręgowy, nerki), a jednocześnie większa liczba frakcji pozwala podnieść całkowitą dawkę biologicznie skuteczną dla guza. Moim zdaniem to jest jeden z fajniejszych przykładów, jak teoria frakcji i model liniowo-kwadratowy (parametry α/β) przekładają się na praktykę. Nowotwory o wysokim współczynniku α/β (np. rak głowy i szyi, część guzów dziecięcych) szczególnie korzystają z takiego schematu, bo są wrażliwe na sumaryczną dawkę, a mniej na wielkość pojedynczej frakcji. W praktyce klinicznej wymaga to dobrej organizacji pracy ośrodka: dokładnego planowania czasów między frakcjami (minimum 6 godzin przerwy), pilnowania harmonogramu i bardzo precyzyjnej kontroli jakości ustawienia pacjenta przy każdym naświetlaniu. W wytycznych wielu towarzystw onkologicznych podkreśla się, że przy hiperfrakcjonowaniu nie chodzi o „wydłużanie leczenia”, tylko o modyfikację podziału dawki przy zachowaniu podobnego czasu całkowitego, tak żeby zwiększyć szansę wyleczenia przy akceptowalnej toksyczności późnej.

Pytanie 34

Zgodnie z obowiązującymi przepisami powierzchnia gabinetu rentgenowskiego, w którym jest zainstalowany zestaw rentgenowski do badań naczyniowych, powinna wynosić

A. 15 m²
B. 8 m²
C. 20 m²
D. 25 m²
W tym pytaniu łatwo wpaść w pułapkę myślenia, że „przecież aparat to tylko RTG, więc wystarczy taki sam gabinet jak do zwykłych zdjęć”. To jest właśnie typowy błąd. Badania naczyniowe wymagają znacznie bardziej rozbudowanego stanowiska niż klasyczna lampa do zdjęć przeglądowych. Powierzchnie rzędu 8 m² czy 15 m² są wartościami, które można kojarzyć raczej z małymi gabinetami zabiegowymi albo z minimalnymi pokojami dla prostych stanowisk diagnostycznych, ale nie z angiografią. Przy tak małej powierzchni nie da się zapewnić prawidłowego ustawienia ramienia C, swobody obrotu wokół pacjenta, miejsca na wjazd łóżka oraz przestrzeni na zespół zabiegowy. To nie jest tylko kwestia wygody – to wprost przekłada się na bezpieczeństwo radiologiczne i możliwość ewakuacji pacjenta, jeśli coś pójdzie nie tak. Podobnie 20 m² bywa intuicyjnie wybierane jako „rozsądny kompromis”, ale w przypadku gabinetu do badań naczyniowych nadal jest to za mało. Sprzęt angiograficzny jest obszerny: stół, kolumna lampy, detektor, panele sterowania, pompa kontrastu, zestaw monitorów, często też dodatkowe wyposażenie anestezjologiczne. Trzeba zachować określone odległości od źródła promieniowania i zaplanować układ ścian z odpowiednimi osłonami stałymi. Jeżeli sala jest za ciasna, personel ma tendencję do pracy bliżej pola promieniowania, trudniej też ustawić ruchome osłony ołowiane w optymalnym miejscu, co zwiększa dawki rozproszone. Z mojego doświadczenia wynika, że projektując pracownię, która ma obsługiwać zabiegi naczyniowe, zawsze kończy się na większych metrażach niż ktoś „na oko” zakłada na początku. Przepisy, które wymagają co najmniej 25 m², biorą pod uwagę nie tylko obecny sprzęt, ale też rezerwę na serwis, ewentualne doposażenie, a przede wszystkim ergonomię i ochronę radiologiczną. Dlatego wszystkie mniejsze wartości z odpowiedzi są po prostu niezgodne z wymaganiami dla tej klasy pracowni i w praktyce nie pozwoliłyby na legalne dopuszczenie gabinetu do użytkowania.

Pytanie 35

Źródłem promieniowania protonowego stosowanego w radioterapii jest

A. przyspieszacz liniowy.
B. cyberknife.
C. cyklotron.
D. bomba kobaltowa.
Prawidłowo wskazano cyklotron jako źródło promieniowania protonowego w radioterapii. W nowoczesnej terapii protonowej wiązka protonów musi być rozpędzona do bardzo wysokich energii, rzędu 70–250 MeV, tak aby miała odpowiedni zasięg w tkankach pacjenta. Do takiego przyspieszania świetnie nadaje się właśnie cyklotron, czyli akcelerator cykliczny, w którym protony poruszają się po spiralnej trajektorii w silnym polu magnetycznym i są wielokrotnie przyspieszane przez zmienne pole elektryczne. Na wyjściu z cyklotronu otrzymujemy stabilną, praktycznie ciągłą wiązkę protonów o zadanej energii. Dopiero później ta wiązka jest kształtowana przez systemy optyki wiązki, skanery, kolimatory i modulatory zasięgu, żeby precyzyjnie dopasować rozkład dawki do guza. W praktyce klinicznej cyklotron jest sercem całego ośrodka protonoterapii – zwykle znajduje się w osobnym, silnie osłoniętym bunkrze, a do stanowisk terapeutycznych wiązka jest doprowadzana systemem tuneli próżniowych i magnesów odchylających. Dzięki efektowi piku Bragga protony oddają większość energii na końcu swojego toru, co pozwala oszczędzać zdrowe tkanki za guzem; to jedna z głównych zalet protonoterapii w porównaniu z klasyczną fotonową radioterapią z przyspieszacza liniowego. Moim zdaniem warto pamiętać, że inne urządzenia, które często widzi się na oddziale radioterapii, jak linak czy cyberknife, pracują zupełnie inaczej – generują głównie promieniowanie fotonowe (X), a nie wiązkę protonów. W standardach międzynarodowych (np. zalecenia ICRU, IAEA) zawsze podkreśla się, że dla wiązek protonowych stosuje się wyspecjalizowane akceleratory, w tym właśnie cyklotrony lub synchrotrony, a nie klasyczne bomby kobaltowe.

Pytanie 36

Diagnozowanie metodą PET oparte jest na zjawisku

A. Comptona.
B. anihilacji pozytonu i elektronu.
C. fotoelektrycznym.
D. rozproszenia klasycznego.
W diagnostyce PET łatwo pomylić różne zjawiska fizyczne, bo w radiologii przewija się kilka podstawowych procesów oddziaływania promieniowania z materią. Trzeba jednak rozdzielić to, co jest kluczowe dla powstawania obrazu PET, od tego, co dominuje np. w klasycznym RTG czy tomografii komputerowej. Zjawisko Comptona, które często kojarzy się z promieniowaniem diagnostycznym, rzeczywiście ma ogromne znaczenie w radiografii czy TK, bo odpowiada za rozpraszanie fotonów w tkankach i powstawanie dawki w organizmie. Jednak w PET nie na tym opiera się sama metoda obrazowania. Rozproszenie Comptona jest tu raczej zjawiskiem niepożądanym, które pogarsza jakość obrazu, bo wprowadza fotony o zmienionej energii i kierunku, przez co system może je błędnie zakwalifikować. Podobnie jest ze zjawiskiem fotoelektrycznym – ono dominuje przy niższych energiach fotonów w klasycznym obrazowaniu rentgenowskim, wpływa na kontrast i pochłanianie promieniowania w kościach i tkankach miękkich. W PET fotony mają energię 511 keV i zjawisko fotoelektryczne nie jest tutaj podstawą działania aparatu, tylko jednym z możliwych, mniej istotnych mechanizmów oddziaływania w osłonach czy detektorach. Rozproszenie klasyczne (Thomsona, Rayleigha) też bywa wymieniane w podręcznikach, ale ma znaczenie głównie przy niższych energiach i nie jest fundamentem żadnej z nowoczesnych technik obrazowania medycyny nuklearnej. Typowy błąd polega na tym, że ktoś próbuje „na siłę” przypisać PET do tych samych zjawisk, co RTG czy TK, bo wszystkie używają promieniowania gamma lub X. Tymczasem istotą PET jest emisja pozytonów przez radioizotop i późniejsza anihilacja z elektronem, dająca dwa fotony 511 keV rejestrowane w koincydencji. Jeśli się to pomyli, łatwo potem źle rozumieć, skąd się bierze obraz PET, jak działają detektory pierścieniowe i dlaczego tak ważna jest dokładna rejestracja par fotonów, a nie pojedynczych kwantów, jak w klasycznej gammakamerze. Moim zdaniem warto sobie uporządkować: RTG/TK – głównie efekt fotoelektryczny i Comptona, scyntygrafia – emisja pojedynczych fotonów gamma, PET – anihilacja pozytonu i elektronu z rejestracją dwóch fotonów w koincydencji.

Pytanie 37

Promieniowanie rentgenowskie jest

A. falą elektromagnetyczną.
B. strumieniem elektronów.
C. falą ultradźwiękową.
D. strumieniem protonów.
W tym zadaniu łatwo się pomylić, bo w medycynie używa się różnych rodzajów fal i cząstek, a nazwy trochę się mieszają. Promieniowanie rentgenowskie bywa kojarzone z „promieniami”, z elektroniką, z akceleratorem, więc część osób intuicyjnie myśli o strumieniu elektronów albo nawet protonów. Inni z kolei kojarzą badania obrazowe z USG i wtedy pojawia się skojarzenie z falą ultradźwiękową. To są jednak zupełnie różne zjawiska fizyczne. Ultradźwięki to fale mechaniczne, czyli drgania ośrodka (tkanki, płynu), które wymagają materii do rozchodzenia się. Tak działa USG: głowica wytwarza fale akustyczne, one odbijają się od granic tkanek i wracają jako echo. Promieniowanie rentgenowskie nie ma z tym nic wspólnego – jest falą elektromagnetyczną, rozchodzi się także w próżni i nie polega na drganiach cząsteczek ośrodka. Dlatego USG nie jest promieniowaniem jonizującym, a RTG już tak. Strumień protonów to z kolei typowe promieniowanie cząsteczkowe wykorzystywane np. w niektórych rodzajach radioterapii (terapia protonowa). Proton ma masę, ładunek dodatni i zachowuje się jak ciężka cząstka, która oddaje energię w bardzo charakterystyczny sposób (pik Bragga). W diagnostyce rentgenowskiej nie używamy protonów, tylko fotony promieniowania X, więc mówienie o „strumieniu protonów” w kontekście zdjęcia RTG jest po prostu błędne. Strumień elektronów pojawia się co prawda w lampie rentgenowskiej, ale wewnątrz samego generatora: elektrony są rozpędzane między katodą a anodą i podczas gwałtownego hamowania powstaje promieniowanie X. Jednak to, co wychodzi z lampy i trafia w pacjenta, to już nie elektrony, tylko fotony – fala elektromagnetyczna. Myślowa pułapka polega na pomieszaniu procesu wytwarzania promieniowania z jego naturą fizyczną. Z punktu widzenia diagnostyki obrazowej, parametrów ekspozycji, ochrony radiologicznej i interpretacji obrazu zawsze myślimy o wiązce fotonów promieniowania elektromagnetycznego, a nie o wiązce cząstek materialnych czy falach dźwiękowych. Dlatego tylko odpowiedź opisująca promieniowanie rentgenowskie jako falę elektromagnetyczną jest zgodna z fizyką medyczną i obowiązującymi standardami.

Pytanie 38

Gadolin jako dożylny środek kontrastowy stosowany w MR powoduje

A. wydłużenie czasu relaksacji T₂ i brak zmian w czasie relaksacji T₁
B. skrócenie czasów relaksacji T₁ i T₂
C. wydłużenie czasów relaksacji T₁ i T₂
D. skrócenie czasu relaksacji T₁ i brak zmian w czasie relaksacji T₂
W tym zagadnieniu kluczowe jest zrozumienie, że gadolin jako środek kontrastowy w MR jest związkiem paramagnetycznym i jego głównym efektem fizycznym jest skracanie czasów relaksacji, a nie ich wydłużanie ani pozostawianie bez zmian. Typowym błędem jest mylenie działania gadolinu z działaniem środków negatywnych lub zjawisk powodujących wygaszanie sygnału na obrazach T2‑zależnych, co czasem prowadzi do przekonania, że kontrast „przedłuża” relaksację albo wpływa tylko na jeden z czasów. Założenie, że gadolin wydłuża T2 przy braku wpływu na T1, jest niezgodne z fizyką rezonansu. Obecność jonów gadolinu zwiększa lokalną niejednorodność pola magnetycznego na poziomie mikroskopowym, co ułatwia wymianę energii między jądrami wodoru a otoczeniem i skutkuje skróceniem zarówno T1, jak i T2. W warunkach klinicznych dominuje efekt T1‑skracający, ale to nie znaczy, że T2 pozostaje nietknięte. Stąd koncepcja „brak zmian T2” po kontraście gadolinowym jest uproszczeniem, które może być groźne, gdy ktoś próbuje tłumaczyć artefakty lub nietypowe obrazy tylko parametrami T1. Z kolei twierdzenie, że gadolin wpływa wyłącznie na T1, bez jakiegokolwiek wpływu na T2, też jest błędnym uproszczeniem. W praktyce, przy standardowych stężeniach klinicznych, efekt na T2 bywa mniej widoczny w porównaniu z T1, ale w wyższych stężeniach lub w sekwencjach bardzo czułych na T2* (np. GRE) dochodzi do wyraźnego spadku sygnału. To jest szczególnie ważne przy ocenie naczyń, krwawień, czy przy artefaktach od depozytów kontrastu. Nieprawidłowe jest też myślenie, że środki kontrastowe w MR „dodają jasności” bez zmiany parametrów relaksacji. W odróżnieniu od CT, gdzie kontrast zwiększa pochłanianie promieniowania i podnosi jednostki Hounsfielda, w MR cała historia kręci się właśnie wokół relaksacji T1 i T2. Gadolin nie działa jak barwnik, tylko jak modyfikator właściwości magnetycznych tkanek. Dobra praktyka w diagnostyce obrazowej zakłada rozumienie, że wzmacnianie kontrastowe na T1 po gadolinie wynika ze skrócenia T1, a potencjalne wygaszanie sygnału na pewnych T2/T2*‑zależnych sekwencjach to efekt skrócenia T2. Pomylenie tych mechanizmów może prowadzić do błędnej interpretacji badań, np. niedocenienia rozległości zmiany lub mylenia jej charakteru naczyniowego czy zapalnego.

Pytanie 39

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. PDR
B. MDR
C. LDR
D. HDR
Prawidłowa odpowiedź to PDR, czyli Pulsed Dose Rate brachyterapia. Chodzi dokładnie o taką technikę, gdzie wysokoaktywny izotop (najczęściej Ir-192) jest wielokrotnie wsuwany i wysuwany do tego samego aplikatora w krótkich, powtarzających się impulsach dawki. Mechanicznie wygląda to bardzo podobnie do HDR, bo też używa się afterloadera krokowego, który przemieszcza źródło po kolejnych pozycjach w aplikatorze, ale kluczowa różnica jest w sposobie podawania dawki w czasie: w PDR podaje się wiele krótkich impulsów, np. co godzinę, tak żeby biologicznie przypominało to napromienianie ciągłe jak w klasycznej LDR. W praktyce klinicznej PDR jest często stosowana tam, gdzie chcemy mieć precyzję i elastyczność HDR (dokładne pozycjonowanie źródła, możliwość modyfikacji planu), ale jednocześnie zależy nam na ochronie tkanek zdrowych dzięki efektowi repopulacji i naprawy uszkodzeń DNA pomiędzy impulsami. Moim zdaniem fajne w PDR jest to, że łączy trochę dwa światy: technologię wysokiej mocy dawki z radiobiologią dawki niskiej. W zaleceniach międzynarodowych (np. ESTRO, ICRU) podkreśla się, że planowanie PDR wymaga bardzo dokładnego określenia czasu trwania impulsu, przerw między impulsami oraz całkowitej dawki, bo z punktu widzenia tkanek liczy się nie tylko suma Gy, ale też rozkład w czasie. W codziennej pracy technika czy fizyka medycznego ważne jest rozumienie, że „pulsed” w nazwie to właśnie te wielokrotne wjazdy i wyjazdy źródła do tego samego aplikatora według zaprogramowanego harmonogramu, a nie jednorazowa ekspozycja jak w HDR. Dzięki temu łatwiej odróżnić PDR od pozostałych skrótów, które mówią głównie o mocy dawki, a nie o tym specyficznym, impulsowym sposobie jej podawania.

Pytanie 40

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Złóg w pęcherzyku żółciowym.
B. Wypełnione gazami jelito cienkie.
C. Wypełniony płynem pęcherz moczowy.
D. Przestrzeń międzyżebrowa.
W ultrasonografii pojęcie okna akustycznego jest kluczowe dla jakości obrazu i komfortu badania. Chodzi o taką strukturę lub obszar w ciele, który dobrze przewodzi fale ultradźwiękowe, nie pochłania ich nadmiernie i nie powoduje silnych odbić czy rozproszenia. Najlepszym środowiskiem do tego jest jednorodny płyn, dlatego to właśnie wypełniony płynem pęcherz moczowy stanowi modelowe okno akustyczne w badaniach miednicy mniejszej. Pozostałe odpowiedzi kuszą, bo brzmią logicznie, ale fizycznie zachowują się zupełnie inaczej. Przestrzeń międzyżebrowa bywa wykorzystywana do badania serca czy wątroby, jednak sama w sobie nie jest idealnym oknem. Problemem są żebra – kość bardzo silnie odbija ultradźwięki i powoduje zacienienie akustyczne za sobą. Z doświadczenia wiadomo, że operator musi „manewrować” głowicą między żebrami, żeby ominąć przeszkodę kostną, a nie korzysta z niej jak z dobrego ośrodka przewodzenia fal. To raczej kompromis niż wzorcowe okno. Jeszcze mniej przydatne jest jelito cienkie wypełnione gazem. Gaz w USG to wróg numer jeden: ma ogromną różnicę impedancji akustycznej względem tkanek miękkich, przez co większość fali odbija się na granicy gaz–tkanka. Powstaje silne odbicie powierzchowne, za którym obraz głębiej położonych struktur jest praktycznie niewidoczny. To właśnie dlatego w standardach przygotowania pacjenta do USG jamy brzusznej wymaga się bycia na czczo i ograniczenia wzdęć – chodzi o redukcję gazu w przewodzie pokarmowym. Złóg w pęcherzyku żółciowym również nie może być oknem akustycznym. Kamień jest strukturą bardzo echogeniczną, tworzy wyraźne echo i typowy cień akustyczny za sobą. Ten cień bywa diagnostycznie przydatny do rozpoznawania kamicy, ale kompletnie uniemożliwia zobrazowanie tego, co leży za złogiem. Typowym błędem myślowym jest utożsamianie „dobrze widocznej struktury” z „dobrym oknem akustycznym”. Tymczasem okno to coś, przez co patrzymy dalej, a nie tylko dobrze widzimy samą strukturę. Dobra praktyka w USG polega na świadomym wykorzystaniu płynu jako sprzymierzeńca i unikaniu gazu oraz kości jako barier dla ultradźwięków.