Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 23 kwietnia 2026 13:09
  • Data zakończenia: 23 kwietnia 2026 13:20

Egzamin zdany!

Wynik: 32/40 punktów (80,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Kolonoskopia to badanie, które ma na celu ocenę błony śluzowej

A. dwunastnicy.
B. jelita grubego.
C. jelita cienkiego.
D. żołądka.
Prawidłowo – kolonoskopia służy do oceny błony śluzowej jelita grubego, czyli okrężnicy, esicy i odbytnicy. W badaniu używa się giętkiego endoskopu wprowadzanego przez odbyt, a operator ogląda od środka ścianę jelita na monitorze w powiększeniu. Dzięki temu można bardzo dokładnie ocenić wygląd śluzówki: kolor, ukształtowanie, obecność nadżerek, owrzodzeń, polipów, guzów czy źródeł krwawienia. Z mojego doświadczenia to jedno z kluczowych badań w profilaktyce raka jelita grubego – standardem jest wykonywanie kolonoskopii przesiewowej u osób po 50. roku życia (a czasem wcześniej, gdy są obciążenia rodzinne). W trakcie kolonoskopii zgodnie z dobrymi praktykami nie tylko się ogląda jelito, ale też od razu wykonuje procedury terapeutyczne: usuwa polipy pętlą diatermiczną, pobiera wycinki do badania histopatologicznego, tamuje krwawienie za pomocą klipsów endoskopowych czy koagulacji. Dobre przygotowanie pacjenta, czyli dokładne oczyszczenie jelita środkami przeczyszczającymi dzień przed badaniem, jest absolutnie kluczowe – od tego zależy jakość oceny błony śluzowej, a tym samym wiarygodność wyniku. W praktyce technik czy personel pomocniczy musi pilnować, żeby pacjent miał właściwe przeciwwskazania ocenione (np. ciężka niewydolność krążenia, perforacja, ostre zapalenie otrzewnej) oraz żeby sprzęt był prawidłowo zdezynfekowany zgodnie z procedurami endoskopowymi. Moim zdaniem warto też zapamiętać prostą zasadę: kolonoskopia = jelito grube, gastroskopia = przełyk, żołądek i dwunastnica. To pomaga na egzaminach i w praktyce na oddziale, kiedy lekarz zleca różne badania endoskopowe i trzeba je dobrze od siebie odróżniać.

Pytanie 2

DSA to cyfrowa

A. flebografia subtrakcyjna.
B. angiografia subtrakcyjna.
C. arteriografia subtrakcyjna.
D. limfografia subtrakcyjna.
Prawidłowa odpowiedź to cyfrowa angiografia subtrakcyjna, czyli Digital Subtraction Angiography (DSA). Rozszyfrowanie skrótu jest tu kluczowe: „A” pochodzi od angiography, czyli obrazowania naczyń krwionośnych. W DSA chodzi dokładnie o to, żeby jak najczyściej uwidocznić tętnice i żyły po podaniu kontrastu jodowego, a jednocześnie „odjąć” (subtrakcyjnie) obraz kości i tkanek miękkich. Technicznie wygląda to tak, że najpierw rejestruje się obraz „maskę” bez kontrastu, a potem serię obrazów po jego podaniu. Komputer piksel po pikselu odejmuje maskę od kolejnych klatek, dzięki czemu zostaje głównie to, co się zmieniło, czyli kontrast w naczyniach. W praktyce klinicznej DSA jest standardem w diagnostyce zwężeń tętnic szyjnych, tętniaków mózgowych, malformacji naczyniowych, zmian w tętnicach wieńcowych, kończyn dolnych czy tętnic nerkowych. Często wykorzystuje się ją także jako badanie łączone z zabiegiem – tzw. procedury endowaskularne: angioplastyka balonowa, implantacja stentów, embolizacja. Z mojego doświadczenia, w pracowniach hemodynamiki i angiografii pacjent z istotnym zwężeniem tętnicy zwykle w tym samym „wejściu” ma robioną i diagnostykę (DSA), i leczenie. DSA wymaga dobrej jakości aparatu angiograficznego, stabilnego ułożenia pacjenta, odpowiedniej dawki kontrastu oraz synchronizacji ekspozycji z podaniem kontrastu. Z punktu widzenia dobrych praktyk ważne jest ograniczanie dawki promieniowania (ALARA), monitorowanie ilości kontrastu i kontrola ryzyka nefropatii pokontrastowej. Cyfrowa arteriografia, flebografia czy limfografia mogą być wykonywane, ale jako techniki szczegółowe – DSA dotyczy ogólnie angiografii, a nie tylko jednego typu naczynia.

Pytanie 3

Audiometria impedancyjna polega na pomiarze

A. przewodnictwa powietrznego.
B. przewodnictwa kostnego.
C. oporu akustycznego i ciśnienia w uchu zewnętrznym.
D. oporu akustycznego i ciśnienia w uchu środkowym.
Audiometria impedancyjna bywa mylona z klasyczną audiometrią tonalną, dlatego łatwo wpaść w pułapkę skojarzeń typu „przewodnictwo powietrzne” albo „przewodnictwo kostne”. Tymczasem są to zupełnie inne badania i inny zakres pomiaru. W audiometrii impedancyjnej nie interesuje nas progowy poziom słyszenia pacjenta, tylko właściwości mechaniczne układu przewodzącego ucha środkowego – opór akustyczny i warunki ciśnieniowe. Odpowiedź odwołująca się do pomiaru oporu akustycznego i ciśnienia w uchu zewnętrznym jest myląca, bo choć urządzenie rzeczywiście zmienia ciśnienie w przewodzie słuchowym zewnętrznym, to jest to jedynie narzędzie techniczne do oceny zachowania błony bębenkowej i struktur ucha środkowego. Nie badamy samego przewodu zewnętrznego jako środowiska akustycznego, tylko reakcję układu ucha środkowego na kontrolowane zmiany ciśnienia. Koncepcja, że audiometria impedancyjna mierzy przewodnictwo powietrzne, wynika zwykle z utożsamiania każdego badania słuchu z audiometrią tonalną. Przewodnictwo powietrzne oznacza wyznaczanie progów słyszenia przez słuchawki nausznie lub dokanałowe, przy różnych częstotliwościach, co jest typowe dla audiometrii tonalnej, a nie impedancyjnej. W tympanometrii ton testowy ma stałą częstotliwość i nie służy do określania progu słyszenia, ale do pomiaru zmian impedancji. Podobnie przewodnictwo kostne, oceniane za pomocą wibratora kostnego na wyrostku sutkowatym lub czole, dotyczy drogi przewodzenia drgań bezpośrednio do ślimaka, z pominięciem ucha zewnętrznego i środkowego. Audiometria impedancyjna w ogóle nie używa wibratora kostnego i nie określa progów przewodnictwa kostnego, bo jej zadaniem jest ocena funkcji ucha środkowego – głównie ruchomości błony bębenkowej, łańcucha kosteczek i warunków ciśnieniowych w jamie bębenkowej. Typowy błąd myślowy polega na tym, że skoro badanie odbywa się „przez ucho”, to musi dotyczyć przewodnictwa powietrznego albo kostnego. W rzeczywistości jest to badanie mechaniczne, fizyczne, oparte na analizie impedancji akustycznej. Z punktu widzenia dobrych praktyk diagnostycznych audiometria impedancyjna uzupełnia badania progowe, ale ich nie zastępuje. Dlatego prawidłowe rozumienie, że mierzymy opór akustyczny i ciśnienie w uchu środkowym, jest kluczowe, a odpowiedzi odwołujące się do przewodnictwa powietrznego, kostnego lub samego ucha zewnętrznego po prostu nie oddają istoty tego badania.

Pytanie 4

Gadolin jako dożylny środek kontrastowy stosowany w MR powoduje

A. wydłużenie czasów relaksacji T₁ i T₂
B. skrócenie czasów relaksacji T₁ i T₂
C. wydłużenie czasu relaksacji T₂ i brak zmian w czasie relaksacji T₁
D. skrócenie czasu relaksacji T₁ i brak zmian w czasie relaksacji T₂
Prawidłowa odpowiedź opiera się na podstawowej właściwości gadolinu jako paramagnetycznego środka kontrastowego: powoduje on skrócenie zarówno czasu relaksacji T1, jak i T2 w tkankach, w których się gromadzi. W praktyce klinicznej najważniejszy jest efekt T1‑skracający, bo na sekwencjach T1‑zależnych takie miejsca stają się wyraźnie jaśniejsze (hiperintensywne). Dzięki temu lepiej widzimy zmiany z zaburzoną barierą krew–mózg, unaczynione guzy, ogniska zapalne czy nieszczelne naczynia. Moim zdaniem warto to sobie skojarzyć tak: gadolin „przyspiesza” relaksację protonów, więc sygnał szybciej wraca do stanu równowagi. Od strony fizycznej jony gadolinu (w postaci chelatów, np. Gd-DTPA) mają niesparowane elektrony, które silnie oddziałują z momentem magnetycznym jąder wodoru. To zwiększa efektywność wymiany energii i skraca czasy relaksacji. W dawkach diagnostycznych efekt T1 jest dominujący i pożądany – dlatego badania kontrastowe MR planuje się głównie w sekwencjach T1‑zależnych (np. spin-echo T1, 3D T1 z saturacją tłuszczu). W sekwencjach silnie T2‑zależnych skrócenie T2 może prowadzić wręcz do pewnego spadku sygnału, ale klinicznie zwykle mniej nas to interesuje. W dobrych praktykach pracowni MR zawsze dobiera się odpowiednie sekwencje przed i po kontraście, tak żeby w pełni wykorzystać efekt T1‑skracający gadolinu. Standardowe protokoły (np. w badaniu OUN, wątroby, trzustki, kręgosłupa) zakładają ocenę wzmacniania kontrastowego właśnie na obrazach T1. Warto też pamiętać o kwestiach bezpieczeństwa: środki gadolinowe są generalnie bezpieczne, ale przy ciężkiej niewydolności nerek istnieje ryzyko nefrogennego układowego zwłóknienia, więc zawsze trzeba sprawdzać eGFR i trzymać się aktualnych zaleceń producenta i wytycznych towarzystw radiologicznych.

Pytanie 5

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Wypełnione gazami jelito cienkie.
B. Wypełniony płynem pęcherz moczowy.
C. Przestrzeń międzyżebrowa.
D. Złóg w pęcherzyku żółciowym.
W ultrasonografii pojęcie okna akustycznego jest kluczowe dla jakości obrazu i komfortu badania. Chodzi o taką strukturę lub obszar w ciele, który dobrze przewodzi fale ultradźwiękowe, nie pochłania ich nadmiernie i nie powoduje silnych odbić czy rozproszenia. Najlepszym środowiskiem do tego jest jednorodny płyn, dlatego to właśnie wypełniony płynem pęcherz moczowy stanowi modelowe okno akustyczne w badaniach miednicy mniejszej. Pozostałe odpowiedzi kuszą, bo brzmią logicznie, ale fizycznie zachowują się zupełnie inaczej. Przestrzeń międzyżebrowa bywa wykorzystywana do badania serca czy wątroby, jednak sama w sobie nie jest idealnym oknem. Problemem są żebra – kość bardzo silnie odbija ultradźwięki i powoduje zacienienie akustyczne za sobą. Z doświadczenia wiadomo, że operator musi „manewrować” głowicą między żebrami, żeby ominąć przeszkodę kostną, a nie korzysta z niej jak z dobrego ośrodka przewodzenia fal. To raczej kompromis niż wzorcowe okno. Jeszcze mniej przydatne jest jelito cienkie wypełnione gazem. Gaz w USG to wróg numer jeden: ma ogromną różnicę impedancji akustycznej względem tkanek miękkich, przez co większość fali odbija się na granicy gaz–tkanka. Powstaje silne odbicie powierzchowne, za którym obraz głębiej położonych struktur jest praktycznie niewidoczny. To właśnie dlatego w standardach przygotowania pacjenta do USG jamy brzusznej wymaga się bycia na czczo i ograniczenia wzdęć – chodzi o redukcję gazu w przewodzie pokarmowym. Złóg w pęcherzyku żółciowym również nie może być oknem akustycznym. Kamień jest strukturą bardzo echogeniczną, tworzy wyraźne echo i typowy cień akustyczny za sobą. Ten cień bywa diagnostycznie przydatny do rozpoznawania kamicy, ale kompletnie uniemożliwia zobrazowanie tego, co leży za złogiem. Typowym błędem myślowym jest utożsamianie „dobrze widocznej struktury” z „dobrym oknem akustycznym”. Tymczasem okno to coś, przez co patrzymy dalej, a nie tylko dobrze widzimy samą strukturę. Dobra praktyka w USG polega na świadomym wykorzystaniu płynu jako sprzymierzeńca i unikaniu gazu oraz kości jako barier dla ultradźwięków.

Pytanie 6

W celu wykonania badania scyntygraficznego układu kostnego radiofarmaceutyk należy podać pacjentowi

A. doustnie.
B. domięśniowo.
C. dożylnie.
D. podskórnie.
W scyntygrafii układu kostnego standardem jest podanie radiofarmaceutyku wyłącznie dożylnie. Wynika to z mechanizmu działania tych preparatów: typowo stosuje się fosfoniany znakowane technetem-99m (np. 99mTc-MDP, 99mTc-HDP), które muszą szybko trafić do krwiobiegu, a następnie zostać wychwycone przez tkankę kostną, głównie w miejscach wzmożonego metabolizmu kostnego. Podanie dożylne gwarantuje przewidywalną kinetykę, równomierne rozprowadzenie w organizmie i możliwość prawidłowego zaplanowania czasu obrazowania (zwykle 2–4 godziny po iniekcji). Z mojego doświadczenia, jeśli dawka jest podana do żyły prawidłowo, obraz w gammakamerze jest czytelny, a stosunek sygnału z kości do tła miękkotkankowego jest optymalny. W medycynie nuklearnej trzyma się zasady, że radiofarmaceutyk podajemy w taki sposób, aby szybko i kontrolowanie uzyskać odpowiednie stężenie w narządzie docelowym, przy jak najmniejszej dawce całkowitej dla pacjenta. Dlatego drogi podania, które powodują opóźnione, nieprzewidywalne wchłanianie (jak doustna czy podskórna), są tutaj po prostu nieakceptowalne. Dożylne podanie umożliwia też natychmiastową reakcję, jeśli dojdzie do wynaczynienia – można ocenić miejsce wkłucia, przepłukać dostęp, odpowiednio opisać badanie. W wytycznych pracowni medycyny nuklearnej i w standardach EANM (European Association of Nuclear Medicine) wyraźnie podkreśla się, że scyntygrafia kości jest badaniem wymagającym prawidłowego dostępu żylnego, bo od tego zależy jakość diagnostyczna obrazów, a w konsekwencji trafność rozpoznania zmian przerzutowych, zapalnych czy pourazowych.

Pytanie 7

Który radiofarmaceutyk może zostać podany pacjentowi w scyntygrafii perfuzyjnej mózgu?

A. Tc-99m MDP
B. I-123 NaI
C. I-131 NaI
D. Tc-99m HMPAO
Prawidłowo wybrany został Tc-99m HMPAO, czyli technet-99m heksametylopropylenoamina oksym. To klasyczny radiofarmaceutyk stosowany w scyntygrafii perfuzyjnej mózgu, zarówno w badaniach stacjonarnych SPECT, jak i w niektórych protokołach dynamicznych. Ma on właściwości lipofilne, dzięki czemu łatwo przenika przez barierę krew–mózg i w stosunkowo krótkim czasie ulega utrwaleniu w tkance mózgowej proporcjonalnie do regionalnego przepływu krwi. Dzięki temu rozkład wychwytu Tc-99m HMPAO bardzo dobrze odzwierciedla perfuzję poszczególnych obszarów mózgu w momencie podania. W praktyce klinicznej używa się go m.in. do oceny ognisk niedokrwienia, w diagnostyce padaczki (lokalizacja ogniska padaczkowego), w ocenie otępień, a także w niektórych przypadkach urazów mózgu. Z mojego doświadczenia, przy badaniach padaczkowych bardzo ważny jest moment podania – HMPAO trzeba wstrzyknąć w trakcie napadu lub tuż po, żeby zobaczyć typowy wzrost przepływu w ognisku. Tc-99m jako znacznik ma korzystny okres półtrwania (ok. 6 godzin), emituje promieniowanie gamma o energii idealnej do gammakamery (140 keV) i daje dobrą jakość obrazów przy stosunkowo niskiej dawce dla pacjenta, co jest zgodne z zasadą ALARA w medycynie nuklearnej. W wytycznych i w praktyce większości pracowni perfuzyjna scyntygrafia mózgu kojarzy się głównie właśnie z Tc-99m HMPAO albo jego nowszym odpowiednikiem Tc-99m ECD. To są standardowe, rekomendowane radiofarmaceutyki do tego typu badań.

Pytanie 8

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. tomografii komputerowej, wykonane w fazie oddechowej.
B. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
C. klasycznej rentgenografii, wykonane w fazie oddechowej.
D. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 9

Która składowa prawidłowej krzywej EKG odpowiada powolnej repolaryzacji komór mięśnia sercowego?

A. Odcinek TP
B. Załamek Q
C. Odcinek ST
D. Załamek P
Prawidłowo wskazany odcinek ST odpowiada fazie powolnej repolaryzacji komór, czyli tzw. fazie plateau potencjału czynnościowego kardiomiocytów. W klasycznej fizjologii błony komórkowej serca jest to głównie faza 2 potencjału czynnościowego komórek roboczych mięśnia komór. W tym czasie do wnętrza komór napływają wolne kanały wapniowe typu L (Ca2+), a jednocześnie część jonów potasu (K+) wypływa na zewnątrz. Bilans tych prądów powoduje, że napięcie błonowe utrzymuje się przez pewien czas na w miarę stałym poziomie – właśnie to plateau odzwierciedla się na EKG jako odcinek ST, który w warunkach prawidłowych jest izoelektryczny, czyli leży na linii izoelektrycznej. W praktyce technika EKG bardzo mocno opiera się na ocenie odcinka ST. W standardach interpretacji (np. zalecenia ESC/ACC) analiza uniesienia lub obniżenia ST jest kluczowa w rozpoznawaniu ostrego zespołu wieńcowego z uniesieniem odcinka ST (STEMI) albo niedokrwienia podwsierdziowego. Dla technika wykonującego badanie to oznacza, że trzeba bardzo pilnować jakości zapisu: dobra przyczepność elektrod, minimalizacja artefaktów mięśniowych, właściwa filtracja. Z mojego doświadczenia, jeśli odcinek ST „pływa” przez złe uziemienie czy ruch pacjenta, lekarz może mieć realny problem z oceną, czy to prawdziwe uniesienie, czy tylko artefakt. Warto też pamiętać, że odcinek ST analizujemy zawsze w kontekście całej krzywej – końcówki zespołu QRS i początku załamka T. Wzorzec jest taki: QRS odpowiada depolaryzacji komór, potem odcinek ST – faza powolnej repolaryzacji, a załamek T – szybsza, końcowa repolaryzacja komór. Umiejętność świadomego powiązania tych elementów z fizjologią błony komórkowej bardzo pomaga w praktycznej interpretacji zapisu i w szybkim wychwytywaniu patologii, szczególnie w dyżurach SOR czy w pracowniach diagnostyki nieinwazyjnej.

Pytanie 10

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, rozpuszczalne w wodzie.
B. Jodowe, nierozpuszczalne w wodzie.
C. Środki na bazie siarczanu baru.
D. Środki na bazie gadolinu.
Prawidłowo – w diagnostyce rezonansem magnetycznym standardowo stosuje się paramagnetyczne środki kontrastujące na bazie gadolinu. Gadolinium samo w sobie jest silnie toksycznym metalem ciężkim, ale w kontrastach MR występuje w postaci chelatów, czyli związków kompleksowych, które wiążą jon gadolinu i dzięki temu znacznie zmniejszają jego toksyczność i poprawiają bezpieczeństwo kliniczne. Mechanizm działania takiego kontrastu jest inny niż w klasycznej radiologii: gadolin nie pochłania promieniowania rentgenowskiego, tylko skraca czasy relaksacji T1 (głównie) i T2 protonów wody w tkankach. W praktyce oznacza to, że struktury, które gromadzą gadolin, stają się jaśniejsze (hiperintensywne) na obrazach T1-zależnych. W codziennej pracy używa się go np. w diagnostyce guzów mózgu, zmian demielinizacyjnych w SM, ocenie zapalenia opon, w badaniach serca (blizna pozawałowa, kardiomiopatie) czy przy ocenie unaczynienia guzów wątroby i nerek. Moim zdaniem warto zapamiętać, że kontrast MR to przede wszystkim gadolin, a nie jod czy bar. Dobre praktyki mówią o konieczności oceny czynności nerek (eGFR) przed podaniem gadolinu, szczególnie u pacjentów z niewydolnością nerek, ze względu na ryzyko nefrogennego układowego zwłóknienia (NSF) przy starszych preparatach. Obecnie preferuje się tzw. środki makrocykliczne, które są bardziej stabilne chemicznie i uznawane za bezpieczniejsze. W MR stosuje się też specjalne protokoły dynamiczne po kontraście (np. badania wątroby, piersi), gdzie obserwuje się fazy wzmocnienia w czasie, co pomaga różnicować zmiany łagodne i złośliwe. W praktyce technika i lekarz opisujący zawsze powinni dobrać odpowiednią dawkę, sekwencje T1-zależne i czas podania, żeby wzmocnienie kontrastowe było maksymalnie diagnostyczne.

Pytanie 11

Które informacje należy zamieścić na strzykawce z radiofarmaceutykiem przygotowanym przez technika elektroradiologa?

A. Typ radiofarmaceutyku, radioaktywność, godzina przygotowania.
B. Typ radiofarmaceutyku, stężenie, godzina przygotowania.
C. Czas okresu inkubacji, radioaktywność, inicjały technika.
D. Czas okresu inkubacji, stężenie, inicjały technika.
W medycynie nuklearnej oznakowanie strzykawki z radiofarmaceutykiem nie jest kwestią kosmetyczną, tylko elementem bezpieczeństwa i jakości całego badania. Typowy błąd polega na przenoszeniu logiki z innych działów diagnostyki obrazowej albo z ogólnej farmakoterapii, gdzie bardziej zwraca się uwagę na stężenie, czas inkubacji czy inicjały osoby przygotowującej. W przypadku radiofarmaceutyków kluczowe są jednak inne parametry. Informacja o czasie okresu inkubacji ma znaczenie np. przy znakowaniu krwinek czy niektórych procedurach laboratoryjnych, ale nie jest podstawową daną, którą musi widzieć osoba podająca preparat pacjentowi. Na strzykawce znacznie ważniejsze jest to, ile aktualnie mamy aktywności promieniotwórczej, a nie jak długo coś się inkubowało. Podobnie ze stężeniem – może ono być istotne w dokumentacji roboczej lub przy obliczeniach w pracowni, ale osoba wykonująca podanie musi przede wszystkim znać aktywność w MBq przypadającą na daną objętość, a nie samo stężenie opisane w sposób ogólny. Rozróżnienie między stężeniem a radioaktywnością bywa mylone: stężenie mówi, ile substancji chemicznej jest w jednostce objętości, natomiast radioaktywność określa tempo rozpadu jąder i realną „moc” dawki promieniowania. To radioaktywność, a nie samo stężenie, ma zasadnicze znaczenie dla dawki pochłoniętej przez pacjenta i zgodności z protokołami. Inicjały technika mogą być przydatne z punktu widzenia wewnętrznej kontroli jakości czy odpowiedzialności, ale nie stanowią podstawowego elementu opisu strzykawki. Dużo ważniejsze jest, aby na etykiecie pojawiła się godzina przygotowania (lub godzina kalibracji aktywności), bo bez niej nie da się poprawnie przeliczyć rozpadu w czasie i sprawdzić, czy dawka w momencie podania jest prawidłowa. Typ radiofarmaceutyku jest z kolei absolutnie niezbędny – bez jednoznacznej nazwy preparatu łatwo o pomyłkę między różnymi związkami technetu czy innymi izotopami. Właśnie pomijanie typu preparatu i radioaktywności, a skupianie się na parametrach bardziej „farmaceutycznych” jak stężenie czy sama osoba przygotowująca, jest typowym błędem myślowym wynikającym z niedostatecznego uwzględnienia specyfiki medycyny nuklearnej. Dobre praktyki i procedury pracowni jasno podkreślają: musi być nazwa radiofarmaceutyku, aktualna aktywność oraz czas odniesienia, bo to trzy filary bezpiecznego podania i prawidłowej interpretacji badania.

Pytanie 12

Którą strukturę anatomiczną oznaczono na skanie TK głowy?

Ilustracja do pytania
A. Wodociąg mózgu.
B. Komorę III.
C. Komorę boczną.
D. Szyszynkę.
Na tym obrazie TK głowy łatwo pomylić różne elementy układu komorowego, zwłaszcza gdy ogląda się pojedynczy przekrój, a nie całe badanie w sekwencji warstw. Wskazana przez strzałkę struktura ma jednak typowy wygląd i położenie dla przednich części komór bocznych, a nie dla pozostałych wymienionych odpowiedzi. Wodociąg mózgu (wodociąg Sylwiusza) jest wąskim kanałem łączącym komorę III z komorą IV. Leży w obrębie śródmózgowia, czyli znacznie bardziej ku tyłowi i ku dołowi, w rejonie pnia mózgu. W typowym przekroju osiowym TK głowy wodociąg, jeśli w ogóle jest widoczny, ma postać bardzo cienkiego, punktowego lub nitkowatego światła, a nie szerokiej, rozgałęziającej się przestrzeni w obrębie półkul. Pomyłka w tym kierunku zwykle wynika z traktowania całego układu komorowego jako jednej „dziury z płynem”, bez zwracania uwagi na topografię względem kory i sklepistości czaszki. Komora III ma z kolei kształt bardziej szczelinowaty, położona jest dokładnie w linii pośrodkowej, między wzgórzami, niżej niż rogi przednie komór bocznych. Na przekrojach, gdzie dobrze widać rogi przednie, komora III często nie jest jeszcze wyraźnie widoczna lub ma zupełnie inny, bardziej podłużny układ, a nie formę litery „V” w półkulach. Szyszynka natomiast jest strukturą miąższową, parenchymatyczną, a nie przestrzenią płynową. W TK często wykazuje drobne zwapnienia i wtedy wygląda jako jasny, niewielki punkt w okolicy tylnej części komory III, nad wzgórkami czworaczymi. Na prezentowanym obrazie strzałka nie wskazuje takiego punktowego, hiperdensyjnego ogniska, tylko symetryczną przestrzeń wypełnioną płynem. Typowym błędem jest tu ocenianie „kształtu” bez uwzględnienia kontekstu anatomicznego – gdzie jest sklepistość, gdzie są półkule, gdzie pień mózgu. Dobra praktyka w diagnostyce obrazowej zakłada zawsze korelację struktury z jej położeniem w trzech płaszczyznach i znajomość tego, które elementy układu komorowego powinny być widoczne na danym poziomie przekroju. Dzięki temu łatwiej uniknąć takich pomyłek i prawidłowo rozróżnić komory boczne, komorę III, wodociąg oraz drobne gruczoły jak szyszynka.

Pytanie 13

Zadaniem technika elektroradiologa w pracowni naczyniowej jest

A. wprowadzenie cewnika w światło naczyń.
B. nadzorowanie sprawnego działania aparatury rentgenowskiej.
C. przygotowanie cewników.
D. przygotowanie niezbędnych narzędzi.
Prawidłowo wskazana rola technika elektroradiologa w pracowni naczyniowej to nadzorowanie sprawnego działania aparatury rentgenowskiej. W pracowni angiograficznej technik jest odpowiedzialny przede wszystkim za stronę techniczną badania, a nie za wykonywanie czynności inwazyjnych w obrębie naczyń. To lekarz – najczęściej radiolog interwencyjny, kardiolog lub chirurg naczyniowy – wprowadza cewnik do światła naczynia, prowadzi go, podaje kontrast i wykonuje właściwy zabieg. Technik natomiast musi zadbać o to, żeby cały system obrazowania działał stabilnie, bezpiecznie i dawał obrazy o jak najlepszej jakości przy możliwie najmniejszej dawce promieniowania. W praktyce oznacza to m.in. prawidłowe ustawienie parametrów ekspozycji, kontrolę pracy lampy rentgenowskiej, generatora, stołu angiograficznego, systemu akwizycji obrazu oraz monitorów. Technik sprawdza przed badaniem poprawność działania układów sterowania, kolimatorów, systemów automatycznej kontroli ekspozycji, a także współpracuje z lekarzem przy doborze protokołów obrazowania, np. częstości serii, czasu akwizycji, projekcji, synchronizacji z podaniem kontrastu. Moim zdaniem bardzo ważne jest też to, że technik pilnuje bezpieczeństwa radiologicznego całego zespołu i pacjenta: dobiera osłony, kontroluje dawkę, dba o prawidłowe ustawienie ramienia C, żeby ograniczyć niepotrzebne ekspozycje. W dobrze działającej pracowni naczyniowej technik jest takim „operatorem systemu”, który musi szybko reagować, gdy pojawiają się komunikaty błędów, spadek jakości obrazu, przegrzewanie lampy czy problemy z archiwizacją w systemie PACS. To wszystko bezpośrednio przekłada się na bezpieczeństwo zabiegu, komfort pracy lekarza i skuteczność diagnostyki oraz terapii.

Pytanie 14

W brachyterapii MDR stosowane są dawki promieniowania

A. od 0,01 do 0,1 Gy/h
B. od 0,2 do 0,4 Gy/h
C. od 0,5 do 1,0 Gy/h
D. od 2,0 do 12 Gy/h
Poprawnie – w brachyterapii typu MDR (medium dose rate) przyjmuje się, że tempo dawki mieści się w zakresie od ok. 2 do 12 Gy/h i to właśnie odpowiada zaznaczonej odpowiedzi. Ten przedział jest ustalony w oparciu o klasyczne podziały ICRU/ICRP na LDR, MDR, HDR i PDR. W praktyce klinicznej takie dawki uzyskuje się głównie przy użyciu źródeł o średniej aktywności i systemów afterloading, gdzie aplikator jest już założony w ciele pacjenta, a źródło jest wsuwane automatycznie pod kontrolą aparatu. Moim zdaniem warto zapamiętać proste skojarzenie: LDR to dawki rzędu dziesiątych części Gy na godzinę, HDR to kilkanaście Gy na godzinę i więcej, a MDR leży właśnie pomiędzy, czyli te 2–12 Gy/h. W tym zakresie dawki mamy jeszcze relatywnie długi czas ekspozycji, liczony w dziesiątkach minut, czasem w godzinach, ale już zdecydowanie krótszy niż przy klasycznej brachyterapii LDR, gdzie źródła pozostawały w pacjencie nawet kilka dni. Z punktu widzenia planowania leczenia tempo dawki wpływa na biologiczny efekt promieniowania – przy MDR można uzyskać pewien kompromis między wygodą organizacyjną (krótszy pobyt pacjenta w osłoniętej sali, większa przepustowość) a korzyściami radiobiologicznymi podobnymi do LDR, np. lepszą tolerancją tkanek zdrowych dzięki częściowej możliwości naprawy subletalnych uszkodzeń. W standardach radioterapii podkreśla się, że przy planowaniu brachyterapii MDR trzeba bardzo dokładnie określić geometrię aplikatorów, zweryfikować położenie w obrazowaniu (najczęściej TK) i kontrolować czas przebywania źródła w poszczególnych pozycjach (tzw. dwell time), bo przy 2–12 Gy/h nawet niewielkie przesunięcie aplikatora albo błąd w czasie może skutkować istotnym przedawkowaniem w krytycznych narządach, np. pęcherzu czy odbytnicy. W wielu ośrodkach MDR jest stosowana np. w leczeniu nowotworów ginekologicznych czy guzów głowy i szyi, gdzie ważne jest połączenie precyzji przestrzennej z umiarkowanym tempem dawki.

Pytanie 15

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 1 ÷ 3 MeV
B. 4 ÷ 25 MeV
C. 100 ÷ 150 MeV
D. 0,1 ÷ 0,3 MeV
Prawidłowo: w medycznym przyspieszaczu liniowym (linaku) do radioterapii terapeutyczna wiązka fotonów ma typowo energię w zakresie około 4–25 MeV. To jest standardowy zakres dla nowoczesnych akceleratorów używanych w teleradioterapii. Niższe energie nie dawałyby odpowiedniej penetracji tkanek głębiej położonych, a wyższe byłyby trudniejsze do bezpiecznego zastosowania klinicznego i ochrony radiologicznej. W praktyce klinicznej najczęściej używa się wiązek 6 MV, 10 MV, czasem 15 MV, a w niektórych ośrodkach także 18–20 MV. Ten zapis „MV” w dokumentacji aparatu oznacza właśnie przybliżoną energię fotonów rzędu kilku–kilkunastu MeV. Moim zdaniem warto zapamiętać, że wszystko co jest w okolicach kilku–kilkudziesięciu MeV, to już typowa radioterapia, a nie diagnostyka. Takie energie pozwalają na tzw. efekt oszczędzania skóry – dawka maksymalna przesuwa się na pewną głębokość pod powierzchnią, co jest korzystne przy leczeniu nowotworów położonych głębiej. Dzięki temu można napromieniać guz w miednicy, śródpiersiu czy w obrębie głowy i szyi, jednocześnie w miarę chroniąc skórę i tkanki zdrowe. W planowaniu leczenia w systemach TPS zawsze wybiera się właśnie jedną z dostępnych energii fotonów linaka (np. 6 MV lub 15 MV) w zależności od głębokości guza, budowy pacjenta i techniki (IMRT, VMAT, 3D-CRT). Z mojego doświadczenia z opisów kart technicznych: zakres 4–25 MeV to taki „branżowy standard” dla teleterapii fotonowej, który dobrze równoważy skuteczność kliniczną, możliwości techniczne przyspieszacza i wymagania ochrony radiologicznej.

Pytanie 16

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
B. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
C. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
D. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
W tym pytaniu bardzo łatwo pomylić różne schematy frakcjonowania, bo wszystkie brzmią dość podobnie, a różnice są czysto „liczbowe”, ale za tymi liczbami stoi konkretna radiobiologia. Hiperfrakcjonowanie to nie jest po prostu „więcej razy dziennie” ani „większa dawka”, tylko konkretny sposób podawania promieniowania: dawka na pojedynczą frakcję jest mniejsza niż standardowe 2 Gy, frakcji jest więcej w ciągu dnia, a całkowity czas leczenia pozostaje zbliżony do klasycznego schematu. Błędne skojarzenie, że skoro robimy 2–3 frakcje dziennie, to dawka jednostkowa powinna być większa, wynika często z mylenia hiperfrakcjonowania z hipofrakcjonowaniem. W hipofrakcjonowaniu właśnie podnosi się dawkę frakcyjną (np. 3–8 Gy), zwykle przy mniejszej liczbie frakcji i często skróceniu całkowitego czasu leczenia, co wykorzystuje się np. w radioterapii paliatywnej czy stereotaktycznej (SBRT). Z kolei pomysł wydłużania całkowitego czasu leczenia przy hiperfrakcjonowaniu jest sprzeczny z jego celem. Jeżeli leczenie trwa dłużej, dochodzi do repopulacji komórek nowotworowych, czyli guz ma więcej czasu na „odbudowę”, co obniża skuteczność terapii. Standardy planowania radioterapii jasno mówią, że w schematach hiperfrakcyjnych całkowity czas leczenia powinien być podobny do konwencjonalnego, właśnie po to, żeby nie zwiększać ryzyka odrastania guza. Dodatkowo, zwiększanie dawki frakcyjnej przy dwóch lub trzech frakcjach dziennie mocno podbiłoby ryzyko powikłań późnych w tkankach zdrowych, takich jak zwłóknienia, mielopatie czy uszkodzenia narządów krytycznych. Z mojego doświadczenia w nauczaniu ten błąd bierze się z prostego skojarzenia: „więcej frakcji = więcej dawki na raz”, a tymczasem w radioterapii często jest odwrotnie – im więcej frakcji, tym mniejsza dawka na pojedyncze naświetlanie, przy starannie zaplanowanej dawce całkowitej i czasie leczenia.

Pytanie 17

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co najmniej raz na 12 miesięcy.
B. co najmniej raz na 24 miesiące.
C. co miesiąc.
D. co 6 miesięcy.
W przypadku testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych bardzo łatwo pomylić je z innymi rodzajami kontroli jakości, które robi się częściej. Stąd biorą się odpowiedzi typu „co miesiąc” czy „co 6 miesięcy”. W codziennej praktyce faktycznie wykonuje się różne sprawdzenia – np. testy podstawowe, bieżącą ocenę jakości obrazu, testy eksploatacyjne po naprawie. To jednak nie są testy specjalistyczne w rozumieniu przepisów ochrony radiologicznej i nadzoru nad aparaturą rentgenowską. Zbyt krótki, comiesięczny lub półroczny interwał jest w tym kontekście nadinterpretacją wymagań. Można oczywiście wykonywać takie pomiary częściej z własnej inicjatywy, ale prawo mówi o minimalnej częstości testów specjalistycznych, a nie o maksymalnym dopuszczalnym odstępie pomiędzy dowolnymi kontrolami. Typowym błędem myślowym jest tu wrzucenie do jednego worka wszystkich rodzajów testów: podstawowych, specjalistycznych, odbiorczych i okresowych. Tymczasem testy specjalistyczne są bardziej rozbudowane, zwykle prowadzone przez uprawnionego fizyka medycznego lub inspektora, z użyciem profesjonalnych fantomów i przyrządów pomiarowych, i dlatego ich cykl jest dłuższy. Z kolei odpowiedź „co najmniej raz na 12 miesięcy” sugeruje intuicyjne przekonanie, że „raz w roku” to taki bezpieczny, standardowy okres dla każdej kontroli technicznej. W wielu dziedzinach faktycznie tak jest, ale w diagnostyce stomatologicznej dla aparatów wewnątrzustnych przepisy dopuszczają dłuższy, dwuletni okres między testami specjalistycznymi. Nie oznacza to oczywiście, że aparat może działać „samopas” przez dwa lata. Nadal obowiązują testy podstawowe, bieżąca obserwacja jakości zdjęć, kontrola dokumentacji dawek i reagowanie na wszelkie nieprawidłowości. Jednak formalny, pełny test specjalistyczny, z kompleksową oceną dawki, warstwy półchłonnej, geometrii wiązki i stabilności parametrów, musi być wykonany co najmniej raz na 24 miesiące. Moim zdaniem ważne jest rozróżnienie między racjonalną ostrożnością a wymogami prawnymi i organizacyjnymi. Jeśli ktoś odpowiada krótszym okresem, zwykle kieruje się chęcią „większego bezpieczeństwa”, ale nie odróżnia, które testy są wymagane jak często. Dobra praktyka to zapamiętać: testy specjalistyczne dla aparatów do zdjęć wewnątrzustnych – maksymalnie co 2 lata, a wszystko, co dzieje się częściej, to już inne kategorie kontroli jakości i nadzoru nad pracą aparatu.

Pytanie 18

Więzka promieniowania X to

A. cząstki ujemnie naładowane uginające się w polu elektromagnetycznym.
B. kwanty energii uginające się w polu elektromagnetycznym.
C. cząstki dodatnio naładowane uginające się w polu elektromagnetycznym.
D. kwanty energii nieuginające się w polu elektromagnetycznym.
Prawidłowo, promieniowanie X to wiązka fotonów, czyli kwantów energii elektromagnetycznej, a nie strumień cząstek naładowanych. Foton nie ma ładunku elektrycznego ani masy spoczynkowej, dlatego nie ugina się w polu elektrycznym ani magnetycznym w taki sposób, jak robią to elektrony czy protony. To jest kluczowa cecha, która odróżnia promieniowanie X od wiązek cząstek stosowanych np. w niektórych technikach radioterapii (protonoterapia, wiązki elektronowe). W diagnostyce obrazowej, w klasycznym RTG, TK czy mammografii zawsze pracujemy z promieniowaniem elektromagnetycznym – dokładnie takimi właśnie kwantami energii. W praktyce oznacza to, że do kształtowania wiązki promieniowania X używamy kolimatorów, filtrów i geometrii lampy rentgenowskiej, a nie cewek magnetycznych jak w akceleratorach cząstek. Z mojego doświadczenia to rozróżnienie pomaga też zrozumieć, dlaczego osłony z ołowiu są skuteczne: nie „zaginają” promieniowania, tylko je pochłaniają lub silnie osłabiają przez zjawiska fotoelektryczne i Comptona. W standardach ochrony radiologicznej i dobrej praktyce technika elektroradiologii zakłada się, że wiązka X rozchodzi się liniowo, dlatego tak ważne jest prawidłowe pozycjonowanie pacjenta, dobór odległości ognisko–detektor i stosowanie przesłon, żeby ograniczyć niepotrzebne naświetlenie tkanek sąsiednich. W tomografii komputerowej to samo zjawisko wykorzystuje się do rekonstrukcji obrazu na podstawie osłabienia fotonów w różnych kierunkach. Moim zdaniem, jak raz się zapamięta, że promieniowanie X to „światło o bardzo dużej energii”, tylko o krótszej długości fali, to od razu łatwiej ogarnąć całą fizykę radiologii i sens parametrów ekspozycji, takich jak kV i mAs.

Pytanie 19

Który radioizotop stosuje się do badania scyntygraficznego kości?

A. ²⁰¹Tl
B. ¹²³I
C. ⁹⁹ᵐTc
D. ⁶⁷Ga
W scyntygrafii kości kluczowe jest dobranie radioizotopu, który dobrze pokazuje metabolizm tkanki kostnej, a jednocześnie ma parametry fizyczne odpowiednie do pracy z gammakamerą. Typowym błędem jest kojarzenie dowolnego popularnego radioizotopu z każdym badaniem scyntygraficznym – bo „skoro to medycyna nuklearna, to pewnie wszystko jedno”. Niestety, tak to nie działa. Każdy izotop ma swoją specyfikę biologiczną i fizyczną, więc jest przypisany do konkretnych badań. Galu-67 używa się głównie do oceny procesów zapalnych i niektórych chłoniaków, dawniej był szerzej stosowany np. w diagnostyce chorób nowotworowych klatki piersiowej. Ma inny mechanizm wychwytu, nie jest znakowany z fosfonianami kości, przez co nie daje tak selektywnego obrazu metabolizmu kostnego jak znaczniki technetowe. Dlatego do rutynowej scyntygrafii kości jest po prostu niepraktyczny i niezalecany w aktualnych standardach. Tali-201 kojarzy się przede wszystkim z perfuzyjną scyntygrafią mięśnia sercowego. Ten izotop zachowuje się biologicznie podobnie do potasu i gromadzi się w żywych kardiomiocytach, pokazując ukrwienie serca. Użycie go do kości nie miałoby sensu, bo nie ma naturalnego mechanizmu selektywnego wychwytu w tkance kostnej. To jest dobry przykład, że sama „popularność” izotopu nie oznacza, że nadaje się do każdego narządu. Jod-123 to z kolei klasyka w badaniach tarczycy (scyntygrafia tarczycy, ocena wola, guzków, funkcji gruczołu), ewentualnie w niektórych badaniach receptorowych w OUN. Wykorzystuje się naturalną fizjologię jodu – jego wychwyt przez komórki pęcherzykowe tarczycy. Kość nie ma takich mechanizmów, więc jod-123 nie dałby obrazu metabolizmu kostnego. Typowy błąd myślowy przy tym pytaniu polega na tym, że zdający koncentruje się na rozpoznaniu znanych symboli (Ga, Tl, I) zamiast skojarzyć: „kości = fosfoniany = technet-99m”. W nowoczesnych pracowniach medycyny nuklearnej to właśnie 99mTc związany z odpowiednim nośnikiem fosfonianowym jest złotym standardem w scyntygrafii kości, zarówno jedno-, jak i trójfazowej. Warto więc łączyć konkretny izotop z typowym narządem lub typem badania, a nie traktować wszystkich radioizotopów jako zamiennych.

Pytanie 20

Na obrazie MR kręgosłupa lędźwiowego strzałką wskazano

Ilustracja do pytania
A. przepuklinę na poziomie L4-L5
B. osteofit na poziomie L2-L3
C. przepuklinę na poziomie L2-L3
D. osteofit na poziomie L4-L5
Na zaznaczonym obrazie MR w projekcji strzałkowej widać typowy obraz przepukliny krążka międzykręgowego na poziomie L4–L5. Strzałka pokazuje ogniskowe uwypuklenie materiału jądra miażdżystego poza granice prawidłowego zarysu krążka, w kierunku kanału kręgowego. W MR wygląda to jak ognisko o sygnale zbliżonym do krążka, ciągłe z dyskiem, które wchodzi do kanału i modeluje worek oponowy lub korzenie ogona końskiego. To właśnie odróżnia przepuklinę od osteofitu – osteofit jest zbudowany z tkanki kostnej, ma ostry, twardy zarys, wychodzi z krawędzi trzonu, a nie z obwodu krążka. Na tym zdjęciu kształt zmiany jest „miękki”, półkolisty, typowo dyskowy. Poziom L4–L5 rozpoznajemy po liczeniu trzonów od góry (L1 nad stożkiem rdzeniowym) i po położeniu względem kości krzyżowej – segment nad L5–S1. W praktyce klinicznej taka przepuklina L4–L5 bardzo często odpowiada za bóle krzyża z promieniowaniem do kończyny dolnej w przebiegu ucisku korzenia L5. Standardem jest opisanie w badaniu MR: poziomu, typu przepukliny (protruzja, ekstruzja, sekwestr), stopnia zwężenia kanału i otworów międzykręgowych. Moim zdaniem warto od razu w głowie kojarzyć obraz z objawami pacjenta, bo to potem ułatwia rozmowę z lekarzem prowadzącym i udział w planowaniu leczenia – od fizjoterapii, przez blokady, aż po ewentualny zabieg neurochirurgiczny. Dobra praktyka w diagnostyce obrazowej kręgosłupa to zawsze: poprawne zidentyfikowanie poziomu, ocena wysokości i sygnału krążków, kształtu tylnej krawędzi dysku oraz relacji do worka oponowego i korzeni nerwowych – tutaj wszystkie te elementy wskazują jednoznacznie na przepuklinę krążka na poziomie L4–L5.

Pytanie 21

Na obrazie radiologicznym nadgarstka uwidoczniono złamanie nasady

Ilustracja do pytania
A. dalszej kości promieniowej.
B. bliższej kości promieniowej.
C. bliższej kości łokciowej.
D. dalszej kości łokciowej.
Prawidłowo wskazana została dalsza nasada kości promieniowej. Na typowym zdjęciu RTG nadgarstka w projekcji AP lub PA kość promieniowa leży bocznie (od strony kciuka), a jej dalsza nasada tworzy główną powierzchnię stawową dla kości nadgarstka. W przedstawionym obrazie linia złamania przebiega właśnie w obrębie tej dalszej części kości promieniowej, tuż powyżej powierzchni stawowej, co jest klasycznym obrazem złamania nasady dalszej. W praktyce klinicznej bardzo często mamy do czynienia ze złamaniami dalszej nasady kości promieniowej typu Collesa lub Smitha – różnią się one głównie kierunkiem przemieszczenia odłamów, ale lokalizacja pozostaje ta sama: dystalna część kości promieniowej. Moim zdaniem warto od razu wyrabiać sobie nawyk orientowania się na zdjęciu: po pierwsze określamy, gdzie jest promień (strona kciuka), gdzie łokieć (strona palca małego), a dopiero potem analizujemy nasady – bliższą (od strony stawu łokciowego) i dalszą (od strony nadgarstka). W standardach opisów radiologicznych zaleca się zawsze podanie, której kości dotyczy złamanie, w jakim jej segmencie (nasada bliższa, trzon, nasada dalsza) oraz czy dochodzi do zajęcia powierzchni stawowej. W tym przypadku zmiana lokalizuje się w dalszej nasadzie kości promieniowej, w bezpośrednim sąsiedztwie powierzchni stawowej, co ma znaczenie dla dalszego leczenia – unieruchomienia, ewentualnej repozycji czy kwalifikacji do leczenia operacyjnego. W praktyce technika RTG nadgarstka wymaga prawidłowego ułożenia kończyny: dłoń płasko na detektorze, palce wyprostowane, oś trzeciego palca w przedłużeniu przedramienia. Dopiero przy takim ułożeniu anatomia jest czytelna, a identyfikacja nasady dalszej kości promieniowej – jednoznaczna. To jest taka podstawowa, ale bardzo ważna umiejętność w diagnostyce obrazowej kończyny górnej.

Pytanie 22

W badaniu PET stosuje się tylko radioizotopy emitujące

A. cząstki alfa.
B. elektrony.
C. neutrony.
D. pozytony.
W badaniu PET kluczowa jest emisja pozytonów, dlatego poprawna jest odpowiedź z radioizotopami emitującymi właśnie pozytony. Cała fizyka PET opiera się na zjawisku anihilacji pozyton–elektron. Radioizotop (np. 18F, 11C, 13N, 15O) wprowadzony do organizmu jest wbudowywany w radiofarmaceutyk, który zachowuje się jak zwykła cząsteczka metaboliczna, np. 18F-FDG zachowuje się podobnie do glukozy. Taki radionuklid rozpada się beta plus, czyli emituje pozyton. Pozyton po bardzo krótkiej drodze w tkankach (rzędu milimetrów) zderza się z elektronem, dochodzi do anihilacji i powstają dwa fotony gamma o energii 511 keV, biegnące prawie dokładnie w przeciwnych kierunkach. Detektory w gantrze PET rejestrują te dwa kwanty jednocześnie (koincydencja czasowa) i na tej podstawie wyznaczana jest linia, na której zaszła anihilacja. Oprogramowanie rekonstruuje z milionów takich zdarzeń trójwymiarowy rozkład aktywności radiofarmaceutyku w ciele pacjenta. W praktyce klinicznej ma to ogromne znaczenie np. w onkologii: PET-CT z 18F-FDG pozwala wykryć przerzuty, ocenić żywotność guza czy odpowiedź na chemioterapię. Standardy pracowni medycyny nuklearnej (np. EANM) jasno wskazują stosowanie wyłącznie radionuklidów beta plus dla klasycznego PET, bo tylko one dają charakterystyczny sygnał dwóch fotonów 511 keV. Moim zdaniem warto zapamiętać prostą regułę: PET = pozytony + anihilacja + dwa fotony 511 keV, reszta rodzajów promieniowania tutaj się po prostu nie sprawdza do obrazowania tą techniką.

Pytanie 23

Wyniosłość międzykłykciowa znajduje się na nasadzie

A. dalszej kości udowej.
B. dalszej kości ramiennej.
C. bliższej kości łokciowej.
D. bliższej kości piszczelowej.
W tym pytaniu łatwo się pomylić, bo nazwa „wyniosłość międzykłykciowa” sugeruje po prostu coś między kłykciami i część osób automatycznie kojarzy to z końcem kości udowej albo ramiennej. Merytorycznie jednak wyniosłość międzykłykciowa jest elementem nasady bliższej kości piszczelowej, a nie żadnej innej kości. Na kości udowej faktycznie mamy kłykcie – przyśrodkowy i boczny – oraz dół międzykłykciowy, ale to jest zagłębienie, a nie wyniosłość. Ten dół znajduje się na nasadzie dalszej kości udowej i stanowi miejsce przebiegu więzadeł krzyżowych, jednak sama kość udowa nie ma „wyniosłości międzykłykciowej” w takim znaczeniu anatomicznym, jak kość piszczelowa. Dlatego odpowiedź wiążąca wyniosłość z dalszą kością udową opiera się na pomieszaniu dwóch różnych struktur: dołu międzykłykciowego i wyniosłości międzykłykciowej. Podobny problem dotyczy kości ramiennej. Na jej nasadzie dalszej mamy nadkłykcie i kłykieć kości ramiennej, czyli struktury biorące udział w tworzeniu stawu łokciowego, ale nie ma tam wyniosłości międzykłykciowej. Nazewnictwo bywa mylące: nadkłykcie to coś innego niż kłykcie, a jeszcze czymś innym jest wyniosłość międzykłykciowa piszczeli. Łatwo tu iść tropem samego słowa „kłykieć” i szukać odpowiedzi w kości ramiennej, bo też tworzy staw, ale to typowy błąd polegający na kojarzeniu po nazwie, a nie po konkretnej topografii anatomicznej. Kość łokciowa również nie ma wyniosłości międzykłykciowej. Na jej nasadzie bliższej znajdują się wyrostek łokciowy, wyrostek dziobiasty i wcięcie bloczkowe, które tworzą staw z bloczkiem kości ramiennej. Tam nie występują kłykcie w sensie budowy stawowej, jak w stawie kolanowym, więc nie może być też struktury „międzykłykciowej”. Z mojego punktu widzenia najczęstszy błąd przy tym pytaniu to przenoszenie pojęć ze stawu kolanowego na inne stawy tylko dlatego, że również mają nasady bliższe i dalsze. W dobrej praktyce nauki anatomii, szczególnie pod kątem diagnostyki obrazowej, warto zawsze łączyć nazwę struktury z konkretnym stawem i kością: wyniosłość międzykłykciowa – kolano – nasada bliższa piszczeli. Dzięki temu na RTG, TK czy MR od razu wiadomo, gdzie jej szukać i jak ją oceniać.

Pytanie 24

Na obrazie radiologicznym nadgarstka strzałką zaznaczona jest kość

Ilustracja do pytania
A. haczykowata.
B. łódeczkowata.
C. grochowata.
D. księżycowata.
Na strzałkowym zdjęciu RTG nadgarstka strzałka wskazuje na kość księżycowatą – leży ona centralnie w bliższym rzędzie kości nadgarstka, pomiędzy kością łódeczkowatą od strony promieniowej a trójgraniastą od strony łokciowej. W projekcji PA (tylno‑przedniej), która jest standardem wg zaleceń radiologicznych, kość księżycowata ma kształt takiego lekko prostokątnego, nieco „kwadratowego” cienia, położonego dokładnie nad nasadą dalszą kości łokciowej i promieniowej, ale bardziej w osi środka nadgarstka. W praktyce klinicznej bardzo ważne jest rozpoznawanie kości księżycowatej, bo to właśnie z nią wiążą się typowe patologie, jak choroba Kienböcka (martwica jałowa kości księżycowatej) czy zwichnięcia i podwichnięcia w przebiegu urazów wysokiej energii. Na prawidłowo wykonanym zdjęciu RTG w projekcji PA i bocznej ocenia się ustawienie kości księżycowatej w stosunku do kości promieniowej oraz kości główkowatej – tzw. wyrównanie promieniowo‑księżycowate i księżycowo‑główkowate. W dobrych praktykach opisowych radiolog zawsze odnosi się do kształtu i gęstości tej kości, szerokości szpar stawowych oraz ewentualnych sklerotyzacji czy złamań. Moim zdaniem warto wyrobić sobie nawyk „szukania” kości księżycowatej jako punktu orientacyjnego: najpierw odnajdujemy bliższy rząd, potem centralną kość w tym rzędzie – to zwykle bardzo ułatwia systematyczną analizę nadgarstka i zmniejsza ryzyko przeoczenia subtelnych zmian pourazowych.

Pytanie 25

Do wczesnych odczynów popromiennych po radioterapii zalicza się

A. świąd skóry.
B. blizny.
C. retinopatię.
D. martwicę nerwów.
Prawidłowo wskazana świąd skóry jako wczesny odczyn popromienny bardzo dobrze pokazuje zrozumienie podstaw radiobiologii klinicznej. W radioterapii wczesne odczyny popromienne to takie, które pojawiają się w trakcie napromieniania albo w ciągu kilku tygodni po jego zakończeniu. Dotyczą one tkanek szybko dzielących się, głównie nabłonka skóry i błon śluzowych. Typowe objawy to rumień, suchość skóry, złuszczanie, uczucie pieczenia, kłucia, no i właśnie świąd. Ten świąd wynika z uszkodzenia komórek naskórka i reakcji zapalnej w skórze, a także z przesuszenia – bariera naskórkowa jest naruszona, więc skóra reaguje podrażnieniem. W praktyce, na oddziale radioterapii, pacjenci bardzo często zgłaszają swędzenie w polu napromieniania już po kilkunastu–kilkudziesięciu Gy, zwłaszcza przy napromienianiu piersi, głowy i szyi czy okolic miednicy. Standardem postępowania jest edukacja pacjenta: delikatna higiena, unikanie drażniących kosmetyków, luźna odzież, zakaz drapania skóry oraz stosowanie zaleconych emolientów czy kremów łagodzących zgodnych z procedurami ośrodka. Dobre praktyki mówią też o regularnej ocenie skóry według skal toksyczności (np. RTOG, CTCAE) i dokumentowaniu nasilenia objawów. Moim zdaniem kluczowe jest, żeby kojarzyć świąd i rumień bardziej z wczesną, odwracalną reakcją, a nie od razu z powikłaniami trwałymi. Wczesne odczyny zazwyczaj ustępują w ciągu kilku tygodni po zakończeniu leczenia, jeśli odpowiednio się o skórę dba i nie przerywa się niepotrzebnie radioterapii. To pozwala utrzymać ciągłość terapii, co ma ogromne znaczenie dla skuteczności onkologicznej.

Pytanie 26

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, rozpuszczalne w wodzie.
B. Środki na bazie siarczanu baru.
C. Jodowe, nierozpuszczalne w wodzie.
D. Środki na bazie gadolinu.
Prawidłowo wskazano środki kontrastujące na bazie gadolinu, bo to właśnie one są standardowo stosowane w diagnostyce rezonansem magnetycznym (MR). Mechanizm ich działania nie polega na pochłanianiu promieniowania, jak w RTG czy TK, tylko na zmianie właściwości magnetycznych tkanek – głównie skróceniu czasu relaksacji T1 (a częściowo też T2). Dzięki temu obszary, gdzie środek się gromadzi, świecą jaśniej na obrazach T1‑zależnych, co ułatwia wykrywanie guzów, stanów zapalnych, ognisk demielinizacji czy zaburzeń bariery krew–mózg. W praktyce klinicznej używa się preparatów gadolinowych w badaniach MR mózgu, kręgosłupa, w onkologii, naczyniach (angio-MR) czy przy planowaniu zabiegów neurochirurgicznych. Nowoczesne wytyczne podkreślają konieczność oceny czynności nerek (eGFR) przed podaniem kontrastu gadolinowego, ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia (NSF). Z mojego doświadczenia w pracowni obrazowej bardzo ważne jest też dokładne zebranie wywiadu: wcześniejsze badania z kontrastem, reakcje niepożądane, choroby przewlekłe. W odróżnieniu od jodowych środków kontrastowych stosowanych w TK, preparaty gadolinowe generalnie rzadziej dają ciężkie reakcje alergiczne, ale mimo wszystko personel musi być przygotowany na postępowanie w anafilaksji. Dobrą praktyką jest też dokumentowanie rodzaju, dawki i ewentualnych objawów po podaniu kontrastu w systemie RIS/PACS, żeby przy kolejnych badaniach mieć pełny obraz historii pacjenta.

Pytanie 27

Zdjęcie rentgenowskie nadgarstka w przywiedzeniu dołokciowym jest wykonywane w celu uwidocznienia kości

A. księżycowatej.
B. haczykowatej.
C. łódeczkowatej.
D. grochowatej.
Prawidłowa odpowiedź to kość łódeczkowata, bo właśnie dla niej klasycznie wykonuje się projekcję nadgarstka w przywiedzeniu dołokciowym (ulnar deviation). W tej pozycji pacjent zgina rękę w stronę łokcia, co powoduje „wysunięcie” kości łódeczkowatej z cienia sąsiednich struktur i jej lepsze rozciągnięcie na obrazie. Dzięki temu szczelina złamania, zwłaszcza w części bliższej i węzinie kości łódeczkowatej, staje się wyraźniejsza. W standardach radiologii urazowej nadgarstka przy podejrzeniu złamania łódeczkowatej zawsze zaleca się dodatkowe projekcje, właśnie m.in. w przywiedzeniu dołokciowym, a często też skośne. Z mojego doświadczenia to pytanie wraca non stop w praktyce, bo złamania łódeczkowatej są częste, a na zwykłym AP łatwo je przeoczyć. W badaniu RTG nadgarstka technik powinien dbać o prawidłowe ułożenie: bark w jednej płaszczyźnie z nadgarstkiem, brak rotacji przedramienia, a samo przywiedzenie dołokciowe wykonane „do bólu, ale bez przesady”, żeby pacjent wytrzymał, a kość się ładnie uwidoczniła. W praktyce klinicznej ta projekcja ma znaczenie nie tylko przy ostrym urazie, ale też przy kontroli zrostu, przy podejrzeniu jałowej martwicy czy przewlekłych dolegliwościach bólowych po upadku „na wyprostowaną rękę”. Moim zdaniem warto zapamiętać prostą zasadę: ulnar deviation = kość łódeczkowata, bo to potem automatycznie podpowiada, jakie projekcje zlecić lub wykonać, kiedy lekarz pisze w skierowaniu „podejrzenie złamania scaphoid”.

Pytanie 28

Jak określa się rekonstrukcję obrazów TK, której wynikiem są obrazy dwuwymiarowe tworzone w dowolnej płaszczyźnie przez wtórną obróbkę zestawionych ze sobą wielu przekrojów poprzecznych?

A. Maksymalnej intensywności MIP.
B. Cieniowanych powierzchni SSD.
C. Odwzorowania objętości VTR.
D. Wielopłaszczyznowa MPR.
Prawidłowo wskazałeś wielopłaszczyznową rekonstrukcję MPR (Multiplanar Reconstruction). W tomografii komputerowej to właśnie MPR oznacza tworzenie dwuwymiarowych obrazów w dowolnej płaszczyźnie (czołowej, strzałkowej, skośnej) na podstawie zestawu cienkich przekrojów poprzecznych (aksjalnych). Dane są najpierw zebrane objętościowo jako tzw. stos warstw, a potem komputer „przelicza” je na nową płaszczyznę – to jest klasyczna wtórna obróbka danych, bez ponownego naświetlania pacjenta. W praktyce klinicznej MPR to absolutny standard np. przy ocenie kręgosłupa, zatok, stawów czy naczyń. Radiolog bardzo często zaczyna od obrazów aksjalnych, a potem natychmiast przechodzi do rekonstrukcji strzałkowych i czołowych, żeby lepiej prześledzić przebieg kanału kręgowego, złamania czy zmian guzowatych. Moim zdaniem w codziennej pracy technika TK dobra znajomość MPR jest tak samo ważna jak umiejętne dobranie parametrów skanowania – bo to właśnie od jakości i poprawnego ustawienia rekonstrukcji zależy, czy lekarz zobaczy wszystkie istotne szczegóły. Dobra praktyka jest taka, żeby zawsze pilnować: odpowiedniej grubości rekonstrukcji, brak artefaktów schodkowych oraz właściwą orientację opisów (L/P, przód/tył), bo łatwo o pomyłkę. Warto też pamiętać, że MPR jest bazą do bardziej zaawansowanych technik, jak rekonstrukcje krzywoliniowe (np. wzdłuż przebiegu naczynia) czy rekonstrukcje 3D, ale sama w sobie pozostaje metodą dwuwymiarową – tyle że w dowolnie wybranej płaszczyźnie.

Pytanie 29

Cholangiografia to badanie radiologiczne

A. pęcherzyka żółciowego.
B. dróg żółciowych.
C. pęcherza moczowego.
D. dróg moczowych.
Cholangiografia to radiologiczne badanie dróg żółciowych, czyli przede wszystkim przewodów żółciowych wewnątrz- i zewnątrzwątrobowych oraz przewodu żółciowego wspólnego. Kluczowe jest tu słowo „cholangio-”, które w terminologii medycznej odnosi się właśnie do dróg żółciowych. W praktyce badanie polega na podaniu środka cieniującego (kontrastu) do światła dróg żółciowych i wykonaniu serii zdjęć RTG lub obrazów fluoroskopowych. Dzięki temu przewody, które normalnie są na zdjęciu prawie niewidoczne, stają się wyraźnie zarysowane. Umożliwia to ocenę ich przebiegu, średnicy, obecności zwężeń, poszerzeń, kamieni czy przecieków żółci. W codziennej pracy najczęściej spotyka się cholangiografię śródoperacyjną (IOC) podczas cholecystektomii laparoskopowej, a także ECPW/ERCP, czyli endoskopową cholangiopankreatografię wsteczną, gdzie kontrast podaje się przez brodawkę Vatera pod kontrolą endoskopu. Moim zdaniem warto skojarzyć, że cholangiografia to zawsze obrazowanie dróg żółciowych z użyciem kontrastu i promieniowania rentgenowskiego, a nie np. USG. Z punktu widzenia dobrych praktyk radiologicznych ważne jest prawidłowe przygotowanie pacjenta, kontrola ryzyka alergii na jodowy środek kontrastowy, aseptyczna technika podania oraz ścisła współpraca z zespołem zabiegowym (chirurg, endoskopista). Wynik cholangiografii ma duże znaczenie przy kwalifikacji do zabiegów, np. usuwania złogów z przewodu żółciowego wspólnego, poszerzania zwężeń czy zakładania stentów. To badanie jest też standardem w diagnostyce powikłań pooperacyjnych, takich jak uszkodzenie dróg żółciowych czy przeciek żółci do jamy brzusznej.

Pytanie 30

Które zdjęcie RTG stawu łokciowego zostało wykonane w projekcji skośnej w rotacji zewnętrznej?

A. Zdjęcie 1.
Ilustracja do odpowiedzi A
B. Zdjęcie 2.
Ilustracja do odpowiedzi B
C. Zdjęcie 3.
Ilustracja do odpowiedzi C
D. Zdjęcie 4.
Ilustracja do odpowiedzi D
Prawidłowo – zdjęcie 1 przedstawia projekcję skośną stawu łokciowego w rotacji zewnętrznej. W tej projekcji ramię i przedramię są zazwyczaj w lekkim wyproście, a kończynę obraca się na zewnątrz (rotacja zewnętrzna) o ok. 35–45°. Efekt na obrazie jest taki, że kłykcie kości ramiennej nie nakładają się osiowo jak w projekcji AP, tylko widoczna jest wyraźna separacja struktur po stronie promieniowej. Głowa kości promieniowej i wcięcie promieniowe kości łokciowej są lepiej uwidocznione, a przestrzeń stawowa między głową kości promieniowej a bloczkiem i główką kości ramiennej jest bardziej czytelna. Moim zdaniem to właśnie ten charakterystyczny układ promieniowej strony stawu pomaga najszybciej rozpoznać tę projekcję. W praktyce klinicznej projekcja skośna w rotacji zewnętrznej jest bardzo przydatna przy podejrzeniu złamań głowy kości promieniowej, szyjki promieniowej, uszkodzeń wyrostka dziobiastego czy drobnych złamań awulsyjnych po stronie bocznej. W standardach wykonywania RTG stawu łokciowego (np. wg typowych protokołów radiologicznych) obok projekcji AP i bocznej zaleca się właśnie dodatkowe skośne projekcje, żeby uniknąć nakładania się struktur i nie przeoczyć subtelnych linii złamania. Warto pamiętać, że poprawne pozycjonowanie – stabilne ułożenie pacjenta, właściwa rotacja i kontrola osi kończyny – ma bezpośredni wpływ na jakość diagnostyczną takiego zdjęcia. Dobrą praktyką jest zawsze ocena, czy obraz odpowiada spodziewanemu wyglądowi anatomicznemu dla danej projekcji, zanim opisze się badanie.

Pytanie 31

Na obrazie rentgenowskim strzałką zaznaczono

Ilustracja do pytania
A. rozwarstwienie aorty brzusznej.
B. rozwarstwienie aorty piersiowej.
C. tętnik aorty brzusznej.
D. tętnik aorty piersiowej.
Na przedstawionym obrazie kontrastowej angiografii widoczny jest odcinek aorty przebiegający w jamie brzusznej, czyli aorta brzuszna – i to właśnie ją zaznaczono strzałką. Świadczy o tym kilka elementów: położenie struktur mniej więcej na wysokości trzonów kręgów lędźwiowych, przebieg naczynia w linii pośrodkowej ciała oraz obecność rozdętego workowatego poszerzenia typowego dla tętniaka aorty brzusznej poniżej odejścia tętnic trzewnych. W badaniach obrazowych, zwłaszcza przy klasycznej angiografii czy angio-TK, kluczowe jest zawsze odniesienie się do orientacji anatomicznej: od przepony w dół mówimy o aorcie brzusznej, a powyżej – o piersiowej. W praktyce technika radiologiczna powinna zwracać uwagę na prawidłowe wypełnienie światła naczynia kontrastem, odpowiedni czas ekspozycji i projekcję (najczęściej AP), tak aby wyraźnie uwidocznić aortę i ewentualne patologie, jak tętniaki czy zwężenia. Moim zdaniem warto wyrobić sobie nawyk „czytania” obrazu od góry do dołu: najpierw łuk aorty, potem zstępująca piersiowa, przejście przez rozwór aortowy przepony i dalej aorta brzuszna aż do jej rozdwojenia na tętnice biodrowe wspólne. W codziennej pracy technika i lekarza radiologa poprawne rozpoznanie odcinka aorty ma ogromne znaczenie, bo od tego zależy np. kwalifikacja do zabiegu endowaskularnego (EVAR), dobór długości stent-graftu czy planowanie zakresu skanowania w angio-TK. Dobre praktyki mówią też, żeby zawsze oceniać nie tylko sam tętniak, ale cały przebieg aorty brzusznej – od tętnic nerkowych aż do rozwidlenia – bo zmiany często są wielopoziomowe.

Pytanie 32

Na obrazie rezonansu magnetycznego głowy strzałką wskazano zatokę

Ilustracja do pytania
A. czołową.
B. strzałkową.
C. klinową.
D. szczękową.
Prawidłowo rozpoznałeś zatokę czołową. Na strzałkowym (sagittalnym) obrazie MR głowy zatoka czołowa leży najbardziej do przodu, nad nasadą nosa, w obrębie kości czołowej. W badaniu T1-zależnym, takim jak na tym obrazku, jej światło jest zwykle ciemne (hipointensywne), bo wypełnia je powietrze, a ściany zatoki mają sygnał zbliżony do kości i tkanek miękkich. Charakterystyczne jest to, że zatoka czołowa „siedzi” nad oczodołami i ma kształt mniej więcej trójkątny lub nieregularny, z przegrodą pośrodku. Moim zdaniem znajomość topografii zatok przynosowych na MR jest bardzo praktyczna, bo w codziennej pracy technika czy lekarza opisującego badania łatwo wychwycić np. zapalenie zatok, torbiel śluzową, poziom płynu albo masę guzowatą. W typowym opisie zgodnie z dobrymi praktykami (np. wytyczne neuroradiologiczne ESNR) zawsze warto krótko odnieść się do zatok przynosowych, nawet jeśli badanie było zlecane z innego powodu, bo zmiany zapalne są częste i nierzadko przypadkowo wykrywane. Na MR zatoka czołowa będzie leżeć powyżej jamy nosowej i zatok szczękowych, przed przednim dołem czaszki. W projekcjach czołowych i osiowych dobrze widać, że jest ona parzysta, ale bywa asymetryczna – to jest normalny wariant anatomiczny. W praktyce klinicznej lokalizacja tej zatoki ma znaczenie np. przy planowaniu zabiegów endoskopowych laryngologicznych, dostępu chirurgicznego do przedniego dołu czaszki czy ocenie pourazowych złamań kości czołowej. Na MR, w porównaniu z TK, lepiej oceniamy tkanki miękkie wokół zatoki i ewentualne szerzenie się procesu zapalnego lub nowotworowego wewnątrzczaszkowo. Dlatego taka, wydawałoby się prosta identyfikacja na obrazie, jest fundamentem dalszej, bardziej zaawansowanej diagnostyki obrazowej.

Pytanie 33

Parametrem krwi, który powinien zostać oznaczony u pacjenta przed wykonaniem badania MR z kontrastem jest

A. kreatynina.
B. fibrynogen.
C. hemoglobina.
D. bilirubina
Prawidłowo wskazana kreatynina to dokładnie ten parametr, który w praktyce klinicznej sprawdza się rutynowo przed podaniem kontrastu do badania MR (a w zasadzie przed większością badań z kontrastem, także TK). Chodzi o ocenę wydolności nerek, bo kontrasty paramagnetyczne na bazie gadolinu są wydalane głównie przez nerki. Jeżeli funkcja nerek jest upośledzona, rośnie ryzyko powikłań, takich jak nefrogenne układowe zwłóknienie (NSF) czy po prostu kumulacja środka kontrastowego w organizmie. Dlatego oznaczenie kreatyniny pozwala obliczyć eGFR (szacunkowy współczynnik przesączania kłębuszkowego) i na tej podstawie zdecydować, czy kontrast można bezpiecznie podać, czy trzeba zmienić dawkę, typ kontrastu, albo nawet zrezygnować z podania. W standardach pracowni diagnostyki obrazowej przyjmuje się, że świeży wynik kreatyniny/eGFR (zwykle nie starszy niż 1–3 miesiące, a przy chorych wysokiego ryzyka jeszcze krótszy) jest wymagany przed badaniem MR z kontrastem, zwłaszcza u pacjentów z cukrzycą, nadciśnieniem, przewlekłą chorobą nerek, w podeszłym wieku czy po dużych zabiegach chirurgicznych. W większości protokołów, gdy eGFR spada poniżej określonego progu (np. <30 ml/min/1,73 m²), rozważa się rezygnację z gadolinu lub zastosowanie środka o najniższym ryzyku, ewentualnie konsultację nefrologiczną. W praktyce technika czy technika elektroradiologii często współuczestniczy w weryfikacji, czy pacjent ma aktualny wynik kreatyniny i czy nie ma przeciwwskazań do kontrastu. Moim zdaniem właśnie takie myślenie „przed” badaniem – sprawdzenie parametrów nerkowych, leków, wywiadu – odróżnia bezpieczną, profesjonalną pracownię od tej, gdzie robi się badania trochę z automatu. Bilirubina, fibrynogen czy hemoglobina mogą być istotne w innych sytuacjach klinicznych, ale nie są podstawowym, rutynowym kryterium kwalifikacji do gadolinowego kontrastu MR – tu króluje kreatynina i wynik eGFR.

Pytanie 34

Przedstawiony obraz radiologiczny został zarejestrowany podczas badania jelita

Ilustracja do pytania
A. grubego po doodbytniczym podaniu środka kontrastującego.
B. cienkiego po doustnym podaniu środka kontrastującego.
C. grubego po doustnym podaniu środka kontrastującego.
D. cienkiego po doodbytniczym podaniu środka kontrastującego.
Na obrazie widać klasyczną wlewkę doodbytniczą jelita grubego (tzw. badanie kontrastowe jelita grubego z barytem). Środek cieniujący został podany od strony odbytnicy, dlatego kontrast bardzo dokładnie wypełnia światło okrężnicy, odwzorowując jej zarys, haustracje i przebieg. Jelito grube ma charakterystyczny obraz: szerokie światło, wyraźne haustry układające się w takie jakby segmenty, brak typowych dla jelita cienkiego fałdów okrężnych przechodzących przez całe światło. Na zdjęciu widoczny jest zarys okrężnicy wstępującej, poprzecznej, zstępującej i esicy, co jednoznacznie przemawia za jelitem grubym. Po doodbytniczym podaniu kontrastu uzyskujemy tzw. badanie wlewu kontrastowego, które w standardowej praktyce radiologicznej stosuje się głównie do oceny zmian strukturalnych jelita grubego: zwężeń, uchyłków, guzów, nieprawidłowego poszerzenia, zaburzeń zarysów fałdów śluzówki. W technikach zgodnych z dobrymi praktykami (np. zalecenia towarzystw radiologicznych) pacjent jest odpowiednio przygotowany – oczyszczenie jelita, często dieta płynna dzień wcześniej – tak żeby kontrast równomiernie wypełniał światło i nie było artefaktów z zalegających mas kałowych. Moim zdaniem to jedno z badań, na których bardzo dobrze widać różnicę między jelitem cienkim a grubym, co przydaje się potem przy interpretacji tomografii czy badań z podwójnym kontrastem. Warto zapamiętać: jelito grube + baryt podany od dołu = wlew doodbytniczy, taki jak na tym zdjęciu.

Pytanie 35

W standardowym badaniu elektrokardiograficznym elektrodę C4 należy umieścić

A. w IV międzyżebrzu przy lewym brzegu mostka.
B. w IV międzyżebrzu przy prawym brzegu mostka.
C. w V międzyżebrzu w linii przedniej pachowej.
D. w V międzyżebrzu w linii środkowo-obojczykowej lewej.
Prawidłowe umiejscowienie elektrody C4 (czyli przedsercowej elektrody V4) to V międzyżebrze w linii środkowo-obojczykowej lewej. Jest to standardowy, książkowy punkt przyłożenia w 12‑odprowadzeniowym EKG, zgodny z zaleceniami towarzystw kardiologicznych (np. ESC, AHA). V4 leży mniej więcej nad koniuszkiem serca, dlatego jej prawidłowa lokalizacja ma duże znaczenie przy ocenie odprowadzeń przedsercowych, zwłaszcza w diagnostyce zawału ściany przedniej i przednio‑bocznej. W praktyce klinicznej zawsze najpierw lokalizuje się prawidłowo IV międzyżebrze przy prawym brzegu mostka (miejsce dla V1), potem V2, a dopiero na tej podstawie wyznacza się V4 w V międzyżebrzu w linii środkowo‑obojczykowej lewej. Dopiero później dokłada się V3 pomiędzy V2 i V4 oraz V5 i V6 bardziej bocznie. Dzięki temu unika się typowego błędu „na oko”, który potrafi przesunąć elektrodę o całe jedno międzyżebrze. Z mojego doświadczenia, jeśli V4 jest za wysoko (np. w IV międzyżebrzu), zapis może sugerować fałszywe zmiany odcinka ST albo załamanek T, co wprowadza lekarza w błąd diagnostyczny. W ratownictwie medycznym i pracowniach diagnostycznych przyjmuje się zasadę: lepiej poświęcić 20–30 sekund na dokładne znalezienie linii środkowo‑obojczykowej i policzenie żeber, niż później mieć wątpliwy zapis. Warto też pamiętać, że u osób otyłych lub kobiet z dużym biustem lokalizacja bywa trudniejsza – wtedy jeszcze ważniejsze jest trzymanie się anatomicznych punktów orientacyjnych, a nie tylko wizualnego „przyzwyczajenia”. Poprawne ułożenie V4/C4 to fundament wiarygodnego badania EKG.

Pytanie 36

W standardowym badaniu elektrokardiologicznym elektrodę C4 należy umocować

A. w IV międzyżebrzu przy lewym brzegu mostka.
B. w połowie odległości między punktem C2 i C4.
C. w IV międzyżebrzu przy prawym brzegu mostka.
D. w V międzyżebrzu w linii środkowo-obojczykowej lewej.
Prawidłowe umiejscowienie elektrody C4 w standardowym 12‑odprowadzeniowym EKG to V4, czyli V międzyżebrze w linii środkowo‑obojczykowej lewej. To jest klasyczny, opisany w wytycznych punkt: najpierw lokalizujemy lewe V międzyżebrze, potem wyznaczamy linię środkowo‑obojczykową (mniej więcej przez środek obojczyka) i tam przyklejamy elektrodę przedsercową V4. Ten punkt jest kluczowy, bo odprowadzenie V4 bardzo dobrze „patrzy” na ścianę przednio‑przegrodową i koniuszek lewej komory. W zawale przednim, zwłaszcza w okolicy koniuszka, zmiany w V4 są często jednymi z pierwszych i najbardziej wyraźnych. Moim zdaniem to jedno z najważniejszych odprowadzeń w praktyce ratunkowej i kardiologicznej. W standardzie rozmieszczenia elektrod przedsercowych przyjmuje się kolejność: V1 – IV międzyżebrze przy prawym brzegu mostka, V2 – IV międzyżebrze przy lewym brzegu mostka, V4 – V międzyżebrze linia środkowo‑obojczykowa lewa, dopiero potem V3 pomiędzy V2 i V4, a V5 i V6 bocznie w linii pachowej przedniej i środkowej. Właśnie dlatego w pytaniu mowa o C4 (oznaczenie stosowane często zamiennie z V4 w niektórych aparatach i opisach). Trzymanie się tych lokalizacji nie jest „fanaberią”, tylko elementem standaryzacji. Jeżeli przesuniemy elektrodę nawet o jedno międzyżebrze w górę czy w dół, możemy sztucznie zmienić amplitudę zespołów QRS, wygląd odcinka ST czy załamków T. W praktyce może to prowadzić np. do fałszywego podejrzenia przerostu komór, zawału lub odwrotnie – do przeoczenia zmian niedokrwiennych. Z mojego doświadczenia wynika, że dobrze wyrobiony nawyk liczenia żeber i świadomego szukania V międzyżebrza bardzo ułatwia szybkie, poprawne zakładanie elektrod, nawet u osób z otyłością czy u kobiet z dużymi piersiami (gdzie czasem trzeba minimalnie „obejść” tkankę, ale zachowując poziom V międzyżebrza i linię środkowo‑obojczykową). To wszystko składa się na dobrą praktykę techniczną w diagnostyce elektromedycznej.

Pytanie 37

HRCT (high-resolution computed tomography) jest metodą obrazowania TK

A. niskiej rozdzielczości.
B. przeciętnej rozdzielczości.
C. wysokiej rozdzielczości.
D. średniej rozdzielczości.
HRCT to skrót od angielskiego „high-resolution computed tomography”, czyli tomografia komputerowa wysokiej rozdzielczości. Sama nazwa już mówi, jaka jest poprawna odpowiedź: jest to metoda TK zaprojektowana właśnie po to, żeby uzyskać jak najwyższą rozdzielczość przestrzenną obrazu, szczególnie w obrębie miąższu płuc. W praktyce oznacza to, że na obrazach HRCT bardzo dobrze widać drobne struktury anatomiczne, jak przegrody międzyzrazikowe, małe oskrzeliki, drobne zmiany śródmiąższowe. Stosuje się cienkie warstwy (zwykle 0,5–1,5 mm), wysokoczęstotliwościowe filtry rekonstrukcyjne (tzw. filtr „kostny” lub „wysokiej rozdzielczości”) i odpowiednio dobrane parametry ekspozycji. Moim zdaniem warto kojarzyć, że HRCT to nie jest inny typ aparatu, tylko specyficzny protokół badania i rekonstrukcji danych w standardowym tomografie. W zaleceniach towarzystw radiologicznych (np. Fleischner Society, ERS/ESTS) HRCT jest metodą z wyboru w diagnostyce chorób śródmiąższowych płuc, rozedmy, rozstrzeni oskrzeli, oceny zmian po COVID‑19 czy pylic. W codziennej pracy technika elektroradiologii bardzo ważne jest prawidłowe dobranie grubości warstwy, kolimacji, sposobu oddychania pacjenta (zwykle wdech, niekiedy też wydech), a także unikanie zbędnych serii, żeby niepotrzebnie nie zwiększać dawki. Standardem jest rekonstrukcja obrazów w płaszczyznach MPR (np. czołowej i strzałkowej), co jeszcze bardziej wykorzystuje wysoką rozdzielczość danych. Dobrą praktyką jest też dokładne opisanie w protokole badania, że wykonano HRCT klatki piersiowej, bo to od razu kieruje lekarza opisującego na właściwą interpretację obrazu, z uwzględnieniem bardzo drobnych zmian strukturalnych.

Pytanie 38

Jaki czas należy ustawić do wykonania zdjęcia rentgenowskiego dwójki górnej lewej?

Tabela ekspozycji
wartościczasu (s)napięcia (kV)natężenia (mA)
zęby przedtrzonowe i kły0,160608
siekacze0,120608
zęby trzonowe0,200608
ekspozycja zgryzowo-skrzydełkowa0,180666
A. 0,160 s
B. 0,120 s
C. 0,180 s
D. 0,200 s
Poprawnie wybrałeś czas 0,120 s, bo dwójka górna lewa (siekacz boczny szczęki) należy do grupy zębów „siekacze” i dokładnie ta grupa ma w tabeli ekspozycji przypisany czas 0,120 s przy napięciu 60 kV i natężeniu 8 mA. Czyli klucz do zadania to nie tyle numer zęba, co umiejętność prawidłowego przyporządkowania go do odpowiedniej grupy anatomiczno-funkcjonalnej w tabeli: siekacze, kły i przedtrzonowce, trzonowce, ekspozycje zgryzowo‑skrzydełkowe. Dwójka górna jest siekaczem, więc korzystamy z wiersza „siekacze”. Moim zdaniem w praktyce bardzo ważne jest, żebyś nie ustawiać czasu „na oko”, tylko zawsze odnosił się do tabeli ekspozycji producenta aparatu lub do procedur wewnętrznych pracowni. Dzięki temu dawka promieniowania jest możliwie mała, a obraz ma wystarczającą gęstość optyczną i kontrast, żeby lekarz mógł coś sensownego ocenić. Zbyt długi czas ekspozycji to prześwietlenie zdjęcia, utrata detali, a przy okazji niepotrzebne zwiększenie dawki pacjenta. Zbyt krótki – niedoświetlenie, szum, brak czytelności struktur okołowierzchołkowych, co w stomatologii jest bardzo krytyczne. W dobrych praktykach stomatologicznych przyjęte jest, że dla siekaczy ustawia się zwykle krótszy czas niż dla zębów trzonowych, bo tkanki w tym rejonie są cieńsze, a masa kostna mniejsza. To dokładnie widać w tabeli: 0,120 s dla siekaczy vs 0,200 s dla trzonowców. W pracy z aparatem RTG warto też pamiętać, że tabelę traktujemy jako punkt wyjścia – u osób o bardzo masywnej budowie, przy dużej ilości tkanek miękkich, czas można minimalnie korygować, ale zawsze świadomie i w granicach protokołu. Z mojego doświadczenia, im lepiej ktoś rozumie powiązanie: rodzaj zęba → grubość tkanek → parametry ekspozycji, tym szybciej i pewniej pracuje przy aparacie RTG i rzadziej musi powtarzać zdjęcia, co jest kluczowe z punktu widzenia ochrony radiologicznej.

Pytanie 39

Podczas badania EEG otwarcie oczu powoduje

A. zjawisko habituacji.
B. zaniknięcie rytmu alfa.
C. spontaniczną hiperwentylację.
D. reakcję paradoksalną.
Prawidłowo – podczas badania EEG otwarcie oczu powoduje zanik, czyli blokowanie rytmu alfa w okolicach potylicznych. U zdrowej, zrelaksowanej osoby, leżącej spokojnie z zamkniętymi oczami, dominuje właśnie rytm alfa: fale o częstotliwości około 8–13 Hz, najlepiej widoczne w odprowadzeniach potylicznych (O1, O2). Jest to taki „fizjologiczny podpis” stanu czuwania w spoczynku z zamkniętymi oczami. W momencie, kiedy badany otwiera oczy, do kory wzrokowej dociera strumień bodźców wzrokowych i aktywność bioelektryczna ulega desynchronizacji – zamiast ładnego, regularnego rytmu alfa pojawia się bardziej niskonapięciowa, szybka czynność beta lub mieszanina różnych częstotliwości. Ten efekt nazywa się blokowaniem albo wygaszeniem rytmu alfa (ang. alpha blocking). Dla technika EEG to jest bardzo praktyczna sprawa: reakcja na otwarcie oczu jest jednym z podstawowych testów jakości zapisu i stanu pacjenta. Jeśli rytm alfa się nie pojawia przy zamkniętych oczach albo nie znika po ich otwarciu, to od razu zapala się lampka ostrzegawcza – można podejrzewać np. uszkodzenie kory potylicznej, głębokie zaburzenia świadomości, działanie leków, czasem artefakty. W standardach wykonywania EEG (np. zalecenia IFCN, krajowe wytyczne pracowni EEG) zawsze podkreśla się konieczność rejestrowania fragmentów z oczami zamkniętymi i otwartymi oraz dokładnego opisywania reaktywności rytmu alfa. W praktyce klinicznej ocena tego zjawiska pomaga różnicować stany śpiączki, encefalopatie metaboliczne czy efekty działania leków sedacyjnych. Z mojego doświadczenia warto sobie to dobrze zapamiętać: oczy zamknięte – alfa się pojawia, oczy otwarte – alfa znika. To jest jeden z najbardziej klasycznych i powtarzalnych elementów zapisu EEG, który bardzo często pojawia się też na egzaminach i w zadaniach testowych.

Pytanie 40

Ile razy i jak zmieni się wartość natężenia promieniowania X przy zwiększeniu odległości OF ze 100 cm do 200 cm?

A. Czterokrotnie się zwiększy.
B. Dwukrotnie się zwiększy.
C. Dwukrotnie się zmniejszy.
D. Czterokrotnie się zmniejszy.
Poprawna odpowiedź wynika bezpośrednio z tzw. prawa odwrotności kwadratu odległości. W diagnostyce rentgenowskiej przyjmuje się, że natężenie promieniowania X (a w praktyce: ilość fotonów docierających na jednostkę powierzchni, czyli ekspozycja) jest odwrotnie proporcjonalne do kwadratu odległości od ogniska lampy rentgenowskiej. Matematycznie zapisuje się to jako I ~ 1/d². Jeśli zwiększamy odległość ognisko–film/detektor (OF) z 100 cm do 200 cm, to odległość rośnie dwukrotnie, ale natężenie nie spada „tylko” dwa razy, tylko cztery razy, bo 2² = 4. Czyli promieniowanie na detektorze będzie czterokrotnie mniejsze. Moim zdaniem to jedno z kluczowych praw, które trzeba mieć w małym palcu w pracowni RTG. W praktyce oznacza to, że jeżeli z jakiegoś powodu musisz zwiększyć OF z 100 do 200 cm (np. przy zdjęciach klatki piersiowej wykonywanych w większej odległości, żeby zmniejszyć powiększenie serca i zniekształcenia geometryczne), to żeby utrzymać podobną gęstość optyczną obrazu, trzeba odpowiednio zwiększyć ładunek mAs mniej więcej czterokrotnie. Standardowe zalecenia w radiografii mówią wprost: podwojenie odległości wymaga około czterokrotnego zwiększenia mAs dla utrzymania ekspozycji. Jednocześnie, z punktu widzenia ochrony radiologicznej, zwiększenie odległości jest korzystne dla personelu – im dalej od źródła, tym mniejsze narażenie, dokładnie na tej samej zasadzie. Właśnie dlatego w dobrych praktykach BHP w radiologii podkreśla się zasadę „distance, shielding, time” – odległość jest jednym z podstawowych środków ochrony. Warto też pamiętać, że zmiana OF wpływa nie tylko na dawkę, ale i na parametry geometryczne obrazu (ostrość, powiększenie), więc technik zawsze musi łączyć fizykę promieniowania z wymaganiami jakości obrazu i zasadami ochrony pacjenta.