Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 11 kwietnia 2026 10:52
  • Data zakończenia: 11 kwietnia 2026 10:59

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Badanie przewodu pokarmowego metodą podwójnego kontrastu wiąże się z podaniem pacjentowi

A. podwójnej ilości Magnevistu.
B. podwójnej ilości barytu.
C. barytu i powietrza.
D. barytu i Magnevistu.
Prawidłowa odpowiedź odnosi się do klasycznej techniki tzw. podwójnego kontrastu w badaniach przewodu pokarmowego, głównie żołądka, dwunastnicy i jelita grubego. W tej metodzie zawsze chodzi o połączenie środka cieniującego na bazie barytu z gazem, najczęściej powietrzem lub dwutlenkiem węgla. Baryt (siarczan baru) działa jako kontrast dodatni – silnie pochłania promieniowanie rentgenowskie i na zdjęciu wychodzi jako struktura biała, wyraźnie odcinająca się od tła. Powietrze natomiast to kontrast ujemny – nie pochłania promieniowania, więc daje obraz ciemny, wypełnia światło przewodu pokarmowego i „rozdmuchuje” ściany. Dzięki temu kombinacja barytu i powietrza pozwala bardzo ładnie uwidocznić fałdy błony śluzowej, drobne nadżerki, polipy, guzki czy nieregularności obrysu. W praktyce radiologicznej, zgodnie z typowymi procedurami, podaje się najpierw baryt, a następnie pacjent połyka tabletki musujące albo otrzymuje powietrze przez zgłębnik, żeby uzyskać równomierne rozdęcie. Moim zdaniem to jedna z bardziej „wdzięcznych” technik, bo dobrze wykonane badanie podwójnym kontrastem daje bardzo szczegółowy obraz i jest świetne diagnostycznie, zwłaszcza tam, gdzie endoskopia jest ograniczona albo pacjent jej nie toleruje. Warto pamiętać, że w odróżnieniu od badań z kontrastem jodowym czy paramagnetycznym, baryt w RTG przewodu pokarmowego nie wchłania się z przewodu i działa czysto miejscowo. Standardy opisów radiologicznych przy tej technice zakładają ocenę zarysu ściany, fałdów, perystaltyki oraz obecności ubytków cienia lub sztywności ściany, co w dużej mierze jest możliwe właśnie dzięki temu, że mamy jednocześnie biały kontrast barytowy i ciemne tło powietrzne.

Pytanie 2

W badaniu PETCT radioizotop ulega

A. rozpadowi γ, emitując foton promieniowania.
B. rozpadowi β -, emitując elektron.
C. rozpadowi γ, emitując pozyton.
D. rozpadowi β +, emitując pozyton.
W pytaniu o PET/CT dość łatwo się pomylić, bo wszystkie odpowiedzi kręcą się wokół promieniowania jonizującego i na pierwszy rzut oka brzmią nawet podobnie. Kluczowy błąd polega zwykle na tym, że myli się różne typy promieniowania: β+, β− i γ. W badaniach PET fundamentem jest emisja pozytonu, czyli rozpadu β+, a nie zwykłe promieniowanie γ ani emisja elektronu. Radioizotopy stosowane w PET, takie jak 18F, 11C, 13N czy 15O, ulegają rozpadowi β+, co oznacza, że w jądrze powstaje pozyton. Ten dodatnio naładowany elektron po bardzo krótkim torze w tkankach anihiluje z elektronem, a efektem są dwa fotony γ o energii 511 keV, lecące prawie w przeciwnych kierunkach. Dopiero te fotony rejestruje detektor PET w koincydencji. To jest bardzo charakterystyczny mechanizm i różni się zasadniczo od tego, co dzieje się np. w klasycznej scyntygrafii. Rozpad β−, z emisją elektronu, jest typowy dla wielu radioizotopów używanych bardziej w terapii (np. 90Y, 131I w aspekcie terapeutycznym) albo w innych zastosowaniach, ale nie stanowi podstawy działania aparatu PET. Elektron emitowany w rozpadzie β− nie daje takiego uporządkowanego, koincydencyjnego sygnału jak para fotonów po anihilacji, więc nie da się na nim zbudować precyzyjnego systemu obrazowania podobnego do PET. To jest częsty błąd myślowy: skoro to też promieniowanie β, to może być użyte tak samo – niestety fizyka tu jest dość bezlitosna. Kolejna pułapka to utożsamianie promieniowania γ z PET wprost. Owszem, w PET rejestrujemy fotony γ, ale one nie pochodzą z prostego „rozpadu γ radioizotopu”, tylko właśnie z anihilacji pozyton–elektron po wcześniejszym rozpadzie β+. Odpowiedzi sugerujące sam rozpad γ pomijają ten kluczowy etap z pozytonem. Rozpad γ jako taki polega na przejściu jądra z pobudzonego stanu do niższego bez zmiany liczby protonów i neutronów, co jest typowe np. dla niektórych znaczników w scyntygrafii (jak 99mTc), ale to już inna technika obrazowa i inny sprzęt (gammakamera, SPECT). Z mojego punktu widzenia warto zapamiętać logiczny schemat: PET = emiter pozytonów (β+) → anihilacja → dwa fotony 511 keV → detekcja koincydencyjna. Jeśli w opisie brakuje pozytonu lub pojawia się elektron β− albo „gołe” promieniowanie γ bez anihilacji, to nie mówimy już o klasycznym mechanizmie PET. Taka świadomość pomaga potem lepiej rozumieć dobór radiofarmaceutyków, zasady bezpieczeństwa oraz różnice między PET, SPECT i innymi metodami medycyny nuklearnej.

Pytanie 3

W radiografii mianem SID określa się

A. system automatycznej kontroli ekspozycji.
B. system automatycznej regulacji jasności.
C. odległość między źródłem promieniowania a detektorem obrazu.
D. odległość między obiektem badanym a detektorem obrazu.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 4

Zamieszczony elektrokardiogram przedstawia

Ilustracja do pytania
A. zawał mięśnia sercowego.
B. częstoskurcz komorowy.
C. migotanie przedsionków.
D. blok lewej odnogi pęczka Hisa.
Na tym zapisie EKG widać klasyczny obraz migotania przedsionków. Zwróć uwagę, że w odprowadzeniu V1 brak jest wyraźnych, regularnych załamków P – zamiast tego pojawia się drobne, nieregularne „pofalowanie” linii izoelektrycznej, tzw. fala f. To właśnie typowy obraz chaotycznej, bardzo szybkiej aktywności przedsionków. Jednocześnie odstępy RR są nieregularne – komory pobudzane są w sposób całkowicie niemiarowy. Ten brak jakiejkolwiek powtarzalności rytmu komór to klucz do rozpoznania migotania przedsionków w praktyce. Moim zdaniem, jeśli ktoś nauczy się patrzeć jednocześnie na nieregularność RR i brak załamków P, to rozpoznawanie AF na dyżurze robi się dużo prostsze. W dobrych praktykach interpretacji EKG (tak jak uczą na kursach ACLS/ALS) zawsze zaczyna się od oceny rytmu: czy jest miarowy, czy są P przed każdym QRS, jaki jest odstęp PQ. Tutaj ten schemat szybko prowadzi do wniosku, że rytm jest niemiarowy, P nie ma, więc trzeba myśleć właśnie o migotaniu przedsionków. W warunkach klinicznych takie EKG ma ogromne znaczenie: pacjent z AF ma zwiększone ryzyko udaru mózgu, więc trzeba rozważyć antykoagulację (np. według skali CHA₂DS₂-VASc), a także kontrolę częstości komór (beta-blokery, werapamil, digoksyna) albo próbę przywrócenia rytmu zatokowego (kardiowersja, leki antyarytmiczne). Warto też pamiętać, że AF może być napadowe – wtedy zapis może być różny w czasie – ale zasada oceny EKG pozostaje identyczna. W technice wykonywania badania istotne jest, żeby zapis był czytelny, bez artefaktów i przy standardowej prędkości 25 mm/s i amplitudzie 10 mm/mV, bo tylko wtedy można wiarygodnie ocenić drobne fale przedsionkowe i nieregularność rytmu.

Pytanie 5

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
Prawidłowo – wysoka rozdzielczość przestrzenna w MR zależy głównie od wielkości piksela, a ten wynika z relacji: rozmiar piksela = FoV / matryca obrazująca (osobno w kierunku X i Y). Jeśli zmniejszamy FoV i jednocześnie zwiększamy matrycę, to dzielimy mniejszy obszar na większą liczbę elementów, więc każdy piksel reprezentuje mniejszy fragment ciała. To właśnie daje lepszą zdolność do rozróżniania drobnych struktur, czyli wyższą rozdzielczość przestrzenną. W praktyce technik MR, planując badanie, bardzo często świadomie zmniejsza FoV dla małych struktur, np. nadgarstka, kolana, przysadki mózgowej czy drobnych zmian w kręgosłupie, i ustawia możliwie dużą matrycę (np. 320×320, 512×512), oczywiście w granicach czasu badania i dostępnego SNR. Standardy pracy w pracowniach rezonansu, zalecane przez producentów skanerów i towarzystwa radiologiczne, mówią wprost: jeśli chcesz poprawić szczegółowość obrazu, manipuluj FoV i rozdzielczością matrycy, pamiętając o kompromisie z SNR i czasem akwizycji. Moim zdaniem to jedno z kluczowych ustawień, które odróżnia „byle jakie” badanie od naprawdę diagnostycznego. Warto też pamiętać, że przy bardzo małym FoV trzeba uważać na aliasing (zawijanie obrazu), dlatego często stosuje się techniki antyaliasingowe lub oversampling. Zwiększenie matrycy zwykle wydłuża czas sekwencji, więc w praktyce szuka się złotego środka: tak dobra rozdzielczość, żeby lekarz widział szczegóły, ale jednocześnie akceptowalny czas badania i poziom szumów. Dobrą praktyką jest też różnicowanie parametrów: inne FoV i matryca dla sekwencji przeglądowych, a inne – bardziej „wyżyłowane” – dla sekwencji celowanych na konkretną zmianę.

Pytanie 6

W systemie międzynarodowym ząb pierwszy przedtrzonowy po stronie lewej oznacza się symbolem

A. 84
B. 54
C. 14
D. 24
Poprawna odpowiedź to 24, bo w tzw. systemie międzynarodowym (światowa numeracja FDI – Fédération Dentaire Internationale) ząb pierwszy przedtrzonowy w szczęce po stronie lewej oznacza się właśnie symbolem 24. Ten system opiera się na dwóch cyfrach: pierwsza cyfra oznacza ćwiartkę łuku zębowego, druga – konkretny ząb w tej ćwiartce, liczony od linii pośrodkowej. Dla zębów stałych: 1 – szczęka prawa, 2 – szczęka lewa, 3 – żuchwa lewa, 4 – żuchwa prawa. Pierwszy przedtrzonowiec w szczęce jest zawsze „4” w numeracji wewnątrz ćwiartki. Czyli po stronie lewej szczęki: 2 (ćwiartka) + 4 (pierwszy przedtrzonowiec) = 24. Moim zdaniem ten system jest dużo wygodniejszy niż stare symbole graficzne, bo łatwo go zapisać w dokumentacji, w systemach PACS, w opisach RTG i w komunikacji między lekarzami. W praktyce, kiedy opisujesz zdjęcie pantomograficzne albo skrzydłowo-zgryzowe, lekarz prowadzący oczekuje, że wskażesz ząb właśnie taką numeracją FDI. Przykład: próchnica na powierzchni stycznej zęba 24, planowane leczenie endodontyczne 24, podejrzenie zmian okołowierzchołkowych przy wierzchołku korzenia 24. W diagnostyce obrazowej i w opisach radiologicznych poprawne użycie symbolu 24 jest standardem – minimalizuje pomyłki, szczególnie gdy badania są archiwizowane w systemach informatycznych i oglądane przez różnych specjalistów. Dobrą praktyką jest też zawsze sprawdzać stronę lewą/prawą na obrazie RTG (znacznik L/R), a dopiero potem przypisywać numer zęba, żeby nie odwrócić łuków zębowych w głowie.

Pytanie 7

Na obrazie rezonansu magnetycznego strzałką oznaczono patologiczny kręg

Ilustracja do pytania
A. L3
B. TH10
C. L1
D. TH8
Na obrazie widoczny jest rezonans magnetyczny odcinka piersiowo‑lędźwiowego kręgosłupa w projekcji strzałkowej. Strzałka wskazuje na pierwszy kręg lędźwiowy – L1. Identyfikacja poziomu opiera się na kilku prostych, ale ważnych zasadach. Najpierw lokalizujemy przejście piersiowo‑lędźwiowe: ostatni kręg z wyraźnie zaznaczonymi żebrami to TH12, a tuż poniżej zaczyna się odcinek lędźwiowy. Pierwszy kręg bez przyczepionych żeber, położony zaraz pod TH12, to właśnie L1. Na typowych sekwencjach MR w płaszczyźnie strzałkowej dobrze widać różnicę w kształcie trzonów oraz zmianę krzywizny – przejście z kifozy piersiowej w lordozę lędźwiową. L1 leży dokładnie w tym „punkcie przełamania”. Moim zdaniem w praktyce technika obrazowania warto sobie to zawsze „odhaczyć”: liczymy od góry (od TH12) w dół i świadomie zaznaczamy poziom L1, bo od tego zależy poprawne opisanie patologii – np. złamania kompresyjnego, naczyniaka trzonu, przerzutu czy zmian zapalnych. W standardach opisu badań MR kręgosłupa (zarówno w radiologii, jak i w ortopedii) podkreśla się konieczność jednoznacznej identyfikacji poziomu, żeby chirurg, neurolog czy rehabilitant wiedzieli dokładnie, na którym segmencie pracują. W codziennej pracy w pracowni MR przydaje się też porównanie z przeglądowym RTG lub sekwencją lokalizacyjną, ale sama znajomość anatomii w obrazowaniu – tak jak tutaj przy rozpoznaniu L1 – to absolutna podstawa i dobra praktyka zawodowa.

Pytanie 8

W jakiej pozycji układa się pacjenta do standardowego badania MR kręgosłupa szyjnego?

A. Na brzuchu, nogami do magnesu.
B. Na brzuchu, głową do magnesu.
C. Na plecach, nogami do magnesu.
D. Na plecach, głową do magnesu.
Prawidłowa pozycja do standardowego badania MR kręgosłupa szyjnego to ułożenie pacjenta na plecach (pozycja na wznak), głową wsuwaną jako pierwszą do otworu magnesu. Wynika to z kilku praktycznych i technicznych powodów. Po pierwsze, w typowym skanerze nadgłowowym (tzw. closed bore) najlepsza jednorodność pola magnetycznego i czułość cewek odbiorczych jest właśnie w centralnej części magnesu, gdzie umieszcza się głowę i odcinek szyjny. Dzięki temu uzyskujemy wysoką rozdzielczość przestrzenną i dobrą jakość obrazów T1-, T2-zależnych, STIR czy sekwencji gradientowych, co ma kluczowe znaczenie przy ocenie rdzenia kręgowego, krążków międzykręgowych, otworów międzykręgowych i kanału kręgowego. Po drugie, pozycja na plecach jest po prostu najlepiej tolerowana przez większość pacjentów – łatwiej jest utrzymać bezruch przez kilkanaście minut, co redukuje artefakty ruchowe. Standardowo zakłada się specjalną cewkę do badań głowy i szyi (head & neck coil lub dedykowaną cewkę szyjną), która konstrukcyjnie jest przewidziana właśnie do ułożenia na plecach, z głową w centralnej części magnesu. Z mojego doświadczenia technicy obrazowania bardzo pilnują, żeby głowa była ułożona symetrycznie, z lekkim odgięciem brody do góry, tak aby oś kręgosłupa szyjnego była możliwie prosta i powtarzalna między badaniami. W dobrych pracowniach MR zawsze dba się też o stabilizację – podkładki pod barki, klin pod kolana, gąbkowe stabilizatory po bokach głowy – wszystko po to, żeby pacjent się nie poruszał. W niektórych szczególnych sytuacjach (np. skrajna klaustrofobia, ciężkie urazy) można rozważyć inne ustawienia, ale w rutynowej praktyce diagnostycznej pozycja na plecach, głową do magnesu to złoty standard i tak też opisują to procedury wewnętrzne pracowni i rekomendacje producentów aparatów MR.

Pytanie 9

Koronarografia jest radiologicznym zabiegiem diagnostycznym pozwalającym ocenić drożność

A. tętnic wieńcowych.
B. żył obwodowych.
C. tętnic obwodowych.
D. żył wieńcowych.
Prawidłowo – koronarografia służy do oceny drożności tętnic wieńcowych, czyli naczyń doprowadzających krew do mięśnia sercowego. W trakcie badania lekarz wprowadza cewnik do układu tętniczego (najczęściej przez tętnicę promieniową w nadgarstku albo udową w pachwinie) i pod kontrolą fluoroskopii kieruje go do ujść tętnic wieńcowych w aorcie. Następnie podaje środek cieniujący (kontrast jodowy), który wypełnia tętnice wieńcowe i pozwala zobaczyć ich światło na monitorze RTG w czasie rzeczywistym. Dzięki temu można dokładnie ocenić zwężenia, zamknięcia, nieregularności ściany naczynia, obecność blaszek miażdżycowych. W praktyce klinicznej koronarografia jest złotym standardem w diagnostyce choroby wieńcowej, szczególnie przy ostrych zespołach wieńcowych, niestabilnej dławicy piersiowej czy w kwalifikacji do angioplastyki wieńcowej (PCI) albo pomostowania aortalno-wieńcowego (by-passy). Co ważne, badanie ma charakter inwazyjny, ale od razu w trakcie tego samego zabiegu można wykonać leczenie – np. poszerzenie zwężonego miejsca balonikiem i wszczepienie stentu. Z mojego doświadczenia, w technice ważne jest dobre przygotowanie pacjenta (nawodnienie, ocena funkcji nerek, alergii na kontrast) oraz ścisłe przestrzeganie zasad ochrony radiologicznej, bo używa się promieniowania jonizującego i kontrastu jodowego. W pracowni hemodynamicznej standardem jest też archiwizacja obrazów w systemie PACS i dokładna dokumentacja wszystkich projekcji, żeby kardiolog mógł później porównać wyniki z kolejnymi badaniami.

Pytanie 10

Na scyntygramie tarczycy został uwidoczniony guzek

Ilustracja do pytania
A. zimny w płacie prawym.
B. gorący w płacie prawym.
C. gorący w płacie lewym.
D. zimny w płacie lewym.
Prawidłowo wskazany został guzek gorący w płacie prawym. Na scyntygramie tarczycy obszar „gorący” to miejsce, gdzie znacznik radioizotopowy (najczęściej technet-99m lub jod-123) gromadzi się intensywniej niż w otaczającym miąższu. W obrazie widzimy to jako ognisko o wyraźnie wyższym wychwycie – bardziej „jasne” lub o intensywniejszej barwie w skali kolorowej. Guzek gorący zwykle oznacza zmianę autonomiczną, czyli fragment tarczycy, który produkuje hormony niezależnie od kontroli przysadki. W praktyce przy prawidłowo wykonanym badaniu taki guzek bardzo często odpowiada tzw. autonomicznemu gruczolakowi toksycznemu, który może być przyczyną nadczynności tarczycy. Moim zdaniem najważniejsza w interpretacji jest orientacja obrazu: standardowo projekcja AP tarczycy jest prezentowana tak, że prawa strona pacjenta znajduje się po lewej stronie obrazu (czyli jak w typowym RTG klatki piersiowej). Technicy i lekarze medycyny nuklearnej muszą o tym pamiętać, bo pomylenie stron prowadzi do błędnego opisu płata. W dobrych pracowniach zawsze zaznacza się kierunek projekcji (np. AP) oraz stosuje się znaczniki orientacyjne albo opis słowny w protokole badania. Guzek gorący w prawym płacie ma też konkretne konsekwencje kliniczne. Taki pacjent będzie kwalifikowany raczej do leczenia jodem promieniotwórczym lub do zabiegu chirurgicznego, a nie do biopsji cienkoigłowej w pierwszym rzucie, bo ryzyko nowotworu w guzku gorącym jest niewielkie. W codziennej pracy technika elektroradiologii ważne jest poprawne ułożenie pacjenta (pozycja leżąca lub siedząca, szyja lekko odgięta), prawidłowe skalibrowanie gammakamery i dobranie czasu akwizycji, żeby różnice wychwytu między miąższem a guzkiem były wyraźne i nieprzekłamane przez szumy. Z mojego doświadczenia, im lepiej opanuje się zasady orientacji anatomicznej w projekcjach medycyny nuklearnej, tym mniej jest później pomyłek przy opisie takich ognisk jak ten guzek w prawym płacie.

Pytanie 11

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 4 ÷ 25 MeV
B. 1 ÷ 3 MeV
C. 0,1 ÷ 0,3 MeV
D. 100 ÷ 150 MeV
Prawidłowo: w medycznym przyspieszaczu liniowym (linaku) do radioterapii terapeutyczna wiązka fotonów ma typowo energię w zakresie około 4–25 MeV. To jest standardowy zakres dla nowoczesnych akceleratorów używanych w teleradioterapii. Niższe energie nie dawałyby odpowiedniej penetracji tkanek głębiej położonych, a wyższe byłyby trudniejsze do bezpiecznego zastosowania klinicznego i ochrony radiologicznej. W praktyce klinicznej najczęściej używa się wiązek 6 MV, 10 MV, czasem 15 MV, a w niektórych ośrodkach także 18–20 MV. Ten zapis „MV” w dokumentacji aparatu oznacza właśnie przybliżoną energię fotonów rzędu kilku–kilkunastu MeV. Moim zdaniem warto zapamiętać, że wszystko co jest w okolicach kilku–kilkudziesięciu MeV, to już typowa radioterapia, a nie diagnostyka. Takie energie pozwalają na tzw. efekt oszczędzania skóry – dawka maksymalna przesuwa się na pewną głębokość pod powierzchnią, co jest korzystne przy leczeniu nowotworów położonych głębiej. Dzięki temu można napromieniać guz w miednicy, śródpiersiu czy w obrębie głowy i szyi, jednocześnie w miarę chroniąc skórę i tkanki zdrowe. W planowaniu leczenia w systemach TPS zawsze wybiera się właśnie jedną z dostępnych energii fotonów linaka (np. 6 MV lub 15 MV) w zależności od głębokości guza, budowy pacjenta i techniki (IMRT, VMAT, 3D-CRT). Z mojego doświadczenia z opisów kart technicznych: zakres 4–25 MeV to taki „branżowy standard” dla teleterapii fotonowej, który dobrze równoważy skuteczność kliniczną, możliwości techniczne przyspieszacza i wymagania ochrony radiologicznej.

Pytanie 12

Technikę bramkowania oddechowego stosuje się w badaniu MR

A. klatki piersiowej.
B. kręgosłupa L-S.
C. gruczołu piersi.
D. miednicy małej.
Prawidłowo – technika bramkowania oddechowego w badaniu MR jest typowo kojarzona właśnie z badaniami klatki piersiowej i struktur, które silnie poruszają się w rytmie oddechu. Chodzi o to, że w rezonansie magnetycznym obrazy powstają przez kilka–kilkanaście, a czasem i kilkadziesiąt sekund zbierania danych. W tym czasie pacjent oddycha, przepona się przemieszcza, serce i płuca cały czas są w ruchu. Jeśli nic z tym nie zrobimy, na obrazach pojawiają się artefakty ruchowe: rozmycie krawędzi, podwójne kontury, „poszarpane” granice narządów, utrata szczegółów. Bramkowanie oddechowe (respiratory gating) polega na synchronizacji zbierania danych MR z fazą cyklu oddechowego. Najczęściej wykorzystuje się sygnał z paska oddechowego (belt) na klatce piersiowej albo sygnał z samego obrazu (tzw. navigatory) i aparat „wie”, kiedy pacjent jest w określonej fazie oddechu, np. w spokojnym wydechu. Dane są akwizycjonowane tylko wtedy, a w pozostałych fazach oddechu system czeka. Dzięki temu uzyskujemy ostre, powtarzalne ujęcia serca, dużych naczyń, miąższu płucnego czy struktur śródpiersia. W praktyce klinicznej stosuje się to np. w kardiologii (MR serca, ocena czynności skurczowej, perfuzja, blizny pozawałowe), w onkologii (dokładne obrazowanie guzów śródpiersia, zmian przyprzeponowych) czy przy planowaniu zabiegów kardiochirurgicznych. W dobrych pracowniach pilnuje się, żeby u pacjentów z niestabilnym oddechem (np. duszność, POChP) dobrać takie sekwencje i parametry bramkowania, które minimalizują czas badania, bo inaczej wydłużenie skanu może być dla chorego męczące. Moim zdaniem warto zapamiętać prostą zasadę: im bliżej przepony i płuc, tym częściej rozważamy bramkowanie oddechowe, bo tam ruch oddechowy najbardziej psuje jakość obrazu.

Pytanie 13

Audiogram przedstawia próbę

Ilustracja do pytania
A. SISI.
B. Fowlera.
C. Lüschera-Zwisłockiego.
D. Langenbecka.
Prawidłowo – ten charakterystyczny wykres to audiogram z próby Fowlera, czyli tzw. testu wyrównywania głośności (loudness balance test). Próba Fowlera służy głównie do oceny rekrutacji słuchu, czyli nienormalnie szybkiego narastania wrażenia głośności w uchu z uszkodzeniem ślimaka. W praktyce klinicznej wykonuje się ją u pacjentów z jedno- lub obustronnym niedosłuchem odbiorczym, szczególnie gdy podejrzewamy uszkodzenie ślimakowe. Na audiogramie, takim jak na rysunku, widzimy kilka krzywych dla różnych poziomów natężenia i częstotliwości, a ich zbieganie się lub szybkie wyrównywanie głośności między uchem chorym i zdrowym wskazuje właśnie na rekrutację. Moim zdaniem warto zapamiętać, że w próbie Fowlera zawsze porównujemy odczucie głośności między dwoma uszami – jedno jest referencyjne, drugie badane. Technik audiologiczny powinien dbać o stabilne warunki akustyczne, dobre wytłumienie kabiny oraz dokładną kalibrację audiometru, bo nawet niewielkie błędy poziomu dB wpływają na interpretację rekrutacji. W dobrych praktykach zaleca się wcześniejsze wykonanie klasycznej audiometrii tonalnej, żeby znać progi słyszenia w obu uszach i na tej podstawie ustawić poziomy wyjściowe do testu Fowlera. Taki test pomaga potem odróżnić uszkodzenie ślimakowe od pozaślimakowego, co ma znaczenie np. przy kwalifikacji do aparatowania czy dalszej diagnostyki otologicznej. W skrócie: jeśli audiogram pokazuje wyrównywanie głośności przy niewielkim zwiększeniu natężenia w uchu chorym, to typowy obraz rekrutacji w próbie Fowlera.

Pytanie 14

Kto jest odpowiedzialny za wykonywanie testów podstawowych kontroli jakości gammakamery w Zakładzie Medycyny Nuklearnej?

A. Technik elektroradiolog z inżynierem medycznym.
B. Lekarz radiolog z inspektorem ochrony radiologicznej.
C. Lekarz radiolog z technikiem elektroradiologiem.
D. Technik elektroradiolog z inspektorem ochrony radiologicznej.
Prawidłowo wskazano, że za wykonywanie testów podstawowych kontroli jakości gammakamery odpowiada duet: technik elektroradiolog oraz inżynier medyczny (często jest to również fizyk medyczny, ale organizacyjnie zwykle podchodzi to pod inżynierię medyczną). Wynika to z podziału kompetencji w Zakładzie Medycyny Nuklearnej i z obowiązujących wytycznych dotyczących zapewnienia jakości w diagnostyce izotopowej. Technik elektroradiolog zna procedury kliniczne, obsługę gammakamery, zasady przygotowania pacjenta i wykonywania badań scyntygraficznych. To on w praktyce uruchamia aparat, wykonuje codzienne testy podstawowe, np. jednorodności pola, sprawdzenie energii fotopiku, prostoliniowości, rozdzielczości przestrzennej przy użyciu odpowiednich fantomów. Inżynier medyczny odpowiada natomiast za stronę techniczną i fizyczną systemu: konfigurację detektorów, parametry pracy kolimatorów, oprogramowanie rekonstrukcyjne, serwisowanie aparatu, analizę wyników testów i ich dokumentację. W dobrych zakładach, z mojego doświadczenia, inżynier bardzo pilnuje trendów wyników testów, bo pozwala to wychwycić wczesne pogorszenie parametrów pracy gammakamery, zanim pacjentowe obrazy zaczną być zauważalnie gorsze. Standardy jakości, zarówno krajowe jak i międzynarodowe (np. zalecenia IAEA czy wytyczne EANM), podkreślają, że kontrola jakości w medycynie nuklearnej musi być prowadzona systematycznie, według ustalonych protokołów, z podziałem zadań pomiędzy personel medyczny i techniczny. To nie jest tylko formalność – poprawnie wykonywane testy podstawowe zmniejszają ryzyko błędnej diagnozy, niepotrzebnych powtórek badań, a także ograniczają narażenie pacjentów na zbędną dawkę promieniowania, bo badania są wykonywane prawidłowo już za pierwszym razem. W praktyce oznacza to, że technik i inżynier działają razem: technik robi pomiary, inżynier je ocenia, interpretuje i w razie potrzeby inicjuje serwis lub korektę parametrów urządzenia.

Pytanie 15

W lampie rentgenowskiej promieniowanie X powstaje w wyniku hamowania

A. elektronów na anodzie.
B. elektronów na katodzie.
C. protonów na katodzie.
D. protonów na anodzie.
Poprawnie – w lampie rentgenowskiej promieniowanie X powstaje głównie w wyniku gwałtownego hamowania szybkich elektronów na anodzie. W typowej lampie mamy katodę (żarnik), która emituje elektrony przez emisję termojonową. Następnie między katodą a anodą przykładane jest wysokie napięcie, zwykle kilkadziesiąt do nawet ponad 100 kV. To napięcie bardzo mocno przyspiesza elektrony w próżni w kierunku anody. Kiedy te rozpędzone elektrony uderzają w materiał anody (najczęściej wolfram, rzadziej molibden lub inne stopy), są gwałtownie hamowane w polu elektrycznym jąder atomowych anody. I właśnie to hamowanie powoduje emisję promieniowania hamowania, tzw. bremsstrahlung, które stanowi podstawową część widma promieniowania rentgenowskiego. Dodatkowo dochodzi jeszcze promieniowanie charakterystyczne, gdy elektron wybija elektron z wewnętrznej powłoki atomu wolframu, ale ono też powstaje w materiale anody, a nie na katodzie. W praktyce technik obrazowania musi rozumieć, że zmiana napięcia na lampie (kV) wpływa na energię elektronów i tym samym na energię i przenikliwość promieniowania X, a zmiana natężenia prądu (mA) wpływa głównie na ilość elektronów, czyli na ilość promieniowania. Z mojego doświadczenia opłaca się to dobrze ogarnąć, bo potem łatwiej rozumie się zależności między ustawieniami aparatu a jakością obrazu i dawką dla pacjenta. W nowoczesnych aparatach RTG cała konstrukcja lampy, chłodzenie anody (np. anoda obrotowa) i dobór materiałów są oparte właśnie na tym zjawisku hamowania elektronów w anodzie, żeby uzyskać dużo stabilnego promieniowania przy jednoczesnym bezpiecznym odprowadzeniu ciepła.

Pytanie 16

Wskaż przyczynę powstania artefaktu widocznego na obrazie MR.

Ilustracja do pytania
A. Wymiary obiektu przekroczyły pole widzenia.
B. Błędny dobór cewki gradientowej.
C. Niejednorodność pola magnetycznego.
D. Nieprawidłowa kalibracja aparatu.
Prawidłowo powiązałeś artefakt z przekroczeniem pola widzenia (FOV) przez obrazowany obiekt. Na pokazanym obrazie MR mózgowia widać typowy przykład tzw. wrap-around albo aliasingu: struktury anatomiczne, które „nie mieszczą się” w zadanym polu widzenia, są składane z powrotem na przeciwległą krawędź obrazu. Dzieje się tak, bo system MR próbuje przypisać sygnał z obszaru poza FOV do najbliższej pozycji wynikającej z zakresu próbkowania w przestrzeni k‑przestrzeni. W praktyce wygląda to tak, że np. część tkanek z przodu lub z tyłu głowy pojawia się jakby „nad” mózgiem albo w innym nielogicznym miejscu przekroju. Z mojego doświadczenia, przy głowie ten artefakt widzi się dość często, gdy technik ustawi zbyt małe FOV w kierunku fazowym, bo chce poprawić rozdzielczość albo skrócić czas badania. Standardową dobrą praktyką jest tak dobrać FOV i kierunek kodowania fazy, żeby całe ciało pacjenta w danym przekroju znajdowało się wewnątrz pola widzenia, albo zastosować techniki antyaliasingowe (np. oversampling w kierunku fazowym, no phase wrap, sat bandy). W opisach MR radiolodzy zwracają uwagę, czy artefakt aliasingu nie maskuje istotnych struktur, zwłaszcza w okolicy czaszki, kręgosłupa szyjnego i kończyn. W codziennej pracy technika jest to też kwestia komfortu – jak FOV jest za małe, badanie często trzeba powtarzać, co wydłuża czas i irytuje pacjenta. Dlatego warto odruchowo sprawdzać, czy głowa, brzuch czy inny badany obszar naprawdę mieści się w polu widzenia w obu kierunkach kodowania.

Pytanie 17

Na przekroju poprzecznym TK mózgu strzałką wskazano obszar

Ilustracja do pytania
A. hypodensyjny w płacie czołowym.
B. hyperdensyjny w móżdżku.
C. hyperdensyjny w płacie czołowym.
D. hypodensyjny w móżdżku.
Na przedstawionym przekroju poprzecznym TK głowy widoczny jest obraz w projekcji osiowej na poziomie tylnego dołu czaszki. Strzałka wyraźnie wskazuje strukturę położoną w obrębie móżdżku, poniżej półkul mózgowych i powyżej otworu wielkiego. Z mojego doświadczenia w opisywaniu takich badań najczęstszy błąd to pomylenie tego poziomu z płatami potylicznymi, ale tutaj widać typowy układ półkul móżdżku i robaka móżdżku. Zaznaczony obszar jest jaśniejszy niż prawidłowa tkanka móżdżku, czyli ma większą gęstość w jednostkach Hounsfielda – mówimy więc, że jest hyperdensyjny. W TK bez kontrastu taka hyperdensyjna zmiana w móżdżku najczęściej sugeruje świeży krwotok śródmózgowy lub krwotok do guza. W praktyce klinicznej rozpoznanie hyperdensyjnego ogniska w móżdżku ma duże znaczenie, bo krwotok w tej lokalizacji może szybko dawać wzrost ciśnienia śródczaszkowego i ucisk pnia mózgu. Standardowo, zgodnie z dobrymi praktykami radiologicznymi, opisując taki obraz, zwraca się uwagę na lokalizację (półkula móżdżku, robak), gęstość zmiany, obecność obrzęku, przemieszczenie struktur pośrodkowych i ewentualne poszerzenie układu komorowego. Warto też pamiętać, że hyperdensyjny obszar w TK może wynikać nie tylko z krwi, ale też z zwapnień, materiału kontrastowego lub ciała obcego, dlatego zawsze ocenia się kontekst kliniczny i porównuje z innymi warstwami oraz z wcześniejszymi badaniami. Moim zdaniem to pytanie dobrze uczy podstawowego odruchu: najpierw lokalizacja anatomiczna (tu móżdżek), dopiero potem charakter densyjny (hyper- czy hypodensyjny).

Pytanie 18

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Środki na bazie gadolinu.
B. Środki na bazie siarczanu baru.
C. Jodowe, nierozpuszczalne w wodzie.
D. Jodowe, rozpuszczalne w wodzie.
Prawidłowo – w diagnostyce rezonansem magnetycznym standardowo wykorzystuje się paramagnetyczne środki kontrastujące na bazie gadolinu. To są związki chelatowe gadolinu (np. gadobutrol, gadopentetat, gadoterat), które skracają czasy relaksacji T1 protonów wody, przez co badane struktury po podaniu kontrastu stają się jaśniejsze na obrazach T1-zależnych. Dzięki temu można lepiej uwidocznić zmiany zapalne, nowotworowe, naczyniowe czy zaburzenia bariery krew–mózg. W praktyce klinicznej gadolin stosuje się np. w badaniach MR mózgu przy podejrzeniu guza, stwardnienia rozsianego, przerzutów, w angio-MR (MRA) tętnic szyjnych czy tętnic kończyn dolnych, a także w badaniach serca i wątroby. Co ważne, środki gadolinowe są z założenia wodnorozpuszczalne i podawane dożylnie w dawkach mierzonych w mmol/kg, zgodnie z zaleceniami producenta i wytycznymi towarzystw radiologicznych. W odróżnieniu od kontrastów jodowych używanych w TK, gadolin nie opiera się na pochłanianiu promieniowania jonizującego, tylko na modyfikowaniu właściwości magnetycznych tkanek, co jest spójne z fizyką MRI. W dobrych praktykach zawsze zwraca się uwagę na ocenę czynności nerek przed podaniem gadolinu (szczególnie eGFR), ponieważ u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego włóknienia, chociaż przy nowocześniejszych, makrocyklicznych preparatach jest ono bardzo małe. Moim zdaniem warto też pamiętać, że w MRI nie stosuje się klasycznych kontrastów barytowych ani typowych jodowych kontrastów do przewodu pokarmowego – to częste pytanie na egzaminach i w praktyce bywa mylone przez osoby przyzwyczajone do RTG i TK.

Pytanie 19

Który system informatyczny służy do archiwizacji i transmisji obrazów radiologicznych?

A. HL7
B. RIS
C. IHE
D. PACS
PACS (Picture Archiving and Communication System) to właśnie ten system, który w praktyce „spina” całą diagnostykę obrazową od strony informatycznej. Jego główne zadanie to archiwizacja, przeglądanie i transmisja obrazów radiologicznych: RTG, TK, MR, USG, mammografia, a także inne badania, które generują obrazy w standardzie DICOM. W dobrze zorganizowanej pracowni radiologicznej każdy aparat (np. tomograf, aparat RTG, rezonans) wysyła obrazy do serwera PACS, gdzie są one bezpiecznie przechowywane, opisywane i udostępniane lekarzom na oddziałach, w poradniach, a czasem nawet zdalnie (teleradiologia). Moim zdaniem kluczowe w PACS jest to, że pozwala on na pracę w pełni cyfrową: radiolog może powiększać obraz, zmieniać okna (window/level), porównywać badania z wcześniejszych lat, tworzyć rekonstrukcje, a wszystko bez szukania klisz po szafach. To ogromna oszczędność czasu i mniejsze ryzyko zagubienia dokumentacji. Z punktu widzenia dobrych praktyk, nowoczesny PACS jest zintegrowany z RIS oraz systemem szpitalnym HIS, dzięki czemu dane pacjenta, zlecenia badań i opisy są spójne i nie trzeba ich przepisywać kilka razy. Standardowo komunikacja obrazów odbywa się przez DICOM, a dane tekstowe (np. informacje o pacjencie, status badania) często przez HL7. W praktyce technik radiologii powinien wiedzieć, jak sprawdzić, czy badanie poprawnie wysłało się do PACS, jak odszukać wcześniejsze badania danego pacjenta oraz jak zgłosić problemy z transmisją obrazów do działu IT. Bez sprawnego PACS-u pracownia działa, szczerze mówiąc, jak w poprzedniej epoce – na płytach, pendrive’ach i papierowych opisach, a to jest kompletnie nieefektywne i niezgodne z obecnymi standardami pracy w diagnostyce obrazowej.

Pytanie 20

Teleterapia polega na napromienowaniu

A. promieniowaniem ze źródła umieszczonego w obrębie guza nowotworowego.
B. promieniowaniem fotonowym lub cząsteczkowym ze źródeł zewnętrznych.
C. wyłącznie promieniowaniem fotonowym ze źródeł zewnętrznych.
D. promieniowaniem ze źródła umieszczonego pod skórą pacjenta.
Prawidłowo, w teleterapii zawsze mówimy o napromienianiu promieniowaniem fotonowym lub cząsteczkowym, ale pochodzącym ze źródeł zewnętrznych, czyli znajdujących się poza ciałem pacjenta. To jest kluczowa cecha odróżniająca teleterapię od brachyterapii. W praktyce klinicznej stosuje się głównie wysokoenergetyczne promieniowanie fotonowe (np. z akceleratora liniowego – linac), ale też wiązki elektronów, a w wyspecjalizowanych ośrodkach wiązki protonów czy jonów ciężkich. Wszystkie te wiązki są formą promieniowania wykorzystywanego w teleterapii, pod warunkiem że są generowane przez aparat stojący w pewnej odległości od pacjenta. Moim zdaniem warto zapamiętać prostą zasadę: w teleterapii źródło promieniowania jest na zewnątrz, a wiązka musi „przejść” przez zdrowe tkanki, żeby dotrzeć do guza. Stąd tak duży nacisk na planowanie 3D, IMRT, VMAT, IGRT i ogólnie na precyzyjne kształtowanie wiązki oraz kontrolę dawki. Standardy radioterapii (np. zalecenia ESTRO czy krajowe wytyczne onkologiczne) podkreślają, że w teleterapii dobiera się rodzaj promieniowania (fotonowe vs cząsteczkowe), energię, kierunki wiązek i marginesy bezpieczeństwa tak, aby uzyskać maksymalną dawkę w objętości tarczowej (PTV), a jednocześnie jak najbardziej oszczędzić narządy krytyczne (OAR). W codziennej pracy technik radioterapii ma do czynienia właśnie z teleterapią: ustawianie pacjenta na stole akceleratora, weryfikacja ułożenia obrazowaniem portalowym lub CBCT, kontrola parametrów wiązki, sprawdzanie zgodności z planem leczenia. Teleterapia jest podstawą leczenia wielu nowotworów, np. raka piersi, płuca, prostaty, jamy ustnej, a także stosowana paliatywnie do zmniejszenia bólu przy przerzutach do kości. Dobrze, że kojarzysz ją z promieniowaniem fotonowym i cząsteczkowym ze źródeł zewnętrznych, bo to fundament dalszej nauki radioterapii.

Pytanie 21

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 20 mSv
B. 8 mSv
C. 6 mSv
D. 15 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 22

Na radiogramie stawu barkowego strzałką wskazano

Ilustracja do pytania
A. wyrostek kruczy łopatki.
B. wyrostek barkowy łopatki.
C. guzek mniejszy kości ramiennej.
D. guzek większy kości ramiennej.
Na zdjęciu RTG barku strzałka wskazuje wyrostek barkowy łopatki (acromion), czyli bocznie położoną część łopatki, która wysuwa się nad głowę kości ramiennej i współtworzy staw barkowo‑obojczykowy (AC). Na standardowej projekcji AP barku acromion widoczny jest jako gęsta, łukowata struktura kostna przebiegająca poziomo nad panewką stawu ramiennego i nad głową kości ramiennej. To właśnie nad nim oceniamy zwężenie przestrzeni podbarkowej, konflikt podbarkowy, osteofity w chorobie zwyrodnieniowej stawu AC czy następstwa przewlekłych przeciążeń stożka rotatorów. Moim zdaniem rozpoznawanie acromionu „na pierwszy rzut oka” to jedna z kluczowych umiejętności przy podstawowej analizie radiogramów barku, bo od jego ustawienia i kształtu zależy prawidłowa interpretacja wielu patologii. W praktyce technika radiologii musi umieć odróżnić wyrostek barkowy od wyrostka kruczego – ten drugi leży bardziej ku przodowi i zwykle jest nieco niżej, ma kształt haczykowaty. W dobrzej wykonanej projekcji AP oraz w projekcji Y‑łopatki acromion tworzy górne ramię litery „Y”. W standardach opisowych zawsze zwraca się uwagę na: ciągłość zarysu acromionu (pęknięcia, złamania), obecność zniekształceń pourazowych, obecność zwapnień przyczepów więzadeł oraz relację acromionu do głowy kości ramiennej (wysokość stawu, ewentualne podwichnięcia). W badaniach MRI i USG to właśnie pod wyrostkiem barkowym ocenia się kaletkę podbarkowo‑podnaramienną i ścięgna stożka rotatorów, więc dobra orientacja anatomiczna na RTG bardzo ułatwia dalszą diagnostykę obrazową i komunikację w zespole z lekarzem ortopedą czy radiologiem.

Pytanie 23

W radiologii analogowej lampy rentgenowskiej z tubusem używa się do wykonania zdjęcia

A. bocznego czaszki.
B. wewnątrzustnego zębów.
C. PA zatok.
D. osiowego czaszki.
Prawidłowo – w radiologii analogowej lampa rentgenowska z tubusem jest typowo wykorzystywana właśnie do wykonywania zdjęć wewnątrzustnych zębów. Tubus to nic innego jak specjalna nasadka/kanał ograniczający wiązkę promieniowania X do stosunkowo małego pola. Dzięki temu można precyzyjnie naświetlić obszar zębowy, minimalizując dawkę dla pozostałych tkanek i poprawiając jakość obrazu poprzez redukcję rozproszenia. W stomatologii klasycznym przykładem są zdjęcia zębowe okołowierzchołkowe, zgryzowe czy skrzydłowo-zgryzowe, gdzie aparat stomatologiczny (często ścienny lub mobilny) ma właśnie wąski, długi tubus. W dobrych praktykach przyjmuje się używanie tubusów prostokątnych lub kolimowanych, co dodatkowo ogranicza niepotrzebne napromienianie. Moim zdaniem to jedno z lepszych zastosowań promieniowania – małe pole, konkretna informacja diagnostyczna. W przeciwieństwie do projekcji czaszki czy zatok, gdzie stosuje się raczej klasyczne aparaty ogólnodiagnostyczne z ruchomą lampą i stołem, zdjęcia wewnątrzustne wymagają bardzo precyzyjnego ustawienia wiązki względem zęba i błony obrazowej/filmu umieszczonej w jamie ustnej pacjenta. Stąd tubus: ustala odległość ognisko–film, kierunek wiązki i ogranicza pole ekspozycji. Standardy stomatologiczne i wytyczne ochrony radiologicznej mocno podkreślają znaczenie właściwej kolimacji i stosowania osłon (fartuch ołowiany, osłona na tarczycę), a przy tubusie jest to łatwiejsze do zrealizowania. W praktyce technik powinien kojarzyć: mały aparat z tubusem = zdjęcia wewnątrzustne, duży aparat z bucky/stojakiem = klasyczne projekcje czaszki, zatok itp.

Pytanie 24

Na radiogramie strzałką oznaczono

Ilustracja do pytania
A. kość łódkowatą.
B. staw skokowo-piętowy.
C. kość sześcienną.
D. głowę kości skokowej.
Na tym zdjęciu RTG stawu skokowego w projekcji bocznej strzałka wskazuje kość łódkowatą stępu. W tej projekcji kość łódkowata leży bezpośrednio przed głową kości skokowej, czyli tak jakby „doklejona” do jej przedniego bieguna. Z tyłu widzisz masywną kość piętową, nad nią kość skokową z wyraźnym bloczkiem w stawie skokowym górnym, a jeszcze bardziej do przodu – właśnie kość łódkowatą, którą pokazano strzałką. Charakterystyczne jest to, że ma ona kształt takiego lekko owalnego, spłaszczonego cienia, tworzącego staw skokowo-łódkowy. W praktyce klinicznej poprawne rozpoznawanie kości łódkowatej na RTG jest ważne przy urazach stawu skokowego i stępu, np. przy podejrzeniu złamań awulsyjnych, jałowej martwicy (choroba Köhlera u dzieci) czy zmian przeciążeniowych. W standardach opisowych radiologii dobrze jest zawsze systematycznie „przelecieć” wzrokiem po wszystkich kościach stępu: piętowej, skokowej, łódkowatej, sześciennej i klinowatych, żeby niczego nie pominąć. Moim zdaniem warto wyrobić sobie nawyk porównywania położenia kości łódkowatej do głowy kości skokowej – jeśli widzisz przednią, lekko wypukłą część kości skokowej, to od razu z przodu niej szukasz kości łódkowatej. To bardzo ułatwia orientację, zwłaszcza gdy obraz jest słabszej jakości albo pacjent był minimalnie źle ustawiony. Takie podejście jest zgodne z dobrą praktyką w diagnostyce obrazowej, gdzie liczy się powtarzalny, uporządkowany schemat oceny radiogramu.

Pytanie 25

Kasety do pośredniej radiografii cyfrowej CR są wyposażone

A. w płyty fosforowe.
B. w folie wzmacniające.
C. w filmy rentgenowskie.
D. w płyty ołowiowe.
Prawidłowo – w systemie pośredniej radiografii cyfrowej CR kasety są wyposażone w płyty fosforowe, nazywane też płytami obrazowymi (IP – imaging plate). To nie są klasyczne filmy, tylko specjalne płyty z fosforem luminescencyjnym, najczęściej fosforem halogenkowym z domieszką europu. Pod wpływem promieniowania rentgenowskiego w krysztale fosforu gromadzi się energia w postaci tzw. obrazu utajonego. Ten obraz nie jest widoczny gołym okiem, dopiero skaner CR odczytuje go laserem, powodując zjawisko fotostymulowanej luminescencji. Wtedy emisja światła jest zamieniana przez fotopowielacz i przetwornik A/C na sygnał cyfrowy, który trafia do systemu PACS. W praktyce, podczas pracy w pracowni RTG, płyta fosforowa zachowuje się podobnie jak dawny film: wkładasz ją do kasety, po ekspozycji przenosisz do czytnika CR, a po odczycie płyta jest kasowana i może być użyta ponownie dziesiątki, a nawet setki razy, o ile nie zostanie mechanicznie uszkodzona. Moim zdaniem ważne jest, żeby kojarzyć CR właśnie z płytą fosforową, a DR z detektorem płaskopanelowym – to dwa różne systemy cyfrowe. Standardem dobrej praktyki jest delikatne obchodzenie się z kasetami CR, unikanie zarysowań i zginania, bo wszelkie uszkodzenia płyty fosforowej potem wychodzą jako artefakty na obrazie (pasy, plamki, „zadrapania”). W wielu szpitalach CR nadal jest używany w pracowniach ogólnych, na SOR czy w weterynarii, bo jest tańszy i bardziej elastyczny niż pełne DR, a kluczowe jest właśnie to, że sercem kasety jest płyta fosforowa, a nie film rentgenowski czy płyta ołowiowa.

Pytanie 26

Rytm alfa i beta rejestruje się podczas badania

A. HSG
B. EEG
C. USG
D. EKG
Prawidłowo – rytm alfa i beta to pojęcia typowe dla elektroencefalografii, czyli badania EEG. W EEG rejestrujemy bioelektryczną aktywność mózgu za pomocą elektrod umieszczonych na skórze głowy, zwykle według międzynarodowego systemu 10–20. Rytm alfa to fale o częstotliwości ok. 8–13 Hz, najlepiej widoczne u osoby zrelaksowanej, z zamkniętymi oczami, najczęściej w okolicach potylicznych. Rytm beta ma wyższą częstotliwość, około 13–30 Hz, częściej pojawia się przy stanie czuwania, koncentracji, czasem pod wpływem leków, np. benzodiazepin. W praktyce technik EEG powinien umieć odróżnić fizjologiczne rytmy (alfa, beta, theta, delta) od zmian patologicznych, takich jak wyładowania napadowe czy fale ostre. To jest podstawa prawidłowego opisu zapisu EEG i współpracy z lekarzem. Badanie EEG wykonuje się m.in. w diagnostyce padaczki, zaburzeń świadomości, encefalopatii metabolicznych, a także w ocenie mózgowej aktywności po urazach. Z mojego doświadczenia, im lepiej rozumiesz, co oznaczają poszczególne rytmy, tym łatwiej wychwytujesz subtelne nieprawidłowości w zapisie, np. asymetrię rytmu alfa między półkulami czy nadmierną obecność rytmu beta. W standardach pracowni neurofizjologicznej podkreśla się też znaczenie aktywacji (hiperwentylacja, fotostymulacja) – wtedy zmiany w rytmach mogą się nasilać lub zmieniać, co bywa bardzo przydatne w diagnostyce napadów.

Pytanie 27

Ile razy i jak zmieni się wartość natężenia promieniowania X przy zwiększeniu odległości OF ze 100 cm do 200 cm?

A. Dwukrotnie się zwiększy.
B. Czterokrotnie się zmniejszy.
C. Dwukrotnie się zmniejszy.
D. Czterokrotnie się zwiększy.
Poprawna odpowiedź wynika bezpośrednio z tzw. prawa odwrotności kwadratu odległości. W diagnostyce rentgenowskiej przyjmuje się, że natężenie promieniowania X (a w praktyce: ilość fotonów docierających na jednostkę powierzchni, czyli ekspozycja) jest odwrotnie proporcjonalne do kwadratu odległości od ogniska lampy rentgenowskiej. Matematycznie zapisuje się to jako I ~ 1/d². Jeśli zwiększamy odległość ognisko–film/detektor (OF) z 100 cm do 200 cm, to odległość rośnie dwukrotnie, ale natężenie nie spada „tylko” dwa razy, tylko cztery razy, bo 2² = 4. Czyli promieniowanie na detektorze będzie czterokrotnie mniejsze. Moim zdaniem to jedno z kluczowych praw, które trzeba mieć w małym palcu w pracowni RTG. W praktyce oznacza to, że jeżeli z jakiegoś powodu musisz zwiększyć OF z 100 do 200 cm (np. przy zdjęciach klatki piersiowej wykonywanych w większej odległości, żeby zmniejszyć powiększenie serca i zniekształcenia geometryczne), to żeby utrzymać podobną gęstość optyczną obrazu, trzeba odpowiednio zwiększyć ładunek mAs mniej więcej czterokrotnie. Standardowe zalecenia w radiografii mówią wprost: podwojenie odległości wymaga około czterokrotnego zwiększenia mAs dla utrzymania ekspozycji. Jednocześnie, z punktu widzenia ochrony radiologicznej, zwiększenie odległości jest korzystne dla personelu – im dalej od źródła, tym mniejsze narażenie, dokładnie na tej samej zasadzie. Właśnie dlatego w dobrych praktykach BHP w radiologii podkreśla się zasadę „distance, shielding, time” – odległość jest jednym z podstawowych środków ochrony. Warto też pamiętać, że zmiana OF wpływa nie tylko na dawkę, ale i na parametry geometryczne obrazu (ostrość, powiększenie), więc technik zawsze musi łączyć fizykę promieniowania z wymaganiami jakości obrazu i zasadami ochrony pacjenta.

Pytanie 28

Który obszar napromieniania w radioterapii oznacza się skrótem PTV?

A. Obszar leczony.
B. Obszar guza.
C. Kliniczny obszar napromieniania.
D. Zaplanowany obszar napromieniania.
Prawidłowo – PTV to właśnie zaplanowany obszar napromieniania (Planning Target Volume). W radioterapii stosuje się kilka zdefiniowanych objętości: GTV (Gross Tumor Volume – makroskopowy guz), CTV (Clinical Target Volume – kliniczny obszar napromieniania, czyli guz plus strefa możliwego mikroskopowego nacieku) oraz właśnie PTV. PTV powstaje z CTV przez dodanie odpowiednich marginesów bezpieczeństwa, które mają uwzględnić niepewności: ruchy pacjenta, ruchomość narządów (np. oddech, perystaltyka), błędy ustawienia, ograniczenia systemu unieruchomienia czy dokładności aparatu. Moim zdaniem to jedno z kluczowych pojęć w planowaniu, bo decyduje, czy dawka rzeczywiście trafi tam, gdzie trzeba, w każdych typowych warunkach leczenia. W praktyce planowania na systemie TPS (Treatment Planning System) fizyk medyczny i lekarz radioterapeuta wyznaczają najpierw GTV i CTV na obrazach TK (często z fuzją z MR lub PET), a dopiero potem definiują PTV, np. CTV + 5 mm marginesu izotropowego albo bardziej złożone marginesy anisotropowe. W protokołach klinicznych i wytycznych (np. ICRU Report 50/62, nowsze ICRU 83) bardzo mocno podkreśla się, że dawka referencyjna musi pokryć PTV w określonym procencie objętości, np. 95% PTV otrzymuje 95% dawki przepisanej. Dzięki temu można kontrolować, czy napromienianie jest wystarczająco jednorodne i czy nie ma nieakceptowalnych niedowiązań w obrębie celu. W nowoczesnych technikach jak IMRT czy VMAT całe kształtowanie rozkładu dawki, optymalizacja planu, analiza DVH i kontrola jakości są wykonywane właśnie w odniesieniu do PTV. W praktyce klinicznej technik radioterapii, ustawiając pacjenta na aparacie, tak naprawdę pilnuje, aby w każdym dniu leczenia PTV znalazło się w polu wiązek zgodnie z planem, a nie tylko „sam guz”, który i tak jest często niewidoczny w obrazowaniu portalowym lub CBCT.

Pytanie 29

Który typ głowicy ultrasonograficznej przedstawiono na ilustracji?

Ilustracja do pytania
A. Endokawitarną.
B. Konweksową.
C. Sektorową.
D. Liniową.
Na ilustracji widać głowicę liniową – charakterystyczną po prostokątnym, równym czołie emitera, które tworzy długi, płaski pasek kryształów piezoelektrycznych. W przekroju wiązka ma kształt prostokąta, a obraz powstaje jako równoległe linie skanowania, bez zwężania się w „wachlarz” jak w głowicach sektorowych czy konweksowych. Taka konstrukcja daje szerokie okno akustyczne tuż pod powierzchnią skóry i bardzo dobrą rozdzielczość przestrzenną w badaniu struktur położonych płytko. W praktyce klinicznej głowice liniowe stosuje się głównie do badania tkanek powierzchownych: tarczycy, sutka, moszny, naczyń (USG dopplerowskie tętnic szyjnych, żył kończyn dolnych), narządu ruchu (ścięgna, więzadła, mięśnie) oraz w ultrasonografii przyłóżkowej do oceny ściany brzucha, punkcji naczyniowych czy blokad nerwów. Z mojego doświadczenia w pracowniach diagnostycznych przyjmuje się jako dobrą praktykę, że do struktur powierzchownych wybiera się właśnie głowicę liniową o wysokiej częstotliwości, najczęściej 7,5–15 MHz, bo wyższa częstotliwość oznacza lepszą rozdzielczość kosztem głębokości penetracji, co w tym przypadku jest korzystne. W wytycznych i kursach z ultrasonografii podkreśla się, żeby przy USG naczyniowym zawsze zaczynać od głowicy liniowej, a dopiero przy bardzo głębokim położeniu naczyń rozważać inne typy. Warto też pamiętać, że płaski kształt czoła ułatwia dokładne dociśnięcie do skóry i stabilne prowadzenie głowicy wzdłuż naczyń czy ścięgien, co przekłada się na powtarzalność badania i lepszą jakość dokumentacji obrazowej.

Pytanie 30

DSA to cyfrowa

A. limfografia subtrakcyjna.
B. flebografia subtrakcyjna.
C. angiografia subtrakcyjna.
D. arteriografia subtrakcyjna.
Prawidłowa odpowiedź to cyfrowa angiografia subtrakcyjna, czyli Digital Subtraction Angiography (DSA). Rozszyfrowanie skrótu jest tu kluczowe: „A” pochodzi od angiography, czyli obrazowania naczyń krwionośnych. W DSA chodzi dokładnie o to, żeby jak najczyściej uwidocznić tętnice i żyły po podaniu kontrastu jodowego, a jednocześnie „odjąć” (subtrakcyjnie) obraz kości i tkanek miękkich. Technicznie wygląda to tak, że najpierw rejestruje się obraz „maskę” bez kontrastu, a potem serię obrazów po jego podaniu. Komputer piksel po pikselu odejmuje maskę od kolejnych klatek, dzięki czemu zostaje głównie to, co się zmieniło, czyli kontrast w naczyniach. W praktyce klinicznej DSA jest standardem w diagnostyce zwężeń tętnic szyjnych, tętniaków mózgowych, malformacji naczyniowych, zmian w tętnicach wieńcowych, kończyn dolnych czy tętnic nerkowych. Często wykorzystuje się ją także jako badanie łączone z zabiegiem – tzw. procedury endowaskularne: angioplastyka balonowa, implantacja stentów, embolizacja. Z mojego doświadczenia, w pracowniach hemodynamiki i angiografii pacjent z istotnym zwężeniem tętnicy zwykle w tym samym „wejściu” ma robioną i diagnostykę (DSA), i leczenie. DSA wymaga dobrej jakości aparatu angiograficznego, stabilnego ułożenia pacjenta, odpowiedniej dawki kontrastu oraz synchronizacji ekspozycji z podaniem kontrastu. Z punktu widzenia dobrych praktyk ważne jest ograniczanie dawki promieniowania (ALARA), monitorowanie ilości kontrastu i kontrola ryzyka nefropatii pokontrastowej. Cyfrowa arteriografia, flebografia czy limfografia mogą być wykonywane, ale jako techniki szczegółowe – DSA dotyczy ogólnie angiografii, a nie tylko jednego typu naczynia.

Pytanie 31

Jakie wymagania techniczne muszą spełniać aparaty terapeutyczne stosowane w zakładach brachyterapii, służące bezpośrednio do napromieniania pacjenta metodą zdalnego wprowadzania źródeł promieniotwórczych?

A. Weryfikują ustawione warunki i nie sygnalizują przypadkowych błędów personelu.
B. Wyłączenie i ponowne włączenie aparatu likwiduje sygnalizowany błąd.
C. Wyłączenie i ponowne włączenie aparatu nie likwiduje sygnalizowanego błędu.
D. Posiadają jeden niezależny system odliczający czas i informujący o zakończeniu napromieniania.
Prawidłowa odpowiedź podkreśla bardzo ważną zasadę bezpieczeństwa w brachyterapii HDR: wyłączenie i ponowne włączenie aparatu nie może kasować wcześniej zgłoszonego błędu. W aparatach do zdalnego wprowadzania źródeł (afterloaderach) mamy do czynienia z bardzo silnymi źródłami promieniowania, które są prowadzone do ciała pacjenta systemem prowadnic. Jeśli system raz wykryje sytuację niebezpieczną – np. problem z pozycją źródła, zablokowanie prowadnicy, błąd w układzie bezpieczeństwa, uszkodzenie czujnika – to z punktu widzenia norm ochrony radiologicznej ten stan musi być traktowany jako trwały alarm, dopóki nie zostanie sprawdzony i skasowany w kontrolowany sposób przez uprawnioną osobę, a nie przez zwykły „reset zasilania”. W praktyce klinicznej obowiązuje zasada tzw. fail-safe: jeżeli coś jest nie tak, urządzenie przechodzi w stan bezpieczny (źródło wraca do osłony, napromienianie jest przerwane), a system wymaga świadomej interwencji. Moim zdaniem to jest trochę jak z hamulcem bezpieczeństwa w windzie: samo wyłączenie i włączenie prądu nie może sprawić, że system uzna, iż nagle jest bezpiecznie. W nowoczesnych afterloaderach błędy są zapisywane w logach, trzeba je zdiagnozować, czasem wykonać testy serwisowe, dopiero potem można przywrócić normalną pracę. Takie podejście wynika z zaleceń producentów, wymagań prawa atomowego, rozporządzeń dotyczących urządzeń radioterapeutycznych oraz z ogólnych standardów QA w radioterapii (np. wytyczne IAEA czy ESTRO). Dodatkowo, aparaty te zwykle mają wielopoziomowe systemy nadzoru: niezależne układy kontroli pozycji źródła, monitorowania czasu napromieniania, kontroli ruchu kabla źródła, systemy blokad drzwiowych bunkra. Gdy którykolwiek z krytycznych podsystemów zgłosi błąd, musi to być sygnał do zatrzymania procedury i analizy, a nie coś, co można „przeklikać” restartem. Dzięki temu unika się sytuacji, w której potencjalna usterka techniczna prowadzi do niekontrolowanego narażenia pacjenta lub personelu. To jest dokładnie sens tej odpowiedzi: błąd ma być trwałym ostrzeżeniem, a nie komunikatem, który da się łatwo ukryć prostym trikiem z wyłącznikiem.

Pytanie 32

Jak zgodnie ze standardem należy ustawić pacjenta do badania rentgenowskiego w skosie tylnym prawym?

A. Tyłem do kasety, prawa strona przylega do kasety, lewa strona odwiedziona od kasety.
B. Tyłem do kasety, lewa strona przylega do kasety, prawa strona odwiedziona od kasety.
C. Przodem do kasety, lewa strona przylega do kasety, prawa strona odwiedziona od kasety.
D. Przodem do kasety, prawa strona przylega do kasety, lewa strona odwiedziona od kasety.
Prawidłowa odpowiedź wynika bezpośrednio z zasad nazewnictwa projekcji w radiologii. Określenie „skos tylny prawy” (RPO – right posterior oblique) oznacza, że do kasety przylega prawa część tylnej powierzchni ciała pacjenta. Innymi słowy: pacjent stoi tyłem do kasety, jest lekko obrócony, tak żeby prawa strona pleców i tułowia dotykała kasety, a lewa strona była odsunięta – czyli odwiedziona od kasety. Takie ustawienie odpowiada właśnie odpowiedzi: „Tyłem do kasety, prawa strona przylega do kasety, lewa strona odwiedziona od kasety”. W standardach radiologicznych przyjęło się, że w projekcjach skośnych pierwsze słowo („tylny” albo „przedni”) mówi, czy do detektora bliżej jest powierzchnia tylna (PA/tył do kasety) czy przednia (AP/przodem do kasety), a określenie „prawy/lewy” wskazuje, która strona ciała przylega do kasety. To jest bardzo praktyczne, bo od razu wiadomo, jak ustawić pacjenta, niezależnie czy robisz RTG kręgosłupa lędźwiowego, klatki piersiowej, czy stawu krzyżowo-biodrowego w skośnych projekcjach. Moim zdaniem warto sobie to utrwalić na schemacie: w projekcjach tylnych skośnych (RPO, LPO) pacjent stoi tyłem do kasety, a w przednich skośnych (RAO, LAO) – przodem. Potem tylko pamiętasz, że „prawy” albo „lewy” to strona bliższa kasety. W praktyce technik radiologii podczas ustawiania pacjenta kontroluje, czy bark, biodro i odpowiednia strona klatki lub tułowia rzeczywiście dotykają kasety, a przeciwna strona jest lekko odsunięta, co zapewnia właściwy kąt skośny, redukcję nakładania się struktur i zgodność ze standardami obrazowania. Takie prawidłowe pozycjonowanie poprawia jakość diagnostyczną zdjęcia i zmniejsza ryzyko konieczności powtarzania ekspozycji, co od razu przekłada się na mniejsze narażenie pacjenta na promieniowanie.

Pytanie 33

Który program wtórnej rekonstrukcji obrazów TK pozwala na odwzorowanie wnętrza jelita grubego, tchawicy i oskrzeli?

A. Rekonstrukcja wielopłaszczyznowa MPR.
B. Projekcja maksymalnej intensywności MIP.
C. Prezentacja trójwymiarowa 3D.
D. Wirtualna endoskopia VE.
Poprawnie wskazana została wirtualna endoskopia (VE). To właśnie ten typ wtórnej rekonstrukcji obrazów TK umożliwia komputerowe „wejście” do światła narządów jamistych, takich jak jelito grube, tchawica czy oskrzela. Algorytm wykorzystuje bardzo cienkie warstwy TK (zwykle 0,5–1,25 mm), a następnie tworzy trójwymiarowy model światła przewodu, po którym można się poruszać jak przy klasycznej endoskopii. Różnica jest taka, że nie wprowadzamy żadnego endoskopu do pacjenta – wszystko dzieje się na konsoli stacji opisowej. W praktyce klinicznej stosuje się to np. w TK kolonografii (tzw. wirtualna kolonoskopia) do wykrywania polipów i guzów jelita grubego, szczególnie u pacjentów, którzy nie mogą mieć wykonanej klasycznej kolonoskopii. Podobnie wirtualna bronchoskopia z TK pozwala ocenić zwężenia, guzy i ucisk z zewnątrz w obrębie tchawicy i oskrzeli, co jest bardzo pomocne przy planowaniu zabiegów torakochirurgicznych czy bronchologicznych. Moim zdaniem ważne jest też to, że VE pozwala zobaczyć zmiany „zza zakrętu”, które na zwykłych obrazach osiowych mogą być łatwe do przeoczenia, a endoskopem czasem trudno tam dotrzeć. Dobre praktyki mówią, żeby VE zawsze interpretować razem z klasycznymi przekrojami TK (MPR), bo sama wirtualna endoskopia może czasem zniekształcać obraz, np. przy obecności zalegającego płynu, stolca czy artefaktów ruchowych. Warto też pamiętać, że VE nie zastępuje całkowicie klasycznej endoskopii – nie pozwala na pobranie wycinków ani wykonanie zabiegów, ale świetnie sprawdza się jako narzędzie przesiewowe i planistyczne. W codziennej pracy technika elektroradiologii kluczowe jest prawidłowe wykonanie badania TK (cienkie warstwy, odpowiednie okna rekonstrukcji), bo od jakości danych wejściowych zależy jakość wirtualnej endoskopii.

Pytanie 34

Na radiogramie stopy uwidocznione jest złamanie trzonu

Ilustracja do pytania
A. paliczka bliższego palca II.
B. II kości śródstopia.
C. III kości śródstopia.
D. paliczka bliższego palca III.
Prawidłowo wskazana została III kość śródstopia – na radiogramie w projekcji grzbietowo‑podeszwowej widać wyraźne przerwanie ciągłości zarysu jej trzonu. Trzon kości śródstopia ma kształt wydłużony, lekko zwężony w części środkowej, z wyraźnie zaznaczonymi nasadami bliższą i dalszą. Na zdjęciu linia złamania przebiega w obrębie tej środkowej części trzeciej kości licząc od strony przyśrodkowej stopy (czyli po palcach: I, II, III…). W standardowej ocenie RTG stopy zawsze zaczyna się od identyfikacji osi – paluch to I promień, dalej II, III, IV i V. W praktyce technika radiologii powinna nawykowo „liczyć” kości od strony przyśrodkowej, bo pomyłki między II a III kością są bardzo częste, szczególnie gdy złamanie jest w trzonie, a kości leżą blisko siebie. Moim zdaniem dobrą praktyką jest porównywanie szerokości przynasad i ustawienia stawów śródstopno‑paliczkowych – to pomaga nie pomylić segmentów. W codziennej pracy, przy opisie zdjęć urazowych, zawsze trzeba podać dokładną lokalizację: numer kości śródstopia, część (głowa, trzon, podstawa) oraz ewentualne przemieszczenie lub odchylenie osi. Ma to znaczenie dla ortopedy przy doborze leczenia – inaczej postępuje się przy złamaniu trzonu III kości śródstopia, a inaczej np. przy złamaniu podstawy V kości śródstopia (typowe złamanie awulsyjne). W dobrych standardach diagnostyki obrazowej, jeśli linia złamania jest wątpliwa, wykonuje się dodatkową projekcję skośną lub porównawczą, ale tutaj obraz trzonu III kości śródstopia jest dosyć jednoznaczny. Warto też pamiętać, że ocena trzonów śródstopia wymaga odpowiedniej ekspozycji – zbyt twarde zdjęcie „gubi” drobne linie złamań, a zbyt miękkie daje zlewanie się struktur. Z mojego doświadczenia takie złamania, jak na tym obrazie, często są efektem urazu skrętnego lub urazu sportowego i dobrze korelują z bólem uciskowym dokładnie nad trzecim promieniem śródstopia.

Pytanie 35

Zadaniem technika elektroradiologii w pracowni badań naczyniowych jest

A. nadzorowanie czynności aparatury rentgenowskiej.
B. przygotowanie cewników.
C. wprowadzenie cewnika w światło naczyń.
D. przygotowanie niezbędnych narzędzi.
Prawidłowo wskazana rola technika elektroradiologii w pracowni badań naczyniowych to nadzorowanie czynności aparatury rentgenowskiej. W praktyce oznacza to, że technik odpowiada za poprawne przygotowanie, ustawienie i kontrolę pracy całego systemu angiograficznego: generatora, lampy rentgenowskiej, detektora, stołu, systemu akwizycji obrazu, a także parametrów ekspozycji. Lekarz wprowadza cewnik do naczynia, natomiast technik ma zadbać, żeby obrazowanie było bezpieczne, stabilne i dawało diagnostycznie przydatne obrazy. W czasie badania technik dobiera parametry takie jak kV, mA, czas ekspozycji, tryby pulsacji, kolimacja, filtracja, a także kontroluje projekcje, ruch stołu i synchronizację z podaniem kontrastu. Bardzo ważny jest też nadzór nad dawką promieniowania: monitorowanie czasu fluoroskopii, wskaźników dawki (DAP, KAP), stosowanie powiększeń tylko wtedy, gdy są naprawdę potrzebne, odpowiednie ekranowanie pacjenta i personelu. Z mojego doświadczenia, dobry technik w angiografii potrafi znacząco skrócić czas badania i zmniejszyć dawkę, a jednocześnie poprawić jakość obrazów. To on pilnuje jakości obrazu w czasie rzeczywistym, reaguje na artefakty, modyfikuje parametry przy otyłości, miażdżycy, szybkich ruchach pacjenta. Standardy pracy, także te wynikające z zasad optymalizacji dawki (ALARA), bardzo mocno podkreślają, że technik nie jest tylko „operatorem guzika”, ale specjalistą od obsługi i kontroli aparatury rentgenowskiej w całym procesie badania naczyniowego.

Pytanie 36

W zapisie EKG załamki P dodatnie w odprowadzeniu I i II, a ujemne w aVR oraz częstotliwość rytmu mniejsza niż 60/min wskazują na

A. niemiarowość zatokową.
B. przyspieszony rytm zatokowy.
C. zwolniony rytm zatokowy.
D. zahamowanie zatokowe.
Prawidłowo – opis w pytaniu dokładnie pasuje do zwolnionego rytmu zatokowego, czyli bradykardii zatokowej. Załamki P dodatnie w odprowadzeniach I i II oraz ujemne w aVR to klasyczny „podpis” tego, że impuls elektryczny pochodzi z węzła zatokowo–przedsionkowego, czyli z fizjologicznego rozrusznika serca. Mówiąc prościej: morfologia załamka P mówi nam o miejscu powstania pobudzenia, a nie o jego szybkości. Dopiero częstotliwość rytmu, w tym przypadku < 60/min, decyduje, czy mówimy o rytmie zatokowym prawidłowym, przyspieszonym czy zwolnionym. Standardowo przyjmuje się, że: rytm zatokowy prawidłowy ma częstość 60–100/min, przyspieszony rytm zatokowy (tachykardia zatokowa) > 100/min, a zwolniony rytm zatokowy (bradykardia zatokowa) < 60/min. To jest podstawowa rzecz, którą trzeba mieć w głowie przy każdej analizie EKG, niezależnie czy pracujesz w pracowni EKG, na SOR-ze czy w POZ. W praktyce technika EKG wygląda to tak: najpierw oceniamy, czy załamki P są „zatokowe” (czyli dodatnie w I, II, ujemne w aVR, stały kształt), następnie sprawdzamy, czy po każdym P występuje zespół QRS, a potem mierzymy częstość rytmu – np. metodą 300/150/100 (przy zapisie 25 mm/s) albo za pomocą automatycznej analizy aparatu, ale zawsze warto ją zweryfikować „na oko”. U wielu osób, zwłaszcza młodych, wysportowanych, bradykardia zatokowa może być wariantem normy, szczególnie w spoczynku czy we śnie. Z drugiej strony, u pacjentów starszych, z chorobą węzła zatokowego, po lekach beta-adrenolitycznych czy blokerach kanału wapniowego, zwolniony rytm zatokowy może dawać zawroty głowy, osłabienie, omdlenia. Moim zdaniem dobrze jest od razu w głowie łączyć obraz EKG z objawami klinicznymi, bo sama liczba uderzeń na minutę jeszcze nie mówi, czy dany rytm jest dla pacjenta niebezpieczny. Dobre praktyki mówią: zawsze opisz rytm trzema słowami – pochodzenie (zatokowy/pozazatokowy), regularność (miarowy/niemiarowy) i częstość (przyspieszony/prawidłowy/zwolniony). Tutaj mamy wyraźnie: rytm zatokowy, miarowy (z opisu to wynika) i zwolniony.

Pytanie 37

W radioterapii konwencjonalnej pacjent jest leczony promieniowaniem pochodzącym

A. z rozpadu izotopu radu.
B. ze źródeł zewnętrznych.
C. z rozpadu izotopu uranu.
D. ze źródeł wewnętrznych.
W radioterapii konwencjonalnej chodzi przede wszystkim o teleterapię, czyli napromienianie z tzw. źródeł zewnętrznych. To znaczy, że źródło promieniowania (najczęściej akcelerator liniowy generujący fotony wysokoenergetyczne, np. 6 MV, 10 MV) znajduje się poza ciałem pacjenta, w głowicy aparatu, a wiązka jest precyzyjnie kierowana w obszar guza. To jest standard postępowania w onkologii radioterapeutycznej dla większości nowotworów: raka płuca, piersi, prostaty, guzów głowy i szyi. Z mojego doświadczenia, jak ktoś myśli „radioterapia” w szpitalu, to w 90% chodzi właśnie o tę klasyczną teleterapię. W praktyce planowanie takiego leczenia odbywa się na podstawie tomografii komputerowej planistycznej, czasem z nałożeniem obrazów MR czy PET. Fizycy medyczni i lekarz radioterapeuta wyznaczają objętości PTV, CTV, OAR, a następnie komputer optymalizuje rozkład dawki tak, żeby jak najlepiej napromienić guz i maksymalnie oszczędzić narządy krytyczne. Dawka jest podawana frakcjami, np. 1,8–2 Gy dziennie przez kilka tygodni, co jest zgodne z zaleceniami EORTC czy ESTRO. W odróżnieniu od brachyterapii, tutaj nie wszczepia się żadnych źródeł do ciała – pacjent po zakończeniu seansu nie „promieniuje” i nie stanowi zagrożenia dla otoczenia. Teleterapia wymaga też bardzo ścisłej kontroli jakości: codziennego sprawdzania parametrów wiązki, systemów unieruchomienia pacjenta, weryfikacji pozycjonowania (IGRT – obrazowanie przed napromienianiem). Moim zdaniem warto zapamiętać prostą rzecz: radioterapia konwencjonalna = zewnętrzna wiązka promieniowania jonizującego, generowana przez specjalistyczny aparat, a nie przez izotop wszczepiony do środka ciała.

Pytanie 38

W trakcie obrazowania metodą rezonansu magnetycznego wykorzystywane jest zjawisko wysyłania sygnału emitowanego przez

A. protony atomów wodoru.
B. protony atomów tlenu.
C. elektrony atomów tlenu.
D. elektrony atomów wodoru.
Prawidłowo wskazane zostały protony atomów wodoru, czyli dokładnie to, na czym opiera się klasyczna metoda rezonansu magnetycznego wykorzystywana w medycynie. W obrazowaniu MR wykorzystuje się zjawisko jądrowego rezonansu magnetycznego (NMR). W praktyce oznacza to, że w silnym polu magnetycznym jądra wodoru (protony) ustawiają się zgodnie lub przeciwnie do kierunku pola. Następnie aparat wysyła fale radiowe (impuls RF), które wybijają te protony z ich równowagi. Gdy impuls się kończy, protony wracają do stanu wyjściowego i w tym procesie emitują sygnał, który jest rejestrowany przez cewki odbiorcze. To właśnie ten sygnał jest potem przeliczany komputerowo na obraz przekrojowy ciała. W tkankach ludzkiego organizmu jest bardzo dużo wody i tłuszczu, a więc bardzo dużo atomów wodoru – dlatego MR jest tak czuły na różnice w nawodnieniu i składzie tkanek. W praktyce klinicznej wykorzystuje się to np. do oceny zmian w mózgu (udar, stwardnienie rozsiane), stawach, kręgosłupie, narządach jamy brzusznej. Różne sekwencje (T1, T2, PD, FLAIR, DWI itd.) bazują cały czas na tym samym zjawisku: relaksacji protonów wodoru i różnicach w czasach relaksacji T1 i T2 w różnych tkankach. Z mojego doświadczenia, jak raz się zrozumie, że MR „słucha” protonów wodoru w polu magnetycznym, to dużo łatwiej ogarnąć, dlaczego metal w ciele pacjenta jest problemem, czemu ważne jest jednorodne pole magnetyczne i czemu obecność wody w tkankach tak mocno wpływa na kontrast obrazu. To jest absolutna podstawa fizyki rezonansu, którą warto mieć dobrze poukładaną, bo przewija się wszędzie w diagnostyce obrazowej.

Pytanie 39

Którą strukturę anatomiczną zaznaczono na radiogramie stawu kolanowego?

Ilustracja do pytania
A. Nadkłykieć przyśrodkowy.
B. Kłykieć boczny.
C. Nadkłykieć boczny.
D. Kłykieć przyśrodkowy.
Na radiogramie w projekcji AP widoczny jest staw kolanowy, a strzałka wskazuje na wystającą ponad powierzchnię stawową część dalszej kości udowej po stronie przyśrodkowej. To właśnie nadkłykieć przyśrodkowy kości udowej. Nadkłykcie są zlokalizowane powyżej kłykci – są bardziej wyniosłe, służą głównie jako miejsca przyczepu więzadeł i mięśni, a nie jako część bezpośrednio tworząca powierzchnię stawową. Na zdjęciu dobrze widać, że zaznaczona struktura leży ponad przyśrodkowym przedziałem szczeliny stawowej, a jej zarys nie wchodzi w obręb powierzchni stawowej – to typowy obraz nadkłykcia. W praktyce klinicznej prawidłowe rozróżnienie kłykci i nadkłykci ma znaczenie np. przy opisie złamań (wg standardów AO, przy kwalifikacji do leczenia operacyjnego) czy przy planowaniu dostępu chirurgicznego w endoprotezoplastyce kolana. Nadkłykieć przyśrodkowy jest miejscem przyczepu m.in. więzadła pobocznego piszczelowego, dlatego jego uszkodzenia mogą być związane z niestabilnością przyśrodkową stawu kolanowego. W opisach radiologicznych zgodnych z dobrymi praktykami (np. zalecenia towarzystw radiologicznych) zawsze podaje się, czy zmiana obejmuje kłykieć, czy nadkłykieć, bo od tego zależy zarówno biomechanika stawu, jak i ryzyko wtórnej choroby zwyrodnieniowej. Moim zdaniem warto sobie nawykowo na każdym RTG kolana „od góry do dołu” nazwać: nadkłykcie, kłykcie, powierzchnię stawową, szczelinę stawową i nasadę kości piszczelowej – wtedy takie pytania robią się naprawdę proste i bardzo praktyczne na dyżurze czy w pracowni RTG.

Pytanie 40

Badanie polegające na wprowadzeniu cewnika przez pęcherz moczowy do moczowodu i miedniczki nerkowej i podaniu środka kontrastującego to

A. pielografia wstępująca.
B. pielografia zstępująca.
C. urografia.
D. cystografia.
Prawidłowa odpowiedź to pielografia wstępująca, bo właśnie tak nazywa się badanie, w którym cewnik wprowadza się przez cewkę moczową do pęcherza, dalej do ujścia moczowodu, a następnie do samego moczowodu i miedniczki nerkowej, i podaje się środek kontrastowy „pod prąd” moczu. Kontrast przemieszcza się z dołu do góry, w kierunku nerki – stąd określenie „wstępująca”. Jest to klasyczne badanie radiologiczne dróg moczowych wykonywane pod kontrolą fluoroskopii, zwykle na sali RTG, często we współpracy z urologiem. W praktyce klinicznej pielografia wstępująca jest stosowana wtedy, gdy urografia dożylna (zwykła urografia) nie daje wystarczających informacji, np. przy podejrzeniu zwężeń moczowodu, zmian nowotworowych, przetok moczowych czy niejasnych poszerzeń układu kielichowo‑miedniczkowego. Dużym plusem tego badania jest możliwość bardzo dokładnego uwidocznienia światła moczowodu na całej jego długości, bo kontrast podajemy bezpośrednio do badanego odcinka, a nie tylko „czekamy”, aż nerka go wydali. Wymaga to jednak bardziej inwazyjnej procedury – cewnikowania, aseptyki, kontroli dawki promieniowania, a także dobrej współpracy z pacjentem. Z mojego doświadczenia typową dobrą praktyką jest wykonywanie serii zdjęć w kilku projekcjach (AP, skośne), przy małej dawce, z dokładnym opisem poziomu ewentualnych zwężeń czy ubytków wypełnienia. W nowoczesnej diagnostyce często porównuje się wynik pielografii wstępującej z TK lub MR, ale sama technika nadal ma swoje miejsce, szczególnie w planowaniu zabiegów urologicznych, np. założenia stentu JJ.