Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 28 kwietnia 2026 13:41
  • Data zakończenia: 28 kwietnia 2026 14:00

Egzamin niezdany

Wynik: 19/40 punktów (47,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Który zestaw zdjęć narządów klatki piersiowej należy wykonać u pacjenta z podejrzeniem lewostronnego zapalenia płuc?

A. PA i lewoboczne.
B. AP i lewoboczne.
C. AP i prawoboczne.
D. PA i prawoboczne.
W diagnostyce zapalenia płuc bardzo ważny jest świadomy dobór projekcji, a nie przypadkowe łączenie dowolnych rzutów. Standardem u pacjenta, który może stać lub siedzieć, jest projekcja PA jako główne zdjęcie przeglądowe oraz projekcja boczna po stronie podejrzanej zmiany. W przypadku lewostronnego zapalenia płuc oznacza to, że lewy bok powinien przylegać do detektora. Dzięki temu struktury po lewej stronie klatki piersiowej są obrazowane z minimalnym powiększeniem i mniejszym zniekształceniem geometrycznym. Wybór projekcji AP zamiast PA jest typowym błędem myślowym: wielu osobom wydaje się, że skoro promień biegnie „od przodu”, to obraz będzie lepszy, ale w radiografii klatki piersiowej jest odwrotnie. Projekcja AP jest zarezerwowana głównie dla pacjentów leżących, ciężko chorych, na OIT, gdzie nie da się ustawić chorego przy statywie. Ma gorszą jakość: serce jest powiększone, proporcje struktur są zaburzone, a ocena nacieków bywa utrudniona. Dlatego u pacjenta, który może współpracować, wybór AP i lewobocznego to odejście od dobrych praktyk. Podobnie mylące bywa dobieranie niewłaściwej strony projekcji bocznej. Intuicyjnie ktoś może pomyśleć, że skoro „chcemy zobaczyć drugą stronę”, to wybierze się projekcję prawoboczną przy zmianie po lewej, ale w rzeczywistości robimy odwrotnie: boczne wykonuje się po stronie podejrzanej patologii, żeby ją najlepiej odwzorować. Projekcje PA z prawoboczną lub AP z prawoboczną nie są optymalne przy podejrzeniu lewostronnego zapalenia płuc, bo lewa strona klatki piersiowej będzie dalej od detektora, bardziej powiększona i mniej ostra. Takie ustawienie może prowadzić do niedoszacowania zasięgu nacieku, a nawet do przeoczenia niewielkich zmian, szczególnie w płacie dolnym zasłoniętym przez przeponę czy serce. Dobre praktyki w diagnostyce obrazowej jednoznacznie podkreślają: PA zawsze, gdy to możliwe, oraz boczne po stronie zmiany – i trzymanie się tej zasady bardzo ułatwia życie i technikowi, i lekarzowi.

Pytanie 2

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. HDR
B. MDR
C. PDR
D. LDR
W tym pytaniu haczyk polega na tym, żeby nie pomylić rodzaju brachyterapii z samą szybkością dawki. MDR, HDR i LDR opisują głównie tempo podawania dawki (moc dawki), natomiast PDR odnosi się do konkretnego sposobu pracy systemu afterloadingowego: wielokrotne, pulsacyjne wsuwanie i wysuwanie źródła do tego samego aplikatora. To właśnie ten cykliczny charakter ekspozycji definiuje poprawną odpowiedź. Wysokodawkowa brachyterapia HDR kojarzy się wielu osobom z tym, że źródło jest dynamicznie przesuwane między pozycjami, ale zazwyczaj odbywa się to w ramach jednej krótkiej frakcji, a nie w postaci serii powtarzających się impulsów rozłożonych w czasie tak, by imitować LDR. HDR to przede wszystkim bardzo duża moc dawki dostarczona w kilku lub kilkunastu krótkich sesjach, a nie koniecznie „pulsowanie” w sensie radiobiologicznym. Z kolei LDR, czyli Low Dose Rate, to technika, w której źródło ma niską aktywność i pozostaje w tkankach przez dłuższy, praktycznie ciągły czas, bez wielokrotnego wsuwania i wysuwania. W klasycznej LDR źródła są albo tymczasowe, albo stałe (np. implanty nasionkowe), ale nie pracują w trybie pulsacyjnym sterowanym afterloaderem. MDR jest pojęciem używanym rzadziej, historycznie dotyczyło tempa dawki pośredniego między LDR a HDR, jednak samo w sobie nie opisuje mechanizmu wielokrotnego, automatycznego wprowadzania źródła. Typowy błąd myślowy przy tym pytaniu to skupienie się tylko na skrótach i skojarzeniu „wysuwanie/wsuwanie = HDR, bo tam źródło się rusza”. Tymczasem w definicjach klinicznych i w dokumentach zaleceń (np. ICRU, ESTRO) PDR jest jasno określone jako pulsacyjne podawanie dawki z użyciem źródła o aktywności zbliżonej do HDR, ale z powtarzanymi impulsami co określony interwał. W praktyce planistycznej i przy obsłudze afterloadera warto zawsze pamiętać, że nazwa techniki mówi nie tylko o mocy dawki, ale też o sposobie jej dystrybucji w czasie, i właśnie ten aspekt odróżnia PDR od pozostałych skrótów.

Pytanie 3

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Jodowe, rozpuszczalne w wodzie.
B. Środki na bazie gadolinu.
C. Środki na bazie siarczanu baru.
D. Jodowe, nierozpuszczalne w wodzie.
Prawidłowo – w diagnostyce rezonansem magnetycznym standardowo stosuje się paramagnetyczne środki kontrastujące na bazie gadolinu. Gadolinium samo w sobie jest silnie toksycznym metalem ciężkim, ale w kontrastach MR występuje w postaci chelatów, czyli związków kompleksowych, które wiążą jon gadolinu i dzięki temu znacznie zmniejszają jego toksyczność i poprawiają bezpieczeństwo kliniczne. Mechanizm działania takiego kontrastu jest inny niż w klasycznej radiologii: gadolin nie pochłania promieniowania rentgenowskiego, tylko skraca czasy relaksacji T1 (głównie) i T2 protonów wody w tkankach. W praktyce oznacza to, że struktury, które gromadzą gadolin, stają się jaśniejsze (hiperintensywne) na obrazach T1-zależnych. W codziennej pracy używa się go np. w diagnostyce guzów mózgu, zmian demielinizacyjnych w SM, ocenie zapalenia opon, w badaniach serca (blizna pozawałowa, kardiomiopatie) czy przy ocenie unaczynienia guzów wątroby i nerek. Moim zdaniem warto zapamiętać, że kontrast MR to przede wszystkim gadolin, a nie jod czy bar. Dobre praktyki mówią o konieczności oceny czynności nerek (eGFR) przed podaniem gadolinu, szczególnie u pacjentów z niewydolnością nerek, ze względu na ryzyko nefrogennego układowego zwłóknienia (NSF) przy starszych preparatach. Obecnie preferuje się tzw. środki makrocykliczne, które są bardziej stabilne chemicznie i uznawane za bezpieczniejsze. W MR stosuje się też specjalne protokoły dynamiczne po kontraście (np. badania wątroby, piersi), gdzie obserwuje się fazy wzmocnienia w czasie, co pomaga różnicować zmiany łagodne i złośliwe. W praktyce technika i lekarz opisujący zawsze powinni dobrać odpowiednią dawkę, sekwencje T1-zależne i czas podania, żeby wzmocnienie kontrastowe było maksymalnie diagnostyczne.

Pytanie 4

Który załamek w zapisie EKG odpowiada zjawisku depolaryzacji przedsionków mięśnia sercowego?

A. R
B. Q
C. P
D. T
W zapisie EKG bardzo łatwo pomylić poszczególne załamki, zwłaszcza na początku nauki. Typowy błąd polega na kojarzeniu każdego wyraźnego załamka z „jakimś skurczem serca”, bez dokładnego rozróżniania, która część mięśnia sercowego jest pobudzana. Depolaryzacja przedsionków dotyczy wyłącznie załamka P, natomiast pozostałe załamki – T, Q, R – odnoszą się już do zjawisk w obrębie komór. Jeśli ktoś wybiera załamek T, zwykle myli pojęcia depolaryzacji i repolaryzacji. Załamek T odzwierciedla repolaryzację komór, czyli powrót komórek mięśnia komór do stanu spoczynkowego po skurczu. To jest końcowa faza cyklu komorowego, a nie początek pobudzenia. Klinicznie ocena załamka T jest ważna np. w niedokrwieniu, zaburzeniach elektrolitowych czy działaniach niepożądanych leków, ale nie ma związku z depolaryzacją przedsionków. Z kolei załamki Q i R wchodzą w skład zespołu QRS, który jako całość opisuje depolaryzację komór. Załamek Q jest zwykle pierwszym ujemnym wychyleniem przed dodatnim R i odzwierciedla wczesną fazę pobudzenia przegrody międzykomorowej. Załamek R to główny dodatni komponent zespołu QRS, związany z rozprzestrzenianiem się fali depolaryzacji przez masę mięśnia komór. W praktyce diagnostycznej to właśnie kształt i szerokość zespołu QRS, a nie załamek P, wykorzystuje się do oceny bloków odnóg pęczka Hisa czy komorowych zaburzeń rytmu. Błąd myślowy polega często na tym, że skoro załamki Q, R i T są „większe”, to wydają się ważniejsze i automatycznie przypisuje im się rolę w inicjacji pobudzenia. Tymczasem przedsionki mają dużo mniejszą masę mięśniową niż komory, więc ich aktywność elektryczna generuje mniejszy załamek – właśnie P. Standardy opisowe EKG jasno wskazują: P = depolaryzacja przedsionków, QRS = depolaryzacja komór, T = repolaryzacja komór. Jeśli ten schemat się dobrze utrwali, interpretacja EKG staje się dużo prostsza i bardziej logiczna.

Pytanie 5

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 100-150 MeV
B. 4-25 MeV
C. 1-3 MeV
D. 0,1-0,3 MeV
Prawidłowy zakres 4–25 MeV bardzo dobrze pasuje do typowego medycznego przyspieszacza liniowego używanego w radioterapii zdalnej (teleterapii). W linaku medycznym przyspiesza się elektrony do energii rzędu kilku–kilkunastu MeV, a następnie kieruje je na tarczę wolframową. W wyniku hamowania elektronów w materiale tarczy powstaje promieniowanie hamowania (bremsstrahlung) – właśnie wiązka fotonów o energii maksymalnej zbliżonej do energii elektronów, czyli np. 6 MV, 10 MV, 15 MV itd. W praktyce klinicznej stosuje się najczęściej energie fotonów 4–6 MV dla płycej położonych zmian i 10–18 MV dla głębiej leżących guzów, żeby uzyskać odpowiedni rozkład dawki w tkankach, tzw. efekt build-up i oszczędzić skórę. Moim zdaniem warto zapamiętać, że te energie są dużo wyższe niż w diagnostyce obrazowej, bo tu już mówimy o dawkach terapeutycznych, a nie tylko o tworzeniu obrazu. W planowaniu radioterapii fizyk medyczny dobiera energię fotonów właśnie z tego przedziału, uwzględniając głębokość guza, gęstość tkanek po drodze i wymagania dotyczące ochrony narządów krytycznych. Standardy radioterapii (np. IAEA, ESTRO) opisują linaki z energiami fotonów typowo 4–25 MV jako złoty standard w nowoczesnej teleterapii. Warto też pamiętać, że ta energia fotonów przekłada się na wymagania osłonowe bunkra – ściany z betonu mają zwykle kilkadziesiąt cm grubości, właśnie dlatego, że pracujemy w zakresie kilku–kilkudziesięciu MeV. W praktyce technika radioterapii to jest Twój chleb powszedni: dobór odpowiedniego pola, kolimatora MLC, weryfikacja ustawienia pacjenta – wszystko to zakłada, że wiązka fotonowa ma energię z tego zakresu i tak jest też opisywana w planie leczenia i w dokumentacji dawki.

Pytanie 6

W pozytonowej tomografii emisyjnej PET zostaje zarejestrowane promieniowanie powstające podczas

A. anihilacji pary elektron-pozyton.
B. rozpraszania comptonowskiego.
C. rozpraszania culombowskiego.
D. anihilacji pary proton-antyproton.
W pozytonowej tomografii emisyjnej (PET) kluczowym zjawiskiem fizycznym jest właśnie anihilacja pary elektron–pozyton. Radiofarmaceutyk podany pacjentowi emituje pozytony, czyli antycząstki elektronów. Pozyton w tkankach bardzo szybko traci energię kinetyczną, zderzając się z elektronami otoczenia, aż w końcu dochodzi do ich spotkania i anihilacji. W wyniku tej anihilacji powstają dwa fotony promieniowania gamma o energii 511 keV każdy, emitowane prawie dokładnie w przeciwnych kierunkach (pod kątem około 180°). To właśnie te dwa skorelowane fotony są rejestrowane w aparacie PET w trybie tzw. koincydencji. Z mojego doświadczenia to jest najważniejszy fizyczny „trik” PET-u: aparat nie widzi bezpośrednio pozytonu, tylko parę fotonów po anihilacji. Detektory ułożone dookoła pacjenta rejestrują jednoczesne (w bardzo krótkim oknie czasowym) uderzenia fotonów w przeciwległe kryształy scyntylacyjne. Na tej podstawie system rekonstruuje linię, wzdłuż której musiała zajść anihilacja, czyli tzw. line of response (LOR). Sumując miliony takich zdarzeń, komputer odtwarza rozkład radioaktywności w organizmie. W praktyce klinicznej, np. w onkologii, pozwala to ocenić metabolizm glukozy w guzach przy użyciu 18F-FDG albo wychwyt innych znaczników. Standardy pracowni medycyny nuklearnej (np. EANM) podkreślają znaczenie prawidłowego doboru radiofarmaceutyku i kalibracji systemu detekcji właśnie pod kątem rejestracji fotonów 511 keV i ich koincydencji. Moim zdaniem, jak dobrze zrozumiesz mechanizm anihilacji i rejestracji tych dwóch fotonów, dużo łatwiej ogarnąć później takie rzeczy jak korekcja osłabienia, rozpraszania czy artefakty w obrazach PET/CT.

Pytanie 7

Którą tętnicę zaznaczono strzałką na obrazie MR?

Ilustracja do pytania
A. Krezkową górną.
B. Nerkową lewą.
C. Śledzionową.
D. Krezkową dolną.
Na tym typie obrazu – jest to w praktyce MR-angiografia aorty brzusznej i jej głównych odgałęzień – kluczowe jest zrozumienie topografii naczyń względem aorty i nerek. Typowy błąd polega na patrzeniu tylko na to, że naczynie „jest w okolicy nerki” albo „idzie gdzieś w bok”, bez świadomego odniesienia do poziomu odejścia od aorty i kierunku przebiegu. Tętnica śledzionowa w ogóle nie odchodzi bezpośrednio z aorty, tylko jest jedną z gałęzi pnia trzewnego. Pień trzewny wychodzi z aorty wysoko, nad tętnicami nerkowymi, a następnie dzieli się na tętnicę żołądkową lewą, wątrobową wspólną i właśnie śledzionową. Ta ostatnia biegnie mocno kręto, w górnej części jamy brzusznej, nad lewą nerką i w kierunku wnęki śledziony. Na pokazanym obrazie naczynie wskazane strzałką wychodzi z aorty niżej, w osi około pępka, a jego przebieg jest stosunkowo prosty – to absolutnie nie pasuje do typowego obrazu tętnicy śledzionowej. Z kolei tętnice nerkowe wychodzą z bocznych ścian aorty, na poziomie wnęk nerek, biegnąc niemal horyzontalnie w kierunku miąższu nerek. Na zdjęciu obie te tętnice są widoczne i wyraźnie oddzielone od zaznaczonego naczynia, które odchodzi z przedniej ściany aorty, a nie z bocznej. Stąd nazwanie go lewą tętnicą nerkową wynika zwykle z patrzenia tylko na stronę ciała, bez analizy dokładnego poziomu i wektora odejścia. Tętnica krezkowa dolna natomiast odchodzi od aorty znacznie niżej, poniżej tętnic nerkowych, zwykle kilka centymetrów powyżej rozdwojenia aorty. Zaopatruje końcowy odcinek okrężnicy i odbytnicę, a na rekonstrukcjach naczyniowych widzimy ją jako stosunkowo cienkie naczynie wychodzące z przednio-lewej powierzchni aorty, dużo bardziej kaudalnie niż struktura zaznaczona na obrazie. Pomylenie jej z tętnicą krezkową górną to typowy błąd „na wysokość” – ktoś widzi naczynie z przodu aorty i od razu myśli: krezkowa, ale nie sprawdza odległości od pnia trzewnego i od tętnic nerkowych. Dobra praktyka w diagnostyce obrazowej wymaga zawsze analizowania kolejności odgałęzień aorty: najpierw pień trzewny, niżej tętnica krezkowa górna, potem tętnice nerkowe i dopiero jeszcze niżej tętnica krezkowa dolna. Świadome trzymanie się tej sekwencji bardzo ogranicza takie pomyłki i ułatwia poprawną identyfikację naczyń na MR, TK i klasycznej angiografii.

Pytanie 8

Na radiogramie czaszki strzałką zaznaczono

Ilustracja do pytania
A. gałąź żuchwy.
B. zachyłek jarzmowy.
C. część skalistą kości skroniowej.
D. zatokę szczękową.
Na zdjęciu RTG czaszki w projekcji czołowej strzałka wskazuje na część skalistą kości skroniowej. To jest ten bardzo gęsty, mocno zacieniony fragment kości położony bocznie i nieco ku dołowi od podstawy czaszki. Część skalista (pars petrosa) ma największą gęstość kostną w obrębie czaszki, dlatego na obrazie RTG jest wyraźnie bielsza niż otaczające struktury. W jej obrębie znajduje się m.in. przewód słuchowy wewnętrzny, kosteczki słuchowe i struktury ucha wewnętrznego – to kluczowy rejon w otologii i neurochirurgii. Moim zdaniem warto zapamiętać, że na klasycznych projekcjach czaszki właśnie ta część kości skroniowej „świeci” najmocniej, tworząc charakterystyczne zgrubienie przy podstawie. W praktyce technika obrazowania tego obszaru wymaga dobrego doboru parametrów ekspozycji, bo zbyt niskie kV spowoduje niedoświetlenie struktur głębiej położonych, a za wysokie – utratę kontrastu w zatokach czy oczodołach. W diagnostyce radiologicznej część skalista jest ważnym punktem orientacyjnym przy ocenie złamań podstawy czaszki, zmian nowotworowych w okolicy kąta mostowo-móżdżkowego czy zapaleń wyrostka sutkowatego. W TK wysokiej rozdzielczości ocenia się szczegółowo kanały kostne i pneumatykę wyrostka sutkowatego, ale podstawowa orientacja zaczyna się właśnie od umiejętności rozpoznania tej struktury na zwykłym RTG. Dobra praktyka jest taka, żeby zawsze „przelecieć wzrokiem” po obu kościach skroniowych symetrycznie – różnice w zarysie części skalistej lub jej zacienieniu mogą być pierwszym sygnałem patologii.

Pytanie 9

Którym skrótem w badaniu spirometrycznym oznaczana jest pojemność życiowa płuc?

A. TLC
B. FRC
C. IC
D. VC
W spirometrii bardzo łatwo się pomylić, bo większość skrótów wygląda podobnie i wszystkie odnoszą się do różnych objętości lub pojemności płuc. Dlatego wiele osób automatycznie sięga po TLC, FRC czy IC, bo kojarzą im się z „pojemnością” albo „całkowitą objętością płuc”. Problem w tym, że klasyczna spirometria mierzy tylko te objętości, które pacjent może świadomie wciągnąć lub wydmuchać, a nie wszystko, co faktycznie znajduje się w płucach. TLC, czyli total lung capacity, to całkowita pojemność płuc – obejmuje ona nie tylko powietrze możliwe do wydmuchania, ale też objętość zalegającą, której spirometr nie jest w stanie bezpośrednio zmierzyć. Do oceny TLC używa się metod pletyzmografii ciała lub technik gazowych, a nie zwykłej spirometrii przybiurkowej. Dlatego TLC nie może być prawidłową odpowiedzią na pytanie o skrót oznaczający pojemność życiową w klasycznym badaniu spirometrycznym. FRC, czyli functional residual capacity, to czynnościowa pojemność zalegająca – objętość powietrza pozostająca w płucach po spokojnym wydechu. Ona również zawiera w sobie komponentu, której spirometr nie rejestruje (objętość zalegająca RV), więc FRC też nie jest parametrem bezpośrednio mierzonym w standardowej spirometrii, tylko raczej w badaniach bardziej zaawansowanych. Typowym błędem myślowym jest tu utożsamianie „pojemności” z „pojemnością życiową”, podczas gdy w fizjologii układu oddechowego każda z pojemności ma ściśle zdefiniowane granice objętości. IC, czyli inspiratory capacity, to pojemność wdechowa, a więc ilość powietrza, jaką można wciągnąć od poziomu spokojnego wydechu (FRC) do maksymalnego wdechu. To też nie jest pojemność życiowa, tylko jej fragment – dokładnie ta część, która dotyczy wdechu. W spirometrii pojemność życiowa (VC) obejmuje zarówno komponent wdechowy, jak i wydechowy, czyli cały zakres między maksymalnym wdechem a maksymalnym wydechem. Moim zdaniem najczęściej błąd wynika z tego, że ktoś pamięta ogólnie „pojemność = capacity”, ale nie kojarzy, że skrót VC jest tu specyficzny dla vital capacity. Dobra praktyka w pracowni to zawsze łączyć skrót z pełną nazwą i prostą definicją, wtedy łatwiej uniknąć takich pomyłek i poprawnie interpretować wyniki badania spirometrycznego.

Pytanie 10

Osłony na gonady dla osób dorosłych powinny posiadać równoważnik osłabienia promieniowania nie mniejszy niż

A. 0,50 mm Pb
B. 0,35 mm Pb
C. 1,00 mm Pb
D. 0,75 mm Pb
W tym zadaniu łatwo się pomylić, bo wszystkie podane wartości wyglądają „sensownie”, a różnice w milimetrach ołowiu wydają się małe. W ochronie radiologicznej te ułamki milimetra robią jednak dużą różnicę, zwłaszcza przy strukturach tak wrażliwych jak gonady. Cieńsze osłony, takie jak 0,75 mm Pb, 0,50 mm Pb czy 0,35 mm Pb, oczywiście też osłabiają promieniowanie, ale nie spełniają zalecanego minimum dla osób dorosłych, jeżeli mówimy konkretnie o ochronie gonad podczas badań rentgenowskich. To nie jest kwestia „trochę gorzej, ale też ok”, tylko niespełnienia przyjętych standardów. W praktyce 0,35–0,50 mm Pb spotyka się często w fartuchach ochronnych dla personelu, w osłonach tarczycy albo w okularach ochronnych. Tam chodzi głównie o ograniczenie dawki rozproszonej, a nie o ochronę narządu krytycznego znajdującego się blisko głównej wiązki promieniowania. Dla gonad sytuacja jest inna: są one zwykle stosunkowo blisko obszaru naświetlanego, a dawka może być znacznie wyższa niż dawka rozproszona w innych częściach ciała. Dlatego wymaga się większego równoważnika ołowiu. Typowym błędem myślowym jest przenoszenie parametrów z jednego rodzaju osłon na inny, np. ktoś pamięta, że „0,5 mm Pb to standardowy fartuch” i zakłada, że to też wystarczy na gonady. Albo ktoś kieruje się wygodą pacjenta – cieńsza osłona jest lżejsza, więc wydaje się lepsza – ale tu priorytetem jest skuteczność osłabienia promieniowania, a nie tylko komfort. Cieńsze osłony mogą być stosowane u dzieci w innych konfiguracjach, ale pytanie dotyczy wyraźnie osób dorosłych i konkretnie osłon gonad. Z punktu widzenia zasad ALARA i dobrych praktyk pracowni rentgenowskiej wybór wartości poniżej 1,00 mm Pb jest po prostu zbyt dużym kompromisem kosztem bezpieczeństwa. Dlatego, jeśli w testach pojawiają się różne grubości, warto od razu kojarzyć: gonady dorosłych – minimum 1,00 mm Pb, a niższe wartości traktować raczej jako typowe dla innych rodzajów ochron osobistych, a nie jako standard dla tej szczególnej okolicy anatomicznej.

Pytanie 11

Które ciało obce w obszarze badania nie stanowi przeciwwskazania do wykonania MR?

A. Wszczepiony rozrusznik serca.
B. Metalowy opiłek w oku.
C. Wszczepiony stymulator układu nerwowego.
D. Tytanowa endoproteza stawu biodrowego.
Poprawnie wskazana została tytanowa endoproteza stawu biodrowego jako ciało obce, które co do zasady nie stanowi przeciwwskazania do badania rezonansem magnetycznym. Tytan jest materiałem niemagnetycznym, ma bardzo niską podatność magnetyczną i dlatego nie jest przyciągany przez silne pole magnetyczne skanera MR. W praktyce klinicznej większość współczesnych endoprotez stawowych, śrub kostnych, płytek czy gwoździ śródszpikowych wykonanych z tytanu lub stopów tytanu jest oznaczona jako MR-safe lub MR-conditional zgodnie z zaleceniami producenta i normami (m.in. ASTM). Oznacza to, że badanie MR może być wykonane bezpiecznie, często przy zachowaniu pewnych warunków, np. maksymalne natężenie pola 1,5 T albo 3 T, określone ograniczenia SAR (współczynnik pochłaniania energii), brak określonych sekwencji silnie nagrzewających. W codziennej pracy technika i lekarza radiologa ważne jest, by zawsze sprawdzić dokumentację implantu lub kartę implantu pacjenta, ale sam fakt posiadania tytanowej endoprotezy biodra nie powinien automatycznie dyskwalifikować z badania MR. Trzeba też pamiętać o artefaktach – metal, nawet niemagnetyczny, powoduje zniekształcenia obrazu, szczególnie w sekwencjach gradientowych, więc przy planowaniu badania okolicy miednicy trzeba dobrać parametry tak, aby ograniczyć artefakty (np. sekwencje z mniejszą podatnością na zniekształcenia, zmiana kierunku fazy, szersze pasmo odbioru). Moim zdaniem kluczowe w praktyce jest rozróżnienie między bezpieczeństwem pacjenta a jakością obrazu: tytanowa proteza zwykle jest bezpieczna, ale może pogorszyć czytelność obrazów w jej bezpośrednim sąsiedztwie. Dlatego w standardach dobrej praktyki zawsze łączymy wiedzę o materiale implantu z rozsądnym doborem protokołu MR.

Pytanie 12

Na obrazie RM uwidoczniono odcinek kręgosłupa

Ilustracja do pytania
A. L w przekroju czołowym.
B. Th w przekroju czołowym.
C. Th w przekroju strzałkowym.
D. L w przekroju strzałkowym.
Na przedstawionym obrazie RM widoczny jest odcinek lędźwiowy kręgosłupa (L) w przekroju strzałkowym, dlatego odpowiedź „L w przekroju strzałkowym” jest prawidłowa. Świadczy o tym kilka charakterystycznych cech. Po pierwsze, kształt trzonów kręgowych i wysokość przestrzeni międzykręgowych odpowiada typowemu obrazowi kręgosłupa lędźwiowego: masywne trzony, brak żeber, szeroki kanał kręgowy z widocznym ogonem końskim. W odcinku piersiowym zawsze widać przyczepy żeber i bardziej klinowaty kształt trzonów, tutaj tego nie ma, więc logika podpowiada, że to L. Po drugie, przekrój strzałkowy rozpoznajemy po tym, że oglądamy kręgosłup „z boku”: widać ułożone jeden nad drugim trzony, krążki międzykręgowe jako „placki” między nimi, ciągły przebieg kanału kręgowego i worka oponowego. W przekroju czołowym (koronalnym) obraz wygląda jak „od przodu lub od tyłu” – kręgi układają się bardziej jak kolumny po obu stronach, a kanał kręgowy jest między nimi centralnie. W praktyce technik obrazowania musi szybko odróżniać płaszczyzny skanowania, bo od tego zależy poprawna interpretacja np. dyskopatii, stenoz kanału czy zmian pourazowych. W badaniach MRI kręgosłupa standardem jest zestaw sekwencji T1 i T2 w płaszczyźnie strzałkowej oraz dodatkowe przekroje poprzeczne na wybranych poziomach – dokładnie tak, jak sugeruje ten obraz. Moim zdaniem warto przyzwyczaić się do „kluczy” anatomicznych: brak żeber = L, widoczne żebra = Th, szeroki worek oponowy z ogonem końskim = odcinek lędźwiowy/stożek rdzeniowy. To bardzo ułatwia codzienną pracę przy konsoli i późniejszą analizę obrazów w systemie PACS.

Pytanie 13

Elementem systemu rejestracji obrazu, w którym fotony promieniowania X są bezpośrednio konwertowane na sygnał elektryczny, jest

A. płyta luminoforowa.
B. detektor z amorficznym selenem.
C. błona halogenosrebrowa.
D. detektor z jodkiem cezu.
W tym pytaniu bardzo łatwo dać się złapać na skojarzenie, że każdy nowoczesny detektor cyfrowy „konwertuje promieniowanie X na sygnał elektryczny”, więc każda z opcji brzmi trochę sensownie. Klucz leży jednak w słowie „bezpośrednio”. W systemach bezpośrednich fotony promieniowania X wnikają w warstwę półprzewodnika i tam od razu generują ładunek elektryczny. W systemach pośrednich jest etap światła pośredniego – promieniowanie X najpierw zamieniane jest na fotony widzialne w luminoforze, a dopiero to światło przetwarzane jest na sygnał elektryczny w fotodiodach. Płyta luminoforowa, znana z radiografii pośredniej (CR), jest typowym przykładem detekcji pośredniej. Promieniowanie X wzbudza centra pułapkowe w fosforze, a obraz jest „zapisany” w postaci energii uwięzionej. Dopiero później laser w czytniku CR wzbudza płytę, ta emituje światło, które fotopowielacz zamienia na sygnał elektryczny. Mamy więc kilka kroków, żadnego bezpośredniego przejścia X → ładunek. Detektor z jodkiem cezu (CsI) również nie jest układem bezpośrednim. CsI działa jak scyntylator: promieniowanie X jest pochłaniane i emitowane jest światło widzialne, które dopiero w kolejnym etapie pada na matrycę fotodiod (najczęściej z amorficznego krzemu) i tam dopiero powstaje sygnał elektryczny. Tego typu panele są bardzo popularne w radiografii przyłóżkowej i w aparatach stacjonarnych, ale to nadal jest detekcja pośrednia. Błona halogenosrebrowa w klasycznej radiografii analogowej też nie spełnia warunku bezpośredniej konwersji na sygnał elektryczny. Tam promieniowanie X (lub światło z ekranu wzmacniającego) powoduje zmiany fotochemiczne w kryształkach halogenków srebra. Obraz staje się widoczny dopiero po procesie chemicznym wywoływania i utrwalania, a nie jest w ogóle sygnałem elektrycznym. To już w ogóle zupełnie inny świat technologiczny. Typowy błąd myślowy polega na tym, że skoro na końcu zawsze mamy cyfrowy obraz, to wydaje się, że każdy element „jakimś cudem” działa elektrycznie. W rzeczywistości tylko detektor z amorficznym selenem w tym zestawie robi bezpośrednią konwersję promieniowania X na ładunek elektryczny, bez etapu światła ani procesów chemicznych. Dlatego właśnie ta odpowiedź jest jedyna zgodna z fizyką działania nowoczesnych detektorów bezpośrednich.

Pytanie 14

Która struktura może być oknem akustycznym w badaniu ultrasonograficznym?

A. Złóg w pęcherzyku żółciowym.
B. Przestrzeń międzyżebrowa.
C. Wypełnione gazami jelito cienkie.
D. Wypełniony płynem pęcherz moczowy.
W ultrasonografii pojęcie okna akustycznego jest kluczowe dla jakości obrazu i komfortu badania. Chodzi o taką strukturę lub obszar w ciele, który dobrze przewodzi fale ultradźwiękowe, nie pochłania ich nadmiernie i nie powoduje silnych odbić czy rozproszenia. Najlepszym środowiskiem do tego jest jednorodny płyn, dlatego to właśnie wypełniony płynem pęcherz moczowy stanowi modelowe okno akustyczne w badaniach miednicy mniejszej. Pozostałe odpowiedzi kuszą, bo brzmią logicznie, ale fizycznie zachowują się zupełnie inaczej. Przestrzeń międzyżebrowa bywa wykorzystywana do badania serca czy wątroby, jednak sama w sobie nie jest idealnym oknem. Problemem są żebra – kość bardzo silnie odbija ultradźwięki i powoduje zacienienie akustyczne za sobą. Z doświadczenia wiadomo, że operator musi „manewrować” głowicą między żebrami, żeby ominąć przeszkodę kostną, a nie korzysta z niej jak z dobrego ośrodka przewodzenia fal. To raczej kompromis niż wzorcowe okno. Jeszcze mniej przydatne jest jelito cienkie wypełnione gazem. Gaz w USG to wróg numer jeden: ma ogromną różnicę impedancji akustycznej względem tkanek miękkich, przez co większość fali odbija się na granicy gaz–tkanka. Powstaje silne odbicie powierzchowne, za którym obraz głębiej położonych struktur jest praktycznie niewidoczny. To właśnie dlatego w standardach przygotowania pacjenta do USG jamy brzusznej wymaga się bycia na czczo i ograniczenia wzdęć – chodzi o redukcję gazu w przewodzie pokarmowym. Złóg w pęcherzyku żółciowym również nie może być oknem akustycznym. Kamień jest strukturą bardzo echogeniczną, tworzy wyraźne echo i typowy cień akustyczny za sobą. Ten cień bywa diagnostycznie przydatny do rozpoznawania kamicy, ale kompletnie uniemożliwia zobrazowanie tego, co leży za złogiem. Typowym błędem myślowym jest utożsamianie „dobrze widocznej struktury” z „dobrym oknem akustycznym”. Tymczasem okno to coś, przez co patrzymy dalej, a nie tylko dobrze widzimy samą strukturę. Dobra praktyka w USG polega na świadomym wykorzystaniu płynu jako sprzymierzeńca i unikaniu gazu oraz kości jako barier dla ultradźwięków.

Pytanie 15

Droga przewodnictwa powietrznego fali akustycznej przebiega przez

A. ucho zewnętrzne, ucho środkowe i ucho wewnętrzne.
B. ucho środkowe, ucho wewnętrzne i kości czaszki.
C. ucho zewnętrzne, ucho środkowe i kości czaszki.
D. ucho wewnętrzne i kości czaszki.
Prawidłowo wskazana droga przewodnictwa powietrznego obejmuje ucho zewnętrzne, ucho środkowe i ucho wewnętrzne. Tak właśnie fizjologicznie przebiega fala akustyczna, kiedy mówimy o tzw. przewodnictwie powietrznym, które bada się m.in. w klasycznej audiometrii tonalnej. Dźwięk najpierw wchodzi przez małżowinę uszną i przewód słuchowy zewnętrzny, gdzie jest kierowany w stronę błony bębenkowej. To jest rola ucha zewnętrznego – zbieranie i ukierunkowanie fali akustycznej. Następnie drgania przenoszone są na układ kosteczek słuchowych w uchu środkowym (młoteczek, kowadełko, strzemiączko). Ten układ działa jak swoista dźwignia i transformator impedancji – wzmacnia i dopasowuje drgania z powietrza do środowiska płynowego w uchu wewnętrznym. To dopasowanie jest kluczowe, bo bez sprawnego ucha środkowego większość energii dźwięku odbijałaby się na granicy powietrze–płyn. Ostatecznie fala mechaniczna dociera do ślimaka w uchu wewnętrznym, gdzie następuje przetworzenie drgań mechanicznych na impulsy nerwowe w narządzie Cortiego. Z punktu widzenia praktyki medycznej, zwłaszcza w diagnostyce elektromedycznej, rozróżnienie przewodnictwa powietrznego od kostnego jest podstawą interpretacji audiogramu i prób stroikowych (Rinne, Weber). Jeżeli przewodnictwo powietrzne jest gorsze od kostnego, sugeruje to uszkodzenie na poziomie ucha zewnętrznego lub środkowego (tzw. niedosłuch przewodzeniowy). Natomiast gdy upośledzone jest zarówno przewodnictwo powietrzne, jak i kostne, myślimy o uszkodzeniu ucha wewnętrznego lub dalszych odcinków drogi słuchowej (niedosłuch odbiorczy). Moim zdaniem warto kojarzyć to pytanie właśnie z praktyką badania audiometrii: słuchawki na uszach badają przewodnictwo powietrzne, a wibrator kostny za małżowiną – przewodnictwo kostne, które omija ucho zewnętrzne i środkowe.

Pytanie 16

Wynik badania słuchu metodą audiometrii tonalnej wskazuje na

Ilustracja do pytania
A. uraz akustyczny.
B. słuch w granicach normy.
C. starzenie się narządu słuchu.
D. niedosłuch uwarunkowany genetycznie.
Na przedstawionym audiogramie tonalnym widać bardzo charakterystyczny obraz: słuch w niskich i średnich częstotliwościach jest w zasadzie prawidłowy lub tylko lekko obniżony, natomiast w okolicy 4–6 kHz pojawia się wyraźny, głęboki dołek progów słyszenia. Ten tzw. „notch” w wysokich częstotliwościach jest klasycznym obrazem urazu akustycznego, czyli uszkodzenia narządu Cortiego spowodowanego hałasem o dużym natężeniu. Moim zdaniem, jak się raz to zobaczy na wykresie, to później już trudno pomylić z czymś innym. W praktyce zawodowej, szczególnie w medycynie pracy i w diagnostyce laryngologicznej, taki kształt audiogramu kojarzy się przede wszystkim z narażeniem na hałas impulsowy (wystrzał, petarda, prasa mimośrodowa) albo przewlekły hałas przemysłowy bez odpowiedniej ochrony słuchu. Standardy audiologiczne (zarówno krajowe, jak i np. zalecenia WHO czy OSHA) podkreślają, że pierwsze uszkodzenie od hałasu ujawnia się właśnie w zakresie 3–6 kHz, najczęściej z maksimum około 4 kHz, przy zachowanej w miarę dobrej słyszalności w częstotliwościach mowy (0,5–2 kHz). Dlatego pacjent może jeszcze całkiem nieźle rozumieć mowę w cichym otoczeniu, ale zaczyna mieć problemy w hałasie, skarży się na szumy uszne, dyskomfort przy głośnych dźwiękach. W dobrze prowadzonej praktyce diagnostycznej taki wynik zawsze trzeba połączyć z dokładnym wywiadem: praca w hałasie, strzelectwo, koncerty, słuchawki na uszach, brak stosowania ochronników słuchu. W badaniach okresowych pracowników wynik z typowym dołkiem 4 kHz jest sygnałem, że trzeba pilnie zweryfikować warunki akustyczne stanowiska, stosowanie ochronników i ewentualnie zmodyfikować narażenie. Dobrą praktyką jest też kontrolne powtórzenie audiometrii po okresie unikania hałasu, ale prawdziwy uraz akustyczny niestety jest zmianą trwałą, co warto mieć w głowie przy omawianiu wyniku z pacjentem.

Pytanie 17

Koronarografia jest radiologicznym zabiegiem diagnostycznym pozwalającym ocenić drożność

A. tętnic obwodowych.
B. tętnic wieńcowych.
C. żył obwodowych.
D. żył wieńcowych.
Koronarografia bywa mylona z różnymi innymi badaniami naczyń, co jest dość zrozumiałe, bo wszędzie przewija się kontrast, promieniowanie rentgenowskie i cewnik. Jednak istotą tego badania jest bardzo konkretna rzecz: ocena tętnic wieńcowych, czyli naczyń tętniczych doprowadzających krew do mięśnia sercowego. Nie dotyczy to ani żył wieńcowych, ani żył czy tętnic obwodowych. Żyły wieńcowe odprowadzają krew z mięśnia sercowego do prawego przedsionka i w rutynowej diagnostyce choroby wieńcowej nie wykonuje się klasycznej „koronarografii żylnej”. Układ żylny serca można uwidocznić w określonych, dość specjalistycznych sytuacjach, np. przy planowaniu zabiegów elektroterapii (resynchronizacja, stymulator) czy w niektórych procedurach elektrofizjologicznych, ale nie jest to to samo badanie, o którym mowa w pytaniu testowym. Podobnie żyły obwodowe – jeśli chcemy ocenić ich drożność, stosuje się flebografię, USG Doppler żylny, ewentualnie inne techniki obrazowe, ale nie nazywamy tego koronarografią, bo nie dotyczy naczyń wieńcowych. Tętnice obwodowe (np. kończyn dolnych, tętnice nerkowe, szyjne) ocenia się w tzw. angiografii obwodowej, czasem z użyciem podobnego sprzętu jak w pracowni hemodynamicznej, jednak nazewnictwo jest tu dość precyzyjne i w dobrych praktykach warto je rozróżniać. Typowy błąd myślowy polega na tym, że ktoś kojarzy: jest kontrast + promieniowanie + naczynia = to na pewno jakaś „koronarografia”. A tak nie jest. Przedrostek „korona-” odnosi się do naczyń otaczających serce jak korona, czyli właśnie tętnic wieńcowych. Z mojego doświadczenia porządkowanie tego słownictwa bardzo pomaga potem w nauce: koronarografia – tętnice wieńcowe, angiografia obwodowa – tętnice kończyn, flebografia – żyły, a dla żył wieńcowych stosuje się raczej wąsko wyspecjalizowane techniki, ale nie jest to standardowe badanie w chorobie wieńcowej. Dlatego odpowiedzi o żyłach (wieńcowych lub obwodowych) czy tętnicach obwodowych są merytorycznie niezgodne z definicją i zakresem koronarografii.

Pytanie 18

Obrazy MR kręgosłupa szyjnego przedstawiają etap planowania badania warstw

Ilustracja do pytania
A. skośnych.
B. strzałkowych.
C. czołowych.
D. osiowych.
W tym zadaniu łatwo się pomylić, bo na ekranie do planowania badań MR zwykle widzimy kilka płaszczyzn naraz i sporo linii cięcia, które wyglądają podobnie. Wiele osób automatycznie kojarzy takie poziome linie z warstwami osiowymi, bo w tomografii komputerowej to właśnie obrazy poprzeczne są najbardziej klasyczne. W rezonansie magnetycznym kręgosłupa szyjnego schemat pracy jest jednak trochę inny: osiowe przekroje są oczywiście wykonywane, ale standardowe, kluczowe sekwencje planuje się najpierw w płaszczyznach strzałkowej i czołowej. Odpowiedź sugerująca warstwy skośne wynika zwykle z obserwacji, że linie na podglądzie nie są idealnie poziome względem ekranu. To jednak nie oznacza, że mamy do czynienia z płaszczyzną skośną w sensie klinicznym. W MR bardzo często ustawiamy płaszczyzny anatomicznie, czyli równolegle do osi długiej kręgosłupa, trzonów kręgów czy krążków międzykręgowych. Na monitorze wygląda to jak lekkie nachylenie, ale w nomenklaturze nadal jest to płaszczyzna czołowa, tylko dostosowana do naturalnej krzywizny szyi. Pojawia się też czasem skojarzenie ze strzałkowymi, bo użytkownik patrzy na obraz, na którym widoczny jest profil kręgosłupa i linie przecinające go z boku. Trzeba jednak pamiętać, że planowanie warstw odbywa się zazwyczaj na dwóch obrazach referencyjnych jednocześnie: na przykład na strzałkowym ustawiamy zakres góra–dół i kąt, a na osiowym albo czołowym – ich rozkład w poprzek. To może mylić i sugerować inną płaszczyznę niż w rzeczywistości. W poprawnym rozumieniu tematu kluczowe jest odwołanie się do definicji: warstwy osiowe są prostopadłe do długiej osi kręgosłupa, warstwy strzałkowe biegną równolegle do niej z podziałem na lewo–prawo, a warstwy czołowe dzielą ciało na część przednią i tylną. Na prezentowanych obrazach celem jest właśnie taki podział, co wskazuje na płaszczyznę czołową. Typowym błędem myślowym jest patrzenie tylko na orientację linii względem ekranu, a nie względem anatomii pacjenta – w praktyce MR zawsze liczy się ta druga perspektywa.

Pytanie 19

Która składowa prawidłowej krzywej EKG odpowiada powolnej repolaryzacji komór mięśnia sercowego?

A. Załamek Q
B. Załamek P
C. Odcinek ST
D. Odcinek TP
W tym pytaniu łatwo się pomylić, bo wiele osób intuicyjnie próbuje przyporządkować różne fragmenty EKG do „jakiejś repolaryzacji” bez przypomnienia sobie pełnego przebiegu potencjału czynnościowego kardiomiocytów. Trzeba zacząć od podstaw: załamek P to zapis depolaryzacji przedsionków, czyli pobudzenia elektrycznego rozchodzącego się przez mięsień przedsionków. W tym momencie komory jeszcze nie biorą udziału w cyklu elektrycznym, więc nie ma mowy, żeby załamek P odpowiadał jakiejkolwiek repolaryzacji komór. To po prostu inny etap pracy serca. Podobna pułapka dotyczy załamka Q. Jest on elementem zespołu QRS i odzwierciedla początkową fazę depolaryzacji komór, najczęściej przegrody międzykomorowej. Cały zespół QRS, niezależnie od szczegółowego kształtu, opisuje szybkie rozprzestrzenianie się pobudzenia w mięśniu komór. To faza szybkiego napływu jonów sodu (Na+) do wnętrza komórek, czyli faza 0 potencjału czynnościowego. Czyli znowu – mamy do czynienia z procesem depolaryzacji, a nie repolaryzacji. Mylenie QRS z repolaryzacją wynika często z tego, że jest to najbardziej „widoczny” element zapisu, ale fizjologicznie pełni zupełnie inną rolę. Odcinek TP bywa traktowany jako „czas spoczynku” serca. W praktyce to odstęp między końcem repolaryzacji komór (koniec załamka T) a początkiem kolejnej depolaryzacji przedsionków (początek załamka P). Ten fragment odpowiada fazie rozkurczu elektrycznego, okresowi diastolicznemu, kiedy mięsień jest w stanie spoczynku elektrycznego i przygotowuje się do kolejnego cyklu. Nie zachodzi tu powolna repolaryzacja komór – ona już się zakończyła. Repolaryzacja komór ma dwie główne „twarze” w EKG. Faza powolna, tzw. plateau, odpowiada właśnie odcinkowi ST i jest kluczowa dla oceny niedokrwienia mięśnia sercowego. Natomiast końcowa, szybsza część repolaryzacji komór odzwierciedla się w załamku T. Typowy błąd myślowy polega na tym, że ktoś skojarzy repolaryzację tylko z załamkiem T i zapomina, że proces jest rozciągnięty w czasie i zaczyna już w trakcie odcinka ST. Z punktu widzenia praktyki diagnostycznej to rozróżnienie jest bardzo ważne: zmiany w odcinku ST (uniesienia, obniżenia, poziome lub skośne) są jednym z głównych kryteriów ostrych stanów wieńcowych według standardów ESC, natomiast zmiany w załamku T często mówią bardziej o przebytych, przewlekłych lub mniej ostrych zaburzeniach. Dlatego warto utrwalić sobie, że jeśli mówimy o powolnej repolaryzacji komór na EKG, to wskazujemy na odcinek ST, a nie na załamek P, Q czy odcinek TP.

Pytanie 20

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Filtracja [mm Al].
B. Iloczyn natężenia promieniowania i czasu [mAs].
C. Odległość źródła promieniowania od detektora [cm].
D. Napięcie na lampie [kV].
Kontrast obrazu rentgenowskiego bardzo często jest mylony z ogólną „jakością” albo jasnością zdjęcia i stąd biorą się błędne skojarzenia z innymi parametrami ekspozycji. Filtracja w milimetrach aluminium jest ważnym elementem aparatu RTG, ale jej głównym celem jest odfiltrowanie miękkich, mało energetycznych fotonów, które zwiększają dawkę skórną, a niewiele wnoszą do obrazu. Zwiększenie filtracji rzeczywiście trochę „utwardza” wiązkę, ale w praktyce klinicznej nie jest to podstawowe narzędzie do sterowania kontrastem, tylko raczej do poprawy bezpieczeństwa i ujednolicenia widma promieniowania zgodnie z wymaganiami ochrony radiologicznej i normami jakościowymi. Iloczyn natężenia promieniowania i czasu, czyli mAs, odpowiada głównie za całkowitą ilość fotonów padających na detektor. Zwiększenie mAs powoduje, że obraz jest mniej zaszumiony i „gęstszy”, ale nie zmienia istotnie relacji pochłaniania między tkankami, więc nie ma decydującego wpływu na kontrast. Typowym błędem jest myślenie: więcej mAs = „mocniejsze” promieniowanie = większy kontrast. W rzeczywistości to jest bardziej kwestia ekspozycji i dawki, a nie różnic tonalnych między strukturami. Z kolei odległość źródło–detektor (SID) wpływa na natężenie promieniowania na detektorze zgodnie z prawem odwrotności kwadratu odległości. Zmiana SID zmienia więc ekspozycję i ostrość geometryczną (wielkość powiększenia, rozmycia), ale nie selektywnie kontrast między tkankami. Można mieć wrażenie, że przy innej odległości obraz wygląda trochę inaczej, jednak w profesjonalnych warunkach różnice te kompensuje się odpowiednią zmianą mAs. Kluczowy błąd myślowy przy tym pytaniu polega na utożsamianiu każdego parametru technicznego z kontrastem, podczas gdy mechanizm jest bardzo konkretny: kontrast w klasycznym RTG zależy przede wszystkim od energii fotonów, czyli od napięcia na lampie, które decyduje o tym, jak silne są różnice w pochłanianiu promieniowania przez tkanki o różnej gęstości i składzie chemicznym. Pozostałe parametry są ważne, ale z innych powodów – ekspozycji, dawki, ostrości czy bezpieczeństwa, a nie jako podstawowe narzędzie do sterowania kontrastem.

Pytanie 21

Zdjęcie którego zęba górnego zlecił na skierowaniu lekarz stomatolog?

Ilustracja do pytania
A. Lewego trzonowego pierwszego.
B. Lewego przedtrzonowego drugiego.
C. Prawego trzonowego pierwszego.
D. Prawego przedtrzonowego drugiego.
W tym zadaniu kluczowe jest prawidłowe odczytanie prostego, ale podchwytliwego schematu zębowego. Na rysunku mamy krzyż – pozioma linia symbolizuje podział na łuk górny i dolny, pionowa linia – na stronę prawą i lewą pacjenta. Cyfra „6” znajduje się w górnym lewym polu tego schematu, czyli oznacza ząb w szczęce, po stronie lewej pacjenta. Typowym błędem jest patrzenie na schemat „jak w lustrze”, z perspektywy osoby opisującej, a nie pacjenta. To prowadzi do pomylenia prawej i lewej strony i wyboru odpowiedzi z prawego łuku, mimo że lekarz zlecił badanie zęba lewego. Podobnie część osób skupia się tylko na numerze zęba – „6” – i kojarzy ją z pierwszym trzonowcem, ale już nie rozróżnia, czy chodzi o ząb górny czy dolny oraz po której stronie. W efekcie powstają błędne interpretacje typu: przedtrzonowiec zamiast trzonowca albo łuk dolny zamiast górnego. W standardach stomatologicznych przyjmuje się konsekwentnie perspektywę pacjenta – lewa strona pacjenta to lewa strona schematu, niezależnie od tego, z której strony patrzy operator aparatu. W diagnostyce obrazowej jest to zresztą zasada ogólna: myślimy w kategoriach anatomicznych pacjenta, nie własnego ustawienia przy aparacie. Moim zdaniem warto wyrobić sobie nawyk: najpierw określam, czy ząb jest w szczęce czy w żuchwie (góra/dół schematu), potem dopiero prawa/lewa strona, a na końcu typ zęba – siekacz, kieł, przedtrzonowiec czy trzonowiec. Takie uporządkowanie myślenia bardzo pomaga uniknąć pomyłek, które w praktyce mogą skutkować wykonaniem zdjęcia nie tego zęba co trzeba, koniecznością powtórzenia badania i niepotrzebnym zwiększeniem dawki promieniowania.

Pytanie 22

W badaniu EKG odprowadzenie I rejestruje różnicę potencjałów między

A. prawym podudziem a lewym przedramieniem.
B. prawym a lewym przedramieniem.
C. prawym przedramieniem a lewym podudziem.
D. prawym a lewym podudziem.
Prawidłowo – w standardowym 12‑odprowadzeniowym EKG odprowadzenie I rejestruje różnicę potencjałów między prawym a lewym przedramieniem, czyli technicznie między elektrodą na prawym nadgarstku (RA – right arm) a elektrodą na lewym nadgarstku (LA – left arm). To jest tzw. odprowadzenie dwubiegunowe kończynowe wg Einthovena. Mówiąc prościej: aparat porównuje, jaki sygnał elektryczny dociera z prawej ręki, a jaki z lewej ręki i rysuje z tego linię w zapisie EKG. Z mojego doświadczenia to jedno z podstawowych pojęć, które warto mieć „w małym palcu”, bo potem łatwiej ogarnia się całą oś elektryczną serca. W praktyce klinicznej odprowadzenie I pokazuje aktywność elektryczną serca widzianą mniej więcej w płaszczyźnie czołowej, z kierunku lewej strony klatki piersiowej. To odprowadzenie jest szczególnie czułe np. na zmiany zlokalizowane bocznie w lewej komorze. Przy prawidłowym podłączeniu elektrod kompleks QRS w odprowadzeniu I jest zazwyczaj dodatni (większość wychyleń idzie do góry), bo fala depolaryzacji przemieszcza się generalnie w stronę lewej komory. Standardy (np. wytyczne ESC, AHA) bardzo mocno podkreślają prawidłowe rozmieszczenie elektrod: prawa ręka – prawa kończyna górna, lewa ręka – lewa kończyna górna, prawa i lewa noga – kończyny dolne, przy czym elektroda na prawej nodze pełni zwykle funkcję elektrody uziemiającej. W warunkach praktycznych w ambulatorium często nie zakłada się elektrod dokładnie na nadgarstkach, tylko wyżej na przedramionach, ale zasada pozostaje ta sama: odprowadzenie I to zawsze różnica potencjałów między prawą a lewą kończyną górną. Warto też pamiętać, że na podstawie odprowadzeń I, II i III można konstruować trójkąt Einthovena i analizować oś elektryczną serca – to już wyższy poziom interpretacji, ale bardzo przydatny w codziennej pracy.

Pytanie 23

Wskaż roczną dawkę graniczną dla osób zatrudnionych w warunkach narażenia na promieniowanie jonizujące.

A. 5 mSv
B. 20 mSv
C. 15 mSv
D. 30 mSv
Roczna dawka graniczna dla osób zawodowo narażonych na promieniowanie jonizujące nie jest wartością przypadkową, tylko wynikiem wieloletnich analiz epidemiologicznych, badań biologicznych i zaleceń ICRP oraz Euratom. Dlatego odpowiedzi typu 5 mSv czy 15 mSv odzwierciedlają raczej mylenie limitów zawodowych z limitami dla ludności ogólnej. Dla osób z ogółu populacji, które nie pracują przy źródłach promieniowania, obowiązuje typowy limit rzędu 1 mSv rocznie (z wyłączeniem dawki naturalnej i medycznej), a wartości 5 mSv czy 15 mSv mogłyby się kojarzyć z dawnymi zapisami lub limitami dla konkretnych narządów w starszych regulacjach. Dla personelu medycznego byłoby to jednak zdecydowanie zbyt restrykcyjne, praktycznie uniemożliwiające normalną pracę w pracowniach TK, radiologii zabiegowej albo medycyny nuklearnej. Z drugiej strony wybór wartości 30 mSv świadczy częściej o intuicyjnym podejściu: „skoro to pracownik, to może mieć wyraźnie więcej niż ludność”. Tylko że obecne standardy bezpieczeństwa bardzo mocno podkreślają ograniczanie ryzyka nowotworów indukowanych promieniowaniem przez całe życie zawodowe, liczone często w dziesiątkach lat. Gdyby przyjąć wyższy roczny limit, całkowita dawka skumulowana pracownika po 30–40 latach pracy byłaby znacznie większa, a tym samym rosłoby prawdopodobieństwo późnych efektów stochastycznych. Dlatego przyjęto kompromisowe 20 mSv jako średnią roczną, przy jednoczesnym dodatkowym ograniczeniu: w żadnym pojedynczym roku nie przekraczać 50 mSv. Typowym błędem myślowym jest też mieszanie dawki efektywnej (mierzona w mSv i odnosząca się do całego organizmu) z dawkami równoważnymi dla konkretnych narządów, np. soczewki oka czy skóry, gdzie obowiązują inne, oddzielne limity. W praktyce ochrony radiologicznej najważniejsze jest, aby znać aktualne wartości prawne i rozumieć, że są one elementem całościowego systemu: klasyfikacji pracowników, dozymetrii indywidualnej, kontroli warunków pracy i planowania ekspozycji. Z mojego doświadczenia wynika, że osoby, które raz dobrze zrozumieją logikę tych limitów, rzadziej popełniają błędy przy organizacji pracy w pracowni i lepiej korzystają z zasady ALARA, zamiast traktować limity jako luźne wskazówki.

Pytanie 24

Kiedy w procesie terapii wykonuje się badanie CBCT (cone beam computed tomography)?

A. Przy końcu leczenia.
B. Przed rozpoczęciem leczenia.
C. Po ukończeniu leczenia.
D. W środku leczenia.
Badanie CBCT wykonuje się standardowo przed rozpoczęciem leczenia, bo jest to badanie typowo diagnostyczne i planistyczne. Na tomografii stożkowej ocenia się dokładnie anatomię: przebieg kanałów korzeniowych, grubość kości, położenie struktur krytycznych (np. kanał nerwu zębodołowego dolnego, zatoka szczękowa), ewentualne zmiany zapalne czy resorpcje. Bez takiego obrazu 3D planowanie zabiegu, np. implantologicznego, endodontycznego czy chirurgicznego, byłoby w dużej mierze „na oko”, co po prostu jest sprzeczne z aktualnymi standardami postępowania. W nowoczesnej stomatologii i radiologii dąży się do tego, żeby dawkę promieniowania podać raz, w dobrze uzasadnionym momencie – czyli właśnie na etapie planowania terapii. Zasada ALARA (as low as reasonably achievable) jasno mówi, że nie powinniśmy powtarzać badań bez wyraźnej potrzeby klinicznej. Dlatego CBCT robi się przed leczeniem, żeby na podstawie jednego badania ustalić możliwie kompletny plan: rodzaj zabiegu, długość i średnicę implantów, potrzebę augmentacji kości, zakres leczenia endodontycznego. W ortodoncji CBCT również wykonuje się przed terapią, jeśli jest wskazanie, np. zęby zatrzymane, podejrzenie resorpcji korzeni, ocena stawów skroniowo‑żuchwowych. Moim zdaniem kluczowe jest myślenie w ten sposób: CBCT to narzędzie do podejmowania decyzji przed wejściem w leczenie, a nie badanie „kontrolne z ciekawości” po wszystkim. Oczywiście czasem wykonuje się kontrolne CBCT, ale tylko w szczególnych sytuacjach klinicznych, a nie rutynowo przy końcu czy w środku terapii.

Pytanie 25

Promieniowanie jonizujące pośrednio to

A. promieniowanie β⁻
B. promieniowanie α
C. promieniowanie β⁺
D. promieniowanie γ
Klucz do tego pytania leży w rozróżnieniu między promieniowaniem bezpośrednio i pośrednio jonizującym. Typowy błąd polega na tym, że skoro wszystkie wymienione rodzaje promieniowania mogą powodować uszkodzenia w tkankach, to wydaje się, że wszystkie działają podobnie. A tak nie jest. Promieniowanie α oraz β⁺ i β⁻ to strumienie cząstek naładowanych (jądra helu albo elektrony/pozytony). Cząstki te niosą ładunek elektryczny, więc wchodząc w materię oddziałują z elektronami atomów praktycznie na każdym kroku swojej drogi. Każde takie oddziaływanie może bezpośrednio oderwać elektron z atomu, czyli wywołać jonizację. Dlatego mówi się o nich, że są promieniowaniem bezpośrednio jonizującym: ich podstawowy mechanizm działania to przekazywanie energii i ładunku bez żadnego „pośrednika”. Natomiast promieniowanie pośrednio jonizujące to takie, które samo nie ma ładunku elektrycznego. Foton γ albo X nie jest cząstką naładowaną, tylko kwantem energii pola elektromagnetycznego. On najpierw musi wejść w zjawisko fotoelektryczne, Comptona czy tworzenia par, żeby powstały wtórne elektrony lub pozytony. Dopiero te wtórne cząstki jonizują bezpośrednio ośrodek. Jeśli ktoś wybiera α lub β jako promieniowanie pośrednio jonizujące, to zwykle myli pojęcie „duża zdolność jonizacyjna” z „pośrednim mechanizmem jonizacji”. Faktycznie, cząstki α mają ogromną zdolność jonizacyjną, ale właśnie dlatego, że są bardzo silnie i bezpośrednio jonizujące na swojej krótkiej drodze. Podobnie elektrony β⁻ czy pozytony β⁺ – mają mniejszy zasięg niż fotony γ i zostawiają ślad jonizacji bardzo gęsto wzdłuż toru. W praktyce radioterapii i ochrony radiologicznej rozróżnienie to ma konkretne skutki: inaczej planuje się osłony dla wiązki fotonów γ (grube ściany z betonu, ołów) niż dla cząstek α lub β (często wystarczą cienkie bariery, ale problemem jest narażenie wewnętrzne). Moim zdaniem warto zapamiętać prostą zasadę: wszystko co niesie ładunek (α, β, protony, elektrony) jest promieniowaniem bezpośrednio jonizującym, a wszystko co jest neutralne (γ, X, neutrony) – promieniowaniem pośrednio jonizującym, bo najpierw musi wyprodukować wtórne cząstki naładowane, żeby naprawdę zjonizować tkankę.

Pytanie 26

Pozytywny środek cieniujący najczęściej stosowany w rentgenodiagnostyce powinien charakteryzować się

A. wysoką lepkością.
B. niską hydrofilnością.
C. niską osmolalnością.
D. wysoką lipofilnością.
W pozytywnych środkach cieniujących stosowanych w klasycznej rentgenodiagnostyce, zwłaszcza jodowych podawanych dożylnie, kluczowe jest ograniczenie działań niepożądanych i maksymalne zwiększenie bezpieczeństwa pacjenta. Z tego punktu widzenia wysoka lepkość nie jest zaletą, tylko raczej problemem technicznym i klinicznym. Gęsty, lepki kontrast trudniej podać przez cienki wenflon albo cewnik angiograficzny, wymaga większego ciśnienia wstrzykiwania, a przy bardzo dużej lepkości może nawet sprzyjać powikłaniom miejscowym. Dlatego producenci dążą do optymalizacji lepkości – nie za wysokiej, ale też nie skrajnie niskiej, takiej żeby środek był stabilny, ale łatwy w aplikacji. Kolejna pułapka to niska hydrofilność. Intuicyjnie ktoś może pomyśleć, że jak coś jest mało hydrofilne, to „mniej obciąża wodę w organizmie”, ale w przypadku środków kontrastowych jest dokładnie odwrotnie, niż by się chciało. Kontrast dożylny powinien być dobrze rozpuszczalny w wodzie, czyli wysoce hydrofilny, żeby krążyć w osoczu, nie wnikać nadmiernie do błon lipidowych, nie kumulować się w tkankach i móc zostać sprawnie wydalony przez nerki. Środki mało hydrofilne mogą mieć tendencję do gromadzenia się w strukturach tłuszczowych, co w diagnostyce naczyniowej czy urograficznej jest zdecydowanie niepożądane. Wysoka lipofilność to kolejny kierunek myślenia, który tutaj nie pasuje. Lipofilne substancje chętnie wnikają do błon komórkowych i tkanek bogatych w tłuszcz, co może zwiększać toksyczność i wydłużać czas eliminacji. W radiologii zabiegowej i tomografii komputerowej środki kontrastowe mają być przede wszystkim wodnorozpuszczalne, szybko dystrybuujące się w przestrzeni naczyniowej i dobrze wydalane przez nerki. Dlatego standardem są związki jodu o wysokiej hydrofilności i możliwie niskiej osmolalności. Wysoka osmolalność, wbrew pozorom, nie poprawia jakości obrazu na tyle, żeby opłacało się ryzykować nasilone działania uboczne. Powoduje ona przesunięcia płynów, obciążenie układu krążenia, dyskomfort pacjenta i zwiększa ryzyko nefrotoksyczności. Właśnie dlatego w nowoczesnych wytycznych i dobrych praktykach radiologicznych podkreśla się, że bezpieczny pozytywny środek cieniujący powinien mieć niską lub co najwyżej umiarkowaną osmolalność, być niejonowy, wysoko hydrofilny i o umiarkowanej lepkości. Mylenie hydrofilności z lipofilnością i wiązanie bezpieczeństwa z wysoką lepkością to bardzo typowe błędy myślowe, wynikające z przenoszenia intuicji z innych dziedzin, a nie z faktycznych zasad stosowania kontrastów w RTG.

Pytanie 27

Parametr SNR w obrazowaniu MR oznacza

A. rozmiar matrycy.
B. stosunek sygnału do szumu.
C. wielkość pola widzenia.
D. grubość obrazowanej warstwy.
Parametr SNR w obrazowaniu MR to stosunek sygnału do szumu (Signal to Noise Ratio) i jest jednym z absolutnie kluczowych pojęć przy ocenie jakości obrazów rezonansu. Mówiąc po ludzku: patrzymy, jak silny jest użyteczny sygnał pochodzący z tkanek pacjenta w porównaniu do przypadkowych zakłóceń, czyli szumu. Im wyższy SNR, tym obraz jest bardziej „czysty”, gładszy, z wyraźniejszym zarysem struktur anatomicznych i mniejszym ziarnem. Przy niskim SNR obraz robi się „ziarnisty”, poszarpany, trudniej odróżnić szczegóły, a diagnostyka staje się mniej pewna. W praktyce technik MR ciągle balansuje parametrami, które wpływają na SNR: zwiększenie grubości warstwy, liczby akwizycji (NEX/NSA), pola widzenia (FOV), czy zastosowanie odpowiednich cewek odbiorczych poprawia SNR, ale często kosztem rozdzielczości lub czasu badania. Z kolei zwiększenie rozdzielczości (większa matryca, mniejszy voxel) zwykle SNR obniża. Moim zdaniem ważne jest, żeby nie traktować SNR jako abstrakcyjnej liczby, tylko jako realne narzędzie do oceny, czy dana sekwencja nadaje się do wiarygodnej interpretacji. W wielu ośrodkach przyjmuje się minimalne wartości SNR dla konkretnych protokołów, tak żeby radiolog miał wystarczająco „czysty” obraz do opisu. W zaawansowanych systemach kontroli jakości MR SNR mierzy się regularnie na fantomach, żeby sprawdzać stabilność aparatu i wychwycić spadek jakości zanim zauważy go lekarz. W codziennej pracy, jeśli radiolog mówi, że „za dużo szumu na obrazach”, to w praktyce właśnie ma zastrzeżenia do zbyt niskiego SNR i trzeba tak dobrać parametry, żeby ten stosunek sygnału do szumu poprawić, nie tracąc przy tym istotnych informacji diagnostycznych.

Pytanie 28

Kryterium rozpoznawczym dla fali δ (delta) w badaniu EKG jest

A. zażębienie na ramieniu wstępującym załamka R.
B. obniżenie odcinka ST.
C. zażębienie na ramieniu zstępującym załamka R.
D. uniesienie odcinka ST.
Fala δ (delta) w EKG jest jednym z tych elementów, które łatwo pomylić z innymi zmianami w obrębie zespołu QRS albo odcinka ST, szczególnie jeśli ktoś dopiero zaczyna przygodę z interpretacją zapisów. Kluczowe jest zrozumienie, że fala delta dotyczy samego początku pobudzenia komór, a nie fazy repolaryzacji czy końcowej części załamka R. Dlatego łączenie jej z uniesieniami lub obniżeniami odcinka ST jest merytorycznie błędne. Odcinek ST odzwierciedla fazę plateau potencjału czynnościowego komórek mięśnia sercowego, czyli głównie procesy związane z repolaryzacją. Zmiany w ST kojarzymy przede wszystkim z niedokrwieniem, ostrym zawałem, czasem z przerostami czy zaburzeniami elektrolitowymi. Fala delta natomiast powstaje przez przedwczesne, wolniejsze pobudzenie części komory przez dodatkową drogę przewodzenia. To jest zupełnie inny etap cyklu sercowego, więc technicznie nie może być rozpoznawana na podstawie samego ST. Podobny problem pojawia się przy skojarzeniu fali delta z zażębieniem na ramieniu zstępującym załamka R. Ta część zespołu QRS odzwierciedla już późniejsze etapy depolaryzacji komór. Różne „ząbki” w tej części mogą wynikać np. z bloku prawej lub lewej odnogi pęczka Hisa, z zaburzeń przewodzenia śródkomorowego, czasem z przerostów komór. To są inne mechanizmy niż preekscytacja. Typowym błędem myślowym jest patrzenie tylko na kształt „jakiegokolwiek załamania” w obrębie QRS, bez zwracania uwagi, w którym dokładnie miejscu ono się pojawia. Dobra praktyka jest taka: kiedy szukasz fali delta, skupiasz się na samym początku zespołu QRS i pytasz siebie, czy początek załamka R jest łagodnie zaokrąglony, jakby „rozmyty”, czy raczej stromy i ostry. Jeśli jest to jakby małe, powolne narastanie na ramieniu wstępującym R, wtedy myślisz o fali delta. Jeżeli widzisz ząbki później albo zmiany dopiero w ST, to już nie jest delta, tylko zupełnie inne zjawiska, które trzeba interpretować w innym kontekście klinicznym. Moim zdaniem najważniejsze jest nauczyć się porządnie rozdzielać w głowie: początek QRS = przewodzenie i ewentualna preekscytacja, odcinek ST i załamek T = niedokrwienie, elektrolity, leki, przerosty. Taka struktura myślenia bardzo ogranicza liczbę pomyłek przy analizie EKG.

Pytanie 29

Na obrazie TK klatki piersiowej w przekroju poprzecznym strzałką oznaczono

Ilustracja do pytania
A. oskrzele główne lewe.
B. oskrzele główne prawe.
C. aortę wstępującą.
D. aortę zstępującą.
Na przedstawionym przekroju poprzecznym TK klatki piersiowej strzałka wskazuje lewe oskrzele główne. W tomografii pamiętamy, że obrazy standardowo oglądamy w tzw. projekcji radiologicznej: tak jakby pacjent leżał na plecach, a my patrzymy od jego stóp w stronę głowy. Czyli prawa strona pacjenta jest po lewej stronie ekranu (oznaczona literą R), a lewa strona pacjenta – po prawej. To jest pierwszy klucz do poprawnego rozpoznawania struktur anatomicznych na TK. Lewe oskrzele główne odchodzi od tchawicy bardziej poziomo, jest dłuższe i przebiega pod łukiem aorty, kierując się w stronę lewego wnęki płuca. Na obrazie widać je jako strukturę o powietrznej gęstości (ciemną), otoczoną cienką ścianą, zlokalizowaną po stronie przeciwnej do oznaczenia R, tuż przy rozwidleniu tchawicy. Z mojego doświadczenia to jedno z klasycznych miejsc, które każdy technik i lekarz musi umieć „z marszu” zidentyfikować, bo od poprawnej orientacji w okolicy wnęk płucnych zależy m.in. prawidłowe ocenianie węzłów chłonnych śródpiersia, zmian nowotworowych czy ocena szerzenia się procesu zapalnego. W praktyce klinicznej, przy planowaniu bronchoskopii, zabiegów torakochirurgicznych albo przy ocenie naciekania guza płuca na oskrzele, dokładna znajomość przebiegu lewego oskrzela głównego jest absolutnie podstawowa. Dobre praktyki w diagnostyce obrazowej mówią, żeby zawsze zaczynać analizę TK klatki od ustalenia orientacji (R/L, przód/tył), potem identyfikować główne naczynia (aorta wstępująca, łuk, aorta zstępująca, pień płucny) i dopiero na tym tle lokalizować tchawicę i oskrzela. Dzięki temu dużo łatwiej odróżnić lewe oskrzele główne od struktur naczyniowych czy od prawego oskrzela, które jest krótsze, szersze i bardziej pionowe. W praktyce egzaminacyjnej takie zadania bardzo dobrze sprawdzają, czy ktoś naprawdę rozumie anatomię w obrazowaniu, a nie tylko „zgaduje z kształtu”.

Pytanie 30

Które znaczniki są wykorzystywane w scyntygrafii tarczycy?

A. Mikrosfery albuminowe i jod 132
B. Jod 131 i technet 99m
C. Mikrosfery albuminowe i jod 131
D. Mikrosfery albuminowe i technet 99m
Prawidłowo wskazane znaczniki – jod 131 i technet 99m – to klasyczne i w zasadzie podręcznikowe radioizotopy stosowane w scyntygrafii tarczycy. W praktyce medycyny nuklearnej oba wykorzystuje się do oceny funkcji i budowy gruczołu, ale w trochę innych sytuacjach. Technet 99m (a dokładniej nadtechnecjan Tc‑99m) jest pobierany przez komórki tarczycy podobnie jak jod, ale nie jest przez nie wbudowywany w hormony. Dzięki temu daje szybki, czysty obraz rozmieszczenia czynnego miąższu – świetnie nadaje się do rutynowych badań scyntygraficznych, oceny guzków „zimnych” i „gorących”, kontroli po leczeniu zachowawczym nadczynności. W standardach pracowni medycyny nuklearnej Tc‑99m jest izotopem pierwszego wyboru do typowej scyntygrafii, bo ma krótki okres półtrwania i emituje głównie promieniowanie gamma o energii idealnej dla gammakamery. Jod 131 ma inne zastosowanie: służy głównie do badań jodochwytności, planowania terapii jodem promieniotwórczym oraz do terapii nadczynności i raka tarczycy. Emituje promieniowanie beta (terapeutyczne) i gamma (diagnostyczne), ale z racji wyższej dawki i gorszej jakości obrazowania w nowoczesnych standardach rzadziej używa się go do klasycznej scyntygrafii obrazowej, a bardziej do procedur terapeutyczno‑diagnostycznych. Moim zdaniem ważne jest, żeby kojarzyć: tarczyca = izotopy jodu + Tc‑99m, a nie mikrosfery czy inne radiofarmaceutyki narządowo‑nieswoiste. W praktyce technik medycyny nuklearnej musi wiedzieć, że do scyntygrafii tarczycy przygotowuje się właśnie preparaty jodu promieniotwórczego albo nadtechnecjanu, zgodnie z procedurami, kontrolą jakości radiofarmaceutyku i zasadami ochrony radiologicznej.

Pytanie 31

W radiografii mianem SID określa się

A. odległość między obiektem badanym a detektorem obrazu.
B. system automatycznej regulacji jasności.
C. system automatycznej kontroli ekspozycji.
D. odległość między źródłem promieniowania a detektorem obrazu.
W radiografii bardzo łatwo pomylić różne skróty i funkcje aparatu, bo jest ich po prostu sporo. SID to jednak pojęcie czysto geometryczne, a nie elektroniczny system automatyki. Nie oznacza ani systemu automatycznej regulacji jasności, ani systemu automatycznej kontroli ekspozycji. Tego typu rozwiązania techniczne w aparatach RTG czy fluoroskopii opisuje się raczej jako AEC (Automatic Exposure Control) lub ABC (Automatic Brightness Control) w torze fluoroskopowym. Ich zadaniem jest dobór parametrów ekspozycji tak, żeby obraz miał odpowiednią gęstość optyczną czy jasność, niezależnie od grubości pacjenta. SID nie ma z tym bezpośredniego związku, choć oczywiście pośrednio wpływa na ekspozycję, bo zmienia się natężenie wiązki na detektorze zgodnie z prawem odwrotności kwadratu odległości. Kolejne częste nieporozumienie dotyczy odległości mierzonych w układzie pacjent–detektor. Odległość między badanym obiektem (np. klatką piersiową) a detektorem dotyczy raczej OID (Object to Image Distance) lub czasem mówi się po prostu o odległości obiekt–detektor. Ten parametr jest również istotny, bo im większa odległość obiektu od detektora, tym większe powiększenie i rozmycie krawędzi na obrazie. Jednak to nie jest SID. SID zawsze odnosi się do drogi od ogniska lampy rentgenowskiej (czyli źródła promieniowania) do powierzchni detektora obrazu. Mylenie SID z OID prowadzi do błędnego myślenia o geometrii projekcji, a w konsekwencji do złego pozycjonowania pacjenta i niestabilnych warunków ekspozycji. Dobre praktyki w diagnostyce obrazowej mówią o konieczności utrzymywania stałego, zadeklarowanego SID dla danej projekcji oraz świadomego kontrolowania OID, np. dociśnięcia pacjenta do detektora wszędzie tam, gdzie chcemy ograniczyć powiększenie. Warto więc rozdzielić w głowie: SID – źródło do detektora, OID – obiekt do detektora, a systemy automatycznej ekspozycji to zupełnie inna kategoria zagadnień, związana z elektroniką i automatyką aparatu, a nie z geometrią wiązki.

Pytanie 32

Świeżo wynaczyniona krew na obrazach TK głowy bez podania środka kontrastowego ukazuje się jako obszar

A. hipodensyjny.
B. hiperdensyjny.
C. normodensyjny.
D. izodensyjny.
Świeżo wynaczyniona krew w badaniu TK głowy bez podania kontrastu nie jest ani izodensyjna, ani hipodensyjna, ani „normodensyjna” w stosunku do mózgowia – i tu właśnie często pojawia się błąd w myśleniu. W ostrych stanach wielu osobom intuicyjnie wydaje się, że krew będzie miała „normalną” gęstość albo że będzie ciemniejsza, bo kojarzą to z obrazem w MR albo z innymi płynami. Tymczasem w tomografii komputerowej gęstość wyrażamy w jednostkach Hounsfielda i zależy ona w dużej mierze od zawartości wody oraz składników takich jak białka czy jony. Świeża krew, szczególnie skrzep, ma wysokie stężenie hemoglobiny i białek, a więc wyższą gęstość niż otaczająca tkanka mózgowa. Dlatego na obrazie TK jest ona hiperdensyjna, czyli jaśniejsza. Określenia typu „izodensyjny” czy „normodensyjny” sugerują, że gęstość jest zbliżona do otaczających struktur mózgowia. Tak dzieje się dopiero w fazie podostrej, gdy krew zaczyna się rozpadać, zmienia się zawartość wody i dochodzi do przebudowy ogniska krwotocznego. Wtedy rzeczywiście może być problem z odróżnieniem krwiaka od mózgu, bo robi się on izodensyjny. Jeszcze później, w fazie przewlekłej, krwiak często staje się hipodensyjny, czyli ciemniejszy niż mózgowie, przez dominującą zawartość płynu. Mylenie tych faz jest bardzo typowym błędem: ktoś pamięta, że „stary krwiak jest ciemny”, i błędnie przenosi to na fazę ostrą. Dodatkowo zamieszanie wprowadza fakt, że obrzęk mózgu wokół krwotoku jest hipodensyjny, więc część osób kojarzy krwawienie z „ciemnym obszarem”, nie rozróżniając samego skrzepu od otaczającego obrzęku. W dobrej praktyce diagnostyki obrazowej zawsze trzeba myśleć dynamicznie: jaka jest faza krwawienia, jakie są typowe wartości HU i jak to będzie wyglądało na monitorze. Z mojego doświadczenia, jeśli w głowie pojawia się wątpliwość „ciemne czy jasne?”, to dla świeżej krwi w TK głowy bez kontrastu odpowiedź powinna automatycznie brzmieć: jasne, czyli hiperdensyjne.

Pytanie 33

W badaniu EKG różnice potencjałów pomiędzy lewym podudziem a lewym przedramieniem rejestruje odprowadzenie

A. aVL
B. I
C. aVR
D. III
Prawidłowo wskazane odprowadzenie III rejestruje różnicę potencjałów między lewym podudziem (elektroda na nodze lewej – LL) a lewym przedramieniem (elektroda na ręce lewej – LA). W klasycznym 12‑odprowadzeniowym EKG mamy trzy odprowadzenia kończynowe dwubiegunowe: I, II i III. Zgodnie ze standardem Einthovena: odprowadzenie I zapisuje różnicę potencjałów między prawym przedramieniem (RA) a lewym przedramieniem (LA), odprowadzenie II – między RA a lewym podudziem (LL), a właśnie odprowadzenie III – między LA a LL. Czyli w uproszczeniu: III = LL – LA. To dokładnie odpowiada treści pytania. W praktyce klinicznej znajomość tej konfiguracji jest bardzo ważna, bo ułatwia rozumienie tzw. trójkąta Einthovena i zależności między odprowadzeniami. Można np. korzystać z zależności I + III = II do kontroli jakości zapisu – jeśli suma wektorowa się „nie zgadza”, to często oznacza źle założone elektrody albo artefakty. Moim zdaniem technik, który automatycznie kojarzy, z których elektrod składa się każde odprowadzenie, ma dużo łatwiej przy rozwiązywaniu problemów typu: „dziwnie odwrócone załamki P” czy „nagle ujemny QRS w I”. Wtedy można podejrzewać zamianę elektrod RA/LA albo LA/LL. W codziennej pracy, gdy zakładasz elektrody, warto sobie w głowie odtwarzać, że LL zawsze „wchodzi” w II i III, LA w I i III, a RA w I i II. To naprawdę pomaga w świadomym wykonywaniu badania, a nie tylko „podpinaniu kabelków”.

Pytanie 34

Które zaburzenie rytmu serca zarejestrowano na elektrokardiogramie?

Ilustracja do pytania
A. Blok prawej odnogi pęczka Hisa.
B. Migotanie przedsionków.
C. Częstoskurcz komorowy.
D. Blok przedsionkowo-komorowy.
Na przedstawionym zapisie EKG widzimy szybki, regularny rytm z wyraźnie poszerzonymi i zniekształconymi zespołami QRS, bez czytelnych załamków P poprzedzających każdy kompleks. To jest kluczowe, bo wiele osób, patrząc tylko na częstość, myśli od razu o migotaniu przedsionków. Migotanie przedsionków ma jednak zupełnie inny charakter: rytm jest wyraźnie niemiarowy („nieregularny, całkowicie niemiarowy”), zespoły QRS są zazwyczaj wąskie, a linia izoelektryczna między nimi jest poszarpana przez drobne fale f. Tutaj tego nie ma – rytm jest miarowy, a zespoły QRS są szerokie, co od razu odsuwa nas od rozpoznania AF. Częsty błąd to także mylenie takiego zapisu z blokiem przedsionkowo‑komorowym. W blokach AV dominuje zwolnienie przewodzenia bodźców z przedsionków do komór, co na EKG daje albo wydłużony odstęp PQ (blok I stopnia), albo wypadanie zespołów QRS przy zachowanych załamkach P (blok II stopnia), albo całkowite rozkojarzenie P i QRS, ale zwykle z wolną, a nie szybką akcją komór (blok III stopnia). Tutaj nie widać ani klasycznego odstępu PQ, ani typowego zwolnienia rytmu, więc obraz nie pasuje. Z kolei blok prawej odnogi pęczka Hisa daje poszerzenie QRS, ale przy względnie prawidłowej częstości rytmu i zachowanej relacji P–QRS. Charakterystyczne są zespoły rsR’ w V1 i poszerzony, ząbkowany S w odprowadzeniach bocznych (I, aVL, V5–V6). W naszym zapisie mamy natomiast seryjne, bardzo szybkie, szerokie zespoły, bez czytelnych załamków P, co wskazuje na rytm wywodzący się z komór, a nie na zaburzenie przewodzenia w jednej z odnóg. Typowy schemat błędnego rozumowania polega na tym, że ktoś widzi „dziwne QRS-y” i automatycznie przypisuje je blokowi odnóg, zamiast najpierw ocenić częstość i regularność rytmu. Dobra praktyka w diagnostyce elektromedycznej to najpierw odpowiedzieć sobie na trzy pytania: czy rytm jest miarowy, jaka jest szerokość QRS oraz czy widać prawidłowe załamki P związane z każdym kompleksem. Dopiero wtedy rozstrzygamy, czy mamy do czynienia z arytmią nadkomorową, komorową, czy zaburzeniem przewodzenia. W tym przypadku wszystkie te elementy układają się w klasyczny obraz częstoskurczu komorowego, a nie migotania przedsionków, bloku przedsionkowo‑komorowego ani bloku prawej odnogi.

Pytanie 35

Którą strukturę anatomiczną uwidoczniono na zamieszczonym obrazie USG?

Ilustracja do pytania
A. Pęcherzyk żółciowy z kamieniami.
B. Pęcherz moczowy z kamieniami.
C. Nerkę lewą ze złogami.
D. Ciężarną macicę z czterema płodami.
Na obrazie USG widoczny jest typowy pęcherzyk żółciowy z kamieniami (cholecystolithiasis). Charakterystyczny jest wydłużony, gruszkowaty kształt bezechowej (czarnej) struktury, otoczonej cienką, wyraźną ścianą. W świetle pęcherzyka widoczne są silnie hiperechogeniczne ogniska z wyraźnym cieniem akustycznym za nimi – to klasyczny obraz złogów żółciowych. Zgodnie z zasadami opisu USG jamy brzusznej, zawsze zwracamy uwagę na: kształt pęcherzyka, grubość ściany, zawartość światła oraz obecność cienia akustycznego. Kamienie są jasne, dobrze odgraniczone i „rzucają cień” w głąb obrazu, co jest jednym z najważniejszych kryteriów różnicujących je od np. polipów. W praktyce klinicznej taki obraz, szczególnie przy dolegliwościach bólowych w prawym podżebrzu, jest podstawą do rozpoznania kamicy pęcherzyka żółciowego i dalszego postępowania – zwykle obserwacja albo kwalifikacja do cholecystektomii laparoskopowej, zgodnie z aktualnymi zaleceniami. Moim zdaniem warto wyrobić sobie nawyk, żeby przy każdym badaniu USG jamy brzusznej bardzo dokładnie oceniać pęcherzyk w pozycji leżącej i w razie wątpliwości także w pozycji stojącej lub na lewym boku – kamienie często zmieniają położenie pod wpływem grawitacji, co dodatkowo potwierdza rozpoznanie. Dobra praktyka to też dokumentowanie przynajmniej dwóch przekrojów (podłużny i poprzeczny) oraz opisywanie wielkości największego złogu, bo ma to znaczenie przy planowaniu zabiegu i dalszej obserwacji pacjenta.

Pytanie 36

Który radiofarmaceutyk należy podać pacjentowi w scyntygrafii perfuzyjnej mózgu?

A. Tc-99m MDP
B. Tc-99m HM-PAO
C. <b>I-131 NaI</b>
D. I-123 NaI
W diagnostyce perfuzji mózgu kluczowe jest zastosowanie radiofarmaceutyku, który przechodzi przez barierę krew–mózg i rozkłada się w tkance mózgowej proporcjonalnie do przepływu krwi. Dlatego wybór preparatów typowo „tarczowych” lub kostnych jest błędnym kierunkiem myślenia. Jod-123 w postaci NaI oraz jod-131 NaI to klasyczne radiofarmaceutyki do badań tarczycy, ewentualnie do terapii jodem promieniotwórczym. Ich farmakokinetyka jest podporządkowana wychwytowi jodu przez komórki pęcherzykowe tarczycy, a nie perfuzji mózgu. Owszem, I-123 ma lepsze parametry obrazowe niż I-131 (mniejsza dawka, lepsza energia fotonu do gammakamery), ale obydwa preparaty służą do oceny funkcji tarczycy, przerzutów tarczycowych, ewentualnie do terapii nadczynności lub raka tarczycy, a nie do oceny krążenia mózgowego. Typowym błędem jest mylenie „fajnie brzmiącego” izotopu z jego realnym zastosowaniem klinicznym – samo to, że coś jest radiojodem, nie oznacza, że nadaje się do każdego badania scyntygraficznego. Kolejne nieporozumienie dotyczy Tc-99m MDP. Ten związek jest standardowym radiofarmaceutykiem w scyntygrafii kości, ponieważ ma wysokie powinowactwo do tkanki kostnej, szczególnie tam, gdzie zachodzi wzmożony obrót kostny, np. przerzuty, złamania, zmiany zapalne. Jednak MDP praktycznie nie jest przydatny do oceny perfuzji mózgu, bo jego dystrybucja nie odzwierciedla przepływu mózgowego i nie przechodzi on w sposób swoisty przez barierę krew–mózg. W praktyce egzaminacyjnej często miesza się zasadę: „Tc-99m = dobry do obrazowania” z konkretnym zastosowaniem danego związku. Sama obecność Tc-99m nie wystarczy – liczy się nośnik chemiczny: HM-PAO czy ECD dla mózgu, MDP dla kości, MAG3/DTPA dla nerek itd. W scyntygrafii perfuzyjnej mózgu szukamy właśnie preparatu lipofilnego, który szybko dyfunduje do mózgu i „zamraża” perfuzję z chwili podania. Tego nie zapewni ani NaI z jodem, ani MDP, stąd takie odpowiedzi nie spełniają wymogów fizjologicznych i technicznych dla tego typu badania.

Pytanie 37

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. skrócenie fali i zmniejszenie przenikliwości promieniowania X.
B. wydłużenie fali i zwiększenie przenikliwości promieniowania X.
C. wydłużenie fali i zmniejszenie przenikliwości promieniowania X.
D. skrócenie fali i zwiększenie przenikliwości promieniowania X.
Prawidłowe rozumowanie opiera się na bardzo podstawowej zależności fizycznej: im wyższe napięcie na lampie rentgenowskiej (kV), tym elektrony są silniej przyspieszane, a więc zderzając się z anodą oddają więcej energii. Ta większa energia kinetyczna elektronów przekłada się na wyższą energię fotonów promieniowania X. A ponieważ długość fali jest odwrotnie proporcjonalna do energii (λ ~ 1/E), wyższa energia oznacza krótszą długość fali. Czyli: wyższe kV → krótsza fala. Krótsza fala i wyższa energia fotonów powodują większą przenikliwość promieniowania X. W praktyce oznacza to, że promieniowanie o wyższym kV łatwiej przechodzi przez grubsze lub gęstsze struktury, np. miednicę, kręgosłup lędźwiowy czy klatkę piersiową u pacjentów o większej masie ciała. W pracowni RTG dobór napięcia jest jednym z kluczowych parametrów ekspozycji. Standardy i dobre praktyki mówią jasno: dla struktur kostnych grubych i gęstych stosuje się wyższe kV, właśnie po to, żeby promieniowanie było bardziej przenikliwe i nie zatrzymywało się w tkankach powierzchownych. Z mojego doświadczenia, przy badaniu klatki piersiowej typowo używa się wysokich napięć (np. 110–125 kV), żeby wiązka przeszła przez cały przekrój klatki i dobrze uwidoczniła serce, płuca i kręgosłup, przy rozsądnej dawce. Przy niższym kV obraz byłby zbyt kontrastowy, mocno „twardy” dla kości, ale tkanki miękkie mogłyby być niedostatecznie uwidocznione. Warto też pamiętać, że zwiększenie kV zmienia charakter wiązki: rośnie udział efektu Comptona, co wpływa na kontrast obrazu (kontrast spada), ale poprawia się przenikliwość. Dlatego w praktyce technik zawsze musi balansować między kV a mAs, żeby uzyskać właściwą jakość obrazu przy jak najniższej dawce, zgodnie z zasadą ALARA. Zwiększenie napięcia to więc nie tylko „mocniejszy” promień, ale konkretnie: krótsza długość fali i większa przenikliwość promieniowania X, co jest dokładnie opisane w poprawnej odpowiedzi.

Pytanie 38

Zadaniem technika elektroradiologa w pracowni naczyniowej jest

A. przygotowanie niezbędnych narzędzi.
B. przygotowanie cewników.
C. nadzorowanie sprawnego działania aparatury rentgenowskiej.
D. wprowadzenie cewnika w światło naczyń.
Prawidłowo wskazana rola technika elektroradiologa w pracowni naczyniowej to nadzorowanie sprawnego działania aparatury rentgenowskiej. W pracowni angiograficznej technik jest odpowiedzialny przede wszystkim za stronę techniczną badania, a nie za wykonywanie czynności inwazyjnych w obrębie naczyń. To lekarz – najczęściej radiolog interwencyjny, kardiolog lub chirurg naczyniowy – wprowadza cewnik do światła naczynia, prowadzi go, podaje kontrast i wykonuje właściwy zabieg. Technik natomiast musi zadbać o to, żeby cały system obrazowania działał stabilnie, bezpiecznie i dawał obrazy o jak najlepszej jakości przy możliwie najmniejszej dawce promieniowania. W praktyce oznacza to m.in. prawidłowe ustawienie parametrów ekspozycji, kontrolę pracy lampy rentgenowskiej, generatora, stołu angiograficznego, systemu akwizycji obrazu oraz monitorów. Technik sprawdza przed badaniem poprawność działania układów sterowania, kolimatorów, systemów automatycznej kontroli ekspozycji, a także współpracuje z lekarzem przy doborze protokołów obrazowania, np. częstości serii, czasu akwizycji, projekcji, synchronizacji z podaniem kontrastu. Moim zdaniem bardzo ważne jest też to, że technik pilnuje bezpieczeństwa radiologicznego całego zespołu i pacjenta: dobiera osłony, kontroluje dawkę, dba o prawidłowe ustawienie ramienia C, żeby ograniczyć niepotrzebne ekspozycje. W dobrze działającej pracowni naczyniowej technik jest takim „operatorem systemu”, który musi szybko reagować, gdy pojawiają się komunikaty błędów, spadek jakości obrazu, przegrzewanie lampy czy problemy z archiwizacją w systemie PACS. To wszystko bezpośrednio przekłada się na bezpieczeństwo zabiegu, komfort pracy lekarza i skuteczność diagnostyki oraz terapii.

Pytanie 39

Co zostało uwidocznione na zamieszczonym radiogramie?

Ilustracja do pytania
A. Ostroga kości piętowej.
B. Złamanie kości skokowej.
C. Złamanie kostki bocznej.
D. Zwichnięcie stawu skokowego.
Na radiogramie widoczna jest typowa ostroga kości piętowej, czyli wyrośl kostna zlokalizowana na dolno-przyśrodkowej powierzchni guza piętowego, w okolicy przyczepu rozcięgna podeszwowego. W obrazie RTG wygląda to jak haczykowate lub dziobowate uwypuklenie kości skierowane ku przodowi stopy. Moim zdaniem to jedno z bardziej charakterystycznych znalezisk radiologicznych – jeśli raz się je dobrze obejrzy, trudno je potem pomylić. W praktyce technika i lekarze radiolodzy zwracają szczególną uwagę na tę okolicę u pacjentów zgłaszających ból pięty, zwłaszcza nasilający się przy pierwszych krokach rano. Standardowo wykonuje się projekcje boczne stopy lub stawu skokowo-piętowego, bo w tej projekcji ostroga jest najlepiej uwidoczniona. W dobrych praktykach opisowych podkreśla się lokalizację (przyczep rozcięgna podeszwowego vs przyczep ścięgna Achillesa), wielkość wyrośli kostnej i ewentualne towarzyszące zmiany zwyrodnieniowe stawu skokowo-piętowego. Trzeba też pamiętać, że sama obecność ostrogi na RTG nie zawsze koreluje z nasileniem dolegliwości bólowych – czasem pacjent ma dużą ostrogę i minimalne objawy, a innym razem odwrotnie. W praktyce klinicznej wynik badania obrazowego łączy się z badaniem fizykalnym i wywiadem. Radiogram pełni tu rolę potwierdzającą i różnicującą – pomaga odróżnić ostrogę od złamań zmęczeniowych guza piętowego, zmian pourazowych czy rzadziej zmian guzowatych. W pracy technika elektroradiologii ważne jest prawidłowe ułożenie stopy, brak rotacji oraz dobranie takich parametrów ekspozycji, żeby struktury gąbczaste kości piętowej nie były ani przepalone, ani zbyt niedoświetlone – wtedy krawędzie ostrogi są wyraźne i łatwe do oceny.

Pytanie 40

Rozpraszanie promieniowania X, w wyniku którego następuje zwiększenie długości fali promieniowania, to zjawisko

A. Comptona.
B. Maxwella.
C. Boltzmana.
D. Bragga.
Prawidłowo wskazane zjawisko to efekt Comptona. W fizyce promieniowania mówi się, że jest to sprężyste rozpraszanie fotonów promieniowania X (albo gamma) na praktycznie swobodnych elektronach, po którym foton ma mniejszą energię, a więc większą długość fali. Energia nie znika, tylko dzieli się: część przejmuje elektron (zostaje on wybity z powłoki i zyskuje energię kinetyczną), a część zachowuje foton, ale już o niższej energii i zmienionym kierunku. Właśnie ta utrata energii fotonu jest fizyczną przyczyną zwiększenia długości fali. W praktyce radiologicznej efekt Comptona dominuje w zakresie energii typowej dla diagnostycznych zdjęć RTG klatki piersiowej czy jamy brzusznej, szczególnie w tkankach o średniej gęstości. Z mojego doświadczenia to jedno z kluczowych zjawisk, które trzeba rozumieć, jeśli ktoś chce sensownie mówić o kontraście obrazu i dawce rozproszonej. Rozproszone promieniowanie Comptona odpowiada za tzw. mgłę na obrazie, pogarsza kontrast i zwiększa niepotrzebne narażenie personelu. Dlatego w dobrych praktykach pracowni RTG stosuje się kratki przeciwrozproszeniowe, odpowiednie kolimowanie wiązki, właściwe parametry kV i mAs – właśnie po to, żeby ograniczać wpływ rozpraszania Comptona. W planowaniu osłon stałych i organizacji pracowni fizyk medyczny też musi brać pod uwagę udział promieniowania rozproszonego na ściany, sufit i podłogę. Co ważne, efekt Comptona jest w dużej mierze niezależny od liczby atomowej materiału, więc występuje zarówno w tkankach miękkich, jak i w kości, a jego intensywność bardziej zależy od gęstości elektronowej i energii wiązki. W tomografii komputerowej, przy typowych energiach efektywnych wiązki, rozpraszanie Comptona również ma duży udział i wpływa na artefakty oraz konieczność stosowania filtrów i algorytmów rekonstrukcji uwzględniających rozproszenie. Dlatego kojarzenie „zwiększenia długości fali po rozproszeniu” z nazwiskiem Compton to w medycynie obrazowej absolutna podstawa fizyki promieniowania.