Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 13 maja 2026 20:37
  • Data zakończenia: 13 maja 2026 20:56

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na obrazie rezonansu magnetycznego strzałką oznaczono wyrostek kolczysty kręgu

Ilustracja do pytania
A. szyjnego w płaszczyźnie czołowej.
B. szyjnego w płaszczyźnie strzałkowej.
C. piersiowego w płaszczyźnie czołowej.
D. piersiowego w płaszczyźnie strzałkowej.
Na przedstawionym obrazie MR widzimy odcinek szyjny kręgosłupa w projekcji bocznej, czyli w płaszczyźnie strzałkowej. Strzałka wskazuje na tylną, ostro zakończoną strukturę kostną wychodzącą ku tyłowi od łuku kręgu – to właśnie wyrostek kolczysty kręgu szyjnego. W rezonansie magnetycznym, szczególnie w sekwencjach T1-zależnych, trzon kręgu i łuk mają jednorodny, dość jasny sygnał, a wyrostki kolczyste układają się w charakterystyczny „łańcuszek” za tylną ścianą kanału kręgowego. W odcinku szyjnym łatwo rozpoznać sąsiednie struktury: z przodu tchawicę i przełyk, powyżej podstawę czaszki, a w kanale kręgowym rdzeń kręgowy o bardziej jednorodnym sygnale niż otaczające go krążki międzykręgowe. Moim zdaniem kluczowe jest tu kojarzenie kształtu i położenia: wyrostek kolczysty zawsze leży po stronie tylnej, w linii pośrodkowej, za łukiem kręgu, a w obrazie strzałkowym widzimy go jak „kolce” ustawione jeden za drugim. W praktyce klinicznej taka orientacja w anatomii obrazowej jest bardzo ważna przy ocenie urazów kręgosłupa szyjnego, np. złamań wyrostków kolczystych, zmian zwyrodnieniowych czy ocenie ustawienia kręgów po urazie komunikacyjnym. Dobre rozpoznawanie płaszczyzn obrazowania (strzałkowa vs czołowa vs poprzeczna) jest standardem w diagnostyce MR – technik i lekarz muszą sprawnie kojarzyć przekrój z anatomią 3D pacjenta. W odcinku szyjnym dodatkowo pomaga charakterystyczne wygięcie lordotyczne oraz obecność czaszki nad kręgami szyjnymi, co tutaj też ładnie widać. Poprawne rozpoznanie wyrostka kolczystego świadczy o tym, że potrafisz „czytać” obraz w sposób przestrzenny, a to w radiologii jest, z mojego doświadczenia, absolutna podstawa dobrej praktyki.

Pytanie 2

Podczas wykonywania zdjęcia rentgenowskiego klatki piersiowej w celu ochrony radiologicznej pacjenta należy zastosować

A. półfartuch ołowiowy założony z przodu pacjenta.
B. półfartuch ołowiowy założony z tyłu pacjenta.
C. fartuch ołowiowy założony z tyłu pacjenta.
D. fartuch ołowiowy założony z przodu pacjenta.
Prawidłowo wskazany został półfartuch ołowiowy założony z tyłu pacjenta. W projekcji PA klatki piersiowej pacjent stoi przodem do detektora, a lampa rentgenowska znajduje się z tyłu. To oznacza, że pierwotna wiązka promieniowania wchodzi od strony pleców, przechodzi przez klatkę piersiową i pada na detektor przed pacjentem. Z punktu widzenia ochrony radiologicznej właśnie od strony źródła promieniowania trzeba zabezpieczyć te okolice, które nie są przedmiotem badania, np. narządy rozrodcze, część jamy brzusznej czy tarczycę w pewnych ustawieniach. Półfartuch ołowiowy zakładany z tyłu osłania obszary znajdujące się bezpośrednio „po drodze” wiązki pierwotnej, a jednocześnie nie przysłania pola obrazowania klatki piersiowej, więc nie psuje zdjęcia. W praktyce klinicznej zgodnie z zasadą ALARA i wytycznymi ochrony radiologicznej unika się osłaniania tych części ciała, które mają być dokładnie zobrazowane, bo ołów powoduje artefakty i może zasłonić istotne struktury, np. fragment płuca czy śródpiersia. Dlatego fartuch z przodu w projekcji PA nie ma sensu – promieniowanie już przeszło przez pacjenta, a dodatkowo istnieje ryzyko, że krawędź fartucha wejdzie w pole obrazowania. Moim zdaniem dobrze jest zapamiętać prostą zasadę praktyczną: w standardowym RTG klatki piersiowej PA – osłona od strony lampy, czyli z tyłu; w innych projekcjach zawsze myślimy, skąd idzie wiązka i co chcemy chronić, żeby z jednej strony nie zwiększać niepotrzebnie dawki, a z drugiej nie utrudniać diagnostyki.

Pytanie 3

Promieniowanie jonizujące pośrednio to

A. promieniowanie α
B. promieniowanie γ
C. promieniowanie β⁺
D. promieniowanie β⁻
Klucz do tego pytania leży w rozróżnieniu między promieniowaniem bezpośrednio i pośrednio jonizującym. Typowy błąd polega na tym, że skoro wszystkie wymienione rodzaje promieniowania mogą powodować uszkodzenia w tkankach, to wydaje się, że wszystkie działają podobnie. A tak nie jest. Promieniowanie α oraz β⁺ i β⁻ to strumienie cząstek naładowanych (jądra helu albo elektrony/pozytony). Cząstki te niosą ładunek elektryczny, więc wchodząc w materię oddziałują z elektronami atomów praktycznie na każdym kroku swojej drogi. Każde takie oddziaływanie może bezpośrednio oderwać elektron z atomu, czyli wywołać jonizację. Dlatego mówi się o nich, że są promieniowaniem bezpośrednio jonizującym: ich podstawowy mechanizm działania to przekazywanie energii i ładunku bez żadnego „pośrednika”. Natomiast promieniowanie pośrednio jonizujące to takie, które samo nie ma ładunku elektrycznego. Foton γ albo X nie jest cząstką naładowaną, tylko kwantem energii pola elektromagnetycznego. On najpierw musi wejść w zjawisko fotoelektryczne, Comptona czy tworzenia par, żeby powstały wtórne elektrony lub pozytony. Dopiero te wtórne cząstki jonizują bezpośrednio ośrodek. Jeśli ktoś wybiera α lub β jako promieniowanie pośrednio jonizujące, to zwykle myli pojęcie „duża zdolność jonizacyjna” z „pośrednim mechanizmem jonizacji”. Faktycznie, cząstki α mają ogromną zdolność jonizacyjną, ale właśnie dlatego, że są bardzo silnie i bezpośrednio jonizujące na swojej krótkiej drodze. Podobnie elektrony β⁻ czy pozytony β⁺ – mają mniejszy zasięg niż fotony γ i zostawiają ślad jonizacji bardzo gęsto wzdłuż toru. W praktyce radioterapii i ochrony radiologicznej rozróżnienie to ma konkretne skutki: inaczej planuje się osłony dla wiązki fotonów γ (grube ściany z betonu, ołów) niż dla cząstek α lub β (często wystarczą cienkie bariery, ale problemem jest narażenie wewnętrzne). Moim zdaniem warto zapamiętać prostą zasadę: wszystko co niesie ładunek (α, β, protony, elektrony) jest promieniowaniem bezpośrednio jonizującym, a wszystko co jest neutralne (γ, X, neutrony) – promieniowaniem pośrednio jonizującym, bo najpierw musi wyprodukować wtórne cząstki naładowane, żeby naprawdę zjonizować tkankę.

Pytanie 4

Centratory laserowe zamontowane w kabinie aparatu terapeutycznego służą do

A. pozycjonowania pacjenta.
B. ustalania położenia zmiany nowotworowej.
C. oświetlania kabiny podczas terapii.
D. odmierzania odległości.
Prawidłowa odpowiedź dotyczy pozycjonowania pacjenta i dokładnie do tego służą centratory laserowe w kabinie aparatu terapeutycznego w radioterapii. Te lasery wyświetlają na ciele pacjenta cienkie, jasne linie – najczęściej w trzech płaszczyznach: czołowej, strzałkowej i poprzecznej. Dzięki temu zespół techników może ustawić pacjenta tak, aby jego ciało było zgodne z układem współrzędnych użytym w planie leczenia. Mówiąc prościej: to, co zaplanował fizyk medyczny i lekarz w systemie planowania leczenia, musi zostać bardzo precyzyjnie odtworzone na stole terapeutycznym, a lasery są do tego podstawowym narzędziem. W praktyce wygląda to tak, że przed pierwszym napromienianiem, podczas symulacji czy CT planistycznego, na skórze pacjenta zaznacza się tatuaże lub markery. Później, przy każdym kolejnym frakcjonowaniu, te znaczniki ustawia się dokładnie w liniach laserowych. Umożliwia to powtarzalne, milimetrowo dokładne ułożenie pacjenta dzień po dniu, co jest kluczowe, żeby dawka promieniowania trafiała w objętość tarczową, a nie w zdrowe tkanki. Z mojego doświadczenia to właśnie praca z laserami i pozycjonowaniem odróżnia radioterapię „na oko” od nowoczesnej, obrazowo prowadzonej terapii zgodnej z wytycznymi ESTRO czy IAEA. Dobre praktyki mówią, że lasery muszą być regularnie kontrolowane (tzw. QA – quality assurance), ich położenie kalibruje się względem izocentrum aparatu, a personel powinien unikać „kombinowania” i zawsze bazować na jasno zdefiniowanych punktach odniesienia. Współcześnie, nawet przy technikach takich jak IMRT czy VMAT, gdzie geometria wiązek jest bardzo złożona, podstawą nadal pozostaje poprawne ustawienie pacjenta względem laserów, a dopiero potem korekta obrazowa (IGRT) na podstawie CBCT lub zdjęć portowych.

Pytanie 5

W celu wyeliminowania zakłóceń obrazu MR przez sygnały pochodzące z tkanki tłuszczowej, stosuje się

A. obrazowanie PD – zależne.
B. obrazowanie T1 – zależne.
C. sekwencje FLAIR.
D. sekwencje STIR.
W obrazowaniu MR łatwo się pomylić, bo wiele sekwencji daje obrazy pozornie podobne, ale ich zadanie jest zupełnie inne. W tym pytaniu kluczowe jest rozumienie, że wyeliminowanie sygnału z tkanki tłuszczowej wymaga specjalnej techniki tłumienia tłuszczu, a nie tylko zmiany typu kontrastu (T1, T2, PD). Obrazowanie PD-zależne (proton density) koncentruje się głównie na różnicach w gęstości protonowej tkanek. Tłuszcz w takich sekwencjach zwykle nadal świeci dość jasno, bo ma wysoką gęstość protonów i stosunkowo krótki T1, więc jego sygnał nie jest ani tłumiony, ani selektywnie wygaszany. W praktyce PD używa się często w obrazowaniu stawów, ale dopiero w połączeniu z technikami fat-sat daje dobrą separację struktur. Obrazowanie T1-zależne kojarzy się wielu osobom z jasnym sygnałem z tłuszczu, i to jest właśnie odwrotność tego, o co chodzi w pytaniu. W sekwencjach T1-weighted tłuszcz jest z reguły bardzo jasny, co jest wykorzystywane do oceny anatomii, zawartości tłuszczu, patologii szpiku kostnego czy badania po kontraście gadolinowym. Samo przejście na sekwencję T1 nie usuwa zakłóceń od tłuszczu, tylko je wręcz podkreśla. To typowy błąd myślowy: „skoro tłuszcz jest wyraźny, to łatwiej go odróżnię”, ale pytanie dotyczy tłumienia jego sygnału, a nie lepszego zobaczenia. Sekwencje FLAIR to inna pułapka. FLAIR jest odmianą sekwencji T2-zależnej z inwersją, ale jej celem jest tłumienie sygnału z płynu mózgowo-rdzeniowego, a nie z tłuszczu. W neuroobrazowaniu FLAIR jest standardem do wykrywania zmian demielinizacyjnych, zapalnych czy niedokrwiennych przy komorach, bo CSF jest ciemny, a zmiany patologiczne w istocie białej pozostają jasne. Mechanizm fizyczny (inversion recovery) jest podobny jak w STIR, ale punkt „wyzerowania” ustawia się na T1 płynu, nie tłuszczu. Dlatego wybór FLAIR jako sekwencji do tłumienia tłuszczu jest merytorycznie błędny. Sedno sprawy jest takie: tylko sekwencje STIR są zaprojektowane tak, by dzięki odpowiednio dobranemu czasowi TI wyzerować sygnał z tłuszczu. Pozostałe odpowiedzi opisują sekwencje o innym przeznaczeniu, które bez dodatkowych technik fat-sat nie usuwają sygnału z tkanki tłuszczowej, a często wręcz go wzmacniają. W praktyce klinicznej zawsze warto pamiętać, co dokładnie dana sekwencja tłumi: STIR – tłuszcz, FLAIR – płyn, T1/PD – żadnego konkretnego komponentu, tylko ustawiają inny typ kontrastu między tkankami.

Pytanie 6

Strzykawka automatyczna do podawania kontrastu jest stosowana przy wykonywaniu

A. wlewu doodbytniczego.
B. cystografii mikcyjnej.
C. histerosalpingografii.
D. koronarografii.
Prawidłowo – strzykawka automatyczna do podawania środka cieniującego jest standardowo stosowana przy koronarografii. W badaniach naczyń wieńcowych serca bardzo ważne jest, żeby kontrast był podany szybko, pod odpowiednim ciśnieniem i w ściśle kontrolowanej objętości. Ręką po prostu nie da się tego zrobić tak powtarzalnie i precyzyjnie. Injektor automatyczny pozwala ustawić prędkość przepływu (np. kilka ml/s), całkowitą dawkę kontrastu na serię zdjęć, opóźnienie czasowe względem ekspozycji promieniowania oraz ewentualne tryby dwufazowe. Dzięki temu radiolog interwencyjny może skupić się na prowadzeniu cewnika w tętnicy wieńcowej, a nie na samym wstrzykiwaniu. W koronarografii używa się jodowych środków cieniujących podawanych dotętniczo, często u pacjentów z licznymi obciążeniami kardiologicznymi. Automatyczna strzykawka pozwala ograniczać ryzyko nagłych zmian hemodynamicznych – np. zbyt szybkiego, niekontrolowanego bolusa. Z mojego doświadczenia to też kwestia bezpieczeństwa dla personelu: system jest zamknięty, łatwiej utrzymać aseptykę, a ekspozycja rąk na promieniowanie jest mniejsza, bo operator nie musi trzymać zwykłej strzykawki przy stole angiograficznym. W pracowniach hemodynamicznych jest to w zasadzie złoty standard – aparatura angiograficzna jest fabrycznie przygotowana do współpracy z injektorem, a protokoły zabiegowe opisują dokładne parametry iniekcji dla różnych projekcji i gałęzi tętnic wieńcowych. W innych procedurach radiologicznych kontrast też bywa podawany automatycznie (np. w TK), ale w histerosalpingografii, cystografii mikcyjnej czy wlewie doodbytniczym stosuje się raczej ręczne, grawitacyjne lub bardzo łagodne podanie, bez typowego injektora wysokociśnieniowego, jak w koronarografii.

Pytanie 7

Zastosowana w badaniu radiologicznym kratka przeciwrozproszeniowa powoduje

A. zwiększenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
B. zwiększenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
C. zmniejszenie ilości promieniowania rozproszonego przez co zmniejsza się kontrast obrazu.
D. zmniejszenie ilości promieniowania rozproszonego przez co zwiększa się kontrast obrazu.
Właściwie wychwyciłeś sedno działania kratki przeciwrozproszeniowej. Jej głównym zadaniem jest właśnie zmniejszenie ilości promieniowania rozproszonego docierającego do detektora lub kliszy, dzięki czemu poprawia się kontrast obrazu. Fizycznie wygląda to tak, że kratka składa się z równoległych lub zbieżnych listew ołowianych przedzielonych materiałem przepuszczającym promieniowanie. Promieniowanie pierwotne, biegnące mniej więcej prostopadle do detektora, przechodzi przez szczeliny, a promieniowanie rozproszone, które ma kierunek skośny (po zjawisku Comptona w pacjencie), jest w dużej części pochłaniane przez listwy ołowiane. W efekcie na obrazie jest mniej „mgły” promiennej, a różnice gęstości tkanek są wyraźniejsze. To właśnie nazywamy wzrostem kontrastu. W praktyce klinicznej kratkę stosuje się szczególnie przy badaniach struktur grubych lub gęstych: klatka piersiowa u dorosłych, zdjęcia kręgosłupa, miednicy, czaszki. Tam rozproszenia jest dużo i bez kratki obraz byłby mocno spłaszczony tonalnie. Trzeba jednak pamiętać o jednym ważnym aspekcie – kratka usuwa nie tylko promieniowanie rozproszone, ale też część promieniowania pierwotnego. To oznacza, że aby uzyskać odpowiednią ekspozycję, trzeba zwiększyć dawkę (mAs), co z kolei podnosi narażenie pacjenta. Z mojego doświadczenia to jest klasyczny kompromis w radiologii: lepsza jakość obrazu kontra dawka. Standardy dobrej praktyki (np. wytyczne ICRP, europejskie zalecenia dla radiografii) mówią jasno: kratkę stosować wtedy, gdy rzeczywiście jest potrzebna, a u dzieci i w badaniach cienkich części ciała raczej z niej rezygnować. Warto też dobrać odpowiedni współczynnik kratki (np. 8:1, 10:1) do typu badania i odległości ognisko–detektor, bo to ma wpływ zarówno na kontrast, jak i na konieczną ekspozycję.

Pytanie 8

Zgodnie z procedurą wzorcową w badaniu MR należy ułożyć pacjenta na brzuchu do diagnostyki

A. stawu barkowego.
B. jamy brzusznej.
C. gruczołu piersiowego.
D. kręgosłupa szyjnego.
Prawidłowo – w standardowych procedurach obrazowania MR gruczołu piersiowego pacjentkę układa się na brzuchu, czyli w pozycji pronacyjnej. To jest tzw. pozycja na brzuchu z piersiami swobodnie zwisającymi w specjalnych otworach cewki piersiowej. Dzięki temu gruczoł piersiowy nie jest spłaszczony przez ciężar własnego ciała, lepiej się układa i można uzyskać jednorodne wypełnienie kontrastem oraz równomierne pole magnetyczne. Dodatkowo taka pozycja poprawia separację tkanek i zmniejsza artefakty ruchowe związane z oddychaniem. W praktyce technik MR stosuje dedykowaną cewkę piersiową (breast coil), w której piersi są „zawieszone” w polu widzenia, a klatka piersiowa i klatka kostna są podparte. Moim zdaniem to jedno z badań, gdzie pozycjonowanie ma kluczowe znaczenie dla jakości diagnostycznej – źle ułożona pacjentka to potem problem z oceną zmian ogniskowych, naciekania ściany klatki piersiowej czy węzłów chłonnych. W wytycznych dotyczących badań MR piersi (np. EUSOBI, ACR) wyraźnie podkreśla się konieczność stosowania pozycji na brzuchu i wysokopolowego skanera z odpowiednią sekwencją dynamiczną po kontraście. W badaniach kontrolnych po leczeniu oszczędzającym pierś, w ocenie wieloogniskowości raka, a także u pacjentek z implantami silikonowymi, ta pozycja pozwala na lepsze odróżnienie zmienionego nowotworowo miąższu od blizn, zmian zapalnych czy pofałdowanych implantów. Warto też pamiętać, że ułożenie na brzuchu poprawia komfort psychiczny wielu pacjentek, daje poczucie większej intymności i zmniejsza lęk, co przekłada się na mniejszą liczbę ruchów i lepszą jakość obrazów. W diagnostyce jamy brzusznej, barku czy odcinka szyjnego kręgosłupa pozycja standardowa jest inna, dlatego właśnie odpowiedź dotycząca gruczołu piersiowego najlepiej odzwierciedla procedurę wzorcową.

Pytanie 9

Które badanie, zgodnie z zakresem kompetencji, może samodzielnie wykonać technik elektroradiolog?

A. Pielografię.
B. Bronchoskopię.
C. Rentgenowskie jednokontrastowe żołądka.
D. Rentgenowskie klatki piersiowej z kontrastem.
W tym pytaniu łatwo wpaść w pułapkę myślenia, że skoro technik elektroradiolog pracuje „przy aparacie” i przy badaniach z kontrastem, to może wykonywać większość procedur inwazyjnych, w których używa się promieniowania czy środków cieniujących. To jednak mocne uproszczenie. Zakres jego samodzielnych kompetencji dotyczy przede wszystkim badań obrazowych, gdzie nie ma charakteru zabiegowego, a rola technika koncentruje się na obsłudze aparatury, pozycjonowaniu pacjenta, doborze parametrów ekspozycji i zapewnieniu ochrony radiologicznej. Pielografia jest procedurą urologiczną o charakterze inwazyjnym, gdzie kontrast podaje się bezpośrednio do układu moczowego, np. przez cewnik. Wymaga to umiejętności zabiegowych, oceny anatomicznej w czasie rzeczywistym oraz podejmowania decyzji klinicznych, co jest zarezerwowane dla lekarza. Technik może asystować, przygotować stanowisko, obsługiwać aparat RTG czy ramię C, ale nie wykonuje samodzielnie samego badania jako procedury medycznej. Podobnie bronchoskopia to typowe badanie endoskopowe dróg oddechowych. Wprowadza się bronchoskop do dróg oddechowych, często w znieczuleniu, czasem z pobraniem wycinków. To już czysta kompetencja lekarska (pulmonologia, torakochirurgia). Technik elektroradiolog nie wykonuje bronchoskopii, nawet jeśli czasem w pracowni endoskopowej są używane aparaty RTG czy fluoroskopia do kontroli położenia narzędzi. Często mylone jest też „RTG z kontrastem” z procedurami, które w praktyce wymagają bardziej złożonej współpracy lekarza i technika, jak klasyczne badanie kontrastowe żołądka. Rentgenowskie jednokontrastowe badanie żołądka, choć technicznie oparte na promieniowaniu RTG, jest prowadzone przez lekarza radiologa, który na bieżąco ocenia obraz, zmienia pozycje pacjenta, decyduje o kolejnych ujęciach, a czasami również o tym, kiedy przerwać badanie. Technik tutaj przygotowuje aparat, ustawia projekcje, nadzoruje dawkę i jakość obrazu, ale nie prowadzi całej procedury samodzielnie. Typowy błąd myślowy polega na wrzuceniu do jednego worka wszystkich badań „z kontrastem” i założeniu, że skoro technik zna zasady stosowania środków cieniujących, to może samodzielnie wykonywać każde z nich. W rzeczywistości kluczowe jest rozróżnienie badań typowo obrazowych, nieinwazyjnych lub mało inwazyjnych, gdzie technik pracuje głównie na aparaturze, od badań zabiegowych i endoskopowych, które wymagają uprawnień lekarskich. Właśnie dlatego w tym zestawie poprawna jest tylko procedura klasycznego RTG klatki piersiowej z kontrastem, a nie badania urologiczne czy endoskopowe.

Pytanie 10

Na obrazie MR jamy brzusznej strzałką wskazano

Ilustracja do pytania
A. wątrobę.
B. śledzionę.
C. trzustkę.
D. nerkę.
Na obrazie MR jamy brzusznej strzałka wskazuje wątrobę, czyli największy narząd miąższowy w górnej części jamy brzusznej, po prawej stronie. Na przekroju czołowym, takim jak na tym zdjęciu, wątroba zajmuje prawą górną część obrazu, tuż pod przeponą, przylega do prawej ściany klatki piersiowej i zwykle częściowo przykrywa prawą nerkę. W rezonansie magnetycznym jej sygnał jest stosunkowo jednorodny, a granica z płucem i przeponą jest wyraźna. Moim zdaniem to jedno z podstawowych ćwiczeń w radiologii: najpierw lokalizacja wątroby, potem dopiero szukanie zmian patologicznych. W praktyce klinicznej prawidłowe rozpoznanie wątroby na MR jest kluczowe przy ocenie ogniskowych zmian, takich jak naczyniaki, przerzuty, HCC czy torbiele. Standardem jest porównywanie położenia narządu względem kręgosłupa, żeber i innych narządów – to bardzo pomaga, gdy obraz nie jest idealny albo pacjent był słabo ułożony. Dobre praktyki mówią, żeby zawsze „czytać” badanie systematycznie: najpierw orientacja w płaszczyźnie i stronach ciała (oznaczenia L/R), potem narządy miąższowe (wątroba, śledziona, nerki, trzustka), a dopiero na końcu drobne szczegóły. Dzięki temu łatwiej uniknąć pomylenia wątroby np. ze śledzioną w nietypowych wariantach anatomicznych czy przy dużych guzach. W codziennej pracy technika lub młodego radiologa poprawna identyfikacja wątroby na MR to absolutna podstawa do dalszej, bardziej zaawansowanej interpretacji badania.

Pytanie 11

Promieniowanie rentgenowskie powstaje w wyniku hamowania

A. kwantów energii na katodzie lampy rentgenowskiej.
B. elektronów na katodzie lampy rentgenowskiej.
C. kwantów energii na anodzie lampy rentgenowskiej.
D. elektronów na anodzie lampy rentgenowskiej.
W tym zagadnieniu łatwo pomylić kilka pojęć: katodę, anodę, elektrony i „kwanty energii”. W lampie rentgenowskiej mamy klasyczny układ katoda–anoda w próżni. Katoda to żarnik emitujący elektrony na skutek rozgrzania, natomiast anoda to tarcza, w którą te elektrony uderzają po przyspieszeniu wysokim napięciem. Kluczowe jest to, że „materiałem roboczym” są elektrony, a nie gotowe fotony czy jakieś abstrakcyjne „kwanty energii”. Częsty błąd myślowy polega na odwróceniu roli anody i katody lub na traktowaniu kwantów energii jakby już istniały w lampie i dopiero gdzieś się „hamowały”. W rzeczywistości przed zderzeniem z anodą mamy wyłącznie strumień elektronów, a nie promieniowanie X. Promieniowanie powstaje dopiero w momencie gwałtownego hamowania tych naładowanych cząstek w polu jąder atomowych materiału anody. Stąd odpowiedzi, w których mowa o hamowaniu na katodzie, są niezgodne z fizyką procesu. Katoda jest miejscem emisji i „wyrzucania” elektronów, a nie miejscem ich wytracania energii kinetycznej. Elektrony są tam przyspieszane przez pole elektryczne, więc nie ma mowy o wytwarzaniu promieniowania hamowania. Podobnie określenie „hamowanie kwantów energii” jest po prostu błędne pojęciowo. Kwant promieniowania X jest już efektem hamowania – to foton emitowany, gdy elektron traci energię. Nie da się więc logicznie mówić, że kwanty energii ulegają hamowaniu, bo one są produktem tego hamowania. Z punktu widzenia dobrej praktyki w radiologii warto zapamiętać prosty schemat: katoda emituje elektrony, wysokie napięcie je przyspiesza, anoda zatrzymuje i hamuje, a skutkiem tego jest powstanie fotonów promieniowania X. To tłumaczy, czemu konstrukcja anody (materiał, kąt nachylenia, chłodzenie) jest tak istotna, a także dlaczego większość ciepła generuje się właśnie w ognisku anody. Zrozumienie tego mechanizmu pomaga później ogarnąć m.in. charakterystykę widma promieniowania, zależność od kV i mAs oraz ograniczenia obciążenia cieplnego lampy – co jest podstawą bezpiecznej i poprawnej technicznie pracy przy aparacie RTG.

Pytanie 12

W badaniu EKG odprowadzenie I rejestruje różnicę potencjałów między

A. prawym przedramieniem a lewym podudziem.
B. prawym podudziem a lewym przedramieniem.
C. prawym a lewym przedramieniem.
D. prawym a lewym podudziem.
Prawidłowo – w standardowym 12‑odprowadzeniowym EKG odprowadzenie I rejestruje różnicę potencjałów między prawym a lewym przedramieniem, czyli technicznie między elektrodą na prawym nadgarstku (RA – right arm) a elektrodą na lewym nadgarstku (LA – left arm). To jest tzw. odprowadzenie dwubiegunowe kończynowe wg Einthovena. Mówiąc prościej: aparat porównuje, jaki sygnał elektryczny dociera z prawej ręki, a jaki z lewej ręki i rysuje z tego linię w zapisie EKG. Z mojego doświadczenia to jedno z podstawowych pojęć, które warto mieć „w małym palcu”, bo potem łatwiej ogarnia się całą oś elektryczną serca. W praktyce klinicznej odprowadzenie I pokazuje aktywność elektryczną serca widzianą mniej więcej w płaszczyźnie czołowej, z kierunku lewej strony klatki piersiowej. To odprowadzenie jest szczególnie czułe np. na zmiany zlokalizowane bocznie w lewej komorze. Przy prawidłowym podłączeniu elektrod kompleks QRS w odprowadzeniu I jest zazwyczaj dodatni (większość wychyleń idzie do góry), bo fala depolaryzacji przemieszcza się generalnie w stronę lewej komory. Standardy (np. wytyczne ESC, AHA) bardzo mocno podkreślają prawidłowe rozmieszczenie elektrod: prawa ręka – prawa kończyna górna, lewa ręka – lewa kończyna górna, prawa i lewa noga – kończyny dolne, przy czym elektroda na prawej nodze pełni zwykle funkcję elektrody uziemiającej. W warunkach praktycznych w ambulatorium często nie zakłada się elektrod dokładnie na nadgarstkach, tylko wyżej na przedramionach, ale zasada pozostaje ta sama: odprowadzenie I to zawsze różnica potencjałów między prawą a lewą kończyną górną. Warto też pamiętać, że na podstawie odprowadzeń I, II i III można konstruować trójkąt Einthovena i analizować oś elektryczną serca – to już wyższy poziom interpretacji, ale bardzo przydatny w codziennej pracy.

Pytanie 13

Która metoda diagnostyczna służy do określenia gęstości minerału kostnego w ujęciu objętościowym g/cm³?

A. Absorpcjometria podwójnej energii promieniowania rentgenowskiego.
B. Absorpcjometria pojedynczej energii promieniowania rentgenowskiego.
C. Ilościowa metoda ultradźwiękowa.
D. Ilościowa tomografia komputerowa.
W tym pytaniu łatwo się złapać na skojarzeniach z klasyczną densytometrią, bo większość osób od razu myśli o DXA jako o „badaniu gęstości kości”. Trzeba jednak rozróżnić dwie rzeczy: pomiar powierzchniowy (arealny) w g/cm² i pomiar objętościowy w g/cm³. W metodach opartych na promieniowaniu rentgenowskim w projekcji 2D, takich jak absorpcjometria podwójnej energii (DXA) czy pojedynczej energii, wynik jest de facto gęstością masy na powierzchnię, a nie na objętość. To jest bardzo przydatne klinicznie, bo na DXA opierają się oficjalne kryteria rozpoznawania osteoporozy (T-score według WHO), ale fizycznie nie jest to gęstość objętościowa. DXA (podwójna energia) wykorzystuje dwa widma energii promieniowania, co pozwala odróżnić kość od tkanek miękkich i uzyskać precyzyjny pomiar BMD, lecz nadal jest to wartość przeliczona na cm², wynikająca z projekcyjnego charakteru badania. Jednoenergetyczna absorpcjometria rentgenowska to starsza, mniej dokładna technika, historycznie stosowana głównie w badaniach obwodowych (nadgarstek, pięta). Ona także opiera się na projekcji 2D i nie daje wiarygodnej gęstości w g/cm³. Wiele osób intuicyjnie zakłada, że skoro jest „absorpcjometria”, to musi oznaczać bezpośredni pomiar gęstości fizycznej, ale to jest właśnie typowy błąd myślowy: mylenie gęstości mineralnej w sensie klinicznym (BMD arealna) z gęstością objętościową. Z kolei ilościowa metoda ultradźwiękowa w ogóle nie mierzy gęstości w jednostkach g/cm³. W ultrasonografii ilościowej analizuje się prędkość rozchodzenia się fali w kości i tłumienie (BUA – Broadband Ultrasound Attenuation). Na tej podstawie szacuje się jakość kości, ryzyko złamań i pośrednio strukturę beleczkową, ale wynik jest podawany w jednostkach charakterystycznych dla ultradźwięków, nie w standardowych jednostkach gęstości masowej. Z mojego doświadczenia sporo osób myśli, że „ilościowa” = „absolutna w g/cm³”, co też jest mylące. Jedyną z wymienionych metod, która naprawdę potrafi wyznaczyć gęstość mineralną w ujęciu objętościowym, jest ilościowa tomografia komputerowa, ponieważ wykorzystuje obrazowanie 3D i kalibrację z fantomem referencyjnym, a wynik odnosi do objętości tkanki kostnej. To właśnie różni QCT od metod projekcyjnych i ultradźwiękowych i dlatego pozostałe odpowiedzi, choć brzmią sensownie, nie spełniają kryterium pomiaru w g/cm³.

Pytanie 14

Ligand stosuje się

A. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
B. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
C. w radiologii klasycznej jako środek kontrastujący pozytywny.
D. w radiologii klasycznej jako środek kontrastujący negatywny.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który wiąże się selektywnie z określonym celem biologicznym, np. receptorem, enzymem czy transporterem, i właśnie w medycynie nuklearnej pełni rolę nośnika radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi za rękę” izotop promieniotwórczy dokładnie tam, gdzie chcemy zobaczyć czynność narządu albo ognisko chorobowe. Radioizotop sam z siebie nie jest wybiórczy, dopiero połączenie go z odpowiednim ligandem tworzy radiofarmaceutyk o określonej tropowości, np. do kości, mięśnia sercowego, guzów neuroendokrynnych czy receptorów dopaminergicznych. W scyntygrafii kości używa się ligandów fosfonianowych znakowanych technetem-99m, które gromadzą się w miejscach wzmożonego metabolizmu kostnego. W scyntygrafii perfuzyjnej serca mamy ligandy lipofilne, które wnikają do kardiomiocytów proporcjonalnie do przepływu krwi. W PET z kolei typowym przykładem jest 18F-FDG, gdzie ligandem jest analog glukozy, a izotopem fluor-18. Z mojego doświadczenia to właśnie zrozumienie roli liganda tłumaczy, czemu dwa różne radiofarmaceutyki z tym samym izotopem mogą mieć zupełnie inne wskazania. Dobre praktyki w medycynie nuklearnej wymagają bardzo świadomego doboru liganda do konkretnego badania: bierzemy pod uwagę farmakokinetykę, specyficzność wiązania, szybkość eliminacji, a także bezpieczeństwo dla pacjenta. W wytycznych EANM czy IAEA wyraźnie podkreśla się, że to właściwości liganda decydują o jakości obrazowania funkcjonalnego, a nie tylko sam izotop. Dlatego poprawne skojarzenie pojęcia „ligand” z nośnikiem radiofarmaceutyku w medycynie nuklearnej jest bardzo istotne i praktycznie przydatne w pracy z gammakamerą czy PET.

Pytanie 15

Który narząd został oznaczony strzałką na obrazie rezonansu magnetycznego?

Ilustracja do pytania
A. Nerka.
B. Trzustka.
C. Śledziona.
D. Wątroba.
Na obrazie rezonansu magnetycznego strzałka wskazuje nerkę – dokładnie jej zarys z charakterystycznym układem kielichowo‑miedniczkowym. Na projekcji czołowej (koronalnej) MR nerki leżą po obu stronach kręgosłupa, mają kształt zbliżony do fasoli i wyraźną granicę między korą a rdzeniem. Wewnątrz widoczny jest centralnie położony układ zbiorczy, który w wielu sekwencjach ma inny sygnał niż otaczający miąższ. To właśnie ten „płatkowaty” obraz w obrębie wnęki nerki dobrze widać tam, gdzie skierowana jest strzałka. Moim zdaniem to jeden z łatwiejszych narządów do rozpoznawania na MR, jeśli raz zapamięta się jego położenie względem kręgosłupa i dużych naczyń. W praktyce klinicznej poprawna identyfikacja nerki na MR jest kluczowa przy ocenie guzów, torbieli, wodonercza, zmian zapalnych czy wad wrodzonych. Radiolodzy zgodnie z zaleceniami towarzystw (np. ESR, EAU) opisują w MR nerki m.in. grubość miąższu, zarys zewnętrzny, sygnał w różnych sekwencjach, obecność zmian ogniskowych oraz stan układu kielichowo‑miedniczkowego i moczowodu. W badaniach z kontrastem ocenia się też perfuzję guza i funkcję wydzielniczą. W technice ważne jest prawidłowe pozycjonowanie pacjenta w osi długiej kręgosłupa i dobór sekwencji T1/T2 oraz ewentualnie sekwencji tłumienia tłuszczu, żeby wyraźnie odróżnić miąższ nerki od otaczającej tkanki tłuszczowej okołonerkowej. Z mojego doświadczenia dobrze jest też zawsze „przelecieć” wzrokiem kolejne warstwy, żeby zobaczyć ciągłość nerki z moczowodem i uniknąć pomyłek z innymi strukturami jamy brzusznej.

Pytanie 16

W zapisie EKG zespół QRS odzwierciedla

A. repolaryzację mięśnia przedsionków i mięśnia komór.
B. wyłącznie depolaryzację mięśnia komór.
C. wyłącznie repolaryzację mięśnia komór.
D. depolaryzację mięśnia przedsionków i mięśnia komór.
W tym pytaniu bardzo łatwo wpaść w pułapkę myślenia, że skoro zespół QRS jest taki „duży” i wyraźny, to musi zawierać w sobie różne procesy naraz: depolaryzację i repolaryzację, przedsionków i komór. To jednak nie tak działa. Z punktu widzenia elektrofizjologii serca zapis EKG jest sumą wektorów aktywności elektrycznej, ale poszczególne fragmenty krzywej przypisujemy do konkretnych zjawisk. Załamek P odpowiada depolaryzacji przedsionków, zespół QRS – depolaryzacji komór, a załamek T (plus odcinek ST) – repolaryzacji komór. Repolaryzacja mięśnia przedsionków rzeczywiście zachodzi, ale jest na tyle słaba i nakłada się w czasie na zespół QRS, że w standardowym 12-odprowadzeniowym EKG jej po prostu nie widać jako osobnego elementu. Założenie, że QRS odzwierciedla wyłącznie repolaryzację komór, odwraca kolejność zdarzeń. Repolaryzacja komór jest procesem wolniejszym, rozproszonym, dlatego w zapisie ma inną morfologię – to jest właśnie załamek T, czasem także załamek U. Zespół QRS jest szybki, stromy i stosunkowo wąski, co wynika z bardzo szybkiego przewodzenia pobudzenia przez układ bodźcoprzewodzący komór. W praktyce diagnostycznej, gdy oceniamy zaburzenia repolaryzacji (np. w niedokrwieniu, zaburzeniach elektrolitowych, wydłużonym QT), analizujemy głównie odcinek ST i załamek T, a nie QRS. Równie mylące jest kojarzenie zespołu QRS z jednoczesną depolaryzacją przedsionków i komór albo z łączoną repolaryzacją przedsionków i komór. Przedsionki „pracują elektrycznie” wcześniej: ich depolaryzacja to załamek P, a repolaryzacja zachodzi w czasie, gdy w zapisie pojawia się QRS, więc zlewa się z nim i jest niewidoczna. Standardowe podręczniki EKG i wytyczne kardiologiczne bardzo jasno to rozgraniczają, bo ma to znaczenie praktyczne. Jeśli ktoś myśli, że QRS zawiera także depolaryzację przedsionków, może potem błędnie interpretować brak załamka P, nie rozpoznając np. migotania przedsionków czy rytmów z węzła AV. Typowym błędem poznawczym jest też utożsamianie „dużego” wychylenia z większą ilością procesów biologicznych. Tymczasem wysoka amplituda QRS wynika głównie z większej masy mięśnia komór w porównaniu z przedsionkami i bardzo szybkiego, zsynchronizowanego pobudzenia. Dlatego w diagnostyce elektromedycznej przy interpretacji EKG zawsze uczymy się schematu: P – depolaryzacja przedsionków, QRS – depolaryzacja komór, T – repolaryzacja komór. To prosty model, ale bardzo użyteczny w codziennej praktyce, pozwalający logicznie analizować rytm, przewodzenie i zmiany niedokrwienne bez wpadania w takie właśnie nieporozumienia.

Pytanie 17

Który wynik badania tympanometrycznego potwierdza, że słuch badanego pacjenta jest w granicach normy?

A. Wynik badania 1
Ilustracja do odpowiedzi A
B. Wynik badania 4
Ilustracja do odpowiedzi B
C. Wynik badania 3
Ilustracja do odpowiedzi C
D. Wynik badania 2
Ilustracja do odpowiedzi D
Prawidłową krzywą tympanometryczną w kontekście prawidłowego słuchu pokazuje wynik badania 3, czyli klasyczny wykres typu A. W tym typie tympanogramu szczyt krzywej znajduje się w okolicy 0 daPa (zwykle między -100 a +50 daPa), co oznacza, że ciśnienie w uchu środkowym jest wyrównane z ciśnieniem atmosferycznym, a trąbka słuchowa działa prawidłowo. Dodatkowo wysokość szczytu (tzw. podatność, compliance) mieści się w normie – błona bębenkowa i łańcuch kosteczek są wystarczająco ruchome, ale nie nadmiernie wiotkie. W praktyce klinicznej właśnie taki tympanogram łączy się najczęściej z prawidłowymi progami w audiometrii tonalnej i brakiem przewodzeniowego ubytku słuchu. Moim zdaniem warto zapamiętać prostą zasadę: szczyt w okolicy zera = zdrowe ucho środkowe (oczywiście przy braku innych patologii). W gabinecie laryngologicznym taki wynik widzimy np. u dzieci po skutecznym leczeniu wysiękowego zapalenia ucha, kiedy płyn już się wchłonął, a wentylacja jamy bębenkowej wróciła do normy. Z mojego doświadczenia, przy ocenie tympanogramu zawsze trzeba popatrzeć jednocześnie na typ krzywej, jej wysokość oraz szerokość przy połowie amplitudy – zbyt szeroka krzywa albo bardzo niska podatność mogą już sugerować początki dysfunkcji ucha środkowego, nawet jeśli szczyt jest blisko 0 daPa. Jednak w typowych testach egzaminacyjnych za wzorzec prawidłowego ucha przyjmuje się właśnie taki kształt jak na wyniku 3: pojedynczy, wyraźny, wąski szczyt w okolicy ciśnienia atmosferycznego, bez spłaszczenia, bez przesunięcia w stronę ciśnień ujemnych czy dodatnich. To jest zgodne z podręcznikowymi kryteriami tympanogramu typu A.

Pytanie 18

Brachyterapia polega na napromieniowaniu pacjenta promieniowaniem

A. ze źródeł umieszczonych w bezpośrednim sąsiedztwie lub w napromienianych tkankach.
B. cząsteczkowym pochodzącym z akceleratora.
C. ze źródeł umieszczonych tylko na skórze pacjenta.
D. fotonowym pochodzącym z akceleratora.
Prawidłowo – istota brachyterapii polega właśnie na tym, że źródła promieniowania jonizującego umieszcza się w bezpośrednim sąsiedztwie guza albo wręcz w samych napromienianych tkankach. Dzięki temu dawka jest bardzo wysoka w objętości nowotworu, a bardzo szybko spada w miarę oddalania się od źródła. To jest kluczowa zaleta tej metody w porównaniu z teleradioterapią, gdzie promieniowanie dociera z zewnątrz, z dużej odległości (z akceleratora liniowego). W praktyce klinicznej stosuje się różne techniki brachyterapii: śródtkankową (np. przy rakach prostaty, języka, piersi – igły lub implanty z izotopem wprowadzane w guz), śródjamową (np. rak szyjki macicy, endometrium – aplikatory w jamie macicy lub pochwie) czy powierzchowną, gdy źródło jest tuż przy skórze. Najczęściej używane są źródła irydu-192 (HDR, PDR) lub jodu-125, cezu-137, palladu-103, w zależności od wskazań. Planowanie brachyterapii odbywa się na podstawie badań obrazowych (TK, MR, czasem USG), a system planowania dawki dokładnie wylicza rozkład izodoz wokół źródeł. Zgodnie ze standardami radioterapii onkologicznej (np. wytyczne ESTRO, ICRU) bardzo ważne jest precyzyjne pozycjonowanie aplikatorów oraz kontrola ich położenia przed napromienianiem, bo nawet niewielkie przesunięcie może zmienić rozkład dawki w krytycznych narządach. Moim zdaniem warto zapamiętać jedno: brachyterapia = źródło promieniowania blisko guza, wysoka dawka lokalnie, oszczędzenie tkanek zdrowych. To właśnie odróżnia ją od „klasycznego” napromieniania z akceleratora.

Pytanie 19

Miejscem wykonania pomiaru densytometrycznego z kości przedramienia jest

A. koniec dalszy kości promieniowej strony niedominującej.
B. środek trzonu kości promieniowej strony niedominującej.
C. koniec dalszy kości promieniowej strony dominującej.
D. środek trzonu kości promieniowej strony dominującej.
Prawidłowo wskazane miejsce pomiaru densytometrycznego w obrębie kości przedramienia to koniec dalszy kości promieniowej strony niedominującej. W praktyce oznacza to zwykle lewy nadgarstek u osoby praworęcznej. Właśnie ten obszar jest standardowo wykorzystywany w densytometrii obwodowej (pDXA, QCT), bo zawiera dużo kości beleczkowej, bardzo wrażliwej na utratę masy kostnej w osteoporozie. Dzięki temu badanie jest czułe na wczesne zmiany. Strona niedominująca jest wybierana celowo – z mojego doświadczenia to prosty sposób, żeby ograniczyć wpływ dodatkowych obciążeń mechanicznych, mikrourazów czy zmian zwyrodnieniowych charakterystycznych dla ręki częściej używanej w pracy, sporcie czy codziennych czynnościach. To pozwala uzyskać wynik bardziej reprezentatywny dla ogólnego stanu szkieletu, a nie tylko dla „przepracowanej” kończyny. W wytycznych dotyczących densytometrii podkreśla się, że badaniem referencyjnym do rozpoznawania osteoporozy jest pomiar BMD w odcinku lędźwiowym kręgosłupa i w bliższym odcinku kości udowej metodą DXA. Pomiar z dalszego końca kości promieniowej strony niedominującej traktuje się jako badanie uzupełniające, bardzo przydatne u pacjentów, u których nie można wykonać standardowego DXA (np. po rozległych operacjach, z deformacjami kręgosłupa, endoprotezami obu bioder). Warto też pamiętać, że densytometr wymaga prawidłowego ułożenia kończyny: nadgarstek musi być ustawiony płasko, bez rotacji, z prawidłowym zakresem skanowania obejmującym dalszą nasadę kości promieniowej. Moim zdaniem kluczowe w pracy technika jest powtarzalne pozycjonowanie, bo dopiero wtedy kolejne badania w czasie dają wiarygodne porównanie i można ocenić rzeczywistą dynamikę utraty masy kostnej.

Pytanie 20

W pozytonowej tomografii emisyjnej PET zostaje zarejestrowane promieniowanie powstające podczas

A. anihilacji pary elektron-pozyton.
B. rozpraszania comptonowskiego.
C. anihilacji pary proton-antyproton.
D. rozpraszania culombowskiego.
W PET nie rejestruje się przypadkowego promieniowania ani ogólnie „jakichś” rozproszeń, tylko bardzo konkretne fotony powstałe w wyniku anihilacji pary elektron–pozyton. Pomyłki biorą się często z mieszania różnych zjawisk fizycznych, które wszystkie występują w diagnostyce obrazowej, ale pełnią inne role. Rozpraszanie coulombowskie to oddziaływanie naładowanych cząstek z polami elektrycznymi jąder lub elektronów. Ma znaczenie np. przy przechodzeniu elektronów czy protonów przez materię, wpływa na tor cząstki, ale nie jest zjawiskiem, które generuje fotony 511 keV wykorzystywane w PET. Można powiedzieć, że jest to bardziej efekt uboczny ruchu naładowanych cząstek niż źródło obrazu. Rozpraszanie comptonowskie z kolei jest bardzo ważne w fizyce promieniowania jonizującego i w klasycznej radiologii. Foton gamma zderza się z elektronem, oddaje mu część energii i zmienia kierunek. W PET takie rozpraszanie niestety też się dzieje, ale jest traktowane jako źródło błędu – foton po rozproszeniu ma inny kierunek i energię, co zaburza dokładność lokalizacji miejsca anihilacji. Systemy PET stosują różne algorytmy korekcji rozpraszania comptonowskiego, ale nie jest ono tym zjawiskiem, które chcemy zarejestrować jako sygnał użyteczny. Anihilacja pary proton–antyproton to już w ogóle inna liga fizyki cząstek, spotykana w akceleratorach, a nie w rutynowej medycynie nuklearnej. W organizmie nie wstrzykujemy antyprotonów, tylko radioizotopy emitujące pozytony (np. 18F, 11C, 13N, 15O). Typowym błędem jest też myślenie, że „skoro to medycyna nuklearna, to pewnie chodzi o jakieś ogólne promieniowanie gamma z rozpadu jądrowego”. W PET liczy się konkretny mechanizm: emisja pozytonu, jego spowolnienie w tkance i anihilacja z elektronem, prowadząca do emisji dwóch fotonów 511 keV w koincydencji. Dopiero rejestracja tych dwóch fotonów naraz pozwala na precyzyjne odtworzenie położenia źródła. Z praktycznego punktu widzenia warto pamiętać: w PET zawsze myślimy o pozytonach i ich anihilacji, a rozpraszanie i inne efekty traktujemy jako zakłócenia, które trzeba skorygować zgodnie z zaleceniami producentów systemów PET/CT i wytycznymi EANM czy IAEA.

Pytanie 21

Wskazaniem do wykonania scyntygrafii perfuzyjnej jest

A. ropień płuca.
B. zatorowość płucna.
C. zapalenie płuc.
D. ciężkie nadciśnienie płucne.
W tym zadaniu łatwo wpaść w pułapkę myślenia, że skoro chodzi o płuca, to każde poważne schorzenie płuc będzie wskazaniem do scyntygrafii perfuzyjnej. To jednak tak nie działa. Ropień płuca i zapalenie płuc to przede wszystkim zmiany zapalne i destrukcyjne w miąższu płucnym, które najlepiej ocenia się w klasycznym RTG klatki piersiowej lub w tomografii komputerowej. W tych sytuacjach potrzebujemy dokładnego zobrazowania struktury anatomicznej: jamy ropnia, poziomu płynu, rozległości nacieku, ewentualnie zmian towarzyszących w opłucnej. Scyntygrafia perfuzyjna nie jest tu badaniem pierwszego wyboru, bo pokazuje głównie rozkład przepływu krwi, a nie szczegółową budowę miąższu. Oczywiście ciężkie zapalenie płuc może wtórnie zaburzać perfuzję, ale to jest bardziej ciekawostka fizjologiczna niż praktyczne wskazanie diagnostyczne. Podobnie w przypadku ropnia – metoda obrazowania z wyboru to TK z kontrastem, ewentualnie USG przezścienne przy zmianach obwodowych, a nie badania medycyny nuklearnej. Ciężkie nadciśnienie płucne to z kolei problem głównie hemodynamiczny i kardiologiczny. Podstawowe narzędzia to echo serca, cewnikowanie prawego serca, TK lub rezonans serca i dużych naczyń. Scyntygrafia perfuzyjna może mieć tu rolę pomocniczą (np. w różnicowaniu przyczyn nadciśnienia płucnego, gdy podejrzewamy przewlekłą zatorowość), ale samo nadciśnienie płucne jako takie nie jest bezpośrednim, głównym wskazaniem do tego badania. Typowy błąd myślowy polega na utożsamianiu każdego "poważnego" schorzenia płuc z potrzebą wykonania badań radioizotopowych. W praktyce klinicznej scyntygrafię perfuzyjną rezerwuje się głównie dla sytuacji, gdy trzeba ocenić przepływ w tętnicach płucnych, czyli przede wszystkim przy podejrzeniu zatorowości płucnej albo przy kwalifikacji do zabiegów torakochirurgicznych (ocena rezerwy perfuzyjnej płuca przed resekcją). Z mojego doświadczenia warto zapamiętać prostą zasadę: zmiana zapalna – najpierw RTG/TK; problem naczyniowy w płucach – rozważ scyntygrafię V/Q.

Pytanie 22

W ułożeniu do rentgenografii AP stawu kolanowego promień główny pada

A. prostopadle na podstawę rzepki.
B. pod kątem 30° na podstawę rzepki.
C. pod kątem 30° na wierzchołek rzepki.
D. prostopadle na wierzchołek rzepki.
Prawidłowe ułożenie do projekcji AP stawu kolanowego zakłada, że promień główny pada prostopadle na wierzchołek rzepki. Chodzi o to, żeby centralna wiązka przechodziła przez oś stawu kolanowego, mniej więcej na poziomie szpary stawowej, a punktem orientacyjnym na skórze jest właśnie wierzchołek rzepki. Przy takim ustawieniu unikamy sztucznego wydłużenia lub skrócenia struktur kostnych, a odwzorowanie szpary stawowej jest możliwie najbardziej zbliżone do rzeczywistości anatomicznej. W standardach opisów projekcji AP kolana podkreśla się, że promień powinien być prostopadły do kasety i do płaszczyzny stawu, bez dodatkowej angulacji, chyba że mamy szczególne wskazania (np. ocena określonych powierzchni stawowych lub pacjent z deformacją osi kończyny). W praktyce technik ustawia pacjenta w pozycji leżącej na plecach lub stojącej, kończyna dolna wyprostowana, rzepka skierowana do przodu, a kaseta pod kolanem. Centralny promień kieruje dokładnie na wierzchołek rzepki – to jest wygodny, łatwy do znalezienia punkt orientacyjny, który dobrze pokrywa się z osią stawu. Moim zdaniem warto to sobie skojarzyć: AP kolana – prostopadle – wierzchołek rzepki. Dzięki temu uzyskujemy poprawną ocenę przynasad kości udowej i piszczeli, szerokości szpary stawowej, ewentualnych zwężeń w chorobie zwyrodnieniowej, ustawienia rzepki względem bloczka kości udowej. To ma bezpośrednie przełożenie na jakość diagnostyki, bo ortopeda czy radiolog od razu widzi, czy obraz jest wykonany zgodnie z zasadami, czy coś jest zniekształcone przez złe pozycjonowanie.

Pytanie 23

W radiologii analogowej lampy rentgenowskiej z tubusem używa się do wykonania zdjęcia

A. osiowego czaszki.
B. bocznego czaszki.
C. PA zatok.
D. wewnątrzustnego zębów.
Prawidłowo – w radiologii analogowej lampa rentgenowska z tubusem jest typowo wykorzystywana właśnie do wykonywania zdjęć wewnątrzustnych zębów. Tubus to nic innego jak specjalna nasadka/kanał ograniczający wiązkę promieniowania X do stosunkowo małego pola. Dzięki temu można precyzyjnie naświetlić obszar zębowy, minimalizując dawkę dla pozostałych tkanek i poprawiając jakość obrazu poprzez redukcję rozproszenia. W stomatologii klasycznym przykładem są zdjęcia zębowe okołowierzchołkowe, zgryzowe czy skrzydłowo-zgryzowe, gdzie aparat stomatologiczny (często ścienny lub mobilny) ma właśnie wąski, długi tubus. W dobrych praktykach przyjmuje się używanie tubusów prostokątnych lub kolimowanych, co dodatkowo ogranicza niepotrzebne napromienianie. Moim zdaniem to jedno z lepszych zastosowań promieniowania – małe pole, konkretna informacja diagnostyczna. W przeciwieństwie do projekcji czaszki czy zatok, gdzie stosuje się raczej klasyczne aparaty ogólnodiagnostyczne z ruchomą lampą i stołem, zdjęcia wewnątrzustne wymagają bardzo precyzyjnego ustawienia wiązki względem zęba i błony obrazowej/filmu umieszczonej w jamie ustnej pacjenta. Stąd tubus: ustala odległość ognisko–film, kierunek wiązki i ogranicza pole ekspozycji. Standardy stomatologiczne i wytyczne ochrony radiologicznej mocno podkreślają znaczenie właściwej kolimacji i stosowania osłon (fartuch ołowiany, osłona na tarczycę), a przy tubusie jest to łatwiejsze do zrealizowania. W praktyce technik powinien kojarzyć: mały aparat z tubusem = zdjęcia wewnątrzustne, duży aparat z bucky/stojakiem = klasyczne projekcje czaszki, zatok itp.

Pytanie 24

Fotostymulacja wykonywana jest podczas badania

A. KTG
B. EMG
C. ENG
D. EEG
Prawidłowo – fotostymulacja jest elementem badania EEG. W standardowym zapisie elektroencefalograficznym, oprócz spoczynkowego EEG z otwartymi i zamkniętymi oczami, wykonuje się tzw. próby czynnościowe. Jedną z najważniejszych jest właśnie fotostymulacja, czyli naświetlanie pacjenta błyskami światła o zmiennej częstotliwości, zwykle z użyciem specjalnej lampy stroboskopowej ustawionej przed oczami badanego. Celem tej próby jest wywołanie tzw. odpowiedzi zależnej od częstotliwości (photic driving), a także ewentualne prowokowanie napadów padaczkowych lub zmian napadowych w EEG u osób z padaczką fotosensytywną. Z praktycznego punktu widzenia technik EEG powinien znać typowy protokół: zaczyna się od niskich częstotliwości błysków (np. 1–3 Hz), stopniowo zwiększa do kilkunastu, a nawet ponad 20 Hz, a potem znów zmniejsza. Ważne jest też bezpieczeństwo – u pacjentów z wywiadem padaczkowym, zwłaszcza z udokumentowaną fotosensytywnością, trzeba być szczególnie czujnym, zgodnie z zaleceniami Polskiego Towarzystwa Neurofizjologii Klinicznej i podobnych wytycznych. Moim zdaniem warto zapamiętać, że fotostymulacja nie ma nic wspólnego z badaniami mięśni czy serca – to typowo „mózgowa” próba funkcjonalna. W dobrych pracowniach EEG zawsze opisuje się, czy fotostymulacja wywołała odpowiedź rytmiczną, czy pojawiły się wyładowania iglicowe lub zespoły iglica-fala. W praktyce klinicznej pomaga to nie tylko w diagnostyce padaczki, ale też w ocenie dojrzałości bioelektrycznej mózgu u dzieci i w różnicowaniu różnych typów zaburzeń napadowych. W technikum medycznym naprawdę opłaca się skojarzyć: EEG = elektrody na głowie + fotostymulacja + hiperwentylacja jako typowe próby obciążeniowe.

Pytanie 25

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Filtracja [mm Al].
B. Napięcie na lampie [kV].
C. Iloczyn natężenia promieniowania i czasu [mAs].
D. Odległość źródła promieniowania od detektora [cm].
Kontrast obrazu rentgenowskiego bardzo często jest mylony z ogólną „jakością” albo jasnością zdjęcia i stąd biorą się błędne skojarzenia z innymi parametrami ekspozycji. Filtracja w milimetrach aluminium jest ważnym elementem aparatu RTG, ale jej głównym celem jest odfiltrowanie miękkich, mało energetycznych fotonów, które zwiększają dawkę skórną, a niewiele wnoszą do obrazu. Zwiększenie filtracji rzeczywiście trochę „utwardza” wiązkę, ale w praktyce klinicznej nie jest to podstawowe narzędzie do sterowania kontrastem, tylko raczej do poprawy bezpieczeństwa i ujednolicenia widma promieniowania zgodnie z wymaganiami ochrony radiologicznej i normami jakościowymi. Iloczyn natężenia promieniowania i czasu, czyli mAs, odpowiada głównie za całkowitą ilość fotonów padających na detektor. Zwiększenie mAs powoduje, że obraz jest mniej zaszumiony i „gęstszy”, ale nie zmienia istotnie relacji pochłaniania między tkankami, więc nie ma decydującego wpływu na kontrast. Typowym błędem jest myślenie: więcej mAs = „mocniejsze” promieniowanie = większy kontrast. W rzeczywistości to jest bardziej kwestia ekspozycji i dawki, a nie różnic tonalnych między strukturami. Z kolei odległość źródło–detektor (SID) wpływa na natężenie promieniowania na detektorze zgodnie z prawem odwrotności kwadratu odległości. Zmiana SID zmienia więc ekspozycję i ostrość geometryczną (wielkość powiększenia, rozmycia), ale nie selektywnie kontrast między tkankami. Można mieć wrażenie, że przy innej odległości obraz wygląda trochę inaczej, jednak w profesjonalnych warunkach różnice te kompensuje się odpowiednią zmianą mAs. Kluczowy błąd myślowy przy tym pytaniu polega na utożsamianiu każdego parametru technicznego z kontrastem, podczas gdy mechanizm jest bardzo konkretny: kontrast w klasycznym RTG zależy przede wszystkim od energii fotonów, czyli od napięcia na lampie, które decyduje o tym, jak silne są różnice w pochłanianiu promieniowania przez tkanki o różnej gęstości i składzie chemicznym. Pozostałe parametry są ważne, ale z innych powodów – ekspozycji, dawki, ostrości czy bezpieczeństwa, a nie jako podstawowe narzędzie do sterowania kontrastem.

Pytanie 26

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co najmniej raz na 24 miesiące.
B. co 6 miesięcy.
C. co najmniej raz na 12 miesięcy.
D. co miesiąc.
W przypadku testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych bardzo łatwo pomylić je z innymi rodzajami kontroli jakości, które robi się częściej. Stąd biorą się odpowiedzi typu „co miesiąc” czy „co 6 miesięcy”. W codziennej praktyce faktycznie wykonuje się różne sprawdzenia – np. testy podstawowe, bieżącą ocenę jakości obrazu, testy eksploatacyjne po naprawie. To jednak nie są testy specjalistyczne w rozumieniu przepisów ochrony radiologicznej i nadzoru nad aparaturą rentgenowską. Zbyt krótki, comiesięczny lub półroczny interwał jest w tym kontekście nadinterpretacją wymagań. Można oczywiście wykonywać takie pomiary częściej z własnej inicjatywy, ale prawo mówi o minimalnej częstości testów specjalistycznych, a nie o maksymalnym dopuszczalnym odstępie pomiędzy dowolnymi kontrolami. Typowym błędem myślowym jest tu wrzucenie do jednego worka wszystkich rodzajów testów: podstawowych, specjalistycznych, odbiorczych i okresowych. Tymczasem testy specjalistyczne są bardziej rozbudowane, zwykle prowadzone przez uprawnionego fizyka medycznego lub inspektora, z użyciem profesjonalnych fantomów i przyrządów pomiarowych, i dlatego ich cykl jest dłuższy. Z kolei odpowiedź „co najmniej raz na 12 miesięcy” sugeruje intuicyjne przekonanie, że „raz w roku” to taki bezpieczny, standardowy okres dla każdej kontroli technicznej. W wielu dziedzinach faktycznie tak jest, ale w diagnostyce stomatologicznej dla aparatów wewnątrzustnych przepisy dopuszczają dłuższy, dwuletni okres między testami specjalistycznymi. Nie oznacza to oczywiście, że aparat może działać „samopas” przez dwa lata. Nadal obowiązują testy podstawowe, bieżąca obserwacja jakości zdjęć, kontrola dokumentacji dawek i reagowanie na wszelkie nieprawidłowości. Jednak formalny, pełny test specjalistyczny, z kompleksową oceną dawki, warstwy półchłonnej, geometrii wiązki i stabilności parametrów, musi być wykonany co najmniej raz na 24 miesiące. Moim zdaniem ważne jest rozróżnienie między racjonalną ostrożnością a wymogami prawnymi i organizacyjnymi. Jeśli ktoś odpowiada krótszym okresem, zwykle kieruje się chęcią „większego bezpieczeństwa”, ale nie odróżnia, które testy są wymagane jak często. Dobra praktyka to zapamiętać: testy specjalistyczne dla aparatów do zdjęć wewnątrzustnych – maksymalnie co 2 lata, a wszystko, co dzieje się częściej, to już inne kategorie kontroli jakości i nadzoru nad pracą aparatu.

Pytanie 27

Wysoką rozdzielczość przestrzenną obrazowania MR uzyskuje się przez

A. zmniejszenie wielkości FoV i zwiększenie matrycy obrazującej.
B. zmniejszenie wielkości FoV i zmniejszenie matrycy obrazującej.
C. zwiększenie wielkości FoV i zwiększenie matrycy obrazującej.
D. zwiększenie wielkości FoV i zmniejszenie matrycy obrazującej.
Wszystkie niepoprawne odpowiedzi wynikają z jednego, bardzo typowego nieporozumienia: mylenia „dużego obrazu” z „dokładnym obrazem”. W MR nie chodzi o to, żeby zobaczyć jak największy obszar ciała, tylko żeby na jednostkę długości przypadało jak najwięcej pikseli. Rozdzielczość przestrzenna to w uproszczeniu rozmiar pojedynczego piksela, czyli FoV podzielone przez liczbę elementów matrycy. Jeśli zwiększamy FoV przy tej samej lub mniejszej matrycy, to każdy piksel obejmuje większy fragment tkanki. Obraz może wyglądać „większy” na monitorze, ale szczegóły anatomiczne są bardziej rozmyte, krawędzie struktur mniej ostre, a małe zmiany patologiczne mogą się zlać z tłem. To jest klasyczny błąd myślowy: skoro coś jest większe, to wydaje się bardziej widoczne, ale w diagnostyce obrazowej liczy się gęstość informacji, a nie sama powierzchnia. Z drugiej strony samo zmniejszenie matrycy przy dowolnym FoV zawsze obniża rozdzielczość, bo redukujemy liczbę linii w k-space i upraszczamy obraz. To czasem się robi celowo, żeby skrócić czas badania, ale kosztem szczegółowości. W odpowiedziach błędnych pojawia się też założenie, że wystarczy manipulować jednym parametrem. W praktyce technicznej MR zawsze patrzymy na kombinację FoV i matrycy, bo dopiero ich wspólna zmiana decyduje o rozmiarze voxela. Dobre praktyki w pracowniach MR mówią jasno: jeśli celem jest wysoka rozdzielczość przestrzenna (np. w badaniu stawów, przysadki, nerwów czaszkowych), trzeba zmniejszyć FoV do badanego obszaru i jednocześnie zastosować możliwie dużą matrycę, akceptując ewentualnie dłuższy czas skanowania lub korzystając z technik przyspieszających (parallel imaging, kompresja SENSE/GRAPPA). Odpowiedzi sugerujące zwiększanie FoV lub zmniejszanie matrycy idą dokładnie w przeciwną stronę: prowadzą do większych voxelów, gorszej ostrości i mniejszej wykrywalności drobnych zmian, co w praktyce klinicznej może po prostu obniżyć wartość diagnostyczną badania.

Pytanie 28

W badaniu audiometrycznym rezerwa ślimakowa to odległość między krzywą

A. szumu a powietrzną.
B. kostną względną a bezwzględną.
C. kostną a krzywą szumu.
D. kostną a powietrzną.
Pojęcie rezerwy ślimakowej bywa mylone z różnymi innymi odległościami na audiogramie, co potem psuje całą interpretację badania. Kluczowe jest to, że mówimy o różnicy między dwoma sposobami doprowadzenia bodźca do ślimaka: drogą powietrzną, przez przewód słuchowy zewnętrzny i ucho środkowe, oraz drogą kostną, czyli bezpośrednim pobudzeniem struktur ucha wewnętrznego przez drgania kości czaszki. Ta różnica w progach słyszenia jest odzwierciedleniem tego, na ile aparat przewodzący (ucho zewnętrzne i środkowe) osłabia lub blokuje dźwięk. Stąd nie ma sensu odnosić rezerwy ślimakowej do krzywej szumu. Krzywa szumu, jeśli w ogóle jest wyznaczana, służy do oceny progu maskowania, tła akustycznego lub do specjalistycznych badań, ale nie definiuje żadnej „rezerwy” w znaczeniu klinicznym. Odległość między krzywą szumu a powietrzną nie mówi nam nic o stanie ślimaka, tylko o tym, przy jakim poziomie hałasu badanie przestaje być wiarygodne. Podobnie mylące jest zestawianie przewodnictwa kostnego z krzywą szumu – to też nie ma przełożenia na klasyczną diagnostykę niedosłuchu. Często spotyka się też nieprecyzyjne określenia typu „kostna względna” i „bezwzględna”, ale w standardowej audiometrii tonalnej nie operuje się takim rozróżnieniem. W praktyce używamy po prostu progów przewodnictwa kostnego i powietrznego, wyznaczonych zgodnie z normą, z odpowiednim maskowaniem drugiego ucha, jeśli jest potrzebne. Typowym błędem myślowym jest szukanie skomplikowanych definicji tam, gdzie zasada jest prosta: rezerwa ślimakowa to to, ile „zyskujemy”, gdy omijamy ucho zewnętrzne i środkowe i pobudzamy ślimak bezpośrednio przez kość. Jeśli tej różnicy nie ma lub jest minimalna, to sugeruje uszkodzenie odbiorcze, a jeśli jest wyraźna – problem przewodzeniowy. Dlatego tak ważne jest, żeby nie mieszać tego pojęcia z szumem, maskowaniem czy jakimiś „względnymi” krzywymi, bo wtedy łatwo źle zaklasyfikować typ niedosłuchu i zaproponować niewłaściwe postępowanie.

Pytanie 29

W badaniu audiometrycznym do oceny przewodnictwa kostnego wybranego ucha słuchawkę kostną należy przyłożyć do

A. guzowatości potylicznej.
B. guza czołowego.
C. nasady nosa.
D. wyrostka sutkowatego.
Prawidłowe miejsce przyłożenia słuchawki kostnej w badaniu audiometrycznym to wyrostek sutkowaty kości skroniowej, czyli ten twardy guzek kostny tuż za małżowiną uszną. Właśnie tam przewodnictwo kostne najlepiej odzwierciedla próg słyszenia badanego ucha, bo drgania są przekazywane bezpośrednio na struktury ucha wewnętrznego. Z punktu widzenia techniki badania ważne jest, żeby słuchawka była dociśnięta stabilnie, prostopadle do powierzchni skóry, ale bez przesadnego ucisku, bo zbyt duża siła może zmieniać wynik pomiaru. W praktyce klinicznej w audiometrii tonalnej zawsze porównuje się przewodnictwo powietrzne (słuchawki na uszach) z kostnym (słuchawka na wyrostku sutkowatym). Na tej podstawie odróżnia się niedosłuch przewodzeniowy od odbiorczego, co ma ogromne znaczenie przy kwalifikacji do leczenia, np. operacyjnego czy aparatowania. Moim zdaniem warto zapamiętać, że wszystkie inne wymienione miejsca – nasada nosa, guz czołowy, guzowatość potyliczna – są wykorzystywane co najwyżej w testach kamertonowych jako tzw. przewodnictwo kostne ogólne, a nie w standardowej audiometrii do oceny konkretnego ucha. Zgodnie z dobrymi praktykami, przed przyłożeniem słuchawki trzeba zdjąć kolczyki, okulary z grubymi zausznikami, odsunąć włosy, bo każdy taki drobiazg potrafi zaburzyć kontakt słuchawki z wyrostkiem sutkowatym i zafałszować próg słyszenia. W porządnie prowadzonych pracowniach audiologicznych bardzo pilnuje się prawidłowego pozycjonowania słuchawki kostnej, bo nawet kilkumilimetrowe przesunięcie może dać różnice kilku decybeli, a to już ma znaczenie przy dokładnej diagnostyce.

Pytanie 30

W jaki sposób należy ustawić promień centralny w stosunku do ramienia i przedramienia, by wykonać zdjęcie rentgenograficzne stawu łokciowego u pacjenta z przykurczem?

A. Prostopadle do kości promieniowej.
B. W dwusiecznej kąta zawartego między ramieniem a przedramieniem.
C. Prostopadle do kości ramiennej.
D. W dwusiecznej kąta zawartego między kasetą a kością ramienną.
Poprawnie – w przypadku przykurczu w stawie łokciowym ustawienie promienia centralnego w dwusiecznej kąta między ramieniem a przedramieniem jest najbardziej logiczne i zgodne z zasadami projekcji RTG. Chodzi o to, że przy przykurczu nie jesteśmy w stanie ustawić klasycznej, „książkowej” projekcji AP czy bocznej, bo kości nie układają się równolegle do kasety. Gdy ramię i przedramię tworzą kąt, to promień centralny powinien być prowadzony dokładnie w dwusiecznej tego kąta, żeby uzyskać możliwie równomierne odwzorowanie przestrzenne stawu i zminimalizować zniekształcenia geometryczne (skrócenie, wydłużenie, nakładanie struktur). Moim zdaniem to jest jedna z tych zasad, które warto mieć „w ręku”, bo pojawia się też w innych sytuacjach, np. przy przykurczach w stawie kolanowym, nadgarstku czy u pacjentów po urazach, kiedy nie da się ich wyprostować. Standardy radiografii kończyn górnych podkreślają, że najważniejsze jest dostosowanie projekcji do stanu klinicznego pacjenta, a nie odwrotnie – nie wolno na siłę prostować kończyny, bo to zwiększa ból i ryzyko uszkodzeń. W praktyce: układasz pacjenta tak, jak pozwala mu ból i przykurcz, stabilizujesz kończynę, ustawiasz kasetę możliwie blisko, a potem „szukasz” kąta między ramieniem a przedramieniem i kierujesz wiązkę dokładnie w jego dwusieczną. Dzięki temu szpara stawowa łokcia będzie lepiej zobrazowana, a główne elementy kostne (kłykcie kości ramiennej, głowa kości promieniowej, wcięcie bloczkowe kości łokciowej) nie będą tak mocno zniekształcone. To jest właśnie dobra praktyka w radiografii: kompromis między idealną geometrią a realnymi możliwościami ułożenia pacjenta.

Pytanie 31

SPECT to

A. pozytonowa emisyjna tomografia komputerowa.
B. tomografia emisyjna pojedynczego fotonu.
C. wielorzędowa tomografia komputerowa.
D. komputerowa tomografia osiowa.
SPECT bardzo łatwo pomylić z innymi metodami obrazowania, bo wszystkie nazwy brzmią podobnie i wszędzie przewija się słowo „tomografia”. Jednak kluczowe jest, jak powstaje obraz. W tomografii komputerowej (TK, dawniej CAT – komputerowa tomografia osiowa) źródłem promieniowania jest lampa rentgenowska na gantrze, a detektory mierzą osłabienie wiązki przechodzącej przez ciało. To jest klasyczna metoda anatomiczna, oparta na promieniowaniu rentgenowskim, bez podawania radioaktywnego znacznika emitującego fotony z wnętrza organizmu. Dlatego odpowiedzi kojarzące SPECT z tomografią komputerową, zarówno tą tradycyjną, jak i wielorzędową (multislice CT), są merytorycznie błędne – to inna modalność, inne urządzenia, inne zasady fizyczne. Wielorzędowa TK to po prostu nowocześniejsza wersja klasycznej tomografii, z wieloma rzędami detektorów, umożliwiająca szybsze skanowanie i cieńsze warstwy, ale nadal nie ma nic wspólnego z emisyjną rejestracją fotonów gamma. Kolejne typowe pomieszanie dotyczy PET. Pozytonowa emisyjna tomografia komputerowa wykorzystuje radioizotopy emitujące pozytony, które anihilują z elektronami, dając parę fotonów 511 keV rejestrowanych w koincydencji przez pierścień detektorów. W SPECT nie ma ani pozytonów, ani anihilacji, ani detekcji w koincydencji – rejestrujemy pojedyncze fotony gamma emitowane bezpośrednio przez radiofarmaceutyk. Z mojego doświadczenia często spotykany błąd myślowy polega na tym, że skoro i PET, i SPECT, i TK robią przekroje, to ludzie wrzucają je do jednego worka. Tymczasem różnice mają ogromne znaczenie praktyczne: inne wskazania kliniczne, inne radiofarmaceutyki, inne wymagania ochrony radiologicznej i inne artefakty obrazu. Dobra praktyka w diagnostyce obrazowej wymaga świadomego rozróżniania metod emisyjnych (SPECT, PET) od transmisyjnych (RTG, TK) i zapamiętania prostego klucza: SPECT – pojedynczy foton gamma, PET – pozyton i para fotonów, TK – promieniowanie rentgenowskie z zewnątrz ciała.

Pytanie 32

Fistulografia to badanie kontrastowe

A. naczyń tętniczych.
B. żylaków.
C. przetok.
D. naczyń włosowatych.
Fistulografia to klasyczne badanie kontrastowe wykonywane właśnie w przypadku przetok, czyli nieprawidłowych połączeń między narządami, jamami ciała albo skórą. Kluczowe jest tu to, że kontrast podaje się bezpośrednio do światła przetoki – przez zewnętrzny otwór skórny albo przez dren – a nie do naczynia krwionośnego. Dzięki temu na zdjęciach RTG dokładnie widać przebieg kanału przetoki, jego długość, szerokość, ewentualne rozgałęzienia i połączenia z sąsiednimi strukturami. W praktyce klinicznej fistulografia jest szczególnie ważna np. przy przetokach okołoodbytniczych, pooperacyjnych, jelitowo-skórnych czy przetokach w obrębie układu moczowego. Umożliwia chirurgowi zaplanowanie zabiegu – gdzie ciąć, czego się spodziewać, które odcinki przetoki są martwicze, a które jeszcze drożne. Z mojego doświadczenia nauki w pracowni RTG największym plusem jest to, że badanie jest relatywnie proste technicznie: potrzebny jest środek cieniujący (zwykle jodowy, czasem wodnorozpuszczalny, żeby nie podrażniał tkanek) i aparat RTG z możliwością fluoroskopii. Ważne są też zasady dobrej praktyki: delikatne wprowadzenie kaniuli do przetoki, powolne podawanie kontrastu, unikanie nadmiernego ciśnienia, żeby nie rozerwać ścian kanału. Zwraca się też uwagę na pozycjonowanie pacjenta – tak, aby cały przebieg przetoki był w polu obrazowania. W nowocześniejszych ośrodkach stosuje się czasem połączenie fistulografii z TK (tzw. CT-fistulografia), co daje jeszcze dokładniejszą ocenę relacji przetoki do narządów sąsiadujących. Mimo rozwoju USG i TK, klasyczna fistulografia nadal jest uznawana za wartościowe, tanie i dość łatwo dostępne badanie obrazowe w diagnostyce przetok.

Pytanie 33

„Ognisko zimne” w obrazie scyntygraficznym określa się jako

A. obszar niegromadzący radioznacznika.
B. zmianę najczęściej o charakterze łagodnym.
C. obszar gromadzący znacznik jak reszta miąższu.
D. zmianę o większej aktywności hormonalnej.
Prawidłowo – „ognisko zimne” w scyntygrafii to obszar niegromadzący radioznacznika, czyli miejsce o obniżonej lub całkowicie braku wychwytu w porównaniu z otaczającym, prawidłowo funkcjonującym miąższem. W scyntygrafii patrzymy przede wszystkim na rozkład funkcji, a nie tylko na samą anatomię. Jeśli tkanka pracuje prawidłowo, wychwytuje radiofarmaceutyk i na obrazie widzimy równomierne „świecenie”. Gdy pojawia się obszar, który nie gromadzi znacznika, tworzy się właśnie ognisko zimne – ciemniejsza plama na tle bardziej aktywnego narządu. Moim zdaniem warto to kojarzyć z „dziurą” w funkcji. W praktyce klinicznej typowe przykłady to torbiele, zwapnienia, blizny, guzy o słabym unaczynieniu, martwica, a w scyntygrafii kości – np. przerzut osteolityczny, który niszczy struktury kostne i przez to mniej wiąże znacznika. W badaniach tarczycy zimne ognisko może odpowiadać zmianie, która nie produkuje hormonów tarczycowych (tzw. guzek nieczynny), co w standardach endokrynologicznych traktuje się bardziej podejrzanie onkologicznie niż ogniska „gorące”. Dlatego przy zimnym guzku tarczycy zwykle zaleca się dalszą diagnostykę – USG, biopsję cienkoigłową. W dobrych praktykach medycyny nuklearnej zawsze opisujemy ogniska jako zimne, izotopowe (obojętne) lub gorące w odniesieniu do tła. Ważne jest też odpowiednie okienkowanie obrazu i porównanie z obrazami anatomicznymi (np. USG, TK), żeby nie pomylić artefaktu technicznego z prawdziwym zimnym ogniskiem. Z mojego doświadczenia w nauce tego przedmiotu – jak tylko zapamiętasz, że „zimne = brak wychwytu”, reszta układa się już w głowie dość logicznie.

Pytanie 34

„Ognisko zimne” w obrazie scyntygraficznym określa się jako

A. zmianę najczęściej o charakterze łagodnym.
B. zmianę o większej aktywności hormonalnej.
C. obszar niegromadzący radioznacznika.
D. obszar gromadzący znacznik jak reszta miąższu.
Pojęcie „ogniska zimnego” w scyntygrafii oznacza dokładnie obszar, który nie gromadzi radioznacznika, albo gromadzi go istotnie mniej niż otaczający, prawidłowy miąższ. Na obrazie z gammakamery taki obszar wygląda jak ubytek zliczeń, „dziura” w obrazie, miejsce ciemniejsze lub wręcz bez sygnału, podczas gdy reszta narządu świeci prawidłowo. Z mojego doświadczenia to jedno z podstawowych pojęć w medycynie nuklearnej, a mimo to często myli się je z terminami z USG czy TK. W praktyce klinicznej zimne ognisko może oznaczać np. torbiel, zwapnienie, martwicę, guz pozbawiony czynnego miąższu, a w tarczycy także nowotwór złośliwy – dlatego w standardach postępowania (np. w diagnostyce guzków tarczycy) podkreśla się, że guzek zimny wymaga dalszej oceny, często biopsji cienkoigłowej. Sam wygląd „zimny” nie oznacza automatycznie, że zmiana jest łagodna albo złośliwa, tylko że w tym miejscu nie ma prawidłowo funkcjonującej tkanki wychwytującej radiofarmaceutyk. W dobrych praktykach opisu badań scyntygraficznych zawsze porównuje się dystrybucję radioznacznika w obrębie całego narządu, oceniając czy ognisko jest izo-, hiper- czy hipouptake, czyli odpowiednio: prawidłowe, „gorące” lub właśnie „zimne”. Ważne jest też korelowanie obrazu scyntygraficznego z innymi metodami obrazowania (USG, TK, MR) oraz z objawami klinicznymi pacjenta. Dzięki temu technik czy lekarz medycyny nuklearnej może właściwie zinterpretować, czy zimne ognisko to np. torbiel, stary zawał narządowy, obszar pooperacyjny czy potencjalnie istotna zmiana onkologiczna. Moim zdaniem warto zapamiętać to w prosty sposób: zimne ognisko = brak wychwytu = „dziura” w obrazie, która zawsze wymaga chwili zastanowienia i zwykle dalszej diagnostyki.

Pytanie 35

Brachyterapia wewnątrzjamowa jest wykorzystywana podczas leczenia nowotworu

A. szyjki macicy.
B. gałki ocznej.
C. krtani.
D. piersi.
Prawidłowa odpowiedź wskazuje na szyjkę macicy i to jest bardzo charakterystyczne dla brachyterapii wewnątrzjamowej. W tej technice źródło promieniowania umieszcza się w naturalnej jamie ciała, czyli np. w kanale szyjki macicy i w pochwie, za pomocą specjalnych aplikatorów. Dzięki temu dawka promieniowania jest bardzo wysoka w obrębie guza, a stosunkowo szybko spada w tkankach zdrowych, które leżą dalej. To właśnie jest główna przewaga brachyterapii nad klasyczną teleradioterapią – bardzo stromy gradient dawki i precyzyjne „trafienie” w nowotwór. W praktyce klinicznej rak szyjki macicy jest jednym z klasycznych, podręcznikowych wskazań do brachyterapii wewnątrzjamowej, zgodnie z wytycznymi m.in. ESTRO czy ICRU. W nowoczesnych pracowniach stosuje się technikę HDR (high dose rate), gdzie źródło (najczęściej iryd-192) jest na chwilę wprowadzane do aplikatora sterowanego komputerowo, według wcześniej przygotowanego planu leczenia. Plan opiera się na obrazowaniu TK lub MR, tak żeby dokładnie określić objętość guza i narządy krytyczne, jak pęcherz czy odbytnica. Z mojego doświadczenia w nauce tego tematu warto zapamiętać, że: szyjka macicy = brachyterapia wewnątrzjamowa, z użyciem aplikatorów wewnątrzmacicznych i dopochwowych, a całość najczęściej łączy się z teleradioterapią miednicy i często z chemioterapią. W dobrych ośrodkach bardzo pilnuje się też unieruchomienia pacjentki, kontroli położenia aplikatorów oraz dokumentacji dawki, bo to ma ogromny wpływ na skuteczność i powikłania.

Pytanie 36

Czas połowicznego zaniku jest wykorzystywany

A. w tomografii komputerowej.
B. w medycynie nuklearnej.
C. w rentgenografii.
D. w teleradioterapii.
Czas połowicznego zaniku kojarzy się wielu osobom ogólnie z promieniowaniem, więc łatwo automatycznie przypisać go do każdej metody obrazowania, w której pojawia się promieniowanie jonizujące. I tu pojawia się typowy błąd: wrzucanie do jednego worka rentgenografii, tomografii komputerowej, radioterapii i medycyny nuklearnej. W rentgenografii i tomografii komputerowej źródłem promieniowania są lampy rentgenowskie, które generują promieniowanie wtedy, kiedy płynie prąd przez lampę. Nie ma tam materiału promieniotwórczego, który samorzutnie się rozpada, więc nie ma sensu mówić o czasie połowicznego zaniku. Parametrami technicznymi są kV, mAs, czas ekspozycji, geometria układu, filtracja wiązki, ale nie okres półtrwania. Oczywiście w opisie ochrony radiologicznej czasem wspomina się o dawkach i ekspozycji, jednak to zupełnie inny temat niż rozpad jądrowy radionuklidów. Podobnie w teleradioterapii z użyciem akceleratora liniowego: promieniowanie wytwarzane jest na bieżąco w głowicy akceleratora, a planowanie dawki opiera się na rozkładzie dawki w tkankach, krzywych procentowej dawki głębokiej, MLC, frakcjonowaniu itd. Czas połowicznego zaniku nie jest tam podstawowym narzędziem pracy. Wyjątkiem są starsze lub specyficzne systemy oparte na źródłach izotopowych (np. kobaltoterapia, brachyterapia), ale to już inny typ procedur niż klasyczna teleradioterapia z LINAC-em, a i tak pojęcie okresu półtrwania dotyczy wtedy głównie serwisu i planowania wymiany źródeł, a nie codziennego dawkowani pacjentowi. Medycyna nuklearna jest jedyną z wymienionych dziedzin, gdzie bezpośrednio pracuje się z radioizotopami, przygotowuje radiofarmaceutyki i oblicza aktywność w funkcji czasu. Tam okres półtrwania jest absolutnie centralnym parametrem: wpływa na logistykę dostaw, czas podania radiofarmaceutyku, planowanie okna obrazowania, a także na bezpieczeństwo personelu i pacjenta. Mylenie tego z klasycznym RTG czy TK wynika najczęściej z intuicyjnego skojarzenia: jest promieniowanie, więc musi być i okres półtrwania. W praktyce dobrze jest w głowie rozdzielić: tam, gdzie mamy źródło promieniowania w postaci lampy – myślimy o parametrach elektrycznych i geometrycznych; tam, gdzie mamy materiał promieniotwórczy – myślimy o czasie połowicznego zaniku, aktywności, rozpadającym się jądrze atomu i farmakokinetyce radiofarmaceutyku.

Pytanie 37

Zamieszczony elektrokardiogram przedstawia

Ilustracja do pytania
A. zawał mięśnia sercowego.
B. migotanie przedsionków.
C. częstoskurcz komorowy.
D. blok lewej odnogi pęczka Hisa.
Ten zapis EKG łatwo pomylić z innymi patologiami, jeśli patrzy się tylko na kształt pojedynczych zespołów QRS, a nie na cały wzorzec rytmu. Częsty błąd to skojarzenie z częstoskurczem komorowym, bo ktoś widzi szybki rytm i od razu myśli o arytmii komorowej. W częstoskurczu komorowym rytm jest zwykle miarowy, zespoły QRS są szerokie, zniekształcone, a załamków P zazwyczaj nie widać lub są z nimi całkowicie rozkojarzone. Tutaj zespoły QRS są wąskie i morfologicznie prawidłowe, a najważniejsze – odstępy RR są wyraźnie nieregularne, co przemawia przeciwko VT. Inny typowy skrót myślowy to utożsamianie każdego nieprawidłowego EKG z zawałem serca. W zawale mięśnia sercowego oczekujemy charakterystycznych zmian odcinka ST (uniesienia, obniżenia), ewolucji załamków Q, czasem zmian w załamku T. Tutaj takich zmian nie widać, dominującym problemem jest zaburzenie rytmu, a nie zmiany niedokrwienne. Oczywiście pacjent z migotaniem przedsionków może mieć równocześnie chorobę wieńcową, ale samo AF nie jest rozpoznaniem zawału. Kolejne mylące rozpoznanie to blok lewej odnogi pęczka Hisa. W LBBB QRS jest poszerzony, ma specyficzny kształt w odprowadzeniach przedsercowych (m.in. szerokie, ząbkowane R w V5–V6, brak typowego q w I, V5–V6, często z wtórnymi zmianami ST-T). Co ważne, rytm przy bloku odnóg zwykle pozostaje miarowy – przewodzenie jest wolniejsze, ale regularne. W analizowanym zapisie zespoły QRS są wąskie, bez typowego obrazu bloku lewej odnogi, a nieregularność rytmu jednoznacznie kieruje w stronę arytmii nadkomorowej. Z mojego doświadczenia największy problem sprawia nieuwzględnianie regularności odstępów RR – wielu uczniów koncentruje się na pojedynczych zębach zamiast na ogólnym „ruchu” zapisu. Dobra praktyka to zawsze zaczynać ocenę od pytania: czy rytm jest miarowy, czy widzę załamki P przed każdym QRS, jaki jest związek P–QRS. Dopiero potem szukamy zawału, bloków odnóg czy innych subtelności. Takie uporządkowane podejście znacząco zmniejsza ryzyko błędnej interpretacji.

Pytanie 38

Jaki kolor ma warstwa korowa kości w badaniu MR na obrazie T1- zależnym?

A. Czarny.
B. Ciemnoszary.
C. Biały.
D. Jasnoszary.
W obrazowaniu MR łatwo pomylić się przy ocenie kości, bo jesteśmy przyzwyczajeni do RTG czy TK, gdzie kość jest jasna. W rezonansie magnetycznym mechanizm powstawania obrazu jest zupełnie inny – nie chodzi o pochłanianie promieniowania jonizującego, tylko o rejestrację sygnału od protonów wodoru. Warstwa korowa kości ma bardzo mało wolnych protonów, dlatego praktycznie nie generuje sygnału i na obrazach, zarówno T1-, jak i T2-zależnych, pozostaje czarna. To, co bywa mylące, to fakt, że na niektórych monitorach albo przy kiepskim oknie i poziomie (window/level) czerń może wydawać się jakby „ciemnoszara”, ale w standardowym opisie mówimy: sygnał jest zerowy, czyli struktura jest czarna i hipointensywna. Błędne wyobrażenie, że kość powinna być biała, bierze się głównie z przenoszenia nawyków z RTG i TK na MR. W tych badaniach gęsta kość silnie pochłania promieniowanie i przez to jest bardzo jasna. W MR zasada jest odwrotna: im mniej ruchomych protonów, tym mniej sygnału i ciemniejszy obraz. Podobnie mylące bywa kojarzenie jaśniejszych odcieni szarości z „twardszą” tkanką. W T1 to nie gęstość fizyczna decyduje o jasności, tylko czasy relaksacji i zawartość tłuszczu oraz wody. Jasnoszary czy ciemnoszary sygnał w obrębie kości bardziej pasuje do szpiku kostnego (tłuszczowego lub obrzękowego), a nie do samej warstwy korowej. Częstym błędem jest też wrzucanie do jednego worka wszystkich „szarych” struktur i kierowanie się jedynie odcieniem, bez patrzenia na anatomię i typ sekwencji. Dobra praktyka w MR to zawsze: po pierwsze, rozpoznać sekwencję (T1, T2, STIR itd.), po drugie, znać typowe wzorce sygnału tkanek. Kość korowa – czarna, szpik tłuszczowy – jasny na T1, płyn – ciemny na T1 i jasny na T2. Jeśli trzymamy się tych prostych zasad, dużo łatwiej uniknąć pomyłek przy interpretacji badań.

Pytanie 39

Do zadań technika elektroradiologa w pracowni hemodynamicznej należy

A. ustalanie ilości kontrastu.
B. przygotowanie stolika zabiegowego.
C. podanie operatorowi cewnika.
D. dokumentowanie obrazów ICUS.
Prawidłowo – do zadań technika elektroradiologa w pracowni hemodynamicznej należy m.in. dokumentowanie obrazów IVUS/ICUS (intravascular ultrasound). W praktyce oznacza to obsługę konsoli aparatu, prawidłowe uruchomienie protokołu badania, rejestrację przebiegu obrazowania w czasie rzeczywistym oraz zapis kluczowych przekrojów naczyń do dokumentacji medycznej. Technik musi umieć przypisać obrazy do właściwego pacjenta w systemie, opisać etykiety serii, zadbać o poprawne parametry akwizycji, a potem przesłać całość do systemu archiwizacji PACS lub innego systemu szpitalnego. To nie jest tylko „naciśnięcie nagrywania”, ale świadome dokumentowanie całego badania zgodnie z procedurą i standardami ośrodka. W dobrze zorganizowanej pracowni hemodynamicznej operator skupia się na prowadzeniu cewnika, ocenie zmian w naczyniach i podejmowaniu decyzji klinicznych, natomiast technik przejmuje dużą część zadań technicznych: kontroluje jakość obrazu, pilnuje, żeby żaden istotny fragment badania nie został pominięty, zapisuje odpowiednie projekcje, dba o poprawne oznaczenia czasu i fazy zabiegu. Moim zdaniem to właśnie tu mocno widać, jak ważna jest rola technika – dobra dokumentacja IVUS/ICUS pozwala później na rzetelną analizę wyniku, porównanie badań przed i po angioplastyce, a także jest podstawą do opisu lekarskiego oraz konsultacji z innymi ośrodkami. W wielu wytycznych i dobrych praktykach kładzie się nacisk na kompletną, czytelną dokumentację obrazową w kardiologii interwencyjnej, a technik elektroradiolog jest kluczową osobą, która odpowiada za jej techniczną stronę i jakość.

Pytanie 40

Zamieszczone na ilustracji obrazy dotyczą badania

Ilustracja do pytania
A. audiometrycznego.
B. densytometrycznego.
C. scyntygraficznego.
D. dopplerowskiego.
Prawidłowo powiązałeś ilustrację z badaniem densytometrycznym. Na obrazie widać typowy wynik densytometrii kości biodrowej: po lewej stronie projekcję kości z zaznaczonymi prostokątami pomiarowymi, a po prawej kolorowy wykres gęstości mineralnej kości (BMD, bone mineral density) w funkcji wieku, z opisanymi strefami: normy, osteopenii i osteoporozy. To właśnie jest standardowy wydruk z aparatu DEXA (DXA – dual-energy X-ray absorptiometry), czyli złotego standardu w diagnostyce osteoporozy według zaleceń WHO i większości towarzystw osteologicznych. Densytometria wykorzystuje niskoenergetyczne promieniowanie rentgenowskie o dwóch różnych energiach i na podstawie stopnia pochłaniania promieniowania oblicza masę mineralną kości w g/cm². Kluczowe parametry to T-score i Z-score; na ilustracji widać skale T-score oraz zakresy kolorystyczne, co jest bardzo charakterystyczne właśnie dla tego badania. W praktyce badanie densytometryczne wykonuje się głównie w okolicy szyjki kości udowej i kręgosłupa lędźwiowego, czasem w obrębie przedramienia. Służy ono nie tylko do rozpoznawania osteoporozy, ale też do oceny ryzyka złamań, monitorowania skuteczności leczenia farmakologicznego oraz decyzji o włączeniu lub modyfikacji terapii. Z mojego punktu widzenia warto pamiętać, że przy prawidłowym wykonywaniu DEXA bardzo ważne jest prawidłowe ułożenie pacjenta, unikanie artefaktów (np. metal, guzki zwapniałe) oraz stosowanie się do protokołów kalibracji aparatu – od tego zależy wiarygodność wyniku. W dobrych pracowniach technik zawsze weryfikuje pozycjonowanie szyjki kości udowej i odpowiednie zaznaczenie ROI, dokładnie tak jak sugeruje pokazany obraz.