Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 24 kwietnia 2026 22:45
  • Data zakończenia: 24 kwietnia 2026 22:52

Egzamin zdany!

Wynik: 31/40 punktów (77,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Co zostało uwidocznione na zamieszczonym radiogramie?

Ilustracja do pytania
A. Złamanie kostki bocznej.
B. Zwichnięcie stawu skokowego.
C. Złamanie kości skokowej.
D. Ostroga kości piętowej.
Na radiogramie widoczna jest typowa ostroga kości piętowej, czyli wyrośl kostna zlokalizowana na dolno-przyśrodkowej powierzchni guza piętowego, w okolicy przyczepu rozcięgna podeszwowego. W obrazie RTG wygląda to jak haczykowate lub dziobowate uwypuklenie kości skierowane ku przodowi stopy. Moim zdaniem to jedno z bardziej charakterystycznych znalezisk radiologicznych – jeśli raz się je dobrze obejrzy, trudno je potem pomylić. W praktyce technika i lekarze radiolodzy zwracają szczególną uwagę na tę okolicę u pacjentów zgłaszających ból pięty, zwłaszcza nasilający się przy pierwszych krokach rano. Standardowo wykonuje się projekcje boczne stopy lub stawu skokowo-piętowego, bo w tej projekcji ostroga jest najlepiej uwidoczniona. W dobrych praktykach opisowych podkreśla się lokalizację (przyczep rozcięgna podeszwowego vs przyczep ścięgna Achillesa), wielkość wyrośli kostnej i ewentualne towarzyszące zmiany zwyrodnieniowe stawu skokowo-piętowego. Trzeba też pamiętać, że sama obecność ostrogi na RTG nie zawsze koreluje z nasileniem dolegliwości bólowych – czasem pacjent ma dużą ostrogę i minimalne objawy, a innym razem odwrotnie. W praktyce klinicznej wynik badania obrazowego łączy się z badaniem fizykalnym i wywiadem. Radiogram pełni tu rolę potwierdzającą i różnicującą – pomaga odróżnić ostrogę od złamań zmęczeniowych guza piętowego, zmian pourazowych czy rzadziej zmian guzowatych. W pracy technika elektroradiologii ważne jest prawidłowe ułożenie stopy, brak rotacji oraz dobranie takich parametrów ekspozycji, żeby struktury gąbczaste kości piętowej nie były ani przepalone, ani zbyt niedoświetlone – wtedy krawędzie ostrogi są wyraźne i łatwe do oceny.

Pytanie 2

Czas połowicznego zaniku jest wykorzystywany

A. w medycynie nuklearnej.
B. w rentgenografii.
C. w tomografii komputerowej.
D. w teleradioterapii.
Czas połowicznego zaniku kojarzy się wielu osobom ogólnie z promieniowaniem, więc łatwo automatycznie przypisać go do każdej metody obrazowania, w której pojawia się promieniowanie jonizujące. I tu pojawia się typowy błąd: wrzucanie do jednego worka rentgenografii, tomografii komputerowej, radioterapii i medycyny nuklearnej. W rentgenografii i tomografii komputerowej źródłem promieniowania są lampy rentgenowskie, które generują promieniowanie wtedy, kiedy płynie prąd przez lampę. Nie ma tam materiału promieniotwórczego, który samorzutnie się rozpada, więc nie ma sensu mówić o czasie połowicznego zaniku. Parametrami technicznymi są kV, mAs, czas ekspozycji, geometria układu, filtracja wiązki, ale nie okres półtrwania. Oczywiście w opisie ochrony radiologicznej czasem wspomina się o dawkach i ekspozycji, jednak to zupełnie inny temat niż rozpad jądrowy radionuklidów. Podobnie w teleradioterapii z użyciem akceleratora liniowego: promieniowanie wytwarzane jest na bieżąco w głowicy akceleratora, a planowanie dawki opiera się na rozkładzie dawki w tkankach, krzywych procentowej dawki głębokiej, MLC, frakcjonowaniu itd. Czas połowicznego zaniku nie jest tam podstawowym narzędziem pracy. Wyjątkiem są starsze lub specyficzne systemy oparte na źródłach izotopowych (np. kobaltoterapia, brachyterapia), ale to już inny typ procedur niż klasyczna teleradioterapia z LINAC-em, a i tak pojęcie okresu półtrwania dotyczy wtedy głównie serwisu i planowania wymiany źródeł, a nie codziennego dawkowani pacjentowi. Medycyna nuklearna jest jedyną z wymienionych dziedzin, gdzie bezpośrednio pracuje się z radioizotopami, przygotowuje radiofarmaceutyki i oblicza aktywność w funkcji czasu. Tam okres półtrwania jest absolutnie centralnym parametrem: wpływa na logistykę dostaw, czas podania radiofarmaceutyku, planowanie okna obrazowania, a także na bezpieczeństwo personelu i pacjenta. Mylenie tego z klasycznym RTG czy TK wynika najczęściej z intuicyjnego skojarzenia: jest promieniowanie, więc musi być i okres półtrwania. W praktyce dobrze jest w głowie rozdzielić: tam, gdzie mamy źródło promieniowania w postaci lampy – myślimy o parametrach elektrycznych i geometrycznych; tam, gdzie mamy materiał promieniotwórczy – myślimy o czasie połowicznego zaniku, aktywności, rozpadającym się jądrze atomu i farmakokinetyce radiofarmaceutyku.

Pytanie 3

Warstwa półchłonna (WP) służy do obliczania

A. bezpiecznej odległości.
B. dawki promieniowania.
C. grubości osłon.
D. czasu napromieniania.
Warstwa półchłonna (WP, ang. HVL – half value layer) to bardzo ważny parametr fizyczny w ochronie radiologicznej. Określa ona, jaka grubość danego materiału (np. ołowiu, betonu, aluminium) powoduje zmniejszenie natężenia wiązki promieniowania jonizującego o 50%. Czyli innymi słowy: ile materiału trzeba „wstawić” pomiędzy źródło a człowieka, żeby przepuścić tylko połowę pierwotnego promieniowania. Dlatego właśnie WP służy bezpośrednio do obliczania grubości osłon. W praktyce, przy projektowaniu pracowni RTG, TK czy bunkra do radioterapii, fizyk medyczny korzysta z tablic HVL dla konkretnych energii promieniowania i konkretnych materiałów budowlanych. Na przykład dla promieniowania X o danym napięciu anodowym można odczytać z norm (np. raporty ICRP, wytyczne PAA, zalecenia IAEA), jaka jest warstwa półchłonna w ołowiu, a potem policzyć, ile takich warstw trzeba, aby obniżyć dawkę za ścianą do poziomu wymaganego przepisami. Często stosuje się też pojęcie wielokrotności WP – każda kolejna warstwa półchłonna zmniejsza wiązkę o połowę, więc kilka WP daje tłumienie o rzędy wielkości. Moim zdaniem, jak ktoś dobrze rozumie ideę WP, to dużo łatwiej ogarnia logikę projektowania osłon, bo nie liczy „na ślepo”, tylko rozumie, jak zmienia się intensywność promieniowania w materiale. W radioterapii i diagnostyce obrazowej to podstawa dobrych praktyk ochrony radiologicznej: najpierw znasz energię wiązki, potem dobierasz materiał i na końcu, właśnie na bazie warstwy półchłonnej, wyznaczasz sensowną, zgodną z normami grubość ścian, drzwi, szyb ochronnych czy fartuchów ołowianych.

Pytanie 4

Podczas badania EEG otwarcie oczu powoduje

A. zjawisko habituacji.
B. spontaniczną hiperwentylację.
C. reakcję paradoksalną.
D. zaniknięcie rytmu alfa.
Prawidłowo – podczas badania EEG otwarcie oczu powoduje zanik, czyli blokowanie rytmu alfa w okolicach potylicznych. U zdrowej, zrelaksowanej osoby, leżącej spokojnie z zamkniętymi oczami, dominuje właśnie rytm alfa: fale o częstotliwości około 8–13 Hz, najlepiej widoczne w odprowadzeniach potylicznych (O1, O2). Jest to taki „fizjologiczny podpis” stanu czuwania w spoczynku z zamkniętymi oczami. W momencie, kiedy badany otwiera oczy, do kory wzrokowej dociera strumień bodźców wzrokowych i aktywność bioelektryczna ulega desynchronizacji – zamiast ładnego, regularnego rytmu alfa pojawia się bardziej niskonapięciowa, szybka czynność beta lub mieszanina różnych częstotliwości. Ten efekt nazywa się blokowaniem albo wygaszeniem rytmu alfa (ang. alpha blocking). Dla technika EEG to jest bardzo praktyczna sprawa: reakcja na otwarcie oczu jest jednym z podstawowych testów jakości zapisu i stanu pacjenta. Jeśli rytm alfa się nie pojawia przy zamkniętych oczach albo nie znika po ich otwarciu, to od razu zapala się lampka ostrzegawcza – można podejrzewać np. uszkodzenie kory potylicznej, głębokie zaburzenia świadomości, działanie leków, czasem artefakty. W standardach wykonywania EEG (np. zalecenia IFCN, krajowe wytyczne pracowni EEG) zawsze podkreśla się konieczność rejestrowania fragmentów z oczami zamkniętymi i otwartymi oraz dokładnego opisywania reaktywności rytmu alfa. W praktyce klinicznej ocena tego zjawiska pomaga różnicować stany śpiączki, encefalopatie metaboliczne czy efekty działania leków sedacyjnych. Z mojego doświadczenia warto sobie to dobrze zapamiętać: oczy zamknięte – alfa się pojawia, oczy otwarte – alfa znika. To jest jeden z najbardziej klasycznych i powtarzalnych elementów zapisu EEG, który bardzo często pojawia się też na egzaminach i w zadaniach testowych.

Pytanie 5

Którą metodą i w której płaszczyźnie zostało wykonane badanie stawu kolanowego zobrazowane na zdjęciach?

Ilustracja do pytania
A. MR, w płaszczyźnie czołowej.
B. TK, w płaszczyźnie strzałkowej.
C. TK, w płaszczyźnie czołowej.
D. MR, w płaszczyźnie strzałkowej.
W tym zadaniu łatwo się pomylić, bo na pierwszy rzut oka każde przekrojowe badanie stawu kolanowego może wyglądać podobnie, ale kluczowe jest rozróżnienie zarówno metody obrazowania, jak i płaszczyzny skanowania. Zacznijmy od odróżnienia MR od TK. W tomografii komputerowej podstawą jest promieniowanie jonizujące i obraz tworzony jest w skalach gęstości (HU). Kość korowa jest bardzo jasna, ostry kontur, tkanki miękkie zwykle mają niższy kontrast, a łąkotki i więzadła nie odcinają się tak wyraźnie. W rezonansie magnetycznym obraz budowany jest na podstawie właściwości magnetycznych protonów, dzięki czemu otrzymujemy wysokokontrastowe odwzorowanie tkanek miękkich: łąkotki, chrząstka, więzadła, obrzęk szpiku kostnego – wszystko to jest dobrze widoczne. Na prezentowanych obrazach właśnie ta doskonała wizualizacja struktur wewnątrzstawowych jednoznacznie wskazuje na MR, a nie TK, więc odpowiedzi z tomografią (niezależnie od płaszczyzny) są merytorycznie błędne. Drugi element to płaszczyzna. W płaszczyźnie czołowej (frontalnej) widzimy obie kłykcie kości udowej i piszczeli obok siebie, jakbyśmy patrzyli na kolano „od przodu” lub „od tyłu”. W płaszczyźnie strzałkowej oglądamy przekrój „z boku” – zwykle jeden kłykieć, wyraźnie podłużny przebieg więzadła krzyżowego przedniego i tylnego, profil rzepki. Na załączonych obrazach wyraźnie widać symetryczne kłykcie i szparę stawową na całej szerokości, co jest typowe dla projekcji czołowej. Częsty błąd polega na tym, że zdający automatycznie kojarzy przekrój z tomografią, bo „jest w przekroju”, albo myli płaszczyzny, sugerując się tylko jednym elementem anatomicznym. Z mojego doświadczenia pomaga świadome „ustawianie” w głowie, skąd patrzymy na staw: z przodu/tyłu – płaszczyzna czołowa, z boku – strzałkowa, od góry – poprzeczna. W praktyce technika radiologii poprawne rozpoznanie płaszczyzn i modalności to podstawa, bo od tego zależy właściwe planowanie badania, dobór sekwencji i późniejsze zrozumienie, co widzi na monitorze radiolog.

Pytanie 6

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
B. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
C. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
D. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
W tym pytaniu bardzo łatwo pomylić różne schematy frakcjonowania, bo wszystkie brzmią dość podobnie, a różnice są czysto „liczbowe”, ale za tymi liczbami stoi konkretna radiobiologia. Hiperfrakcjonowanie to nie jest po prostu „więcej razy dziennie” ani „większa dawka”, tylko konkretny sposób podawania promieniowania: dawka na pojedynczą frakcję jest mniejsza niż standardowe 2 Gy, frakcji jest więcej w ciągu dnia, a całkowity czas leczenia pozostaje zbliżony do klasycznego schematu. Błędne skojarzenie, że skoro robimy 2–3 frakcje dziennie, to dawka jednostkowa powinna być większa, wynika często z mylenia hiperfrakcjonowania z hipofrakcjonowaniem. W hipofrakcjonowaniu właśnie podnosi się dawkę frakcyjną (np. 3–8 Gy), zwykle przy mniejszej liczbie frakcji i często skróceniu całkowitego czasu leczenia, co wykorzystuje się np. w radioterapii paliatywnej czy stereotaktycznej (SBRT). Z kolei pomysł wydłużania całkowitego czasu leczenia przy hiperfrakcjonowaniu jest sprzeczny z jego celem. Jeżeli leczenie trwa dłużej, dochodzi do repopulacji komórek nowotworowych, czyli guz ma więcej czasu na „odbudowę”, co obniża skuteczność terapii. Standardy planowania radioterapii jasno mówią, że w schematach hiperfrakcyjnych całkowity czas leczenia powinien być podobny do konwencjonalnego, właśnie po to, żeby nie zwiększać ryzyka odrastania guza. Dodatkowo, zwiększanie dawki frakcyjnej przy dwóch lub trzech frakcjach dziennie mocno podbiłoby ryzyko powikłań późnych w tkankach zdrowych, takich jak zwłóknienia, mielopatie czy uszkodzenia narządów krytycznych. Z mojego doświadczenia w nauczaniu ten błąd bierze się z prostego skojarzenia: „więcej frakcji = więcej dawki na raz”, a tymczasem w radioterapii często jest odwrotnie – im więcej frakcji, tym mniejsza dawka na pojedyncze naświetlanie, przy starannie zaplanowanej dawce całkowitej i czasie leczenia.

Pytanie 7

Który wynik badania tympanometrycznego potwierdza, że słuch badanego pacjenta jest w granicach normy?

A. Wynik badania 4
Ilustracja do odpowiedzi A
B. Wynik badania 1
Ilustracja do odpowiedzi B
C. Wynik badania 3
Ilustracja do odpowiedzi C
D. Wynik badania 2
Ilustracja do odpowiedzi D
Prawidłową krzywą tympanometryczną w kontekście prawidłowego słuchu pokazuje wynik badania 3, czyli klasyczny wykres typu A. W tym typie tympanogramu szczyt krzywej znajduje się w okolicy 0 daPa (zwykle między -100 a +50 daPa), co oznacza, że ciśnienie w uchu środkowym jest wyrównane z ciśnieniem atmosferycznym, a trąbka słuchowa działa prawidłowo. Dodatkowo wysokość szczytu (tzw. podatność, compliance) mieści się w normie – błona bębenkowa i łańcuch kosteczek są wystarczająco ruchome, ale nie nadmiernie wiotkie. W praktyce klinicznej właśnie taki tympanogram łączy się najczęściej z prawidłowymi progami w audiometrii tonalnej i brakiem przewodzeniowego ubytku słuchu. Moim zdaniem warto zapamiętać prostą zasadę: szczyt w okolicy zera = zdrowe ucho środkowe (oczywiście przy braku innych patologii). W gabinecie laryngologicznym taki wynik widzimy np. u dzieci po skutecznym leczeniu wysiękowego zapalenia ucha, kiedy płyn już się wchłonął, a wentylacja jamy bębenkowej wróciła do normy. Z mojego doświadczenia, przy ocenie tympanogramu zawsze trzeba popatrzeć jednocześnie na typ krzywej, jej wysokość oraz szerokość przy połowie amplitudy – zbyt szeroka krzywa albo bardzo niska podatność mogą już sugerować początki dysfunkcji ucha środkowego, nawet jeśli szczyt jest blisko 0 daPa. Jednak w typowych testach egzaminacyjnych za wzorzec prawidłowego ucha przyjmuje się właśnie taki kształt jak na wyniku 3: pojedynczy, wyraźny, wąski szczyt w okolicy ciśnienia atmosferycznego, bez spłaszczenia, bez przesunięcia w stronę ciśnień ujemnych czy dodatnich. To jest zgodne z podręcznikowymi kryteriami tympanogramu typu A.

Pytanie 8

Jaka jest standardowa odległość OF do wykonania rentgenowskich zdjęć kości i stawów kończyny górnej?

A. 120-130 cm
B. 100-115 cm
C. 70-90 cm
D. 135-150 cm
Prawidłowy zakres 100–115 cm to standardowa odległość ognisko–film (OF, dziś częściej mówi się FFD lub SID) stosowana przy klasycznych zdjęciach kości i stawów kończyny górnej. Taka odległość jest pewnym kompromisem między geometrią wiązki promieniowania a praktycznymi możliwościami aparatu i pracowni. Przy około 100 cm uzyskujemy akceptowalne powiększenie obrazu, stosunkowo małe zniekształcenia geometryczne i dobrą ostrość krawędzi, a jednocześnie nie trzeba dramatycznie podnosić mAs, żeby skompensować spadek natężenia promieniowania. W praktyce technik ustawia statyw tak, żeby odległość od ogniska lampy do kasety z detektorem była stabilnie w tym przedziale; to pozwala też przewidywalnie dobierać ekspozycję według tabel technicznych. Moim zdaniem to jest jedna z tych „wartości do zapamiętania”, które naprawdę przydają się w codziennej pracy, bo większość protokołów RTG kończyny górnej (nadgarstek, łokieć, bark, dłoń, paliczki) jest na tym oparta. Warto też pamiętać, że większe odległości, typu 150–180 cm, zarezerwowane są raczej dla klatki piersiowej, gdzie zależy nam na minimalizacji powiększenia serca i lepszej jednorodności dawki. Z kolei zbyt mała OF powodowałaby wyraźne powiększenie i rozmycie struktur, co utrudnia ocenę np. szczelin stawowych czy drobnych odłamów kostnych. Dobrą praktyką jest zawsze sprawdzenie, czy rzeczywista OF zgadza się z protokołem pracowni, bo błędne ustawienie może później dawać pozorne różnice w wielkości zmian na kolejnych badaniach kontrolnych. W diagnostyce pourazowej kończyny górnej, gdzie liczy się dokładna ocena ustawienia odłamów, taka powtarzalność geometrii zdjęcia ma ogromne znaczenie.

Pytanie 9

Który radioizotop stosuje się do badania scyntygraficznego kości?

A. ²⁰¹Tl
B. ⁶⁷Ga
C. ¹²³I
D. ⁹⁹ᵐTc
Prawidłowo wskazany radioizotop to 99mTc, czyli technet-99m. To jest podstawowy znacznik stosowany w scyntygrafii kości praktycznie na całym świecie. W badaniu nie podaje się „gołego” technetu, tylko radiofarmaceutyk – najczęściej 99mTc-MDP lub 99mTc-HDP, czyli związki fosfonianowe, które mają duże powinowactwo do tkanki kostnej, szczególnie tam, gdzie jest wzmożony metabolizm i przebudowa kości. Dzięki temu ogniska zwiększonej aktywności, np. przerzuty nowotworowe, świeże złamania, zapalenia kości, bardzo wyraźnie wychwytują znacznik i dobrze się odcinają na obrazie z gammakamery. 99mTc ma kilka cech, które z praktycznego punktu widzenia są idealne: emituje promieniowanie gamma o energii ok. 140 keV – bardzo dobrze rejestrowane przez gammakamerę, a jednocześnie stosunkowo bezpieczne dla pacjenta; ma krótki okres półtrwania (ok. 6 godzin), co ogranicza dawkę pochłoniętą; można go wygodnie pozyskiwać z generatora 99Mo/99mTc w pracowni medycyny nuklearnej. W standardach pracowni medycyny nuklearnej scyntygrafia kości z 99mTc jest jednym z badań „podstawowych” – wykonuje się ją m.in. u pacjentów onkologicznych w poszukiwaniu przerzutów do kości, przy podejrzeniu jałowej martwicy, w ocenie endoprotez, a także przy niewyjaśnionych bólach kostnych. Moim zdaniem warto zapamiętać prostą zasadę: „kości = 99mTc z fosfonianem”, bo to pojawia się często i w praktyce klinicznej, i na egzaminach. Inne izotopy z listy mają swoje zastosowania, ale nie są standardem do scyntygrafii kości.

Pytanie 10

Jaka jest moc dawki pochłoniętej w brachyterapii HDR?

A. W zakresie 3-5 Gy/h
B. Mniej niż 2 Gy/h
C. Więcej niż 12 Gy/h
D. W zakresie 6-11 Gy/h
Prawidłowo – brachyterapia HDR (High Dose Rate) to technika, w której moc dawki pochłoniętej wynosi powyżej 12 Gy/h. W praktyce klinicznej stosuje się jeszcze wyższe wartości, rzędu kilkudziesięciu, a nawet kilkuset Gy/h w miejscu źródła, ale definicyjnie HDR to właśnie zakres >12 Gy/h. Jest to zgodne z klasycznym podziałem brachyterapii na LDR (low dose rate, zwykle ok. 0,4–2 Gy/h), MDR (medium dose rate), PDR (pulsed dose rate) oraz HDR. Moim zdaniem warto to sobie po prostu skojarzyć: HDR = bardzo krótki czas zabiegu, ale bardzo duża moc dawki w trakcie ekspozycji. W brachyterapii HDR stosuje się najczęściej źródło 192Ir, które jest automatycznie wysuwane z afterloadera do aplikatorów umieszczonych w guzie albo w jego bezpośrednim sąsiedztwie. Dzięki wysokiej mocy dawki można podać zaplanowaną dawkę całkowitą w kilku-kilkunastu frakcjach trwających po kilka minut, zamiast wielu godzin czy dni jak w LDR. Z punktu widzenia organizacji pracy oddziału onkologii to ogromny plus: łatwiej zaplanować harmonogram, skraca się czas zajęcia sali i aparatury, a pacjent często może być leczony ambulatoryjnie. Jednocześnie, przy tak dużej mocy dawki, bardzo ważne jest precyzyjne planowanie leczenia w systemie TPS, dokładne obrazowanie (TK, MR) do wyznaczenia objętości tarczowych i narządów krytycznych oraz rygorystyczne przestrzeganie zasad ochrony radiologicznej. W HDR każdy błąd w pozycjonowaniu aplikatora czy czasie ekspozycji od razu przekłada się na duże odchylenie dawki. Dlatego w dobrych ośrodkach tak duży nacisk kładzie się na procedury QA, weryfikację czasu przebywania źródła w poszczególnych pozycjach (tzw. dwell time) oraz kontrolę geometrii układu. W praktyce technika HDR jest szeroko stosowana np. w nowotworach ginekologicznych, raka prostaty, raka płuca czy przełyku, właśnie dzięki możliwościom konformnego podania wysokiej dawki w krótkim czasie przy stosunkowo szybkim spadku dawki w tkankach otaczających.

Pytanie 11

Czym charakteryzuje się późny odczyn popromienny?

A. Występuje po 6 miesiącach od zakończenia radioterapii, ustępuje samoistnie lub po prostym leczeniu farmakologicznym.
B. Występuje w trakcie lub do 6 miesięcy od zakończenia radioterapii, zwykle jest trwały i może powodować zagrożenie dla życia pacjenta.
C. Występuje w trakcie lub do 6 miesięcy od zakończenia radioterapii, ustępuje samoistnie lub po prostym leczeniu farmakologicznym.
D. Występuje po 6 miesiącach od zakończenia radioterapii, pojawia się nagle, zwykle jest trwały i może stanowić zagrożenie dla życia pacjenta.
Późny odczyn popromienny to klasyczny temat w radioterapii i warto go mieć naprawdę dobrze poukładany w głowie. Kluczowe są tu trzy elementy: czas, dynamika pojawienia się objawów i ich trwałość. Za późne odczyny uznaje się te, które występują po upływie co najmniej 6 miesięcy od zakończenia napromieniania. W praktyce klinicznej często mówimy wręcz o miesiącach–latach po terapii. To odróżnia je od odczynów wczesnych, które pojawiają się w trakcie lub do 6 miesięcy po radioterapii. Wybrana odpowiedź dobrze podkreśla, że późny odczyn pojawia się nagle – pacjent często przez dłuższy czas czuje się w porządku, a po jakimś czasie dochodzi do gwałtownego ujawnienia się zmian. Moim zdaniem to jest jedna z pułapek radioterapii: pacjent kończy leczenie, wydaje się, że wszystko jest dobrze, a jednak ryzyko uszkodzeń tkanek późno reagujących (np. rdzeń kręgowy, nerki, płuca, serce) nadal istnieje. Co ważne, późne odczyny są zwykle trwałe, bo wiążą się z nieodwracalnym uszkodzeniem struktur o powolnej regeneracji: zwłóknieniem, martwicą, teleangiektazjami, przewlekłym owrzodzeniem. W skrajnych sytuacjach mogą stanowić realne zagrożenie życia – przykłady to popromienne zwłóknienie płuc z niewydolnością oddechową, mielopatia popromienna z porażeniem, ciężkie uszkodzenie serca po napromienianiu śródpiersia czy perforacja jelita po radioterapii miednicy. W dobrych praktykach planowania radioterapii (wg wytycznych np. ESTRO, QUANTEC) bardzo mocno pilnuje się dawek tolerancji dla narządów krytycznych właśnie z powodu ryzyka późnych powikłań. Dlatego tak ważne jest precyzyjne wyznaczanie OAR (organs at risk), stosowanie technik IMRT/VMAT, odpowiednie frakcjonowanie dawki i dokładne unieruchomienie pacjenta. Z mojego doświadczenia patrząc na opisy planów, cała filozofia ograniczania dawki do tkanek zdrowych kręci się głównie wokół zapobiegania późnym odczynom, bo jak już się pojawią, to najczęściej nie da się ich cofnąć, można tylko łagodzić objawy.

Pytanie 12

Strzałką na schemacie oznaczono

Ilustracja do pytania
A. węzeł przedsionkowo-komorowy.
B. lewą odnogę pęczka Hisa.
C. węzeł zatokowo-przedsionkowy.
D. prawą odnogę pęczka Hisa.
Strzałka na schemacie pokazuje strukturę położoną w ścianie prawego przedsionka, przy ujściu żyły głównej górnej – to klasyczna lokalizacja węzła zatokowo‑przedsionkowego (SA). Ten węzeł to fizjologiczny rozrusznik serca: generuje impulsy elektryczne, które następnie szerzą się przez mięsień przedsionków i dalej trafiają do węzła przedsionkowo‑komorowego. Moim zdaniem warto to sobie skojarzyć tak: wszystko „zaczyna się” w prawym przedsionku, wysoko, przy żyle głównej górnej. W praktyce diagnostyki elektromedycznej znajomość położenia SA ma znaczenie np. przy interpretacji EKG – rytm zatokowy oznacza, że bodźce powstają właśnie w tym węźle. Na zapisie widzimy wtedy prawidłowe załamki P dodatnie w odprowadzeniach kończynowych (np. II, aVF), z równym odstępem między kolejnymi załamkami R. W badaniach obrazowych (echo serca, TK, MR) węzła nie widać tak ładnie jak na schemacie, ale orientacja anatomiczna jest ta sama: górna część prawego przedsionka, grzebień graniczny. W praktyce klinicznej zaburzenia funkcji węzła zatokowo‑przedsionkowego prowadzą do tzw. choroby węzła zatokowego, bradykardii zatokowej czy naprzemiennych okresów tachy‑ i bradykardii. Wtedy często konieczne jest wszczepienie stymulatora serca, który przejmuje rolę naturalnego rozrusznika. W technice EKG i przy analizie zabiegów elektroterapii (ablacje, implantacje stymulatorów) rozumienie, skąd fizjologicznie startuje impuls, jest absolutną podstawą i pomaga unikać błędów interpretacyjnych. Dlatego dobrze, że kojarzysz ten mały „guzek” przy żyle głównej górnej właśnie z węzłem zatokowo‑przedsionkowym.

Pytanie 13

Pielografia zstępująca umożliwia diagnostykę

A. miąższu nerek po dożylnym podaniu środka kontrastującego.
B. pęcherza moczowego po podaniu środka kontrastującego przez cewnik.
C. układu naczyniowego po dożylnym podaniu środka kontrastującego.
D. dróg moczowych po przezskórnym podaniu środka kontrastującego do miedniczki.
W tym zadaniu łatwo się pomylić, bo wszystkie odpowiedzi brzmią jak jakieś badanie z kontrastem, ale klucz tkwi w nazwie i drodze podania środka cieniującego. Pielografia zstępująca nie służy do oceny miąższu nerek po dożylnym podaniu kontrastu – to opis bardziej pasujący do urografii dożylnej albo tomografii komputerowej nerek z kontrastem. W tych badaniach interesuje nas wydzielanie kontrastu przez nerki i obraz miąższu, czyli parenchymy, a nie tylko światło dróg moczowych. W pielografii natomiast środek kontrastujący ma wypełnić wnętrze układu kielichowo‑miedniczkowego i moczowodu, żeby było widać ich kształt, zwężenia, zastoje czy uszkodzenia. Kolejne skojarzenie bywa z układem naczyniowym, bo tam też często podaje się kontrast dożylnie. Jednak badania naczyń to już angiografia, flebografia czy angio‑TK, a nie pielografia. W diagnostyce naczyń zupełnie inne są wskazania, technika, a także sposób obrazowania, mimo że też używa się promieniowania jonizującego i kontrastów jodowych. Pomylenie tych pojęć wynika zwykle z tego, że każdy kontrast kojarzy się automatycznie z „żyłą”, co nie jest prawdą – tu kontrast idzie bezpośrednio do układu moczowego. Pojawia się też odpowiedź dotycząca pęcherza moczowego po podaniu kontrastu przez cewnik. To opis cystografii, czyli badania pęcherza moczowego (czasem z oceną cewki). W cystografii wypełnia się pęcherz kontrastem przez cewnik i ocenia jego kształt, ściany, ewentualny refluks pęcherzowo‑moczowodowy. To inne badanie niż pielografia, chociaż też dotyczy układu moczowego. Pielografia zstępująca skupia się na drogach moczowych powyżej pęcherza, głównie na układzie kielichowo‑miedniczkowym i moczowodach, i wymaga przezskórnego dojścia do miedniczki nerkowej. Typowym błędem myślowym jest sprowadzenie wszystkich badań z kontrastem do jednego worka i patrzenie tylko na narząd, a nie na sposób podania środka cieniującego i na dokładną nazwę procedury. W praktyce zawodowej warto zawsze kojarzyć: pielografia – drogi moczowe, cystografia – pęcherz, angiografia – naczynia, a dożylne badania miąższu nerek to już zupełnie inna technika i inne wskazania.

Pytanie 14

Który radioizotop jest stosowany w diagnostyce i terapii raka tarczycy?

A. ¹³¹I
B. ¹⁸⁶Re
C. ¹³³Xe
D. ²²³Ra
Prawidłowo wskazany radioizotop to 131I, czyli jod-131. To jest klasyk w medycynie nuklearnej, szczególnie w diagnostyce i leczeniu chorób tarczycy. Tarczyca fizjologicznie wychwytuje jod z krwi, bo używa go do produkcji hormonów T3 i T4. Dzięki temu, jeśli podamy pacjentowi radioaktywny jod w formie radiofarmaceutyku, gruczoł tarczowy „sam” go zbierze. To bardzo wygodne i jednocześnie dość selektywne narzędzie. W diagnostyce stosuje się mniejsze dawki 131I do scyntygrafii tarczycy – gammakamera rejestruje promieniowanie gamma emitowane przez izotop, co pozwala ocenić rozmieszczenie czynnej tkanki tarczycowej, obecność guzków, pozostałości po tyreoidektomii. W terapii raka zróżnicowanego tarczycy (np. rak brodawkowaty, pęcherzykowy) wykorzystuje się znacznie wyższe dawki, zgodnie z wytycznymi medycyny nuklearnej i onkologii, żeby zniszczyć komórki nowotworowe wychwytujące jod. To tzw. ablacja resztek tarczycy lub leczenie ognisk przerzutowych. Moim zdaniem to bardzo elegancki przykład terapii celowanej: promieniowanie beta z 131I działa lokalnie, uszkadzając DNA komórek tarczycowych, a promieniowanie gamma umożliwia jednocześnie kontrolę rozkładu dawki na obrazach scyntygraficznych. W praktyce technik medycyny nuklearnej musi pamiętać o przygotowaniu pacjenta (dieta ubogojodowa, odstawienie tyreostatyków, czasem rekombinowane TSH), o zasadach ochrony radiologicznej po podaniu izotopu oraz o poprawnej kalibracji dawkomierza i gammakamery. W większości ośrodków jest to procedura bardzo dobrze wystandaryzowana, oparta na rekomendacjach towarzystw medycyny nuklearnej i onkologii endokrynologicznej.

Pytanie 15

W brachyterapii MDR stosowane są dawki promieniowania

A. od 0,5 do 1,0 Gy/h
B. od 0,01 do 0,1 Gy/h
C. od 2,0 do 12 Gy/h
D. od 0,2 do 0,4 Gy/h
W brachyterapii wyróżniamy trzy podstawowe zakresy mocy dawki: LDR (low dose rate), MDR (medium dose rate) i HDR (high dose rate). Kluczowe jest tu właśnie tempo podawania dawki, czyli ile Gy na godzinę jest deponowane w tkankach. Dla MDR standardowo przyjmuje się przedział około 2–12 Gy/h, i dlatego odpowiedź z tym zakresem jest prawidłowa. Jest to wartość pośrednia między klasyczną brachyterapią LDR, gdzie dawki są bardzo niskie i podawane przez wiele godzin lub nawet dni, a brachyterapią HDR, gdzie moc dawki jest bardzo wysoka i ekspozycja trwa zwykle minuty. Moim zdaniem dobrze jest to sobie kojarzyć tak: LDR – „długo i spokojnie”, HDR – „krótko i intensywnie”, a MDR – coś pomiędzy, ale nadal wymagające dokładnego planowania i kontroli. W praktyce klinicznej brachyterapia MDR była historycznie używana m.in. w leczeniu nowotworów ginekologicznych czy guzów w obrębie głowy i szyi, chociaż obecnie w wielu ośrodkach dominuje HDR. Jednak zasady fizyczne i klasyfikacja mocy dawki są ciągle takie same. Zakres 2–12 Gy/h ma znaczenie nie tylko definicyjne, ale też radiobiologiczne – inaczej zachowują się komórki nowotworowe i zdrowe tkanki przy takich szybkościach napromieniania. Dobra praktyka kliniczna i wytyczne (np. ICRU, IAEA) wyraźnie rozróżniają te przedziały, bo od nich zależy schemat frakcjonowania, czas ekspozycji, wymagania dotyczące ochrony radiologicznej i organizacji pracy pracowni brachyterapii. Znajomość tego podziału jest ważna nie tylko dla lekarza, ale też dla technika elektroradiologii – przy planowaniu zabiegów, obsłudze aparatury afterloading i kontroli parametrów ekspozycji. W codziennej pracy takie liczby nie są abstrakcyjne, tylko realnie wpływają na to, jak długo pacjent leży z aplikatorami, jak często wchodzi personel i jakie są procedury bezpieczeństwa.

Pytanie 16

Na radiogramie strzałką oznaczono

Ilustracja do pytania
A. kość łódkowatą.
B. staw skokowo-piętowy.
C. kość sześcienną.
D. głowę kości skokowej.
Na tym zdjęciu RTG stawu skokowego w projekcji bocznej strzałka wskazuje kość łódkowatą stępu. W tej projekcji kość łódkowata leży bezpośrednio przed głową kości skokowej, czyli tak jakby „doklejona” do jej przedniego bieguna. Z tyłu widzisz masywną kość piętową, nad nią kość skokową z wyraźnym bloczkiem w stawie skokowym górnym, a jeszcze bardziej do przodu – właśnie kość łódkowatą, którą pokazano strzałką. Charakterystyczne jest to, że ma ona kształt takiego lekko owalnego, spłaszczonego cienia, tworzącego staw skokowo-łódkowy. W praktyce klinicznej poprawne rozpoznawanie kości łódkowatej na RTG jest ważne przy urazach stawu skokowego i stępu, np. przy podejrzeniu złamań awulsyjnych, jałowej martwicy (choroba Köhlera u dzieci) czy zmian przeciążeniowych. W standardach opisowych radiologii dobrze jest zawsze systematycznie „przelecieć” wzrokiem po wszystkich kościach stępu: piętowej, skokowej, łódkowatej, sześciennej i klinowatych, żeby niczego nie pominąć. Moim zdaniem warto wyrobić sobie nawyk porównywania położenia kości łódkowatej do głowy kości skokowej – jeśli widzisz przednią, lekko wypukłą część kości skokowej, to od razu z przodu niej szukasz kości łódkowatej. To bardzo ułatwia orientację, zwłaszcza gdy obraz jest słabszej jakości albo pacjent był minimalnie źle ustawiony. Takie podejście jest zgodne z dobrą praktyką w diagnostyce obrazowej, gdzie liczy się powtarzalny, uporządkowany schemat oceny radiogramu.

Pytanie 17

Na radiogramie stopy uwidocznione jest złamanie trzonu

Ilustracja do pytania
A. II kości śródstopia.
B. III kości śródstopia.
C. paliczka bliższego palca III.
D. paliczka bliższego palca II.
Prawidłowo wskazana została III kość śródstopia – na radiogramie w projekcji grzbietowo‑podeszwowej widać wyraźne przerwanie ciągłości zarysu jej trzonu. Trzon kości śródstopia ma kształt wydłużony, lekko zwężony w części środkowej, z wyraźnie zaznaczonymi nasadami bliższą i dalszą. Na zdjęciu linia złamania przebiega w obrębie tej środkowej części trzeciej kości licząc od strony przyśrodkowej stopy (czyli po palcach: I, II, III…). W standardowej ocenie RTG stopy zawsze zaczyna się od identyfikacji osi – paluch to I promień, dalej II, III, IV i V. W praktyce technika radiologii powinna nawykowo „liczyć” kości od strony przyśrodkowej, bo pomyłki między II a III kością są bardzo częste, szczególnie gdy złamanie jest w trzonie, a kości leżą blisko siebie. Moim zdaniem dobrą praktyką jest porównywanie szerokości przynasad i ustawienia stawów śródstopno‑paliczkowych – to pomaga nie pomylić segmentów. W codziennej pracy, przy opisie zdjęć urazowych, zawsze trzeba podać dokładną lokalizację: numer kości śródstopia, część (głowa, trzon, podstawa) oraz ewentualne przemieszczenie lub odchylenie osi. Ma to znaczenie dla ortopedy przy doborze leczenia – inaczej postępuje się przy złamaniu trzonu III kości śródstopia, a inaczej np. przy złamaniu podstawy V kości śródstopia (typowe złamanie awulsyjne). W dobrych standardach diagnostyki obrazowej, jeśli linia złamania jest wątpliwa, wykonuje się dodatkową projekcję skośną lub porównawczą, ale tutaj obraz trzonu III kości śródstopia jest dosyć jednoznaczny. Warto też pamiętać, że ocena trzonów śródstopia wymaga odpowiedniej ekspozycji – zbyt twarde zdjęcie „gubi” drobne linie złamań, a zbyt miękkie daje zlewanie się struktur. Z mojego doświadczenia takie złamania, jak na tym obrazie, często są efektem urazu skrętnego lub urazu sportowego i dobrze korelują z bólem uciskowym dokładnie nad trzecim promieniem śródstopia.

Pytanie 18

Ile razy i jak zmieni się wartość natężenia promieniowania X przy zwiększeniu odległości OF ze 100 cm do 200 cm?

A. Czterokrotnie się zwiększy.
B. Czterokrotnie się zmniejszy.
C. Dwukrotnie się zmniejszy.
D. Dwukrotnie się zwiększy.
W tym zadaniu kłopot zwykle bierze się z intuicji, że jak coś jest dalej, to „trochę słabnie”, ale bez dokładnego zrozumienia, jak szybko to słabnie. Natężenie promieniowania X nie zmienia się liniowo z odległością, tylko zgodnie z prawem odwrotności kwadratu odległości. Oznacza to, że jeżeli odległość od źródła zwiększamy dwa razy, to natężenie nie spada dwa razy, tylko cztery razy, bo liczy się kwadrat tej zmiany. Dlatego odpowiedzi mówiące o „dwukrotnym” zwiększeniu albo zmniejszeniu natężenia są oparte na błędnym założeniu, że zależność jest proporcjonalna do 1/d, a nie do 1/d². Taki błąd jest bardzo typowy, zwłaszcza gdy ktoś myśli bardziej „na czuja” niż przez pryzmat wzoru. W praktyce klinicznej w radiografii, jeżeli odległość ognisko–film (OF) zmienia się z 100 cm na 200 cm, odległość rośnie dwukrotnie. Gdyby natężenie zmieniało się proporcjonalnie do 1/d, można by dyskutować o spadku dwukrotnym, ale fizyka promieniowania mówi jasno: liczy się powierzchnia, na którą rozkładają się fotony. Powierzchnia kuli (albo wycinka wiązki) rośnie z kwadratem promienia, więc ta sama liczba fotonów jest rozsmarowana na cztery razy większej powierzchni. Stąd czterokrotny spadek, a nie dwukrotny. Z drugiej strony, pomysł, że natężenie przy zwiększeniu odległości mogłoby się „zwiększyć” (czy to dwukrotnie, czy czterokrotnie), jest sprzeczny z zasadami ochrony radiologicznej i zdrowym rozsądkiem: im dalej od źródła, tym bezpieczniej i tym mniej promieniowania dociera do danego punktu. Wyobrażenie, że odsuwając detektor dalej od lampy rentgenowskiej dostaniemy więcej promieniowania, kłóci się zarówno z doświadczeniem z pracowni RTG, jak i z oficjalnymi wytycznymi, które zalecają zwiększanie odległości jako jedną z podstawowych metod redukcji dawki dla personelu. Z mojego doświadczenia warto od razu skojarzyć: podwojenie odległości = czterokrotny spadek natężenia, a jeśli chcemy utrzymać ekspozycję, trzeba z grubsza czterokrotnie zwiększyć mAs. Dzięki temu unika się wielu błędów przy ustawianiu parametrów i lepiej rozumie się, jak geometria wpływa na dawkę i jakość obrazu.

Pytanie 19

Podczas badania gammakamerą źródłem promieniowania jest

A. detektor.
B. pacjent.
C. fotopowielacz.
D. kolimator.
W gammakamerze łatwo pomylić elementy układu i uznać, że to urządzenie samo jest źródłem promieniowania, trochę na zasadzie skojarzenia z aparatem RTG. Tymczasem w medycynie nuklearnej logika jest odwrócona: promieniowanie pochodzi z radioizotopu podanego pacjentowi, a cała reszta aparatury służy wyłącznie do jego selektywnego wychwytywania, przetwarzania i zapisu. Detektor w gammakamerze, zwykle kryształ scyntylacyjny (np. NaI(Tl)), jest tylko przetwornikiem energii – zamienia fotony promieniowania gamma docierające z pacjenta na błyski światła. Sam z siebie nie generuje promieniowania jonizującego, on je jedynie rejestruje. Podobnie kolimator, ta masywna ołowiana „plaster miodu” przytwierdzona do głowicy, pełni funkcję filtra geometrycznego. Ogranicza kierunki, z których fotony mogą dotrzeć do kryształu. Nie jest to źródło, tylko bierny element ochronno-selekcyjny, który wręcz dużą część promieniowania pochłania. Mylenie kolimatora ze źródłem wynika często z tego, że jest ciężki, ołowiany i kojarzy się z „promieniowaniem”. Fotopowielacz z kolei to element elektroniki detekcyjnej. Jego zadaniem jest wzmocnienie bardzo słabego sygnału świetlnego ze scyntylatora do poziomu impulsu elektrycznego możliwego do zliczenia i analizy. W środku zachodzą procesy emisji fotoelektronów i ich multiplikacji, ale to nie jest promieniowanie jonizujące używane do obrazowania pacjenta, tylko zjawiska wewnątrz układu elektronicznego. Typowy błąd myślowy polega na przenoszeniu schematu z klasycznej radiologii: tam lampa jest źródłem i znajduje się po stronie aparatu, więc odruchowo szukamy „źródła” w gammakamerze. W rzeczywistości w scyntygrafii źródło jest ruchome, biologiczne i znajduje się w ciele pacjenta, a cały system detekcyjny jest bierny. Zrozumienie tej różnicy jest kluczowe nie tylko dla teorii, ale też dla ochrony radiologicznej – to pacjent po podaniu radiofarmaceutyku staje się obiektem, od którego trzeba się czasem osłaniać, a nie głowica gammakamery.

Pytanie 20

Cholangiografia to badanie radiologiczne

A. pęcherza moczowego.
B. pęcherzyka żółciowego.
C. dróg moczowych.
D. dróg żółciowych.
Cholangiografia to klasyczne badanie radiologiczne układu żółciowego, w którym uwidacznia się przede wszystkim drogi żółciowe – wewnątrzwątrobowe i zewnątrzwątrobowe. Sama nazwa już podpowiada zakres: „chole” odnosi się do żółci, a „-graphia” do obrazowania. W praktyce klinicznej cholangiografia polega na podaniu środka cieniującego (kontrastu jodowego) do dróg żółciowych i wykonaniu serii zdjęć RTG lub obrazów fluoroskopowych. Dzięki temu radiolog może ocenić przebieg przewodów, ich szerokość, obecność zwężeń, zastoju żółci, złogów czy przecieków pooperacyjnych. W codziennej pracy szpitalnej spotyka się różne techniki cholangiografii: śródoperacyjną podczas cholecystektomii laparoskopowej, przezskórną przez wątrobę (PTC), a także cholangiopankreatografię wsteczną (ERCP), która łączy endoskopię z kontrolą radiologiczną. Moim zdaniem warto zapamiętać, że celem tego badania nie jest sam pęcherzyk żółciowy, tylko cały „system rur” od wątroby do dwunastnicy. Standardy dobrej praktyki wymagają m.in. prawidłowego przygotowania pacjenta, oceny przeciwwskazań do kontrastu jodowego (alergia, niewydolność nerek), osłony radiologicznej personelu i minimalizacji dawki promieniowania przy zachowaniu odpowiedniej jakości obrazu. W diagnostyce żółtaczki mechanicznej, kamicy przewodowej czy przed zabiegami endoskopowymi dróg żółciowych cholangiografia jest jednym z kluczowych narzędzi – pozwala nie tylko rozpoznać patologię, ale często od razu zaplanować leczenie zabiegowe.

Pytanie 21

Na ilustracji przedstawiono ułożenie pacjenta do wykonania zdjęcia rentgenowskiego

Ilustracja do pytania
A. stopy.
B. palców stopy.
C. kości piętowej.
D. śródstopia.
Na zdjęciu widać klasyczne ułożenie pacjenta do wykonania projekcji AP stopy – stopa leży podeszwą na detektorze (kaseta / płyta obrazująca), palce są wyprostowane, a wiązka promieniowania będzie padała z góry, prostopadle lub lekko skośnie, na całą stopę. Strzałka wskazuje mniej więcej środek pola ekspozycji, czyli okolice środka stopy, co jest typowe dla standardowego badania RTG stopy, a nie tylko pojedynczego odcinka, jak kość piętowa czy palce. W praktyce technik elektroradiolog ustawia centralną wiązkę tak, aby objąć jednocześnie paliczki, śródstopie i tyłostopie, bo celem jest ocena całej architektury stopy: łuku podłużnego, ustawienia kości śródstopia, stawów śródstopno‑paliczkowych i stępu. Dla kości piętowej stosuje się zupełnie inne pozycjonowanie – pięta jest wtedy najczęściej odsunięta i wykonywana jest projekcja boczna lub osiowa, z wyraźnym ukierunkowaniem na kość piętową i staw skokowo‑piętowy. Z kolei zdjęcia palców wymagają bardziej precyzyjnego ogniskowania na konkretny promień (np. paluch) oraz użycia mniejszego pola ekspozycji, często też innego ułożenia, żeby uniknąć nakładania się sąsiednich struktur. Moim zdaniem warto zapamiętać, że przy „zdjęciu stopy” standardem jest objęcie wszystkich kości od paliczków aż po tyłostopie w jednym polu, co dokładnie sugeruje ta ilustracja. W praktyce klinicznej takie badanie wykonuje się bardzo często przy urazach, deformacjach (np. płaskostopie, hallux valgus) czy bólach przeciążeniowych, dlatego poprawne pozycjonowanie całej stopy jest kluczowe dla jakości diagnostycznej obrazu i zgodne z zasadami dobrej praktyki radiologicznej.

Pytanie 22

Na obrazie rezonansu magnetycznego strzałką wskazano patologiczny kręg

Ilustracja do pytania
A. Th₈
B. L₁
C. L₃
D. Th₁₀
Prawidłowo wskazany został kręg L₁. Na strzałkowym obrazie MRI odcinka piersiowo‑lędźwiowego zawsze zaczynamy od orientacji anatomicznej: u dołu widoczna jest kość krzyżowa i ostatnie kręgi lędźwiowe, wyżej – przejście piersiowo‑lędźwiowe i kręgi piersiowe. Standardową dobrą praktyką w opisie takich badań jest liczenie kręgów od dołu: od kości krzyżowej (S1) w górę do L5, L4, L3, L2 i właśnie L1 jako najwyższego kręgu lędźwiowego. Na obrazie widać, że patologicznie zmieniony trzon leży tuż powyżej L2 i poniżej pierwszego wyraźnie piersiowego kręgu z przyczepem żeber, co jednoznacznie odpowiada poziomowi L₁. W codziennej pracy technika czy lekarza radiologa takie liczenie kręgów, najlepiej w korelacji z dodatkowymi sekwencjami obejmującymi kość krzyżową, to absolutna podstawa, bo od poprawnej identyfikacji poziomu zależy dalsze leczenie: planowanie zabiegów ortopedycznych, blokad nasierpowych, vertebroplastyk czy napromieniania. Moim zdaniem warto sobie wyrobić nawyk „kotwiczenia” się na charakterystycznych punktach: przejście L5–S1, zarys żeber przy kręgach piersiowych, kształt trzonów i wysokość krążków międzykręgowych. Na rezonansie często korzysta się też z sekwencji całego kręgosłupa lub przynajmniej odcinka piersiowo‑lędźwiowego, żeby nie pomylić L1 z Th12, co bywa częstą wtopą u początkujących. W nowoczesnych standardach opisu (np. według zaleceń towarzystw radiologicznych) podkreśla się konieczność jednoznacznego oznaczenia poziomu, czasem z użyciem znaczników skórnych lub korelacji z wcześniejszym RTG. Poprawne rozpoznanie L₁ w takim obrazie to właśnie przykład stosowania tych zasad w praktyce obrazowej diagnostyki kręgosłupa.

Pytanie 23

W badaniu EEG elektrody referencyjne przymocowane do płatka ucha to

A. P3, P4
B. A1, A2
C. C3, C4
D. Fp1,Fp2
Prawidłowo – w klasycznym badaniu EEG elektrody referencyjne umieszczane na płatkach uszu oznaczamy jako A1 (ucho lewe) i A2 (ucho prawe). Litera „A” pochodzi od słowa „auricular”, czyli uszny. W systemie 10–20 to jest standardowe, międzynarodowo przyjęte oznaczenie i praktycznie w każdej pracowni EEG, która trzyma się zaleceń IFCN (International Federation of Clinical Neurophysiology), spotkasz właśnie te symbole. Płatki uszu traktuje się jako miejsca stosunkowo „elektrycznie spokojne”, czyli z mniejszym udziałem aktywności korowej, dlatego dobrze się nadają na elektrody odniesienia w wielu montażach, np. w montażu uszno-mózgowym (ear-linked). W praktyce technik EEG często sprawdza, czy A1 i A2 są poprawnie przymocowane, bo jeśli kontakt z płatkiem ucha jest słaby, to później w zapisie widzimy sztuczne różnice potencjałów i pojawiają się fałszywe asymetrie między półkulami. Co ciekawe, w niektórych pracowniach stosuje się referencję złączoną A1+A2, żeby zminimalizować wpływ jednostronnych zakłóceń. Moim zdaniem warto zapamiętać, że A1/A2 to taki punkt wyjścia – jak zobaczysz w opisie montażu „referencja do A1/A2”, od razu wiesz, że chodzi o płatki uszu, a nie o okolice czaszkowe. Znajomość tych oznaczeń ułatwia potem interpretację zapisu, rozróżnianie artefaktów od rzeczywistej aktywności bioelektrycznej mózgu oraz poprawne porównywanie zapisów między różnymi pracowniami i aparatami EEG. To jest po prostu element podstawowej „mapy” głowy w EEG, bez którego ciężko się poruszać w diagnostyce elektromedycznej.

Pytanie 24

Na ilustracji przedstawiono zjawisko

Ilustracja do pytania
A. anihilacji.
B. tworzenia par.
C. emisji fotonu.
D. fotoelektryczne.
Poprawnie rozpoznano zjawisko fotoelektryczne. Na ilustracji widać kwant promieniowania (γ lub ogólnie foton), który pada na elektron związany w atomie, a następnie wybija go, tworząc elektron swobodny. Dokładnie to opisuje wzór Eₑ = hν − E_w, gdzie hν to energia fotonu, a E_w to energia wiązania elektronu w atomie. Różnica tych energii jest przekazywana elektronowi jako energia kinetyczna. W praktyce medycznej to zjawisko jest absolutnie kluczowe dla diagnostyki obrazowej w zakresie promieniowania X: w detektorach cyfrowych, w błonach rentgenowskich, w komorach jonizacyjnych, dozymetrach – wszędzie tam konwersja promieniowania na ładunek elektryczny opiera się właśnie na efekcie fotoelektrycznym. Moim zdaniem warto pamiętać, że efekt fotoelektryczny dominuje przy niższych energiach fotonów (kilkadziesiąt keV), czyli typowych dla klasycznej radiografii i mammografii. Z tego wynika silna zależność pochłaniania od liczby atomowej Z – kości (wapń, wysoka Z) pochłaniają dużo bardziej niż tkanki miękkie, dzięki czemu na zdjęciu RTG mamy wyraźny kontrast. Właśnie dlatego dobór napięcia na lampie rentgenowskiej (kV) jest tak ważny: zbyt wysokie kV zwiększa udział zjawiska Comptona kosztem fotoelektrycznego i obraz staje się bardziej „płaski”, z gorszym kontrastem tkankowym. Efekt fotoelektryczny ma też duże znaczenie w ochronie radiologicznej – materiały osłonowe o dużej liczbie atomowej (np. ołów) bardzo skutecznie pochłaniają promieniowanie właśnie przez ten mechanizm. W podręcznikach z fizyki medycznej podkreśla się, że zrozumienie tego zjawiska jest podstawą świadomego ustawiania parametrów ekspozycji i oceny jakości obrazu, a nie tylko „klikania” domyślnych protokołów.

Pytanie 25

Na zamieszczonym obrazie TK strzałką zaznaczono zatokę

Ilustracja do pytania
A. czołową w przekroju czołowym.
B. szczękową w przekroju strzałkowym.
C. czołową w przekroju strzałkowym.
D. szczękową w przekroju czołowym.
Na obrazie TK widzisz klasyczny przekrój czołowy (koronalny) przez okolice zatok przynosowych. Świadczy o tym układ struktur: symetrycznie położone oczodoły po obu stronach, przegroda nosa biegnąca pionowo pośrodku oraz charakterystyczny kształt małżowin nosowych. Strzałka wskazuje dużą, powietrzną jamę położoną bocznie i nieco poniżej jamy nosowej – to właśnie zatoka szczękowa. Zatoki czołowe leżałyby znacznie wyżej, nad oczodołami, w obrębie kości czołowej, a tutaj ich po prostu nie widać. W praktyce technik i lekarz radiolog muszą bardzo dobrze rozpoznawać takie przekroje, bo od poprawnej identyfikacji zależy opis zmian zapalnych, torbieli, polipów czy poziomów płynu. W badaniach TK zatok standardem jest wykonywanie serii przekrojów koronalnych, bo najlepiej pokazują drożność kompleksu ujściowo-przewodowego i relacje między zatoką szczękową a jamą nosową. Moim zdaniem warto się „oswoić” z obrazem tej zatoki: położenie bocznie od jamy nosowej, cienka kostna ściana dolna sąsiadująca z korzeniami zębów trzonowych i przedtrzonowych, przyśrodkowa ściana granicząca z małżowinami nosowymi. W praktyce laryngologicznej i stomatologicznej to ma duże znaczenie – np. przy planowaniu podniesienia dna zatoki, implantów czy ocenie powikłań zapaleń okołowierzchołkowych. Dobre rozpoznanie, że jest to zatoka szczękowa w przekroju czołowym, jest więc zgodne z typowym standardem interpretacji badań TK zatok i pokazuje, że prawidłowo orientujesz się w anatomii w obrazowaniu.

Pytanie 26

Na którym obrazie TK uwidoczniony jest artefakt spowodowany ruchami oddechowymi pacjenta?

A. Obraz 1
Ilustracja do odpowiedzi A
B. Obraz 3
Ilustracja do odpowiedzi B
C. Obraz 4
Ilustracja do odpowiedzi C
D. Obraz 2
Ilustracja do odpowiedzi D
Prawidłowo wskazany jest obraz 1. Na tym przekroju TK widać bardzo charakterystyczne, „pofalowane”, zygzakowate zniekształcenie konturów tkanek miękkich i ścian jamy brzusznej, jakby ktoś przesunął fragment obrazu w bok. Struktury anatomiczne nie są ostro odcięte, tylko rozciągnięte i nieregularne w kierunku osi Z i częściowo w płaszczyźnie obrazu. To typowy artefakt ruchowy wynikający z oddychania pacjenta w trakcie akwizycji danych. W TK brzucha i klatki piersiowej ruch oddechowy przepony oraz przesuwanie się narządów (wątroba, śledziona, jelita) powoduje, że kolejne projekcje są zbierane z narządami w nieco innym położeniu. Rekonstrukcja takiego „mieszanego” zestawu danych skutkuje właśnie takim falowaniem, rozmyciem, czasem podwójnymi konturami. W praktyce, zgodnie z dobrymi standardami (ESR, wytyczne producentów skanerów), badając jamę brzuszną prosimy pacjenta o wstrzymanie oddechu na czas skanu, stosujemy krótkie czasy rotacji lampy, odpowiednio dobraną kolimację i pitch, żeby skrócić czas zbierania danych. U pacjentów, którzy mają problem ze współpracą (np. dzieci, osoby z dusznością), często warto rozważyć techniki niskodawkowe z bardzo szybkim skanem, a czasem nawet sedację. Moim zdaniem kluczowe jest też dokładne wytłumaczenie pacjentowi przed badaniem, jak ma oddychać i kiedy przestać, bo to w prosty sposób zmniejsza ryzyko takich artefaktów i poprawia jakość diagnostyczną obrazów.

Pytanie 27

Znak umieszczony w pracowni rezonansu magnetycznego zakazuje wstępu osobom

Ilustracja do pytania
A. z zaburzeniami krążenia.
B. z nadciśnieniem tętniczym.
C. z rozrusznikiem serca.
D. z kardiomiopatią.
W pracowni rezonansu magnetycznego kluczowe zagrożenie wynika z bardzo silnego stałego pola magnetycznego oraz szybko zmieniających się pól gradientowych. Rozrusznik serca to urządzenie elektroniczne oparte najczęściej na elementach ferromagnetycznych i wrażliwej elektronice. Silne pole magnetyczne może zakłócić jego pracę, przełączyć tryby, wywołać niekontrolowaną stymulację albo całkowicie uszkodzić układ. Może też dojść do przemieszczenia generatora lub elektrod, bo metal w polu magnetycznym „chce się ustawić” względem linii pola. Z mojego doświadczenia to jest absolutny klasyk przeciwwskazań, omawiany na każdym szkoleniu BHP do MR. Dlatego na drzwiach pracowni MR umieszcza się właśnie taki piktogram – serce z przewodem, przekreślone czerwonym znakiem zakazu. Ma on informować pacjentów i personel, że osoby z rozrusznikiem serca (chyba że to specjalny, certyfikowany MR-conditional i w ściśle kontrolowanych warunkach) nie mogą wchodzić do strefy pola magnetycznego. W wytycznych producentów MR oraz w standardach bezpieczeństwa (np. zalecenia Europejskiego Towarzystwa Radiologicznego, wytyczne kardiologiczne dotyczące urządzeń wszczepialnych) rozrusznik jest traktowany jako przeciwwskazanie bezwzględne albo co najmniej wymagające bardzo szczegółowej kwalifikacji. W praktyce technik radiologii zawsze przed badaniem MR przeprowadza dokładny wywiad: pyta o wszczepione urządzenia, karty implantów, zabiegi kardiochirurgiczne. Jeżeli pacjent zgłasza rozrusznik, badanie MR w standardowej pracowni po prostu się nie odbywa, a dobiera się inną metodę obrazowania, np. TK lub USG. Ten znak ma więc nie tylko znaczenie „teoretyczne”, ale jest codziennym, praktycznym narzędziem bezpieczeństwa, które ma zapobiec bardzo groźnym powikłaniom, włącznie z zatrzymaniem krążenia.

Pytanie 28

Który narząd na obrazie scyntygrafii znakowanej erytrocytami zaznaczono cyfrą 2?

Ilustracja do pytania
A. Serce.
B. Nerkę.
C. Wątrobę.
D. Śledzionę.
Prawidłowo – na scyntygrafii z użyciem znakowanych erytrocytów struktura oznaczona cyfrą 2 to śledziona. W tego typu badaniu podaje się dożylnie erytrocyty znakowane najczęściej technetem-99m (99mTc). Znacznik pozostaje we krwi, dlatego najbardziej uwidaczniają się narządy silnie ukrwione i uczestniczące w filtracji oraz niszczeniu krwinek: serce, wątroba i właśnie śledziona. Śledziona leży anatomicznie w lewym górnym kwadrancie jamy brzusznej, pod przeponą, bocznie i nieco ku tyłowi w stosunku do żołądka. Na obrazie projekcji przedniej wygląda zwykle jak intensywny, owalny obszar gromadzenia znacznika po lewej stronie, poniżej poziomu serca i nieco bocznie od wątroby. Moim zdaniem ważne jest, żeby w praktyce zawsze łączyć położenie narządu z charakterem radiofarmaceutyku: w badaniu RBC nie zobaczymy typowego wydzielania do dróg moczowych jak w scyntygrafii nerek, tylko rozkład w obrębie układu krążenia i narządów krwiotwórczych. W diagnostyce klinicznej tę technikę wykorzystuje się m.in. do oceny ektopowej śledziony, tzw. „splenosis”, do różnicowania ognisk w obrębie jamy brzusznej oraz do oceny funkcji śledziony po urazach czy w chorobach hematologicznych. Dobrą praktyką jest zawsze porównywanie intensywności wychwytu w śledzionie z wątrobą – śledziona w tym badaniu powinna być co najmniej tak samo, a często nawet bardziej intensywna. W pracowni medycyny nuklearnej przy ocenie takich obrazów technik musi zwracać uwagę na poprawne ułożenie pacjenta, centralizację pola widzenia gammakamery i prawidłowe oznaczenie stron ciała, bo pomylenie lewej z prawą od razu prowadziłoby do błędnej identyfikacji śledziony i innych narządów.

Pytanie 29

Który detektor w radiografii wymaga laserowego czytnika obrazu?

A. Płyta fosforowa.
B. Detektor selenowy.
C. Błona halogenosrebrowa.
D. Detektor krzemowy.
Prawidłowa jest odpowiedź z płytą fosforową, bo to właśnie klasyczny detektor stosowany w radiografii pośredniej CR (Computed Radiography), który wymaga odczytu obrazu za pomocą skanera laserowego. Płyta fosforowa jest pokryta tzw. fosforem stymulowanym światłem (PSP – photostimulable phosphor). W momencie naświetlenia promieniowaniem rentgenowskim w krysztale tworzą się pułapki elektronowe, które „zapamiętują” rozkład dawki. Obraz nie jest widoczny od razu, tylko ma postać utajoną. Dopiero przejście wiązki laserowej w skanerze CR powoduje uwolnienie zmagazynowanej energii w formie światła, które jest następnie zamieniane na sygnał elektryczny i cyfrowy obraz. W praktyce oznacza to, że w pracowni z systemem CR zawsze mamy osobne urządzenie – czytnik płyt, do którego technik wkłada kasetę z płytą fosforową po wykonaniu ekspozycji. Jest to bardzo charakterystyczny etap pracy: najpierw ekspozycja przy aparacie RTG, potem transport kasety do czytnika, skanowanie laserem, a na końcu pojawienie się obrazu w systemie PACS. W nowocześniejszych systemach DR (detektory bezpośrednie lub pośrednie) takiego etapu już nie ma, bo obraz powstaje praktycznie w czasie rzeczywistym i jest od razu w formie cyfrowej. Mimo że CR jest powoli wypierane przez DR, w wielu szpitalach i przychodniach nadal jest szeroko używane, bo jest tańsze przy modernizacji starszych aparatów analogowych. Moim zdaniem dobrze jest mieć to rozróżnienie w małym palcu, bo na egzaminach i w praktyce ciągle pojawia się pytanie: który system wymaga laserowego skanera? Zawsze: płyta fosforowa, czyli radiografia pośrednia CR.

Pytanie 30

Który program wtórnej rekonstrukcji obrazów TK pozwala na odwzorowanie wnętrza jelita grubego, tchawicy i oskrzeli?

A. Projekcja maksymalnej intensywności MIP.
B. Wirtualna endoskopia VE.
C. Prezentacja trójwymiarowa 3D.
D. Rekonstrukcja wielopłaszczyznowa MPR.
W tym pytaniu łatwo pomylić różne typy rekonstrukcji TK, bo wszystkie w jakimś sensie „przetwarzają” obraz, ale tylko jedna z nich naprawdę symuluje endoskop – to wirtualna endoskopia. Klasyczna prezentacja trójwymiarowa 3D polega głównie na tworzeniu modeli powierzchniowych lub objętościowych narządów, kości, naczyń. Świetnie nadaje się do oceny złamań, planowania zabiegów ortopedycznych czy rekonstrukcji naczyń po podaniu kontrastu, ale nie daje wrażenia poruszania się wewnątrz światła jelita czy drzewa oskrzelowego. To raczej oglądanie narządu „z zewnątrz” lub w formie bryły, nie jak w endoskopii. Rekonstrukcja wielopłaszczyznowa MPR (multiplanar reconstruction) umożliwia oglądanie obrazów w różnych płaszczyznach: czołowej, strzałkowej, skośnej. Jest to absolutna podstawa w TK – bez MPR trudno sobie dzisiaj wyobrazić dobrą ocenę kręgosłupa, zatok, naczyń czy płuc. Jednak nawet jeśli ustawimy płaszczyznę dokładnie w osi jelita czy tchawicy, nadal oglądamy przekroje, a nie widok jak z kamery wewnątrz narządu. To jest typowy błąd myślowy: skoro można „iść” płaszczyzną wzdłuż narządu, to niektórzy utożsamiają to z endoskopią, ale technicznie i funkcjonalnie to zupełnie coś innego. Projekcja maksymalnej intensywności MIP z kolei wybiera z danego wolumenu te piksele/voxele o najwyższej gęstości i rzutuje je na obraz dwuwymiarowy. Idealnie sprawdza się w angiografii TK do uwidaczniania naczyń wypełnionych kontrastem, czasem w ocenie zmian zwapnieniowych czy guzków płucnych. MIP podkreśla struktury o wysokiej gęstości, ale całkowicie gubi informację o wnętrzu światła jelita czy detale śluzówki w oskrzelach. Z mojego doświadczenia wynika, że mylenie MIP i 3D z VE bierze się z tego, że wszystkie te narzędzia są dostępne na jednej stacji roboczej i wyglądają „efektownie trójwymiarowo”. Jednak tylko wirtualna endoskopia oferuje interaktywną nawigację wewnątrz światła narządu, z możliwością ustawienia punktu widzenia tak, jakbyśmy patrzyli przez endoskop. Standardy dobrej praktyki w TK mówią jasno: do oceny wnętrza jelita grubego, tchawicy i oskrzeli w trybie endoskopowym używa się właśnie VE, zawsze jako uzupełnienie analiz MPR i innych rekonstrukcji, a nie ich zamiennik.

Pytanie 31

Pomiar densytometryczny BMD metodą DXA z kręgosłupa powinien obejmować kręgi

A. L3 - S1
B. L1 - L4
C. Th11 - L2
D. Th9 - Th12
Prawidłowy zakres pomiaru BMD metodą DXA w odcinku lędźwiowym to kręgi L1–L4 i właśnie dlatego ta odpowiedź jest uznawana za standard. Wynika to z wytycznych większości towarzystw naukowych, m.in. ISCD (International Society for Clinical Densitometry), które jasno mówią, że podstawowym miejscem oceny gęstości mineralnej kości w kręgosłupie jest odcinek lędźwiowy od pierwszego do czwartego kręgu. Ten fragment kręgosłupa jest z reguły dobrze uwidoczniony, ma stosunkowo mało nakładających się struktur, a jednocześnie jest bardzo czuły na wczesne ubytki masy kostnej, zwłaszcza u kobiet po menopauzie. W praktyce technik przy pozycjonowaniu pacjenta kładzie go na plecach, prostuje odcinek lędźwiowy, często podkładając klin pod nogi, tak aby kręgosłup był jak najbardziej równoległy do stołu. Na obrazie DXA trzeba wyraźnie widzieć trzon L1 i L4, a program analizujący automatycznie wyznacza regiony zainteresowania (ROI) dla L1, L2, L3 i L4. Jeżeli któryś z kręgów jest zmieniony, np. przez ciężkie zwyrodnienie, złamanie kompresyjne, operację z implantem, to zgodnie z dobrymi praktykami ten krąg się wyklucza z analizy i liczy się średnią BMD z pozostałych, ale nadal w obrębie L1–L4. Moim zdaniem warto zapamiętać też, że wynik DXA z L1–L4 jest jednym z głównych parametrów używanych do rozpoznania osteoporozy według kryteriów WHO (na podstawie T-score). W codziennej pracy technika czy elektroradiologa poprawne ustawienie i oznaczenie L1–L4 ma ogromne znaczenie, bo każde przesunięcie pola skanowania, pomyłka w identyfikacji kręgów albo objęcie np. Th12 zamiast L1 może zafałszować wynik. W porządnie prowadzonych pracowniach zawsze zwraca się uwagę na to, żeby widoczny był także fragment Th12 i górna część miednicy – to pomaga poprawnie policzyć, który krąg jest który, ale analizuje się właśnie L1–L4.

Pytanie 32

Celem radioterapii paliatywnej nie jest

A. zahamowanie procesu nowotworowego.
B. trwałe wyleczenie.
C. przedłużenie życia.
D. zmniejszenie dolegliwości bólowych.
Prawidłowo wskazana odpowiedź „trwałe wyleczenie” dobrze oddaje sens radioterapii paliatywnej. Napromienianie paliatywne stosuje się u chorych, u których nowotwór jest najczęściej uogólniony, nieoperacyjny albo bardzo zaawansowany miejscowo i szanse na całkowite wyleczenie są znikome. Celem takiego leczenia nie jest więc radykalne usunięcie choroby, tylko poprawa jakości życia pacjenta. W praktyce oznacza to głównie zmniejszenie dolegliwości bólowych, redukcję krwawień z guza, zmniejszenie duszności przy naciekach na płuca czy oskrzela, a także zapobieganie powikłaniom, takim jak złamania patologiczne w przerzutach do kości czy ucisk na rdzeń kręgowy. Typowe są krótsze schematy frakcjonowania (np. 8 Gy jednorazowo, 5×4 Gy, 10×3 Gy), bo liczy się szybki efekt objawowy, a nie maksymalne „dobicie” guza. Standardy i wytyczne (np. ESMO, ESTRO) podkreślają, że w paliacji akceptuje się pewien stopień progresji choroby, o ile pacjent ma mniej objawów i funkcjonuje lepiej w życiu codziennym. Dlatego pozostałe odpowiedzi – przedłużenie życia, łagodzenie bólu i częściowe zahamowanie procesu nowotworowego – jak najbardziej mieszczą się w realnych, praktycznych celach radioterapii paliatywnej. Moim zdaniem ważne jest, żeby zawsze pamiętać o rozmowie z pacjentem: jasno tłumaczymy, że nie „wyleczymy” nowotworu, ale możemy sprawić, że będzie mniej boleć, łatwiej będzie się poruszać i ogólnie komfort życia się poprawi, czasem nawet na dłuższy okres niż wszyscy się spodziewają.

Pytanie 33

Więzka promieniowania X to

A. kwanty energii uginające się w polu elektromagnetycznym.
B. cząstki ujemnie naładowane uginające się w polu elektromagnetycznym.
C. cząstki dodatnio naładowane uginające się w polu elektromagnetycznym.
D. kwanty energii nieuginające się w polu elektromagnetycznym.
W tym pytaniu łatwo się złapać na myleniu promieniowania X z wiązką cząstek naładowanych. W odpowiedziach błędnych pojawia się wątek cząstek dodatnio lub ujemnie naładowanych, które uginają się w polu elektromagnetycznym. Tak zachowują się np. protony, jony lub elektrony – i rzeczywiście w akceleratorach cząstek używa się pól magnetycznych do ich ogniskowania i zakrzywiania toru. Natomiast lampa rentgenowska nie wytwarza wiązki elektronów skierowanej na pacjenta. Elektrony są tam tylko wewnątrz lampy, przyspieszane między katodą a anodą, a promieniowanie X powstaje dopiero w wyniku ich hamowania w materiale anody (głównie zjawisko hamowania i promieniowanie charakterystyczne). Na zewnątrz z obudowy lampy wychodzą już fotony – kwanty promieniowania elektromagnetycznego. Innym częstym nieporozumieniem jest przekonanie, że skoro mówimy o polu elektromagnetycznym, to promieniowanie X musi się w nim jakoś uginać. Foton nie ma ładunku, więc nie doświadczy siły Lorentza, która zakrzywia tor cząstek naładowanych. W medycynie, zarówno w diagnostyce RTG, TK, jak i w mammografii, przyjmuje się, że promieniowanie X rozchodzi się po liniach prostych, a jego osłabienie w tkankach zależy od energii fotonów, gęstości i liczby atomowej materiału, a nie od jakiegoś „zakrzywiania w polu”. Moim zdaniem źródłem błędu jest często mieszanie pojęć: promieniowanie jonizujące kojarzone jest automatycznie z cząstkami, a tymczasem mamy dwie duże grupy – promieniowanie korpuskularne (np. alfa, beta, protony) i promieniowanie elektromagnetyczne (X, gamma). Dla technika elektroradiologii to rozróżnienie jest bardzo praktyczne: od niego zależy sposób ochrony radiologicznej, konstrukcja aparatury oraz interpretacja zjawisk fizycznych, takich jak zjawisko fotoelektryczne, rozpraszanie Comptona czy powstawanie kontrastu na obrazie. Jeśli myślimy o wiązce X jak o strumieniu fotonów, a nie elektronów czy jonów, wtedy cała fizyka diagnostyki obrazowej robi się dużo bardziej spójna.

Pytanie 34

W scyntygrafii dynamiczne badanie najczęściej rozpoczyna się

A. po godzinie od chwili podania radiofarmaceutyku.
B. po dwóch godzinach od chwili podania radiofarmaceutyku.
C. w momencie uzyskania stałego poziomu aktywności radiofarmaceutyku.
D. w momencie lub tuż po iniekcji radiofarmaceutyku.
W scyntygrafii dynamicznej kluczowe jest słowo „dynamiczna”. Chodzi o to, że analizujemy zmiany rozmieszczenia radiofarmaceutyku w czasie, praktycznie od pierwszych sekund po podaniu. Błędne jest myślenie, że można spokojnie odczekać godzinę czy dwie, aż „coś się ustali”, i dopiero wtedy zacząć badanie. Taki sposób myślenia pasuje raczej do scyntygrafii statycznych, gdzie często wykonuje się obrazy po określonym czasie od iniekcji, żeby preparat zdążył się związać z tkanką docelową. W badaniach dynamicznych tracimy w ten sposób najważniejsze informacje: fazę napływu, wczesną dystrybucję, a często też fazę eliminacji. Jeśli rozpoczęlibyśmy akwizycję dopiero po godzinie lub dwóch, rejestrowany obraz przypominałby klasyczną scyntygrafię późną, a nie prawdziwe badanie dynamiczne. Nie dałoby się wtedy rzetelnie policzyć krzywych czas–aktywność, ocenić parametrów funkcjonalnych, takich jak klirens nerkowy czy wskaźniki perfuzji. Mylny jest też pomysł, żeby czekać na „stały poziom aktywności” i dopiero wtedy zaczynać. W praktyce medycyny nuklearnej taki stały poziom często w ogóle nie występuje w sensie ścisłym, bo cały czas zachodzą procesy wychwytu, metabolizmu i wydalania. Co więcej, jeśli czekamy aż radiofarmaceutyk się względnie „ustabilizuje”, to oznacza, że minęła już faza, w której obserwujemy najszybsze i najbardziej diagnostyczne zmiany. Typowy błąd myślowy to przenoszenie logiki z badań z kontrastem w TK czy MR, gdzie często czeka się na fazę późną, na scyntygrafię dynamiczną. W medycynie nuklearnej, szczególnie przy gammakamerze, protokoły są inne: aparat musi rejestrować od razu po iniekcji, a nie „kiedy będzie wygodnie”. Standardy towarzystw naukowych jasno zalecają start akwizycji w chwili podania radiofarmaceutyku, właśnie po to, żeby nie utracić najważniejszych danych funkcjonalnych.

Pytanie 35

Na schemacie oznaczono

Ilustracja do pytania
A. zespół QRS
B. odstęp RR
C. odstęp PP
D. zespół QS
Na schemacie strzałka obejmuje odległość między wierzchołkami dwóch kolejnych załamków R, czyli właśnie odstęp RR. W zapisie EKG to podstawowy parametr służący do oceny częstości i regularności rytmu serca. Mierzymy go od szczytu jednego załamka R do szczytu następnego załamka R w tym samym odprowadzeniu. Na standardowym papierze EKG (prędkość 25 mm/s) 1 mała kratka to 0,04 s, a 1 duża kratka 0,20 s. Dzięki temu z odstępu RR można bardzo szybko wyliczyć częstość pracy serca: 300 podzielone przez liczbę dużych kratek między załamkami R daje orientacyjną wartość tętna w uderzeniach na minutę. W praktyce, w pracowni diagnostyki elektromedycznej, technik bardzo często patrzy właśnie na regularność odstępów RR, żeby odróżnić rytm zatokowy od arytmii, np. migotania przedsionków, gdzie odstępy RR są wyraźnie nieregularne. Moim zdaniem to jedna z pierwszych rzeczy, które warto sobie „wyrobić w oku” przy oglądaniu EKG – równiutkie, powtarzalne odstępy RR zwykle sugerują uporządkowany rytm. W monitorach kardiologicznych, holterach czy defibrylatorach automatycznych algorytmy komputerowe też bazują w dużej mierze na analizie kolejnych odstępów RR, żeby wykrywać tachykardię, bradykardię czy pauzy. Dobre nawyki: zawsze mierz RR na kilku cyklach, w różnych fragmentach zapisu, bo lokalne artefakty albo pojedyncze pobudzenia dodatkowe mogą łatwo zafałszować ocenę, jeśli spojrzy się tylko na jedno miejsce.

Pytanie 36

Zamieszczony elektrokardiogram przedstawia

Ilustracja do pytania
A. zawał dolnej ściany serca.
B. migotanie komór.
C. zawał przedniej ściany serca.
D. blok prawej odnogi pęczka Hisa.
To zapis bardzo typowy dla migotania komór. Na przedstawionym EKG nie widać żadnych wyraźnych, powtarzalnych zespołów QRS, brak też załamków P i załamków T. Zamiast tego jest nieregularna, chaotyczna, falista linia o zmiennej amplitudzie i częstotliwości. W praktyce mówi się, że zapis wygląda jak „robaczkowanie” albo „drżenie” linii izoelektrycznej. To właśnie klasyczny obraz VF (ventricular fibrillation). W tej arytmii poszczególne włókna mięśnia komór kurczą się nieskoordynowanie, serce mechanicznie nie pompuje krwi, a krążenie w zasadzie ustaje. Z punktu widzenia medycyny ratunkowej to rytm do defibrylacji – zgodnie z wytycznymi ERC/AHA po rozpoznaniu VF natychmiast wykonuje się wyładowanie defibrylatora (u dorosłych najczęściej 150–200 J w defibrylacji dwufazowej), równolegle prowadząc wysokiej jakości uciśnięcia klatki piersiowej. Moim zdaniem warto zapamiętać, że w migotaniu komór nie próbujemy liczyć tętna ani częstości – tu liczy się szybkie rozpoznanie „chaosu” na EKG i natychmiastowa reakcja. W warunkach szpitalnych VF często widzi się na monitorze jako nagłą utratę zespołów QRS i przejście w właśnie taki nieregularny zapis bez linii izoelektrycznej między „falami”. W diagnostyce elektromedycznej dobrą praktyką jest zawsze sprawdzenie, czy nie jest to artefakt (np. luźne elektrody), ale przy braku tętna i nagłej utracie przytomności zakładamy, że to prawdziwe VF i działamy od razu, bez zwłoki na dodatkową analizę.

Pytanie 37

Świeżo wynaczyniona krew na obrazach TK głowy bez podania środka kontrastowego ukazuje się jako obszar

A. normodensyjny.
B. hiperdensyjny.
C. hipodensyjny.
D. izodensyjny.
Prawidłowo – świeżo wynaczyniona krew w badaniu TK głowy bez kontrastu ma charakter hiperdensyjny, czyli jest wyraźnie jaśniejsza od prawidłowej tkanki mózgowej. Wynika to głównie z wysokiego stężenia białek i hemoglobiny w skrzepie oraz stosunkowo małej zawartości wody. W praktyce na monitorze widzisz ostro odgraniczony, jasny (białawy) obszar, zwykle o gęstości w granicach ok. 60–80 HU, podczas gdy prawidłowa istota szara ma około 35–45 HU. Moim zdaniem to jest jedna z absolutnie kluczowych rzeczy w TK – szybkie rozpoznanie świeżego krwawienia śródczaszkowego, bo od tego zależy dalsze postępowanie z pacjentem (np. decyzja o trombolizie, zabiegu neurochirurgicznym, obserwacji na OIT). W standardowych protokołach TK głowy w ostrych stanach (udar, uraz) zawsze zaczyna się od badania bez kontrastu właśnie po to, żeby nie zamaskować gęstych ognisk krwi środkiem kontrastowym. Świeże krwiaki nadtwardówkowe, podtwardówkowe czy śródmózgowe typowo są hiperdensyjne względem mózgowia. Dopiero z czasem, gdy dochodzi do rozpadu hemoglobiny i wzrostu zawartości wody, krew robi się izodensyjna, a potem nawet hipodensyjna. Warto też kojarzyć, że podobna zasada dotyczy świeżej krwi w innych lokalizacjach, np. w jamie brzusznej czy w miednicy – świeże krwawienie w TK zazwyczaj „świeci” na jaśniej niż otaczające tkanki. W dobrej praktyce opisowej radiolog nie tylko stwierdza obecność hiperdensyjnego ogniska, ale też opisuje jego lokalizację, wielkość, efekt masy, przemieszczenie struktur pośrodkowych i ewentualne cechy aktywnego krwawienia, co ma duże znaczenie kliniczne.

Pytanie 38

W pozytonowej tomografii emisyjnej PET zostaje zarejestrowane promieniowanie powstające podczas

A. anihilacji pary elektron-pozyton.
B. rozpraszania culombowskiego.
C. anihilacji pary proton-antyproton.
D. rozpraszania comptonowskiego.
W pozytonowej tomografii emisyjnej (PET) kluczowym zjawiskiem fizycznym jest właśnie anihilacja pary elektron–pozyton. Radiofarmaceutyk podany pacjentowi emituje pozytony, czyli antycząstki elektronów. Pozyton w tkankach bardzo szybko traci energię kinetyczną, zderzając się z elektronami otoczenia, aż w końcu dochodzi do ich spotkania i anihilacji. W wyniku tej anihilacji powstają dwa fotony promieniowania gamma o energii 511 keV każdy, emitowane prawie dokładnie w przeciwnych kierunkach (pod kątem około 180°). To właśnie te dwa skorelowane fotony są rejestrowane w aparacie PET w trybie tzw. koincydencji. Z mojego doświadczenia to jest najważniejszy fizyczny „trik” PET-u: aparat nie widzi bezpośrednio pozytonu, tylko parę fotonów po anihilacji. Detektory ułożone dookoła pacjenta rejestrują jednoczesne (w bardzo krótkim oknie czasowym) uderzenia fotonów w przeciwległe kryształy scyntylacyjne. Na tej podstawie system rekonstruuje linię, wzdłuż której musiała zajść anihilacja, czyli tzw. line of response (LOR). Sumując miliony takich zdarzeń, komputer odtwarza rozkład radioaktywności w organizmie. W praktyce klinicznej, np. w onkologii, pozwala to ocenić metabolizm glukozy w guzach przy użyciu 18F-FDG albo wychwyt innych znaczników. Standardy pracowni medycyny nuklearnej (np. EANM) podkreślają znaczenie prawidłowego doboru radiofarmaceutyku i kalibracji systemu detekcji właśnie pod kątem rejestracji fotonów 511 keV i ich koincydencji. Moim zdaniem, jak dobrze zrozumiesz mechanizm anihilacji i rejestracji tych dwóch fotonów, dużo łatwiej ogarnąć później takie rzeczy jak korekcja osłabienia, rozpraszania czy artefakty w obrazach PET/CT.

Pytanie 39

Chorobą układu oddechowego typu obturacyjnego jest

A. sarkoidoza.
B. gruźlica płuc.
C. mukowiscydoza.
D. pylica płuc.
Prawidłowo wskazana została mukowiscydoza, bo jest to klasyczny przykład przewlekłej choroby obturacyjnej układu oddechowego. W mukowiscydozie dochodzi do zaburzenia transportu jonów chlorkowych w nabłonku, co powoduje bardzo gęsty, lepki śluz w drogach oddechowych. Taki śluz zatyka małe i większe oskrzela, co w praktyce daje obturację, czyli utrudnienie przepływu powietrza, zwłaszcza przy wydechu. W badaniu spirometrycznym widzimy typowy obraz choroby obturacyjnej: obniżone FEV1, obniżony wskaźnik FEV1/FVC, często też wydłużony czas wydechu. W praktyce klinicznej i fizjoterapeutycznej takie rozpoznanie ma konkretne konsekwencje: stosuje się techniki drenażu ułożeniowego, oklepywanie klatki piersiowej, ćwiczenia oddechowe ukierunkowane na poprawę ewakuacji wydzieliny i wentylacji płuc. Standardy postępowania (również polskie i europejskie zalecenia dla mukowiscydozy) mocno podkreślają regularną ocenę czynności płuc właśnie spirometrią, co pozwala wcześnie wychwycić pogorszenie obturacji. Z mojego doświadczenia, jeśli ktoś raz dobrze zrozumie różnicę między obturacją a restrykcją, dużo łatwiej mu później klasyfikować choroby płuc. Obturacja to problem głównie z przepływem powietrza przez zwężone drogi oddechowe, jak w astmie, POChP czy właśnie mukowiscydozie. Warto też pamiętać, że na zdjęciu RTG czy w TK w zaawansowanej mukowiscydozie widoczne są zmiany odpowiadające przewlekłej obturacji, np. rozstrzenie oskrzeli, pułapka powietrzna, co ładnie koreluje z wynikiem spirometrii i objawami pacjenta w badaniu przedmiotowym.

Pytanie 40

Na którym obrazie zarejestrowano badanie scyntygraficzne?

A. Obraz 1
Ilustracja do odpowiedzi A
B. Obraz 2
Ilustracja do odpowiedzi B
C. Obraz 3
Ilustracja do odpowiedzi C
D. Obraz 4
Ilustracja do odpowiedzi D
Prawidłowo wskazany został obraz 4, bo właśnie on przedstawia badanie scyntygraficzne. W scyntygrafii nie oglądamy klasycznej anatomii, tylko rozkład radioaktywnego znacznika w narządzie. Dlatego obraz jest ziarnisty, o niższej rozdzielczości przestrzennej, zwykle w skali szarości lub w pseudokolorach, a struktury anatomiczne są słabo zarysowane. W tym przypadku widać typowy obraz scyntygrafii tarczycy: „motylkowaty” kształt, bez wyraźnych granic tkanek miękkich, ale z wyraźnie zaznaczoną aktywnością radiofarmaceutyku w miąższu gruczołu. W medycynie nuklearnej rejestrujemy promieniowanie gamma emitowane przez podany dożylnie lub doustnie radioizotop (np. 99mTc, 131I), za pomocą gammakamery. Z mojego doświadczenia to właśnie charakterystyczna ziarnistość i brak typowej anatomii są najlepszą podpowiedzią na egzaminach. W praktyce klinicznej scyntygrafia tarczycy służy m.in. do oceny funkcji guzków („zimne”, „gorące”), rozpoznania wola guzowatego toksycznego czy różnicowania przyczyn nadczynności tarczycy. Podobnie wykonuje się scyntygrafię kości, nerek, perfuzji płuc czy mięśnia sercowego – za każdym razem patrzymy bardziej na rozkład funkcji niż na szczegóły budowy. Zgodnie z dobrymi praktykami medycyny nuklearnej kluczowe jest prawidłowe przygotowanie pacjenta, dobranie radiofarmaceutyku, właściwe ustawienie gammakamery oraz późniejsza korelacja obrazu scyntygraficznego z badaniami anatomicznymi (CT, MR, USG). W nowoczesnych pracowniach często łączy się scyntygrafię z CT (SPECT/CT), ale sam charakter obrazu funkcjonalnego pozostaje taki, jak na tym czwartym zdjęciu.