Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 14 maja 2026 00:51
  • Data zakończenia: 14 maja 2026 01:10

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Rozpoczęcie badania TK nerek po 20-30 sekundach od początku podania środka kontrastowego umożliwia diagnostykę

A. żył nerkowych.
B. dróg moczowych.
C. tętnic nerkowych.
D. kory i rdzenia nerek.
W tym pytaniu kluczowe jest zrozumienie, że czas po podaniu środka kontrastowego w TK nie jest przypadkowy, tylko odpowiada określonym fazom krążenia kontrastu w organizmie. Około 20–30 sekund po rozpoczęciu iniekcji dożylnej dominuje faza tętnicza, a więc kontrast jest głównie w tętnicach, w tym w tętnicach nerkowych. To nie jest jeszcze moment dobrej oceny żył nerkowych, bo pełniejsza faza żylna pojawia się później, zwykle około 60–70 sekund, kiedy kontrast przepłynie przez łożysko włośniczkowe i zacznie się gromadzić w układzie żylnym. Dlatego oczekiwanie, że po 20–30 sekundach najlepiej zobaczymy żyły nerkowe, jest oparte na myleniu fazy tętniczej z żylną. Podobnie drogi moczowe wymagają czasu, żeby kontrast został przefiltrowany w kłębuszkach nerkowych i pojawił się w miedniczkach nerkowych, moczowodach i pęcherzu. To jest tzw. faza wydalnicza, zwykle kilka minut po podaniu kontrastu, a nie pierwsze dziesiątki sekund. W tej wczesnej fazie kontrast jest jeszcze „w krwi”, a nie w moczu. Kolejne typowe nieporozumienie dotyczy kory i rdzenia nerek. Co prawda już w okolicach 30–40 sekund zaczyna się faza korowo-rdzeniowa, gdzie różnica wysycenia kontrastem między korą a rdzeniem jest dobrze widoczna, ale optymalny moment to zwykle trochę później niż 20 sekund, bardziej w stronę 30–40 sekund, zależnie od protokołu. Wczesna, czysto tętnicza faza służy przede wszystkim ocenie naczyń, a nie szczegółowej analizie struktury miąższu. Z mojego doświadczenia największy błąd myślowy polega na traktowaniu „kontrast jest podany” jako jednego, stałego stanu. Tymczasem w dobrych praktykach radiologicznych planuje się cały protokół wielofazowy: najpierw faza tętnicza do tętnic, później faza żylno-miąższowa do oceny narządów, a na końcu faza wydalnicza do układu moczowego. Jeśli pomylimy te fazy, możemy albo nie zobaczyć patologii, albo wyciągnąć fałszywe wnioski z prawidłowego badania. Dlatego tak ważne jest kojarzenie czasu od podania kontrastu z konkretną strukturą, którą chcemy zdiagnozować.

Pytanie 2

W pracowni radioterapii wyświetlenie na ekranie monitora aparatu komunikatu „ROTATION” oznacza prowadzoną terapię

A. radykalną.
B. całego ciała.
C. paliatywną.
D. obrotową.
Prawidłowo, komunikat „ROTATION” na konsoli akceleratora liniowego oznacza, że prowadzona jest terapia obrotowa, czyli napromienianie przy ciągłym obrocie głowicy aparatu wokół pacjenta. Chodzi o to, że wiązka promieniowania nie pada z jednego lub kilku statycznych pól, tylko „okrąża” pacjenta po zadanym łuku lub pełnym obrocie 360°. W praktyce klinicznej stosuje się takie techniki głównie w teleterapii, np. przy napromienianiu guzów mózgu, guzów w obrębie miednicy czy klatki piersiowej, gdy zależy nam na jak najlepszym rozkładzie dawki i ochronie tkanek zdrowych. Dzięki terapii obrotowej dawka w guzie sumuje się z wielu kierunków, a narządy krytyczne dostają mniejsze dawki cząstkowe z każdego pojedynczego przejścia wiązki. Moim zdaniem to jeden z fajniejszych przykładów, jak geometria ruchu aparatu realnie wpływa na bezpieczeństwo pacjenta. Współczesne systemy planowania leczenia wykorzystują różne odmiany terapii obrotowej, np. techniki łukowe (arc therapy), VMAT, czy rotacyjne techniki 3D, gdzie ruch gantry jest ściśle zsynchronizowany z kolimatorem i czasem z ruchem stołu. Operator, widząc na monitorze tryb „ROTATION”, powinien zawsze sprawdzić wcześniej w karcie zabiegowej i w systemie planowania, czy zaplanowany jest łuk, ile stopni ma obejmować, w jakim kierunku obraca się gantry i czy parametry dawki zgadzają się z zatwierdzonym planem. To jest standard dobrej praktyki: przed włączeniem napromieniania potwierdzić tryb pracy aparatu (statyczny, rotacyjny, IMRT, itp.), pozycję pacjenta, ustawienie izocentrum i ewentualne akcesoria unieruchamiające. W pracowni radioterapii takie szczegóły decydują o jakości i powtarzalności leczenia, więc rozpoznawanie komunikatów typu „ROTATION” to podstawa codziennej pracy przy akceleratorze.

Pytanie 3

W zapisie EKG prawidłowego rytmu zatokowego wszystkie załamki P są

A. ujemne w odprowadzeniach I, aVR i dodatnie w odprowadzeniach II, III.
B. dodatnie w odprowadzeniach I, aVR i ujemne w odprowadzeniach II, III.
C. ujemne w odprowadzeniach I, II i dodatnie w odprowadzeniu aVR.
D. dodatnie w odprowadzeniach I, II i ujemne w odprowadzeniu aVR.
Warianty odpowiedzi, w których załamki P są ujemne w odprowadzeniach I lub II albo dodatnie w aVR, opisują sytuacje typowe raczej dla rytmów pozazatokowych niż dla prawidłowego rytmu zatokowego. Węzeł zatokowo-przedsionkowy leży w górnej części prawego przedsionka, a fizjologiczny kierunek szerzenia się depolaryzacji biegnie z góry na dół i z prawej na lewą. Elektrody w odprowadzeniach I i II „patrzą” na serce właśnie mniej więcej z kierunku, w którym rozchodzi się fala pobudzenia, dlatego zapisują ją jako wychylenie dodatnie, czyli dodatni załamek P. Odprowadzenie aVR z kolei patrzy na serce z prawej strony i „od tyłu”, w kierunku przeciwnym do wektora depolaryzacji przedsionków, więc tam prawidłowy załamek P powinien być ujemny. Jeżeli ktoś zakłada, że P może być ujemny w I i II, a dodatni w aVR przy rytmie zatokowym, to zwykle wynika to z mylenia pojęcia rytmu zatokowego z samą tylko „prawidłową częstością serca” albo z intuicyjnego, ale błędnego założenia, że biegunowość załamka P nie ma większego znaczenia. To jest typowy błąd na początku nauki EKG: patrzy się głównie na QRS i ST, a załamki P schodzą na dalszy plan. W rzeczywistości taki układ, z ujemnym P w II czy I, sugeruje albo rytm z niższych partii przedsionków, albo z okolicy węzła AV, a nawet odwróconą kolejność pobudzenia przedsionków (tzw. P wsteczny). Podobnie odpowiedzi, w których P jest dodatni w aVR lub ujemny w I, są sprzeczne z podstawową geometrią wektora przedsionkowego. W praktyce klinicznej dodatni P w aVR traktuje się wręcz jako czerwone światło: coś jest nie tak z miejscem powstawania rytmu lub z ułożeniem elektrod. Warto też pamiętać, że błędne podłączenie elektrod kończynowych może dać obraz „dziwnej” biegunowości P, więc jeśli widzisz nietypowy wzorzec (np. P ujemne w I i dodatnie w aVR), zawsze dobrze jest najpierw sprawdzić poprawność podłączenia kabli. Podsumowując, prawidłowy rytm zatokowy ma ściśle określony obraz załamka P, a każde odejście od dodatniego P w I i II oraz ujemnego P w aVR powinno budzić podejrzenie rytmu pozazatokowego albo błędu technicznego, a nie być uznawane za normę.

Pytanie 4

Wskazaniem do wykonania przesiewowego badania densytometrycznego jest

A. niedoczynność przytarczyc.
B. niedoczynność przysadki.
C. nadczynność przytarczyc.
D. nadczynność przysadki.
W temacie przesiewowych badań densytometrycznych łatwo się pogubić, szczególnie kiedy mówimy o różnych schorzeniach endokrynologicznych. Wybór takich chorób jak niedoczynność przysadki czy niedoczynność przytarczyc nie wynika z aktualnych standardów medycznych. Niedoczynność przysadki rzeczywiście wpływa na wiele układów w organizmie, ale samo ryzyko osteoporozy pojawia się tu głównie przy istotnych niedoborach hormonów płciowych, a nie każda niedoczynność automatycznie stanowi wskazanie do przesiewowej densytometrii. Często spotykam się z myleniem tych pojęć, bo rzeczywiście – zaburzenia hormonalne mogą prowadzić do utraty masy kostnej, ale to nie znaczy, że każde takie schorzenie od razu wymaga badania DXA. Z kolei niedoczynność przytarczyc skutkuje raczej hipokalcemią, a nie utratą wapnia z kości – w praktyce klinicznej rzadko prowadzi do osteoporozy, a nawet, paradoksalnie, może sprzyjać zwapnieniom tkanek. Nadczynność przysadki, na przykład w przebiegu akromegalii czy choroby Cushinga, może być wskazaniem do oceny gęstości kości, ale nie jest to rutynowe postępowanie przesiewowe – tu raczej skupiamy się na innych powikłaniach. W praktyce najlepszym sposobem myślenia o przesiewowej densytometrii jest skupienie się na chorobach, które realnie i dość szybko prowadzą do utraty masy kostnej – właśnie takich jak nadczynność przytarczyc. Częsty błąd to zbyt szerokie kwalifikowanie do badania DXA – czasem lekarze kierują pacjentów z każdą endokrynopatią, a nie o to chodzi. Z mojego punktu widzenia warto opierać się na twardych danych i rekomendacjach, nie tylko na intuicji. Takie podejście pomaga uniknąć niepotrzebnych kosztów i lepiej zadbać o pacjentów z faktycznym ryzykiem osteoporozy.

Pytanie 5

Na skanie rezonansu magnetycznego serca oznaczono

Ilustracja do pytania
A. przedsionek prawy.
B. przedsionek lewy.
C. komorę lewą.
D. komorę prawą.
W tym zadaniu kluczowe jest poprawne zorientowanie się w przekroju poprzecznym klatki piersiowej w badaniu MR. Na ekranie urządzenia prawa strona pacjenta jest po lewej stronie obrazu, a lewa po prawej, co często wprowadza w błąd osoby zaczynające przygodę z diagnostyką obrazową serca. Jeśli tego się nie uwzględni, łatwo pomylić komory z przedsionkami lub zamienić stronami cały obraz. Przedsionki leżą bardziej ku górze i tyłowi w stosunku do komór oraz mają cieńsze ściany i mniejszą objętość w tej płaszczyźnie. Na typowym przekroju poprzecznym serca, takim jak na tym MR, przedsionki nie dominują obrazowo; zwykle widzimy je raczej w wyższych poziomach przekroju, często częściowo zasłonięte przez duże naczynia żylne. Dlatego wskazanie przedsionka prawego lub lewego wynika zazwyczaj z prostego założenia: „jamy po stronie prawej to przedsionki, a po lewej komory”, co jest myśleniem zbyt uproszczonym i po prostu mylnym. Pomyłki pojawiają się też, gdy ktoś kieruje się wyłącznie wielkością jamy – zakładając, że większa i bardziej okrągła przestrzeń to prawa komora, a mniejsza to lewa. W rzeczywistości lewa komora ma grubszy mięsień i częściej wygląda na bardziej zwartą, masywną strukturę położoną bliżej kręgosłupa, natomiast prawa komora jest wysunięta do przodu, ma cieńszą ścianę i kształt półksiężyca otaczającego część lewej komory. W dobrych praktykach interpretacji MR serca podkreśla się konieczność równoczesnej oceny położenia względem mostka i kręgosłupa, grubości ściany, kształtu jamy oraz relacji do dużych naczyń, a nie opierania się na jednym, przypadkowym wrażeniu. Z mojego doświadczenia wynika, że dopiero świadome stosowanie tych zasad pozwala unikać typowych błędów, takich jak zamiana przedsionka z komorą czy pomylenie strony prawej z lewą, co ma realne konsekwencje przy opisie kardiomiopatii, wad zastawkowych czy nadciśnienia płucnego.

Pytanie 6

Audiogram przedstawia próbę

Ilustracja do pytania
A. Langenbecka.
B. Fowlera.
C. SISI.
D. Lüschera-Zwisłockiego.
Na ilustracji pokazano audiogram z wynikiem próby Fowlera, czyli badania wyrównywania głośności między uszami, a nie inne testy psychoakustyczne. Wiele osób myli te nazwy, bo wszystkie dotyczą audiometrii, ale ich cel i sposób zapisu są zupełnie inne. Próba Lüschera-Zwisłockiego dotyczy obiektywnego określania progu słyszenia metodą maskowania szumem i ma inny sposób prezentacji wyniku – nie rysuje się tam typowych, wielokrotnych linii łączących poziomy głośności między uszami w funkcji częstotliwości. Audiogram z pytania pokazuje właśnie takie powtarzane pomiary wyrównania głośności, opisane literami A, B, C, co pasuje do klasycznego schematu Fowlera. Nazwisko Langenbecka pojawia się w kontekście otologii i chirurgii, ale nie jest związane ze standardowym testem audiometrycznym oznaczanym na audiogramie w taki sposób. To dość typowy błąd, że jak pojawia się nazwisko niemieckie przy uchu i słuchu, to automatycznie kojarzy się z jakąś „próbą” audiometryczną – a tutaj tak po prostu nie jest. Z kolei SISI (Short Increment Sensitivity Index) to test czułości na małe przyrosty natężenia, wykonywany zazwyczaj przy jednej częstotliwości, a wynik podaje się w procentach poprawnych rozpoznań 1 dB przyrostu. Nie powstaje przy nim złożony wykres z wieloma krzywymi dla różnych poziomów, tylko raczej prosty zapis liczbowy. Typowym błędem myślowym jest utożsamianie każdego skomplikowanego audiogramu z testem SISI, bo studenci pamiętają, że on „wykrywa rekrutację”. Tymczasem w praktyce klinicznej rekrutację ocenia się zarówno testem SISI, jak i właśnie próbą Fowlera, ale ich zapis graficzny jest inny. W próbie Fowlera patrzymy na to, jak szybko ucho chore wyrównuje głośność z uchem zdrowym przy wzroście natężenia, co idealnie ilustruje ten wykres. Dlatego poprawne skojarzenie tutaj to próba Fowlera, a nie pozostałe wymienione testy.

Pytanie 7

Na obrazie rezonansu magnetycznego głowy strzałką wskazano zatokę

Ilustracja do pytania
A. strzałkową.
B. szczękową.
C. klinową.
D. czołową.
Na obrazie strzałkowym MR głowy łatwo się pomylić, jeśli nie ma się w głowie prostego „schematu” położenia zatok przynosowych względem podstawy czaszki i twarzoczaszki. Strzałka na zdjęciu wskazuje przestrzeń powietrzną położoną najbardziej do przodu i ku górze, nad nasadą nosa, czyli typową lokalizację zatoki czołowej. Błędne odpowiedzi wynikają zwykle z mylenia tego położenia z innymi zatokami lub strukturami żylnymi. Zatoka klinowa leży dużo głębiej, w obrębie trzonu kości klinowej, mniej więcej za jamą nosową i poniżej siodła tureckiego. Na strzałkowym MR można ją znaleźć bezpośrednio pod przysadką mózgową i skrzyżowaniem nerwów wzrokowych. To jest taka „tylna” zatoka, blisko struktur podstawy czaszki. Jeżeli ktoś wskazuje ją z przodu czaszki, nad oczodołami, to znaczy, że trochę odwrócił sobie w głowie anatomię. Zatoka strzałkowa to w ogóle zupełnie inna struktura – to nie jest zatoka przynosowa, tylko zatoka żylna opony twardej, biegnąca wzdłuż sklepienia czaszki, w linii pośrodkowej. Na MR ma zupełnie inny wygląd i położenie: leży wysoko, nad półkulami mózgu, w obrębie opony twardej, a nie w kości twarzoczaszki. Typowym błędem jest mylenie pojęcia „zatoka” jako jamy w kości z zatokami żylnymi, które są naczyniami. W obrazowaniu trzeba bardzo uważać na nazewnictwo, bo to różne układy anatomiczne. Zatoka szczękowa z kolei znajduje się niżej i bardziej bocznie – w trzonie kości szczękowej, pod oczodołem, po obu stronach nosa. Na strzałkowym MR będzie widoczna jako przestrzeń powietrzna pod dnem oczodołu i przed wyrostkiem skrzydłowatym kości klinowej. Jeśli ktoś lokalizuje ją wysoko i na przedniej ścianie czaszki, to najpewniej patrzy bardziej na czoło niż na policzek. Z mojego doświadczenia uczniowie często „przesuwają” sobie w myślach zatokę szczękową za bardzo do góry. Dobra praktyka w diagnostyce obrazowej, zgodnie z podejściem uczonym w radiologii, jest taka, żeby przy każdym obrazie strzałkowym „odczytać” kolejno: zatoka czołowa z przodu i u góry, niżej zatoka szczękowa, głęboko z tyłu zatoka klinowa oraz zatoki sitowe pomiędzy jamą nosową a oczodołami. Dodatkowo osobno w głowie trzymamy zatoki żylne, jak zatoka strzałkowa górna, które w ogóle nie należą do układu zatok przynosowych. Jeżeli na spokojnie przećwiczysz takie mentalne „mapowanie” na kilku przykładach MR i TK, ryzyko podobnych pomyłek bardzo szybko spada.

Pytanie 8

W jakiej pozycji układa się pacjenta do standardowego badania MR kręgosłupa szyjnego?

A. Na plecach, głową do magnesu.
B. Na brzuchu, nogami do magnesu.
C. Na brzuchu, głową do magnesu.
D. Na plecach, nogami do magnesu.
Prawidłowa pozycja do standardowego badania MR kręgosłupa szyjnego to ułożenie pacjenta na plecach (pozycja na wznak), głową wsuwaną jako pierwszą do otworu magnesu. Wynika to z kilku praktycznych i technicznych powodów. Po pierwsze, w typowym skanerze nadgłowowym (tzw. closed bore) najlepsza jednorodność pola magnetycznego i czułość cewek odbiorczych jest właśnie w centralnej części magnesu, gdzie umieszcza się głowę i odcinek szyjny. Dzięki temu uzyskujemy wysoką rozdzielczość przestrzenną i dobrą jakość obrazów T1-, T2-zależnych, STIR czy sekwencji gradientowych, co ma kluczowe znaczenie przy ocenie rdzenia kręgowego, krążków międzykręgowych, otworów międzykręgowych i kanału kręgowego. Po drugie, pozycja na plecach jest po prostu najlepiej tolerowana przez większość pacjentów – łatwiej jest utrzymać bezruch przez kilkanaście minut, co redukuje artefakty ruchowe. Standardowo zakłada się specjalną cewkę do badań głowy i szyi (head & neck coil lub dedykowaną cewkę szyjną), która konstrukcyjnie jest przewidziana właśnie do ułożenia na plecach, z głową w centralnej części magnesu. Z mojego doświadczenia technicy obrazowania bardzo pilnują, żeby głowa była ułożona symetrycznie, z lekkim odgięciem brody do góry, tak aby oś kręgosłupa szyjnego była możliwie prosta i powtarzalna między badaniami. W dobrych pracowniach MR zawsze dba się też o stabilizację – podkładki pod barki, klin pod kolana, gąbkowe stabilizatory po bokach głowy – wszystko po to, żeby pacjent się nie poruszał. W niektórych szczególnych sytuacjach (np. skrajna klaustrofobia, ciężkie urazy) można rozważyć inne ustawienia, ale w rutynowej praktyce diagnostycznej pozycja na plecach, głową do magnesu to złoty standard i tak też opisują to procedury wewnętrzne pracowni i rekomendacje producentów aparatów MR.

Pytanie 9

W jaki sposób należy ustawić promień centralny w stosunku do ramienia i przedramienia, by wykonać zdjęcie rentgenograficzne stawu łokciowego u pacjenta z przykurczem?

A. W dwusiecznej kąta zawartego między ramieniem a przedramieniem.
B. Prostopadle do kości ramiennej.
C. Prostopadle do kości promieniowej.
D. W dwusiecznej kąta zawartego między kasetą a kością ramienną.
Prawidłowa odpowiedź opiera się na klasycznej zasadzie projekcji w sytuacji, gdy staw nie może być wyprostowany ani zgięty do pozycji standardowej. U pacjenta z przykurczem stawu łokciowego ramię i przedramię tworzą pewien kąt, którego nie jesteśmy w stanie „naprawić” przez ustawienie, więc dostosowujemy do tego promień centralny. Ustawienie w dwusiecznej kąta między ramieniem a przedramieniem pozwala zminimalizować zniekształcenia geometryczne, skrócenie obrazu i nakładanie się struktur. Mówiąc prościej: jeżeli nie możesz ustawić kości prosto do kasety, ustawiasz promień tak, żeby „oszukać geometrię” i podzielić ten kąt na pół. W praktyce technik patrzy, jaki jest kąt zgięcia w łokciu (np. 30°, 45°, 60°) i orientacyjnie ustawia lampę tak, żeby promień centralny przechodził przez połowę tego kąta. Dzięki temu odwzorowanie przynasadowych części kości ramiennej, łokciowej i promieniowej jest możliwie równomierne, a szpara stawowa nie jest skrajnie zwężona ani z jednej strony nadmiernie poszerzona. To ustawienie jest zgodne z ogólną zasadą stosowaną też w innych projekcjach u pacjentów z przykurczami, np. w stawie kolanowym czy nadgarstku. Z mojego doświadczenia w pracowni, jeśli ktoś o tym zapomina i ustawia promień „na oko” bardziej do ramienia albo bardziej do przedramienia, to potem ortopeda narzeka, że staw jest zdeformowany na zdjęciu i trudno ocenić powierzchnie stawowe. Dlatego dobrą praktyką jest zawsze myślenie w kategoriach: mam dwa segmenty pod kątem – więc promień prowadzę w ich dwusiecznej. Taka technika poprawia jakość diagnostyczną badania, zmniejsza potrzebę powtarzania ekspozycji (co ma znaczenie dla ochrony radiologicznej) i jest po prostu zgodna z zasadami geometrii projekcyjnej w radiografii.

Pytanie 10

Który artefakt jest widoczny na skanie tomografii komputerowej?

Ilustracja do pytania
A. Utwardzonej wiązki.
B. Ruchowy.
C. Metaliczny.
D. Elektrostatyczny.
Na tym obrazie TK widoczny jest typowy przykład artefaktu metalicznego, czyli smugi i pasma wychodzące promieniście od bardzo jasnego, silnie pochłaniającego elementu. Łatwo go jednak pomylić z innymi typami zakłóceń, jeśli patrzy się tylko na same „promienie” bez analizy przyczyny. Częsty błąd polega na automatycznym przypisywaniu każdego pasmowego zaburzenia obrazu do artefaktu utwardzonej wiązki. Rzeczywiście, metal silnie utwardza wiązkę, ale klasyczny artefakt utwardzonej wiązki, opisywany np. przy badaniach głowy czy kręgosłupa bez metalu, ma postać ciemniejszych pasów między dwoma gęstymi strukturami kostnymi (np. piramidy kości skroniowych), bez tak wyraźnego, punktowego źródła o ekstremalnej gęstości. Tutaj kluczowe jest rozpoznanie materiału o bardzo wysokim współczynniku pochłaniania, który wręcz „przepala” obraz i generuje gwiaździsty wzór smug – to typowe dla metalu. Pojęcie artefaktu elektrostatycznego w kontekście tomografii komputerowej praktycznie się nie używa; takie określenia mogą się pojawiać raczej przy innych technikach obrazowania lub w kontekście zakłóceń elektronicznych, ale nie opisują one specyficznego, dobrze zdefiniowanego wzorca jak tutaj. W TK mówimy o szumie, artefaktach ruchowych, pierścieniowych, metalicznych, z utwardzenia wiązki, z częściowego objętościowania itp., natomiast „elektrostatyczny” jest w tym zestawie po prostu mylący. Artefakt ruchowy ma z kolei zupełnie inny obraz: struktury anatomiczne są rozmyte, zdublowane, czasem pojawia się efekt „ducha” wzdłuż kierunku ruchu pacjenta, ale nie występują symetryczne, promieniste smugi wychodzące z jednego, bardzo jasnego punktu. Typowym źródłem artefaktu ruchowego jest oddychanie, połykanie, drżenie, a nie implant. Typowy błąd myślowy polega na ocenianiu tylko kształtu smug zamiast powiązania ich z fizyczną przyczyną w polu skanowania. Dobra praktyka w TK polega na świadomym łączeniu wyglądu artefaktu z jego źródłem: metal – artefakt metaliczny, dwie gęste kości – utwardzenie wiązki, niestabilny pacjent – artefakt ruchowy. Takie podejście bardzo ułatwia poprawne rozpoznanie zakłóceń i właściwe dostosowanie parametrów badania.

Pytanie 11

Promieniowanie jonizujące pośrednio to

A. promieniowanie β⁻
B. promieniowanie β⁺
C. promieniowanie γ
D. promieniowanie α
Klucz do tego pytania leży w rozróżnieniu między promieniowaniem bezpośrednio i pośrednio jonizującym. Typowy błąd polega na tym, że skoro wszystkie wymienione rodzaje promieniowania mogą powodować uszkodzenia w tkankach, to wydaje się, że wszystkie działają podobnie. A tak nie jest. Promieniowanie α oraz β⁺ i β⁻ to strumienie cząstek naładowanych (jądra helu albo elektrony/pozytony). Cząstki te niosą ładunek elektryczny, więc wchodząc w materię oddziałują z elektronami atomów praktycznie na każdym kroku swojej drogi. Każde takie oddziaływanie może bezpośrednio oderwać elektron z atomu, czyli wywołać jonizację. Dlatego mówi się o nich, że są promieniowaniem bezpośrednio jonizującym: ich podstawowy mechanizm działania to przekazywanie energii i ładunku bez żadnego „pośrednika”. Natomiast promieniowanie pośrednio jonizujące to takie, które samo nie ma ładunku elektrycznego. Foton γ albo X nie jest cząstką naładowaną, tylko kwantem energii pola elektromagnetycznego. On najpierw musi wejść w zjawisko fotoelektryczne, Comptona czy tworzenia par, żeby powstały wtórne elektrony lub pozytony. Dopiero te wtórne cząstki jonizują bezpośrednio ośrodek. Jeśli ktoś wybiera α lub β jako promieniowanie pośrednio jonizujące, to zwykle myli pojęcie „duża zdolność jonizacyjna” z „pośrednim mechanizmem jonizacji”. Faktycznie, cząstki α mają ogromną zdolność jonizacyjną, ale właśnie dlatego, że są bardzo silnie i bezpośrednio jonizujące na swojej krótkiej drodze. Podobnie elektrony β⁻ czy pozytony β⁺ – mają mniejszy zasięg niż fotony γ i zostawiają ślad jonizacji bardzo gęsto wzdłuż toru. W praktyce radioterapii i ochrony radiologicznej rozróżnienie to ma konkretne skutki: inaczej planuje się osłony dla wiązki fotonów γ (grube ściany z betonu, ołów) niż dla cząstek α lub β (często wystarczą cienkie bariery, ale problemem jest narażenie wewnętrzne). Moim zdaniem warto zapamiętać prostą zasadę: wszystko co niesie ładunek (α, β, protony, elektrony) jest promieniowaniem bezpośrednio jonizującym, a wszystko co jest neutralne (γ, X, neutrony) – promieniowaniem pośrednio jonizującym, bo najpierw musi wyprodukować wtórne cząstki naładowane, żeby naprawdę zjonizować tkankę.

Pytanie 12

W pracowni ultrasonograficznej technik elektroradiolog nie korzysta z przepisów dotyczących

A. ochrony przeciwpożarowej.
B. antyseptyki.
C. bezpieczeństwa i higieny pracy.
D. ochrony radiologicznej.
Prawidłowo wskazałeś, że w pracowni ultrasonograficznej technik elektroradiolog nie korzysta z przepisów dotyczących ochrony radiologicznej w rozumieniu promieniowania jonizującego. USG opiera się na fali ultradźwiękowej, czyli drganiach mechanicznych o wysokiej częstotliwości, a nie na promieniowaniu jonizującym takim jak w RTG, TK czy medycynie nuklearnej. To oznacza, że nie obowiązują tu typowe zasady ochrony radiologicznej: nie liczymy dawek efektywnych w mSv, nie ma konieczności prowadzenia rejestru dawek, nie wyznacza się stref kontrolowanych i nadzorowanych z powodu promieniowania jonizującego, nie ma też obowiązku stosowania fartuchów ołowianych, osłon gonad czy tarczycy z tego powodu. Moim zdaniem to jedno z częstszych miejsc, gdzie uczniowie się mylą – widzą słowo „pracownia obrazowa” i od razu kojarzą z ochroną radiologiczną. Tymczasem standardy, np. wytyczne ICRP czy polskie przepisy prawa atomowego, dotyczą właśnie promieniowania jonizującego, a ultrasonografia się w ten zakres po prostu nie łapie. Oczywiście, w USG nadal dbamy o bezpieczeństwo pacjenta i personelu: kontrolujemy czas ekspozycji na ultradźwięki, parametry aparatu (MI, TI), unikamy zbyt długiego badania u ciężarnych na płodzie, ale to jest raczej bioefekt ultradźwięków, a nie klasyczna ochrona radiologiczna. W praktyce technik w pracowni USG musi bardzo pilnować przepisów BHP, zasad ergonomii (bo badania są długie i obciążają układ mięśniowo‑szkieletowy), przepisów przeciwpożarowych oraz zasad antyseptyki: dezynfekcja głowic, stosowanie jednorazowych osłonek przy badaniach przezpochwowych czy przezodbytniczych, właściwe przygotowanie żelu. To są realne, codzienne obowiązki. Natomiast typowe procedury jak dozymetr osobisty, kontrola dawek, testy osłonności ścian dotyczą już pracowni RTG, TK, radioterapii czy medycyny nuklearnej, a nie USG.

Pytanie 13

Obszary napromieniania w technice IMRT w trakcie wykonywania zabiegu radioterapeutycznego wyznacza

A. technik elektroradiolog.
B. fizyk medyczny.
C. system komputerowy.
D. lekarz radioterapeuta.
W radioterapii, zwłaszcza w technice IMRT, bardzo łatwo pomylić etapy planowania z etapem wykonywania zabiegu. To często prowadzi do przekonania, że obszary napromieniania w trakcie samego seansu „wyznacza” lekarz, fizyk albo technik. W rzeczywistości ich rola przesuwa się wtedy z aktywnego kształtowania pól na kontrolę, nadzór i weryfikację poprawności. Lekarz radioterapeuta decyduje o objętościach CTV, PTV, narządach krytycznych, wskazuje priorytety kliniczne, akceptuje ostateczny plan. Fajnie to zapamiętać: lekarz wyznacza cele kliniczne i granice struktur, ale nie steruje na bieżąco listkami MLC podczas zabiegu. Fizyk medyczny z kolei odpowiada za przygotowanie i optymalizację planu w systemie TPS, dobór energii, weryfikację dawek, testy QA planu, kalibrację aparatu. Moim zdaniem to jedna z najbardziej odpowiedzialnych ról, ale ona też kończy się przed rozpoczęciem rutynowego napromieniania pacjenta. W chwili wykonywania frakcji fizyk nie „rysuje” już obszarów, tylko upewnia się, że system komputerowy i akcelerator działają zgodnie z założeniami. Technik elektroradiolog ma znowu inną, bardzo praktyczną rolę: przygotowanie pacjenta, prawidłowe ułożenie, unieruchomienie, weryfikację położenia na podstawie obrazów kontrolnych, wybór właściwego planu w konsoli. Typowym błędem jest mylenie tego z wyznaczaniem obszaru napromieniania. Technik niczego nie modeluje ręcznie, nie ustawia samodzielnie kształtu pól w IMRT – to byłoby sprzeczne z zasadami jakości i powtarzalności leczenia. W IMRT obszary napromieniania, czyli dokładny rozkład intensywności wiązki w czasie i przestrzeni, są generowane i odtwarzane przez system komputerowy: najpierw w fazie planowania (algorytmy optymalizacyjne), a potem w fazie wykonania (sterowanie MLC, dawką, geometrią wiązki). Dlatego odpowiedzi przypisujące to zadanie człowiekowi pomijają kluczowy element współczesnej radioterapii – automatyczne, komputerowe sterowanie całym procesem napromieniania według wcześniej zatwierdzonego planu.

Pytanie 14

„Ognisko zimne” w obrazie scyntygraficznym określa się jako

A. zmianę najczęściej o charakterze łagodnym.
B. zmianę o większej aktywności hormonalnej.
C. obszar niegromadzący radioznacznika.
D. obszar gromadzący znacznik jak reszta miąższu.
Prawidłowo – „ognisko zimne” w scyntygrafii to obszar niegromadzący radioznacznika, czyli miejsce o obniżonej lub całkowicie braku wychwytu w porównaniu z otaczającym, prawidłowo funkcjonującym miąższem. W scyntygrafii patrzymy przede wszystkim na rozkład funkcji, a nie tylko na samą anatomię. Jeśli tkanka pracuje prawidłowo, wychwytuje radiofarmaceutyk i na obrazie widzimy równomierne „świecenie”. Gdy pojawia się obszar, który nie gromadzi znacznika, tworzy się właśnie ognisko zimne – ciemniejsza plama na tle bardziej aktywnego narządu. Moim zdaniem warto to kojarzyć z „dziurą” w funkcji. W praktyce klinicznej typowe przykłady to torbiele, zwapnienia, blizny, guzy o słabym unaczynieniu, martwica, a w scyntygrafii kości – np. przerzut osteolityczny, który niszczy struktury kostne i przez to mniej wiąże znacznika. W badaniach tarczycy zimne ognisko może odpowiadać zmianie, która nie produkuje hormonów tarczycowych (tzw. guzek nieczynny), co w standardach endokrynologicznych traktuje się bardziej podejrzanie onkologicznie niż ogniska „gorące”. Dlatego przy zimnym guzku tarczycy zwykle zaleca się dalszą diagnostykę – USG, biopsję cienkoigłową. W dobrych praktykach medycyny nuklearnej zawsze opisujemy ogniska jako zimne, izotopowe (obojętne) lub gorące w odniesieniu do tła. Ważne jest też odpowiednie okienkowanie obrazu i porównanie z obrazami anatomicznymi (np. USG, TK), żeby nie pomylić artefaktu technicznego z prawdziwym zimnym ogniskiem. Z mojego doświadczenia w nauce tego przedmiotu – jak tylko zapamiętasz, że „zimne = brak wychwytu”, reszta układa się już w głowie dość logicznie.

Pytanie 15

Kiedy w procesie terapii wykonuje się badanie CBCT (cone beam computed tomography)?

A. Po ukończeniu leczenia.
B. Przed rozpoczęciem leczenia.
C. W środku leczenia.
D. Przy końcu leczenia.
Badanie CBCT wykonuje się standardowo przed rozpoczęciem leczenia, bo jest to badanie typowo diagnostyczne i planistyczne. Na tomografii stożkowej ocenia się dokładnie anatomię: przebieg kanałów korzeniowych, grubość kości, położenie struktur krytycznych (np. kanał nerwu zębodołowego dolnego, zatoka szczękowa), ewentualne zmiany zapalne czy resorpcje. Bez takiego obrazu 3D planowanie zabiegu, np. implantologicznego, endodontycznego czy chirurgicznego, byłoby w dużej mierze „na oko”, co po prostu jest sprzeczne z aktualnymi standardami postępowania. W nowoczesnej stomatologii i radiologii dąży się do tego, żeby dawkę promieniowania podać raz, w dobrze uzasadnionym momencie – czyli właśnie na etapie planowania terapii. Zasada ALARA (as low as reasonably achievable) jasno mówi, że nie powinniśmy powtarzać badań bez wyraźnej potrzeby klinicznej. Dlatego CBCT robi się przed leczeniem, żeby na podstawie jednego badania ustalić możliwie kompletny plan: rodzaj zabiegu, długość i średnicę implantów, potrzebę augmentacji kości, zakres leczenia endodontycznego. W ortodoncji CBCT również wykonuje się przed terapią, jeśli jest wskazanie, np. zęby zatrzymane, podejrzenie resorpcji korzeni, ocena stawów skroniowo‑żuchwowych. Moim zdaniem kluczowe jest myślenie w ten sposób: CBCT to narzędzie do podejmowania decyzji przed wejściem w leczenie, a nie badanie „kontrolne z ciekawości” po wszystkim. Oczywiście czasem wykonuje się kontrolne CBCT, ale tylko w szczególnych sytuacjach klinicznych, a nie rutynowo przy końcu czy w środku terapii.

Pytanie 16

Hałas podczas badania tomografii rezonansu magnetycznego jest efektem ubocznym pracy

A. cewek gradientowych.
B. cewek odbiorczych.
C. magnesu stałego.
D. przesuwu stołu.
Źródłem hałasu w rezonansie magnetycznym bardzo często mylnie obwinia się „magnes” albo różne ruchome elementy aparatu, jak stół czy cewki odbiorcze. To dość naturalne skojarzenie: coś duże, ciężkie, działa prąd, to pewnie buczy. Tymczasem z punktu widzenia fizyki i konstrukcji urządzenia MR, głównym winowajcą są szybko przełączane cewki gradientowe. Pracują one w silnym, stałym polu magnetycznym i przy gwałtownych zmianach prądu pojawiają się znaczne siły elektromagnetyczne, które wprawiają w drgania zarówno same cewki, jak i ich mocowania. Te drgania przenoszą się na obudowę gantry i powietrze, co subiektywnie odczuwamy jako bardzo głośny, rytmiczny hałas. Cewki odbiorcze, które często pacjent ma założone bezpośrednio na badany obszar (np. cewka głowowa, kręgosłupowa, stawowa), służą wyłącznie do odbioru sygnału radiowego z organizmu. Pracują na zasadzie anten i nie generują istotnych naprężeń mechanicznych, więc nie są źródłem hałasu. Jeśli już coś z nich słychać, to raczej delikatne rezonanse mechaniczne przenoszone z gradientów, a nie samodzielne „stukanie”. Podobnie magnes stały czy nadprzewodzący jest w istocie bardzo „cichym” elementem systemu. Pole magnetyczne jest stałe w czasie, nie ma więc gwałtownych zmian sił, które mogłyby powodować wibracje. Wyjątkiem są sytuacje awaryjne, jak tzw. quench w magnesie nadprzewodzącym, ale to zupełnie inna historia, niezwiązana ze zwykłą pracą aparatu. Przesuw stołu również jest często przeceniany jako przyczyna hałasu. Owszem, mechanizm stołu wydaje dźwięk przy wjeździe i wyjeździe pacjenta z tunelu, ale jest to dźwięk krótki, o niewielkim natężeniu w porównaniu z serią uderzeń generowanych przez gradienty podczas właściwego skanowania. Typowym błędem myślowym jest tu przenoszenie doświadczeń z innych urządzeń, np. tomografu komputerowego czy aparatu RTG, gdzie praca lampy i ruchomej głowicy są bardziej intuicyjnym źródłem dźwięku. W rezonansie mechanika odgrywa mniejszą rolę, a kluczowa jest elektromagnetyka. Dlatego w prawidłowej analizie trzeba pamiętać, że hałas to efekt uboczny szybkiego przełączania cewek gradientowych, a nie działania magnesu, cewek odbiorczych czy napędu stołu.

Pytanie 17

Folia wzmacniająca umieszczona w kasecie rentgenowskiej emituje pod wpływem promieniowania X światło

A. ultrafioletowe, wymagające zwiększenia dawki promieniowania do wykonania badania.
B. widzialne, wymagające zwiększenia dawki promieniowania do wykonania badania.
C. ultrafioletowe, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
D. widzialne, umożliwiające zmniejszenie dawki promieniowania do wykonania badania.
Prawidłowo – folia wzmacniająca (ekran wzmacniający) w kasecie rentgenowskiej emituje światło widzialne, a jej głównym zadaniem jest właśnie umożliwienie zmniejszenia dawki promieniowania X potrzebnej do wykonania zdjęcia. Promieniowanie rentgenowskie pada na folię, a kryształy luminoforu (np. wolframian wapnia w starszych kasetach albo związki ziem rzadkich – gadolinu, lantanu – w nowoczesnych) pochłaniają fotony X i zamieniają ich energię na błysk światła widzialnego. To światło naświetla film dużo efektywniej niż same fotony X, dlatego do uzyskania odpowiedniej czerni na filmie wystarczy znacznie mniejsza dawka promieniowania. W praktyce klinicznej oznacza to realne obniżenie narażenia pacjenta – w klasycznych systemach analogowych nawet kilkukrotne. Moim zdaniem to jeden z podstawowych przykładów, jak fizyka medyczna przekłada się na ochronę radiologiczną w codziennej pracy. W nowoczesnych kasetach CR/DR idea jest podobna: mamy warstwę fosforową lub detektor półprzewodnikowy, który też ma za zadanie jak najlepiej „wyłapać” fotony X i przekształcić je w sygnał (świetlny lub elektryczny), żeby nie trzeba było sztucznie podkręcać dawki. Ważna dobra praktyka: zawsze dobiera się kasetę i rodzaj folii do typu badania (np. folie o większej czułości do badań pediatrycznych), właśnie po to, żeby zgodnie ze standardem ALARA (As Low As Reasonably Achievable) trzymać dawki jak najniższe przy zachowaniu diagnostycznej jakości obrazu. Widać to choćby przy zdjęciach klatki piersiowej – odpowiednio dobrany ekran wzmacniający pozwala skrócić czas ekspozycji, zmniejszyć dawkę i jednocześnie ograniczyć poruszenie obrazu.

Pytanie 18

Który elektrokardiogram jest poprawny technicznie?

A. Elektrokardiogram 2
Ilustracja do odpowiedzi A
B. Elektrokardiogram 3
Ilustracja do odpowiedzi B
C. Elektrokardiogram 1
Ilustracja do odpowiedzi C
D. Elektrokardiogram 4
Ilustracja do odpowiedzi D
Prawidłową odpowiedzią jest elektrokardiogram 1, bo właśnie on spełnia podstawowe kryteria poprawności technicznej zapisu. Linia izoelektryczna jest stabilna, bez falowania i bez „pływania” całej krzywej po siatce milimetrowej. Zespoły QRS mają czytelny, ostry kształt, bez rozmycia i bez charakterystycznych ząbków od napięcia sieciowego. Amplitudy załamków są zbliżone do spodziewanych przy standardowej czułości 10 mm/mV – QRS nie jest ani sztucznie spłaszczony, ani nadmiernie powiększony. Odstępy między kolejnymi zespołami są równe, co sugeruje, że pacjent leżał spokojnie, bez większych ruchów i bez napinania mięśni. Moim zdaniem właśnie tak powinien wyglądać zapis, na którym można potem spokojnie analizować rytm, przewodnictwo przedsionkowo‑komorowe, odcinek ST czy morfologię załamków T. W praktyce, gdy robisz EKG na oddziale, zawsze najpierw oceniasz jakość techniczną: czy jest dobrze przyklejona elektroda kończynowa, czy przewody nie są skręcone, czy filtracja szumów jest ustawiona zgodnie z zaleceniami (np. filtr 35–40 Hz, prędkość 25 mm/s). Jeżeli zapis wygląda jak w przykładzie 1 – równy, czysty, bez artefaktów ruchowych i bez zakłóceń mięśniowych – lekarz może bez problemu użyć go do diagnostyki zawału, zaburzeń rytmu czy przerostów jam serca. W nowoczesnych wytycznych podkreśla się, że jakość techniczna jest tak samo ważna jak sam opis, bo błędny technicznie zapis może prowadzić do złej interpretacji i niepotrzebnych decyzji klinicznych. Dlatego warto wyrobić sobie nawyk, żeby każdy wydruk porównać właśnie z takim „wzorcowym” EKG jak numer 1.

Pytanie 19

Odprowadzenie II rejestruje różnicę potencjałów między

A. prawą ręką i lewą nogą.
B. lewą i prawą ręką.
C. lewą ręką i lewą nogą.
D. prawą ręką i prawą nogą.
Prawidłowo – odprowadzenie II w standardowym 12-odprowadzeniowym EKG rejestruje różnicę potencjałów między prawą ręką (elektroda ujemna) a lewą nogą (elektroda dodatnia). Tak jest zdefiniowane w klasycznej trójkątnej konfiguracji Einthovena i obowiązuje w praktycznie wszystkich aparatach EKG, zgodnie z normami opisanymi w podręcznikach kardiologii i zaleceniach towarzystw naukowych. Moim zdaniem warto to mieć „w palcu”, bo odprowadzenie II jest jednym z najczęściej oglądanych – to właśnie w nim zwykle oceniamy rytm zatokowy, załamki P, odstęp PQ i ogólne przewodzenie przedsionkowo–komorowe. W praktyce technika wygląda tak, że elektrody kończynowe zakładamy najczęściej na przeguby: prawa ręka – elektroda prawa, lewa ręka – elektroda lewa, lewa noga – elektroda referencyjna dodatnia, prawa noga – elektroda uziemiająca (neutralna, nie bierze udziału w tworzeniu odprowadzeń I, II, III). Aparat następnie „matematycznie” zestawia między sobą potencjały z tych punktów i tworzy trzy odprowadzenia kończynowe: I (lewa ręka – prawa ręka), II (lewa noga – prawa ręka) oraz III (lewa noga – lewa ręka). W odprowadzeniu II oś elektryczna serca często wypada najbardziej fizjologicznie, dlatego zapis jest „czytelny”: wysokie dodatnie załamki P i R, łatwo ocenić regularność rytmu i obecność zaburzeń przewodzenia. W wielu systemach monitorowania kardiologicznego (oddziały intensywnej terapii, sale pooperacyjne) jako monitoring ciągły wybiera się właśnie odprowadzenie II, bo najlepiej pokazuje depolaryzację przedsionków i pozwala szybko wychwycić np. migotanie przedsionków czy częstoskurcze nadkomorowe. Z mojego doświadczenia, jeśli ktoś dobrze rozumie, jak jest zbudowany trójkąt Einthovena i które kończyny tworzą dane odprowadzenie, dużo łatwiej mu potem ogarnąć bardziej złożone układy jak odprowadzenia wzmocnione (aVR, aVL, aVF) czy analizę osi elektrycznej serca. To jest taka podstawa, na której buduje się całą dalszą interpretację EKG.

Pytanie 20

Czas repetycji w obrazowaniu metodą rezonansu magnetycznego to

A. czas kąta przeskoku.
B. czas między dwoma impulsami częstotliwości radiowej.
C. czas mierzony od impulsu odwracającego 180° do impulsu 90°.
D. czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce.
W rezonansie magnetycznym łatwo się pogubić w różnych czasach: mamy czas repetycji (TR), czas echa (TE) i czas inwersji (TI). Jeżeli nie złapie się intuicji, co który oznacza, to odpowiedzi oparte na skojarzeniach typu „kąt”, „szczyt sygnału” czy „odwrócenie” brzmią sensownie, ale niestety mijają się z fizyką badania. Czas repetycji nie ma nic wspólnego z „czasem kąta przeskoku”. W MR owszem, mówimy o kącie odchylenia magnetyzacji (np. 90°, 180°, małe kąty w sekwencjach GRE), ale nie mierzymy żadnego „czasu kąta”. Kąt jest parametrem impulsu RF, a TR to odstęp czasowy między kolejnymi impulsami pobudzającymi. Łączenie TR z kątem wynika często z mylenia definicji z pracą gradientów i zmianą fazy, ale to zupełnie inna bajka. Z kolei określenie „czas mierzony od impulsu odwracającego 180° do impulsu 90°” opisuje w istocie czas inwersji (TI) stosowany w sekwencjach inwersyjno-odtworzeniowych, takich jak STIR czy FLAIR. TI dobieramy tak, żeby wygasić sygnał określonej tkanki, np. tłuszczu albo płynu mózgowo-rdzeniowego. To bardzo ważny parametr, ale nie jest to TR. W tych sekwencjach nadal istnieje TR, który liczymy od cyklu do cyklu pobudzenia, natomiast TI jest dodatkowym czasem w środku sekwencji. Następne błędne skojarzenie to „czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce”. To już bardziej przypomina definicję czasu echa (TE). TE to odstęp między impulsem pobudzającym RF (zwykle 90°) a momentem, w którym rejestrujemy maksimum sygnału echa w cewce. TE wpływa głównie na ważenie T2, bo od niego zależy, jak bardzo zdąży zajść relaksacja poprzeczna. Typowy błąd myślowy polega na tym, że wszystko, co „czasowe” w MR, wrzuca się do jednego worka i nazywa TR. W dobrej praktyce diagnostycznej trzeba te pojęcia rozdzielić: TR – czas między kolejnymi impulsami RF pobudzającymi ten sam wycinek, TE – czas do szczytu echa, TI – czas od impulsu 180° do 90°. Dopiero świadome operowanie tymi trzema parametrami pozwala rozumieć, dlaczego dany protokół daje obraz bardziej T1-, T2- czy PD-zależny i jak modyfikacje wpływają na kontrast, SNR i całkowity czas badania.

Pytanie 21

W którym okresie ciąży wykonanie u kobiety zdjęcia rentgenowskiego klatki piersiowej jest najbardziej szkodliwe dla płodu?

A. Między 26 a 40 tygodniem ciąży.
B. Między 13 a 18 tygodniem ciąży.
C. Między 19 a 25 tygodniem ciąży.
D. Między 3 a 12 tygodniem ciąży.
Prawidłowo wskazany okres 3–12 tygodnia ciąży to tzw. faza organogenezy, czyli intensywnego kształtowania się narządów płodu. W tym czasie promieniowanie jonizujące, nawet w stosunkowo małych dawkach, może zaburzać procesy podziału i różnicowania komórek. Może to prowadzić do powstania wad wrodzonych, poronień lub ciężkich zaburzeń rozwojowych. Dlatego właśnie ten okres uważa się za najbardziej wrażliwy na działanie promieniowania, co jest mocno podkreślane w wytycznych ochrony radiologicznej kobiet ciężarnych. W praktyce klinicznej, zgodnie z zasadą ALARA (As Low As Reasonably Achievable), u kobiety w I trymestrze unika się badań RTG wszędzie tam, gdzie tylko jest to możliwe, a jeśli badanie jest absolutnie konieczne, musi być bardzo dobrze uzasadnione przez lekarza i odpowiednio udokumentowane. Z mojego doświadczenia w pracy z materiałami szkoleniowymi wynika, że standardem jest w pierwszej kolejności rozważenie metod bezpromiennych, takich jak USG czy MRI bez kontrastu, a dopiero gdy one nie wystarczają – planowanie RTG z maksymalnym ograniczeniem dawki i zastosowaniem osłon (np. fartuch ołowiany na okolice brzucha i miednicy). W obrazowaniu klatki piersiowej u ciężarnej kładzie się nacisk na odpowiednie parametry techniczne aparatu, ograniczenie liczby projekcji do niezbędnego minimum oraz bardzo dokładne kolimowanie wiązki, żeby jak najmniejsza część ciała była napromieniana. W dobrych praktykach radiologicznych zawsze pojawia się też obowiązek pytania pacjentki o możliwość ciąży przed badaniem RTG i – jeśli istnieje ryzyko, że jest to wczesna ciąża – rozważenie przełożenia badania lub zmiany metody diagnostycznej. Ten sposób myślenia, moim zdaniem, jest kluczowy: najpierw bezpieczeństwo płodu, potem wygoda diagnostyczna.

Pytanie 22

Obraz stawu kolanowego otrzymano metodą

Ilustracja do pytania
A. tomografii komputerowej z kontrastem.
B. rezonansu magnetycznego.
C. rezonansu magnetycznego z kontrastem.
D. tomografii komputerowej.
Prawidłowo – ten obraz stawu kolanowego pochodzi z rezonansu magnetycznego (MR). Widać typową dla MR wysoką rozdzielczość kontrastową tkanek miękkich: chrząstka stawowa, łąkotki, kość podchrzęstna i tkanka tłuszczowa odróżniają się od siebie dużo wyraźniej niż na typowym TK. Moim zdaniem kluczowe jest tu to, że na takim obrazie bardzo dobrze widać struktury wewnątrzstawowe, a nie tylko zarys kości. W standardach obrazowania narządu ruchu przyjmuje się, że rezonans magnetyczny jest metodą z wyboru do oceny więzadeł, łąkotek, chrząstki, zmian pourazowych i przeciążeniowych w stawie kolanowym. W praktyce klinicznej, gdy ortopeda podejrzewa uszkodzenie łąkotki, więzadła krzyżowego czy wczesne zmiany chrzęstne, najczęściej kieruje właśnie na MR, a nie na TK. Rezonans nie wykorzystuje promieniowania jonizującego, tylko pole magnetyczne i fale radiowe, co jest istotne zwłaszcza u młodych pacjentów i przy kontrolnych badaniach. W dobrych pracowniach stosuje się dedykowane cewki do stawu kolanowego i odpowiednie sekwencje (np. T1, T2, PD z saturacją tłuszczu), żeby jak najlepiej uwidocznić struktury wewnątrz stawu. Kontrast do MR podaje się zwykle tylko przy szczególnych wskazaniach (np. podejrzenie guza, zapalenia, MR-artrografia), natomiast typowe badanie stawu kolanowego wykonuje się bez kontrastu, tak jak właśnie na tym obrazie. Dobrą praktyką jest też porównywanie obrazów w kilku płaszczyznach (czołowa, strzałkowa, poprzeczna), co jeszcze bardziej odróżnia MR od klasycznego TK stosowanego głównie do oceny kości.

Pytanie 23

W zapisie EKG załamki P dodatnie w odprowadzeniu I i II, a ujemne w aVR oraz częstotliwość rytmu mniejsza niż 60/min wskazują na

A. przyspieszony rytm zatokowy.
B. niemiarowość zatokową.
C. zwolniony rytm zatokowy.
D. zahamowanie zatokowe.
Prawidłowo – opis w pytaniu dokładnie pasuje do zwolnionego rytmu zatokowego, czyli bradykardii zatokowej. Załamki P dodatnie w odprowadzeniach I i II oraz ujemne w aVR to klasyczny „podpis” tego, że impuls elektryczny pochodzi z węzła zatokowo–przedsionkowego, czyli z fizjologicznego rozrusznika serca. Mówiąc prościej: morfologia załamka P mówi nam o miejscu powstania pobudzenia, a nie o jego szybkości. Dopiero częstotliwość rytmu, w tym przypadku < 60/min, decyduje, czy mówimy o rytmie zatokowym prawidłowym, przyspieszonym czy zwolnionym. Standardowo przyjmuje się, że: rytm zatokowy prawidłowy ma częstość 60–100/min, przyspieszony rytm zatokowy (tachykardia zatokowa) > 100/min, a zwolniony rytm zatokowy (bradykardia zatokowa) < 60/min. To jest podstawowa rzecz, którą trzeba mieć w głowie przy każdej analizie EKG, niezależnie czy pracujesz w pracowni EKG, na SOR-ze czy w POZ. W praktyce technika EKG wygląda to tak: najpierw oceniamy, czy załamki P są „zatokowe” (czyli dodatnie w I, II, ujemne w aVR, stały kształt), następnie sprawdzamy, czy po każdym P występuje zespół QRS, a potem mierzymy częstość rytmu – np. metodą 300/150/100 (przy zapisie 25 mm/s) albo za pomocą automatycznej analizy aparatu, ale zawsze warto ją zweryfikować „na oko”. U wielu osób, zwłaszcza młodych, wysportowanych, bradykardia zatokowa może być wariantem normy, szczególnie w spoczynku czy we śnie. Z drugiej strony, u pacjentów starszych, z chorobą węzła zatokowego, po lekach beta-adrenolitycznych czy blokerach kanału wapniowego, zwolniony rytm zatokowy może dawać zawroty głowy, osłabienie, omdlenia. Moim zdaniem dobrze jest od razu w głowie łączyć obraz EKG z objawami klinicznymi, bo sama liczba uderzeń na minutę jeszcze nie mówi, czy dany rytm jest dla pacjenta niebezpieczny. Dobre praktyki mówią: zawsze opisz rytm trzema słowami – pochodzenie (zatokowy/pozazatokowy), regularność (miarowy/niemiarowy) i częstość (przyspieszony/prawidłowy/zwolniony). Tutaj mamy wyraźnie: rytm zatokowy, miarowy (z opisu to wynika) i zwolniony.

Pytanie 24

Jak przebiega promień centralny w projekcji AP czaszki?

A. Od przodu ku tyłowi, prostopadle do płaszczyzny strzałkowej.
B. Od tyłu ku przodowi, prostopadle do płaszczyzny strzałkowej.
C. Od przodu ku tyłowi, prostopadle do płaszczyzny czołowej.
D. Od tyłu ku przodowi, prostopadle do płaszczyzny czołowej.
Prawidłowo wskazana odpowiedź odzwierciedla klasyczne ustawienie w projekcji AP czaszki: promień centralny biegnie od przodu ku tyłowi, prostopadle do płaszczyzny czołowej. W praktyce oznacza to, że lampa RTG znajduje się przed twarzą pacjenta, a kaseta / detektor za potylicą, a wiązka pada na czoło i przechodzi w kierunku tyłu głowy. Płaszczyzna czołowa to taka, która dzieli ciało na część przednią i tylną, więc promień prostopadły do niej biegnie dokładnie w osi przednio–tylnej (AP). To jest zgodne z opisami w standardowych atlasach projekcji radiologicznych i wytycznymi stosowanymi w pracowniach RTG. W projekcji AP czaszki zależy nam na możliwie równomiernym odwzorowaniu struktur kości czaszki od strony czołowej aż po potylicę, przy minimalnych zniekształceniach geometrycznych. Ustawienie promienia centralnego prostopadle do płaszczyzny czołowej ogranicza powiększenie i zniekształcenia kształtu kości, co ma znaczenie np. przy ocenie symetrii łuków jarzmowych, zatok czołowych, oczodołów czy sklepienia czaszki. Z mojego doświadczenia w pracowniach RTG jednym z częstszych błędów u uczących się jest mylenie płaszczyzny czołowej i strzałkowej – tu warto zapamiętać prostą rzecz: projekcja AP to wiązka padająca od przodu, a więc jej kierunek jest prostopadły do płaszczyzny czołowej, a równoległy do płaszczyzny strzałkowej. W poprawnie wykonanej projekcji AP czaszki linia środkowa ciała (płaszczyzna strzałkowa pośrodkowa) powinna pokrywać się z osią długą kasety, a promień centralny padać centralnie przez nasadę nosa lub glabelę – zależnie od konkretnego wariantu projekcji i protokołu pracowni. Takie ustawienie pozwala na powtarzalność badania i porównywanie obrazów w czasie, co jest bardzo ważne przy kontroli urazów, zmian pooperacyjnych czy procesów litycznych w kościach czaszki.

Pytanie 25

W celu oceny wieku kostnego u dziecka praworęcznego, wykonuje się pojedyncze zdjęcie w projekcji

A. A-P ręki lewej.
B. A-P ręki prawej.
C. P-A ręki lewej.
D. P-A ręki prawej
W ocenie wieku kostnego kluczowa jest standaryzacja – zawsze to samo ułożenie, ta sama ręka, ta sama projekcja. W praktyce medycznej przyjęto, że wykonuje się pojedyncze zdjęcie lewej ręki i nadgarstka w projekcji P-A, czyli promień pada od strony dłoniowej na detektor podłożony od strony grzbietowej. Wybór innych odpowiedzi zwykle wynika z pomieszania dwóch rzeczy: kierunku wiązki promieniowania (P-A vs A-P) oraz wyboru strony (lewa vs prawa). U wielu osób działa tu prosta intuicja: skoro dziecko jest praworęczne, to może trzeba badać rękę „bardziej rozwiniętą”, czyli prawą. Tymczasem w diagnostyce obrazowej chodzi nie o subiektyczne wrażenie, tylko o porównywalność z atlasami i normami. Wszystkie standardowe atlasy wieku kostnego są oparte na lewej ręce, więc wykonanie zdjęcia prawej zaburza bezpośrednią porównywalność. Teoretycznie kości obu rąk rozwijają się podobnie, ale przy ocenie według tablic Greulicha i Pyle’a radiolog zawsze patrzy na lewą, bo tak skonstruowany jest materiał referencyjny. Drugi problem to mylenie projekcji P-A i A-P. W narządach ruchu, a szczególnie przy ręce, przyjętą dobrą praktyką jest projekcja P-A jako standard, zapewniająca stabilne, powtarzalne ułożenie i optymalny obraz struktur nadgarstka oraz kości śródręcza. Projekcja A-P ręki lewej zmieniłaby geometrię wiązki i relacje powiększenia, co sprawiłoby, że obraz nie odpowiadałby wzorcowym zdjęciom używanym w atlasach wieku kostnego. Podobnie projekcje z użyciem ręki prawej, niezależnie czy P-A, czy A-P, nie spełniają kryteriów referencyjnych. Moim zdaniem to klasyczny błąd: skupienie się na „logice” prawo/leworęczności zamiast na ujednoliconych standardach radiologicznych. W technice RTG ważne jest trzymanie się protokołów – właśnie po to, by wyniki z różnych pracowni można było porównywać i by interpretacja wieku kostnego była obiektywna i powtarzalna.

Pytanie 26

Kasety do pośredniej radiografii cyfrowej CR są wyposażone

A. w płyty ołowiowe.
B. w filmy rentgenowskie.
C. w folie wzmacniające.
D. w płyty fosforowe.
Prawidłowo – w systemie pośredniej radiografii cyfrowej CR kasety są wyposażone w płyty fosforowe, nazywane też płytami obrazowymi (IP – imaging plate). To nie są klasyczne filmy, tylko specjalne płyty z fosforem luminescencyjnym, najczęściej fosforem halogenkowym z domieszką europu. Pod wpływem promieniowania rentgenowskiego w krysztale fosforu gromadzi się energia w postaci tzw. obrazu utajonego. Ten obraz nie jest widoczny gołym okiem, dopiero skaner CR odczytuje go laserem, powodując zjawisko fotostymulowanej luminescencji. Wtedy emisja światła jest zamieniana przez fotopowielacz i przetwornik A/C na sygnał cyfrowy, który trafia do systemu PACS. W praktyce, podczas pracy w pracowni RTG, płyta fosforowa zachowuje się podobnie jak dawny film: wkładasz ją do kasety, po ekspozycji przenosisz do czytnika CR, a po odczycie płyta jest kasowana i może być użyta ponownie dziesiątki, a nawet setki razy, o ile nie zostanie mechanicznie uszkodzona. Moim zdaniem ważne jest, żeby kojarzyć CR właśnie z płytą fosforową, a DR z detektorem płaskopanelowym – to dwa różne systemy cyfrowe. Standardem dobrej praktyki jest delikatne obchodzenie się z kasetami CR, unikanie zarysowań i zginania, bo wszelkie uszkodzenia płyty fosforowej potem wychodzą jako artefakty na obrazie (pasy, plamki, „zadrapania”). W wielu szpitalach CR nadal jest używany w pracowniach ogólnych, na SOR czy w weterynarii, bo jest tańszy i bardziej elastyczny niż pełne DR, a kluczowe jest właśnie to, że sercem kasety jest płyta fosforowa, a nie film rentgenowski czy płyta ołowiowa.

Pytanie 27

Który z nowotworów jest hormonozależny?

A. Rak krtani.
B. Rak żołądka.
C. Rak macicy.
D. Rak skóry.
Prawidłowo wskazany został rak macicy, który klasycznie zalicza się do nowotworów hormonozależnych, szczególnie w kontekście działania estrogenów. W praktyce klinicznej często mówi się o tzw. nowotworach estrogenozależnych, gdzie nadmierna lub długotrwała stymulacja hormonalna sprzyja rozwojowi zmian nowotworowych. W przypadku raka trzonu macicy istotne znaczenie ma przewaga estrogenów przy braku równoważącego działania progesteronu, co prowadzi do rozrostu endometrium i zwiększa ryzyko transformacji nowotworowej. W standardach onkologicznych podkreśla się znaczenie oceny profilu hormonalnego, a także czynników ryzyka, takich jak otyłość, cykle bezowulacyjne, wczesna menarche czy późna menopauza. Moim zdaniem, z punktu widzenia osoby pracującej w medycynie, kluczowe jest rozumienie, że hormonozależność wpływa nie tylko na etiologię, ale też na diagnostykę i leczenie. W terapii mogą być stosowane leki modulujące gospodarkę hormonalną, np. progestageny w wybranych sytuacjach, a u pacjentek zawsze zwraca się uwagę na wywiad ginekologiczno-endokrynologiczny. W obrazowaniu (USG przezpochwowe, TK, MR) często ocenia się nie tylko sam guz, ale też cechy przerostu endometrium i ogólny stan narządu rodnego, co jest spójne z wiedzą o jego zależności od hormonów. W praktyce profilaktycznej ważne jest też monitorowanie kobiet z grup ryzyka, u których występują zaburzenia hormonalne, bo w tej grupie częściej dochodzi do rozwoju raka macicy. Dobrą praktyką jest łączenie danych klinicznych, endokrynologicznych i obrazowych, żeby jak najwcześniej wychwycić zmiany podejrzane o charakter nowotworowy, co realnie poprawia rokowanie.

Pytanie 28

Ilustracja przedstawia pozycjonowanie pacjentki do badania mammograficznego w projekcji

Ilustracja do pytania
A. kleopatry.
B. stycznej.
C. dolinowej.
D. bocznej.
To pytanie jest podchwytliwe, bo rysunek nie pokazuje klasycznych projekcji pełnej piersi, tylko tzw. ujęcie celowane – i tu łatwo się pomylić. Wiele osób automatycznie myśli o projekcji bocznej, bo ręka pacjentki jest odwiedziona, a detektor ustawiony z boku. Jednak prawdziwe boczne zdjęcie mammograficzne (ML lub LM) obejmuje całą pierś, zwykle z wyraźnie widoczną linią przymostkową i fałdem podsutkowym, a kompresja jest szeroka, na dużej płytce. Na ilustracji kompresja dotyczy tylko niewielkiego fragmentu, przy użyciu małej, okrągłej płytki – to jest właśnie cecha projekcji stycznej, czyli celowanej, a nie standardowej bocznej. Pojęcie „projekcja styczna” bywa też mylące, bo niektórzy kojarzą je z jakimś „dziwnym” ustawieniem. Tymczasem chodzi o to, że wiązka promieniowania biegnie stycznie do określonej struktury, np. guzka czy skupiska mikrozwapnień. Dzięki temu można lepiej ocenić lokalizację zmiany względem skóry i tkanek głębszych. Odpowiedź „kleopatry” również może kusić, bo istnieje opis pozycji pacjentki z mocno odchyloną górną częścią tułowia, żartobliwie nazywanej „pozycją Kleopatry”. Nie jest to jednak standardowa nazwa projekcji mammograficznej stosowana w opisie zdjęć – bardziej potoczny skrót używany czasem przy ułożeniu w badaniach piersi czy klatki. W profesjonalnej terminologii mammografii mówimy raczej o projekcjach CC, MLO, LM/ML, spot-compression, magnification, ewentualnie o projekcjach specjalnych, ale nie o „kleopatrze” czy „dolinowej”. Ta ostatnia odpowiedź, „dolinowa”, wygląda na całkowicie potoczne określenie i nie występuje w żadnych standardach ani wytycznych dotyczących mammografii. Typowym błędem jest sugerowanie się samym ułożeniem ręki i ogólną orientacją piersi, zamiast zwrócić uwagę na zakres kompresji i fakt, że obraz dotyczy małego, celowanego pola. W praktyce technik musi nauczyć się rozpoznawać, kiedy wykonuje projekcję pełną (diagnostyczną ogólną), a kiedy zdjęcie styczne – dokładnie takie jak na rysunku – które służy doprecyzowaniu obrazu konkretnej, wcześniej zauważonej zmiany. Z mojego doświadczenia to rozróżnienie bardzo pomaga potem w zrozumieniu opisów radiologa i w poprawnym planowaniu całego protokołu badania.

Pytanie 29

Zamieszczony obraz został wykonany metodą

Ilustracja do pytania
A. PET
B. TK
C. USG
D. MRI
Na tym obrazie widać przekrój poprzeczny głowy z bardzo wyraźnie odgraniczoną kością czaszki, która jest intensywnie biała, oraz typowy dla tomografii komputerowej rozkład szarości w mózgowiu i zatokach. Pomyłki przy tym pytaniu zwykle wynikają z mylenia różnych metod obrazowania, zwłaszcza gdy ktoś patrzy tylko na to, że jest to „czarno-biały” przekrój, bez analizy szczegółów technicznych. Ultrasonografia (USG) nie daje takich przekrojów przez czaszkę u dorosłych, bo kość bardzo silnie odbija i tłumi fale ultradźwiękowe. W USG obraz jest dynamiczny, ziarnisty, bez wyraźnej białej obwódki kości otaczającej cały przekrój. Gdyby to było USG, widzielibyśmy raczej struktury powierzchowne, a nie pełny przekrój mózgowia. Rezonans magnetyczny (MRI) daje obrazy przekrojowe, ale zupełnie inny jest charakter kontrastu: kość jest bardzo ciemna, prawie „wycięta” z obrazu, a tkanki miękkie mają bogaty kontrast zależny od sekwencji (T1, T2, FLAIR itd.). W MRI nie zobaczysz tak intensywnie białej, ciągłej obwódki kostnej jak w TK. Częstym błędem jest to, że ktoś myśli: „jest przekrój, więc pewnie MRI”, a pomija fakt, że w TK operujemy gęstością w HU, co daje właśnie taki typowy wygląd kości. Pozytonowa tomografia emisyjna (PET) to natomiast zupełnie inna bajka – pokazuje głównie metabolizm i wychwyt radioznacznika, więc dominuje mapa kolorowa lub szaroodcieniowa ognisk aktywności, a nie dokładny obraz anatomiczny kości i mózgu. PET często łączy się z TK lub MRI, ale wtedy widać charakterystyczne nałożenie obrazów funkcjonalnych i anatomicznych. Tutaj mamy czysty obraz anatomiczny typowy dla TK. Z mojego punktu widzenia dobrą praktyką jest, żeby przy każdym obrazie najpierw zadać sobie pytanie: jak zachowuje się kość, jak wygląda tło, czy widzę mapę funkcjonalną czy czystą anatomię. To pomaga szybko odsiać błędne skojarzenia i poprawnie rozpoznać technikę obrazowania.

Pytanie 30

Na ilustracji przedstawiono przygotowanie pacjenta do badania

Ilustracja do pytania
A. EMG
B. EEG
C. KTG
D. ERG
Na zdjęciu widać bardzo typowe przygotowanie do badania EMG – dokładniej do elektroneurografii, czyli stymulacyjnej części badania przewodnictwa nerwowego. Mamy tutaj kończynę z założonym mankietem uziemiającym/odprowadzającym (zielony element) oraz dwie elektrody powierzchowne przyklejone nad mięśniem, do którego dochodzi badany nerw. Dodatkowo z boku widoczna jest elektroda stymulująca (igłowa lub pierścieniowa), którą podaje się krótkie impulsy prądowe. To klasyczny układ: elektroda aktywna i referencyjna nad brzuścem mięśnia oraz elektroda stymulująca w przebiegu nerwu. W EMG rejestruje się potencjały czynnościowe mięśni wywołane pobudzeniem nerwów obwodowych albo spontaniczną aktywność mięśnia. W praktyce technik musi zadbać o kilka rzeczy: dokładne odtłuszczenie skóry, prawidłowe rozmieszczenie elektrod w osi mięśnia, dobrą przyczepność żelowych elektrod i stabilne ułożenie kończyny, żeby artefakty ruchowe nie zniszczyły zapisu. Z mojego doświadczenia wiele problemów z jakością sygnału w EMG wynika z pośpiechu przy przygotowaniu skóry. W badaniach przewodnictwa nerwowego mierzy się latencję, amplitudę i prędkość przewodzenia, co jest kluczowe np. w diagnostyce zespołu cieśni nadgarstka, neuropatii cukrzycowych, uszkodzeń korzeni nerwowych czy urazów nerwów po złamaniach. Standardy pracowni neurofizjologii klinicznej zalecają też kontrolę temperatury kończyny, bo zbyt zimna ręka spowalnia przewodzenie i fałszuje wyniki. Właśnie ten układ elektrod na kończynie, bez udziału głowy, brzucha czy aparatury kardiotokograficznej, jednoznacznie wskazuje na EMG, a nie na EEG, ERG czy KTG.

Pytanie 31

Podstawowym elementem diagnostycznym aparatury izotopowej wykorzystującej emisyjne metody pomiaru jest

A. komora jonizacyjna.
B. woltomierz.
C. kamera scyntylacyjna.
D. amperomierz.
Prawidłową odpowiedzią jest kamera scyntylacyjna, bo to właśnie ona stanowi podstawowy element diagnostyczny w aparaturze izotopowej wykorzystującej emisyjne metody pomiaru. W emisyjnych technikach medycyny nuklearnej źródłem promieniowania jest radioizotop podany pacjentowi, a zadaniem układu pomiarowego jest rejestracja promieniowania gamma wychodzącego z organizmu. Kamera scyntylacyjna (gammakamera) zamienia te kwanty promieniowania na błyski światła w krysztale scyntylacyjnym (najczęściej NaI(Tl)), a potem na sygnał elektryczny w fotopowielaczach. Na tej podstawie system tworzy obraz rozkładu radiofarmaceutyku w ciele. To właśnie ten element decyduje o jakości diagnostycznej badania: rozdzielczości przestrzennej, czułości detekcji, możliwości wykonywania projekcji planarnych i badań SPECT. W praktyce klinicznej kamera scyntylacyjna jest sercem całego zestawu – reszta aparatury (kolimatory, układy akwizycji, oprogramowanie) tylko wspiera jej działanie. Z mojego doświadczenia to na ustawieniu parametrów pracy kamery, doborze odpowiedniego kolimatora i właściwej energii okna fotopiku opiera się większość dobrej praktyki w scyntygrafii. W nowoczesnych pracowniach standardem jest używanie kamer scyntylacyjnych sprzężonych z TK (SPECT/CT), ale wciąż kluczowy element emisyjny to właśnie detektor scyntylacyjny. Bez niego mamy co najwyżej licznik promieniowania, a nie rzeczywiste narzędzie diagnostyki obrazowej zgodne z wytycznymi medycyny nuklearnej.

Pytanie 32

W badaniu PET stosuje się tylko radioizotopy emitujące

A. cząstki alfa.
B. pozytony.
C. neutrony.
D. elektrony.
W badaniu PET (pozytonowa tomografia emisyjna) kluczowe jest właśnie to, że używa się radioizotopów emitujących pozytony, czyli dodatnio naładowane odpowiedniki elektronów. To nie jest przypadek ani ciekawostka fizyczna, tylko fundament całej techniki obrazowania. Pozyton wychodzi z jądra radioaktywnego nuklidu (np. 18F, 11C, 15O, 13N), po bardzo krótkiej drodze w tkankach zderza się z elektronem i dochodzi do zjawiska anihilacji. W wyniku anihilacji powstają dwa fotony gamma o energii 511 keV, które rozlatują się w przybliżeniu w przeciwnych kierunkach (pod kątem 180°). Detektory PET rejestrują te dwa fotony jednocześnie, w tzw. koincydencji, i na tej podstawie system wyznacza linię, na której zaszła anihilacja. Z bardzo wielu takich zdarzeń komputer rekonstruuje trójwymiarowy obraz rozmieszczenia radiofarmaceutyku w organizmie. W praktyce klinicznej najczęściej stosuje się 18F-FDG, czyli fluorodeoksyglukozę znakowaną fluorem-18. Ten radiofarmaceutyk zachowuje się podobnie jak glukoza, więc gromadzi się w tkankach o zwiększonym metabolizmie glukozy, np. w większości nowotworów złośliwych, ale też w mózgu czy mięśniu sercowym. Dzięki temu PET pozwala ocenić aktywność metaboliczną zmian, a nie tylko ich strukturę anatomiczną. Z mojego doświadczenia to jest ogromna przewaga PET nad klasycznym RTG czy nawet samą TK: widzimy „żywotność” guza, odpowiedź na chemioterapię, wczesne nawroty. Standardy medycyny nuklearnej (np. EANM) wyraźnie mówią o stosowaniu wyłącznie emiterów pozytonów do badań PET, bo cała aparatura, algorytmy rekonstrukcji i procedury bezpieczeństwa są projektowane właśnie pod anihilacyjne fotony 511 keV i koincydencyjny system detekcji. Zastosowanie innych typów promieniowania (np. cząstek alfa czy czystych emiterów beta minus) uniemożliwiłoby uzyskanie obrazu typowego dla PET, bo nie powstawałyby te charakterystyczne pary fotonów. Dlatego wybór odpowiedzi „pozytony” idealnie pasuje do fizycznej zasady działania PET i do praktyki klinicznej opisanej w aktualnych wytycznych medycyny nuklearnej.

Pytanie 33

Które środki kontrastujące wykorzystywane są w diagnostyce rezonansem magnetycznym?

A. Środki na bazie gadolinu.
B. Jodowe, nierozpuszczalne w wodzie.
C. Środki na bazie siarczanu baru.
D. Jodowe, rozpuszczalne w wodzie.
Prawidłowo – w diagnostyce rezonansem magnetycznym standardowo stosuje się paramagnetyczne środki kontrastujące na bazie gadolinu. Gadolinium samo w sobie jest silnie toksycznym metalem ciężkim, ale w kontrastach MR występuje w postaci chelatów, czyli związków kompleksowych, które wiążą jon gadolinu i dzięki temu znacznie zmniejszają jego toksyczność i poprawiają bezpieczeństwo kliniczne. Mechanizm działania takiego kontrastu jest inny niż w klasycznej radiologii: gadolin nie pochłania promieniowania rentgenowskiego, tylko skraca czasy relaksacji T1 (głównie) i T2 protonów wody w tkankach. W praktyce oznacza to, że struktury, które gromadzą gadolin, stają się jaśniejsze (hiperintensywne) na obrazach T1-zależnych. W codziennej pracy używa się go np. w diagnostyce guzów mózgu, zmian demielinizacyjnych w SM, ocenie zapalenia opon, w badaniach serca (blizna pozawałowa, kardiomiopatie) czy przy ocenie unaczynienia guzów wątroby i nerek. Moim zdaniem warto zapamiętać, że kontrast MR to przede wszystkim gadolin, a nie jod czy bar. Dobre praktyki mówią o konieczności oceny czynności nerek (eGFR) przed podaniem gadolinu, szczególnie u pacjentów z niewydolnością nerek, ze względu na ryzyko nefrogennego układowego zwłóknienia (NSF) przy starszych preparatach. Obecnie preferuje się tzw. środki makrocykliczne, które są bardziej stabilne chemicznie i uznawane za bezpieczniejsze. W MR stosuje się też specjalne protokoły dynamiczne po kontraście (np. badania wątroby, piersi), gdzie obserwuje się fazy wzmocnienia w czasie, co pomaga różnicować zmiany łagodne i złośliwe. W praktyce technika i lekarz opisujący zawsze powinni dobrać odpowiednią dawkę, sekwencje T1-zależne i czas podania, żeby wzmocnienie kontrastowe było maksymalnie diagnostyczne.

Pytanie 34

Zamieszczone badanie elektrokardiograficzne wykazało u pacjenta

Ilustracja do pytania
A. migotanie komór.
B. niemiaro­wość zatokową.
C. ekstrasystolię nadkomorową.
D. migotanie przedsionków.
Rozpoznanie migotania przedsionków na tym zapisie EKG jest jak najbardziej trafne. Kluczowe cechy, które to potwierdzają, to brak wyraźnych, powtarzalnych załamków P przed zespołami QRS oraz nieregularne odstępy RR – czyli tzw. rytm „zupełnie niemiarowy”. Zamiast załamków P w linii izoelektrycznej widać drobne, nieregularne falowania, czyli fale f, odpowiadające chaotycznej, bardzo szybkiej aktywności przedsionków. Z mojego doświadczenia, jeśli patrząc na EKG masz wrażenie „bałaganu” między QRS-ami i brak jakiegokolwiek porządku w odstępach RR, to w praktyce klinicznej prawie zawsze jest to właśnie migotanie przedsionków. W standardach interpretacji EKG (zarówno w podręcznikach, jak i wytycznych kardiologicznych) podkreśla się trzy rzeczy: brak załamków P, obecność fal f i całkowitą niemiarowość odstępów RR przy wąskich zespołach QRS. Właśnie to widzimy na zamieszczonym badaniu. Migotanie przedsionków ma ogromne znaczenie praktyczne – zwiększa ryzyko udaru niedokrwiennego mózgu, dlatego u takiego pacjenta w codziennej pracy trzeba od razu myśleć o ocenie ryzyka (np. skala CHA2DS2-VASc) i ewentualnym włączeniu leczenia przeciwkrzepliwego. Poza tym ważne jest też podejście do kontroli częstości komór (beta-blokery, blokery kanału wapniowego) albo, w określonych sytuacjach, próba przywrócenia rytmu zatokowego. Technicznie, przy opisie EKG dobrze jest zawsze zacząć od oceny rytmu: czy jest miarowy, czy są załamki P przed każdym QRS, jaki jest odstęp PQ. W tym przypadku takie systematyczne podejście szybko prowadzi do rozpoznania AF, bo załamków P po prostu nie ma, a rytm komór jest wybitnie niemiarowy. Moim zdaniem opanowanie rozpoznawania migotania przedsionków na EKG to absolutna podstawa pracy z diagnostyką elektromedyczną.

Pytanie 35

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co miesiąc.
B. co 6 miesięcy.
C. co najmniej raz na 12 miesięcy.
D. co najmniej raz na 24 miesiące.
Prawidłowa odpowiedź „co najmniej raz na 24 miesiące” odzwierciedla obowiązujące zasady wykonywania testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych. Testy specjalistyczne to nie są zwykłe, codzienne sprawdzenia, tylko bardziej zaawansowana kontrola jakości, prowadzona według określonych procedur fizycznych i technicznych. Obejmują m.in. ocenę dawki wyjściowej, powtarzalności ekspozycji, stabilności napięcia i prądu lampy RTG, geometrii wiązki, warstwy półchłonnej (filtracja wiązki), a także poprawności działania kolimatora i wskaźników pozycjonowania. Celem jest potwierdzenie, że aparat nadal spełnia wymagania bezpieczeństwa radiologicznego i jakości obrazu, które są określone w przepisach prawa i wytycznych z zakresu ochrony radiologicznej pacjenta. Moim zdaniem kluczowe jest to, że te 24 miesiące to maksymalny odstęp – czyli „co najmniej raz na 24 miesiące” oznacza, że można je robić częściej, jeśli są ku temu powody: np. po większej naprawie, modernizacji, po zgłoszeniach personelu, że obrazy są gorszej jakości, albo gdy dawkomierz pokaże podejrzane wartości. W praktyce w wielu gabinetach stomatologicznych testy specjalistyczne wykonuje się właśnie co 2 lata, a pomiędzy nimi robi się testy podstawowe (prostszą, bardziej rutynową kontrolę) oraz testy eksploatacyjne/odbiorcze, np. po instalacji nowego aparatu. Dobrą praktyką jest prowadzenie pełnej dokumentacji wyników tych testów: protokoły, raporty z pomiarów, nazwisko osoby wykonującej, data, parametry pracy aparatu. W razie kontroli inspektora ochrony radiologicznej czy sanepidu, taka dokumentacja jest jednym z głównych dowodów, że aparat jest bezpieczny i prawidłowo nadzorowany. Z mojego doświadczenia osoby, które raz dobrze zrozumieją sens testów specjalistycznych, przestają traktować je jako „papierologię”, a bardziej jako realne narzędzie do ograniczania niepotrzebnych dawek u pacjentów i poprawy jakości diagnostyki stomatologicznej.

Pytanie 36

Podczas którego badania zostały zarejestrowane przedstawione obrazy?

Ilustracja do pytania
A. Tomografii nerek.
B. Scyntygrafii nerek.
C. Ultrasonografii tarczycy.
D. Scyntygrafii tarczycy.
Prawidłowo wskazana została scyntygrafia nerek. Na przedstawionych obrazach widać typowy, barwny rozkład radioaktywności w obrębie obu nerek, uzyskany gammakamerą po dożylnym podaniu radiofarmaceutyku (najczęściej 99mTc‑DTPA, 99mTc‑MAG3 albo 99mTc‑EC). Charakterystyczne jest to, że obrazy są „plamiste”, kolorowe (skala pseudokolorów: czerwony, żółty, niebieski) i pokazują głównie funkcję narządu – czyli jak szybko znacznik jest wychwytywany i wydalany przez nerki – a nie ich dokładną anatomię. Moim zdaniem to jedna z najważniejszych różnic między scyntygrafią a TK czy USG: tu patrzymy przede wszystkim na czynność, a dopiero w drugiej kolejności na kształt. W praktyce klinicznej scyntygrafia nerek służy do oceny przesączania kłębuszkowego, drenażu z miedniczek nerkowych, udziału każdej nerki w całkowitej funkcji (tzw. funkcja rozdzielcza), diagnostyki zwężeń połączenia miedniczkowo‑moczowodowego, kontroli po przeszczepie nerki czy oceny blizn pozapalnych u dzieci. Standardem jest wykonywanie serii dynamicznych obrazów w kolejnych minutach po podaniu radiofarmaceutyku, co dokładnie pasuje do układu kafelków widocznych na ilustracji. Zgodnie z zasadami medycyny nuklearnej zapis taki uzyskuje się w projekcji tylnej lub przedniej, z pacjentem leżącym, a następnie analizuje się krzywe czas–aktywność. Z mojego doświadczenia w nauce do egzaminów warto zapamiętać, że „kolorowe, ziarniste nerki” w układzie dwóch symetrycznych ognisk po bokach kręgosłupa prawie zawsze oznaczają scyntygrafię nerek, a nie TK czy USG.

Pytanie 37

Która przyczyna spowodowała powstanie artefaktu widocznego na zamieszczonym obrazie MR?

Ilustracja do pytania
A. Wymiary obiektu przekroczyły pole widzenia.
B. Nieprawidłowa kalibracja aparatu.
C. Niejednorodność pola magnetycznego.
D. Zły dobór cewki gradientowej.
W tego typu pytaniu łatwo pójść w stronę skomplikowanych wyjaśnień o sprzęcie, a tymczasem problem jest czysto geometryczny. Artefakt widoczny na obrazie MR nie wynika ani ze złego doboru cewki gradientowej, ani z nieprawidłowej kalibracji aparatu, ani z ogólnej niejednorodności pola magnetycznego, tylko z faktu, że badany obszar jest większy niż ustawione pole widzenia. Z mojego doświadczenia wielu uczniów automatycznie obwinia gradienty, bo kojarzą je z zniekształceniami obrazu, ale w nowoczesnych systemach dobór cewki gradientowej jest z góry narzucony przez konstrukcję skanera. Operator nie wybiera sobie innej cewki gradientowej do głowy czy brzucha – gradienty są integralną częścią gantry. Dlatego „zły dobór cewki gradientowej” praktycznie nie występuje jako przyczyna pojedynczego artefaktu na jednym badaniu, raczej jako poważna wada konstrukcyjna, która psułaby wszystkie obrazy. Podobnie z kalibracją aparatu: błędna kalibracja zwykle daje globalne problemy jakościowe, niestabilność sygnału, błędy w geometrii całego badania, a nie lokalne „obcięcie” struktur przy krawędzi pola widzenia. Takie zjawisko jest typowe dla źle dobranego FOV, a nie dla offsetu kalibracyjnego. Niejednorodność pola magnetycznego z kolei daje inne typowe artefakty: zniekształcenia geometryczne przy granicy powietrze–kość, przemieszczenia sygnału, deformacje w sekwencjach EPI, ale nie efekt dosłownego urwania obrazu poza pewnym obszarem. To jest częsty błąd myślowy: skoro coś wygląda nienaturalnie, to „na pewno magnes jest nierówny”. Tymczasem tu kluczowe jest zrozumienie relacji między FOV, macierzą i rozmiarem pacjenta. Jeśli obiekt jest większy niż FOV, część sygnału aliasuje się, czyli nakłada na obraz, albo po prostu nie jest obrazowana. Właśnie dlatego w dobrych praktykach MR tak duży nacisk kładzie się na poprawne ustawienie scoutów, sprawdzenie, czy cała anatomia mieści się w polu widzenia, i dopiero potem uruchomienie właściwych sekwencji. Gdy się o tym pamięta, większości takich artefaktów można spokojnie uniknąć.

Pytanie 38

Ligand stosuje się

A. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
B. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
C. w radiologii klasycznej jako środek kontrastujący negatywny.
D. w radiologii klasycznej jako środek kontrastujący pozytywny.
Pojęcie ligandu bywa mylone z różnymi środkami kontrastowymi, bo wszędzie pojawia się temat „podawania czegoś do organizmu przed badaniem obrazowym”. Jednak od strony merytorycznej to zupełnie inne zagadnienia. Ligand, o który chodzi w tym pytaniu, należy przede wszystkim do świata medycyny nuklearnej. Jest to część radiofarmaceutyku odpowiedzialna za swoiste wiązanie się z określonym celem biologicznym: receptorem, enzymem, strukturą tkankową. Do ligandu „doczepiony” jest radioizotop (np. technet-99m, jod-131, fluor-18), który emituje promieniowanie rejestrowane przez gammakamerę albo skaner PET. W radiologii klasycznej (RTG, TK) środki kontrastowe – pozytywne czy negatywne – działają na zupełnie innej zasadzie. Kontrast pozytywny (np. jodowe środki kontrastowe, siarczan baru) zawiera pierwiastki o dużej liczbie atomowej, które silniej pochłaniają promieniowanie rentgenowskie i dzięki temu struktury wypełnione kontrastem są jaśniejsze na obrazie. To nie jest ligand w rozumieniu radiofarmaceutyku, bo nie ma tam znacznika promieniotwórczego, a mechanizm opiera się głównie na różnicy pochłaniania promieniowania, nie na swoistym wiązaniu z receptorami. Kontrast negatywny (np. powietrze, CO2) działa odwrotnie – zmniejsza pochłanianie promieniowania, struktury wypełnione gazem są ciemniejsze na obrazie. Tu też nie mówimy o ligandach, tylko o prostych substancjach fizycznie zmieniających gęstość i współczynnik osłabienia. W rezonansie magnetycznym stosuje się środki kontrastowe oparte głównie na gadolinie, które zmieniają czasy relaksacji protonów w tkankach, przez co sygnał MR jest jaśniejszy lub ciemniejszy. W literaturze chemicznej zdarza się pojęcie „chelatu gadolinu” jako kompleksu gadolin–ligand, ale w praktyce klinicznej radiologii mówimy o „środkach kontrastowych do MR”, nie o ligandach jako nośnikach radioizotopu. Typowym błędem myślowym jest wrzucanie do jednego worka wszystkiego, co podajemy dożylnie przed badaniem obrazowym i nazywanie tego ligandem. Kluczowe rozróżnienie jest takie: w medycynie nuklearnej ligand + radioizotop = radiofarmaceutyk, który świeci sam z siebie i jest rejestrowany przez gammakamerę lub PET. W RTG, TK czy MR środek kontrastowy nie emituje promieniowania, jedynie modyfikuje obraz uzyskany za pomocą zewnętrznego źródła (lampa RTG, pole magnetyczne i fale radiowe). Dlatego poprawne skojarzenie ligandu dotyczy medycyny nuklearnej i roli nośnika radiofarmaceutyku, a nie klasycznych czy MR-owych środków kontrastowych.

Pytanie 39

Glukoza podawana pacjentowi w badaniu PET jest znakowana radioaktywnym

A. technetem.
B. fluorem.
C. fosforem.
D. torem.
W badaniu PET standardowym radiofarmaceutykiem jest 18F-FDG, czyli deoksyglukoza znakowana izotopem fluoru-18. To właśnie fluor jest tutaj kluczowy. Jest to emiter pozytonów, który po podaniu dożylnym ulega rozpadowi, a powstające pozytony anihilują z elektronami w tkankach pacjenta. W wyniku anihilacji powstają dwie kwanty promieniowania gamma o energii 511 keV, lecące w przeciwnych kierunkach. Detektory w skanerze PET rejestrują te dwa fotony w koincydencji i na tej podstawie system rekonstruuje trójwymiarowy rozkład aktywności radiofarmaceutyku w organizmie. Dzięki temu można ocenić metabolizm glukozy w różnych narządach, głównie w mózgu, mięśniu sercowym oraz w tkance nowotworowej. W praktyce klinicznej 18F-FDG jest złotym standardem w onkologii, np. przy ocenie zaawansowania chłoniaków, raka płuca czy monitorowaniu odpowiedzi na chemioterapię. Moim zdaniem warto zapamiętać, że fluor-18 ma stosunkowo krótki czas połowicznego zaniku (ok. 110 minut), co z jednej strony wymaga dobrej logistyki (cyklotron, pracownia radiofarmacji, szybki transport), ale z drugiej ogranicza dawkę skuteczną dla pacjenta. Z punktu widzenia technika medycyny nuklearnej ważne jest też to, że FDG zachowuje się bardzo podobnie do naturalnej glukozy: wnika do komórek poprzez transportery GLUT, jest fosforylowana, ale dalej nie bierze udziału w glikolizie, więc „zatrzymuje się” w komórkach o wysokim metabolizmie. To właśnie pozwala obrazować ogniska nowotworowe, procesy zapalne czy żywotność mięśnia sercowego zgodnie z obowiązującymi protokołami i standardami EANM czy SNMMI.

Pytanie 40

W badaniu EKG punktem przyłożenia odprowadzenia przedsercowego C2 jest

A. IV międzyżebrze przy prawym brzegu mostka.
B. IV międzyżebrze przy lewym brzegu mostka.
C. okolica wyrostka mieczykowatego.
D. rzut koniuszka serca.
Prawidłowo – odprowadzenie przedsercowe C2 (oznaczane też jako V2) zgodnie ze standardem zapisu EKG umieszcza się w IV międzyżebrzu przy lewym brzegu mostka. To jest klasyczna lokalizacja wg międzynarodowego systemu 12‑odprowadzeniowego. W praktyce technik najpierw lokalizuje ręką wcięcie szyjne mostka, schodzi na rękojeść, a potem na trzon mostka i liczy przestrzenie międzyżebrowe od góry. Druga przestrzeń międzyżebrowa jest tuż pod rękojeścią, dalej trzecia i czwarta – właśnie w tej czwartej, przy lewym brzegu mostka, przyklejamy elektrodę C2/V2. Moim zdaniem warto to sobie parę razy „przećwiczyć palcami” na realnym pacjencie, bo później robi się to już automatycznie. Standardowa kolejność zakładania przedsercowych to zwykle: najpierw C1/V1 w IV międzyżebrzu przy prawym brzegu mostka, potem C2/V2 w IV międzyżebrzu przy lewym brzegu mostka, a dopiero później C4/V4 w rzucie koniuszka serca (V międzyżebrze w linii środkowo-obojczykowej lewej), a następnie C3/V3 między C2 i C4 oraz C5, C6 bardziej bocznie. Poprawne położenie C2 jest bardzo istotne, bo ten punkt „patrzy” na przegrodę międzykomorową i część ściany przedniej. Błędne ustawienie, np. za wysoko albo za nisko, może zafałszować obraz załamków R i S, czasem też odcinka ST, co potem utrudnia wykrycie zawału ściany przedniej lub zmian przerostowych. W dobrych praktykach EKG podkreśla się, żeby zawsze liczyć międzyżebrza, a nie „na oko” przyklejać elektrody. W warunkach klinicznych, np. na SOR czy intensywnej terapii, precyzja bywa trudniejsza, ale tym bardziej warto trzymać się tego schematu, bo od jakości zapisu często zależy decyzja lekarska o trombolizie czy pilnej koronarografii.