Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 5 maja 2026 17:57
  • Data zakończenia: 5 maja 2026 18:12

Egzamin zdany!

Wynik: 21/40 punktów (52,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W badaniu EEG elektrody referencyjne przymocowane do płatka ucha to

A. C3, C4
B. P3, P4
C. A1, A2
D. Fp1,Fp2
Prawidłowo – w klasycznym badaniu EEG elektrody referencyjne umieszczane na płatkach uszu oznaczamy jako A1 (ucho lewe) i A2 (ucho prawe). Litera „A” pochodzi od słowa „auricular”, czyli uszny. W systemie 10–20 to jest standardowe, międzynarodowo przyjęte oznaczenie i praktycznie w każdej pracowni EEG, która trzyma się zaleceń IFCN (International Federation of Clinical Neurophysiology), spotkasz właśnie te symbole. Płatki uszu traktuje się jako miejsca stosunkowo „elektrycznie spokojne”, czyli z mniejszym udziałem aktywności korowej, dlatego dobrze się nadają na elektrody odniesienia w wielu montażach, np. w montażu uszno-mózgowym (ear-linked). W praktyce technik EEG często sprawdza, czy A1 i A2 są poprawnie przymocowane, bo jeśli kontakt z płatkiem ucha jest słaby, to później w zapisie widzimy sztuczne różnice potencjałów i pojawiają się fałszywe asymetrie między półkulami. Co ciekawe, w niektórych pracowniach stosuje się referencję złączoną A1+A2, żeby zminimalizować wpływ jednostronnych zakłóceń. Moim zdaniem warto zapamiętać, że A1/A2 to taki punkt wyjścia – jak zobaczysz w opisie montażu „referencja do A1/A2”, od razu wiesz, że chodzi o płatki uszu, a nie o okolice czaszkowe. Znajomość tych oznaczeń ułatwia potem interpretację zapisu, rozróżnianie artefaktów od rzeczywistej aktywności bioelektrycznej mózgu oraz poprawne porównywanie zapisów między różnymi pracowniami i aparatami EEG. To jest po prostu element podstawowej „mapy” głowy w EEG, bez którego ciężko się poruszać w diagnostyce elektromedycznej.

Pytanie 2

Rumień skóry pojawiający się podczas radioterapii jest objawem

A. późnego odczynu ogólnoustrojowego.
B. późnego odczynu miejscowego.
C. ostrego odczynu ogólnoustrojowego.
D. ostrego odczynu miejscowego.
Rumień skóry pojawiający się w trakcie radioterapii jest klasycznym przykładem ostrego odczynu miejscowego, czyli takiej reakcji tkanek, która rozwija się w czasie napromieniania lub w ciągu kilku tygodni po jego zakończeniu i jest ograniczona dokładnie do pola napromienianego. Skóra reaguje na promieniowanie podobnie jak na oparzenie słoneczne: pojawia się zaczerwienienie, lekki obrzęk, czasem świąd czy uczucie pieczenia. W praktyce klinicznej określa się to jako wczesny odczyn skórny i klasyfikuje według skal, np. RTOG/EORTC lub CTCAE, co jest standardem w radioterapii. Moim zdaniem warto zapamiętać, że wszystko, co dotyczy rumienia, suchości skóry, łuszczenia, a nawet wilgotnego złuszczania w obrębie pola napromienianego, zaliczamy właśnie do ostrych odczynów miejscowych. Pojawiają się one zwykle po dawkach rzędu kilkunastu–kilkudziesięciu Gy i są ściśle zależne od frakcjonowania, techniki planowania (IMRT, 3D-CRT) oraz pielęgnacji skóry w trakcie leczenia. W dobrych praktykach radioterapii bardzo pilnuje się obserwacji skóry pacjenta w każdym tygodniu napromieniania, edukuje się chorego, żeby nie drażnił skóry (brak gorących kąpieli, unikanie tarcia, odpowiednie kremy), bo to pozwala ograniczyć nasilenie odczynu. Rumień nie jest odczynem ogólnoustrojowym – nie wiąże się z gorączką czy zaburzeniami krążeniowymi, tylko z miejscowym uszkodzeniem komórek naskórka i drobnych naczyń w skórze. Nie jest też odczynem późnym, bo nie ma tu włóknienia, teleangiektazji, zaniku skóry czy martwicy, które mogą się pojawić miesiące lub lata po zakończeniu radioterapii. W praktyce technika radioterapii i prawidłowe rozłożenie dawki w planie leczenia mają ogromne znaczenie, żeby rumień był jak najłagodniejszy i szybko się cofał po terapii.

Pytanie 3

Pomiaru impedancji akustycznej ucha środkowego dokonuje się podczas badania

A. audiometrii tonalnej.
B. tympanometrycznego.
C. potencjałów wywołanych.
D. otoemisji akustycznych.
Wiele osób intuicyjnie myli różne rodzaje badań słuchu, bo wszystkie odbywają się „na uszy” i często w tym samym gabinecie. Warto więc rozdzielić sobie, co konkretnie mierzy każde z nich. Audiometria tonalna ocenia przede wszystkim próg słyszenia, czyli jak czuły jest narząd słuchu na dźwięki o różnych częstotliwościach i natężeniach. Wynikiem jest audiogram, który pokazuje poziom ubytku słuchu. To badanie nie mierzy jednak parametrów mechanicznych ucha środkowego, takich jak impedancja akustyczna, tylko reakcję całego układu słuchowego na bodziec. To jest typowy błąd myślowy: skoro badanie dotyczy słuchu, to wydaje się, że „na pewno coś z impedancją też tam jest”. Niestety nie – audiometria to badanie progów, nie właściwości mechanicznych. Otoemisje akustyczne z kolei służą do oceny funkcji komórek rzęsatych zewnętrznych w ślimaku. Aparat rejestruje bardzo ciche dźwięki generowane przez ucho wewnętrzne w odpowiedzi na bodziec. Jest to świetne narzędzie do badań przesiewowych słuchu u noworodków i małych dzieci, ale dotyczy głównie ucha wewnętrznego, a nie ucha środkowego jako układu mechaniczno-akustycznego. Impedancji akustycznej tym badaniem się nie wyznacza, chociaż obecność płynu w uchu środkowym może pośrednio wpływać na wynik. Potencjały wywołane (słuchowe potencjały wywołane pnia mózgu – ABR/BERA) badają przewodnictwo impulsów nerwowych w drodze słuchowej, od ślimaka aż do pnia mózgu. Rejestruje się aktywność bioelektryczną w odpowiedzi na bodziec dźwiękowy. To badanie neurofizjologiczne, nie mechaniczne. Z mojego doświadczenia uczniowie często mieszają je z tympanometrią, bo oba badania są obiektywne i „same się nagrywają”, ale ich cel jest zupełnie inny. Jedynie badanie tympanometryczne jest zaprojektowane specjalnie do oceny impedancji akustycznej ucha środkowego – przez kontrolowaną zmianę ciśnienia w przewodzie słuchowym i pomiar ilości energii odbitej od błony bębenkowej. Dlatego tylko ta odpowiedź jest merytorycznie poprawna, a pozostałe opisują inne, ważne, ale zupełnie różne metody diagnostyczne.

Pytanie 4

Który detektor w radiografii wymaga laserowego czytnika obrazu?

A. Błona halogenosrebrowa.
B. Detektor krzemowy.
C. Płyta fosforowa.
D. Detektor selenowy.
W radiografii łatwo się pogubić między różnymi typami detektorów, bo nazwy brzmią podobnie technicznie, a zasady działania są inne. Kluczowa rzecz: laserowy czytnik obrazu to element typowy dla systemu CR, czyli radiografii pośredniej na płytach fosforowych, a nie dla detektorów selenowych, krzemowych czy klasycznej błony halogenosrebrowej. Detektor selenowy kojarzy się wielu osobom z klasyczną radiografią cyfrową DR, bo amorficzny selen jest stosowany w detektorach bezpośrednich. W takim układzie promieniowanie X jest zamieniane bezpośrednio na ładunek elektryczny, który trafia do matrycy TFT. Nie ma tam etapu skanowania laserem, nie ma odczytu z płyty w osobnym urządzeniu. Obraz powstaje praktycznie od razu na konsoli operatora. To zupełnie inny workflow pracy niż w CR. Podobnie detektor krzemowy, zwykle amorficzny krzem z warstwą scyntylatora (np. CsI), działa jako detektor pośredni: promieniowanie rentgenowskie zamienia się najpierw w światło, a dopiero potem światło w sygnał elektryczny. Ale znowu – odczyt zachodzi elektronicznie w tym samym panelu detektora, bez żadnego lasera, bez kaset i bez przenoszenia czegoś do osobnego czytnika. To są panele płaskie DR, które montuje się w statywach, stołach czy mammografach. Błona halogenosrebrowa to z kolei klasyczna technika analogowa. Obraz jest utrwalany chemicznie w ciemni, w wywoływarce, przy użyciu odczynników. Żaden laser nie jest tu potrzebny, chyba że mówimy o późniejszym skanowaniu filmu do archiwizacji – ale to już nie jest standardowy etap tworzenia obrazu w radiografii, tylko dodatkowa digitalizacja. Typowym błędem myślowym jest wrzucanie wszystkiego, co „cyfrowe”, do jednego worka i automatyczne łączenie z laserem. W rzeczywistości laserowy czytnik obrazu jest znakiem rozpoznawczym właśnie płyt fosforowych CR: najpierw ekspozycja, potem skanowanie laserem w czytniku, dopiero potem cyfrowy obraz. Detektory selenowe i krzemowe pracują w systemach DR i nie wymagają osobnego laserowego skanera, a błona halogenosrebrowa opiera się o proces chemiczny, nie optyczno‑laserowy.

Pytanie 5

Na obrazie ultrasonograficznym jamy brzusznej uwidoczniono

Ilustracja do pytania
A. śledzionę.
B. wątrobę.
C. trzustkę.
D. nerkę.
Na tym obrazie USG faktycznie widoczna jest wątroba – i to w dość klasycznym ujęciu. Charakterystyczne jest jednorodne, drobnoziarniste echo miąższu, o echogeniczności nieco wyższej niż kora nerki i podobnej lub lekko wyższej niż śledziona (w praktyce porównuje się to zawsze w jednym badaniu, a nie z pamięci). Widzimy typowy układ: powierzchnia wątroby tworzy gładką, silnie echogeniczną linię pod kopułą przepony, a w miąższu przebiegają bezechowe lub hipoechogeniczne naczynia – żyła wrotna i żyły wątrobowe – często z echogenicznymi ścianami. Moim zdaniem właśnie to rozpoznawanie naczyń jest jednym z najlepszych trików w praktyce. W standardach badań USG jamy brzusznej (np. PTU) podkreśla się konieczność oceny wielkości wątroby, jednorodności miąższu, zarysu brzegów oraz stosunku echogeniczności do nerki prawej. W pozycji leżącej na plecach sonda zwykle leży pod prawym łukiem żebrowym, a obraz obejmuje prawy płat z przeponą u góry. W codziennej pracy technika i lekarz powinni umieć odróżnić prawidłową wątrobę od zmian typu stłuszczenie, marskość czy ogniska ogniskowe. Na przykład w stłuszczeniu wątroba staje się wyraźnie bardziej hiperechogeniczna, a głębsze partie gorzej widoczne. W takich zadaniach testowych warto zawsze „odhaczyć” sobie: jednorodny miąższ + kontakt z przeponą + duże naczynia w środku = najczęściej wątroba w projekcji podżebrowej prawej.

Pytanie 6

W badaniu PET stosuje się tylko radioizotopy emitujące

A. pozytony.
B. cząstki alfa.
C. elektrony.
D. neutrony.
W badaniu PET (pozytonowa tomografia emisyjna) kluczowe jest właśnie to, że używa się radioizotopów emitujących pozytony, czyli dodatnio naładowane odpowiedniki elektronów. To nie jest przypadek ani ciekawostka fizyczna, tylko fundament całej techniki obrazowania. Pozyton wychodzi z jądra radioaktywnego nuklidu (np. 18F, 11C, 15O, 13N), po bardzo krótkiej drodze w tkankach zderza się z elektronem i dochodzi do zjawiska anihilacji. W wyniku anihilacji powstają dwa fotony gamma o energii 511 keV, które rozlatują się w przybliżeniu w przeciwnych kierunkach (pod kątem 180°). Detektory PET rejestrują te dwa fotony jednocześnie, w tzw. koincydencji, i na tej podstawie system wyznacza linię, na której zaszła anihilacja. Z bardzo wielu takich zdarzeń komputer rekonstruuje trójwymiarowy obraz rozmieszczenia radiofarmaceutyku w organizmie. W praktyce klinicznej najczęściej stosuje się 18F-FDG, czyli fluorodeoksyglukozę znakowaną fluorem-18. Ten radiofarmaceutyk zachowuje się podobnie jak glukoza, więc gromadzi się w tkankach o zwiększonym metabolizmie glukozy, np. w większości nowotworów złośliwych, ale też w mózgu czy mięśniu sercowym. Dzięki temu PET pozwala ocenić aktywność metaboliczną zmian, a nie tylko ich strukturę anatomiczną. Z mojego doświadczenia to jest ogromna przewaga PET nad klasycznym RTG czy nawet samą TK: widzimy „żywotność” guza, odpowiedź na chemioterapię, wczesne nawroty. Standardy medycyny nuklearnej (np. EANM) wyraźnie mówią o stosowaniu wyłącznie emiterów pozytonów do badań PET, bo cała aparatura, algorytmy rekonstrukcji i procedury bezpieczeństwa są projektowane właśnie pod anihilacyjne fotony 511 keV i koincydencyjny system detekcji. Zastosowanie innych typów promieniowania (np. cząstek alfa czy czystych emiterów beta minus) uniemożliwiłoby uzyskanie obrazu typowego dla PET, bo nie powstawałyby te charakterystyczne pary fotonów. Dlatego wybór odpowiedzi „pozytony” idealnie pasuje do fizycznej zasady działania PET i do praktyki klinicznej opisanej w aktualnych wytycznych medycyny nuklearnej.

Pytanie 7

Powierzchnia gabinetu rentgenowskiego, w którym zainstalowany jest aparat rentgenowski wyposażony w oddzielną lampę, nie może być mniejsza niż

A. 18 m²
B. 15 m²
C. 20 m²
D. 10 m²
W pytaniu chodzi o minimalną dopuszczalną powierzchnię gabinetu rentgenowskiego z aparatem wyposażonym w oddzielną lampę. To jest kwestia bardzo mocno związana z ochroną radiologiczną i projektowaniem pracowni, a nie tylko z wygodą użytkowania. Częsty błąd polega na tym, że ktoś myśli: „byleby aparat się zmieścił i był stół, to wystarczy”, więc wybiera wartości typu 10 m², bo wydaje się, że to już całkiem sporo jak na pokój. Niestety w radiologii to za mało. Przy 10 m² trudno zapewnić odpowiedni układ geometryczny wiązki promieniowania, bezpieczne odległości od ścian, drzwi i stanowiska operatora, a także odpowiednie rozłożenie stref kontrolowanych i nadzorowanych. Zbyt mała powierzchnia utrudnia też racjonalne rozmieszczenie osłon stałych i może prowadzić do przekroczenia dopuszczalnych dawek w pomieszczeniach sąsiednich. Z drugiej strony pojawia się czasem myślenie „im więcej tym lepiej”, więc padają odpowiedzi typu 18 m² czy 20 m², bo brzmią bardziej profesjonalnie i „bezpiecznie”. Oczywiście większa powierzchnia w praktyce zwykle jest wygodniejsza, ale pytanie dotyczy wartości minimalnej określonej w przepisach. Normy nie są ustalane na zasadzie widzimisię, tylko na podstawie obliczeń osłonności, typowych konfiguracji aparatury i standardowych procedur zdjęciowych. Jeśli w akcie prawnym lub w wytycznych ochrony radiologicznej podano 15 m², to właśnie ta wartość stanowi granicę, poniżej której gabinet nie spełnia wymagań formalnych. Odpowiedzi większe niż 15 m² nie są więc „bardziej poprawne” – one po prostu nie odpowiadają treści pytania, które pyta o dolną granicę, a nie o powierzchnię optymalną czy komfortową. Kluczowe jest zrozumienie, że w ochronie radiologicznej pracujemy na konkretnych parametrach: minimalnych wymiarach, grubościach osłon, odległościach, a nie na ogólnych odczuciach, co wydaje się wystarczające lub wygodne.

Pytanie 8

Źródłem promieniowania protonowego stosowanego w radioterapii jest

A. cyberknife.
B. cyklotron.
C. przyspieszacz liniowy.
D. bomba kobaltowa.
W tym pytaniu łatwo pomylić różne źródła promieniowania stosowane w radioterapii, bo na pierwszy rzut oka wszystkie wydają się „maszynami do naświetlania”. Kluczowe jest jednak rozróżnienie, jakie cząstki lub fotony generuje dane urządzenie i na jakiej zasadzie pracuje. Radioterapia protonowa to terapia z użyciem ciężkich naładowanych cząstek – protonów – które wymagają specjalnego akceleratora cząstek. Taki akcelerator musi nadać protonom energię pozwalającą dotrzeć na wymaganą głębokość w ciele pacjenta i wytworzyć tam pik Bragga, czyli charakterystyczne maksimum dawki. Tym zajmują się cyklotrony lub synchrotrony, a nie typowe maszyny z klasycznej radioterapii fotonowej. Częsty błąd polega na wrzuceniu do jednego worka wszystkich zaawansowanych technologicznie aparatów, takich jak cyberknife. Cyberknife brzmi bardzo nowocześnie i kojarzy się z precyzją, ale fizycznie jest to niewielki przyspieszacz liniowy generujący wysokoenergetyczne promieniowanie X, zamontowany na robocie. To dalej terapia fotonowa, tylko z bardzo zaawansowanym systemem pozycjonowania i planowania, a nie protonoterapia. Podobnie bomba kobaltowa, historycznie bardzo ważna w teleterapii, wykorzystuje promieniowanie gamma emitowane przez izotop kobaltu-60. Jest to promieniowanie fotonowe o stałej energii, bez możliwości modulacji energii wiązki tak jak w akceleratorach cząstek. Z tego powodu bomba kobaltowa absolutnie nie jest źródłem protonów. Przyspieszacz liniowy również bywa wskazywany z przyzwyczajenia, bo to podstawowe urządzenie na większości oddziałów radioterapii. Jednak klasyczny linak medyczny przyspiesza elektrony w linii prostej i wytwarza promieniowanie X w głowicy terapeutycznej. Nie ma tam toru dla protonów ani odpowiedniej konstrukcji optyki wiązki protonowej. To jest typowy przykład błędu myślowego: „skoro to przyspieszacz, to na pewno też protony”. W praktyce klinicznej protonoterapii używa się wyspecjalizowanych akceleratorów hadronowych (cyklotronów, synchrotronów), a nie standardowych linaków czy bomb kobaltowych. Dlatego tylko cyklotron odpowiada wymaganiom pytania jako źródło wiązki protonowej stosowanej w radioterapii.

Pytanie 9

Wskaż przyczynę powstania artefaktu widocznego na obrazie MR.

Ilustracja do pytania
A. Niejednorodność pola magnetycznego.
B. Błędny dobór cewki gradientowej.
C. Nieprawidłowa kalibracja aparatu.
D. Wymiary obiektu przekroczyły pole widzenia.
Prawidłowo powiązałeś artefakt z przekroczeniem pola widzenia (FOV) przez obrazowany obiekt. Na pokazanym obrazie MR mózgowia widać typowy przykład tzw. wrap-around albo aliasingu: struktury anatomiczne, które „nie mieszczą się” w zadanym polu widzenia, są składane z powrotem na przeciwległą krawędź obrazu. Dzieje się tak, bo system MR próbuje przypisać sygnał z obszaru poza FOV do najbliższej pozycji wynikającej z zakresu próbkowania w przestrzeni k‑przestrzeni. W praktyce wygląda to tak, że np. część tkanek z przodu lub z tyłu głowy pojawia się jakby „nad” mózgiem albo w innym nielogicznym miejscu przekroju. Z mojego doświadczenia, przy głowie ten artefakt widzi się dość często, gdy technik ustawi zbyt małe FOV w kierunku fazowym, bo chce poprawić rozdzielczość albo skrócić czas badania. Standardową dobrą praktyką jest tak dobrać FOV i kierunek kodowania fazy, żeby całe ciało pacjenta w danym przekroju znajdowało się wewnątrz pola widzenia, albo zastosować techniki antyaliasingowe (np. oversampling w kierunku fazowym, no phase wrap, sat bandy). W opisach MR radiolodzy zwracają uwagę, czy artefakt aliasingu nie maskuje istotnych struktur, zwłaszcza w okolicy czaszki, kręgosłupa szyjnego i kończyn. W codziennej pracy technika jest to też kwestia komfortu – jak FOV jest za małe, badanie często trzeba powtarzać, co wydłuża czas i irytuje pacjenta. Dlatego warto odruchowo sprawdzać, czy głowa, brzuch czy inny badany obszar naprawdę mieści się w polu widzenia w obu kierunkach kodowania.

Pytanie 10

Zarejestrowany na obrazie TK artefakt jest spowodowany

Ilustracja do pytania
A. ruchem mimowolnym.
B. wysokim stężeniem środka cieniującego.
C. metalowym implantem.
D. nieliniowym osłabieniem wiązki.
Prawidłowo powiązałeś obraz z obecnością metalowego implantu. Na przedstawionym skanie TK widoczny jest bardzo typowy artefakt metaliczny: centralny, ekstremalnie jasny obszar (wysoka gęstość, wartości HU wykraczające poza skalę) oraz promieniste smugi i pasma wychodzące na zewnątrz. To tzw. streak artifacts. Metal bardzo silnie pochłania promieniowanie rentgenowskie, przez co detektory rejestrują skrajne wartości sygnału, a algorytm rekonstrukcji obrazu „gubi się” i tworzy te charakterystyczne smugi. Z mojego doświadczenia, tak wygląda np. endoproteza, śruba kostna, proteza stawu, czasem klips naczyniowy – zawsze coś metalowego o dużej gęstości. W praktyce technik TK powinien od razu kojarzyć taki obraz z metalem w polu badania i wiedzieć, że może to istotnie utrudniać ocenę struktur sąsiednich. Standardem jest wtedy stosowanie technik redukcji artefaktów: odpowiednie ułożenie pacjenta, dobór wyższej kV, włączenie algorytmów MAR (Metal Artifact Reduction) w konsoli, czasem rekonstrukcja iteracyjna lub dual-energy CT. Warto pamiętać, że artefakty od ruchu wyglądają inaczej – dają rozmycie, podwójne kontury, ząbkowanie krawędzi, a nie ostre, promieniste smugi wychodzące z jednego bardzo gęstego punktu. Również wysoki kontrast jodowy zwykle nie powoduje aż tak dramatycznych smug, choć może dawać tzw. blooming. W nowoczesnych protokołach TK zawsze uwzględnia się obecność metalu, bo ma to wpływ na dawkę, jakość obrazu i sposób interpretacji – radiolog musi wiedzieć, że część zmian może być zwyczajnie „ukryta” w artefaktach metalicznych. Moim zdaniem to jedno z ważniejszych rozpoznań artefaktu, bo występuje bardzo często w praktyce szpitalnej, szczególnie na ortopedii i neurochirurgii.

Pytanie 11

Droga przewodnictwa powietrznego fali akustycznej przebiega przez

A. ucho wewnętrzne i kości czaszki.
B. ucho zewnętrzne, ucho środkowe i ucho wewnętrzne.
C. ucho środkowe, ucho wewnętrzne i kości czaszki.
D. ucho zewnętrzne, ucho środkowe i kości czaszki.
W tym pytaniu kluczowe jest odróżnienie dwóch dróg przekazywania dźwięku: przewodnictwa powietrznego i przewodnictwa kostnego. Typowy błąd polega na mieszaniu tych pojęć i automatycznym dorzucaniu „kości czaszki” do każdej drogi słuchowej. Przewodnictwo powietrzne to sytuacja, gdy fala akustyczna rozchodzi się w powietrzu, wchodzi do ucha przez przewód słuchowy zewnętrzny, wprawia w drgania błonę bębenkową, a potem kosteczki słuchowe i dalej struktury ucha wewnętrznego. Nie biorą w tym bezpośredniego udziału kości czaszki jako ośrodek przewodzenia fali – one oczywiście są w tle, ale nie stanowią głównej drogi sygnału. W odpowiedziach, które zawierają „kości czaszki”, miesza się tę drogę z przewodnictwem kostnym. Przewodnictwo kostne polega na tym, że drgania są przekazywane bezpośrednio przez kości czaszki do ucha wewnętrznego, z pominięciem ucha zewnętrznego i w dużej mierze ucha środkowego. To wykorzystuje się np. w badaniu audiometrycznym z wibratorem kostnym umieszczonym na wyrostku sutkowatym. Jeśli ktoś zaznacza wariant, gdzie jest tylko ucho wewnętrzne i kości czaszki, to w praktyce opisuje właśnie przewodnictwo kostne, a nie powietrzne. Z kolei odpowiedzi łączące ucho środkowe, wewnętrzne i kości czaszki też są nieprecyzyjne, bo w przewodnictwie powietrznym konieczne jest przejście przez ucho zewnętrzne – bez przewodu słuchowego i błony bębenkowej fala z powietrza nie trafi prawidłowo na kosteczki. Moim zdaniem typowe źródło pomyłki jest takie, że ktoś pamięta, iż „w słyszeniu biorą udział wszystkie części ucha i kości czaszki”, ale nie rozdziela dróg przewodzenia. W audiometrii, zgodnie ze standardami diagnostyki elektromedycznej, zawsze rozróżniamy dwa tory: powietrzny (ucho zewnętrzne, środkowe, wewnętrzne) oraz kostny (kości czaszki → ucho wewnętrzne). W tym zadaniu pytanie jest bardzo konkretne: chodzi wyłącznie o drogę przewodnictwa powietrznego, więc jedyną poprawną konfiguracją jest taka, która zawiera wszystkie trzy części ucha, ale bez udziału kości czaszki jako głównego medium przewodzenia.

Pytanie 12

Wyniosłość międzykłykciowa znajduje się na nasadzie

A. dalszej kości udowej.
B. bliższej kości łokciowej.
C. dalszej kości ramiennej.
D. bliższej kości piszczelowej.
Wyniosłość międzykłykciowa leży na nasadzie bliższej kości piszczelowej, dokładnie pomiędzy kłykciem przyśrodkowym i bocznym. To taki charakterystyczny „grzbiecik” kostny widoczny szczególnie dobrze na zdjęciu RTG kolana w projekcji AP. Anatomicznie tworzą ją guzki międzykłykciowe oraz pole międzykłykciowe przednie i tylne. To miejsce przyczepu bardzo ważnych struktur: więzadła krzyżowego przedniego (ACL) i tylnego (PCL), a także części włókien łąkotek. Z mojego doświadczenia, jeśli ktoś dobrze kojarzy tę wyniosłość, dużo łatwiej mu później ogarniać patologie więzadeł na obrazach. W praktyce radiologicznej i ortopedycznej wyniosłość międzykłykciowa jest punktem orientacyjnym przy ocenie ustawienia kości piszczelowej względem kości udowej, szczególnie w urazach kolana. Na TK czy MR kolana często opisuje się przemieszczenia fragmentów tej wyniosłości przy awulsyjnych uszkodzeniach ACL, tzw. złamanie eminencji międzykłykciowej. Dobra znajomość tej struktury jest też kluczowa przy planowaniu rekonstrukcji więzadeł krzyżowych, bo tunele kostne w kości piszczelowej lokalizuje się właśnie w okolicy tej wyniosłości. W standardach opisu badań obrazowych kolana (RTG, MR) zaleca się zwracanie uwagi na ciągłość zarysu wyniosłości międzykłykciowej, jej wysokość, obecność odłamów i ewentualne zwapnienia. Moim zdaniem warto też zapamiętać, że na zdjęciu RTG kolana wyniosłość międzykłykciowa powinna „wpasowywać się” mniej więcej w dół międzykłykciowy kości udowej – zaburzenie tej relacji może sugerować podwichnięcie albo inne nieprawidłowości ustawienia stawu.

Pytanie 13

Warstwa półchłonna (WP) jest wyrażona w mm Cu dla

A. terapii ortowoltowej.
B. diagnostyki radiologicznej.
C. terapii megawoltowej.
D. medycyny nuklearnej.
Warstwa półchłonna to pojęcie wspólne dla wielu dziedzin wykorzystujących promieniowanie jonizujące, ale kluczowe jest, w jakim materiale i dla jakiego zakresu energii ją określamy. Typowy błąd polega na automatycznym przenoszeniu jednego standardu na wszystkie zastosowania. W medycynie nuklearnej wprawdzie też mówi się o osłonach i tłumieniu, ale tam operuje się głównie radionuklidami emitującymi promieniowanie gamma lub beta i używa się ołowiu, wolframu czy betaglasa, a nie milimetrów miedzi jako standardu HVL. Dodatkowo w medycynie nuklearnej bardziej interesuje nas aktywność, czas połowicznego zaniku i dawka pochłonięta niż klasyczna WP dla wiązki rentgenowskiej. W terapii megawoltowej sytuacja jest jeszcze inna. Dla energii rzędu kilku–kilkunastu MV (akceleratory liniowe) miedź nie jest typowym materiałem referencyjnym do określania warstwy półchłonnej. Charakterystyka wiązki opisuje się raczej przez procentową dawkę głęboką (PDD) albo wskaźniki TPR/TMR, a kontrolę jakości prowadzi się w fantomach wodnych i za pomocą wiązki fotonów wysokoenergetycznych, gdzie rolę materiału odniesienia pełni woda lub tkanka ekwiwalentna. W diagnostyce radiologicznej z kolei HVL jak najbardziej się stosuje, ale standardowo w milimetrach aluminium, nie miedzi. Wynika to z niższych energii wiązki diagnostycznej (zwykle 40–120 kV) i historycznych oraz normatywnych zaleceń, np. w regulacjach dotyczących kontroli jakości aparatów RTG. Mylenie mm Al z mm Cu wynika często z tego, że oba pojęcia występują w literaturze i na szkoleniach obok siebie, ale są przypisane do innych zakresów energii i innych zastosowań. Dobra praktyka w ochronie radiologicznej i radioterapii jest taka, żeby zawsze kojarzyć: ortowolt – mm Cu, diagnostyka – mm Al, megawolt – inne wskaźniki jakości wiązki, a w medycynie nuklearnej głównie ekwiwalentne grubości ołowiu i parametry związane z izotopem, a nie klasyczną WP dla promieniowania rentgenowskiego.

Pytanie 14

Na scyntygramie kości strzałkami oznaczono ogniska

Ilustracja do pytania
A. stanów zapalnych.
B. osteoporozy.
C. przerzutów nowotworowych.
D. zmian zwyrodnieniowych.
Na przedstawionym obrazie widzisz klasyczne scyntygram kości całego ciała po podaniu radiofarmaceutyku znakowanego technetem-99m (najczęściej MDP lub HDP). Ogniska zaznaczone strzałkami to tzw. „hot spots” – miejsca wzmożonego gromadzenia znacznika. W praktyce klinicznej, przy takim rozsianym, wieloogniskowym, asymetrycznym wychwycie w kościach osiowych i w nasadach kości długich, najbardziej typowy obraz dotyczy właśnie przerzutów nowotworowych do kości. Moim zdaniem to jest wręcz podręcznikowy przykład rozsianej choroby przerzutowej, np. w raku prostaty czy raku piersi. Radiofarmaceutyk kumuluje się w miejscach zwiększonego obrotu kostnego i aktywności osteoblastów. Przerzut osteoblastyczny powoduje intensywną przebudowę kostną, dlatego na scyntygrafii widzimy liczne, nieregularne, mocno świecące ogniska. Standardy medycyny nuklearnej (EANM, SNMMI) podkreślają, że w ocenie scyntygrafii kości kluczowy jest rozkład zmian: mnogie, rozsiane, różnej wielkości ogniska, szczególnie w kręgosłupie, żebrach, miednicy i bliższych częściach kości udowych, są wysoce podejrzane o przerzuty. W praktyce technik i lekarz zawsze korelują obraz scyntygrafii z wywiadem onkologicznym pacjenta, poziomem PSA, markerami nowotworowymi, a także z badaniami RTG, TK lub MR, żeby potwierdzić charakter zmian. Scyntygrafia jest bardzo czuła, ale mniej swoista, dlatego interpretacja wymaga doświadczenia i znajomości typowych pułapek, takich jak złamania, zwyrodnienia czy ogniska zapalne. W badaniach kontrolnych po leczeniu onkologicznym ten typ obrazu pozwala ocenić progresję lub regresję zmian przerzutowych, co ma duże znaczenie dla dalszego planowania terapii.

Pytanie 15

Strzykawka automatyczna do podawania kontrastu jest stosowana przy wykonywaniu

A. koronarografii.
B. histerosalpingografii.
C. wlewu doodbytniczego.
D. cystografii mikcyjnej.
Automatyczna strzykawka kojarzy się wielu osobom po prostu z każdym badaniem z kontrastem, ale to zbyt duże uproszczenie. Kluczowa sprawa to sposób podania i wymagane ciśnienie oraz prędkość iniekcji. W koronarografii kontrast musi być podawany pod stosunkowo wysokim ciśnieniem, bardzo szybko i w sposób powtarzalny, bo obrazowanie tętnic wieńcowych odbywa się w krótkich sekwencjach, a naczynia są małe i podatne na skurcz. Dlatego używa się specjalnych injektorów automatycznych, które pozwalają dokładnie ustawić tempo przepływu, objętość i moment podania w synchronizacji z aparatem angiograficznym. W histerosalpingografii środek cieniujący jest podawany do jamy macicy i jajowodów. Tutaj absolutnie nie zależy nam na wysokim ciśnieniu, wręcz przeciwnie – podajemy kontrast powoli, kontrolując ból pacjentki i rozchodzenie się środka po jajowodach. Najczęściej używa się zwykłej strzykawki lub prostego zestawu z niewielkim ciśnieniem hydrostatycznym. Podanie z injektora wysokociśnieniowego byłoby ryzykowne i niezgodne z dobrą praktyką. W cystografii mikcyjnej kontrast podaje się do pęcherza moczowego przez cewnik, zazwyczaj grawitacyjnie z worka lub butelki zawieszonej na statywie. Ciśnienie tworzy słup cieczy, a nie tłok strzykawki. Badanie polega na ocenie napełniania i opróżniania pęcherza oraz ewentualnego odpływu wstecznego, więc iniekcja musi być łagodna, kontrolowana, bez gwałtownych zmian. Strzykawka automatyczna nie jest tu ani potrzebna, ani standardowo stosowana. Podobnie we wlewie doodbytniczym (np. wlewie barytowym) kontrast podaje się powoli, zwykle z worka na stojaku, korzystając z grawitacji i regulując wysokość zawieszenia. Chodzi o delikatne wypełnienie jelita grubego, obserwację jego zarysów, haustracji, ewentualnych ubytków cieniowych. Wysokociśnieniowe automatyczne podanie mogłoby wywołać ból, skurcz, a w skrajnych sytuacjach nawet perforację. Typowy błąd myślowy przy tym pytaniu to założenie, że „skoro jest kontrast, to pewnie injektor automatyczny”. W praktyce technik i lekarz dobierają metodę podania do anatomii, wrażliwości tkanek i celu badania. Automatyczna strzykawka jest narzędziem głównie dla badań naczyniowych wysokociśnieniowych, jak koronarografia czy niektóre angiografie, a nie dla klasycznych badań jam ciała z wolnym wypełnianiem.

Pytanie 16

W brachyterapii MDR stosowane są dawki promieniowania

A. od 2,0 do 12 Gy/h
B. od 0,5 do 1,0 Gy/h
C. od 0,2 do 0,4 Gy/h
D. od 0,01 do 0,1 Gy/h
Poprawnie – w brachyterapii typu MDR (medium dose rate) przyjmuje się, że tempo dawki mieści się w zakresie od ok. 2 do 12 Gy/h i to właśnie odpowiada zaznaczonej odpowiedzi. Ten przedział jest ustalony w oparciu o klasyczne podziały ICRU/ICRP na LDR, MDR, HDR i PDR. W praktyce klinicznej takie dawki uzyskuje się głównie przy użyciu źródeł o średniej aktywności i systemów afterloading, gdzie aplikator jest już założony w ciele pacjenta, a źródło jest wsuwane automatycznie pod kontrolą aparatu. Moim zdaniem warto zapamiętać proste skojarzenie: LDR to dawki rzędu dziesiątych części Gy na godzinę, HDR to kilkanaście Gy na godzinę i więcej, a MDR leży właśnie pomiędzy, czyli te 2–12 Gy/h. W tym zakresie dawki mamy jeszcze relatywnie długi czas ekspozycji, liczony w dziesiątkach minut, czasem w godzinach, ale już zdecydowanie krótszy niż przy klasycznej brachyterapii LDR, gdzie źródła pozostawały w pacjencie nawet kilka dni. Z punktu widzenia planowania leczenia tempo dawki wpływa na biologiczny efekt promieniowania – przy MDR można uzyskać pewien kompromis między wygodą organizacyjną (krótszy pobyt pacjenta w osłoniętej sali, większa przepustowość) a korzyściami radiobiologicznymi podobnymi do LDR, np. lepszą tolerancją tkanek zdrowych dzięki częściowej możliwości naprawy subletalnych uszkodzeń. W standardach radioterapii podkreśla się, że przy planowaniu brachyterapii MDR trzeba bardzo dokładnie określić geometrię aplikatorów, zweryfikować położenie w obrazowaniu (najczęściej TK) i kontrolować czas przebywania źródła w poszczególnych pozycjach (tzw. dwell time), bo przy 2–12 Gy/h nawet niewielkie przesunięcie aplikatora albo błąd w czasie może skutkować istotnym przedawkowaniem w krytycznych narządach, np. pęcherzu czy odbytnicy. W wielu ośrodkach MDR jest stosowana np. w leczeniu nowotworów ginekologicznych czy guzów głowy i szyi, gdzie ważne jest połączenie precyzji przestrzennej z umiarkowanym tempem dawki.

Pytanie 17

Wynik badania słuchu metodą audiometrii tonalnej wskazuje na

Ilustracja do pytania
A. słuch w granicach normy.
B. starzenie się narządu słuchu.
C. uraz akustyczny.
D. niedosłuch uwarunkowany genetycznie.
Na przedstawionym audiogramie tonalnym widać bardzo charakterystyczny obraz: słuch w niskich i średnich częstotliwościach jest w zasadzie prawidłowy lub tylko lekko obniżony, natomiast w okolicy 4–6 kHz pojawia się wyraźny, głęboki dołek progów słyszenia. Ten tzw. „notch” w wysokich częstotliwościach jest klasycznym obrazem urazu akustycznego, czyli uszkodzenia narządu Cortiego spowodowanego hałasem o dużym natężeniu. Moim zdaniem, jak się raz to zobaczy na wykresie, to później już trudno pomylić z czymś innym. W praktyce zawodowej, szczególnie w medycynie pracy i w diagnostyce laryngologicznej, taki kształt audiogramu kojarzy się przede wszystkim z narażeniem na hałas impulsowy (wystrzał, petarda, prasa mimośrodowa) albo przewlekły hałas przemysłowy bez odpowiedniej ochrony słuchu. Standardy audiologiczne (zarówno krajowe, jak i np. zalecenia WHO czy OSHA) podkreślają, że pierwsze uszkodzenie od hałasu ujawnia się właśnie w zakresie 3–6 kHz, najczęściej z maksimum około 4 kHz, przy zachowanej w miarę dobrej słyszalności w częstotliwościach mowy (0,5–2 kHz). Dlatego pacjent może jeszcze całkiem nieźle rozumieć mowę w cichym otoczeniu, ale zaczyna mieć problemy w hałasie, skarży się na szumy uszne, dyskomfort przy głośnych dźwiękach. W dobrze prowadzonej praktyce diagnostycznej taki wynik zawsze trzeba połączyć z dokładnym wywiadem: praca w hałasie, strzelectwo, koncerty, słuchawki na uszach, brak stosowania ochronników słuchu. W badaniach okresowych pracowników wynik z typowym dołkiem 4 kHz jest sygnałem, że trzeba pilnie zweryfikować warunki akustyczne stanowiska, stosowanie ochronników i ewentualnie zmodyfikować narażenie. Dobrą praktyką jest też kontrolne powtórzenie audiometrii po okresie unikania hałasu, ale prawdziwy uraz akustyczny niestety jest zmianą trwałą, co warto mieć w głowie przy omawianiu wyniku z pacjentem.

Pytanie 18

W obrazowaniu MR do uwidocznienia naczyń krwionośnych jest stosowana sekwencja

A. EPI
B. DWI
C. TOF
D. STIR
W obrazowaniu MR łatwo się pogubić w nazwach sekwencji i częsty błąd polega na wrzucaniu do jednego worka wszystkich technik „specjalnych”. EPI, DWI czy STIR brzmią bardzo technicznie, ale ich główne zastosowania są zupełnie inne niż uwidacznianie naczyń metodą angiograficzną. W przypadku EPI, czyli echo-planar imaging, mamy do czynienia z bardzo szybką techniką akwizycji, używaną przede wszystkim w badaniach funkcjonalnych mózgu (fMRI) oraz w sekwencjach dyfuzyjnych. EPI jest świetne tam, gdzie liczy się czas – np. w ostrym udarze – ale sama w sobie nie jest standardową sekwencją do angiografii MR. Można na niej zobaczyć naczynia pośrednio, bo w mózgu zawsze coś się odznacza, jednak to nie jest dedykowana metoda do precyzyjnej oceny światła tętnic. DWI, czyli diffusion weighted imaging, służy głównie do oceny dyfuzji wody w tkankach. To podstawa diagnostyki ostrego udaru niedokrwiennego, niektórych guzów, zmian zapalnych czy ropni. Na DWI naczynia nie są celem badania – bardziej interesuje nas ograniczenie dyfuzji w miąższu, a nie morfologia i drożność naczyń. Typowym błędem jest myślenie, że skoro DWI jest „specjalne” i też używane w udarze, to może służy do oglądania naczyń. W praktyce to zupełnie inny kontrast fizyczny niż angiografia TOF. Z kolei STIR (Short Tau Inversion Recovery) to sekwencja tłumiąca sygnał tłuszczu, szeroko stosowana w obrazowaniu układu kostno-stawowego, tkanek miękkich, zmian zapalnych czy urazowych. STIR podkreśla obrzęk, wysięk, zmiany zapalne – naczynia na takim obrazie nie są ani specjalnie wyróżnione, ani dobrze ocenialne pod kątem zwężeń czy tętniaków. Mylenie STIR z technikami naczyniowymi zwykle wynika z tego, że obie są nazywane „specjalnymi sekwencjami”, ale ich fizyka i zastosowanie kliniczne są inne. W standardach dobrej praktyki diagnostyki MR, gdy mówimy o niekontrastowej angiografii, pojawiają się nazwy właśnie takie jak TOF lub PC-MRA (phase contrast), a nie EPI, DWI czy STIR. Dlatego wybór którejkolwiek z tych trzech opcji jako głównej sekwencji do uwidaczniania naczyń jest po prostu niezgodny z tym, jak faktycznie planuje się badanie i jak opisuje się je w protokołach pracowni rezonansu.

Pytanie 19

Największa wartość energii promieniowania stosowanego w radioterapii jest generowana przy użyciu

A. przyspieszacza liniowego.
B. radioaktywnego cezu-137.
C. aparatu kobaltowego.
D. aparatu rentgenowskiego.
W radioterapii łatwo skojarzyć „mocne promieniowanie” z materiałami promieniotwórczymi, takimi jak kobalt‑60 czy cez‑137, albo po prostu z aparatem rentgenowskim, który przecież też emituje promieniowanie jonizujące. To jednak trochę mylące uproszczenie. Kluczowe jest tu pojęcie energii wiązki fotonów lub elektronów oraz możliwość jej wyboru i modulacji. Aparat kobaltowy wykorzystuje izotop Co‑60 i emituje promieniowanie gamma o stałej, z góry określonej energii około 1,25 MeV. Ta energia jest wystarczająca do prowadzenia teleterapii, ale nie daje takiej elastyczności jak nowoczesne przyspieszacze. Dodatkowo źródło kobaltowe cały czas się rozpada, więc aktywność i dawka z czasem spadają, co w praktyce komplikuje planowanie i kontrolę jakości. Cez‑137 ma jeszcze niższą energię fotonów i jest obecnie rzadziej stosowany w teleterapii; historycznie bywał używany, ale dziś raczej kojarzy się z niektórymi aplikatorami brachyterapeutycznymi lub zastosowaniami przemysłowymi, a nie z generowaniem najwyższych energii w radioterapii onkologicznej. Aparat rentgenowski, taki typowy do diagnostyki, pracuje w zakresie kilkudziesięciu do około 150 kV. To oznacza, że energia promieniowania jest znacznie niższa niż w wiązkach megawoltowych z przyspieszacza liniowego. Takie promieniowanie jest świetne do obrazowania, ale dla głębokiej radioterapii nowotworów jest po prostu za miękkie – dawka odkłada się głównie powierzchownie, co zwiększa uszkodzenia skóry i nie pozwala dobrze napromienić guza położonego głęboko. Typowym błędem myślowym jest utożsamianie „radioaktywnego izotopu” z „maksymalną energią”. W praktyce klinicznej najwyższe i najbardziej użyteczne energie wiązek terapeutycznych uzyskuje się w przyspieszaczach liniowych (linacach), gdzie elektrony są rozpędzane w polu elektromagnetycznym do energii kilku–kilkunastu MeV, a następnie wytwarzają wysokoenergetyczne fotony. To właśnie te urządzenia są standardem nowoczesnej radioterapii, a nie klasyczne aparaty kobaltowe, diagnostyczne aparaty RTG czy źródła cezu‑137.

Pytanie 20

Wiązka elektronów najczęściej stosowana jest do leczenia zmian nowotworowych w obrębie

A. macicy.
B. skóry i płytko pod skórą.
C. prostaty.
D. płuc.
Prawidłowo wskazana odpowiedź „skóry i płytko pod skórą” idealnie oddaje główne zastosowanie kliniczne wiązki elektronów w radioterapii. Elektrony mają stosunkowo mały zasięg w tkankach – ich dawka rośnie szybko od powierzchni, osiąga maksimum na kilku–kilkunastu milimetrach głębokości, a potem gwałtownie spada. Moim zdaniem to jest właśnie najważniejszy parametr, który trzeba kojarzyć: krótki zasięg i oszczędzanie głębiej położonych narządów. Dlatego w standardach radioterapii (np. zalecenia ESTRO, krajowe rekomendacje) elektrony stosuje się głównie do leczenia zmian powierzchownych: rak skóry, przerzuty skórne, naciekające blizny pooperacyjne, węzły chłonne leżące płytko, blizna po mastektomii, czasem kikut piersi. W praktyce planowania leczenia fizyk medyczny dobiera energię wiązki elektronów (np. 6 MeV, 9 MeV, 12 MeV) tak, żeby maksymalna dawka pokrywała guz, ale nie „przebijała” zbyt głęboko. To jest właśnie przewaga nad fotonami, które penetrują głęboko i oddają istotną dawkę w narządach położonych za guzem. Wiązka elektronowa pozwala np. napromieniać rozległy rak skóry na czaszce, minimalizując dawkę w mózgu, albo zmiany skórne na klatce piersiowej z ograniczeniem dawki w płucach. Dobrą praktyką jest też stosowanie bolusa (materiału dosłownie położonego na skórze), żeby „przesunąć” maksimum dawki bliżej powierzchni, gdy zmiana jest bardzo płytka. Warto zapamiętać: jak widzisz zmianę nowotworową w skórze lub do ok. 3–4 cm pod skórą, w głowie od razu powinna zapalić się lampka – to potencjalne pole do zastosowania elektronów, oczywiście po weryfikacji onkologicznej i fizycznej.

Pytanie 21

W badaniu EKG odprowadzenie I rejestruje różnicę potencjałów między

A. prawym a lewym przedramieniem.
B. prawym przedramieniem a lewym podudziem.
C. prawym podudziem a lewym przedramieniem.
D. prawym a lewym podudziem.
W zapisie EKG bardzo łatwo pomylić, które elektrody tworzą konkretne odprowadzenia kończynowe, bo wszystkie wyglądają podobnie, a różnica jest czysto funkcjonalna. Kluczowe jest jednak zrozumienie, że odprowadzenia I, II i III wg Einthovena są zdefiniowane ściśle, na stałe, i wynikają z określonego układu elektrod na kończynach. Odprowadzenie I zawsze rejestruje różnicę potencjałów między prawą a lewą kończyną górną, czyli między elektrodą RA a LA. Warianty, w których w odprowadzeniu I bierze się pod uwagę podudzia (kończyny dolne) – niezależnie czy jest to prawe z lewym, czy mieszanki typu przedramię–podudzie – zaburzają tę definicję. To są po prostu inne konfiguracje wektorowe i nie odpowiadają żadnemu standardowemu odprowadzeniu Einthovena. Typowym błędem myślowym jest przekonanie, że skoro wszystkie elektrody kończynowe „biorą udział” w badaniu, to odprowadzenie I może być np. między prawym a lewym podudziem. W rzeczywistości kończyny dolne tworzą biegun tzw. elektrody LL (left leg), który wykorzystywany jest głównie w odprowadzeniach II i III oraz w odprowadzeniach wzmocnionych (aVF). Gdy mieszamy w głowie, która elektroda jest gdzie, łatwo sobie wyobrazić, że każde zestawienie dwóch kończyn może być dowolnym odprowadzeniem – ale tak nie jest, bo aparaty EKG są skonfigurowane zgodnie ze standardami międzynarodowymi. Innym częstym nieporozumieniem jest traktowanie odprowadzeń jak fizycznych przewodów: „kabel z prawej ręki do lewej nogi, to może jest I”. W rzeczywistości aparat matematycznie oblicza różnice potencjałów między parami elektrod RA, LA i LL według określonych wzorów. Jeżeli do odprowadzenia I włączymy nogę (podudzie), to tak naprawdę opisujemy konfigurację odpowiadającą raczej odprowadzeniu II (RA–LL) albo III (LA–LL), a nie I. Z punktu widzenia jakości badania błędne wyobrażenie o tym, które kończyny tworzą dane odprowadzenie, może prowadzić do akceptowania nieprawidłowego podłączenia elektrod. A to już ma realne konsekwencje: zmieniony kształt zespołów QRS, odwrócone załamki P i T, fałszywe podejrzenia zawału czy zaburzeń przewodzenia. Dlatego w dobrej praktyce diagnostyki elektromedycznej zawsze trzymamy się podstawowej zasady: odprowadzenie I – prawa ręka kontra lewa ręka; kończyny dolne w tym odprowadzeniu nie uczestniczą jako bieguny pomiarowe. Moim zdaniem warto sobie to raz porządnie narysować (trójkąt Einthovena) i wtedy wszystko „siada” na swoje miejsce.

Pytanie 22

Które czynności wykonuje technik elektroradiolog w pracowni „gorącej”?

A. Sporządza dokumentację medyczną.
B. Przeprowadza badanie gammakamerą.
C. Przygotowuje radiofarmaceutyk.
D. Układa pacjenta do badania.
W medycynie nuklearnej podział na pracownię „gorącą” i „zimną” nie jest przypadkowy, tylko wynika z organizacji procesu diagnostycznego i zasad ochrony radiologicznej. Typowym błędem jest wrzucanie wszystkich czynności technika elektroradiologa „do jednego worka” i zakładanie, że skoro coś dzieje się w zakładzie medycyny nuklearnej, to na pewno odbywa się w pracowni „gorącej”. Tak niestety nie jest. Układanie pacjenta do badania, ustawianie go pod gammakamerą, dobór pozycji i ewentualne unieruchomienie to czynności typowe dla pracowni „zimnej”, czyli tej, w której znajduje się gammakamera i gdzie odbywa się właściwe obrazowanie. Tam technik dba o komfort pacjenta, poprawne ułożenie względem detektorów, zakres skanowania, sprawdza parametry aparatu, ale samo podłoże radiofarmaceutyczne ma już przygotowane wcześniej. Podobnie przeprowadzenie badania gammakamerą, czyli ustawianie protokołów, akwizycja obrazów, kontrola jakości obrazu i ewentualne powtarzanie sekwencji, to etap diagnostyczny, a nie etap przygotowania substancji promieniotwórczej. To jest inny odcinek pracy, zwykle realizowany w innej sali, często fizycznie oddzielonej, żeby ograniczyć ryzyko skażeń i lepiej kontrolować narażenie personelu. Sporządzanie dokumentacji medycznej też bywa mylące. Owszem, technik prowadzi dużo dokumentacji, ale sama dokumentacja pacjenta, opis przebiegu badania, dane do systemu RIS/PACS są związane głównie z procesem diagnostycznym i organizacją pracy, a nie z typową definicją czynności w pracowni „gorącej”. W „gorącej” dokumentacja dotyczy przede wszystkim obrotu źródłami promieniotwórczymi, aktywności, terminów ważności, odpadów, kontroli skażeń. Typowy błąd myślowy polega więc na myleniu miejsca (pracownia „gorąca”) z całym zakładem medycyny nuklearnej i na tym, że kojarzymy najbardziej „widoczny” etap, czyli badanie gammakamerą i kontakt z pacjentem, a zapominamy o mniej spektakularnym, ale bardzo kluczowym etapie przygotowania radiofarmaceutyku, który odbywa się właśnie w pracowni „gorącej”.

Pytanie 23

Podczas wykonywania zdjęcia rentgenowskiego lewobocznego czaszki promień centralny powinien przebiegać

A. od prawej do lewej strony czaszki, prostopadle do płaszczyzny strzałkowej.
B. od lewej do prawej strony czaszki, prostopadle do płaszczyzny strzałkowej.
C. od prawej do lewej strony czaszki, prostopadle do płaszczyzny czołowej.
D. od lewej do prawej strony czaszki, prostopadle do płaszczyzny czołowej.
Prawidłowa odpowiedź wynika z geometrii ułożenia pacjenta i definicji płaszczyzn anatomicznych. W projekcji lewobocznej czaszki badana jest lewa strona głowy, czyli to ona powinna przylegać do detektora (kasety). Żeby uzyskać obraz lewej strony możliwie ostry i bez powiększenia, promień centralny musi przechodzić z prawej do lewej strony czaszki – od strony lampy w kierunku detektora. To jest klasyczna zasada w radiografii: część badana bliżej detektora, lampa po stronie przeciwnej. Dodatkowo promień powinien być prostopadły do płaszczyzny strzałkowej, bo ta płaszczyzna dzieli ciało na część prawą i lewą. W lewym bocznym zdjęciu czaszki płaszczyzna strzałkowa pacjenta jest ustawiona równolegle do detektora, więc prostopadły do niej promień daje prawidłową, „czystą” projekcję boczną, bez skośnego nałożenia struktur. Płaszczyzna czołowa (frontalna) w tym ustawieniu jest z kolei prostopadła do detektora, więc promień padający prostopadle do niej dałby projekcję czołową, a nie boczną. W praktyce technik ustawia pacjenta bokiem do detektora, wyrównuje linie anatomiczne (np. linia między kątem oka a przewodem słuchowym zewnętrznym), sprawdza brak rotacji i pochyleń, a potem centralny promień kieruje z prawej na lewą, pod kątem 90° do płaszczyzny strzałkowej. Tak się uzyskuje standardowe boczne RTG czaszki zgodne z atlasami i wytycznymi radiologicznymi. Moim zdaniem warto sobie to zwizualizować na modelu czaszki, bo wtedy łatwiej zapamiętać, że „boczne = promień prostopadły do płaszczyzny strzałkowej, po stronie przeciwnej do badanej”.

Pytanie 24

Jaka jest odległość pomiędzy źródłem promieniowania a powierzchnią ciała pacjenta w technice izocentrycznej radioterapii?

A. Stała i wynosi 100 cm.
B. Zmienna, zależna od lokalizacji punktu izocentrycznego w ciele pacjenta.
C. Stała i wynosi 110 cm.
D. Zmienna, zależna od grubości pacjenta i rodzaju akceleratora.
Nieporozumienia w tym pytaniu biorą się najczęściej z mylenia dwóch pojęć: odległości źródło–skóra (SSD, source–skin distance) i odległości źródło–izocentrum (SID lub SAD, source–axis distance). W starszych, prostszych technikach radioterapii opartych na stałej SSD faktycznie często ustawiano pacjenta tak, aby odległość od źródła do powierzchni skóry wynosiła np. 100 cm. Stąd łatwo powstaje automatyczne skojarzenie, że „w radioterapii zawsze jest 100 cm” i że ta odległość jest stała. Jednak w technice izocentrycznej logika jest inna: stała ma być odległość od źródła do osi obrotu, czyli do izocentrum, a nie do skóry. Przekonanie, że odległość źródło–skóra jest zawsze 100 cm lub 110 cm, wynika często z pamiętania parametrów geometrycznych konkretnego akceleratora albo z uproszczonych schematów z podręcznika. Rzeczywiście, wiele akceleratorów ma zdefiniowaną stałą odległość źródło–izocentrum, np. 100 cm, i czasami studenci przenoszą to bezrefleksyjnie na powierzchnię ciała. Problem w tym, że powierzchnia pacjenta nie pokrywa się z izocentrum – pacjent ma swoją grubość, różne krzywizny, garby kostne, tkankę tłuszczową. Gdy izocentrum planuje się głęboko, np. w guzie płuca czy w miednicy, to geometrycznie nie ma możliwości, żeby jednocześnie utrzymać stałą odległość do skóry i stałą odległość do izocentrum. Zdarza się też inny błąd myślowy: ktoś zakłada, że odległość zależy głównie od „grubości pacjenta i rodzaju akceleratora”. Oczywiście, grubość ciała wpływa na to, jaka faktycznie wyjdzie SSD, a konstrukcja akceleratora narzuca pewne minimalne i maksymalne odległości, ale to nie jest parametr, który świadomie ustawiamy jako stały w technice izocentrycznej. W tej technice celem jest ustawienie punktu izocentrycznego w odpowiednim miejscu w ciele, zgodnie z planem leczenia. To lokalizacja tego punktu – w guzie, w PTV – decyduje, jak daleko od głowicy będzie leżała skóra w danym polu i kącie gantry. Innymi słowy: to geometria ustawienia izocentrum względem anatomii pacjenta robi całą robotę, a nie sama grubość czy typ maszyny. Moim zdaniem warto zapamiętać pewną prostą zasadę praktyczną: jeśli mówimy o technice izocentrycznej, to myślimy w kategoriach „stałe SAD, zmienne SSD”. Wtedy łatwiej uniknąć pokusy przyklejania się do magicznych liczb 100 cm czy 110 cm jako czegoś niezmiennego. W nowoczesnych standardach radioterapii, zwłaszcza przy IMRT, VMAT, stereotaksji, planowanie zawsze obraca się wokół izocentrum i objętości tarczowych, a nie wokół odległości od skóry. To podejście jest po prostu bardziej precyzyjne i bezpieczne dla pacjenta.

Pytanie 25

Po wykonanej radioterapii do dokumentacji pacjenta należy wpisać dawkę promieniowania w jednostce

A. Grej (Gy)
B. Siwert (Sv)
C. Kiur (Ci)
D. Bekerel (Bq)
W radioterapii bardzo łatwo pomylić różne jednostki związane z promieniowaniem, bo wszystkie brzmią dość podobnie i wszystkie pojawiają się w materiałach z fizyki medycznej. Kluczowa sprawa jest taka, że po napromienianiu pacjenta interesuje nas dawka pochłonięta w tkankach, a tę dawkę opisujemy w grejach (Gy). Pozostałe podane jednostki dotyczą zupełnie innych wielkości fizycznych i używanie ich w dokumentacji dawki po radioterapii byłoby po prostu niezgodne z praktyką kliniczną i ze standardami. Kiur (Ci) to stara, pozaukładowa jednostka aktywności promieniotwórczej. Mówi nam, jak intensywnie rozpada się źródło promieniotwórcze, ile rozpadów na sekundę zachodzi, ale nic nie mówi o tym, ile energii zostało pochłonięte przez pacjenta. W nowoczesnej medycynie zamiast Ci stosuje się głównie bekerel (Bq), właśnie jako jednostkę aktywności. Używanie Ci czy Bq do opisu dawki po radioterapii to typowy błąd: ktoś myli „siłę” źródła z efektem biologicznym w tkance. Siwert (Sv) z kolei opisuje dawkę równoważną albo skuteczną, czyli dawkę uwzględniającą rodzaj promieniowania i wrażliwość tkanek. Jest kluczowy w ochronie radiologicznej, przy ocenie narażenia personelu czy populacji, ale nie służy do zapisywania dawek terapeutycznych w planie radioterapii. W dokumentacji leczenia onkologicznego nie wpisujemy: „pacjent otrzymał 60 Sv”, tylko 60 Gy, bo mówimy o dawce fizycznej, pochłoniętej. Bekerel (Bq) to znowu jednostka aktywności, używana głównie w medycynie nuklearnej i przy opisie źródeł w brachyterapii, ale nie jako dawka podana pacjentowi, tylko jako parametr źródła. Z mojego doświadczenia najczęstszy schemat myślowy jest taki: „wszystko z promieniowaniem to dawka, więc każda jednostka promieniowania się nada”. Niestety tak nie jest. Każda z tych jednostek dotyczy innej wielkości i ma swoje miejsce: Gy do dawki pochłoniętej (radioterapia), Sv do oceny ryzyka biologicznego (ochrona radiologiczna), Bq/Ci do aktywności źródła (medycyna nuklearna, brachyterapia). W dokumentacji po wykonanej radioterapii jedynym poprawnym wyborem do wpisania dawki napromieniania pozostaje grej.

Pytanie 26

W standardowym badaniu elektrokardiograficznym elektrodę C4 należy umieścić

A. w IV międzyżebrzu przy prawym brzegu mostka.
B. w V międzyżebrzu w linii środkowo-obojczykowej lewej.
C. w V międzyżebrzu w linii przedniej pachowej.
D. w IV międzyżebrzu przy lewym brzegu mostka.
W standardowym 12‑odprowadzeniowym EKG wszystkie elektrody przedsercowe mają bardzo precyzyjnie określone miejsca, a pomyłka o jedno międzyżebrze potrafi istotnie zafałszować zapis. Wiele osób myli te lokalizacje, bo nazwy odprowadzeń i ich skróty (V1–V6, C1–C6) wydają się podobne, a w praktyce wszystko „wygląda” podobnie na klatce piersiowej. Dlatego dobrze jest oprzeć się na anatomii, a nie na intuicji. Elektrodę umieszczaną w V międzyżebrzu w linii przedniej pachowej lewej stosuje się jako V5, a nie V4/C4. To odprowadzenie bardziej boczne, służy do oceny ściany bocznej lewej komory. Jeśli w tym miejscu położymy V4, to cały układ przedsercowy się „rozjedzie” i interpretacja ściany przedniej serca będzie wątpliwa. Z kolei IV międzyżebrze przy lewym brzegu mostka to miejsce dla V2/C2. To odprowadzenie rejestruje aktywność elektryczną z przegrody międzykomorowej i częściowo przedniej ściany. Przeniesienie tam V4 spowoduje, że zamiast typowego obrazu z okolicy koniuszka serca, dostaniemy coś w rodzaju mieszanego zapisu przegrodowo‑przedniego. To może np. zamaskować wczesne zmiany niedokrwienne w rejonie koniuszka. IV międzyżebrze przy prawym brzegu mostka to z kolei klasyczne miejsce dla V1/C1. To odprowadzenie „patrzy” bardziej na prawą komorę i przegrodę. Umieszczenie tam C4/V4 całkowicie zmienia sens zapisu, bo nagle odprowadzenie, które ma oceniać lewą komorę, zaczyna rejestrować sygnał z prawej strony. Typowy błąd myślowy polega na tym, że ktoś zapamiętuje tylko „IV międzyżebrze przy mostku” albo „V międzyżebrze gdzieś z boku” bez rozróżniania prawej i lewej strony oraz linii anatomicznych: mostkowej, środkowo‑obojczykowej, pachowej. Dobra praktyka jest taka: najpierw znajdź dokładnie IV międzyżebrze przy prawym brzegu mostka (V1), potem lewy brzeg (V2), policz żeberka do V międzyżebrza i dopiero tam, w linii środkowo‑obojczykowej lewej, kładziesz V4/C4. Wszystko inne to kompromis, który obniża wiarygodność badania i może w praktyce utrudnić rozpoznanie zawału czy zaburzeń przewodzenia.

Pytanie 27

Do prób aktywacyjnych stosowanych w badaniu EEG zalicza się

A. próbę hipowentylacyjną.
B. rytmiczne błyski świetlne.
C. otwieranie i zamykanie ust.
D. wstrzymanie oddechu.
Prawidłowo wskazana odpowiedź to rytmiczne błyski świetlne, czyli tzw. fotostymulacja. W standardowym badaniu EEG jest to jedna z podstawowych prób aktywacyjnych, obok hiperwentylacji. Polega na podawaniu pacjentowi serii błysków o różnej częstotliwości, zwykle w zakresie kilku–kilkunastu Hz, przy zamkniętych oczach. Celem jest wywołanie reakcji bioelektrycznej mózgu na bodziec wzrokowy i sprawdzenie, czy zapis EEG prawidłowo reaguje na taką stymulację. U osoby zdrowej obserwuje się tzw. odpowiedź fotyczną, zsynchronizowaną z częstotliwością błysków, bez wyładowań napadowych. U pacjentów z padaczką światłoczułą mogą pojawić się wyładowania iglicowo-falowe lub wręcz napad, dlatego badanie wykonuje się ostrożnie, zgodnie z procedurą. W praktyce technik EEG musi zadbać o prawidłowe ustawienie lampy stroboskopowej (odpowiednia odległość od oczu, kąt, natężenie światła), poinformować pacjenta, co będzie się działo, i obserwować jego stan kliniczny w trakcie fotostymulacji. Moim zdaniem ważne jest też, żeby pamiętać, że nie każdy pacjent toleruje błyski tak samo – u osób z migreną czy nadwrażliwością wzrokową trzeba być szczególnie uważnym. Z punktu widzenia standardów pracowni EEG, fotostymulacja jest elementem rutynowego protokołu, bo pozwala wykryć zmiany napadowe, które w spoczynku mogłyby się nie ujawnić. W dokumentacji opisu badania zwykle odnotowuje się, czy reakcja na stymulację świetlną była prawidłowa, czy wystąpiły zmiany napadowe, brak odpowiedzi, albo reakcja paradoksalna. To wszystko ma duże znaczenie diagnostyczne, szczególnie u młodych pacjentów z podejrzeniem padaczki idiopatycznej.

Pytanie 28

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w tygodniu.
B. w roku.
C. w miesiącu.
D. w kwartale.
W diagnostyce obrazowej bardzo łatwo przecenić albo nie docenić częstości wykonywania testów kontroli jakości. Przy testach geometrii pola rentgenowskiego, czyli sprawdzaniu zgodności pola wiązki z symulacją świetlną, myślenie w stylu „raz w roku wystarczy, przecież aparat ma przegląd serwisowy” jest dość typowym błędem. Przegląd roczny jest ważny, ale dotyczy głównie pełnego serwisu, bezpieczeństwa elektrycznego, kalibracji systemowej. Geometria głowicy, kolimatora, mechaniki stołu i statywu potrafi się delikatnie rozjechać dużo szybciej, chociażby przez codzienną eksploatację, uderzenia, luzowanie się elementów. Gdyby taki test robić tylko raz w roku, to przez wiele miesięcy można by pracować na sprzęcie, który nieprawidłowo wyznacza pole napromieniania, co skutkuje albo niepotrzebnym zwiększeniem napromienianej objętości pacjenta, albo ucięciem istotnych struktur na obrazie. Z drugiej strony zbyt częste testowanie, np. co tydzień, też nie jest rozsądne. To nie jest test dzienny jak sprawdzenie ogólnej sprawności systemu czy prosty test wizualny. Comiesięczny cykl to kompromis między bezpieczeństwem, realnymi możliwościami organizacyjnymi pracowni a stabilnością parametrów geometrycznych współczesnych aparatów RTG. Comiesięczne testy pozwalają wyłapać stopniowe zmiany zanim staną się krytyczne, ale nie blokują pracy zespołu ciągłymi pomiarami. Podobnie mylące jest myślenie o kontroli geometrycznej jako o zadaniu „na kwartał”. Kwartalne odstępy są stosowane raczej przy niektórych testach bardziej stabilnych parametrów, jednak zgodność pola świetlnego i promieniowania jest kluczowa przy każdym badaniu, więc nie powinna być zostawiona bez weryfikacji przez trzy miesiące. Z mojego doświadczenia, jeśli ktoś przyjmuje zbyt rzadkie testy, to zwykle wynika to z niedoceniania wpływu geometrii na dawkę i jakość obrazu. A to właśnie geometra pola decyduje, czy to co na lampie „widzimy”, rzeczywiście jest tym, co napromieniamy. Dlatego poprawnym, zgodnym ze standardami podejściem jest traktowanie tego testu jako badania comiesięcznego, a nie rocznego, kwartalnego czy tygodniowego.

Pytanie 29

Zgodnie ze standardami do wykonania zdjęcia bocznego czaszki, należy zastosować kasetę o wymiarze

A. 24 × 30 cm i ułożyć poprzecznie.
B. 18 × 24 cm i ułożyć podłużnie.
C. 24 × 30 cm i ułożyć podłużnie.
D. 18 × 24 cm i ułożyć poprzecznie.
W doborze kasety do zdjęcia bocznego czaszki kluczowe jest dopasowanie formatu i ułożenia do rzeczywistych wymiarów głowy w tej projekcji. Częsty błąd myślowy polega na tym, że ktoś patrzy na czaszkę „z przodu” i wydaje mu się, że mniejszy format 18 × 24 cm wystarczy, bo przecież głowa nie jest aż tak duża. Problem w tym, że w projekcji bocznej liczy się długość czaszki od kości czołowej do potylicznej, a ta długość jest wyraźnie większa niż szerokość widoczna w projekcji AP/PA. Dlatego kaseta 18 × 24 cm, niezależnie czy ułożona podłużnie czy poprzecznie, zwykle nie zapewnia odpowiedniego marginesu. W praktyce może to skutkować obcięciem części kości potylicznej albo czołowej, co automatycznie obniża wartość diagnostyczną badania i często wymusza powtórkę ekspozycji, a to już jest niepotrzebne narażenie pacjenta. Drugie typowe nieporozumienie dotyczy ułożenia kasety 24 × 30 cm. Intuicyjnie ktoś może chcieć ułożyć ją podłużnie, bo „tak się robi w klatce piersiowej” czy w kończynach, albo po prostu lubi mieć dłuższy bok pionowo. W obrazie bocznym czaszki takie ułożenie nie wykorzystuje jednak optymalnie kształtu anatomicznego głowy. Czaszka w bocznej projekcji jest bardziej „wydłużona” w osi przednio–tylnej niż w osi czaszka–czubek–podstawa, więc to właśnie poprzeczne ułożenie kasety zapewnia lepsze dopasowanie dłuższego boku do długości czaszki. Ustawienie podłużne zwiększa ryzyko, że przy minimalnym błędzie pozycjonowania obetniemy część struktur z przodu lub z tyłu. Z mojego doświadczenia wynika, że większość takich błędów wynika z automatyzmu: technik przyzwyczajony do jednego formatu i jednego sposobu układania kaset przenosi to bezrefleksyjnie na inne badanie. Tymczasem dobre praktyki i standardy radiologiczne zalecają myślenie „anatomia + geometria promieniowania”: najpierw wyobrażamy sobie, jak wygląda rzutowana część ciała w danej projekcji, potem dobieramy format i orientację kasety tak, żeby mieć z każdej strony zapas kilku centymetrów. W przypadku bocznej czaszki daje to właśnie 24 × 30 cm w ułożeniu poprzecznym jako rozwiązanie najbardziej bezpieczne i powtarzalne.

Pytanie 30

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co 6 miesięcy.
B. co najmniej raz na 24 miesiące.
C. co miesiąc.
D. co najmniej raz na 12 miesięcy.
W przypadku testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych bardzo łatwo pomylić je z innymi rodzajami kontroli jakości, które robi się częściej. Stąd biorą się odpowiedzi typu „co miesiąc” czy „co 6 miesięcy”. W codziennej praktyce faktycznie wykonuje się różne sprawdzenia – np. testy podstawowe, bieżącą ocenę jakości obrazu, testy eksploatacyjne po naprawie. To jednak nie są testy specjalistyczne w rozumieniu przepisów ochrony radiologicznej i nadzoru nad aparaturą rentgenowską. Zbyt krótki, comiesięczny lub półroczny interwał jest w tym kontekście nadinterpretacją wymagań. Można oczywiście wykonywać takie pomiary częściej z własnej inicjatywy, ale prawo mówi o minimalnej częstości testów specjalistycznych, a nie o maksymalnym dopuszczalnym odstępie pomiędzy dowolnymi kontrolami. Typowym błędem myślowym jest tu wrzucenie do jednego worka wszystkich rodzajów testów: podstawowych, specjalistycznych, odbiorczych i okresowych. Tymczasem testy specjalistyczne są bardziej rozbudowane, zwykle prowadzone przez uprawnionego fizyka medycznego lub inspektora, z użyciem profesjonalnych fantomów i przyrządów pomiarowych, i dlatego ich cykl jest dłuższy. Z kolei odpowiedź „co najmniej raz na 12 miesięcy” sugeruje intuicyjne przekonanie, że „raz w roku” to taki bezpieczny, standardowy okres dla każdej kontroli technicznej. W wielu dziedzinach faktycznie tak jest, ale w diagnostyce stomatologicznej dla aparatów wewnątrzustnych przepisy dopuszczają dłuższy, dwuletni okres między testami specjalistycznymi. Nie oznacza to oczywiście, że aparat może działać „samopas” przez dwa lata. Nadal obowiązują testy podstawowe, bieżąca obserwacja jakości zdjęć, kontrola dokumentacji dawek i reagowanie na wszelkie nieprawidłowości. Jednak formalny, pełny test specjalistyczny, z kompleksową oceną dawki, warstwy półchłonnej, geometrii wiązki i stabilności parametrów, musi być wykonany co najmniej raz na 24 miesiące. Moim zdaniem ważne jest rozróżnienie między racjonalną ostrożnością a wymogami prawnymi i organizacyjnymi. Jeśli ktoś odpowiada krótszym okresem, zwykle kieruje się chęcią „większego bezpieczeństwa”, ale nie odróżnia, które testy są wymagane jak często. Dobra praktyka to zapamiętać: testy specjalistyczne dla aparatów do zdjęć wewnątrzustnych – maksymalnie co 2 lata, a wszystko, co dzieje się częściej, to już inne kategorie kontroli jakości i nadzoru nad pracą aparatu.

Pytanie 31

Dobierz dla standardowego pacjenta projekcję, pozycję i sposób ułożenia kasety o wymiarach 30 cm × 40 cm do zdjęcia przeglądowego układu moczowego.

ProjekcjaPozycjaUłożenie kasety
1.AP3.stojąca5.poprzeczne
2.PA4.leżąca6.podłużne
A. 2, 3, 6
B. 1, 4, 6
C. 1, 3, 5
D. 2, 4, 5
Prawidłowy zestaw to projekcja AP, pozycja leżąca i ułożenie kasety podłużne, czyli odpowiedź 1, 4, 6. W badaniu przeglądowym układu moczowego (tzw. KUB – nerki, moczowody, pęcherz) standardem jest projekcja przednio‑tylna, bo pacjent leży na plecach, a promień główny biegnie z przodu do tyłu. Taka projekcja AP daje stabilne warunki, małą odległość narządów od kasety i mniejsze zniekształcenia obrazu. Pozycja leżąca jest szczególnie ważna u pacjenta standardowego, bo pozwala dobrze odwzorować zarysy nerek, przebieg moczowodów i zarys pęcherza, bez wpływu przesunięć narządów związanych z grawitacją, które w pozycji stojącej mogą trochę zmieniać położenie struktur. Z mojego doświadczenia, w pozycji leżącej łatwiej też pacjentowi spokojnie wytrzymać ekspozycję i utrzymać bezruch. Kasetę 30×40 cm układamy podłużnie (dłuższy bok w osi długiej ciała), bo musimy objąć od górnych biegunów nerek aż po dolny brzeg spojenia łonowego, gdzie znajduje się pęcherz moczowy. Przy poprzecznym ustawieniu tej kasety zwyczajnie zabrakłoby nam zasięgu w osi czaszkowo‑ogonowej. W praktyce radiologicznej takie ułożenie – AP, leżąca, kaseta podłużnie – jest opisywane w podręcznikach i wytycznych jako podstawowy standard projekcyjny dla przeglądowego RTG jamy brzusznej pod kątem układu moczowego. Warto też pamiętać o prawidłowym centrowaniu: środek kasety zwykle na poziomie grzebieni biodrowych, z lekką korektą w zależności od wzrostu pacjenta, oraz o odległości ognisko–kaseta ok. 100–115 cm, co poprawia ostrość i ogranicza powiększenie anatomicznych struktur.

Pytanie 32

Glukoza podawana pacjentowi w badaniu PET jest znakowana radioaktywnym

A. fluorem.
B. technetem.
C. torem.
D. fosforem.
W badaniu PET standardowym radiofarmaceutykiem jest 18F-FDG, czyli deoksyglukoza znakowana izotopem fluoru-18. To właśnie fluor jest tutaj kluczowy. Jest to emiter pozytonów, który po podaniu dożylnym ulega rozpadowi, a powstające pozytony anihilują z elektronami w tkankach pacjenta. W wyniku anihilacji powstają dwie kwanty promieniowania gamma o energii 511 keV, lecące w przeciwnych kierunkach. Detektory w skanerze PET rejestrują te dwa fotony w koincydencji i na tej podstawie system rekonstruuje trójwymiarowy rozkład aktywności radiofarmaceutyku w organizmie. Dzięki temu można ocenić metabolizm glukozy w różnych narządach, głównie w mózgu, mięśniu sercowym oraz w tkance nowotworowej. W praktyce klinicznej 18F-FDG jest złotym standardem w onkologii, np. przy ocenie zaawansowania chłoniaków, raka płuca czy monitorowaniu odpowiedzi na chemioterapię. Moim zdaniem warto zapamiętać, że fluor-18 ma stosunkowo krótki czas połowicznego zaniku (ok. 110 minut), co z jednej strony wymaga dobrej logistyki (cyklotron, pracownia radiofarmacji, szybki transport), ale z drugiej ogranicza dawkę skuteczną dla pacjenta. Z punktu widzenia technika medycyny nuklearnej ważne jest też to, że FDG zachowuje się bardzo podobnie do naturalnej glukozy: wnika do komórek poprzez transportery GLUT, jest fosforylowana, ale dalej nie bierze udziału w glikolizie, więc „zatrzymuje się” w komórkach o wysokim metabolizmie. To właśnie pozwala obrazować ogniska nowotworowe, procesy zapalne czy żywotność mięśnia sercowego zgodnie z obowiązującymi protokołami i standardami EANM czy SNMMI.

Pytanie 33

Zamieszczony rentgenogram został zarejestrowany podczas wykonania

Ilustracja do pytania
A. angiografii nerkowej TK.
B. urografii TK.
C. urografii.
D. angiografii nerkowej.
Na obrazie widać klasyczny wynik urografii – czyli badania RTG z dożylnym podaniem jodowego środka cieniującego, który jest wydalany przez nerki i wypełnia układ kielichowo‑miedniczkowy, moczowody oraz pęcherz. Charakterystyczne jest to, że widoczne są obustronnie miedniczki nerkowe i kielichy, zarys moczowodów oraz dobrze wypełniony pęcherz moczowy w projekcji AP. Nie ma tu żadnych przekrojów warstwowych ani typowych artefaktów rekonstrukcji znanych z tomografii komputerowej, tylko pojedynczy obraz płaski, jak klasyczne zdjęcie rentgenowskie. To dokładnie odpowiada urografii dożylnej (IVU, IVP). Moim zdaniem warto zapamiętać, że w urografii obraz jest „konturowy”: widzimy kontrast w drogach moczowych na tle kośćca, bez możliwości oceny przekrojowej miąższu nerki. W praktyce technik radiologii musi pamiętać o sekwencji zdjęć: przeglądowe jamy brzusznej, a następnie zdjęcia po określonym czasie od podania kontrastu (np. 5, 10, 15 minut), czasem dodatkowe projekcje skośne albo zdjęcia późne. Standardy pracowni radiologicznych zalecają też odpowiednie przygotowanie pacjenta – opróżnienie przewodu pokarmowego, nawodnienie, wykluczenie przeciwwskazań do jodowego kontrastu. W odróżnieniu od badań TK tutaj pracujemy z niższą dawką i prostszą aparaturą, ale za to z większym znaczeniem prawidłowego pozycjonowania i kontroli czasu ekspozycji, żeby uchwycić właściwą fazę wydzielniczą nerek. W codziennej praktyce urografia klasyczna jest dziś rzadsza, wypierana przez TK, ale nadal bywa wykonywana, zwłaszcza tam, gdzie dostęp do tomografii jest ograniczony lub gdy chcemy prostą ocenę drożności moczowodów.

Pytanie 34

Przedstawiony zapis elektrokardiograficzny może wskazywać na

Ilustracja do pytania
A. blok lewej odnogi pęczka Hisa.
B. blok prawej odnogi pęczka Hisa.
C. zawał tylnej ściany serca.
D. zawał przedniej ściany serca.
To EKG bardzo łatwo pomylić z zawałem ściany przedniej, bo wysokie zespoły w odprowadzeniach V1–V3 potrafią wyglądać nieco „groźnie”. Jednak w ostrym zawale przedniej ściany spodziewamy się uniesień odcinka ST w przedsercowych odprowadzeniach lewokomorowych (V2–V4), często z pojawieniem się patologicznych załamków Q oraz zmianami zwrotnymi w odprowadzeniach przeciwstawnych. Tutaj natomiast odcinek ST nie ma typowego, kopulastego uniesienia, a główną cechą jest poszerzenie i specyficzna morfologia QRS, co przemawia za zaburzeniem przewodzenia, a nie ostrym niedokrwieniem. Równie kuszące bywa rozpoznanie zawału ściany tylnej, zwłaszcza gdy patrzymy na V1–V2 i widzimy wysokie załamki R. W zawale tylnej ściany klasycznie pojawiają się jednak zmiany lustrzane: wysokie R w V1–V2, obniżenia ST i dodatnie T jako odbicie uniesień ST i patologicznych Q w odprowadzeniach tylnych (V7–V9). Tu morfologia ma jednak charakterystyczny układ rsR’ z wyraźnym poszerzeniem QRS, a nie typowe zmiany odcinka ST, co bardziej pasuje do bloku przewodzenia niż do ostrego zawału. Jeśli chodzi o blok lewej odnogi pęczka Hisa, to obraz EKG byłby zupełnie inny. W LBBB zespoły QRS są szerokie, ale dominują bardzo szerokie, często zniekształcone załamki R w V5–V6 oraz głębokie, szerokie S w V1–V3. Dodatkowo w LBBB depolaryzacja lewej komory jest wyraźnie opóźniona, co całkowicie zmienia wektor QRS i utrudnia ocenę niedokrwienia. Tutaj natomiast w odprowadzeniach lewokomorowych widzimy raczej szerokie S niż olbrzymie R, a „królicze uszy” pojawiają się w V1, co jest typowe dla RBBB. Typowy błąd myślowy przy takich zapisach polega na skupianiu się tylko na amplitudzie załamków R lub T i emocjonalnej reakcji na „dziwnie wyglądające” zespoły, zamiast przeprowadzić spokojną, krok po kroku analizę: rytm, częstość, oś elektryczna, szerokość QRS, morfologia w kluczowych odprowadzeniach. Trzymanie się tej systematyki i znajomość kryteriów bloków odnóg według wytycznych ESC/AHA pozwala uniknąć pochopnego rozpoznawania zawału tam, gdzie mamy do czynienia z przewlekłym zaburzeniem przewodzenia.

Pytanie 35

Wskazaniem do wykonania scyntygrafii perfuzyjnej jest

A. zatorowość płucna.
B. zapalenie płuc.
C. ropień płuca.
D. ciężkie nadciśnienie płucne.
Prawidłowo – klasycznym, wręcz podręcznikowym wskazaniem do wykonania scyntygrafii perfuzyjnej płuc jest właśnie podejrzenie zatorowości płucnej. Badanie perfuzyjne ocenia rozkład przepływu krwi w łożysku naczyniowym płuc, czyli mówiąc prościej: sprawdza, czy krew dociera równomiernie do wszystkich obszarów miąższu płucnego. W zatorowości płucnej fragment tętnicy płucnej zostaje zamknięty przez skrzeplinę, więc radiofarmaceutyk podany dożylnie nie dociera do odpowiedniego segmentu płuca i na obrazie scyntygraficznym widzimy ubytki perfuzji. Klasyczne jest porównywanie perfuzji z wentylacją (badanie V/Q – ventilation/perfusion). W zatorowości płucnej pojawiają się tzw. niezgodne ubytki: wentylacja jest zachowana, a perfuzja w danym obszarze jest wyraźnie upośledzona. To właśnie ten wzorzec w praktyce klinicznej bardzo silnie sugeruje zatorowość. Moim zdaniem warto zapamiętać, że scyntygrafia perfuzyjna jest szczególnie przydatna u pacjentów, u których nie można wykonać angio-TK (np. ciężka niewydolność nerek, uczulenie na jodowy środek kontrastowy, ciąża przy ograniczaniu dawki promieniowania). W wielu wytycznych medycyny nuklearnej i pulmonologii podkreśla się, że przy prawidłowym badaniu V/Q prawdopodobieństwo istotnej zatorowości jest bardzo małe. W codziennej pracy technika elektroradiologii ważne jest prawidłowe przygotowanie radiofarmaceutyku (najczęściej makroagregaty albuminy znakowane technetem-99m), odpowiednie ułożenie pacjenta, wykonanie kilku projekcji oraz współpraca z lekarzem w ocenie jakości obrazu. Dobrą praktyką jest też zawsze korelowanie wyniku scyntygrafii z obrazem RTG klatki piersiowej, żeby nie pomylić ubytków perfuzji z rozległymi zmianami strukturalnymi płuc.

Pytanie 36

Podczas którego badania zostały zarejestrowane przedstawione obrazy?

Ilustracja do pytania
A. Tomografii nerek.
B. Scyntygrafii tarczycy.
C. Scyntygrafii nerek.
D. Ultrasonografii tarczycy.
Prawidłowo wskazana została scyntygrafia nerek. Na przedstawionych obrazach widać typowy, barwny rozkład radioaktywności w obrębie obu nerek, uzyskany gammakamerą po dożylnym podaniu radiofarmaceutyku (najczęściej 99mTc‑DTPA, 99mTc‑MAG3 albo 99mTc‑EC). Charakterystyczne jest to, że obrazy są „plamiste”, kolorowe (skala pseudokolorów: czerwony, żółty, niebieski) i pokazują głównie funkcję narządu – czyli jak szybko znacznik jest wychwytywany i wydalany przez nerki – a nie ich dokładną anatomię. Moim zdaniem to jedna z najważniejszych różnic między scyntygrafią a TK czy USG: tu patrzymy przede wszystkim na czynność, a dopiero w drugiej kolejności na kształt. W praktyce klinicznej scyntygrafia nerek służy do oceny przesączania kłębuszkowego, drenażu z miedniczek nerkowych, udziału każdej nerki w całkowitej funkcji (tzw. funkcja rozdzielcza), diagnostyki zwężeń połączenia miedniczkowo‑moczowodowego, kontroli po przeszczepie nerki czy oceny blizn pozapalnych u dzieci. Standardem jest wykonywanie serii dynamicznych obrazów w kolejnych minutach po podaniu radiofarmaceutyku, co dokładnie pasuje do układu kafelków widocznych na ilustracji. Zgodnie z zasadami medycyny nuklearnej zapis taki uzyskuje się w projekcji tylnej lub przedniej, z pacjentem leżącym, a następnie analizuje się krzywe czas–aktywność. Z mojego doświadczenia w nauce do egzaminów warto zapamiętać, że „kolorowe, ziarniste nerki” w układzie dwóch symetrycznych ognisk po bokach kręgosłupa prawie zawsze oznaczają scyntygrafię nerek, a nie TK czy USG.

Pytanie 37

Artefakty zarejestrowane na elektrokardiogramie zostały wywołane przez

Ilustracja do pytania
A. uszkodzone przewody.
B. silne drżenie mięśniowe.
C. nieprawidłowe przyłożenie elektrody.
D. stymulator serca.
Prawidłowo powiązałeś przedstawiony zapis z silnym drżeniem mięśniowym. Tego typu artefakt na EKG ma dość charakterystyczny wygląd: podstawowy rytm zatokowy jest zwykle widoczny, załamki P, zespoły QRS i załamki T da się rozpoznać, ale na fragmentach zapisu pojawia się gęsty „szum” o wysokiej częstotliwości, jakby ktoś trząsł kartką z wykresem. Ten drobny, nieregularny zygzak nakłada się na linię izoelektryczną i częściowo na zespoły QRS. W praktyce klinicznej widzimy to np. u pacjentów z silnym niepokojem ruchowym, przy dreszczach gorączkowych, w chorobie Parkinsona, przy dużym napięciu mięśni z zimna albo gdy badany bardzo się spina i nie potrafi się rozluźnić. Moim zdaniem najłatwiej to rozpoznać właśnie po tym, że mimo „szumu” da się odczytać regularny rytm serca pod spodem. Dobre praktyki przy wykonywaniu EKG mówią wyraźnie, żeby przed zapisem zadbać o komfort cieplny pacjenta, wytłumaczyć mu konieczność leżenia nieruchomo i rozluźnienia mięśni, a w razie widocznych dreszczy odczekać, okryć kocem, czasem nawet podać leki przeciwgorączkowe, zanim zaczniemy rejestrację. Technik EKG powinien też umieć odróżnić artefakt mięśniowy od rzeczywistej arytmii – przy drżeniu mięśniowym odstępy RR są w miarę stałe, a morfologia QRS nie zmienia się, tylko jest „oblepiona” drobnymi zębami. W standardach opisowych zaleca się dopisanie w opisie: „zapis z artefaktem mięśniowym, utrudniającym ocenę odcinka ST” – bo to jest bardzo ważne, żeby lekarz nie nadinterpretował zmian, które są po prostu skutkiem napięcia mięśni, a nie patologii mięśnia sercowego.

Pytanie 38

Badanie przewodu pokarmowego metodą podwójnego kontrastu wiąże się z podaniem pacjentowi

A. podwójnej ilości Magnevistu.
B. barytu i Magnevistu.
C. barytu i powietrza.
D. podwójnej ilości barytu.
Prawidłowa odpowiedź odnosi się do klasycznej techniki tzw. podwójnego kontrastu w badaniach przewodu pokarmowego, głównie żołądka, dwunastnicy i jelita grubego. W tej metodzie zawsze chodzi o połączenie środka cieniującego na bazie barytu z gazem, najczęściej powietrzem lub dwutlenkiem węgla. Baryt (siarczan baru) działa jako kontrast dodatni – silnie pochłania promieniowanie rentgenowskie i na zdjęciu wychodzi jako struktura biała, wyraźnie odcinająca się od tła. Powietrze natomiast to kontrast ujemny – nie pochłania promieniowania, więc daje obraz ciemny, wypełnia światło przewodu pokarmowego i „rozdmuchuje” ściany. Dzięki temu kombinacja barytu i powietrza pozwala bardzo ładnie uwidocznić fałdy błony śluzowej, drobne nadżerki, polipy, guzki czy nieregularności obrysu. W praktyce radiologicznej, zgodnie z typowymi procedurami, podaje się najpierw baryt, a następnie pacjent połyka tabletki musujące albo otrzymuje powietrze przez zgłębnik, żeby uzyskać równomierne rozdęcie. Moim zdaniem to jedna z bardziej „wdzięcznych” technik, bo dobrze wykonane badanie podwójnym kontrastem daje bardzo szczegółowy obraz i jest świetne diagnostycznie, zwłaszcza tam, gdzie endoskopia jest ograniczona albo pacjent jej nie toleruje. Warto pamiętać, że w odróżnieniu od badań z kontrastem jodowym czy paramagnetycznym, baryt w RTG przewodu pokarmowego nie wchłania się z przewodu i działa czysto miejscowo. Standardy opisów radiologicznych przy tej technice zakładają ocenę zarysu ściany, fałdów, perystaltyki oraz obecności ubytków cienia lub sztywności ściany, co w dużej mierze jest możliwe właśnie dzięki temu, że mamy jednocześnie biały kontrast barytowy i ciemne tło powietrzne.

Pytanie 39

Rytm alfa i beta rejestruje się podczas badania

A. EEG
B. EKG
C. HSG
D. USG
Prawidłowo – rytm alfa i beta to pojęcia typowe dla elektroencefalografii, czyli badania EEG. W EEG rejestrujemy bioelektryczną aktywność mózgu za pomocą elektrod umieszczonych na skórze głowy, zwykle według międzynarodowego systemu 10–20. Rytm alfa to fale o częstotliwości ok. 8–13 Hz, najlepiej widoczne u osoby zrelaksowanej, z zamkniętymi oczami, najczęściej w okolicach potylicznych. Rytm beta ma wyższą częstotliwość, około 13–30 Hz, częściej pojawia się przy stanie czuwania, koncentracji, czasem pod wpływem leków, np. benzodiazepin. W praktyce technik EEG powinien umieć odróżnić fizjologiczne rytmy (alfa, beta, theta, delta) od zmian patologicznych, takich jak wyładowania napadowe czy fale ostre. To jest podstawa prawidłowego opisu zapisu EEG i współpracy z lekarzem. Badanie EEG wykonuje się m.in. w diagnostyce padaczki, zaburzeń świadomości, encefalopatii metabolicznych, a także w ocenie mózgowej aktywności po urazach. Z mojego doświadczenia, im lepiej rozumiesz, co oznaczają poszczególne rytmy, tym łatwiej wychwytujesz subtelne nieprawidłowości w zapisie, np. asymetrię rytmu alfa między półkulami czy nadmierną obecność rytmu beta. W standardach pracowni neurofizjologicznej podkreśla się też znaczenie aktywacji (hiperwentylacja, fotostymulacja) – wtedy zmiany w rytmach mogą się nasilać lub zmieniać, co bywa bardzo przydatne w diagnostyce napadów.

Pytanie 40

Co określa M₀ w systemie klasyfikacji nowotworów TNM?

A. Nie można ocenić regionalnych węzłów chłonnych.
B. Nie można ocenić obecności przerzutów odległych.
C. Nie stwierdza się przerzutów w regionalnych węzłach chłonnych.
D. Nie stwierdza się przerzutów odległych.
W klasyfikacji TNM litera M odnosi się wyłącznie do przerzutów odległych, czyli takich, które pojawiają się poza obszarem regionalnych węzłów chłonnych, w narządach odległych od guza pierwotnego. Dlatego interpretowanie symbolu M₀ jako informacji o węzłach chłonnych jest po prostu pomieszaniem ról poszczególnych elementów systemu. Za węzły chłonne odpowiada część N klasyfikacji – tam opisuje się, czy regionalne węzły są zajęte, w jakiej liczbie i z jakiej strony. Kiedy ktoś kojarzy M₀ z tym, że nie można ocenić przerzutów odległych, to myli je z kategorią Mx lub M?, która w nowszych wersjach jest zastępowana raczej sformułowaniem „nie oceniono M” albo „M nieokreślone”. M₀ to zawsze sytuacja, w której przeprowadzono odpowiednią diagnostykę (badania obrazowe, badanie kliniczne, ewentualnie medycyna nuklearna) i na jej podstawie stwierdzono brak przerzutów odległych. Z kolei brak możliwości oceny regionalnych węzłów chłonnych opisuje się w części N jako Nx, a nie w części M. Mylenie tych oznaczeń jest dość typowym błędem, bo skróty są krótkie, podobne i pojawiają się obok siebie w dokumentacji. Wreszcie, stwierdzenie, że M₀ oznacza brak przerzutów w regionalnych węzłach chłonnych, jest kompletnie nie po tej stronie systemu – to domena N₀, czyli brak przerzutów w węzłach regionalnych. Dobra praktyka jest taka, żeby zawsze czytać TNM „z rozszyfrowaniem”: T – guz, N – nodes (węzły), M – metastases (przerzuty odległe). Dzięki temu łatwiej uniknąć skrótowego, automatycznego kojarzenia, które potem prowadzi do błędnych wniosków przy planowaniu leczenia, np. radioterapii czy chirurgii onkologicznej. Moim zdaniem warto sobie nawet zapisać te rozwinięcia na marginesie notatek, bo bardzo ułatwia to naukę i późniejsze praktyczne stosowanie klasyfikacji.