Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 23 kwietnia 2026 21:30
  • Data zakończenia: 23 kwietnia 2026 21:39

Egzamin niezdany

Wynik: 10/40 punktów (25,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Jakie wiązki promieniowania emituje medyczny akcelerator liniowy?

A. Fotonowe i protonowe.
B. Fotonowe i elektronowe.
C. Protonowe i neutronowe.
D. Elektronowe i neutronowe.
Medyczny akcelerator liniowy w radioterapii bywa mylony z innymi typami akceleratorów cząstek, co prowadzi do różnych ciekawych, ale jednak błędnych skojarzeń. W odpowiedziach pojawiają się protony i neutrony, bo kojarzą się z nowoczesnymi metodami leczenia onkologicznego. W praktyce klinicznej klasyczny linac, jaki stoi na typowym oddziale radioterapii, generuje wyłącznie elektrony i pośrednio z nich – promieniowanie fotonowe o wysokiej energii. Żadne protony czy neutrony nie są tam terapeutycznie emitowane jako wiązka użytkowa. Protony wykorzystuje się w tzw. protonoterapii, ale do tego służą specjalne instalacje: cyklotrony, synchrotrony, gantry protonowe. To jest osobna gałąź radioterapii, z inną fizyką dawki (pik Bragga), inną infrastrukturą osłonową i zupełnie innym kosztem. Myląc akcelerator liniowy z ośrodkiem protonowym, pomijamy bardzo ważną różnicę techniczną: w linacu tor przyspieszania jest liniowy, a konstrukcja zoptymalizowana jest właśnie pod kątem wiązek fotonowych i elektronowych. Neutrony natomiast nie są w standardzie terapeutycznym w teleterapii megawoltowej. Owszem, przy bardzo wysokich energiach fotonów mogą powstawać tzw. neutrony fotoprodukowane, ale traktuje się je jako niepożądane promieniowanie uboczne, uwzględniane w ochronie radiologicznej, a nie jako wiązkę leczniczą. Dlatego skojarzenie „protonowe i neutronowe” albo „elektronowe i neutronowe” wynika zwykle z mieszania pojęć: ktoś słyszał o terapiach cząstkami naładowanymi albo o promieniowaniu neutronowym w reaktorach, i przenosi to automatycznie na zwykły akcelerator liniowy. Z punktu widzenia poprawnej fizyki medycznej i standardów radioterapii, prawidłowy zestaw wiązek z linaca to: fotony megawoltowe do leczenia głębokich guzów i elektrony o różnych energiach do zmian powierzchownych. To właśnie na tych dwóch typach promieniowania opiera się codzienna praca większości ośrodków radioterapii.

Pytanie 2

Wskazaniem do wykonania przesiewowego badania densytometrycznego jest

A. niedoczynność przytarczyc.
B. nadczynność przytarczyc.
C. nadczynność przysadki.
D. niedoczynność przysadki.
W temacie przesiewowych badań densytometrycznych łatwo się pogubić, szczególnie kiedy mówimy o różnych schorzeniach endokrynologicznych. Wybór takich chorób jak niedoczynność przysadki czy niedoczynność przytarczyc nie wynika z aktualnych standardów medycznych. Niedoczynność przysadki rzeczywiście wpływa na wiele układów w organizmie, ale samo ryzyko osteoporozy pojawia się tu głównie przy istotnych niedoborach hormonów płciowych, a nie każda niedoczynność automatycznie stanowi wskazanie do przesiewowej densytometrii. Często spotykam się z myleniem tych pojęć, bo rzeczywiście – zaburzenia hormonalne mogą prowadzić do utraty masy kostnej, ale to nie znaczy, że każde takie schorzenie od razu wymaga badania DXA. Z kolei niedoczynność przytarczyc skutkuje raczej hipokalcemią, a nie utratą wapnia z kości – w praktyce klinicznej rzadko prowadzi do osteoporozy, a nawet, paradoksalnie, może sprzyjać zwapnieniom tkanek. Nadczynność przysadki, na przykład w przebiegu akromegalii czy choroby Cushinga, może być wskazaniem do oceny gęstości kości, ale nie jest to rutynowe postępowanie przesiewowe – tu raczej skupiamy się na innych powikłaniach. W praktyce najlepszym sposobem myślenia o przesiewowej densytometrii jest skupienie się na chorobach, które realnie i dość szybko prowadzą do utraty masy kostnej – właśnie takich jak nadczynność przytarczyc. Częsty błąd to zbyt szerokie kwalifikowanie do badania DXA – czasem lekarze kierują pacjentów z każdą endokrynopatią, a nie o to chodzi. Z mojego punktu widzenia warto opierać się na twardych danych i rekomendacjach, nie tylko na intuicji. Takie podejście pomaga uniknąć niepotrzebnych kosztów i lepiej zadbać o pacjentów z faktycznym ryzykiem osteoporozy.

Pytanie 3

W badaniu EEG w systemie „10-20” elektrody w okolicy skroniowej oznaczone są literą

A. P
B. F
C. O
D. T
W systemie „10–20” stosowanym w badaniach EEG każda litera ma ściśle określone znaczenie anatomiczne, więc pomyłka w oznaczeniu regionu prowadzi potem do błędnej lokalizacji zmian w zapisie. Litera F pochodzi od „frontal” i dotyczy okolicy czołowej. Elektrody z oznaczeniem F (np. Fp1, Fp2, F3, F4, F7, F8) rejestrują czynność z płatów czołowych i przedczołowych, a nie z części skroniowej. Częsty błąd polega na tym, że F7 i F8 leżą dość bocznie i wielu osobom intuicyjnie kojarzą się ze skronią, ale formalnie to nadal region czołowy boczny, nie typowo skroniowy. Odpowiedź z literą P odnosi się do „parietal”, czyli okolicy ciemieniowej. Elektrody P3, P4, Pz, P7, P8 są umieszczone bardziej ku tyłowi czaszki, w rejonie płatów ciemieniowych. To miejsce jest kluczowe np. przy analizie potencjałów wywołanych czy zmian związanych z procesami czucia i integracji bodźców, ale nie odpowiada za klasyczne okolice skroniowe. Z kolei litera O oznacza „occipital”, czyli płat potyliczny. Elektrody O1 i O2 leżą najbardziej z tyłu głowy i są najważniejsze przy ocenie rytmu potylicznego alfa, zaburzeń widzenia pochodzenia korowego czy zmian w tylnych częściach mózgu. Mylenie tej litery z obszarem skroniowym wynika czasem z tego, że nazwy angielskie są do siebie trochę podobne brzmieniowo dla osób, które nie czują języka, ale w EEG obowiązuje bardzo precyzyjna terminologia. Region skroniowy to zawsze litera T – od „temporal” – i to właśnie ona jest poprawnym oznaczeniem elektrod w tej okolicy. Dobra praktyka jest taka, żeby skojarzyć sobie prostą mapę: F – czoło, C – środek, P – tył–góra, O – tył–dół, T – boki (skronie). Dzięki temu unika się typowych pomyłek przy zakładaniu elektrod i przy interpretacji opisów, co w diagnostyce EEG ma naprawdę duże znaczenie kliniczne.

Pytanie 4

Które odprowadzenie elektrokardiograficzne przedstawiono na ilustracji?

Ilustracja do pytania
A. Odprowadzenie II
B. Odprowadzenie aVR
C. Odprowadzenie I
D. Odprowadzenie aVL
Na schemacie widać wyraźnie, że jedna elektroda jest umieszczona na prawym przedramieniu, a druga na lewym przedramieniu, co odpowiada klasycznemu odprowadzeniu I w trójkącie Einthovena. Błędem jest utożsamianie takiego układu z odprowadzeniem II, ponieważ w odprowadzeniu II różnica potencjałów mierzona jest między prawą ręką (elektroda ujemna) a lewą nogą (elektroda dodatnia). Innymi słowy, odprowadzenie II patrzy na serce z prawej góry w dół, w kierunku lewej kończyny dolnej, a nie poziomo przez obręcz barkową. To powoduje, że obraz EKG w odprowadzeniu II jest zwykle jeszcze bardziej dodatni i często używa się go jako głównego kanału monitorującego rytm na sali operacyjnej czy OIT, ale konfiguracja elektrod jest zupełnie inna niż na rysunku. Często spotykany błąd myślowy polega na tym, że każdą konfigurację z prawą ręką jako „minusem” i jakąś inną kończyną jako „plusem” utożsamia się odruchowo z odprowadzeniem II, bo kojarzy się je z podstawowym kanałem zapisu. To niestety prowadzi do mylenia osi patrzenia odprowadzeń. Z kolei odprowadzenia aVR i aVL są odprowadzeniami jednobiegunowymi wzmocnionymi, gdzie elektroda aktywna znajduje się odpowiednio na prawej lub lewej ręce, a elektroda odniesienia jest wirtualna – to kombinacja pozostałych kończyn. Na rysunku widać wyraźnie dwie elektrody tworzące prostą linię między kończynami górnymi, bez udziału kończyny dolnej jako części elektrody odniesienia, więc nie może to być ani aVR, ani aVL. Mylenie tych odprowadzeń wynika zwykle z tego, że nazwy wydają się podobne, a różnice w konfiguracji wyglądają „kosmetycznie”. W praktyce EKG każda zmiana położenia elektrody zmienia kierunek wektora patrzenia na serce, a więc i kształt zespołów QRS oraz załamków P i T. Dlatego tak istotne jest, żeby kojarzyć dokładnie, które kończyny łączy dane odprowadzenie i czy jest ono dwubiegunowe (jak I, II, III), czy jednobiegunowe (jak aVR, aVL, aVF). Dopiero wtedy interpretacja osi elektrycznej serca, przerostów komór czy niedokrwienia ma sens i nie prowadzi do błędnych wniosków diagnostycznych.

Pytanie 5

Na którym obrazie rentgenowskim sutka uwidoczniono zmianę patologiczną w obrębie węzłów chłonnych?

A. Obraz 4
Ilustracja do odpowiedzi A
B. Obraz 3
Ilustracja do odpowiedzi B
C. Obraz 1
Ilustracja do odpowiedzi C
D. Obraz 2
Ilustracja do odpowiedzi D
W tym zadaniu łatwo skupić się wyłącznie na samych zmianach w obrębie gruczołu sutkowego i przez to przeoczyć węzły chłonne pachowe, które są kluczowe dla oceny zaawansowania raka piersi. Na obrazach 1, 3 i 4 widoczne są różne typy patologii piersi, ale nie są to zmiany w węzłach chłonnych. Na pierwszym obrazie dominuje obraz liczych drobnych mikrozwapnień rozsianych w obrębie tkanki gruczołowej. Taki obraz sugeruje raczej proces wewnątrzprzewodowy lub rozległą zmianę w samym miąższu piersi, a nie węzły pachowe. Typowy błąd myślowy polega tu na utożsamianiu „im więcej zwapnień, tym większa patologia” i automatycznym przypisywaniu ich węzłom, co nie jest prawdą – lokalizacja względem anatomicznych granic piersi jest kluczowa. Na trzecim obrazie widoczny jest guzek w obrębie piersi oraz dodatkowa, dobrze odgraniczona zmiana w dolnej części obrazu, o wyglądzie sugerującym raczej łagodny guzek w tkance sutka niż węzeł pachowy. Węzły chłonne pachowe powinny znajdować się wyżej i bardziej bocznie, przy zarysie ściany klatki piersiowej, a nie w typowej strefie projekcji gruczołu. Często myli się takie struktury, bo na pierwszy rzut oka wyglądają jak „kuliste cienie” i intuicyjnie kojarzą się z węzłami, ale dokładniejsza analiza położenia i kontekstu anatomicznego szybko to prostuje. Na czwartym obrazie natomiast widoczne są podłużne, bardzo silnie wysycone cienie odpowiadające klipsom chirurgicznym lub innym materiałom metalicznym po zabiegu operacyjnym. To nie są ani guzy, ani węzły chłonne – to artefakty związane z wcześniejszym leczeniem, np. mastektomią czy biopsją. Z mojego punktu widzenia główny problem przy takich pytaniach polega na braku nawyku systematycznej oceny całego pola obrazowania: miąższ piersi, skóra, brodawka, tkanka podskórna, a na końcu dół pachowy i węzły. Jeśli pominie się ten ostatni krok, łatwo wybiera się obraz z najbardziej „spektakularną” zmianą w piersi, zamiast tego, który rzeczywiście pokazuje patologię węzłową. W praktyce klinicznej takie pomyłki mogłyby prowadzić do niedoszacowania stopnia zaawansowania nowotworu, dlatego w szkoleniu radiologicznym tak mocno podkreśla się znaczenie prawidłowego pozycjonowania projekcji MLO i obowiązkowej oceny pachy.

Pytanie 6

Brachyterapia polegająca na wielokrotnym wsuwaniu i wysuwaniu źródła promieniowania do tego samego aplikatora nosi nazwę

A. LDR
B. MDR
C. PDR
D. HDR
W tym pytaniu haczyk polega na tym, żeby nie pomylić rodzaju brachyterapii z samą szybkością dawki. MDR, HDR i LDR opisują głównie tempo podawania dawki (moc dawki), natomiast PDR odnosi się do konkretnego sposobu pracy systemu afterloadingowego: wielokrotne, pulsacyjne wsuwanie i wysuwanie źródła do tego samego aplikatora. To właśnie ten cykliczny charakter ekspozycji definiuje poprawną odpowiedź. Wysokodawkowa brachyterapia HDR kojarzy się wielu osobom z tym, że źródło jest dynamicznie przesuwane między pozycjami, ale zazwyczaj odbywa się to w ramach jednej krótkiej frakcji, a nie w postaci serii powtarzających się impulsów rozłożonych w czasie tak, by imitować LDR. HDR to przede wszystkim bardzo duża moc dawki dostarczona w kilku lub kilkunastu krótkich sesjach, a nie koniecznie „pulsowanie” w sensie radiobiologicznym. Z kolei LDR, czyli Low Dose Rate, to technika, w której źródło ma niską aktywność i pozostaje w tkankach przez dłuższy, praktycznie ciągły czas, bez wielokrotnego wsuwania i wysuwania. W klasycznej LDR źródła są albo tymczasowe, albo stałe (np. implanty nasionkowe), ale nie pracują w trybie pulsacyjnym sterowanym afterloaderem. MDR jest pojęciem używanym rzadziej, historycznie dotyczyło tempa dawki pośredniego między LDR a HDR, jednak samo w sobie nie opisuje mechanizmu wielokrotnego, automatycznego wprowadzania źródła. Typowy błąd myślowy przy tym pytaniu to skupienie się tylko na skrótach i skojarzeniu „wysuwanie/wsuwanie = HDR, bo tam źródło się rusza”. Tymczasem w definicjach klinicznych i w dokumentach zaleceń (np. ICRU, ESTRO) PDR jest jasno określone jako pulsacyjne podawanie dawki z użyciem źródła o aktywności zbliżonej do HDR, ale z powtarzanymi impulsami co określony interwał. W praktyce planistycznej i przy obsłudze afterloadera warto zawsze pamiętać, że nazwa techniki mówi nie tylko o mocy dawki, ale też o sposobie jej dystrybucji w czasie, i właśnie ten aspekt odróżnia PDR od pozostałych skrótów.

Pytanie 7

Która składowa prawidłowej krzywej EKG odpowiada powolnej repolaryzacji komór mięśnia sercowego?

A. Odcinek ST
B. Załamek P
C. Załamek Q
D. Odcinek TP
W tym pytaniu łatwo się pomylić, bo wiele osób intuicyjnie próbuje przyporządkować różne fragmenty EKG do „jakiejś repolaryzacji” bez przypomnienia sobie pełnego przebiegu potencjału czynnościowego kardiomiocytów. Trzeba zacząć od podstaw: załamek P to zapis depolaryzacji przedsionków, czyli pobudzenia elektrycznego rozchodzącego się przez mięsień przedsionków. W tym momencie komory jeszcze nie biorą udziału w cyklu elektrycznym, więc nie ma mowy, żeby załamek P odpowiadał jakiejkolwiek repolaryzacji komór. To po prostu inny etap pracy serca. Podobna pułapka dotyczy załamka Q. Jest on elementem zespołu QRS i odzwierciedla początkową fazę depolaryzacji komór, najczęściej przegrody międzykomorowej. Cały zespół QRS, niezależnie od szczegółowego kształtu, opisuje szybkie rozprzestrzenianie się pobudzenia w mięśniu komór. To faza szybkiego napływu jonów sodu (Na+) do wnętrza komórek, czyli faza 0 potencjału czynnościowego. Czyli znowu – mamy do czynienia z procesem depolaryzacji, a nie repolaryzacji. Mylenie QRS z repolaryzacją wynika często z tego, że jest to najbardziej „widoczny” element zapisu, ale fizjologicznie pełni zupełnie inną rolę. Odcinek TP bywa traktowany jako „czas spoczynku” serca. W praktyce to odstęp między końcem repolaryzacji komór (koniec załamka T) a początkiem kolejnej depolaryzacji przedsionków (początek załamka P). Ten fragment odpowiada fazie rozkurczu elektrycznego, okresowi diastolicznemu, kiedy mięsień jest w stanie spoczynku elektrycznego i przygotowuje się do kolejnego cyklu. Nie zachodzi tu powolna repolaryzacja komór – ona już się zakończyła. Repolaryzacja komór ma dwie główne „twarze” w EKG. Faza powolna, tzw. plateau, odpowiada właśnie odcinkowi ST i jest kluczowa dla oceny niedokrwienia mięśnia sercowego. Natomiast końcowa, szybsza część repolaryzacji komór odzwierciedla się w załamku T. Typowy błąd myślowy polega na tym, że ktoś skojarzy repolaryzację tylko z załamkiem T i zapomina, że proces jest rozciągnięty w czasie i zaczyna już w trakcie odcinka ST. Z punktu widzenia praktyki diagnostycznej to rozróżnienie jest bardzo ważne: zmiany w odcinku ST (uniesienia, obniżenia, poziome lub skośne) są jednym z głównych kryteriów ostrych stanów wieńcowych według standardów ESC, natomiast zmiany w załamku T często mówią bardziej o przebytych, przewlekłych lub mniej ostrych zaburzeniach. Dlatego warto utrwalić sobie, że jeśli mówimy o powolnej repolaryzacji komór na EKG, to wskazujemy na odcinek ST, a nie na załamek P, Q czy odcinek TP.

Pytanie 8

Obszary napromieniania w technice IMRT w trakcie wykonywania zabiegu radioterapeutycznego wyznacza

A. system komputerowy.
B. technik elektroradiolog.
C. fizyk medyczny.
D. lekarz radioterapeuta.
W radioterapii, zwłaszcza w technice IMRT, bardzo łatwo pomylić etapy planowania z etapem wykonywania zabiegu. To często prowadzi do przekonania, że obszary napromieniania w trakcie samego seansu „wyznacza” lekarz, fizyk albo technik. W rzeczywistości ich rola przesuwa się wtedy z aktywnego kształtowania pól na kontrolę, nadzór i weryfikację poprawności. Lekarz radioterapeuta decyduje o objętościach CTV, PTV, narządach krytycznych, wskazuje priorytety kliniczne, akceptuje ostateczny plan. Fajnie to zapamiętać: lekarz wyznacza cele kliniczne i granice struktur, ale nie steruje na bieżąco listkami MLC podczas zabiegu. Fizyk medyczny z kolei odpowiada za przygotowanie i optymalizację planu w systemie TPS, dobór energii, weryfikację dawek, testy QA planu, kalibrację aparatu. Moim zdaniem to jedna z najbardziej odpowiedzialnych ról, ale ona też kończy się przed rozpoczęciem rutynowego napromieniania pacjenta. W chwili wykonywania frakcji fizyk nie „rysuje” już obszarów, tylko upewnia się, że system komputerowy i akcelerator działają zgodnie z założeniami. Technik elektroradiolog ma znowu inną, bardzo praktyczną rolę: przygotowanie pacjenta, prawidłowe ułożenie, unieruchomienie, weryfikację położenia na podstawie obrazów kontrolnych, wybór właściwego planu w konsoli. Typowym błędem jest mylenie tego z wyznaczaniem obszaru napromieniania. Technik niczego nie modeluje ręcznie, nie ustawia samodzielnie kształtu pól w IMRT – to byłoby sprzeczne z zasadami jakości i powtarzalności leczenia. W IMRT obszary napromieniania, czyli dokładny rozkład intensywności wiązki w czasie i przestrzeni, są generowane i odtwarzane przez system komputerowy: najpierw w fazie planowania (algorytmy optymalizacyjne), a potem w fazie wykonania (sterowanie MLC, dawką, geometrią wiązki). Dlatego odpowiedzi przypisujące to zadanie człowiekowi pomijają kluczowy element współczesnej radioterapii – automatyczne, komputerowe sterowanie całym procesem napromieniania według wcześniej zatwierdzonego planu.

Pytanie 9

Na obrazie ultrasonograficznym jamy brzusznej uwidoczniono

Ilustracja do pytania
A. trzustkę.
B. wątrobę.
C. nerkę.
D. śledzionę.
W rozpoznawaniu narządów w USG jamy brzusznej bardzo łatwo pomylić się, jeśli patrzy się tylko „na kształt plamy” zamiast na kilka kluczowych cech obrazu. Nerka ma typową budowę warstwową: obwodowo widoczna jest kora o stosunkowo niskiej echogeniczności, centralnie natomiast echogeniczna zatoka nerkowa z odbiciami od tkanki tłuszczowej i struktur zbiorczych. Cały narząd ma raczej fasolkowaty kształt, z wyraźnym zarysem torebki i bez kontaktu z kopułą przepony w taki sposób, jak wątroba. Jeśli na ekranie widzimy gładką, długą, mocno echogeniczną linię przepony i duży jednorodny narząd tuż pod nią, to nie będzie to typowy obraz nerki. Śledziona z kolei ma miąższ bardziej jednorodny i zwykle nieco hiperechogeniczny w stosunku do wątroby, leży po lewej stronie i jej zarys jest bardziej owalny, z charakterystycznym „półksiężycowatym” kształtem. W standardowej projekcji podżebrowej prawej śledziony po prostu nie powinniśmy widzieć – jeśli widzimy duży narząd pod prawą kopułą przepony, to praktycznie zawsze będzie to wątroba. Trzustka jest jeszcze inną historią: najczęściej widoczna poprzecznie, leży głębiej, przed żyłą główną dolną i aortą, a jej echostruktura bywa drobnoziarnista, ale nie ma tak rozległego kontaktu z przeponą jak wątroba. W dodatku trzustkę często trudno uwidocznić u pacjentów z otyłością czy gazami jelitowymi, podczas gdy wątroba zwykle jest widoczna bardzo dobrze. Typowym błędem jest sugerowanie się samym położeniem sondy bez analizy echogeniczności i przebiegu naczyń. Dobra praktyka jest taka, żeby zawsze szukać punktów orientacyjnych: przepony, żyły głównej dolnej, żyły wrotnej, wnęki śledziony, zatoki nerkowej. Z mojego doświadczenia im częściej porównuje się na żywo wątrobę z prawą nerką w jednym przekroju, tym szybciej zaczyna się „na oko” odróżniać te narządy i unika się takich pomyłek jak w tym pytaniu.

Pytanie 10

Parametrem krwi, który powinien zostać oznaczony u pacjenta przed wykonaniem badania MR z kontrastem jest

A. kreatynina.
B. fibrynogen.
C. hemoglobina.
D. bilirubina
Prawidłowo wskazana kreatynina to dokładnie ten parametr, który w praktyce klinicznej sprawdza się rutynowo przed podaniem kontrastu do badania MR (a w zasadzie przed większością badań z kontrastem, także TK). Chodzi o ocenę wydolności nerek, bo kontrasty paramagnetyczne na bazie gadolinu są wydalane głównie przez nerki. Jeżeli funkcja nerek jest upośledzona, rośnie ryzyko powikłań, takich jak nefrogenne układowe zwłóknienie (NSF) czy po prostu kumulacja środka kontrastowego w organizmie. Dlatego oznaczenie kreatyniny pozwala obliczyć eGFR (szacunkowy współczynnik przesączania kłębuszkowego) i na tej podstawie zdecydować, czy kontrast można bezpiecznie podać, czy trzeba zmienić dawkę, typ kontrastu, albo nawet zrezygnować z podania. W standardach pracowni diagnostyki obrazowej przyjmuje się, że świeży wynik kreatyniny/eGFR (zwykle nie starszy niż 1–3 miesiące, a przy chorych wysokiego ryzyka jeszcze krótszy) jest wymagany przed badaniem MR z kontrastem, zwłaszcza u pacjentów z cukrzycą, nadciśnieniem, przewlekłą chorobą nerek, w podeszłym wieku czy po dużych zabiegach chirurgicznych. W większości protokołów, gdy eGFR spada poniżej określonego progu (np. <30 ml/min/1,73 m²), rozważa się rezygnację z gadolinu lub zastosowanie środka o najniższym ryzyku, ewentualnie konsultację nefrologiczną. W praktyce technika czy technika elektroradiologii często współuczestniczy w weryfikacji, czy pacjent ma aktualny wynik kreatyniny i czy nie ma przeciwwskazań do kontrastu. Moim zdaniem właśnie takie myślenie „przed” badaniem – sprawdzenie parametrów nerkowych, leków, wywiadu – odróżnia bezpieczną, profesjonalną pracownię od tej, gdzie robi się badania trochę z automatu. Bilirubina, fibrynogen czy hemoglobina mogą być istotne w innych sytuacjach klinicznych, ale nie są podstawowym, rutynowym kryterium kwalifikacji do gadolinowego kontrastu MR – tu króluje kreatynina i wynik eGFR.

Pytanie 11

Na obrazie TK klatki piersiowej w przekroju poprzecznym strzałką oznaczono

Ilustracja do pytania
A. oskrzele główne prawe.
B. oskrzele główne lewe.
C. aortę zstępującą.
D. aortę wstępującą.
Na tym typie zadań najczęstszy problem nie polega na nieznajomości anatomii, tylko na pomyleniu orientacji obrazu TK i podobnych do siebie struktur w śródpiersiu. W standardowych przekrojach poprzecznych TK patrzymy na pacjenta od strony jego stóp. Oznaczenie R po lewej stronie ekranu wskazuje prawą stronę pacjenta, więc wszystko po przeciwnej stronie to lewa połowa klatki piersiowej. Jeśli ktoś wybiera prawe oskrzele główne, to zwykle dlatego, że patrzy „intuicyjnie”, jak na zdjęcie od przodu, a nie jak na przekrój poprzeczny. Prawe oskrzele główne jest rzeczywiście bardziej pionowe, krótsze i szersze, ale będzie po stronie oznaczonej literą R. Strzałka na obrazie wyraźnie wskazuje strukturę po stronie przeciwnej, czyli anatomicznie lewej. Wybór aorty wstępującej lub zstępującej wynika zazwyczaj z mylenia struktur powietrznych z naczyniami. Aorta w TK z kontrastem ma gęstość wysoką, jest jasna, o okrągłym lub lekko owalnym przekroju. Na tym poziomie przekroju aorta wstępująca leży bardziej z przodu i po prawej stronie pacjenta, blisko prawej komory, natomiast aorta zstępująca jest zwykle tylno-lewostronna, przylega do kręgosłupa. Struktura wskazana strzałką ma gęstość powietrza (ciemna), co jest typowe dla światła dróg oddechowych, a nie dla naczynia wypełnionego kontrastem. Dodatkowo jej położenie – tuż poniżej rozdwojenia tchawicy, w bezpośrednim sąsiedztwie wnęki lewego płuca – jest książkowe dla lewego oskrzela głównego. Moim zdaniem dobrym nawykiem jest przy każdym przekroju najpierw zidentyfikować tchawicę, potem bifurkację, a dopiero później przechodzić do oskrzeli i naczyń. Pozwala to uniknąć typowego błędu: brania jasnych, kontrastujących naczyń za „główne drogi oddechowe” tylko dlatego, że są wyraźniejsze. W praktyce zawodowej takie pomyłki mogą skutkować błędną oceną lokalizacji guza, węzła chłonnego albo zakrzepu, dlatego standardy dobrej praktyki w diagnostyce obrazowej mocno podkreślają konieczność systematycznej analizy przekrojów i świadomego korzystania z oznaczeń orientacyjnych na obrazie.

Pytanie 12

Który narząd widoczny jest na wydruku badania ultrasonograficznego?

Ilustracja do pytania
A. Nerka.
B. Śledziona.
C. Tarczyca.
D. Pęcherzyk żółciowy.
Na obrazie ultrasonograficznym, takim jak w tym pytaniu, bardzo łatwo jest pomylić narządy, jeśli patrzy się tylko „na kształt”, bez analizy echostruktury i typowego położenia. Pęcherzyk żółciowy w USG ma zwykle postać bezechowej, czarnej struktury o wydłużonym kształcie, z cienką, echogeniczną ścianą. W jego świetle, w warunkach prawidłowych, nie widać żadnych wewnętrznych ech, chyba że występują złogi czy polipy. Na prezentowanym obrazie nie ma takiej wyraźnej, jednolicie czarnej przestrzeni z cienką ścianą, tylko warstwowy układ tkanek i jasna zatoka, co bardziej pasuje do nerki niż do pęcherzyka. Śledziona natomiast jest narządem o jednorodnej, drobnoziarnistej echostrukturze, zwykle nieco bardziej echogenicznej niż wątroba. W USG wygląda jak lity narząd miąższowy, bez wyraźnie odgraniczonej jasnej „zatoki” w środku. Jej kształt jest bardziej owalny lub półksiężycowaty, ale bez typowej, fasolkowatej wnęki jak w nerce. Kto patrzy tylko na ogólny obrys, może się zasugerować, ale brak jest tu tej jednorodności i typowego tła śledziony w lewym nadbrzuszu. Z kolei tarczyca ma zupełnie inny kontekst anatomiczny i wygląd. W badaniu USG szyi widzimy dwa płaty połączone cieśnią, położone powierzchownie, tuż pod skórą, nad tchawicą. Echostruktura tarczycy jest drobnoziarnista, zazwyczaj jednorodna, a w tle widoczna jest chrząstka tchawicy, naczynia szyjne, mięśnie. Na obrazie z pytania brak jest jakichkolwiek typowych punktów orientacyjnych dla szyi; widać głęboko położony narząd o zróżnicowanej echogeniczności, z wyraźną zatoką nerkową. Typowym błędem myślowym jest skupienie się na jednym parametrze – np. tylko na wielkości lub kształcie – bez oceny echogeniczności i anatomii topograficznej. Dobra praktyka w diagnostyce obrazowej wymaga, żeby zawsze analizować: kształt, echostrukturę, granice narządu, stosunek do sąsiednich struktur oraz charakterystyczne elementy, jak wnęka, zatoka, światło narządu jamistego. Wtedy łatwiej uniknąć pomyłek między nerką a pęcherzykiem żółciowym czy śledzioną, co w praktyce klinicznej ma znaczenie dla dalszego postępowania z pacjentem.

Pytanie 13

Po podaniu kontrastu obraz zmian nowotworowych w badaniu MR najlepiej uwidacznia się w sekwencji

A. DWI
B. T2
C. T1
D. DIXON
W rezonansie magnetycznym łatwo się pomylić, bo mamy sporo różnych sekwencji i każda „coś fajnego” pokazuje. Ale jeśli pytanie dotyczy konkretnie uwidocznienia zmian nowotworowych po podaniu kontrastu, to kluczowe jest zrozumienie, jak działają poszczególne typy sekwencji. Środek kontrastowy gadolinowy działa głównie przez skrócenie czasu relaksacji T1, więc najbardziej wpływa na sekwencje T1‑zależne. Właśnie dlatego to one są używane do oceny wzmocnienia po kontraście. DIXON to tak naprawdę technika modyfikująca głównie sekwencje T1 (i czasem T2*), służąca do rozdzielenia sygnału z tłuszczu i wody. Jest świetna np. do obrazowania narządów miąższowych czy układu mięśniowo‑szkieletowego, ale sama nazwa „DIXON” nie oznacza jeszcze, że to najlepsza sekwencja do oceny kontrastu. Jeśli stosujemy T1 DIXON po kontraście, to i tak kluczowe jest to, że jest to sekwencja T1‑zależna, a nie sam fakt „DIXON”. Dlatego wybieranie DIXON jako ogólnej odpowiedzi jest trochę mylące – to bardziej technika niż podstawowy typ sekwencji. DWI (dyfuzja) z kolei służy głównie do oceny ruchu cząsteczek wody w tkankach. Zmiany nowotworowe często ograniczają dyfuzję, więc są hiperintensywne na mapach DWI i mają obniżony sygnał na mapach ADC. To bardzo ważne w onkologii, np. w udarach, guzach mózgu, prostaty czy wątroby, ale DWI nie służy do oceny wzmocnienia po kontraście. Co więcej, standardowo DWI wykonuje się bez podania kontrastu. Dlatego myślenie: „nowotwór dobrze widać na DWI, więc po kontraście też będzie najlepiej” – to typowy błąd skrótu myślowego. Sekwencje T2‑zależne natomiast pokazują głównie zawartość wody – płyny są jasne, obrzęk, zmiany zapalne, torbiele. Guzy często są dobrze widoczne na T2 przez obrzęk czy komponentę płynną, ale podanie gadolinu nie jest tu głównym mechanizmem poprawy kontrastu obrazu. Zmiana może wyglądać trochę inaczej po kontraście, ale to nie jest główne narzędzie do oceny wzmocnienia. Z mojego doświadczenia największy problem polega na tym, że wiele osób pamięta, iż „nowotwory są jasne na T2” albo że „DWI jest super w guzach”, i automatycznie zakłada, że to będzie też najlepsze po kontraście. Tymczasem standardy protokołów MR mówią jasno: ocena wzmocnienia kontrastowego, czyli tego, jak guz „łapie kontrast”, bazuje na sekwencjach T1‑zależnych, często z dodatkowymi technikami jak fat‑sat czy DIXON, ale rdzeniem pozostaje T1.

Pytanie 14

Fistulografia to badanie kontrastowe

A. żylaków.
B. naczyń tętniczych.
C. przetok.
D. naczyń włosowatych.
W tym pytaniu łatwo się pomylić, bo samo słowo „fistulografia” może kojarzyć się z naczyniami, zwłaszcza jeśli ktoś myśli o przetokach tętniczo-żylnych do hemodializy. Trzeba jednak odróżnić pojęcia: fistulografia to badanie kontrastowe przetok jako patologicznych kanałów, a nie rutynowe obrazowanie naczyń. Żylaki to poszerzone, kręte żyły powierzchowne, najczęściej kończyn dolnych. Do ich oceny standardem jest badanie USG Doppler, ewentualnie flebografia kontrastowa w bardziej złożonych przypadkach. Fistulografia nie służy do obrazowania żylaków, bo kontrast nie jest tu podawany do żyły w sposób systemowy, tylko do jamy lub kanału przetoki. W praktyce pomylenie fistulografii z badaniem żył wynika często z myślenia: „jest kontrast, więc na pewno chodzi o naczynia krwionośne”. To jest takie dość typowe uproszczenie, które potem robi kłopot na testach. Naczynia tętnicze ocenia się w angiografii tętniczej – tam kontrast podawany jest do tętnicy (np. udowej) i pod kontrolą fluoroskopii ocenia się drożność, zwężenia, tętniaki. To zupełnie inna technika, inne wskazania i inne ryzyko powikłań. Z kolei naczynia włosowate nie są praktycznie obrazowane jako osobna struktura w klasycznych badaniach kontrastowych RTG, bo są zbyt drobne; ich obecność ocenia się pośrednio, np. w kapilaroskopii lub w badaniach mikrokrążenia, ale to już w innych modalnościach i warunkach. Moim zdaniem największy błąd myślowy przy tym pytaniu polega na automatycznym łączeniu końcówki „-grafia” z angiografią i naczyniami. Warto zapamiętać, że w nazwach badań kontrastowych pierwszy człon zwykle mówi, co dokładnie obrazujemy: „fistulo-” – przetoka, „angio-” – naczynie, „uro-” – drogi moczowe. Jak się to raz dobrze skojarzy, to takie pytania stają się dużo prostsze i przestają być podchwytliwe.

Pytanie 15

Którą strukturę anatomiczną zaznaczono na radiogramie stawu kolanowego?

Ilustracja do pytania
A. Kłykieć boczny.
B. Nadkłykieć przyśrodkowy.
C. Kłykieć przyśrodkowy.
D. Nadkłykieć boczny.
Na tym typie zadania wiele osób gubi się na prostym, ale podchwytliwym rozróżnieniu: co jest kłykciem, a co nadkłykciem. Na radiogramie stawu kolanowego w projekcji AP kłykcie kości udowej to te zaokrąglone części dystalnej nasady, które bezpośrednio tworzą powierzchnie stawowe i „wchodzą” w szczelinę stawową. Nadkłykcie natomiast leżą wyżej, ponad linią powierzchni stawowych, są bardziej bocznie i przyśrodkowo wysunięte i pełnią głównie funkcję miejsc przyczepu więzadeł i mięśni. Jeżeli ktoś zaznacza kłykieć przyśrodkowy lub boczny, to zwykle wynika to z automatycznego skojarzenia, że każda duża wyniosłość w okolicy stawu to właśnie kłykieć. Tymczasem na poprawnie wykonanym zdjęciu RTG, zgodnie z zasadami diagnostyki obrazowej, trzeba najpierw odszukać linię szczeliny stawowej: to ona oddziela kłykcie kości udowej od kłykci kości piszczelowej. Wszystko, co wyraźnie powyżej i bardziej „na zewnątrz”, to już nadkłykcie, a nie kłykcie. Z mojego doświadczenia w nauce anatomii w obrazowaniu największym błędem jest patrzenie tylko na kształt, bez odniesienia do sąsiednich struktur. Pomyłka między nadkłykciem przyśrodkowym a nadkłykciem bocznym bierze się najczęściej z dezorientacji, która strona na obrazie odpowiada stronie prawej lub lewej pacjenta. Radiogramy są oznaczane znacznikami L/R i zgodnie z dobrymi praktykami zawsze trzeba na początku zlokalizować ten znacznik. Dopiero wtedy można pewnie powiedzieć, czy widzimy stronę przyśrodkową, czy boczną. W tym przypadku strzałka nie wskazuje na część po stronie bocznej, więc nazwanie tej struktury nadkłykciem bocznym jest merytorycznie niezgodne z anatomią. Podsumowując, klucz do poprawnej identyfikacji to: najpierw orientacja strony, potem odróżnienie powierzchni stawowej (kłykcie) od wyższych, pozastawowych wyniosłości (nadkłykcie). Bez tego bardzo łatwo o błędny opis, co w realnej praktyce może prowadzić do nieprecyzyjnej kwalifikacji złamania czy niewłaściwej dokumentacji urazu.

Pytanie 16

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Iloczyn natężenia promieniowania i czasu [mAs].
B. Odległość źródła promieniowania od detektora [cm].
C. Filtracja [mm Al].
D. Napięcie na lampie [kV].
Kontrast obrazu rentgenowskiego bardzo często jest mylony z ogólną „jakością” albo jasnością zdjęcia i stąd biorą się błędne skojarzenia z innymi parametrami ekspozycji. Filtracja w milimetrach aluminium jest ważnym elementem aparatu RTG, ale jej głównym celem jest odfiltrowanie miękkich, mało energetycznych fotonów, które zwiększają dawkę skórną, a niewiele wnoszą do obrazu. Zwiększenie filtracji rzeczywiście trochę „utwardza” wiązkę, ale w praktyce klinicznej nie jest to podstawowe narzędzie do sterowania kontrastem, tylko raczej do poprawy bezpieczeństwa i ujednolicenia widma promieniowania zgodnie z wymaganiami ochrony radiologicznej i normami jakościowymi. Iloczyn natężenia promieniowania i czasu, czyli mAs, odpowiada głównie za całkowitą ilość fotonów padających na detektor. Zwiększenie mAs powoduje, że obraz jest mniej zaszumiony i „gęstszy”, ale nie zmienia istotnie relacji pochłaniania między tkankami, więc nie ma decydującego wpływu na kontrast. Typowym błędem jest myślenie: więcej mAs = „mocniejsze” promieniowanie = większy kontrast. W rzeczywistości to jest bardziej kwestia ekspozycji i dawki, a nie różnic tonalnych między strukturami. Z kolei odległość źródło–detektor (SID) wpływa na natężenie promieniowania na detektorze zgodnie z prawem odwrotności kwadratu odległości. Zmiana SID zmienia więc ekspozycję i ostrość geometryczną (wielkość powiększenia, rozmycia), ale nie selektywnie kontrast między tkankami. Można mieć wrażenie, że przy innej odległości obraz wygląda trochę inaczej, jednak w profesjonalnych warunkach różnice te kompensuje się odpowiednią zmianą mAs. Kluczowy błąd myślowy przy tym pytaniu polega na utożsamianiu każdego parametru technicznego z kontrastem, podczas gdy mechanizm jest bardzo konkretny: kontrast w klasycznym RTG zależy przede wszystkim od energii fotonów, czyli od napięcia na lampie, które decyduje o tym, jak silne są różnice w pochłanianiu promieniowania przez tkanki o różnej gęstości i składzie chemicznym. Pozostałe parametry są ważne, ale z innych powodów – ekspozycji, dawki, ostrości czy bezpieczeństwa, a nie jako podstawowe narzędzie do sterowania kontrastem.

Pytanie 17

Kolonoskopia to badanie, które ma na celu ocenę błony śluzowej

A. jelita grubego.
B. żołądka.
C. dwunastnicy.
D. jelita cienkiego.
W tym pytaniu bardzo łatwo pomylić różne badania endoskopowe przewodu pokarmowego, bo nazwy są podobne i wszystkie dotyczą „oglądania od środka”. Kolonoskopia jednak ma ściśle określony zakres – służy do oceny błony śluzowej jelita grubego, a nie żołądka, dwunastnicy czy jelita cienkiego. To jest taki standardowy podział, który funkcjonuje w gastroenterologii i w praktyce szpitalnej. Jeżeli chcemy ocenić błonę śluzową żołądka lub dwunastnicy, używamy gastroskopii (a dokładniej: ezofagogastroduodenoskopii). Endoskop jest wtedy wprowadzany przez usta, przez przełyk do żołądka i dalej do opuszki i części zstępującej dwunastnicy. Kolonoskopia natomiast zaczyna się od strony odbytu i idzie „od dołu” w kierunku kątnicy, czasem aż do końcowego odcinka jelita krętego, ale podstawowym celem pozostaje jelito grube. Częsty błąd myślowy polega na tym, że skoro kolonoskopia jest długa i sięga daleko, to „na pewno” obejmuje też jelito cienkie – w praktyce tak nie jest, bo jelito cienkie ma zupełnie inną długość i budowę, a jego pełna ocena wymaga innych metod, jak enteroskopia dwubalonowa czy kapsułka endoskopowa. Jelito cienkie, poza krótkim końcowym fragmentem, nie jest rutynowo oceniane w klasycznej kolonoskopii. Podobnie mylenie kolonoskopii z „badaniem całego brzucha” jest dość typowe u osób zaczynających naukę – tu warto pamiętać, że każde badanie endoskopowe ma swój jasno określony odcinek przewodu pokarmowego. Z punktu widzenia dobrych praktyk medycznych bardzo ważne jest, żeby poprawnie kojarzyć nazwę procedury z jej zakresem anatomicznym, bo od tego zależy właściwe zlecenie badania, przygotowanie pacjenta i interpretacja wyniku. W realnej pracy w szpitalu błędne skojarzenie może prowadzić do niepotrzebnego badania albo do pominięcia istotnej patologii w innym odcinku przewodu pokarmowego.

Pytanie 18

Podczas badania gammakamerą źródłem promieniowania jest

A. kolimator.
B. fotopowielacz.
C. detektor.
D. pacjent.
Poprawnie – w klasycznym badaniu gammakamerą to pacjent jest faktycznym źródłem promieniowania. Do organizmu podaje się radiofarmaceutyk, czyli związek chemiczny połączony z radioizotopem (np. technet-99m). Ten izotop emituje promieniowanie gamma z wnętrza ciała. Gammakamera nic sama nie „wysyła” w stronę pacjenta, ona tylko rejestruje to, co wychodzi z organizmu. To jest podstawowa różnica między medycyną nuklearną a np. RTG – w RTG źródłem promieniowania jest lampa rentgenowska, a w scyntygrafii źródłem staje się sam pacjent po podaniu radiofarmaceutyku. W praktyce klinicznej pozwala to ocenić funkcję narządów, a nie tylko ich anatomię. Przykład: w scyntygrafii kości radiofarmaceutyk gromadzi się tam, gdzie jest zwiększony metabolizm kostny, więc na obrazie widzimy „gorące ogniska” np. przerzutów. W scyntygrafii perfuzyjnej płuc oceniamy przepływ krwi przez miąższ płucny na podstawie rozmieszczenia znacznika. Wszystko to jest możliwe właśnie dlatego, że promieniowanie wychodzi z wnętrza ciała, a nie z zewnątrz. Z mojego doświadczenia wielu uczniów myli to z RTG i myśli, że gammakamera świeci jak lampa, a pacjent tylko „pochłania”. A jest dokładnie odwrotnie: pacjent świeci (w sensie emituje kwanty gamma), a kamera je łapie. Z punktu widzenia ochrony radiologicznej też się tak go traktuje – po podaniu radioizotopu pacjent jest traktowany jak źródło promieniowania i obowiązują określone zasady postępowania, ograniczanie czasu przebywania personelu blisko pacjenta, zalecenia wypisowe dla chorego itp. To jest standard w medycynie nuklearnej, opisany w wytycznych IAEA, EANM i krajowych rekomendacjach.

Pytanie 19

Który radioizotop jest emiterem promieniowania alfa?

A. 131I
B. 99mTc
C. 18F
D. 223Ra
Prawidłowo wskazany radioizotop to 223Ra, czyli rad-223. Jest to klasyczny emiter promieniowania alfa, wykorzystywany w medycynie nuklearnej głównie w leczeniu przerzutów do kości u chorych na raka prostaty opornego na kastrację. Cząstki alfa to jądra helu (2 protony i 2 neutrony), mają bardzo mały zasięg w tkankach – rzędu kilku dziesiątych milimetra – ale bardzo wysoką liniową gęstość jonizacji (wysoki LET). To oznacza, że oddają energię na bardzo krótkim dystansie, silnie uszkadzając DNA komórek nowotworowych, a jednocześnie relatywnie oszczędzając bardziej odległe, zdrowe tkanki. Właśnie dlatego 223Ra jest tak ceniony w tzw. terapii ukierunkowanej na kości: jako radionuklid emituje głównie promieniowanie alfa, wiąże się z tkanką kostną w miejscach wzmożonego metabolizmu kostnego (czyli tam, gdzie są przerzuty osteoblastyczne) i dostarcza bardzo skoncentrowaną dawkę w ognisku nowotworu. Z praktycznego punktu widzenia ważne jest, że alfa-emiter wymaga szczególnej ostrożności w zakresie ochrony radiologicznej personelu przy przygotowaniu i podawaniu radiofarmaceutyku, ale jednocześnie dawka narażenia dla otoczenia pacjenta jest zwykle mniejsza niż przy silnych emiterach gamma, bo cząstki alfa są łatwo pochłaniane. Moim zdaniem, jeśli ktoś pracuje w medycynie nuklearnej, to kojarzenie 223Ra z terapią paliatywną przerzutów do kości to absolutna podstawa. W wytycznych i standardach (różne towarzystwa onkologiczne i medycyny nuklearnej) podkreśla się, że wybór alfa-emiterów, takich jak 223Ra, jest szczególnie korzystny tam, gdzie zależy nam na wysokiej skuteczności biologicznej przy ograniczonym zasięgu promieniowania. To bardzo dobry przykład praktycznego zastosowania fizyki promieniowania w nowoczesnej terapii celowanej.

Pytanie 20

Podczas wykonywania zdjęcia rentgenowskiego lewobocznego czaszki promień centralny powinien przebiegać

A. od lewej do prawej strony czaszki, prostopadle do płaszczyzny strzałkowej.
B. od lewej do prawej strony czaszki, prostopadle do płaszczyzny czołowej.
C. od prawej do lewej strony czaszki, prostopadle do płaszczyzny strzałkowej.
D. od prawej do lewej strony czaszki, prostopadle do płaszczyzny czołowej.
Prawidłowa odpowiedź wynika z geometrii ułożenia pacjenta i definicji płaszczyzn anatomicznych. W projekcji lewobocznej czaszki badana jest lewa strona głowy, czyli to ona powinna przylegać do detektora (kasety). Żeby uzyskać obraz lewej strony możliwie ostry i bez powiększenia, promień centralny musi przechodzić z prawej do lewej strony czaszki – od strony lampy w kierunku detektora. To jest klasyczna zasada w radiografii: część badana bliżej detektora, lampa po stronie przeciwnej. Dodatkowo promień powinien być prostopadły do płaszczyzny strzałkowej, bo ta płaszczyzna dzieli ciało na część prawą i lewą. W lewym bocznym zdjęciu czaszki płaszczyzna strzałkowa pacjenta jest ustawiona równolegle do detektora, więc prostopadły do niej promień daje prawidłową, „czystą” projekcję boczną, bez skośnego nałożenia struktur. Płaszczyzna czołowa (frontalna) w tym ustawieniu jest z kolei prostopadła do detektora, więc promień padający prostopadle do niej dałby projekcję czołową, a nie boczną. W praktyce technik ustawia pacjenta bokiem do detektora, wyrównuje linie anatomiczne (np. linia między kątem oka a przewodem słuchowym zewnętrznym), sprawdza brak rotacji i pochyleń, a potem centralny promień kieruje z prawej na lewą, pod kątem 90° do płaszczyzny strzałkowej. Tak się uzyskuje standardowe boczne RTG czaszki zgodne z atlasami i wytycznymi radiologicznymi. Moim zdaniem warto sobie to zwizualizować na modelu czaszki, bo wtedy łatwiej zapamiętać, że „boczne = promień prostopadły do płaszczyzny strzałkowej, po stronie przeciwnej do badanej”.

Pytanie 21

Czas repetycji w obrazowaniu metodą rezonansu magnetycznego to

A. czas kąta przeskoku.
B. czas między dwoma impulsami częstotliwości radiowej.
C. czas mierzony od impulsu odwracającego 180° do impulsu 90°.
D. czas mierzony od impulsu 90° do szczytu amplitudy sygnału odebranego w cewce.
Poprawnie – czas repetycji (TR, od ang. repetition time) w obrazowaniu metodą rezonansu magnetycznego to odstęp czasu między dwoma kolejnymi impulsami częstotliwości radiowej 90° pobudzającymi ten sam wycinek. Mówiąc prościej: mierzysz od jednego „strzału” RF przygotowującego magnetyzację pod sekwencję do następnego takiego samego „strzału”. Ten parametr jest kluczowy, bo decyduje, ile czasu mają protony na relaksację podłużną (T1) przed kolejnym pobudzeniem. Im krótszy TR, tym silniejsze jest ważenie T1, a im dłuższy TR, tym bardziej obraz zbliża się do ważenia T2 lub PD, bo różnice w T1 się częściowo „wyrównują”. W praktyce technik MR dobiera TR w zależności od celu badania i zaleceń protokołu: dla obrazów T1-zależnych stosuje się z reguły krótkie czasy repetycji (rzędu kilkuset ms), a dla T2-zależnych – zdecydowanie dłuższe (kilka tysięcy ms). Ma to bezpośredni wpływ nie tylko na kontrast tkanek, ale też na czas trwania całej sekwencji i komfort pacjenta w gantrze. Moim zdaniem, dobrze jest od razu łączyć w głowie TR z pojęciem „odpoczynku” magnetyzacji po impulsie RF – za krótki odpoczynek zmienia kontrast, ale skraca badanie, za długi – poprawia pewne aspekty diagnostyczne, ale wydłuża czas skanowania. W nowoczesnych protokołach klinicznych parametry TR są ściśle zdefiniowane w wytycznych producentów i rekomendacjach towarzystw radiologicznych, więc w praktyce zawodowej bardzo często operuje się gotowymi zestawami sekwencji, ale zrozumienie, że TR to właśnie czas między impulsami RF, pozwala świadomie modyfikować badanie, np. przy artefaktach czy u pacjentów, którzy nie wytrzymują długiego skanowania.

Pytanie 22

W radiografii mianem SID określa się

A. system automatycznej kontroli ekspozycji.
B. system automatycznej regulacji jasności.
C. odległość między obiektem badanym a detektorem obrazu.
D. odległość między źródłem promieniowania a detektorem obrazu.
W tym pytaniu kłopot sprawia głównie to, że w radiologii jest sporo skrótów i łatwo je ze sobą pomylić. SID to konkretny termin geometryczny: Source to Image Distance, czyli odległość od lampy rentgenowskiej (ogniska promieniowania) do płaszczyzny detektora obrazu. Nie ma on nic wspólnego z elektroniką sterującą jasnością ani z automatyką ekspozycji, chociaż wszystkie te rzeczy razem wpływają na ostateczny wygląd zdjęcia. System automatycznej regulacji jasności kojarzy się raczej z fluoroskopią, gdzie aparat na bieżąco dopasowuje parametry, żeby obraz na monitorze miał stałą jasność, mimo że np. pacjent jest grubszy lub cieńszy w różnych miejscach. To są układy sterujące kV, mA lub czasem filtracją wiązki, ale ich nazwy to zwykle ABC (Automatic Brightness Control) albo podobne, a nie SID. Z kolei system automatycznej kontroli ekspozycji, znany jako AEC, to czujniki umieszczone za lub przed detektorem, które „wyłączają” ekspozycję, gdy zarejestrują odpowiednią ilość promieniowania. Dzięki temu zdjęcia są bardziej powtarzalne, a pacjent nie dostaje zbędnej dawki. To też nie ma związku z samą odległością, tylko z pomiarem promieniowania w czasie ekspozycji. Częsty błąd polega na tym, że ktoś widzi skrót i myśli: skoro w radiografii jest dużo automatyki, to pewnie chodzi o jakiś system sterowania. Tymczasem SID to czysta geometria. Równie mylące bywa utożsamianie SID z odległością między obiektem badanym a detektorem. Ta odległość też jest ważna i określa się ją osobno, jako OID (Object to Image Distance). OID wpływa na powiększenie i nieostrość, ale w definicji SID zawsze chodzi o źródło promieniowania, a nie o sam obiekt. Dobra praktyka w pracowni RTG polega na tym, żeby rozróżniać wszystkie te pojęcia: SID – odległość źródło–detektor, OID – odległość obiekt–detektor, AEC – automatyczna kontrola ekspozycji, systemy jasności – układy fluoroskopowe. Gdy to się poukłada w głowie, dużo łatwiej świadomie dobierać parametry badania i rozumieć, dlaczego protokoły wymagają konkretnych ustawień geometrii.

Pytanie 23

Osłony na gonady dla osób dorosłych powinny posiadać równoważnik osłabienia promieniowania nie mniejszy niż

A. 0,75 mm Pb
B. 0,35 mm Pb
C. 0,50 mm Pb
D. 1,00 mm Pb
Prawidłowo – dla osób dorosłych osłony na gonady powinny mieć równoważnik osłabienia co najmniej 1,00 mm Pb. Wynika to z zasad ochrony radiologicznej, gdzie gonady traktuje się jako narząd szczególnie wrażliwy, kluczowy dla płodności i ryzyka dziedzicznych skutków promieniowania. Grubość 1,00 mm ołowiu zapewnia bardzo wysoki stopień osłabienia wiązki promieniowania w typowych warunkach badań RTG, np. w radiografii miednicy, bioder, kręgosłupa lędźwiowego. Przy takiej grubości osłony dawka pochłonięta przez jądra lub jajniki jest istotnie zredukowana, a jednocześnie osłona jest jeszcze na tyle ergonomiczna, że da się ją wygodnie stosować w praktyce. Moim zdaniem ważne jest, żeby nie traktować tej wartości jako „opcji”, tylko jako minimum – jeśli w pracowni są osłony cieńsze, to dla dorosłych nie spełniają one standardów ochrony. W dobrych pracowniach radiologicznych rutynowo stosuje się osłony gonadowe właśnie o grubości około 1 mm Pb, dopasowane kształtem: fartuchy typu „figi”, ochraniacze moszny, osłony na okolice miednicy. Warto pamiętać, że zgodnie z zasadą ALARA (As Low As Reasonably Achievable) redukujemy dawkę wszędzie tam, gdzie to możliwe, bez utraty jakości diagnostycznej obrazu. Dobrze dobrana osłona 1 mm Pb nie powinna wchodzić w pole obrazowania i nie może zasłaniać interesujących nas struktur, dlatego tak ważne jest poprawne pozycjonowanie pacjenta i prawidłowe ułożenie samej osłony. Z mojego doświadczenia wiele błędów w pracowni polega właśnie na tym, że ktoś ma dobrą osłonę, ale źle ją zakłada i albo wchodzi w projekcję, albo w ogóle nie przykrywa gonad. Sama grubość 1,00 mm Pb to jedno, a prawidłowa technika i nawyk jej stosowania – drugie, równie ważne.

Pytanie 24

Teleradioterapia 4D na etapie planowania leczenia wykorzystuje obrazy

A. tomografii komputerowej, wykonane przy wstrzymanym oddechu.
B. klasycznej rentgenografii, wykonane w fazie oddechowej.
C. klasycznej rentgenografii, wykonane przy wstrzymanym oddechu.
D. tomografii komputerowej, wykonane w fazie oddechowej.
Prawidłowo – w teleradioterapii 4D na etapie planowania leczenia wykorzystuje się obrazy tomografii komputerowej (TK) wykonane w różnych fazach cyklu oddechowego, czyli tzw. 4D CT. Chodzi o to, żeby nie mieć tylko jednego „zamrożonego” obrazu pacjenta, ale całą serię objętości, które pokazują, jak guz i narządy krytyczne przesuwają się podczas oddychania. System planowania łączy te dane z informacją czasową, stąd nazwa 4D. Dzięki temu można lepiej określić marginesy PTV, unikać zbyt dużego napromieniania zdrowych tkanek i lepiej przewidywać rzeczywistą pozycję guza w trakcie frakcji. W praktyce robi się to tak, że pacjent leży na stole TK, ma założony system monitorowania oddechu (np. pas z markerem, kamera podczerwona, czasem spirometria), a skaner zbiera dane przez kilka cykli oddechowych. Oprogramowanie sortuje je później do poszczególnych faz oddechowych, np. 10 faz od wdechu do wydechu. Moim zdaniem, to jest dziś standard przy guzach płuca, wątroby czy w okolicy przepony, gdzie ruch oddechowy jest największy. Dobre praktyki kliniczne (np. zalecenia ESTRO, AAPM TG-76) podkreślają, że planowanie 4D powinno opierać się właśnie na 4D CT, a nie na pojedynczym badaniu przy wstrzymanym oddechu. Dopiero na podstawie tych danych można rozważać techniki typu gating oddechowy czy śledzenie guza (tracking). W skrócie: tomografia komputerowa w fazach oddechowych daje pełną informację o ruchu, a bez tego cała idea radioterapii 4D traci sens.

Pytanie 25

Na obrazie TK nadgarstka uwidocznione jest złamanie kości

Ilustracja do pytania
A. główkowatej.
B. księżycowatej.
C. haczykowatej.
D. łódeczkowatej.
W tym zadaniu kluczowa jest prawidłowa orientacja anatomiczna w nadgarstku na przekrojach TK. Bardzo łatwo jest się pomylić, bo kości nadgarstka są małe, leżą blisko siebie, a w różnych płaszczyznach wyglądają zupełnie inaczej. Z mojego doświadczenia najczęstszy błąd polega na tym, że ktoś patrzy głównie na kształt pojedynczej kości, zamiast najpierw „ustawić sobie w głowie” cały układ: rząd bliższy, rząd dalszy, strona promieniowa i łokciowa. Kość główkowata znajduje się w rzędzie dalszym, mniej więcej centralnie, między kością czworoboczną większą a haczykowatą. Na obrazie TK ma zwykle masywniejszy trzon i jest jakby „wciśnięta” między sąsiednie kości, ale nie leży najbardziej promieniowo w rzędzie bliższym – dlatego wskazywanie jej jako złamanej w tym ujęciu wynika zwykle z błędnego rozpoznania rzędu kości. Kość haczykowata leży bardziej po stronie łokciowej w rzędzie dalszym i charakterystyczna jest dla niej wyraźna wyniosłość – haczyk – dobrze widoczna zwłaszcza w projekcjach skośnych RTG i w rekonstrukcjach 3D TK. Złamania haczyka kości haczykowatej są typowe np. u golfistów czy tenisistów, ale lokalizują się zdecydowanie bardziej łokciowo i dłoniowo niż zmianę widoczną na tym obrazie. Pomyłka w tym kierunku bierze się często z patrzenia tylko na pojedynczy przekrój, bez przewijania serii obrazów, co nie jest dobrą praktyką. Kość księżycowata natomiast leży w rzędzie bliższym, ale bardziej centralnie, między łódeczkowatą a trójgraniastą. Ma charakterystyczny, jakby półksiężycowaty kształt w projekcjach PA RTG, jednak w TK może wydawać się myląco podobna do łódeczkowatej, jeśli nie zwróci się uwagi na jej położenie względem kości promieniowej. Błędem jest sugerowanie się samym „kształtem” bez odniesienia do sąsiednich struktur: promień–łódeczkowata–księżycowata–trójgraniasta to stały układ w rzędzie bliższym i warto go sobie zawsze odtwarzać. Dobrą praktyką w diagnostyce obrazowej nadgarstka jest więc systematyczne identyfikowanie kości od strony promieniowej do łokciowej oraz korzystanie z kilku płaszczyzn rekonstrukcyjnych, zamiast opierania się na jednym przekroju. Pozwala to uniknąć typowych pomyłek w rozpoznawaniu złamań kości nadgarstka, które w konsekwencji mogą prowadzić do błędnej oceny urazu i niewłaściwego postępowania klinicznego.

Pytanie 26

Którym skrótem oznacza się tomografię komputerową wysokiej rozdzielczości?

A. HRCT
B. PTCA
C. SPECT
D. EPCW
W tym pytaniu łatwo pomylić różne skróty, bo wszystkie kojarzą się z obrazowaniem lub procedurami zabiegowymi, ale tylko jeden dotyczy tak naprawdę tomografii komputerowej wysokiej rozdzielczości. HRCT oznacza High Resolution Computed Tomography i jest nazwą konkretnego protokołu badania TK, a nie osobnej maszyny. Pozostałe skróty dotyczą zupełnie innych metod, opartych na innych zasadach fizycznych i używanych w innych wskazaniach klinicznych. SPECT to metoda medycyny nuklearnej, czyli obrazowanie narządów za pomocą promieniowania gamma emitowanego przez podany pacjentowi radiofarmaceutyk. W SPECT wykorzystuje się gammakamerę obrotową, a nie lampę rentgenowską i detektory TK. Obraz powstaje z rekonstrukcji projekcji aktywności radioizotopu, nie na podstawie osłabienia wiązki promieniowania przechodzącej przez ciało jak w tomografii komputerowej. Dlatego SPECT nie służy do oceny drobnej struktury miąższu płuc w wysokiej rozdzielczości, tylko raczej do oceny funkcji, np. perfuzji mięśnia sercowego czy ukrwienia kości. To zupełnie inna bajka, inne parametry, inne dawki i inna aparatura. Skrót EPCW w tym kontekście jest mylący i nie odnosi się do standardowo używanego badania obrazowego w radiologii przekrojowej; takie „dziwne” skróty często są pułapką testową i warto się trzymać tych, które faktycznie pojawiają się w opisach badań i wytycznych. Z kolei PTCA (Percutaneous Transluminal Coronary Angioplasty) to w ogóle procedura kardiologii inwazyjnej, czyli przezskórna przezświatłowa angioplastyka wieńcowa. W PTCA wprowadza się cewnik przez tętnicę (najczęściej promieniową lub udową) i mechanicznie poszerza zwężone naczynie wieńcowe balonem, często z implantacją stentu. Nie ma to nic wspólnego z techniką rekonstrukcji obrazu w tomografii komputerowej. Typowym błędem jest kojarzenie każdego obcojęzycznego skrótu z „jakimś badaniem obrazowym TK” albo wrzucanie do jednego worka metod medycyny nuklearnej, radiologii klasycznej i procedur zabiegowych. W praktyce dobrze jest zawsze zadać sobie pytanie: czy to jest metoda anatomiczna (jak TK, MR), funkcjonalna (jak SPECT, PET), czy zabiegowa (jak PTCA)? Dopiero wtedy łatwiej dojść, który skrót naprawdę pasuje do tomografii komputerowej wysokiej rozdzielczości.

Pytanie 27

Na obrazie TK kręgosłupa strzałką wskazano wyrostek

Ilustracja do pytania
A. żebrowy.
B. stawowy.
C. kolczysty.
D. poprzeczny.
Prawidłowo rozpoznano, że strzałka na rekonstrukcji 3D TK kręgosłupa wskazuje wyrostek kolczysty. Na takim obrazie wyrostki kolczyste widzimy jako wydłużone, dość masywne wypustki kostne ustawione niemal w linii pośrodkowej tylnej części kręgosłupa. Tworzą one coś w rodzaju „grzebienia” biegnącego wzdłuż całej osi kręgosłupa. To właśnie te struktury wyczuwamy palpacyjnie przez skórę na plecach u pacjenta – od karku aż do okolicy lędźwiowo-krzyżowej. Moim zdaniem w praktyce technika obrazowania to jedno z kluczowych miejsc, gdzie trzeba dobrze ogarniać anatomię wyrostków. Przy ustawianiu pacjenta do TK czy MR kręgosłupa często kontrolnie patrzy się na przebieg wyrostków kolczystych, żeby ocenić, czy kręgosłup nie jest skręcony (rotacja), czy nie ma znacznej skoliozy, czy oś jest prosta. W standardowych opisach radiologicznych zmiany zwyrodnieniowe, pourazowe czy pooperacyjne bardzo często lokalizuje się właśnie w odniesieniu do wyrostków kolczystych (np. złamanie wyrostka kolczystego C7, resekcja wyrostków przy stabilizacji). Wyrostek kolczysty jest tylnym wypustkiem łuku kręgu, miejscem przyczepu więzadeł (więzadło nadkolcowe, międzykolcowe) i mięśni prostowników grzbietu. Na obrazach TK w oknach kostnych będzie on miał wysoką gęstość (biel), wyraźnie odgraniczoną od otaczających tkanek miękkich. W badaniach z rekonstrukcjami 3D, tak jak na tym przykładzie, wyrostki kolczyste szczególnie dobrze widać i łatwo je odróżnić od wyrostków poprzecznych, które są bardziej boczne, oraz od wyrostków stawowych, które tworzą stawy międzykręgowe. Z mojego doświadczenia, jeśli na obrazach bocznych widzisz pojedynczy, pośrodkowy, do tyłu skierowany „kolec”, to niemal na pewno jest to wyrostek kolczysty. W codziennej pracy z TK i MR kręgosłupa prawidłowa identyfikacja tych struktur bardzo ułatwia orientację w poziomach kręgów i ocenę patologii, np. urazów, przerzutów czy zmian zapalnych.

Pytanie 28

Która sekwencja w obrazowaniu MR jest stosowana do uwidocznienia naczyń krwionośnych?

A. DWI
B. STIR
C. TOF
D. EPI
W obrazowaniu MR różne sekwencje są projektowane pod konkretne zadania i łatwo się pomylić, zwłaszcza gdy kojarzymy je tylko z nazw skrótowych. W pytaniu chodzi o sekwencję służącą typowo do uwidaczniania naczyń krwionośnych, czyli o technikę angiografii MR. Tę rolę pełni sekwencja TOF (Time-of-Flight), która wykorzystuje efekt napływu świeżej, niezsaturowanej krwi do objętości obrazowanej i dzięki temu naczynia są bardzo dobrze widoczne, zwykle jako jasne struktury na ciemniejszym tle tkanek. To jest w zasadzie standardowa technika MRA bez kontrastu, szczególnie w badaniach naczyń mózgowych i szyjnych. EPI, czyli Echo Planar Imaging, jest natomiast sekwencją bardzo szybką, używaną głównie w obrazowaniu funkcjonalnym (fMRI) oraz w sekwencjach dyfuzyjnych DWI. Daje duże pokrycie w krótkim czasie, ale ma sporo artefaktów zniekształcających obraz, dlatego nie jest typową sekwencją do precyzyjnego odwzorowania światła naczyń. Kto kojarzy EPI z „nowoczesnym” obrazowaniem, może odruchowo uznać ją za dobrą do wszystkiego, co jest po prostu pewnym skrótem myślowym, ale niestety błędnym. DWI (Diffusion Weighted Imaging) służy przede wszystkim do oceny dyfuzji wody w tkankach. Jest kluczowa np. w diagnostyce udaru niedokrwiennego mózgu, gdzie pokazuje ognisko świeżego zawału, ale to nie jest sekwencja, na której standardowo ocenia się sam przebieg naczyń. Owszem, zmiany naczyniowe pośrednio wpływają na obraz w DWI, ale nie zobaczymy tu tak wyraźnie światła tętnic jak w TOF. STIR (Short Tau Inversion Recovery) to sekwencja tłumiąca sygnał tłuszczu, bardzo przydatna np. w obrazowaniu układu kostno-stawowego, szpiku czy tkanek miękkich, gdy chcemy uwidocznić obrzęk, zmiany zapalne, nacieki. Nie jest natomiast projektowana do angiografii MR i nie daje takiego kontrastu między krwią w naczyniach a otoczeniem, jak specjalistyczne techniki przepływowe. Typowy błąd polega na tym, że kojarzymy nazwę sekwencji z jakimś „efektem specjalnym” (np. szybkość, tłumienie tłuszczu, dyfuzja) i zakładamy, że to będzie dobre też do naczyń. Tymczasem w praktyce klinicznej do oceny naczyń używa się wyspecjalizowanych protokołów MRA, a Time-of-Flight jest jednym z podstawowych rozwiązań, szczególnie gdy badanie ma być wykonane bez kontrastu.

Pytanie 29

Zgodnie z obowiązującymi przepisami powierzchnia gabinetu rentgenowskiego, w którym jest zainstalowany zestaw rentgenowski do badań naczyniowych, powinna wynosić

A. 20 m²
B. 25 m²
C. 8 m²
D. 15 m²
W tym pytaniu łatwo wpaść w pułapkę myślenia, że „przecież aparat to tylko RTG, więc wystarczy taki sam gabinet jak do zwykłych zdjęć”. To jest właśnie typowy błąd. Badania naczyniowe wymagają znacznie bardziej rozbudowanego stanowiska niż klasyczna lampa do zdjęć przeglądowych. Powierzchnie rzędu 8 m² czy 15 m² są wartościami, które można kojarzyć raczej z małymi gabinetami zabiegowymi albo z minimalnymi pokojami dla prostych stanowisk diagnostycznych, ale nie z angiografią. Przy tak małej powierzchni nie da się zapewnić prawidłowego ustawienia ramienia C, swobody obrotu wokół pacjenta, miejsca na wjazd łóżka oraz przestrzeni na zespół zabiegowy. To nie jest tylko kwestia wygody – to wprost przekłada się na bezpieczeństwo radiologiczne i możliwość ewakuacji pacjenta, jeśli coś pójdzie nie tak. Podobnie 20 m² bywa intuicyjnie wybierane jako „rozsądny kompromis”, ale w przypadku gabinetu do badań naczyniowych nadal jest to za mało. Sprzęt angiograficzny jest obszerny: stół, kolumna lampy, detektor, panele sterowania, pompa kontrastu, zestaw monitorów, często też dodatkowe wyposażenie anestezjologiczne. Trzeba zachować określone odległości od źródła promieniowania i zaplanować układ ścian z odpowiednimi osłonami stałymi. Jeżeli sala jest za ciasna, personel ma tendencję do pracy bliżej pola promieniowania, trudniej też ustawić ruchome osłony ołowiane w optymalnym miejscu, co zwiększa dawki rozproszone. Z mojego doświadczenia wynika, że projektując pracownię, która ma obsługiwać zabiegi naczyniowe, zawsze kończy się na większych metrażach niż ktoś „na oko” zakłada na początku. Przepisy, które wymagają co najmniej 25 m², biorą pod uwagę nie tylko obecny sprzęt, ale też rezerwę na serwis, ewentualne doposażenie, a przede wszystkim ergonomię i ochronę radiologiczną. Dlatego wszystkie mniejsze wartości z odpowiedzi są po prostu niezgodne z wymaganiami dla tej klasy pracowni i w praktyce nie pozwoliłyby na legalne dopuszczenie gabinetu do użytkowania.

Pytanie 30

Przedstawiony obraz został zarejestrowany podczas wykonywania

Ilustracja do pytania
A. pozytonowej tomografii emisyjnej.
B. badania radioizotopowego.
C. tomografii komputerowej.
D. rezonansu magnetycznego.
Na obrazie widzisz typowy wynik badania radioizotopowego kośćca, czyli scyntygrafię kości wykonaną gammakamerą po dożylnym podaniu radiofarmaceutyku (najczęściej znaczonego technetem-99m fosfonianu). Charakterystyczny jest tu tzw. obraz „szkieletu z rozmytymi konturami” – widoczne są głównie struktury kostne, bez dokładnego zarysu tkanek miękkich, a intensywność zabarwienia zależy od wychwytu znacznika metabolicznie aktywnego w kościach. To właśnie odróżnia obraz scyntygraficzny od klasycznego RTG czy TK, gdzie widzimy anatomiczne szczegóły, krawędzie, zróżnicowaną gęstość tkanek. W medycynie nuklearnej nie pokazujemy bezpośrednio anatomii, tylko rozkład radioaktywności – czyli funkcję narządu lub metabolizm tkanki. Moim zdaniem warto zapamiętać prostą rzecz: w badaniach radioizotopowych obraz jest zwykle bardziej „rozmyty”, kontrast jest funkcjonalny, a nie czysto anatomiczny. W scyntygrafii kości oceniamy m.in. ogniska wzmożonego metabolizmu kostnego – przerzuty nowotworowe, złamania przeciążeniowe, zmiany zapalne, martwicze. W praktyce klinicznej takie badanie jest standardem np. w onkologii przy podejrzeniu przerzutów do kości (rak piersi, prostaty), w ortopedii przy niejasnym bólu kostnym, w reumatologii przy rozsianych zmianach zapalnych. Zgodnie z dobrą praktyką medycyny nuklearnej ważne jest odpowiednie przygotowanie pacjenta (nawodnienie, opróżnienie pęcherza przed badaniem, zdjęcie metalowych przedmiotów) oraz właściwy dobór radiofarmaceutyku i aktywności dawki. Personel musi też zadbać o czas między podaniem znacznika a rejestracją obrazu (dla scyntygrafii kości najczęściej ok. 2–3 godziny), bo to wpływa na jakość i interpretowalność wyniku. Warto kojarzyć, że takie całociałowe, symetryczne „szkieletowe” obrazy to klasyka badań radioizotopowych w medycynie nuklearnej, a nie TK, MR czy PET, chociaż PET też należy do metod medycyny nuklearnej, ale wygląda już trochę inaczej i zwykle jest łączony z CT (PET/CT).

Pytanie 31

W badaniu cystografii wstępującej środek kontrastowy należy podać

A. przez powłoki skórne do miedniczki nerkowej.
B. bezpośrednio do układu kielichowo-miedniczkowego.
C. wstecznie do moczowodu.
D. bezpośrednio do pęcherza moczowego.
W cystografii wstępującej kluczowe jest zrozumienie, który odcinek dróg moczowych ma być bezpośrednio wypełniony środkiem kontrastowym. Łatwo tu pomylić różne techniki badań urologicznych, bo wszystkie kręcą się wokół nerek, miedniczek, moczowodów i pęcherza, ale każde badanie ma swoją ściśle określoną drogę podania kontrastu. Podawanie środka kontrastowego bezpośrednio do układu kielichowo‑miedniczkowego jest typowe dla pielografii wstępującej albo dla nefrostomii z kontrastem, a nie dla cystografii. W takich procedurach kontrast podaje się przez cewnik wprowadzony do moczowodu lub przez przetokę nerkową, żeby zobrazować górne drogi moczowe – kielichy, miedniczkę, początkowy odcinek moczowodu. To zupełnie inny cel niż ocena pęcherza. Podawanie kontrastu „przez powłoki skórne do miedniczki nerkowej” sugeruje nakłucie przezskórne, czyli technikę typową dla nefrostomii przezskórnej pod kontrolą USG lub RTG. Takie postępowanie jest inwazyjne, wymaga znieczulenia, sterylnego pola zabiegowego i jest zarezerwowane głównie dla odbarczenia nerki lub specjalistycznych badań górnych dróg moczowych, a nie do rutynowej cystografii. Z kolei wstecznie do moczowodu podajemy kontrast w pielografii wstępującej wykonywanej najczęściej podczas cystoskopii. Lekarz wprowadza wtedy cienki cewnik do ujścia moczowodu i wstrzykuje kontrast, żeby uwidocznić przebieg moczowodu i miedniczki nerkowej. To badanie służy wykrywaniu zwężeń, kamieni, guzów górnych dróg moczowych. Typowym błędem myślowym jest wrzucanie wszystkich badań „z kontrastem w drogach moczowych” do jednego worka i zakładanie, że skoro gdzieś jest kontrast w nerkach czy moczowodzie, to droga podania może być dowolna. W praktyce każde badanie ma swój schemat: cystografia wstępująca – kontrast przez cewkę do pęcherza, urografia dożylna – kontrast dożylnie, pielografia wstępująca – kontrast przez moczowód, nefrostografia – przez przetokę nerkową. Znajomość tych zasad nie jest tylko teorią, bo od prawidłowej drogi podania zależy bezpieczeństwo pacjenta, jakość obrazów i poprawna interpretacja wyniku.

Pytanie 32

W radioterapii hadronowej leczenie odbywa się przy użyciu

A. mobetronu.
B. aparatu kobaltowego.
C. aparatu rentgenowskiego.
D. cyklotronu.
Radioterapia hadronowa różni się zasadniczo od klasycznej teleterapii fotonowej czy elektronowej, dlatego skojarzenie jej ze zwykłym aparatem rentgenowskim, kobaltem czy nawet mobetronem jest dość naturalnym, ale błędnym skrótem myślowym. W klasycznych aparatach rentgenowskich mamy do czynienia z generacją promieniowania X o stosunkowo niskich energiach, wykorzystywanych głównie diagnostycznie. To promieniowanie ma zupełnie inny rozkład dawki w tkance – największe pochłanianie jest przy wejściu wiązki, a potem dawka stopniowo spada. Do celów terapeutycznych w onkologii nie używa się zwykłych aparatów RTG, tylko wysokiej energii fotony z akceleratorów liniowych. Aparaty kobaltowe z kolei emitują promieniowanie gamma z izotopu 60Co o stałej energii. Historycznie były szeroko stosowane w radioterapii, ale nadal są to fotony, nie hadrony. Rozkład dawki jest głębokościowo przewidywalny, ale nie ma możliwości uzyskania charakterystycznego piku Bragga, który jest fundamentem radioterapii protonowej czy jonowej. Typowym błędem jest utożsamianie „wszelkiego napromieniania” z jedną kategorią techniczną i myślenie, że skoro kobalt też leczy nowotwory, to nadaje się do każdej zaawansowanej techniki. Tak nie jest – fizyka wiązki jest zupełnie inna. Mobetron natomiast to urządzenie do śródoperacyjnej radioterapii elektronowej (IORT). Wykorzystuje elektrony o stosunkowo niewielkim zasięgu, podawane bezpośrednio na lożę guza podczas zabiegu operacyjnego. Znowu – mamy do czynienia z elektronami, a nie hadronami ciężkimi. Elektrony są bardzo przydatne do powierzchownych zmian i loży po guzie, ale ich rozkład dawki nie pozwala na tak głęboką, precyzyjną penetrację jak protony. Radioterapia hadronowa, zgodnie z nowoczesnymi standardami i zaleceniami ośrodków referencyjnych, wymaga akceleratora cząstek typu cyklotron lub synchrotron, zdolnego do przyspieszania protonów lub jonów węgla do wysokich energii i precyzyjnego kształtowania piku Bragga. Mylenie jej z klasyczną kobaltoterapią, RTG czy IORT wynika zwykle z braku rozróżnienia między rodzajami promieniowania jonizującego i ich właściwościami fizyczno-dawkowymi.

Pytanie 33

Wskaż osłonę radiologiczną, która jest stosowana w pracowniach radiodiagnostyki stomatologicznej.

A. Osłona 1
Ilustracja do odpowiedzi A
B. Osłona 2
Ilustracja do odpowiedzi B
C. Osłona 4
Ilustracja do odpowiedzi C
D. Osłona 3
Ilustracja do odpowiedzi D
W radiodiagnostyce stomatologicznej wybór właściwej osłony nie jest kwestią dowolną czy wygody, tylko bardzo konkretnych wymogów ochrony radiologicznej. Typowym błędem jest myślenie, że „byle jaka” osłona ołowiowa będzie dobra, skoro przecież wszystkie wyglądają podobnie i zawierają materiał osłonowy. Tymczasem poszczególne konstrukcje fartuchów są projektowane pod konkretne zastosowania: inne do fluoroskopii, inne na salę operacyjną, jeszcze inne do badań przyłóżkowych czy dla personelu pomocniczego. W stomatologii chodzi głównie o ochronę pacjenta, który stoi lub siedzi blisko głowicy aparatu, a wiązka pierwotna jest stosunkowo wąska, ale rozproszenie z czaszki i kręgosłupa szyjnego może docierać do całego tułowia. Dlatego stosuje się fartuchy o odpowiednio dobranej długości i szerokości, często z ochroną przodu i tyłu, a nie np. wąskie osłony segmentowe czy fartuchy jednostronne, które bardziej pasują do specyficznych procedur zabiegowych. Kolejny częsty błąd myślowy polega na sugerowaniu się wyłącznie wygodą lub estetyką – osłona, która wygląda na „lżejszą” czy „poręczną”, nie zawsze zapewni właściwy równoważnik ołowiu tam, gdzie jest on potrzebny. Z punktu widzenia fizyki promieniowania ważne jest, żeby osłona pokrywała możliwie największy obszar wrażliwych tkanek, bez zbędnych przerw i szczelin, bo to właśnie przez takie luki przechodzi promieniowanie rozproszone. W praktyce egzaminacyjnej rodzi to pułapkę: zdający często wybiera osłony, które kojarzą się im z innymi dziedzinami radiologii (np. długie fartuchy zabiegowe lub nietypowe narzutki na ramię), zamiast skojarzyć klasyczny fartuch stomatologiczny używany niemal w każdym gabinecie dentystycznym. Z mojego doświadczenia dobrze jest zapamiętać, że w stomatologii standardem jest stosunkowo prosty, pełny fartuch z równoważnikiem ołowiu dostosowanym do energii wiązki z aparatów stomatologicznych, a konstrukcje bardziej „udziwnione” zazwyczaj służą innym procedurom i nie będą traktowane jako prawidłowa odpowiedź w tego typu pytaniach.

Pytanie 34

Odprowadzenie EKG mierzące różnicę potencjałów między lewym podudziem a prawym przedramieniem oznacza się jako

A. II
B. III
C. aVF
D. aVL
W tym pytaniu łatwo się pomylić, bo wszystkie odpowiedzi odnoszą się do odprowadzeń kończynowych, ale różnica polega na tym, jak są zbudowane i między jakimi punktami mierzą potencjał. Kluczowe jest zrozumienie klasycznego trójkąta Einthovena i rozróżnienie odprowadzeń dwubiegunowych (I, II, III) od jednobiegunowych wzmocnionych (aVR, aVL, aVF). Odprowadzenie III nie może być poprawne, bo mierzy różnicę potencjałów między lewym ramieniem (LA) a lewym podudziem (LL). Elektroda na prawym przedramieniu (RA) w ogóle nie jest w nim biegunem czynnym ani biernym, tylko bierze udział pośrednio przy wyznaczaniu tzw. elektrody Wilsona. Typowym błędem jest mylenie „lewa kończyna górna” z „prawą”, szczególnie jeśli ktoś nie ma w głowie schematu trójkąta. Odprowadzenia aVL i aVF są jeszcze inną kategorią. To są odprowadzenia jednobiegunowe wzmocnione (augmented). W aVL biegun czynny znajduje się na lewym ramieniu, a biegun odniesienia jest wirtualny, wyliczony jako średnia potencjałów z pozostałych kończyn (RA i LL). Czyli to nie jest prosta różnica między konkretnymi dwiema elektrodami, tylko pomiar względem uśrednionego potencjału. W aVF biegunem czynnym jest lewy podudzie (LL), a biegun odniesienia stanowi średnia z RA i LA. Z tego powodu nie można powiedzieć, że aVF mierzy różnicę między lewym podudziem a prawym przedramieniem, chociaż RA jest jednym ze składników elektrody odniesienia. To takie półprawdy, które często wprowadzają w błąd. W praktyce dobre podejście to podzielić sobie w głowie: I, II, III – konkretne para elektrod; aVR, aVL, aVF – jedna elektroda aktywna i „wirtualna” elektroda odniesienia. Jeżeli w treści pytania jest wyraźnie mowa o różnicy potencjałów między dwiema konkretnymi kończynami, to prawie na pewno chodzi o jedno z odprowadzeń dwubiegunowych. Wtedy wystarczy przypomnieć sobie schemat: I – RA–LA, II – RA–LL, III – LA–LL. Wszystko inne to już odprowadzenia jednobiegunowe. Takie uporządkowanie bardzo zmniejsza ryzyko typowych pomyłek na egzaminie i przy łóżku pacjenta.

Pytanie 35

W jaki sposób należy ustawić promień centralny w stosunku do ramienia i przedramienia, by wykonać zdjęcie rentgenograficzne stawu łokciowego u pacjenta z przykurczem?

A. W dwusiecznej kąta zawartego między ramieniem a przedramieniem.
B. Prostopadle do kości ramiennej.
C. W dwusiecznej kąta zawartego między kasetą a kością ramienną.
D. Prostopadle do kości promieniowej.
W obrazowaniu stawu łokciowego z przykurczem największym wyzwaniem jest geometria. Kości nie są ustawione w typowej, podręcznikowej pozycji, więc jeśli zastosujemy „sztywne” reguły, to bardzo łatwo o zniekształcenia obrazu. Ustawienie promienia centralnego prostopadle do kości ramiennej wydaje się intuicyjne, bo ramię jest zwykle stabilniejsze i łatwiej je oprzeć na stole. Problem w tym, że wtedy przedramię pozostaje pod kątem, a staw łokciowy jest rzutowany skośnie. Powoduje to nierównomierne powiększenie i skrócenie struktur po stronie przedramienia, zaburza też ocenę powierzchni stawowych kości łokciowej i promieniowej. Podobnie jest przy kierowaniu promienia prostopadle do kości promieniowej. Tu z kolei „faworyzujemy” przedramię, a zaniedbujemy ustawienie kości ramiennej. W efekcie część ramienna stawu jest zdeformowana projekcyjnie, pojawiają się różnice w powiększeniu i trudności w ocenie kształtu bloczka i główki kości ramiennej. Taka projekcja może być myląca przy podejrzeniu zwichnięć, podwichnięć czy zmian pourazowych w obrębie nasady dalszej kości ramiennej. Błędne jest też podejście, w którym dwusieczną wyznacza się między kasetą a kością ramienną. Taka koncepcja czasem wynika z przeniesienia schematów z innych projekcji, gdzie rzeczywiście koryguje się kąt między wiązką a detektorem. W przypadku przykurczu łokcia kluczowy jest jednak układ ramienia względem przedramienia, a nie relacja do kasety. Jeśli skupimy się na kącie z kasetą, możemy ustawić promień w sposób, który zupełnie nie odpowiada rzeczywistemu zgięciu stawu. To prowadzi do jeszcze większych zniekształceń i często do konieczności powtórzenia zdjęcia. Typowy błąd myślowy polega na tym, że ktoś szuka jednej „stałej” referencji: albo kości, albo kasety, zamiast myśleć o całym układzie segmentów kończyny. Dobra praktyka w radiografii mówi jasno: przy przykurczach i niestandardowych ustawieniach należy szukać dwusiecznej kąta pomiędzy częściami ciała, które chcemy ocenić, a nie między jedną kością a detektorem. Dopiero takie podejście zapewnia możliwie równomierne odwzorowanie wszystkich elementów stawu.

Pytanie 36

W jakiej projekcji i pod jakim kątem padania promienia centralnego został wykonany radiogram obojczyka?

Ilustracja do pytania
A. W projekcji AP i skośnym doogonowo kącie padania promienia centralnego.
B. W projekcji AP i prostopadłym kącie padania promienia centralnego.
C. W projekcji PA i prostopadłym kącie padania promienia centralnego.
D. W projekcji AP i skośnym dołgłowowo kącie padania promienia centralnego.
W radiografii obojczyka kluczowe jest zrozumienie, po co w ogóle stosuje się różne kąty padania promienia centralnego. Intuicyjnie wiele osób zakłada, że wystarczy zwykła projekcja AP lub PA z promieniem prostopadłym, bo przecież kość leży stosunkowo płytko. To jednak typowy błąd myślowy – przy padaniu prostopadłym obojczyk nakłada się na żebra, łopatkę i górną część klatki piersiowej, przez co drobne szczeliny złamań mogą być zupełnie niewidoczne albo mocno zamaskowane. Odpowiedź z projekcją AP i promieniem prostopadłym opisuje właśnie taki zbyt „podstawowy” wariant. On ma swoje miejsce, jako zdjęcie przeglądowe, ale nie odpowiada obrazowi, na którym obojczyk jest wyraźnie wyciągnięty ponad tło żeber. Podobnie projekcja PA z prostopadłym promieniem centralnym jest w rutynowej praktyce zdecydowanie rzadziej stosowana do obojczyka. Ułożenie pacjenta tyłem do lampy i przodem do detektora przy obojczyku nie daje żadnej istotnej przewagi diagnostycznej, a często jest mniej wygodne przy urazach barku. Dlatego większość zaleceń i podręczników technik obrazowania promuje raczej układ AP niż PA. Problematyczne jest też założenie, że wystarczy dowolny skośny kąt – stąd myląca odpowiedź ze skośnym doogonowym nachyleniem promienia. Kąt doogonowy powoduje „opuszczenie” obojczyka w cień żeber, czyli dokładnie odwrotny efekt niż chcemy uzyskać. Z mojego doświadczenia to częsty błąd: ktoś pamięta, że ma być kąt skośny, ale myli kierunek – do głowy zamiast do ogona. Tymczasem celem jest uniesienie cienia obojczyka, a to uzyskujemy tylko przy nachyleniu dołgłowowym w projekcji AP. Dobre zrozumienie geometrii wiązki i nakładania się struktur anatomicznych jest tutaj ważniejsze niż samo „wkuwanie” nazwy projekcji, bo potem łatwiej samodzielnie dobrać kąt do konkretnego pacjenta i sytuacji klinicznej.

Pytanie 37

Do pomiaru dawek indywidualnych u osób narażonych zawodowo na promieniowanie rentgenowskie są stosowane

A. detektory termoluminescencyjne.
B. detektory półprzewodnikowe.
C. liczniki scyntylacyjne.
D. liczniki geigera.
W ochronie radiologicznej łatwo pomylić urządzenia służące do pomiarów w pracowni z tymi, które są przeznaczone do monitorowania dawki indywidualnej pracownika. To dwa różne światy. Licznik Geigera kojarzy się większości osób z promieniowaniem, bo „tyka” i reaguje na obecność promieniowania jonizującego. W praktyce jednak jest to przyrząd do pomiaru mocy dawki lub do wykrywania skażeń, a nie do precyzyjnego, długookresowego monitorowania dawek osobistych. Nie nosi się go stale przy sobie w kieszeni przez miesiąc, tylko używa doraźnie, np. do sprawdzania szczelności osłon, kontroli pomieszczeń czy badania obecności źródeł. Podobnie liczniki scyntylacyjne, choć bardzo czułe i świetne do pomiarów w medycynie nuklearnej czy przy kontroli źródeł, są głównie stacjonarne lub ręczne. Służą do pomiaru aktywności, mocy dawki, lokalizowania ognisk promieniowania, ale nie do tego, żeby technik RTG nosił je przez cały miesiąc przypięte do fartucha ołowianego. To po prostu byłoby kompletnie niepraktyczne i kosztowne, a do tego pomiar byłby mało powtarzalny. Detektory półprzewodnikowe też brzmią nowocześnie i faktycznie są szeroko stosowane w aparatach rentgenowskich, tomografach komputerowych czy w dozymetrii referencyjnej jako bardzo precyzyjne sondy pomiarowe. Jednak ich konstrukcja i cena powodują, że używa się ich raczej do krótkotrwałych pomiarów kontrolnych, testów akceptacyjnych czy kontroli jakości, a nie jako masowe dozymetry osobiste dla całego personelu. Typowym błędem myślowym jest założenie, że „skoro coś mierzy promieniowanie, to nadaje się do wszystkiego”. W dozymetrii indywidualnej liczy się możliwość długiego noszenia, odporność na warunki pracy, powtarzalność odczytu i niski koszt wymiany. Dlatego standardem stały się detektory termoluminescencyjne, ewentualnie dawkomierze OSL, a nie liczniki Geigera, scyntylatory czy detektory półprzewodnikowe. Właśnie rozróżnianie tych zastosowań to kluczowy element praktycznej ochrony radiologicznej.

Pytanie 38

Do prób aktywacyjnych stosowanych w badaniu EEG zalicza się

A. rytmiczne błyski świetlne.
B. próbę hipowentylacyjną.
C. wstrzymanie oddechu.
D. otwieranie i zamykanie ust.
W badaniu EEG bardzo łatwo pomylić różne polecenia wydawane pacjentowi z tak zwanymi próbami aktywacyjnymi. Wiele osób zakłada, że skoro coś zmienia stan fizjologiczny, to automatycznie jest to próba aktywacyjna, ale w EEG obowiązują dość konkretne standardy. Klasyczne próby aktywacyjne to przede wszystkim hiperwentylacja oraz rytmiczna stymulacja świetlna. Ich celem jest zwiększenie szansy ujawnienia zmian napadowych lub innych nieprawidłowości w zapisie. Wstrzymanie oddechu nie jest typową próbą aktywacyjną w EEG. Może mieć znaczenie w innych badaniach fizjologicznych czy obrazowych, na przykład w rezonansie magnetycznym klatki piersiowej lub w USG jamy brzusznej, gdzie chodzi o ograniczenie ruchów oddechowych. W EEG standardowo stosuje się odwrotną koncepcję – hiperwentylację, czyli pogłębione, przyspieszone oddychanie przez kilka minut, co zmienia równowagę gazową we krwi i może prowokować wyładowania padaczkowe. Z tego powodu pojęcie „próba hipowentylacyjna” w EEG jest merytorycznie chybione, bo nie występuje w zaleceniach ani podręcznikach jako element protokołu. Otwieranie i zamykanie ust także nie jest próbą aktywacyjną. Czasem prosi się pacjenta o otwarcie i zamknięcie oczu, bo to wywołuje charakterystyczną reakcję w rytmie alfa, co pomaga ocenić reaktivność zapisu. Ruchy ust, żucie czy mówienie zazwyczaj są wręcz niepożądane, bo generują artefakty mięśniowe i utrudniają interpretację zapisu. Typowym błędem myślowym jest tu mieszanie ogólnych poleceń porządkowych dla pacjenta z procedurami mającymi konkretny, udokumentowany wpływ na zapis EEG. W dobrze prowadzonej pracowni technik trzyma się ustalonych protokołów: zapis spoczynkowy, otwieranie/zamykanie oczu, hiperwentylacja, fotostymulacja. Wszystko inne traktuje się albo jako źródło artefaktów, albo jako element komfortu pacjenta, a nie jako formalną próbę aktywacyjną. Dlatego jedynie rytmiczne błyski świetlne spełniają tu kryteria właściwej odpowiedzi.

Pytanie 39

Odprowadzenie II rejestruje różnicę potencjałów między

A. lewą i prawą ręką.
B. prawą ręką i lewą nogą.
C. prawą ręką i prawą nogą.
D. lewą ręką i lewą nogą.
W odprowadzeniach kończynowych EKG łatwo się pomylić, bo wszystkie nazwy i elektrody mieszają się ze sobą, a na ekranie aparatu widzimy po prostu linie. Merytorycznie jednak każde odprowadzenie ma precyzyjnie zdefiniowany układ biegunów, oparty na klasycznym trójkącie Einthovena. W tym układzie prawa ręka, lewa ręka i lewa noga tworzą trzy wierzchołki, a odprowadzenia I, II i III są liniami między nimi. Odprowadzenie II to różnica potencjałów między prawą ręką (biegun ujemny) a lewą nogą (biegun dodatni), więc wszystkie inne kombinacje kończyn nie pasują do tej definicji. Częsty błąd myślowy polega na automatycznym założeniu, że „II” to po prostu „druga ręka”, czyli lewa, więc niektórzy kojarzą je z różnicą między lewą i prawą ręką. Tymczasem to opisuje odprowadzenie I, które rejestruje różnicę potencjałów między lewą a prawą ręką. Takie skojarzenie jest intuicyjne, ale niestety niezgodne z fizjologią zapisu EKG. Inna pomyłka to łączenie odprowadzenia II z parą lewej ręki i lewej nogi. Taki układ odpowiada odprowadzeniu III, gdzie lewa ręka jest biegunem ujemnym, a lewa noga dodatnim. Jeśli ktoś myśli bardziej „anatomicznie” niż „elektrycznie”, może sobie w głowie ustawiać numerację w dół ciała, co znowu prowadzi do błędów. Pojawia się też czasem przekonanie, że w którymś odprowadzeniu bierze udział prawa noga jako biegun dodatni lub ujemny. Prawa noga w standardowym EKG pełni rolę elektrody uziemiającej, stabilizującej zapis i zmniejszającej zakłócenia, ale nie jest elementem żadnego z trzech podstawowych odprowadzeń kończynowych. Z praktycznego punktu widzenia pomylenie tych konfiguracji może skutkować błędną interpretacją osi serca, nieprawidłowym zrozumieniem, skąd pochodzi dany sygnał i dlaczego załamki P czy QRS wyglądają tak, a nie inaczej. Dlatego w dobrej praktyce diagnostyki elektromedycznej warto po prostu zapamiętać: I – między rękami, II – prawa ręka i lewa noga, III – lewa ręka i lewa noga. To porządkuje całą resztę i ułatwia dalszą naukę EKG.

Pytanie 40

Audiometria impedancyjna polega na pomiarze

A. przewodnictwa powietrznego.
B. przewodnictwa kostnego.
C. oporu akustycznego i ciśnienia w uchu środkowym.
D. oporu akustycznego i ciśnienia w uchu zewnętrznym.
Audiometria impedancyjna, nazywana też tympanometrią, to badanie, które z definicji ocenia opór akustyczny (czyli impedancję) i warunki ciśnieniowe w uchu środkowym, a nie w przewodzie słuchowym zewnętrznym. Kluczowe jest to, że aparat zmienia ciśnienie w przewodzie zewnętrznym tylko po to, żeby „przetestować”, jak błona bębenkowa i układ kosteczek reagują w różnych warunkach ciśnienia. W praktyce mierzymy więc, jak dobrze układ przewodzący ucha środkowego przenosi drgania akustyczne przy różnych wartościach ciśnienia po stronie ucha środkowego. Moim zdaniem warto to sobie wyobrazić tak: urządzenie wysyła do ucha ton testowy (zwykle 226 Hz) i jednocześnie zmienia ciśnienie w przewodzie słuchowym zewnętrznym. Na podstawie odbitego dźwięku i zmian w sztywności układu ocenia impedancję błony bębenkowej i kosteczek słuchowych. Na wydruku dostajemy wykres tympanogramu, który pokazuje, przy jakim ciśnieniu w uchu środkowym przewodzenie jest najlepsze. Jeżeli szczyt krzywej wypada przy ciśnieniu około 0 daPa, to sugeruje prawidłowe wyrównanie ciśnień przez trąbkę słuchową. W codziennej pracy badanie to wykorzystuje się do wykrywania wysiękowego zapalenia ucha środkowego, niedrożności trąbki słuchowej, usztywnienia łańcucha kosteczek (otoskleroza) czy perforacji błony bębenkowej. Dobrą praktyką jest łączenie audiometrii impedancyjnej z klasyczną audiometrią tonalną, bo razem dają pełniejszy obraz – wiemy, czy niedosłuch ma charakter przewodzeniowy, odbiorczy czy mieszany oraz czy problem leży po stronie ucha środkowego. Standardowo w protokołach opisuje się typ tympanogramu (A, B, C), wartości ciśnienia szczytowego i podatności (compliance). To są parametry, które wprost odnoszą się do oporu akustycznego i ciśnienia w uchu środkowym, dokładnie tak jak podano w prawidłowej odpowiedzi.