Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 10 kwietnia 2026 11:28
  • Data zakończenia: 10 kwietnia 2026 11:58

Egzamin zdany!

Wynik: 21/40 punktów (52,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na obrazie uwidoczniono złamanie kompresyjne kręgu

Ilustracja do pytania
A. L2
B. L1
C. Th11
D. Th12
W tym zadaniu łatwo się pomylić, bo przejście piersiowo‑lędźwiowe bywa na obrazach dość mylące, zwłaszcza jeśli ktoś patrzy głównie na kształt kręgu, a nie na jego położenie względem sąsiednich struktur. Błędne odpowiedzi zwykle wynikają z założenia, że każdy bardziej masywny trzon od razu musi być lędźwiowy, albo z mechanicznego liczenia "od góry obrazu w dół", bez odniesienia do kości krzyżowej i typowych punktów orientacyjnych. Kręgi L1 i L2 są rzeczywiście masywne, mają duże trzony i brak przyczepów żeber, ale leżą już poniżej przejścia piersiowo‑lędźwiowego. Jeżeli na obrazie widzimy wyraźne przejście z węższych, bardziej klinowatych kręgów piersiowych na szersze kręgi lędźwiowe, to pierwszy wyraźnie lędźwiowy trzon poniżej tego przejścia to L1, a nie Th12. Błędne oznaczenie złamania Th12 jako L1 lub L2 to dość typowy błąd u osób początkujących, bo skupiają się na samej deformacji trzonu, a nie na jego numeracji. W praktyce opisowej według dobrych standardów radiolog powinien zawsze zacząć od lokalizacji kości krzyżowej, odliczyć kręgi lędźwiowe do góry (L5–L1), i dopiero nad L1 umieścić Th12. Kręgi Th11 i Th12 są ostatnimi kręgami piersiowymi, ale różnią się położeniem: Th11 leży wyżej, nad Th12, i nie jest bezpośrednio sąsiadem z L1. Próba nazwania widocznego złamania Th11 wynika zwykle z mylenia liczby kręgów piersiowych lub nieuwzględniania segmentu przejściowego. Dodatkowo trzeba pamiętać o ewentualnych wariantach anatomicznych (np. przejściowy krąg lędźwiowo‑krzyżowy), ale nawet wtedy zasada systematycznego liczenia od dołu obrazu w górę pozostaje złotym standardem. Moim zdaniem dobra praktyka to zawsze ocena całej sekwencji, porównanie wysokości trzonów, kształtu wyrostków i relacji do żeber, a dopiero potem stawianie ostatecznej etykietki typu Th12, L1 itd. Dzięki temu można uniknąć właśnie takich pomyłek w numeracji poziomu złamania.

Pytanie 2

Który artefakt jest widoczny na skanie tomografii komputerowej?

Ilustracja do pytania
A. Elektrostatyczny.
B. Utwardzonej wiązki.
C. Metaliczny.
D. Ruchowy.
Na przedstawionym skanie TK widać bardzo charakterystyczny artefakt metaliczny: od jasnego, silnie pochłaniającego struktury (materiał metaliczny – np. śruba, stabilizacja, klips) odchodzą promieniste smugi i pasma o bardzo wysokiej i bardzo niskiej gęstości (przepalenia i wyciemnienia). To klasyczny obraz tzw. streak artifacts związanych z obecnością metalu w polu obrazowania. Metal ma bardzo wysoki współczynnik pochłaniania promieniowania rentgenowskiego, powoduje nasycenie detektorów, zjawisko częściowego objętościowania i silne utwardzenie wiązki, ale w praktyce w diagnostyce TK takie zjawisko określa się właśnie jako artefakt metaliczny. Moim zdaniem warto zapamiętać, że jeśli na obrazie TK widzisz gwiaździste smugi wychodzące z jasnego, „przepalonego” implantu albo cementu kostnego, to praktycznie zawsze mówimy o artefakcie metalicznym. W codziennej pracy technika obrazowania stosuje się różne metody jego redukcji: zwiększenie kV, węższe pole obrazowania, algorytmy MAR (Metal Artifact Reduction), rekonstrukcję iteracyjną, a także cienkie warstwy i odpowiedni dobór okna. W wielu pracowniach, zgodnie z aktualnymi zaleceniami producentów i standardami dobrej praktyki, przed badaniem TK dokładnie dokumentuje się obecność implantów metalowych, a w protokole badań ustawia się specjalne programy „post-op spine”, „hip prosthesis” itp. Pozwala to ograniczyć wpływ metalu na ocenę tkanek sąsiednich, np. kanału kręgowego czy struktur naczyniowych. Z mojego doświadczenia im lepiej technik rozumie mechanizm powstawania artefaktu metalicznego, tym sprawniej dobiera parametry ekspozycji oraz rekonstrukcji, tak żeby lekarz radiolog dostał obraz możliwie czytelny mimo obecności metalu.

Pytanie 3

Na schemacie oznaczono

Ilustracja do pytania
A. 1 – załamek U; 2 – załamek T
B. 1 – załamek P; 2 – załamek T
C. 1 – załamek U; 2 – załamek P
D. 1 – załamek T; 2 – załamek P
Na schemacie prawidłowo rozpoznałeś: 1 – załamek P, 2 – załamek T. To jest klasyczny zapis pojedynczego cyklu pracy serca w EKG. Załamek P odpowiada depolaryzacji przedsionków, czyli ich pobudzeniu elektrycznemu poprzedzającemu skurcz. W zapisie zawsze występuje przed zespołem QRS, ma zwykle niewielką amplitudę i zaokrąglony kształt. Załamek T natomiast odzwierciedla repolaryzację komór, czyli „powrót” komórek mięśnia komór do stanu wyjściowego po skurczu. Pojawia się po zespole QRS i odcinku ST, jest zwykle szerszy i łagodniej zaokrąglony niż P. Z mojego doświadczenia, w praktyce technika EKG kluczowe jest szybkie rozpoznanie tych elementów, bo od nich zaczyna się każda analiza zapisu: liczenie częstości, ocena rytmu zatokowego (czy każdy QRS ma przed sobą załamek P), ocena przewodzenia przedsionkowo‑komorowego (odstęp PQ) czy wstępna ocena niedokrwienia i zaburzeń elektrolitowych (kształt i biegunowość załamka T, odcinek ST). Standardy interpretacji EKG (np. zalecenia Europejskiego Towarzystwa Kardiologicznego) kładą duży nacisk na systematyczną analizę: najpierw rytm i załamek P, potem QRS, na końcu repolaryzacja, czyli ST i T. W codziennej pracy w pracowni diagnostyki elektromedycznej prawidłowe rozpoznawanie P i T pomaga uniknąć pomylenia artefaktów z patologią, np. drżenia mięśniowego z migotaniem przedsionków, czy płaskiego T z błędem ułożenia elektrod. Moim zdaniem warto sobie utrwalić prostą zasadę: mały, pierwszy – P (przedsionki), wysoki, ostry – QRS (komory kurczą się), ostatni, szerszy – T (komory się „resetują”).

Pytanie 4

Zamieszczone badanie elektrokardiograficzne wykazało u pacjenta

Ilustracja do pytania
A. niemiaro­wość zatokową.
B. migotanie komór.
C. migotanie przedsionków.
D. ekstrasystolię nadkomorową.
Na tym zapisie EKG łatwo pomylić migotanie przedsionków z innymi zaburzeniami rytmu, szczególnie jeśli patrzy się tylko na pojedyncze fragmenty, a nie na cały obraz. Jednym z częstych błędów jest uznanie, że widoczna jest ekstrasystolia nadkomorowa. W przypadku pojedynczych pobudzeń nadkomorowych mamy jednak wyraźnie dominujący rytm podstawowy (najczęściej zatokowy), z prawidłowymi załamkami P i w miarę równymi odstępami RR, a co jakiś czas pojawia się „wcześniejszy” zespół QRS, często z nieco zmienionym załamkiem P lub bez niego. Na pokazanym EKG nie ma takiego dominującego, uporządkowanego rytmu – wszystkie odstępy RR są nieregularne, a to już wyklucza prostą ekstrasystolię. Drugi typowy trop to niemiarowość zatokowa. W rytmie zatokowym zawsze widzimy wyraźne, dodatnie załamki P przed każdym zespołem QRS, o podobnym kształcie, z zachowaną kolejnością P–QRS–T. Niemiarowość polega wtedy na stopniowych zmianach odstępów RR, najczęściej związanych z fazą oddechu, ale struktura załamków pozostaje zachowana. Tutaj brakuje klasycznych załamków P – zamiast nich w linii izoelektrycznej są drobne, nieregularne fale, a zmiany RR są chaotyczne, nie „płynne”. To już nie pasuje do prostego rytmu zatokowego z oddechową niemiarowością. Trzecie błędne skojarzenie to migotanie komór. W migotaniu komór zapis wygląda dramatycznie inaczej: nie ma w ogóle rozpoznawalnych zespołów QRS, tylko nieregularne, szerokie, zmienne co do amplitudy i częstotliwości fale – zapis jest zupełnie „bezkształtny” i odpowiada nagłemu zatrzymaniu krążenia. Na naszym EKG zespoły QRS są wyraźne, stosunkowo wąskie i powtarzalne, co jednoznacznie wyklucza VF. Typowym błędem myślowym jest skupianie się tylko na samej niemiarowości i automatyczne przypisanie jej do „niemiaro­wości zatokowej”, bez sprawdzenia, czy załamki P w ogóle występują i czy zachowana jest prawidłowa sekwencja przewodzenia. Dobra praktyka w diagnostyce EKG to zawsze systematyczne przejście: obecność i kształt załamków P, zależność P–QRS, szerokość QRS, regularność RR. Jeśli tego się trzymamy, dużo łatwiej uniknąć takich pomyłek.

Pytanie 5

Strzykawka automatyczna do podawania kontrastu jest stosowana przy wykonywaniu

A. histerosalpingografii.
B. cystografii mikcyjnej.
C. wlewu doodbytniczego.
D. koronarografii.
Prawidłowo – strzykawka automatyczna do podawania środka cieniującego jest standardowo stosowana przy koronarografii. W badaniach naczyń wieńcowych serca bardzo ważne jest, żeby kontrast był podany szybko, pod odpowiednim ciśnieniem i w ściśle kontrolowanej objętości. Ręką po prostu nie da się tego zrobić tak powtarzalnie i precyzyjnie. Injektor automatyczny pozwala ustawić prędkość przepływu (np. kilka ml/s), całkowitą dawkę kontrastu na serię zdjęć, opóźnienie czasowe względem ekspozycji promieniowania oraz ewentualne tryby dwufazowe. Dzięki temu radiolog interwencyjny może skupić się na prowadzeniu cewnika w tętnicy wieńcowej, a nie na samym wstrzykiwaniu. W koronarografii używa się jodowych środków cieniujących podawanych dotętniczo, często u pacjentów z licznymi obciążeniami kardiologicznymi. Automatyczna strzykawka pozwala ograniczać ryzyko nagłych zmian hemodynamicznych – np. zbyt szybkiego, niekontrolowanego bolusa. Z mojego doświadczenia to też kwestia bezpieczeństwa dla personelu: system jest zamknięty, łatwiej utrzymać aseptykę, a ekspozycja rąk na promieniowanie jest mniejsza, bo operator nie musi trzymać zwykłej strzykawki przy stole angiograficznym. W pracowniach hemodynamicznych jest to w zasadzie złoty standard – aparatura angiograficzna jest fabrycznie przygotowana do współpracy z injektorem, a protokoły zabiegowe opisują dokładne parametry iniekcji dla różnych projekcji i gałęzi tętnic wieńcowych. W innych procedurach radiologicznych kontrast też bywa podawany automatycznie (np. w TK), ale w histerosalpingografii, cystografii mikcyjnej czy wlewie doodbytniczym stosuje się raczej ręczne, grawitacyjne lub bardzo łagodne podanie, bez typowego injektora wysokociśnieniowego, jak w koronarografii.

Pytanie 6

Wskaż osłonę radiologiczną, która jest stosowana w pracowniach radiodiagnostyki stomatologicznej.

A. Osłona 3
Ilustracja do odpowiedzi A
B. Osłona 2
Ilustracja do odpowiedzi B
C. Osłona 1
Ilustracja do odpowiedzi C
D. Osłona 4
Ilustracja do odpowiedzi D
Prawidłowo wskazana „Osłona 2” odpowiada typowemu fartuchowi ochronnemu stosowanemu rutynowo w pracowniach radiodiagnostyki stomatologicznej. Jest to fartuch z materiału ołowiowego (lub równoważnego, np. kompozyty bez ołowiu) o określonym współczynniku równoważnika ołowiu, najczęściej 0,25–0,35 mm Pb dla badań stomatologicznych. Tego typu osłony są projektowane tak, żeby zabezpieczać tułów, narządy szczególnie wrażliwe (szpik kostny, gonady, część jamy brzusznej) oraz tarczycę, przy jednoczesnym zachowaniu wygody i swobody ruchów pacjenta. W gabinecie stomatologicznym, zgodnie z zasadami ochrony radiologicznej i wymaganiami wynikającymi z prawa atomowego oraz zaleceń Państwowej Agencji Atomistyki, pacjent podczas wykonywania zdjęć wewnątrzustnych, pantomograficznych czy cefalometrycznych powinien być osłonięty właśnie takim fartuchem lub jego odmianą (czasem połączoną z kołnierzem na tarczycę). Moim zdaniem kluczowe jest tutaj połączenie dwóch rzeczy: odpowiedniej grubości równoważnika ołowiu i właściwego dopasowania do sylwetki. Jeżeli fartuch jest za krótki, źle zapięty albo zsuwa się z barków, realna skuteczność ochrony spada, nawet jeśli teoretycznie spełnia normy. W praktyce technik elektroradiologii zawsze powinien sprawdzić, czy fartuch dobrze przylega, czy nie ma ubytków w materiale osłonowym i czy nie jest mechanicznie uszkodzony (pęknięcia, załamania). Dobrą praktyką jest też regularna kontrola fartuchów w badaniu rentgenowskim serwisowym, żeby wykryć ewentualne nieszczelności. W radiologii stomatologicznej stosuje się jeszcze dodatkowe osłony lokalne – np. kołnierze na tarczycę u dzieci – ale podstawowym elementem, który większość osób kojarzy z gabinetem RTG u dentysty, jest właśnie taki fartuch jak na ilustracji oznaczonej jako Osłona 2.

Pytanie 7

Pielografia to badanie układu

A. moczowego.
B. pokarmowego.
C. limfatycznego.
D. płciowego.
Pojęcie pielografii bywa mylące, bo nie jest tak często używane w codziennym języku jak np. USG czy tomografia. Łatwo przez to skojarzyć je z niewłaściwym układem narządów. Niektórzy łączą je z układem płciowym, bo urologia zajmuje się zarówno układem moczowym, jak i częścią zagadnień z zakresu narządów płciowych. Jednak pielografia odnosi się ściśle do układu moczowego, a dokładniej do obrazowania miedniczek nerkowych i moczowodów przy użyciu kontrastu i promieniowania RTG. Układ płciowy bada się innymi metodami, np. histerosalpingografią w ginekologii, USG przezpochwowym, rezonansem miednicy mniejszej, ale nie nazywa się tego pielografią. Z kolei skojarzenie z układem pokarmowym wynika czasem z ogólnego myślenia, że „jak jest kontrast i RTG, to pewnie przewód pokarmowy”. W diagnostyce gastroenterologicznej rzeczywiście używa się badań kontrastowych, jak pasaż przewodu pokarmowego, wlew kontrastowy jelita grubego czy gastrografia, ale mają one inne nazwy i dotyczą przełyku, żołądka, jelit, a nie nerek i moczowodów. Układ limfatyczny także bada się innymi technikami, np. limfografią, limfoscyntygrafią albo za pomocą rezonansu magnetycznego i tomografii komputerowej, ale te procedury nie są określane jako pielografia. Typowym błędem myślowym jest tu kierowanie się jedynie brzmieniem słowa, bez znajomości przedrostków medycznych. Przedrostek „pielo‑” odnosi się do miedniczki nerkowej (pelvis renalis), a nie do skóry, przewodu pokarmowego czy układu rozrodczego. Dlatego poprawne przypisanie pielografii do układu moczowego jest ważne nie tylko na teście, ale też przy rozumieniu, jakie badanie zleca lekarz i czego ono tak naprawdę dotyczy. W praktyce medycznej precyzyjne używanie nazw badań obrazowych jest elementem dobrej komunikacji i zgodne z obowiązującymi standardami diagnostyki obrazowej.

Pytanie 8

Największa wartość energii promieniowania stosowanego w radioterapii jest generowana przy użyciu

A. przyspieszacza liniowego.
B. radioaktywnego cezu-137.
C. aparatu kobaltowego.
D. aparatu rentgenowskiego.
W radioterapii łatwo skojarzyć „mocne promieniowanie” z materiałami promieniotwórczymi, takimi jak kobalt‑60 czy cez‑137, albo po prostu z aparatem rentgenowskim, który przecież też emituje promieniowanie jonizujące. To jednak trochę mylące uproszczenie. Kluczowe jest tu pojęcie energii wiązki fotonów lub elektronów oraz możliwość jej wyboru i modulacji. Aparat kobaltowy wykorzystuje izotop Co‑60 i emituje promieniowanie gamma o stałej, z góry określonej energii około 1,25 MeV. Ta energia jest wystarczająca do prowadzenia teleterapii, ale nie daje takiej elastyczności jak nowoczesne przyspieszacze. Dodatkowo źródło kobaltowe cały czas się rozpada, więc aktywność i dawka z czasem spadają, co w praktyce komplikuje planowanie i kontrolę jakości. Cez‑137 ma jeszcze niższą energię fotonów i jest obecnie rzadziej stosowany w teleterapii; historycznie bywał używany, ale dziś raczej kojarzy się z niektórymi aplikatorami brachyterapeutycznymi lub zastosowaniami przemysłowymi, a nie z generowaniem najwyższych energii w radioterapii onkologicznej. Aparat rentgenowski, taki typowy do diagnostyki, pracuje w zakresie kilkudziesięciu do około 150 kV. To oznacza, że energia promieniowania jest znacznie niższa niż w wiązkach megawoltowych z przyspieszacza liniowego. Takie promieniowanie jest świetne do obrazowania, ale dla głębokiej radioterapii nowotworów jest po prostu za miękkie – dawka odkłada się głównie powierzchownie, co zwiększa uszkodzenia skóry i nie pozwala dobrze napromienić guza położonego głęboko. Typowym błędem myślowym jest utożsamianie „radioaktywnego izotopu” z „maksymalną energią”. W praktyce klinicznej najwyższe i najbardziej użyteczne energie wiązek terapeutycznych uzyskuje się w przyspieszaczach liniowych (linacach), gdzie elektrony są rozpędzane w polu elektromagnetycznym do energii kilku–kilkunastu MeV, a następnie wytwarzają wysokoenergetyczne fotony. To właśnie te urządzenia są standardem nowoczesnej radioterapii, a nie klasyczne aparaty kobaltowe, diagnostyczne aparaty RTG czy źródła cezu‑137.

Pytanie 9

W pozytonowej emisyjnej tomografii komputerowej PET radioznacznik podawany jest pacjentowi najczęściej

A. doodbytniczo.
B. domięśniowo.
C. dożylnie.
D. doustnie.
W pozytonowej tomografii emisyjnej (PET) standardem klinicznym jest dożylne podanie radioznacznika, najczęściej w postaci radiofarmaceutyku 18F-FDG rozpuszczonego w roztworze fizjologicznym. Podanie dożylne zapewnia bardzo szybkie i przewidywalne dotarcie substancji do krwiobiegu, a następnie jej dystrybucję do tkanek zgodnie z ich metabolizmem glukozy czy innymi cechami biologicznymi. Dzięki temu personel może precyzyjnie kontrolować czas od podania do rozpoczęcia skanowania, co jest kluczowe dla jakości obrazów i porównywalności badań. W praktyce wygląda to podobnie jak zwykły wenflon na oddziale – zakłada się wkłucie obwodowe, podaje dawkę radiofarmaceutyku, a potem pacjent odpoczywa w wyciszonym pomieszczeniu, żeby dystrybucja była stabilna i bez zbędnej aktywności mięśniowej. Moim zdaniem ważne jest zapamiętanie, że PET to badanie funkcjonalne, a nie klasyczne obrazowanie anatomiczne, dlatego farmakokinetyka radioznacznika ma ogromne znaczenie. Drogę dożylną wybiera się też dlatego, że pozwala na dokładne obliczenie podanej aktywności w MBq na kilogram masy ciała, co jest wymagane przez wytyczne EANM i IAEA. Umożliwia to później prawidłową rekonstrukcję obrazu, obliczanie SUV (standardized uptake value) oraz porównywanie wyników między różnymi badaniami i ośrodkami. Dodatkowo podanie dożylne zmniejsza zmienność związaną z wchłanianiem z przewodu pokarmowego czy z mięśnia, co byłoby dużym problemem w tak czułej metodzie, jak PET. W wielu procedurach hybrydowych, np. PET/CT onkologiczne, ten schemat jest absolutnie dominujący i traktowany jako złoty standard postępowania.

Pytanie 10

W systemie międzynarodowym ząb pierwszy przedtrzonowy po stronie lewej oznacza się symbolem

A. 84
B. 54
C. 14
D. 24
W systemie międzynarodowym FDI logika numeracji jest bardzo konkretna, więc każda pomyłka wynika zwykle z pomieszania kilku różnych systemów albo z nieuwzględnienia, czy mówimy o uzębieniu stałym, czy mlecznym. W pytaniu chodzi o pierwszy przedtrzonowiec po stronie lewej w uzębieniu stałym, a więc o ząb w szczęce, nie w żuchwie, i nie o ząb mleczny. W systemie FDI pierwsza cyfra określa ćwiartkę: 1 i 2 to szczęka (góra), 3 i 4 to żuchwa (dół). Druga cyfra to numer zęba w obrębie ćwiartki, liczony od linii pośrodkowej: 1 – siekacz przyśrodkowy, 2 – siekacz boczny, 3 – kieł, 4 – pierwszy przedtrzonowiec, 5 – drugi przedtrzonowiec, 6–8 – trzonowce. Z tego wynika, że liczby zaczynające się od 5 lub 8, jak 54 czy 84, dotyczą zupełnie innego układu – to już uzębienie mleczne, gdzie ćwiartki oznaczone są cyframi 5, 6, 7, 8, a nie 1–4. Ząb 54 to górny prawy mleczny pierwszy trzonowiec, a nie stały przedtrzonowiec. Z kolei 84 opisuje dolny prawy mleczny pierwszy trzonowiec. To typowy błąd: ktoś kojarzy, że „4” w drugiej pozycji jest czymś pośrednim, ale nie zauważa, że pierwsza cyfra przeskoczyła już w zakres uzębienia mlecznego. Odpowiedź 14 też bywa myląca, bo 1 z przodu oznacza faktycznie szczękę, ale prawą stronę, czyli ząb 14 to pierwszy przedtrzonowiec w szczęce po stronie prawej. W praktyce obrazowej i stomatologicznej takie pomyłki są bardzo niebezpieczne: można opisać zmiany przy złym zębie albo zaplanować leczenie po przeciwnej stronie łuku. Dobrą praktyką jest zawsze: najpierw określić, czy patrzymy na ząb stały czy mleczny, potem stronę (lewa/prawa, góra/dół), i dopiero na końcu dobrać właściwą liczbę w systemie FDI. Z mojego doświadczenia pomaga też nawyk mentalnego „przeliczenia” od jedynek przyśrodkowych, zanim wpisze się numer w opisie RTG.

Pytanie 11

Zaznaczona strzałką struktura anatomiczna na obrazie rezonansu magnetycznego to

Ilustracja do pytania
A. móżdżek.
B. szyszynka.
C. komora.
D. sierp mózgu.
Na przedstawionym obrazie MR w projekcji strzałkowej strzałka wskazuje strukturę o niskim sygnale, o gładkim zarysie, biegnącą wzdłuż linii środkowej mózgowia, w obrębie układu komorowego – to jest właśnie komora. W tym ujęciu najlepiej widać róg przedni i trzon komory bocznej oraz komorę III, które tworzą typowy, pusty (bezkreskowy) obszar wypełniony płynem mózgowo‑rdzeniowym. Na sekwencjach T1, które najczęściej stosuje się w takich przekrojach anatomicznych, płyn ma niski sygnał i dlatego komora jest ciemniejsza niż otaczająca istota biała i kora. Moim zdaniem kluczowe jest tu rozpoznanie typowego kształtu i położenia w stosunku do ciała modzelowatego i struktur podwzgórza. W praktyce klinicznej prawidłowa identyfikacja komór jest absolutnie podstawowa: oceniamy szerokość światła, symetrię, obecność przemieszczeń, poszerzeń w wodogłowiu, krwawień dokomorowych, a także skutki masy guzów. Zgodnie z dobrymi praktykami radiologicznymi zawsze opisujemy układ komorowy w każdej dokumentacji MR mózgowia – czy jest prawidłowo poszerzony, czy nie ma cech ucisku lub zablokowania przepływu płynu. Na dyżurach radiologicznych szybkie rozpoznanie poszerzonych komór u pacjenta z bólami głowy czy zaburzeniami świadomości może decydować o pilnej interwencji neurochirurgicznej, np. założeniu drenażu. Warto też kojarzyć, że na obrazach T2 i FLAIR komory będą wyglądały inaczej (płyn jaśniejszy lub wygaszony), ale ich położenie anatomiczne i relacja do sierpa mózgu oraz móżdżku pozostaje stała, co bardzo ułatwia orientację w badaniu.

Pytanie 12

Który stan patologiczny został zarejestrowany podczas wykonywania badania EKG?

Ilustracja do pytania
A. Migotanie komór.
B. Trzepotanie przedsionków.
C. Dodatkowe pobudzenia komorowe.
D. Migotanie przedsionków.
Na zapisanym na rycinie EKG widać wyraźnie miarowy rytm zatokowy, a pomiędzy prawidłowymi zespołami QRS pojawiają się pojedyncze, wcześniejsze, szerokie i zniekształcone zespoły QRS bez poprzedzającej ich fali P. To jest klasyczny obraz dodatkowych pobudzeń komorowych (PVC – premature ventricular complexes). Komorowe pobudzenie przedwczesne powstaje w ektopowym ognisku w mięśniu komór, dlatego przewodzenie nie odbywa się typową drogą przez układ bodźcoprzewodzący, tylko rozchodzi się wolniej przez mięsień – stąd poszerzony, dziwnie wyglądający QRS i zwykle przeciwstawne wychylenie załamka T. Po takim pobudzeniu często obserwuje się tzw. przerwę wyrównawczą. W praktyce, gdy technik opisuje zapis EKG z PVC, powinien zwrócić uwagę na ich częstość (pojedyncze, pary, salwy), morfologię (jednokształtne, wielokształtne) i kontekst kliniczny pacjenta. Pojedyncze PVC u młodej osoby bez objawów zwykle nie są groźne, ale liczne lub w salwach u chorego kardiologicznego mogą wymagać pilnej konsultacji lekarskiej. Z mojego doświadczenia warto od razu zaznaczyć na wydruku fragment z dodatkowymi pobudzeniami, opisać je w protokole i zadbać o poprawną kalibrację (10 mm/mV, 25 mm/s), bo bez tego kardiolog nie będzie miał pełnej informacji do oceny ryzyka arytmii. Dobra praktyka jest też porównanie aktualnego zapisu z wcześniejszym, jeśli jest dostępny – czasem narastanie liczby PVC jest pierwszym sygnałem pogarszającej się funkcji lewej komory lub zaburzeń elektrolitowych.

Pytanie 13

Na jakim etapie procesu karcynogenezy dochodzi do inwazji miejscowej nowotworu i tworzenia przerzutów odległych?

A. Konwersji.
B. Inicjacji.
C. Progresji.
D. Promocji.
Prawidłowo wskazany etap to progresja i to jest kluczowy moment w całej karcynogenezie. W fazie progresji nowotwór przestaje być tylko miejscową zmianą ograniczoną do nabłonka czy tkanki wyjściowej, a zaczyna wykazywać pełne cechy złośliwości klinicznej. Komórki nowotworowe nabywają zdolność do inwazji miejscowej – przechodzą przez błonę podstawną, niszczą podścielisko, wnikają do naczyń krwionośnych i limfatycznych. To właśnie wtedy dochodzi do tworzenia przerzutów odległych, czyli zajęcia narządów takich jak płuca, wątroba, kości czy mózg. Z punktu widzenia praktyki medycznej ten etap ma ogromne znaczenie rokownicze: nowotwór w fazie progresji zwykle odpowiada zaawansowanym stopniom TNM (np. T3–T4, N+, M1), co wpływa na wybór leczenia – częściej stosuje się leczenie systemowe (chemioterapia, immunoterapia, terapia celowana), a nie tylko zabieg chirurgiczny. W codziennej diagnostyce radiologicznej i onkologicznej właśnie w tej fazie szukamy cech inwazji: naciekania ścian narządów, przekraczania powięzi, zajęcia węzłów chłonnych, obecności zmian meta w narządach odległych. Moim zdaniem warto pamiętać też, że progresja to efekt nagromadzenia wielu mutacji i niestabilności genetycznej – komórki stają się coraz bardziej agresywne, szybciej rosną, są mniej zależne od sygnałów regulacyjnych organizmu. W standardach onkologicznych uznaje się, że dopiero nowotwór zdolny do inwazji i przerzutowania jest pełnoprawnym rakiem złośliwym, a nie tylko zmianą przedinwazyjną czy dysplastyczną. Dlatego skojarzenie: progresja = inwazja + przerzuty jest bardzo praktyczne i przydatne na egzaminach oraz w realnej pracy z pacjentami.

Pytanie 14

Parametrem krwi, który powinien zostać oznaczony u pacjenta przed wykonaniem badania MR z kontrastem jest

A. kreatynina.
B. bilirubina
C. fibrynogen.
D. hemoglobina.
Prawidłowo wskazana kreatynina to dokładnie ten parametr, który w praktyce klinicznej sprawdza się rutynowo przed podaniem kontrastu do badania MR (a w zasadzie przed większością badań z kontrastem, także TK). Chodzi o ocenę wydolności nerek, bo kontrasty paramagnetyczne na bazie gadolinu są wydalane głównie przez nerki. Jeżeli funkcja nerek jest upośledzona, rośnie ryzyko powikłań, takich jak nefrogenne układowe zwłóknienie (NSF) czy po prostu kumulacja środka kontrastowego w organizmie. Dlatego oznaczenie kreatyniny pozwala obliczyć eGFR (szacunkowy współczynnik przesączania kłębuszkowego) i na tej podstawie zdecydować, czy kontrast można bezpiecznie podać, czy trzeba zmienić dawkę, typ kontrastu, albo nawet zrezygnować z podania. W standardach pracowni diagnostyki obrazowej przyjmuje się, że świeży wynik kreatyniny/eGFR (zwykle nie starszy niż 1–3 miesiące, a przy chorych wysokiego ryzyka jeszcze krótszy) jest wymagany przed badaniem MR z kontrastem, zwłaszcza u pacjentów z cukrzycą, nadciśnieniem, przewlekłą chorobą nerek, w podeszłym wieku czy po dużych zabiegach chirurgicznych. W większości protokołów, gdy eGFR spada poniżej określonego progu (np. <30 ml/min/1,73 m²), rozważa się rezygnację z gadolinu lub zastosowanie środka o najniższym ryzyku, ewentualnie konsultację nefrologiczną. W praktyce technika czy technika elektroradiologii często współuczestniczy w weryfikacji, czy pacjent ma aktualny wynik kreatyniny i czy nie ma przeciwwskazań do kontrastu. Moim zdaniem właśnie takie myślenie „przed” badaniem – sprawdzenie parametrów nerkowych, leków, wywiadu – odróżnia bezpieczną, profesjonalną pracownię od tej, gdzie robi się badania trochę z automatu. Bilirubina, fibrynogen czy hemoglobina mogą być istotne w innych sytuacjach klinicznych, ale nie są podstawowym, rutynowym kryterium kwalifikacji do gadolinowego kontrastu MR – tu króluje kreatynina i wynik eGFR.

Pytanie 15

Który parametr ekspozycji ma decydujący wpływ na kontrast obrazu rentgenowskiego?

A. Odległość źródła promieniowania od detektora [cm].
B. Iloczyn natężenia promieniowania i czasu [mAs].
C. Napięcie na lampie [kV].
D. Filtracja [mm Al].
Prawidłowo wskazany parametr to napięcie na lampie [kV], bo to ono w praktyce najbardziej „rządzi” kontrastem obrazu rentgenowskiego. Z fizycznego punktu widzenia kV decyduje o energii fotonów promieniowania X. Im wyższe napięcie, tym bardziej przenikliwe promieniowanie, tym mniejsza różnica w pochłanianiu między tkankami o różnej gęstości i liczbie atomowej. Efekt jest taki, że kontrast maleje – obraz staje się bardziej „szary”, z mniejszym odróżnieniem struktur. Przy niższym kV fotony mają mniejszą energię, silniej ujawniają się różnice pochłaniania między np. kością a tkanką miękką, więc kontrast rośnie. W praktyce, w dobrych pracowniach RTG, dobór kV jest kluczowym elementem protokołu badania: do zdjęć klatki piersiowej u dorosłych stosuje się zwykle wyższe kV (np. 100–130 kV), żeby uzyskać niski kontrast, ale dobrą wizualizację całej objętości klatki i zmniejszyć dawkę. Natomiast do zdjęć kości, np. ręki czy stopy, używa się niższych napięć (55–65 kV), żeby podkreślić różnice między korą kostną, jamą szpikową i otaczającymi tkankami miękkimi. Moim zdaniem warto zapamiętać prostą zasadę: kV to przede wszystkim kontrast, a mAs to głównie jasność/zaszumienie (czyli ekspozycja). Oczywiście w praktyce wszystko się trochę przenika, ale w standardach radiologicznych i w podręcznikach fizyki medycznej właśnie tak to się uczy. Dobrą praktyką jest też to, że technik nie zmienia kV „na oko”, tylko trzyma się ustalonych protokołów dla danej projekcji i typu pacjenta, modyfikując kV świadomie, np. przy pacjencie otyłym albo u dziecka, pamiętając o wpływie na kontrast i dawkę.

Pytanie 16

W leczeniu izotopowym tarczycy podaje się

A. dożylnie emiter promieniowania β
B. dożylnie emiter promieniowania α
C. doustnie emiter promieniowania α
D. doustnie emiter promieniowania β
W leczeniu izotopowym tarczycy kluczowe jest zrozumienie zarówno drogi podania, jak i rodzaju używanego promieniowania. Częsty błąd myślowy polega na automatycznym kojarzeniu wszelkiego „leczenia promieniowaniem” z podaniem dożylnym, bo tak podaje się większość leków w szpitalu, oraz z promieniowaniem alfa, bo brzmi bardziej „mocno” i kojarzy się z silnym działaniem. W medycynie nuklearnej mechanizm jest jednak trochę inny – opiera się na wykorzystaniu fizjologii narządu, w tym przypadku tarczycy, która naturalnie wychwytuje jod z krwi. Podanie dożylne emisji β w leczeniu nadczynności tarczycy byłoby po prostu nielogiczne, bo i tak zależy nam na tym, żeby radioizotop dotarł do tarczycy drogą fizjologicznego wychwytu jodu. Preparat po podaniu doustnym wchłania się z przewodu pokarmowego do krwi i dalej zachowuje się dokładnie tak samo jak po podaniu dożylnym, tylko w sposób znacznie prostszy, tańszy i bez ryzyka powikłań naczyniowych. Standardy medycyny nuklearnej bardzo jasno opisują, że radiojod w leczeniu tarczycy podaje się doustnie, w postaci kapsułek lub płynu, a nie w iniekcji. Drugi problem dotyczy promieniowania alfa. Emiterów α używa się obecnie głównie w wyspecjalizowanych terapiach celowanych, np. w leczeniu niektórych nowotworów z przerzutami do kości czy w zaawansowanej onkologii, ale nie w rutynowym leczeniu nadczynności tarczycy. Promieniowanie alfa ma bardzo krótki zasięg w tkance (mikrometry), ale ogromną energię jonizującą, co wymaga ekstremalnie precyzyjnego „dostarczenia” cząsteczek do komórek docelowych. Tarczyca i wychwyt jodu są do tego po prostu zbyt „szerokie” i nieselektywne, więc użycie alfa byłoby niepraktyczne i potencjalnie bardziej toksyczne. Z mojego doświadczenia osoby uczące się często mieszają medycynę nuklearną z klasyczną radioterapią. Dożylne podanie kojarzy się im z chemioterapią, a „mocne” promieniowanie z radioterapią zewnętrzną. W przypadku leczenia radiojodem mamy jednak typową terapię metaboliczną: wykorzystujemy naturalny metabolizm jodu i promieniowanie β o ograniczonym zasięgu do zniszczenia nadczynnych komórek tarczycy. Dlatego odpowiedzi sugerujące podanie dożylne lub użycie promieniowania alfa stoją w sprzeczności z obowiązującymi wytycznymi medycyny nuklearnej i zasadami racjonalnej ochrony radiologicznej.

Pytanie 17

Która przyczyna spowodowała powstanie artefaktu widocznego na zamieszczonym obrazie MR?

Ilustracja do pytania
A. Zły dobór cewki gradientowej.
B. Niejednorodność pola magnetycznego.
C. Nieprawidłowa kalibracja aparatu.
D. Wymiary obiektu przekroczyły pole widzenia.
W tego typu pytaniu łatwo pójść w stronę skomplikowanych wyjaśnień o sprzęcie, a tymczasem problem jest czysto geometryczny. Artefakt widoczny na obrazie MR nie wynika ani ze złego doboru cewki gradientowej, ani z nieprawidłowej kalibracji aparatu, ani z ogólnej niejednorodności pola magnetycznego, tylko z faktu, że badany obszar jest większy niż ustawione pole widzenia. Z mojego doświadczenia wielu uczniów automatycznie obwinia gradienty, bo kojarzą je z zniekształceniami obrazu, ale w nowoczesnych systemach dobór cewki gradientowej jest z góry narzucony przez konstrukcję skanera. Operator nie wybiera sobie innej cewki gradientowej do głowy czy brzucha – gradienty są integralną częścią gantry. Dlatego „zły dobór cewki gradientowej” praktycznie nie występuje jako przyczyna pojedynczego artefaktu na jednym badaniu, raczej jako poważna wada konstrukcyjna, która psułaby wszystkie obrazy. Podobnie z kalibracją aparatu: błędna kalibracja zwykle daje globalne problemy jakościowe, niestabilność sygnału, błędy w geometrii całego badania, a nie lokalne „obcięcie” struktur przy krawędzi pola widzenia. Takie zjawisko jest typowe dla źle dobranego FOV, a nie dla offsetu kalibracyjnego. Niejednorodność pola magnetycznego z kolei daje inne typowe artefakty: zniekształcenia geometryczne przy granicy powietrze–kość, przemieszczenia sygnału, deformacje w sekwencjach EPI, ale nie efekt dosłownego urwania obrazu poza pewnym obszarem. To jest częsty błąd myślowy: skoro coś wygląda nienaturalnie, to „na pewno magnes jest nierówny”. Tymczasem tu kluczowe jest zrozumienie relacji między FOV, macierzą i rozmiarem pacjenta. Jeśli obiekt jest większy niż FOV, część sygnału aliasuje się, czyli nakłada na obraz, albo po prostu nie jest obrazowana. Właśnie dlatego w dobrych praktykach MR tak duży nacisk kładzie się na poprawne ustawienie scoutów, sprawdzenie, czy cała anatomia mieści się w polu widzenia, i dopiero potem uruchomienie właściwych sekwencji. Gdy się o tym pamięta, większości takich artefaktów można spokojnie uniknąć.

Pytanie 18

Na radiogramie uwidoczniono

Ilustracja do pytania
A. zwichnięcie stawu ramiennego w projekcji barkowo-pachowej.
B. prawidłowy obraz stawu ramiennego w projekcji barkowo-pachowej.
C. prawidłowy obraz stawu ramiennego w projekcji przednio-tylnej.
D. zwichnięcie stawu ramiennego w projekcji przednio-tylnej.
Na przedstawionym radiogramie widoczny jest prawidłowy obraz stawu ramiennego w projekcji przednio-tylnej (AP). Główka kości ramiennej jest prawidłowo dosymetryzowana w panewce łopatki: jej środek pokrywa się mniej więcej z środkiem panewki, nie ma cech przemieszczenia ku przodowi ani ku tyłowi. Kontur kostny jest ciągły, bez przerwania linii korowej, co przemawia przeciwko złamaniu. Przestrzeń stawowa ma równomierną szerokość, bez wyraźnego zwężenia czy poszerzenia, które mogłoby sugerować podwichnięcie. Typowym punktem orientacyjnym w projekcji AP jest tzw. łuk przedni (arch of Shenton dla barku) – gładka, półkolista linia biegnąca od brzegu panewki po kontur głowy kości ramiennej; tutaj ta linia jest zachowana. Dodatkowo widoczne jest prawidłowe ustawienie obojczyka względem wyrostka barkowego łopatki, bez cech zwichnięcia stawu barkowo-obojczykowego. W praktyce klinicznej taka projekcja jest pierwszym, podstawowym zdjęciem wykonywanym przy urazach barku, bólach stawu ramiennego czy podejrzeniu zmian zwyrodnieniowych. Standardowe zalecenia (np. według European Society of Musculoskeletal Radiology) mówią, że do pełnej oceny stawu ramiennego warto łączyć tę projekcję z osiągową (barkowo-pachową) lub projekcją Y łopatki, ale poprawne rozpoznanie podstawowego ustawienia w AP jest kluczowe. Moim zdaniem warto sobie wyrobić nawyk patrzenia najpierw na relację głowa–panewka, potem na ciągłość brzegów kostnych i dopiero na resztę szczegółów – to bardzo pomaga w szybkim wychwytywaniu zwichnięć w codziennej pracy.

Pytanie 19

W sekwencji echa spinowego obraz T2-zależny uzyskuje się przy czasie repetycji TR

A. poniżej 400 ms
B. powyżej 2000 ms
C. od 800 ms do 900 ms
D. od 500 ms do 700 ms
W tym pytaniu łatwo się pomylić, bo wartości TR rzędu kilkuset milisekund rzeczywiście pojawiają się w wielu sekwencjach MR, ale kluczowe jest zrozumienie, kiedy dominuje kontrast T1, a kiedy T2. Przy bardzo krótkich TR, poniżej 400 ms, obraz jest wyraźnie T1-zależny. Tkanki nie zdążą się w pełni zrelaksować podłużnie między kolejnymi impulsami, dlatego różnice T1 są bardzo podkreślone. To jest logika stosowana np. w szybkich sekwencjach T1 do obrazowania z kontrastem gadolinowym. Taki TR jest zdecydowanie za krótki, żeby zbudować typowy kontrast T2. Podobnie wartości TR rzędu 500–700 ms nadal mieszczą się w zakresie raczej krótkich czasów repetycji dla klasycznego spin echo. Obraz przy takich ustawieniach będzie wciąż silnie T1-zależny, szczególnie jeśli TE jest też krótki. Typowym błędem jest myślenie: „skoro to już nie jest bardzo krótki TR, to pewnie T2”. Niestety tak to nie działa – dla T2 trzeba naprawdę długiego TR, tak żeby efekt T1 w zasadzie „zniknął” z równania. Zakres 800–900 ms bywa kojarzony z obrazami pośrednimi, czasem z próbą kompromisu między czasem badania a kontrastem, ale w klasycznym podejściu do nauki MR nadal jest to strefa, gdzie T1 ma duże znaczenie. Obrazy T2-zależne w klasycznym spin echo uzyskujemy przy TR powyżej 2000 ms i jednocześnie długim TE. Z mojego doświadczenia typowy błąd polega na patrzeniu tylko na jedną liczbę i oderwaniu jej od kontekstu fizycznego. Warto zapamiętać prostą zasadę z podręczników i standardów: krótkie TR – T1, długie TR – T2 (o ile TE też jest długie). Jeżeli TR jest poniżej około 1500–2000 ms, trudno mówić o czysto T2-zależnym obrazie w klasycznym SE. Dlatego wszystkie odpowiedzi z zakresami kilkuset milisekund nie pasują do definicji obrazu T2-zależnego i prowadzą do mylnego utożsamiania „trochę dłuższego” TR z typową sekwencją T2.

Pytanie 20

Pozytywny środek cieniujący najczęściej stosowany w rentgenodiagnostyce powinien charakteryzować się

A. wysoką lepkością.
B. niską hydrofilnością.
C. wysoką lipofilnością.
D. niską osmolalnością.
W pozytywnych środkach cieniujących stosowanych w klasycznej rentgenodiagnostyce, zwłaszcza jodowych podawanych dożylnie, kluczowe jest ograniczenie działań niepożądanych i maksymalne zwiększenie bezpieczeństwa pacjenta. Z tego punktu widzenia wysoka lepkość nie jest zaletą, tylko raczej problemem technicznym i klinicznym. Gęsty, lepki kontrast trudniej podać przez cienki wenflon albo cewnik angiograficzny, wymaga większego ciśnienia wstrzykiwania, a przy bardzo dużej lepkości może nawet sprzyjać powikłaniom miejscowym. Dlatego producenci dążą do optymalizacji lepkości – nie za wysokiej, ale też nie skrajnie niskiej, takiej żeby środek był stabilny, ale łatwy w aplikacji. Kolejna pułapka to niska hydrofilność. Intuicyjnie ktoś może pomyśleć, że jak coś jest mało hydrofilne, to „mniej obciąża wodę w organizmie”, ale w przypadku środków kontrastowych jest dokładnie odwrotnie, niż by się chciało. Kontrast dożylny powinien być dobrze rozpuszczalny w wodzie, czyli wysoce hydrofilny, żeby krążyć w osoczu, nie wnikać nadmiernie do błon lipidowych, nie kumulować się w tkankach i móc zostać sprawnie wydalony przez nerki. Środki mało hydrofilne mogą mieć tendencję do gromadzenia się w strukturach tłuszczowych, co w diagnostyce naczyniowej czy urograficznej jest zdecydowanie niepożądane. Wysoka lipofilność to kolejny kierunek myślenia, który tutaj nie pasuje. Lipofilne substancje chętnie wnikają do błon komórkowych i tkanek bogatych w tłuszcz, co może zwiększać toksyczność i wydłużać czas eliminacji. W radiologii zabiegowej i tomografii komputerowej środki kontrastowe mają być przede wszystkim wodnorozpuszczalne, szybko dystrybuujące się w przestrzeni naczyniowej i dobrze wydalane przez nerki. Dlatego standardem są związki jodu o wysokiej hydrofilności i możliwie niskiej osmolalności. Wysoka osmolalność, wbrew pozorom, nie poprawia jakości obrazu na tyle, żeby opłacało się ryzykować nasilone działania uboczne. Powoduje ona przesunięcia płynów, obciążenie układu krążenia, dyskomfort pacjenta i zwiększa ryzyko nefrotoksyczności. Właśnie dlatego w nowoczesnych wytycznych i dobrych praktykach radiologicznych podkreśla się, że bezpieczny pozytywny środek cieniujący powinien mieć niską lub co najwyżej umiarkowaną osmolalność, być niejonowy, wysoko hydrofilny i o umiarkowanej lepkości. Mylenie hydrofilności z lipofilnością i wiązanie bezpieczeństwa z wysoką lepkością to bardzo typowe błędy myślowe, wynikające z przenoszenia intuicji z innych dziedzin, a nie z faktycznych zasad stosowania kontrastów w RTG.

Pytanie 21

Na którym radiogramie uwidoczniona jest kamica nerkowa?

A. Radiogram 4
Ilustracja do odpowiedzi A
B. Radiogram 2
Ilustracja do odpowiedzi B
C. Radiogram 1
Ilustracja do odpowiedzi C
D. Radiogram 3
Ilustracja do odpowiedzi D
Na radiogramie 2 widoczne są typowe dla kamicy nerkowej zwapniałe złogi w rzucie dróg moczowych. Mają one postać drobnych, dobrze odgraniczonych, silnie wysyconych (bardzo jasnych) cieni, zlokalizowanych w obrębie typowych pięter: w rzucie nerek, wzdłuż przebiegu moczowodów oraz w okolicy miednicy małej. To właśnie ich gęstość radiologiczna, kształt oraz położenie względem kręgosłupa i talerzy biodrowych pozwalają odróżnić złogi od innych struktur, np. zwapnień naczyniowych czy cieni kałowych. Moim zdaniem kluczowe jest tu świadome „przeskanowanie” wzrokiem całej projekcji od górnych biegunów nerek aż do pęcherza, krok po kroku. W standardach opisowych radiogramu jamy brzusznej (KUB – kidneys, ureters, bladder) przy podejrzeniu kamicy zawsze ocenia się: liczbę złogów, ich wielkość, kształt, lokalizację, a także ewentualne przemieszczenie struktur kostnych lub cechy zastoju. W praktyce technika często wykonuje się takie zdjęcie w projekcji AP na stojąco lub leżąco, z odpowiednio twardą wiązką promieniowania, żeby dobrze uwidocznić struktury kostne i zwapnienia. Z mojego doświadczenia pomocne jest też porównanie symetrii po obu stronach kręgosłupa – obecność jednostronnych, punktowych zacienień w typowej lokalizacji powinna od razu zapalać lampkę, że może to być złóg. W badaniach kontrolnych, zgodnie z dobrą praktyką, porównuje się kolejne radiogramy, aby ocenić migrację kamienia, jego rozpad lub wydalenie, co ma znaczenie przy kwalifikacji do ESWL, zabiegów endoskopowych albo tylko obserwacji zachowawczej.

Pytanie 22

Który system informatyczny służy do archiwizacji i transmisji obrazów radiologicznych?

A. HL7
B. IHE
C. DICOM
D. PACS
W diagnostyce obrazowej łatwo pomylić różne skróty, bo wszystkie kręcą się wokół komunikacji i obrazów, ale ich rola jest zupełnie inna niż funkcja systemu PACS. HL7 to standard wymiany danych medycznych opisujących głównie część tekstową, administracyjną i kliniczną: dane pacjenta, zlecenia badań, wyniki opisów, informacje o przyjęciu i wypisie ze szpitala. Z mojego doświadczenia wielu uczniów kojarzy HL7 z „informatyką w medycynie” i przez to błędnie przypisuje mu też archiwizację obrazów, a HL7 sam w sobie żadnych obrazów nie przechowuje – on tylko przenosi komunikaty między systemami, np. między HIS, RIS i PACS. Podobnie IHE (Integrating the Healthcare Enterprise) to nie jest konkretny system, tylko inicjatywa i zestaw profili integracyjnych, które opisują, jak różne systemy medyczne mają ze sobą współpracować. IHE definiuje scenariusze typu „zamów badanie – wykonaj – opisz – udostępnij”, ale nie jest ani serwerem, ani programem do oglądania zdjęć. To bardziej zbiór dobrych praktyk i zaleceń dla producentów oprogramowania, żeby ich systemy były ze sobą kompatybilne. Z kolei DICOM to standard formatu plików i protokołu komunikacyjnego dla obrazów medycznych. Dzięki DICOM aparaty TK, MR, RTG czy USG potrafią wysyłać obrazy do PACS, a stacje opisowe potrafią je poprawnie odczytać. Typowy błąd myślowy polega na uznaniu, że skoro DICOM „obsługuje obrazy”, to musi być systemem archiwizacji. A tak nie jest – DICOM to język i zasady, w jakich te obrazy są zapisane i przesyłane, natomiast faktyczne archiwizowanie, katalogowanie, wyszukiwanie i udostępnianie badań realizuje dopiero PACS. Można to sobie wyobrazić tak: HL7 i DICOM to języki, IHE to zasady gry, a PACS to konkretna aplikacja i serwer, na których wszystko się fizycznie dzieje. Właśnie dlatego poprawną odpowiedzią jest PACS – jako jedyny z wymienionych jest realnym systemem informatycznym służącym do archiwizacji i transmisji obrazów radiologicznych.

Pytanie 23

W celu oceny wieku kostnego u dziecka praworęcznego, wykonuje się pojedyncze zdjęcie w projekcji

A. A-P ręki prawej.
B. P-A ręki prawej
C. A-P ręki lewej.
D. P-A ręki lewej.
Prawidłowa odpowiedź to projekcja P-A ręki lewej, czyli zdjęcie wykonywane od strony dłoniowej (palmarnej) do grzbietowej, z oceną głównie nadgarstka, kości śródręcza i paliczków. W ocenie wieku kostnego u dzieci przyjętym na całym świecie standardem jest właśnie zdjęcie radiologiczne lewej ręki i nadgarstka w projekcji postero–anterior. Tak jest w atlasach Greulicha i Pyle’a czy metodzie Tannera–Whitehouse’a, które są podstawą opisu w większości pracowni radiologicznych. Dzięki temu można porównać obraz konkretnego dziecka z ujednoliconymi tablicami i uniknąć chaosu w interpretacji. Lewa ręka jest wybierana niezależnie od tego, czy dziecko jest prawo- czy leworęczne. To jest taki trochę „historyczny” i jednocześnie praktyczny kompromis: wszyscy robią to samo, więc opisy są porównywalne między ośrodkami i krajami. Projekcja P-A daje najbardziej czytelny obraz jąder kostnienia, chrząstek wzrostowych i zarysów trzonów kości. W praktyce technik układa dłoń płasko na detektorze, palce lekko rozstawione, ręka w pełnym wyproście, bez rotacji. Trzeba pilnować, żeby nie było zgięcia w stawach międzypaliczkowych, bo to zniekształca widoczność jąder kostnienia. Moim zdaniem ważne jest też, by pamiętać o minimalizacji dawki – robimy jedno, dobrze wykonane zdjęcie, bez zbędnych powtórek. W opisie radiolog porównuje stopień kostnienia jąder, zlanie nasad z trzonami i kształt kości z odpowiednimi tablicami wiekowymi. W praktyce klinicznej wynik ma znaczenie np. w endokrynologii (niski wzrost, zaburzenia dojrzewania płciowego), ortopedii dziecięcej czy przy kwalifikacji do leczenia hormonem wzrostu. Dobre opanowanie tej standardowej projekcji i świadomość, dlaczego właśnie ona jest stosowana, to podstawa poprawnej diagnostyki obrazowej u dzieci.

Pytanie 24

Zgodnie z procedurą wzorcową w badaniu MR należy ułożyć pacjenta na brzuchu do diagnostyki

A. jamy brzusznej.
B. stawu barkowego.
C. kręgosłupa szyjnego.
D. gruczołu piersiowego.
W rezonansie magnetycznym pozycjonowanie pacjenta jest jednym z kluczowych elementów całej procedury – często ważniejszym, niż się na pierwszy rzut oka wydaje. Wiele osób zakłada, że skoro badanie dotyczy jamy brzusznej, barku czy odcinka szyjnego kręgosłupa, to pozycja na brzuchu będzie lepsza, bo „bliżej cewki” albo wygodniej ułożyć daną część ciała. To jest typowy skrót myślowy, który w praktyce prowadzi do gorszej jakości obrazów. W diagnostyce MR jamy brzusznej standardem jest pozycja na plecach (supinacyjna). Pozwala ona na stabilne ułożenie ciała, łatwą synchronizację z oddechem, wygodne podanie kontrastu i zastosowanie cewki brzusznej lub całociała. Pozycja na brzuchu utrudnia kontrolę oddechu, współpracę z pacjentem i zwyczajnie jest mniej komfortowa, a przy badaniu narządów jamy brzusznej nie daje żadnej realnej przewagi. Podobnie w badaniu stawu barkowego najczęściej stosuje się pozycję na plecach, z kończyną górną odpowiednio ułożoną w cewce dedykowanej do barku lub cewce na ramię. Pozycja na brzuchu przy barku jest raczej wyjątkiem i stosuje się ją tylko w bardzo specyficznych sytuacjach, a na pewno nie jako „procedurę wzorcową”. Z mojego doświadczenia takie kombinowanie z pozycją częściej kończy się artefaktami od ruchu i niewygodą pacjenta. W diagnostyce kręgosłupa szyjnego również dominują badania w pozycji na plecach. Głowa i szyja są stabilizowane, stosuje się cewkę głowowo-szyjną, pacjent ma kontakt wzrokowy/werbalny z personelem, łatwiej też monitorować jego stan. Układanie na brzuchu w tym przypadku nie przynosi korzyści, a może zwiększyć dyskomfort, szczególnie przy dolegliwościach bólowych czy urazach. W przeciwieństwie do tych badań, MR gruczołu piersiowego ma specjalnie opracowany standard: pozycja na brzuchu, piersi w cewce dedykowanej, bez ucisku klatki piersiowej. Pomylenie tych standardów wynika zwykle z ogólnego skojarzenia, że „jak coś z tyłu, to na brzuchu, jak z przodu, to na plecach”, a w obrazowaniu MR to tak nie działa. Kluczem jest dopasowanie pozycji do rodzaju cewki, ruchomości badanej okolicy i celu diagnostycznego, a nie tylko intuicja co do ułożenia pacjenta.

Pytanie 25

Podczas wykonywania zdjęć wewnątrzustnych zębów górnych linia Campera powinna przebiegać w stosunku do płaszczyzny podłogi

A. równolegle.
B. prostopadle.
C. pod kątem 30°.
D. pod kątem 50°.
W tym zadaniu kluczowe jest zrozumienie, czym jest linia Campera i po co w ogóle się nią posługujemy przy zdjęciach wewnątrzustnych. To nie jest przypadkowa linia, tylko anatomiczny wyznacznik położenia głowy: biegnie od skrzydełka nosa do tragusa ucha. W stomatologii, protetyce i radiologii traktuje się ją jako odniesienie do ułożenia płaszczyzny zwarcia i całej części twarzowej czaszki. Jeżeli ktoś zakłada, że linia Campera ma być prostopadła do podłogi, to myli ją z kierunkiem wiązki promieniowania albo z jakąś osią pionową ciała. Prostopadłe ustawienie spowodowałoby nienaturalne odchylenie głowy, trudne do utrzymania dla pacjenta i kompletnie niepraktyczne w standardowym fotelu stomatologicznym. W efekcie otrzymalibyśmy nienaturalne nachylenie łuku górnego względem detektora i większe zniekształcenia obrazu. Pojawia się też czasem pomysł konkretnych kątów, jak 30° czy 50°. To jest typowy błąd myślowy: szukanie „magicznej liczby stopni”, zamiast oparcia się na anatomicznych płaszczyznach odniesienia. W praktyce diagnostyki obrazowej dąży się do prostych, powtarzalnych ustawień – właśnie równoległych lub prostopadłych względem łatwo rozpoznawalnych linii, a nie do arbitralnych kątów. Kąt 30° czy 50° nie wynika z żadnego standardu pozycjonowania dla zdjęć wewnątrzustnych zębów górnych. Tak mocne pochylenie linii Campera oznaczałoby, że głowa jest wyraźnie zgięta do przodu albo odchylona do tyłu, co zmieni relację łuku zębowego do ogniska lampy i płaszczyzny zapisu. Skutkiem mogą być skrócenia lub wydłużenia zębów, przesunięcia obrazów korzeni oraz gorsza ocena okolicy wierzchołkowej. Standardowe podręczniki radiologii stomatologicznej i procedury pracowni kładą nacisk na to, by linia Campera była możliwie pozioma, czyli równoległa do podłogi, bo tylko wtedy mamy dobrą, powtarzalną geometrię ekspozycji i porównywalność badań w czasie. Moim zdaniem warto to sobie po prostu wyobrazić na żywym pacjencie: każde inne ustawienie byłoby niewygodne, nielogiczne i szybko zaczęłoby przeszkadzać w rutynowej pracy.

Pytanie 26

Na zamieszczonym obrazie TK strzałką zaznaczono zatokę

Ilustracja do pytania
A. czołową w przekroju strzałkowym.
B. szczękową w przekroju strzałkowym.
C. czołową w przekroju czołowym.
D. szczękową w przekroju czołowym.
Na obrazie TK widzisz klasyczny przekrój czołowy (koronalny) przez okolice zatok przynosowych. Świadczy o tym układ struktur: symetrycznie położone oczodoły po obu stronach, przegroda nosa biegnąca pionowo pośrodku oraz charakterystyczny kształt małżowin nosowych. Strzałka wskazuje dużą, powietrzną jamę położoną bocznie i nieco poniżej jamy nosowej – to właśnie zatoka szczękowa. Zatoki czołowe leżałyby znacznie wyżej, nad oczodołami, w obrębie kości czołowej, a tutaj ich po prostu nie widać. W praktyce technik i lekarz radiolog muszą bardzo dobrze rozpoznawać takie przekroje, bo od poprawnej identyfikacji zależy opis zmian zapalnych, torbieli, polipów czy poziomów płynu. W badaniach TK zatok standardem jest wykonywanie serii przekrojów koronalnych, bo najlepiej pokazują drożność kompleksu ujściowo-przewodowego i relacje między zatoką szczękową a jamą nosową. Moim zdaniem warto się „oswoić” z obrazem tej zatoki: położenie bocznie od jamy nosowej, cienka kostna ściana dolna sąsiadująca z korzeniami zębów trzonowych i przedtrzonowych, przyśrodkowa ściana granicząca z małżowinami nosowymi. W praktyce laryngologicznej i stomatologicznej to ma duże znaczenie – np. przy planowaniu podniesienia dna zatoki, implantów czy ocenie powikłań zapaleń okołowierzchołkowych. Dobre rozpoznanie, że jest to zatoka szczękowa w przekroju czołowym, jest więc zgodne z typowym standardem interpretacji badań TK zatok i pokazuje, że prawidłowo orientujesz się w anatomii w obrazowaniu.

Pytanie 27

Po podaniu kontrastu obraz zmian nowotworowych w badaniu MR najlepiej uwidacznia się w sekwencji

A. T1
B. DIXON
C. T2
D. DWI
W rezonansie magnetycznym łatwo się pomylić, bo mamy sporo różnych sekwencji i każda „coś fajnego” pokazuje. Ale jeśli pytanie dotyczy konkretnie uwidocznienia zmian nowotworowych po podaniu kontrastu, to kluczowe jest zrozumienie, jak działają poszczególne typy sekwencji. Środek kontrastowy gadolinowy działa głównie przez skrócenie czasu relaksacji T1, więc najbardziej wpływa na sekwencje T1‑zależne. Właśnie dlatego to one są używane do oceny wzmocnienia po kontraście. DIXON to tak naprawdę technika modyfikująca głównie sekwencje T1 (i czasem T2*), służąca do rozdzielenia sygnału z tłuszczu i wody. Jest świetna np. do obrazowania narządów miąższowych czy układu mięśniowo‑szkieletowego, ale sama nazwa „DIXON” nie oznacza jeszcze, że to najlepsza sekwencja do oceny kontrastu. Jeśli stosujemy T1 DIXON po kontraście, to i tak kluczowe jest to, że jest to sekwencja T1‑zależna, a nie sam fakt „DIXON”. Dlatego wybieranie DIXON jako ogólnej odpowiedzi jest trochę mylące – to bardziej technika niż podstawowy typ sekwencji. DWI (dyfuzja) z kolei służy głównie do oceny ruchu cząsteczek wody w tkankach. Zmiany nowotworowe często ograniczają dyfuzję, więc są hiperintensywne na mapach DWI i mają obniżony sygnał na mapach ADC. To bardzo ważne w onkologii, np. w udarach, guzach mózgu, prostaty czy wątroby, ale DWI nie służy do oceny wzmocnienia po kontraście. Co więcej, standardowo DWI wykonuje się bez podania kontrastu. Dlatego myślenie: „nowotwór dobrze widać na DWI, więc po kontraście też będzie najlepiej” – to typowy błąd skrótu myślowego. Sekwencje T2‑zależne natomiast pokazują głównie zawartość wody – płyny są jasne, obrzęk, zmiany zapalne, torbiele. Guzy często są dobrze widoczne na T2 przez obrzęk czy komponentę płynną, ale podanie gadolinu nie jest tu głównym mechanizmem poprawy kontrastu obrazu. Zmiana może wyglądać trochę inaczej po kontraście, ale to nie jest główne narzędzie do oceny wzmocnienia. Z mojego doświadczenia największy problem polega na tym, że wiele osób pamięta, iż „nowotwory są jasne na T2” albo że „DWI jest super w guzach”, i automatycznie zakłada, że to będzie też najlepsze po kontraście. Tymczasem standardy protokołów MR mówią jasno: ocena wzmocnienia kontrastowego, czyli tego, jak guz „łapie kontrast”, bazuje na sekwencjach T1‑zależnych, często z dodatkowymi technikami jak fat‑sat czy DIXON, ale rdzeniem pozostaje T1.

Pytanie 28

Rytm alfa i beta rejestruje się podczas badania

A. USG
B. HSG
C. EKG
D. EEG
Rytm alfa i beta to pojęcia ściśle związane z elektroencefalografią, czyli badaniem EEG. Są to typy fal mózgowych, które rejestruje się za pomocą elektrod umieszczonych na skórze głowy. Rytm alfa zwykle pojawia się w okolicach potylicznych, gdy pacjent jest w stanie relaksu, z zamkniętymi oczami, ale przy zachowanej świadomości. Jego częstotliwość to mniej więcej 8–13 Hz. Rytm beta ma wyższą częstotliwość, około 13–30 Hz, i wiąże się z aktywnością psychiczną, koncentracją, czasem z niepokojem czy pobudzeniem. W praktyce technika EEG to właśnie te rytmy opisuje w opisie badania, razem z innymi (theta, delta), bo na ich podstawie lekarz ocenia czynność bioelektryczną mózgu. W dobrych pracowniach EEG standardem jest rejestracja w układzie 10–20, z zastosowaniem odpowiedniego filtra, kalibracji i opisu poszczególnych rytmów w spoczynku, podczas hiperwentylacji, fotostymulacji i ewentualnie snu. Moim zdaniem warto kojarzyć, że samo słowo „rytmy” w kontekście alfa/beta prawie zawsze oznacza EEG, a nie żadne inne badanie. W diagnostyce wykorzystuje się to np. w rozpoznawaniu padaczki, ocenie śpiączek, zaburzeń świadomości, a także w monitorowaniu głębokości sedacji. Rytm alfa zanikający przy otwarciu oczu czy rytm beta nasilony przy lekach uspokajających to typowe obserwacje. W praktyce technik medyczny, który dobrze rozumie, czym są te rytmy, łatwiej wychwyci artefakty, błędy elektrod czy nietypowy zapis i przekaże lekarzowi wiarygodny materiał do interpretacji.

Pytanie 29

Koronarografia jest radiologicznym zabiegiem diagnostycznym pozwalającym ocenić drożność

A. żył obwodowych.
B. tętnic wieńcowych.
C. tętnic obwodowych.
D. żył wieńcowych.
Koronarografia bywa mylona z różnymi innymi badaniami naczyń, dlatego łatwo o skojarzenie jej z żyłami albo z tętnicami obwodowymi. Tymczasem jej główny, bardzo konkretny cel to ocena drożności tętnic wieńcowych, czyli naczyń wieńcowych zaopatrujących serce. Już sama nazwa podpowiada kierunek: „korona” odnosi się do wieńca naczyń otaczających serce, a nie do żył czy naczyń kończyn. Żyły wieńcowe istnieją i są istotne dla odpływu krwi z mięśnia sercowego, ale ich ocena odbywa się innymi metodami obrazowania, a w praktyce klinicznej rzadko są one głównym celem badań inwazyjnych. Koronarografia nie służy też do oceny żył obwodowych – do tego używa się najczęściej USG Doppler żylnego, flebografii czy tomografii komputerowej z kontrastem. W codziennej pracy błąd myślowy polega często na uproszczeniu: skoro jest cewnik, kontrast i RTG, to „pewnie bada się wszystkie naczynia”. Niestety tak to nie działa. Procedury angiograficzne są wyspecjalizowane: mamy koronarografię dla tętnic wieńcowych, angiografię obwodową dla tętnic kończyn, angiografię nerkową, mózgową itd. Każda z nich ma inne wskazania, inne projekcje, trochę inną technikę pracy. Tętnice obwodowe, np. w kończynach dolnych, bada się za pomocą klasycznej angiografii obwodowej, TK-angio lub MR-angio, ale to są odrębne procedury, choć też wykorzystują kontrast i promieniowanie (z wyjątkiem MR). Moim zdaniem warto zapamiętać prostą zasadę: jeśli mówimy o chorobie wieńcowej, zawale, dławicy piersiowej czy stentach w sercu – chodzi o tętnice wieńcowe i badaniem jest koronarografia. Jeśli mówimy o żylakach, zakrzepicy, obrzękach nóg – wchodzimy w świat żył obwodowych i zupełnie innych badań. Takie rozróżnienie pomaga nie mieszać pojęć i lepiej rozumieć, dlaczego lekarz zleca akurat tę, a nie inną procedurę obrazową.

Pytanie 30

Strzałką na schemacie oznaczono

Ilustracja do pytania
A. prawą odnogę pęczka Hisa.
B. węzeł przedsionkowo-komorowy.
C. węzeł zatokowo-przedsionkowy.
D. lewą odnogę pęczka Hisa.
Strzałka na schemacie pokazuje strukturę położoną w ścianie prawego przedsionka, przy ujściu żyły głównej górnej – to klasyczna lokalizacja węzła zatokowo‑przedsionkowego (SA). Ten węzeł to fizjologiczny rozrusznik serca: generuje impulsy elektryczne, które następnie szerzą się przez mięsień przedsionków i dalej trafiają do węzła przedsionkowo‑komorowego. Moim zdaniem warto to sobie skojarzyć tak: wszystko „zaczyna się” w prawym przedsionku, wysoko, przy żyle głównej górnej. W praktyce diagnostyki elektromedycznej znajomość położenia SA ma znaczenie np. przy interpretacji EKG – rytm zatokowy oznacza, że bodźce powstają właśnie w tym węźle. Na zapisie widzimy wtedy prawidłowe załamki P dodatnie w odprowadzeniach kończynowych (np. II, aVF), z równym odstępem między kolejnymi załamkami R. W badaniach obrazowych (echo serca, TK, MR) węzła nie widać tak ładnie jak na schemacie, ale orientacja anatomiczna jest ta sama: górna część prawego przedsionka, grzebień graniczny. W praktyce klinicznej zaburzenia funkcji węzła zatokowo‑przedsionkowego prowadzą do tzw. choroby węzła zatokowego, bradykardii zatokowej czy naprzemiennych okresów tachy‑ i bradykardii. Wtedy często konieczne jest wszczepienie stymulatora serca, który przejmuje rolę naturalnego rozrusznika. W technice EKG i przy analizie zabiegów elektroterapii (ablacje, implantacje stymulatorów) rozumienie, skąd fizjologicznie startuje impuls, jest absolutną podstawą i pomaga unikać błędów interpretacyjnych. Dlatego dobrze, że kojarzysz ten mały „guzek” przy żyle głównej górnej właśnie z węzłem zatokowo‑przedsionkowym.

Pytanie 31

Przedstawiony zapis elektrokardiograficzny może wskazywać na

Ilustracja do pytania
A. blok prawej odnogi pęczka Hisa.
B. zawał tylnej ściany serca.
C. zawał przedniej ściany serca.
D. blok lewej odnogi pęczka Hisa.
To EKG bardzo łatwo pomylić z zawałem ściany przedniej, bo wysokie zespoły w odprowadzeniach V1–V3 potrafią wyglądać nieco „groźnie”. Jednak w ostrym zawale przedniej ściany spodziewamy się uniesień odcinka ST w przedsercowych odprowadzeniach lewokomorowych (V2–V4), często z pojawieniem się patologicznych załamków Q oraz zmianami zwrotnymi w odprowadzeniach przeciwstawnych. Tutaj natomiast odcinek ST nie ma typowego, kopulastego uniesienia, a główną cechą jest poszerzenie i specyficzna morfologia QRS, co przemawia za zaburzeniem przewodzenia, a nie ostrym niedokrwieniem. Równie kuszące bywa rozpoznanie zawału ściany tylnej, zwłaszcza gdy patrzymy na V1–V2 i widzimy wysokie załamki R. W zawale tylnej ściany klasycznie pojawiają się jednak zmiany lustrzane: wysokie R w V1–V2, obniżenia ST i dodatnie T jako odbicie uniesień ST i patologicznych Q w odprowadzeniach tylnych (V7–V9). Tu morfologia ma jednak charakterystyczny układ rsR’ z wyraźnym poszerzeniem QRS, a nie typowe zmiany odcinka ST, co bardziej pasuje do bloku przewodzenia niż do ostrego zawału. Jeśli chodzi o blok lewej odnogi pęczka Hisa, to obraz EKG byłby zupełnie inny. W LBBB zespoły QRS są szerokie, ale dominują bardzo szerokie, często zniekształcone załamki R w V5–V6 oraz głębokie, szerokie S w V1–V3. Dodatkowo w LBBB depolaryzacja lewej komory jest wyraźnie opóźniona, co całkowicie zmienia wektor QRS i utrudnia ocenę niedokrwienia. Tutaj natomiast w odprowadzeniach lewokomorowych widzimy raczej szerokie S niż olbrzymie R, a „królicze uszy” pojawiają się w V1, co jest typowe dla RBBB. Typowy błąd myślowy przy takich zapisach polega na skupianiu się tylko na amplitudzie załamków R lub T i emocjonalnej reakcji na „dziwnie wyglądające” zespoły, zamiast przeprowadzić spokojną, krok po kroku analizę: rytm, częstość, oś elektryczna, szerokość QRS, morfologia w kluczowych odprowadzeniach. Trzymanie się tej systematyki i znajomość kryteriów bloków odnóg według wytycznych ESC/AHA pozwala uniknąć pochopnego rozpoznawania zawału tam, gdzie mamy do czynienia z przewlekłym zaburzeniem przewodzenia.

Pytanie 32

W standardowym badaniu elektrokardiologicznym elektrodę C4 należy umocować

A. w połowie odległości między punktem C2 i C4.
B. w IV międzyżebrzu przy prawym brzegu mostka.
C. w IV międzyżebrzu przy lewym brzegu mostka.
D. w V międzyżebrzu w linii środkowo-obojczykowej lewej.
Prawidłowe umiejscowienie elektrody C4 w standardowym 12‑odprowadzeniowym EKG to V4, czyli V międzyżebrze w linii środkowo‑obojczykowej lewej. To jest klasyczny, opisany w wytycznych punkt: najpierw lokalizujemy lewe V międzyżebrze, potem wyznaczamy linię środkowo‑obojczykową (mniej więcej przez środek obojczyka) i tam przyklejamy elektrodę przedsercową V4. Ten punkt jest kluczowy, bo odprowadzenie V4 bardzo dobrze „patrzy” na ścianę przednio‑przegrodową i koniuszek lewej komory. W zawale przednim, zwłaszcza w okolicy koniuszka, zmiany w V4 są często jednymi z pierwszych i najbardziej wyraźnych. Moim zdaniem to jedno z najważniejszych odprowadzeń w praktyce ratunkowej i kardiologicznej. W standardzie rozmieszczenia elektrod przedsercowych przyjmuje się kolejność: V1 – IV międzyżebrze przy prawym brzegu mostka, V2 – IV międzyżebrze przy lewym brzegu mostka, V4 – V międzyżebrze linia środkowo‑obojczykowa lewa, dopiero potem V3 pomiędzy V2 i V4, a V5 i V6 bocznie w linii pachowej przedniej i środkowej. Właśnie dlatego w pytaniu mowa o C4 (oznaczenie stosowane często zamiennie z V4 w niektórych aparatach i opisach). Trzymanie się tych lokalizacji nie jest „fanaberią”, tylko elementem standaryzacji. Jeżeli przesuniemy elektrodę nawet o jedno międzyżebrze w górę czy w dół, możemy sztucznie zmienić amplitudę zespołów QRS, wygląd odcinka ST czy załamków T. W praktyce może to prowadzić np. do fałszywego podejrzenia przerostu komór, zawału lub odwrotnie – do przeoczenia zmian niedokrwiennych. Z mojego doświadczenia wynika, że dobrze wyrobiony nawyk liczenia żeber i świadomego szukania V międzyżebrza bardzo ułatwia szybkie, poprawne zakładanie elektrod, nawet u osób z otyłością czy u kobiet z dużymi piersiami (gdzie czasem trzeba minimalnie „obejść” tkankę, ale zachowując poziom V międzyżebrza i linię środkowo‑obojczykową). To wszystko składa się na dobrą praktykę techniczną w diagnostyce elektromedycznej.

Pytanie 33

W radiografii mianem SID określa się

A. odległość między obiektem badanym a detektorem obrazu.
B. system automatycznej regulacji jasności.
C. system automatycznej kontroli ekspozycji.
D. odległość między źródłem promieniowania a detektorem obrazu.
Prawidłowo – SID (Source to Image Distance) w radiografii to odległość między źródłem promieniowania rentgenowskiego a detektorem obrazu (kasetą, przetwornikiem DR, płytą CR). To jest bardzo podstawowy, ale kluczowy parametr geometryczny badania RTG. Od SID zależy powiększenie obrazu, ostrość krawędzi (nieostrość geometryczna), a także rozkład dawki i ekspozycja detektora. W praktyce w klasycznej radiografii przyjmuje się standardowe wartości, np. 100–115 cm dla większości projekcji przyłóżkowych i stołowych, 150–180 cm dla zdjęć klatki piersiowej przy stojaku. Dzięki stałemu, znanemu SID można porównywać badania w czasie i utrzymywać powtarzalność jakości obrazu – to jest jedna z podstaw dobrych praktyk w radiologii. Moim zdaniem wielu uczniów trochę lekceważy geometrię, a to właśnie ona często decyduje, czy lekarz będzie mógł dobrze ocenić zmianę na zdjęciu. Zwiększenie SID zmniejsza powiększenie i nieostrość geometryczną, ale jednocześnie promieniowanie bardziej się rozprasza w przestrzeni, więc do uzyskania tej samej ekspozycji na detektorze trzeba zwykle podnieść mAs. W protokołach pracowni RTG bardzo często jest wpisane: projekcja AP, SID 100 cm; projekcja PA klatki, SID 180 cm itd. Technik powinien SID znać, ustawiać i kontrolować, bo zmiana SID bez korekty parametrów ekspozycji może prowadzić albo do prześwietlenia, albo do niedoświetlenia obrazu. W radiologii zabiegowej i fluoroskopii też operuje się pojęciem odległości źródło–detektor, choć czasem bardziej zwraca się uwagę na odległość źródło–pacjent, ale zasada geometryczna jest ta sama. Utrzymywanie odpowiedniego SID jest też elementem optymalizacji dawki zgodnie z zasadą ALARA, bo pozwala uzyskać dobrą jakość przy rozsądnym obciążeniu pacjenta promieniowaniem.

Pytanie 34

Jakie wymagania techniczne muszą spełniać aparaty terapeutyczne stosowane w zakładach brachyterapii, służące bezpośrednio do napromieniania pacjenta metodą zdalnego wprowadzania źródeł promieniotwórczych?

A. Wyłączenie i ponowne włączenie aparatu likwiduje sygnalizowany błąd.
B. Posiadają jeden niezależny system odliczający czas i informujący o zakończeniu napromieniania.
C. Weryfikują ustawione warunki i nie sygnalizują przypadkowych błędów personelu.
D. Wyłączenie i ponowne włączenie aparatu nie likwiduje sygnalizowanego błędu.
Prawidłowa odpowiedź podkreśla bardzo ważną zasadę bezpieczeństwa w brachyterapii HDR: wyłączenie i ponowne włączenie aparatu nie może kasować wcześniej zgłoszonego błędu. W aparatach do zdalnego wprowadzania źródeł (afterloaderach) mamy do czynienia z bardzo silnymi źródłami promieniowania, które są prowadzone do ciała pacjenta systemem prowadnic. Jeśli system raz wykryje sytuację niebezpieczną – np. problem z pozycją źródła, zablokowanie prowadnicy, błąd w układzie bezpieczeństwa, uszkodzenie czujnika – to z punktu widzenia norm ochrony radiologicznej ten stan musi być traktowany jako trwały alarm, dopóki nie zostanie sprawdzony i skasowany w kontrolowany sposób przez uprawnioną osobę, a nie przez zwykły „reset zasilania”. W praktyce klinicznej obowiązuje zasada tzw. fail-safe: jeżeli coś jest nie tak, urządzenie przechodzi w stan bezpieczny (źródło wraca do osłony, napromienianie jest przerwane), a system wymaga świadomej interwencji. Moim zdaniem to jest trochę jak z hamulcem bezpieczeństwa w windzie: samo wyłączenie i włączenie prądu nie może sprawić, że system uzna, iż nagle jest bezpiecznie. W nowoczesnych afterloaderach błędy są zapisywane w logach, trzeba je zdiagnozować, czasem wykonać testy serwisowe, dopiero potem można przywrócić normalną pracę. Takie podejście wynika z zaleceń producentów, wymagań prawa atomowego, rozporządzeń dotyczących urządzeń radioterapeutycznych oraz z ogólnych standardów QA w radioterapii (np. wytyczne IAEA czy ESTRO). Dodatkowo, aparaty te zwykle mają wielopoziomowe systemy nadzoru: niezależne układy kontroli pozycji źródła, monitorowania czasu napromieniania, kontroli ruchu kabla źródła, systemy blokad drzwiowych bunkra. Gdy którykolwiek z krytycznych podsystemów zgłosi błąd, musi to być sygnał do zatrzymania procedury i analizy, a nie coś, co można „przeklikać” restartem. Dzięki temu unika się sytuacji, w której potencjalna usterka techniczna prowadzi do niekontrolowanego narażenia pacjenta lub personelu. To jest dokładnie sens tej odpowiedzi: błąd ma być trwałym ostrzeżeniem, a nie komunikatem, który da się łatwo ukryć prostym trikiem z wyłącznikiem.

Pytanie 35

Kasety do pośredniej radiografii cyfrowej CR są wyposażone

A. w filmy rentgenowskie.
B. w folie wzmacniające.
C. w płyty ołowiowe.
D. w płyty fosforowe.
To pytanie bardzo dobrze pokazuje różnicę między klasyczną radiografią analogową a pośrednią radiografią cyfrową CR. Wiele osób automatycznie kojarzy kasetę RTG z filmem rentgenowskim, bo przez lata tak to wyglądało w pracowniach. W systemach analogowych rzeczywiście w kasecie znajdował się film światłoczuły, zwykle w połączeniu z foliami wzmacniającymi, które zamieniały promieniowanie X na światło, aby zmniejszyć dawkę dla pacjenta i skrócić ekspozycję. W CR filozofia jest inna: zamiast filmu mamy płytę fosforową, która sama pełni rolę nośnika informacji, a jednocześnie nie wymaga chemicznej obróbki w ciemni. Dlatego odpowiedź odwołująca się do filmów rentgenowskich jest typowym myleniem technologii analogowej z cyfrową pośrednią. Podobnie jest z foliami wzmacniającymi. One były kluczowym elementem kaset do filmów: konwersja promieniowania rentgenowskiego na światło błyskowe, które naświetlało film. W kasetach CR taka folia nie jest już potrzebna, bo płyta fosforowa bezpośrednio rejestruje energię promieniowania. W praktyce, jeżeli ktoś myśli, że w kasecie CR są folie wzmacniające, to zwykle wynika to z przyzwyczajenia do dawnych rozwiązań i braku rozróżnienia między konstrukcją kasety analogowej i cyfrowej. Płyty ołowiowe to z kolei zupełnie inny temat – ołów w radiologii kojarzymy z ochroną radiologiczną (fartuchy, parawany, osłony gonad, wkładki ochronne w kasetach od strony lampy lub stołu). Ołów może stanowić element ekranujący lub warstwę przeciwrozproszeniową, ale nie jest nośnikiem obrazu. W kasecie CR rolę „serca” systemu pełni płyta fosforowa, a nie ołów. Typowym błędem myślowym jest założenie, że skoro kaseta z zewnątrz wygląda podobnie w różnych systemach, to jej wnętrze też jest takie samo. W rzeczywistości rozwój radiografii cyfrowej całkowicie zmienił materiał rejestrujący: od filmu, przez fosfor w CR, po detektory półprzewodnikowe w DR. Z punktu widzenia dobrej praktyki zawodowej ważne jest, żeby umieć nazwać te elementy po imieniu i rozumieć, jak wpływają one na jakość obrazu, dawkę oraz sposób obsługi sprzętu.

Pytanie 36

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. wydłużenie fali i zwiększenie przenikliwości promieniowania X
B. skrócenie fali i zmniejszenie przenikliwości promieniowania X
C. wydłużenie fali i zmniejszenie przenikliwości promieniowania X
D. skrócenie fali i zwiększenie przenikliwości promieniowania X
W tym zagadnieniu łatwo się pomylić, bo wiele osób intuicyjnie myśli o świetle widzialnym, a nie o promieniowaniu X w kontekście lampy rentgenowskiej. Kluczowe jest zrozumienie, że napięcie na lampie (kV) bezpośrednio wpływa na energię elektronów uderzających w anodę, a więc na energię wytwarzanych fotonów promieniowania X. Gdy napięcie rośnie, rośnie też energia fotonów, co oznacza krótszą długość fali i większą przenikliwość. Dlatego wszystkie odpowiedzi mówiące o „wydłużeniu fali” są fizycznie niezgodne z rzeczywistością. Dłuższa fala oznaczałaby niższą energię fotonu, a przy wyższym napięciu jest dokładnie odwrotnie. W praktyce klinicznej oznaczałoby to, że przy zwiększaniu kV obraz powinien być coraz mniej przenikliwy, co stoi w sprzeczności z codziennym doświadczeniem z aparatem RTG. Kolejnym błędnym skojarzeniem jest łączenie większego napięcia ze „zmniejszeniem przenikliwości”. Ten błąd bierze się często z mylenia kV z mAs. Zwiększenie mAs daje więcej fotonów (większą ilość promieniowania), ale nie zmienia ich energii, więc nie wpływa na przenikliwość pojedynczego fotonu, tylko na ogólną ekspozycję i zaciemnienie obrazu. Natomiast kV zmienia jakość widma promieniowania – im wyższe napięcie, tym promieniowanie jest twardsze, bardziej przenikliwe. Jeśli ktoś uważa, że wyższe napięcie wydłuża falę i jednocześnie zwiększa przenikliwość, to łączy dwa sprzeczne efekty: dłuższa fala to mniejsza energia, a mniejsza energia to mniejsza przenikliwość. To stoi w sprzeczności z równaniem E = h·c/λ i z podstawowymi zasadami fizyki medycznej. Z kolei zestawienie „skrócenie fali i zmniejszenie przenikliwości” też jest nielogiczne, bo krótsza fala zawsze oznacza wyższą energię, a więc większą zdolność przenikania przez tkanki i materiały. W standardach fizyki medycznej i ochrony radiologicznej przyjmuje się jasno: podnosząc kV, zwiększamy energię i przenikliwość promieniowania X. Dlatego w praktyce przy badaniach wymagających dużej penetracji (np. klatka piersiowa u pacjenta otyłego) stosuje się wyższe napięcia, a przy cienkich strukturach – niższe, właśnie po to, żeby niepotrzebnie nie twardzić wiązki.

Pytanie 37

Parametr spirometryczny czynnościowa pojemność zalegająca oznaczany jest skrótem

A. RV
B. FRC
C. TLC
D. TV
Czynnościowa pojemność zalegająca to pojęcie, które bardzo łatwo pomylić z innymi objętościami płucnymi, bo nazwy i skróty są do siebie podobne, a wszystko kręci się wokół tych samych kilku litrów powietrza. Czynnościowa pojemność zalegająca oznaczana jest skrótem FRC (functional residual capacity) i opisuje ilość powietrza pozostającą w płucach po spokojnym wydechu. To jest stan równowagi między sprężystością płuc a sprężystością ściany klatki piersiowej. Wiele osób intuicyjnie zaznacza TLC, bo brzmi to „poważnie” – total lung capacity, czyli całkowita pojemność płuc. TLC to jednak maksymalna objętość gazu w płucach po najgłębszym możliwym wdechu. To zupełnie inny punkt krzywej oddechowej, skrajnie po stronie wdechu, podczas gdy FRC leży w środku, przy spokojnym oddychaniu. Utożsamianie TLC z FRC to typowy błąd polegający na myleniu pojemności opisujących maksima z pojemnościami opisującymi stan spoczynkowy. Kolejne częste skojarzenie to RV – residual volume, czyli objętość zalegająca. Sama nazwa „zalegająca” podpowiada, że może chodzić właśnie o czynnościową pojemność zalegającą. Problem w tym, że RV obejmuje tylko powietrze, którego nie można usunąć nawet przy maksymalnie forsownym wydechu. FRC jest większa, bo zawiera RV oraz dodatkowo zapasową objętość wydechową (ERV). Mylenie RV z FRC wynika zwykle z tego, że ktoś kojarzy słowo „zalegająca”, ale nie pamięta, że FRC to pojemność (czyli suma), a RV to tylko jedna z objętości. Odpowiedź TV też bywa wybierana przez osoby, które trzymają się bardziej podstaw: TV, czyli tidal volume, to objętość oddechowa – ilość powietrza nabieranego i wydychanego w jednym spokojnym oddechu. To tylko „porcja” powietrza, która krąży między wdechem a wydechem, a nie to, co zostaje w płucach po wydechu. Z mojego doświadczenia najbezpieczniej jest zapamiętać proste skojarzenie: po spokojnym wydechu zostaje FRC, po maksymalnym wydechu zostaje RV, a po maksymalnym wdechu mamy TLC. W dobrych praktykach interpretacji badań czynnościowych układu oddechowego, zgodnie z zaleceniami ATS/ERS, rozróżnienie tych parametrów jest kluczowe, bo każdy z nich inaczej zmienia się w chorobach obturacyjnych i restrykcyjnych. Bez tego łatwo się pogubić w opisie spirometrii czy pletyzmografii i wyciągnąć błędne wnioski kliniczne.

Pytanie 38

Który artefakt uwidoczniono na skanie RM głowy?

Ilustracja do pytania
A. Efekt uśrednienia.
B. Przesunięcie chemiczne.
C. Zawijanie obrazu.
D. Poruszenie pacjenta.
Prawidłowo rozpoznano artefakt zawijania obrazu (aliasing). Na tym skanie RM głowy widać struktury anatomiczne „przeniesione” spoza pola widzenia (FOV) do wnętrza obrazu – wyglądają jakby fragment czaszki lub tkanek miękkich nagle pojawiał się w nienaturalnym miejscu, przy brzegu kadru. To właśnie typowy obraz zawijania: sygnał z obszaru poza FOV zostaje „zmapowany” po przeciwnej stronie obrazu w kierunku fazowym. W praktyce klinicznej ten artefakt występuje najczęściej przy zbyt małym polu obrazowania w osi przednio–tylnej lub lewo–prawo, szczególnie w badaniach głowy, kręgosłupa szyjnego i jamy brzusznej. Dobre praktyki według standardów producentów aparatów MR i wytycznych to m.in.: zwiększenie FOV w kierunku fazowym, zastosowanie oversamplingu (phase oversampling, no phase wrap), zmianę kierunku kodowania fazy, a w razie potrzeby użycie cewek powierzchniowych o mniejszym zasięgu. Moim zdaniem bardzo ważne jest, żeby w technikum od razu kojarzyć: obraz „przełożony” przez krawędź kadru = zawijanie, a nie poruszenie czy efekt uśrednienia. W realnej pracy technika zawijanie potrafi całkowicie uniemożliwić ocenę np. tylnej jamy czaszki, jeśli sygnał z nosa lub twarzy wchodzi w pole móżdżku, dlatego rutynowo kontroluje się FOV i parametry fazy jeszcze przed rozpoczęciem sekwencji. Warto też pamiętać, że w sekwencjach szybkich, np. FSE, aliasing może być bardziej widoczny, więc tym bardziej trzeba pilnować ustawień.

Pytanie 39

Na obrazie cyfrowej angiografii subtrakcyjnej strzałką zaznaczono

Ilustracja do pytania
A. tętnicę szyjną wspólną prawą.
B. pień płucny.
C. pień ramienno-głowowy.
D. żyłę płucną górną prawą.
Na tym typie obrazu – cyfrowej angiografii subtrakcyjnej łuku aorty – najczęstszy błąd polega na myleniu dużych naczyń wychodzących z aorty z naczyniami płucnymi lub z pojedynczymi tętnicami szyjnymi. Wynika to zwykle z patrzenia tylko na kształt jednego fragmentu, bez uwzględnienia całego układu anatomicznego i kolejności odejścia naczyń. W tym przypadku widoczny jest klasyczny łuk aorty, a od jego górnej części odchodzą trzy główne pnie tętnicze: po prawej stronie obrazowania pień ramienno‑głowowy, dalej tętnica szyjna wspólna lewa i najbardziej z boku tętnica podobojczykowa lewa. Pień płucny w ogóle nie pasuje do tego obrazu – anatomicznie wychodzi z prawej komory serca, przebiega bardziej przednio i nie tworzy tak charakterystycznych, symetrycznych odgałęzień jak gałęzie łuku aorty. Na klasycznej aortografii łuk aorty jest wypełniony kontrastem, natomiast pień płucny byłby widoczny przy zupełnie innym typie badania (np. angiografii tętnic płucnych) i z reguły w innej projekcji. Mylenie tych struktur wynika często z automatycznego kojarzenia „dużego naczynia w klatce piersiowej” z pniem płucnym, bez analizy miejsca podania kontrastu i przebiegu naczynia. Żyła płucna górna prawa to z kolei naczynie żylne, cienkościenne, uchodzące do lewego przedsionka, położone bardziej ku tyłowi. Na DSA po podaniu kontrastu do aorty praktycznie nie będzie się ona wyraźnie kontrastowała w tej fazie, a jej przebieg i średnica są zupełnie inne niż w przypadku grubego, tętniczego pnia wychodzącego z aorty. Jej wybór świadczy zwykle o braku rozróżnienia między układem tętniczym i żylnym w klatce piersiowej na obrazach angiograficznych. Tętnica szyjna wspólna prawa jest rzeczywiście blisko anatomicznie związana z pniem ramienno‑głowowym, ale nie jest pierwszą gałęzią łuku aorty, tylko jego gałęzią pośrednią. Najpierw od łuku odchodzi pień ramienno‑głowowy, a dopiero on dzieli się na tętnicę szyjną wspólną prawą i tętnicę podobojczykową prawą. Na obrazie DSA tętnica szyjna wspólna prawa będzie więc widoczna wyżej, bardziej pionowo, po rozwidleniu. Typowy błąd to „skracanie” tego schematu i nazywanie całego segmentu od łuku aż do szyi tętnicą szyjną wspólną, bez dostrzeżenia miejsca jej odejścia od pnia ramienno‑głowowego. Dlatego przy nauce anatomii w obrazowaniu warto ćwiczyć patrzenie na cały przebieg naczynia, jego początek, rozgałęzienia i relacje z innymi strukturami, a nie tylko na fragment wskazany strzałką.

Pytanie 40

Radioizotopowa terapia medycyny nuklearnej polega na wprowadzeniu do tkanek lub narządów radiofarmaceutyku

A. znajdującego się w odległości 50 cm od pacjenta.
B. emitującego promieniowanie β ze źródeł otwartych.
C. znajdującego się w odległości 100 cm od pacjenta.
D. emitującego promieniowanie γ ze źródeł otwartych.
Prawidłowo – istota radioizotopowej terapii w medycynie nuklearnej polega na podaniu radiofarmaceutyku emitującego głównie promieniowanie β ze źródeł otwartych, czyli takiego, który wnika do organizmu (do krwi, tkanek, narządów), a nie jest zamknięty w jakiejś osłonie czy aplikatorze. Promieniowanie beta ma stosunkowo krótki zasięg w tkankach (zwykle kilka milimetrów), dzięki czemu dawka pochłonięta koncentruje się w obrębie zmiany chorobowej – guza, przerzutów do kości, nadczynnego guzka tarczycy – a mniej uszkadza otaczające, zdrowe tkanki. To jest właśnie ten „terapeutyczny” efekt medycyny nuklearnej, w odróżnieniu od diagnostyki scyntygraficznej, gdzie ważniejsze jest promieniowanie γ rejestrowane przez gammakamerę. Typowy przykład z praktyki: leczenie nadczynności tarczycy radiojodem I-131 – izotop jest podawany doustnie, kumuluje się w tarczycy i dzięki emisji β niszczy komórki produkujące nadmiar hormonów. Inne przykłady to terapia przerzutów do kości z użyciem Sr-89 czy Sm-153, albo nowocześniejsze terapie receptorowe (np. 177Lu-DOTATATE w guzach neuroendokrynnych). We wszystkich tych przypadkach stosuje się źródła otwarte – radiofarmaceutyk krąży w organizmie i jest częściowo wydalany, dlatego obowiązują ścisłe zasady ochrony radiologicznej: wydzielone sale, kontrola skażeń, instrukcje dla pacjenta po wypisie. Moim zdaniem warto zapamiętać prostą zasadę: β = leczenie (terapia), γ = obrazowanie (diagnostyka), oczywiście z pewnymi wyjątkami, ale jako skrót myślowy działa całkiem dobrze.