Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 28 kwietnia 2026 16:30
  • Data zakończenia: 28 kwietnia 2026 17:11

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Standardowe badanie USG średniej wielkości piersi wykonuje się głowicą w zakresie częstotliwości

A. 7,5-15 MHz
B. 2-3,5 MHz
C. 4,5-7 MHz
D. 0,5-1 MHz
W ultrasonografii piersi kluczowe jest zrozumienie zależności między częstotliwością a głębokością penetracji i rozdzielczością. Piersi, zwłaszcza średniej wielkości, są narządem raczej powierzchownym, więc priorytetem jest wysoka rozdzielczość obrazu, a nie bardzo duża głębokość wnikania fali. To jest główny powód, dla którego stosuje się głowice o częstotliwości 7,5–15 MHz, a nie niższe zakresy podane w odpowiedziach. Najniższy zakres 0,5–1 MHz to w ogóle częstotliwości zupełnie nieprzydatne do obrazowania takich struktur jak pierś. Tak niskie częstotliwości kojarzą się raczej z zastosowaniami terapeutycznymi, ewentualnie bardzo głęboką penetracją w dużych strukturach, ale kosztem fatalnej rozdzielczości. Obraz przy takiej częstotliwości byłby tak mało szczegółowy, że nie dałoby się ocenić ani granic zmiany, ani jej wewnętrznej struktury. Typowym błędem jest myślenie: „im niższa częstotliwość, tym lepiej, bo głębiej widać”, ale w piersi nie chodzi o głębię, tylko o detale. Zakres 2–3,5 MHz jest typowy raczej dla badań jamy brzusznej u osób otyłych, echokardiografii przezklatkowej czy obrazowania głęboko położonych narządów u dorosłych. W piersi, szczególnie średniej, taka częstotliwość dałaby zbyt małą rozdzielczość, a dodatkowa głębokość wnikania jest po prostu niepotrzebna. Moim zdaniem to częsty skrót myślowy: „to też USG, więc będzie ok”, ale standardy diagnostyki piersi wymagają znacznie wyższej częstotliwości. Zakres 4,5–7 MHz jest już bliżej prawidłowego, bo stosuje się go do niektórych badań narządów powierzchownych u osób z grubszą tkanką podskórną, ale w nowoczesnej diagnostyce piersi nadal uznaje się go za zbyt niski jako podstawowy wybór. Rozdzielczość przy 5 MHz jest wyraźnie gorsza niż przy 10–12 MHz, co ma ogromne znaczenie przy wykrywaniu małych zmian, np. guzków rzędu 3–5 mm. Przy zbyt niskiej częstotliwości łatwo o niedoszacowanie wielkości zmiany, mylne wrażenie jej jednorodności albo wręcz przeoczenie subtelnych ognisk. Podsumowując, wszystkie niższe zakresy częstotliwości kuszą większą głębokością penetracji, ale w badaniu piersi nie o to chodzi. Tu obowiązuje zasada: jak najwyższa częstotliwość, przy której fala jeszcze wystarczająco penetruje całą grubość piersi. Z tego powodu standardem dla średniej piersi są głowice 7,5–15 MHz, zgodnie z dobrymi praktykami i zaleceniami towarzystw radiologicznych.

Pytanie 2

Chorobą układu oddechowego typu obturacyjnego jest

A. pylica płuc.
B. sarkoidoza.
C. mukowiscydoza.
D. gruźlica płuc.
W tym pytaniu łatwo się pomylić, bo wszystkie wymienione choroby dotyczą płuc, ale tylko jedna ma wyraźnie obturacyjny charakter. Kluczowe jest odróżnienie chorób obturacyjnych od restrykcyjnych. Obturacja to zwężenie lub zablokowanie dróg oddechowych i upośledzenie przepływu powietrza, szczególnie przy wydechu. W spirometrii objawia się to obniżeniem FEV1 i wskaźnika FEV1/FVC. Choroby restrykcyjne natomiast ograniczają pojemność płuc, ale przepływ przez oskrzela może być prawidłowy lub względnie zachowany, wskaźnik FEV1/FVC bywa prawidłowy lub wręcz podwyższony. Gruźlica płuc kojarzy się z kaszlem, naciekami w RTG i przewlekłym uszkodzeniem miąższu płucnego, więc bywa mylona z obturacją. Jednak patomechanizm jest inny: dominują zmiany ziarniniakowe, włóknienie, ubytki tkanki, czyli raczej obraz zbliżony do restrykcji lub złożonych zaburzeń mieszanych, a nie typowa obturacja oskrzeli. Pylica płuc to klasyczny przykład choroby śródmiąższowej spowodowanej przewlekłym wdychaniem pyłów (np. krzemionki, węgla). Uszkodzenie dotyczy głównie miąższu i śródmiąższu, płuca stają się sztywne, mniej podatne na rozciąganie. W spirometrii daje to typowy obraz restrykcyjny: obniżona pojemność życiowa, ale bez charakterystycznego spadku wskaźnika FEV1/FVC. Sarkoidoza z kolei jest chorobą ziarniniakową o bardzo zróżnicowanym przebiegu, często z zajęciem węzłów chłonnych wnęk i śródpiersia. Też głównie daje obraz choroby śródmiąższowej, z przewagą restrykcji, choć czasem wynik może być mieszany. Błąd myślowy, który często się tu pojawia, polega na założeniu, że „skoro płuca są chore”, to od razu mamy do czynienia z obturacją. Tymczasem klasyczne choroby obturacyjne to astma, POChP, rozstrzenie oskrzeli i mukowiscydoza, gdzie problemem jest zwężenie lub zablokowanie dróg oddechowych, a nie tylko uszkodzenie samego miąższu płucnego. W praktyce technika medyczna i diagnostyka funkcjonalna opierają się właśnie na takim rozróżnieniu, dlatego warto je mieć dobrze poukładane w głowie.

Pytanie 3

W leczeniu izotopowym tarczycy należy podać

A. doustnie emiter promieniowania beta.
B. dożylnie emiter promieniowania alfa.
C. dożylnie emiter promieniowania beta.
D. doustnie emiter promieniowania alfa.
W leczeniu izotopowym tarczycy kluczowe jest zrozumienie, że chodzi o klasyczne zastosowanie jodu-131 jako radiofarmaceutyku, a nie o jakiekolwiek „ogólne” promieniowanie podawane w dowolny sposób. Typowym błędem jest myślenie, że skoro wiele leków podajemy dożylnie, to radioizotop do leczenia tarczycy też powinien być podany w ten sposób. W praktyce medycyny nuklearnej przy terapii tarczycy standardem jest droga doustna, bo jod jest fizjologicznie wchłaniany z przewodu pokarmowego i bardzo dobrze trafia do krwiobiegu, a stamtąd do tarczycy. Nie ma więc żadnej przewagi dożylnego podania w tym konkretnym wskazaniu, a są dodatkowe obciążenia organizacyjne i bezpieczeństwa. Drugi problem dotyczy rodzaju promieniowania. W leczeniu tarczycy stosujemy emiter promieniowania beta, a nie alfa. Cząstki beta mają zasięg rzędu kilku milimetrów w tkankach, co pozwala na skuteczne niszczenie komórek tarczycy przy stosunkowo ograniczonym uszkodzeniu tkanek sąsiednich. Cząstki alfa mają bardzo krótki zasięg i bardzo duży efekt biologiczny na małej odległości, przez co są raczej zarezerwowane do innych, bardziej specyficznych terapii celowanych, a nie do klasycznego leczenia nadczynności tarczycy czy ablacji pozostałej tkanki tarczycowej. Moim zdaniem częstą pułapką jest też utożsamianie „silniejszego” promieniowania z „lepszym” leczeniem. W radioterapii i medycynie nuklearnej nie chodzi o maksymalną moc, tylko o optymalny rozkład dawki, selektywność i bezpieczeństwo. Dlatego skojarzenie: izotopowe leczenie tarczycy = jod-131 doustnie, emiter beta, jest zgodne zarówno z podręcznikami, jak i z rutynową praktyką kliniczną oraz wytycznymi towarzystw medycyny nuklearnej. Inne kombinacje drogi podania i rodzaju promieniowania w tym pytaniu po prostu nie pasują do rzeczywistych standardów postępowania.

Pytanie 4

W celu wyeliminowania zakłóceń obrazu MR przez sygnały pochodzące z tkanki tłuszczowej, stosuje się

A. obrazowanie T1 - zależne.
B. sekwencje FLAIR.
C. sekwencje STIR.
D. obrazowanie PD - zależne.
Prawidłowo wskazano sekwencje STIR, bo to jest klasyczna, podręcznikowa metoda supresji sygnału z tkanki tłuszczowej w obrazowaniu MR. STIR (Short Tau Inversion Recovery) to sekwencja inwersyjno‑odzyskiwania, w której stosuje się impuls inwersyjny 180° i odpowiednio dobrany czas TI (inversion time), tak żeby magnetyzacja podłużna tłuszczu przechodziła przez zero w momencie rejestracji sygnału. Efekt w praktyce: tłuszcz na obrazach jest wygaszony, ciemny, dzięki czemu lepiej widać obrzęk, zmiany zapalne, nacieki nowotworowe czy urazy. W kończynach, w badaniach kręgosłupa, stawów czy w onkologii STIR jest, moim zdaniem, absolutnym „must have”, bo pozwala wyłapać nawet subtelne zmiany w szpiku kostnym i tkankach miękkich. W standardach protokołów MR, zwłaszcza narządu ruchu, bardzo często znajdziesz kombinację sekwencji T1‑zależnych, T2‑zależnych i właśnie STIR do oceny patologii. Warto pamiętać, że STIR jest sekwencją niespecyficzną dla pola – to znaczy działa dobrze zarówno w 1,5 T, jak i 3 T, w przeciwieństwie do klasycznego fat‑satu chemicznego, który bywa kapryśny przy niejednorodnościach pola. Z praktycznego punktu widzenia STIR jest też bezpieczny przy badaniach po kontraście gadolinowym, bo nie powinno się go łączyć z selektywną saturacją tłuszczu, natomiast STIR dalej poprawnie wygasza tłuszcz. Dobrą praktyką jest zapamiętanie: jeśli pytanie dotyczy tłumienia tłuszczu metodą inwersyjno‑odzyskiwania – odpowiedź to STIR, nie FLAIR ani inne sekwencje.

Pytanie 5

Który załamek odzwierciedla szybką repolaryzację komór w zapisie EKG?

A. S
B. T
C. R
D. Q
Prawidłowo wskazany załamek T odzwierciedla fazę szybkiej repolaryzacji komór, czyli powrót błony komórkowej kardiomiocytów komorowych do spoczynkowego potencjału po skurczu. W ujęciu elektrofizjologicznym odpowiada to głównie fazie 3 potencjału czynnościowego komórek mięśnia komór – intensywny wypływ jonów potasu na zewnątrz i wygaszanie napływu jonów wapnia. Na standardowym 12‑odprowadzeniowym EKG załamek T pojawia się po zespole QRS i przed odcinkiem TP, jest zwykle dodatni w większości odprowadzeń kończynowych i przedsercowych (z wyjątkiem aVR i czasem V1). W praktyce technika zapisu ma duże znaczenie: prawidłowe ułożenie elektrod, filtracja zakłóceń i poprawna kalibracja (10 mm/mV, 25 mm/s) ułatwiają wiarygodną ocenę morfologii załamka T. To ma znaczenie, bo zmiany kształtu lub kierunku załamka T są jednym z podstawowych kryteriów oceny niedokrwienia, przerostu komór, zaburzeń elektrolitowych (np. hiperkaliemia – wysokie, ostre T) czy toksycznego działania leków. Z mojego doświadczenia w pracowni EKG bardzo często lekarz najpierw „rzuca okiem” właśnie na odcinek ST i załamki T, żeby szybko wychwycić ostrą patologię. W dobrych praktykach diagnostyki elektromedycznej zaleca się systematyczną analizę: rytm, częstość, oś elektryczna, zespół QRS, odcinek ST i właśnie załamek T, z porównaniem do poprzednich zapisów pacjenta. Umiejętność kojarzenia załamka T z repolaryzacją komór to podstawa do dalszej, bardziej zaawansowanej interpretacji, np. rozróżniania zmian wtórnych do poszerzonego QRS od pierwotnych zaburzeń repolaryzacji. Moim zdaniem warto też nawykowo sprawdzać zgodność kierunku T z główną składową QRS w danym odprowadzeniu – niezgodność często sugeruje patologię, nawet jeśli pacjent jeszcze nic nie czuje.

Pytanie 6

Parametr SNR w obrazowaniu MR oznacza

A. rozmiar matrycy.
B. stosunek sygnału do szumu.
C. grubość obrazowanej warstwy.
D. wielkość pola widzenia.
Parametr SNR w obrazowaniu MR to stosunek sygnału do szumu (Signal to Noise Ratio) i jest jednym z absolutnie kluczowych pojęć przy ocenie jakości obrazów rezonansu. Mówiąc po ludzku: patrzymy, jak silny jest użyteczny sygnał pochodzący z tkanek pacjenta w porównaniu do przypadkowych zakłóceń, czyli szumu. Im wyższy SNR, tym obraz jest bardziej „czysty”, gładszy, z wyraźniejszym zarysem struktur anatomicznych i mniejszym ziarnem. Przy niskim SNR obraz robi się „ziarnisty”, poszarpany, trudniej odróżnić szczegóły, a diagnostyka staje się mniej pewna. W praktyce technik MR ciągle balansuje parametrami, które wpływają na SNR: zwiększenie grubości warstwy, liczby akwizycji (NEX/NSA), pola widzenia (FOV), czy zastosowanie odpowiednich cewek odbiorczych poprawia SNR, ale często kosztem rozdzielczości lub czasu badania. Z kolei zwiększenie rozdzielczości (większa matryca, mniejszy voxel) zwykle SNR obniża. Moim zdaniem ważne jest, żeby nie traktować SNR jako abstrakcyjnej liczby, tylko jako realne narzędzie do oceny, czy dana sekwencja nadaje się do wiarygodnej interpretacji. W wielu ośrodkach przyjmuje się minimalne wartości SNR dla konkretnych protokołów, tak żeby radiolog miał wystarczająco „czysty” obraz do opisu. W zaawansowanych systemach kontroli jakości MR SNR mierzy się regularnie na fantomach, żeby sprawdzać stabilność aparatu i wychwycić spadek jakości zanim zauważy go lekarz. W codziennej pracy, jeśli radiolog mówi, że „za dużo szumu na obrazach”, to w praktyce właśnie ma zastrzeżenia do zbyt niskiego SNR i trzeba tak dobrać parametry, żeby ten stosunek sygnału do szumu poprawić, nie tracąc przy tym istotnych informacji diagnostycznych.

Pytanie 7

Zgodnie ze standardami do wykonania zdjęcia bocznego czaszki, należy zastosować kasetę o wymiarze

A. 24 × 30 cm i ułożyć poprzecznie.
B. 18 × 24 cm i ułożyć podłużnie.
C. 24 × 30 cm i ułożyć podłużnie.
D. 18 × 24 cm i ułożyć poprzecznie.
W doborze kasety do zdjęcia bocznego czaszki kluczowe jest dopasowanie formatu i ułożenia do rzeczywistych wymiarów głowy w tej projekcji. Częsty błąd myślowy polega na tym, że ktoś patrzy na czaszkę „z przodu” i wydaje mu się, że mniejszy format 18 × 24 cm wystarczy, bo przecież głowa nie jest aż tak duża. Problem w tym, że w projekcji bocznej liczy się długość czaszki od kości czołowej do potylicznej, a ta długość jest wyraźnie większa niż szerokość widoczna w projekcji AP/PA. Dlatego kaseta 18 × 24 cm, niezależnie czy ułożona podłużnie czy poprzecznie, zwykle nie zapewnia odpowiedniego marginesu. W praktyce może to skutkować obcięciem części kości potylicznej albo czołowej, co automatycznie obniża wartość diagnostyczną badania i często wymusza powtórkę ekspozycji, a to już jest niepotrzebne narażenie pacjenta. Drugie typowe nieporozumienie dotyczy ułożenia kasety 24 × 30 cm. Intuicyjnie ktoś może chcieć ułożyć ją podłużnie, bo „tak się robi w klatce piersiowej” czy w kończynach, albo po prostu lubi mieć dłuższy bok pionowo. W obrazie bocznym czaszki takie ułożenie nie wykorzystuje jednak optymalnie kształtu anatomicznego głowy. Czaszka w bocznej projekcji jest bardziej „wydłużona” w osi przednio–tylnej niż w osi czaszka–czubek–podstawa, więc to właśnie poprzeczne ułożenie kasety zapewnia lepsze dopasowanie dłuższego boku do długości czaszki. Ustawienie podłużne zwiększa ryzyko, że przy minimalnym błędzie pozycjonowania obetniemy część struktur z przodu lub z tyłu. Z mojego doświadczenia wynika, że większość takich błędów wynika z automatyzmu: technik przyzwyczajony do jednego formatu i jednego sposobu układania kaset przenosi to bezrefleksyjnie na inne badanie. Tymczasem dobre praktyki i standardy radiologiczne zalecają myślenie „anatomia + geometria promieniowania”: najpierw wyobrażamy sobie, jak wygląda rzutowana część ciała w danej projekcji, potem dobieramy format i orientację kasety tak, żeby mieć z każdej strony zapas kilku centymetrów. W przypadku bocznej czaszki daje to właśnie 24 × 30 cm w ułożeniu poprzecznym jako rozwiązanie najbardziej bezpieczne i powtarzalne.

Pytanie 8

Do wczesnych odczynów popromiennych po radioterapii zalicza się

A. blizny.
B. retinopatię.
C. świąd skóry.
D. martwicę nerwów.
Prawidłowo wskazana świąd skóry jako wczesny odczyn popromienny bardzo dobrze pokazuje zrozumienie podstaw radiobiologii klinicznej. W radioterapii wczesne odczyny popromienne to takie, które pojawiają się w trakcie napromieniania albo w ciągu kilku tygodni po jego zakończeniu. Dotyczą one tkanek szybko dzielących się, głównie nabłonka skóry i błon śluzowych. Typowe objawy to rumień, suchość skóry, złuszczanie, uczucie pieczenia, kłucia, no i właśnie świąd. Ten świąd wynika z uszkodzenia komórek naskórka i reakcji zapalnej w skórze, a także z przesuszenia – bariera naskórkowa jest naruszona, więc skóra reaguje podrażnieniem. W praktyce, na oddziale radioterapii, pacjenci bardzo często zgłaszają swędzenie w polu napromieniania już po kilkunastu–kilkudziesięciu Gy, zwłaszcza przy napromienianiu piersi, głowy i szyi czy okolic miednicy. Standardem postępowania jest edukacja pacjenta: delikatna higiena, unikanie drażniących kosmetyków, luźna odzież, zakaz drapania skóry oraz stosowanie zaleconych emolientów czy kremów łagodzących zgodnych z procedurami ośrodka. Dobre praktyki mówią też o regularnej ocenie skóry według skal toksyczności (np. RTOG, CTCAE) i dokumentowaniu nasilenia objawów. Moim zdaniem kluczowe jest, żeby kojarzyć świąd i rumień bardziej z wczesną, odwracalną reakcją, a nie od razu z powikłaniami trwałymi. Wczesne odczyny zazwyczaj ustępują w ciągu kilku tygodni po zakończeniu leczenia, jeśli odpowiednio się o skórę dba i nie przerywa się niepotrzebnie radioterapii. To pozwala utrzymać ciągłość terapii, co ma ogromne znaczenie dla skuteczności onkologicznej.

Pytanie 9

Pomiaru impedancji akustycznej ucha środkowego dokonuje się podczas badania

A. audiometrii tonalnej.
B. potencjałów wywołanych.
C. otoemisji akustycznych.
D. tympanometrycznego.
Prawidłowa odpowiedź to badanie tympanometryczne, bo właśnie w tym badaniu w praktyce klinicznej mierzy się impedancję akustyczną ucha środkowego, a dokładniej – reaktancję i rezystancję układu błona bębenkowa–kosteczki słuchowe. Tympanometr wprowadza do przewodu słuchowego zewnętrznego sygnał dźwiękowy o określonej częstotliwości (zwykle 226 Hz u dorosłych) i jednocześnie zmienia ciśnienie w przewodzie. Na tej podstawie analizuje, ile energii akustycznej jest odbijane, a ile przenoszone przez układ ucha środkowego. Z tego wychodzi krzywa tympanogramu, która w praktyce jest po prostu graficznym zapisem zmian podatności/impedancji ucha środkowego w funkcji ciśnienia. Moim zdaniem ważne jest, żeby kojarzyć: tympanometria = ocena funkcji ucha środkowego (trąbka słuchowa, ruchomość błony, łańcuch kosteczek, ewentualny płyn w jamie bębenkowej). W gabinecie laryngologicznym tympanometria jest standardowym badaniem dodatkowym u dzieci z nawracającymi zapaleniami ucha, u pacjentów z niedosłuchem przewodzeniowym czy przy podejrzeniu wysiękowego zapalenia ucha środkowego. Prawidłowy tympanogram typu A sugeruje prawidłową impedancję, natomiast typ B lub C wskazuje na zaburzenia, np. płyn w jamie bębenkowej lub niedrożność trąbki słuchowej. W audiologii i protetyce słuchu wynik tympanometrii wykorzystuje się też przy doborze aparatów słuchowych i planowaniu dalszej diagnostyki – jeśli impedancja jest nieprawidłowa, sama audiometria tonalna nie wystarczy i trzeba szukać przyczyny w uchu środkowym. Dobra praktyka jest taka, że każda pełniejsza ocena słuchu, zwłaszcza u dzieci, powinna łączyć audiometrię z tympanometrią, bo dopiero wtedy mamy pełniejszy obraz drogi przewodzeniowej dźwięku.

Pytanie 10

Limfografia to badanie kontrastowe

A. układu chłonnego.
B. ślianek.
C. układu oddechowego.
D. rdzenia kręgowego.
Limfografia wielu osobom myli się z innymi badaniami kontrastowymi, bo w nazwie nie ma oczywistego odniesienia do konkretnego narządu, jak np. „bronchografia” czy „urografia”. Tymczasem kluczowe jest słowo „lympha” – czyli chłonka, a więc cały układ chłonny: naczynia limfatyczne i węzły chłonne. To właśnie jego dotyczy limfografia. Układ oddechowy ocenia się zupełnie innymi metodami: standardem jest RTG klatki piersiowej, tomografia komputerowa (TK) wysokiej rozdzielczości, ewentualnie bronchoskopia. Kontrast stosuje się głównie do naczyń (angiografia płucna), przełyku albo w badaniach TK, ale nie nazywa się tego limfografią. Błąd myślowy polega często na tym, że ktoś kojarzy układ oddechowy z częstym użyciem badań obrazowych i kontrastu, więc „wrzuca” tam wszystko, co kontrastowe. Rdzeń kręgowy z kolei kiedyś oceniano za pomocą mielografii, gdzie do kanału kręgowego podawano środek kontrastowy. To zupełnie inne badanie, inna technika, inny cel. Dzisiaj w standardach dominuje rezonans magnetyczny (MR) bez kontrastu lub z kontrastem paramagnetycznym, ale nazwa pozostaje inna. Zdarza się, że ktoś myli po prostu końcówki nazw: mielografia, limfografia, urografia – brzmi podobnie, ale dotyczą różnych układów. Ślinianki bada się przede wszystkim za pomocą USG, czasem TK lub MR, a klasycznym badaniem kontrastowym jest sialografia, gdzie środek kontrastowy podaje się do przewodów ślinianek. To też osobne, specyficzne badanie. Łączenie limfografii ze śliniankami to zwykle efekt kojarzenia „małych gruczołów i przewodów” z czymś, co może wyglądać jak naczynia. Dobra praktyka w diagnostyce obrazowej to precyzyjne używanie nazw: limfografia – układ chłonny, mielografia – rdzeń i kanał kręgowy, sialografia – ślinianki. Takie porządkowanie pojęć bardzo ułatwia później naukę i pracę przy planowaniu badań dla pacjenta.

Pytanie 11

Dawka graniczna wyrażona jako dawka skuteczna (efektywna), dla osób zawodowo narażonych na działanie promieniowania jonizującego wynosi w ciągu roku kalendarzowego

A. 20 mSv
B. 15 mSv
C. 8 mSv
D. 6 mSv
Prawidłowa wartość dawki granicznej skutecznej dla osób zawodowo narażonych na promieniowanie jonizujące to 20 mSv w ciągu roku kalendarzowego. Wynika to z aktualnych zaleceń ICRP (International Commission on Radiological Protection) oraz wdrożenia tych zaleceń w prawie polskim i unijnym. W praktyce przyjmuje się, że średnia dawka skuteczna nie powinna przekraczać 20 mSv na rok, liczona jako średnia z 5 kolejnych lat, przy czym w żadnym pojedynczym roku nie wolno przekroczyć 50 mSv. Ale w normalnych warunkach pracy planujemy tak, żeby trzymać się właśnie okolic 20 mSv lub niżej. Moim zdaniem najważniejsze jest zrozumienie, że jest to wartość graniczna, a nie „zalecana” – celem ochrony radiologicznej jest trzymanie dawek jak najniżej rozsądnie osiągalnie (zasada ALARA – As Low As Reasonably Achievable). W codziennej pracy technika elektroradiologii czy fizyka medycznego przekłada się to na konkretne działania: stosowanie osłon (fartuchy ołowiane, osłony gonad, parawany), odpowiednie odległości od źródła promieniowania, skracanie czasu ekspozycji, poprawne kolimowanie wiązki, używanie właściwych parametrów ekspozycji (kV, mAs) oraz kontrola jakości aparatów. W diagnostyce obrazowej (RTG, TK, fluoroskopia) i w radioterapii dawki personelu są stale monitorowane za pomocą dozymetrów indywidualnych, które nosi się zwykle na klatce piersiowej, a czasem dodatkowo pod fartuchem. Z mojego doświadczenia dobrze prowadzona pracownia, z rozsądną organizacją pracy i przestrzeganiem procedur, pozwala utrzymywać dawki personelu zdecydowanie poniżej 20 mSv rocznie, często nawet w okolicach kilku mSv lub mniej. Ten limit jest więc bardziej „bezpiecznym sufitem” niż celem, do którego się dąży.

Pytanie 12

Na obrazie TK klatki piersiowej w przekroju poprzecznym strzałką oznaczono

Ilustracja do pytania
A. aortę zstępującą.
B. aortę wstępującą.
C. oskrzele główne prawe.
D. oskrzele główne lewe.
Na tym typie zadań najczęstszy problem nie polega na nieznajomości anatomii, tylko na pomyleniu orientacji obrazu TK i podobnych do siebie struktur w śródpiersiu. W standardowych przekrojach poprzecznych TK patrzymy na pacjenta od strony jego stóp. Oznaczenie R po lewej stronie ekranu wskazuje prawą stronę pacjenta, więc wszystko po przeciwnej stronie to lewa połowa klatki piersiowej. Jeśli ktoś wybiera prawe oskrzele główne, to zwykle dlatego, że patrzy „intuicyjnie”, jak na zdjęcie od przodu, a nie jak na przekrój poprzeczny. Prawe oskrzele główne jest rzeczywiście bardziej pionowe, krótsze i szersze, ale będzie po stronie oznaczonej literą R. Strzałka na obrazie wyraźnie wskazuje strukturę po stronie przeciwnej, czyli anatomicznie lewej. Wybór aorty wstępującej lub zstępującej wynika zazwyczaj z mylenia struktur powietrznych z naczyniami. Aorta w TK z kontrastem ma gęstość wysoką, jest jasna, o okrągłym lub lekko owalnym przekroju. Na tym poziomie przekroju aorta wstępująca leży bardziej z przodu i po prawej stronie pacjenta, blisko prawej komory, natomiast aorta zstępująca jest zwykle tylno-lewostronna, przylega do kręgosłupa. Struktura wskazana strzałką ma gęstość powietrza (ciemna), co jest typowe dla światła dróg oddechowych, a nie dla naczynia wypełnionego kontrastem. Dodatkowo jej położenie – tuż poniżej rozdwojenia tchawicy, w bezpośrednim sąsiedztwie wnęki lewego płuca – jest książkowe dla lewego oskrzela głównego. Moim zdaniem dobrym nawykiem jest przy każdym przekroju najpierw zidentyfikować tchawicę, potem bifurkację, a dopiero później przechodzić do oskrzeli i naczyń. Pozwala to uniknąć typowego błędu: brania jasnych, kontrastujących naczyń za „główne drogi oddechowe” tylko dlatego, że są wyraźniejsze. W praktyce zawodowej takie pomyłki mogą skutkować błędną oceną lokalizacji guza, węzła chłonnego albo zakrzepu, dlatego standardy dobrej praktyki w diagnostyce obrazowej mocno podkreślają konieczność systematycznej analizy przekrojów i świadomego korzystania z oznaczeń orientacyjnych na obrazie.

Pytanie 13

Zarejestrowane na elektrokardiogramie miarowe fale f w kształcie „zębów piły” poprzedzielane prawidłowymi zespołami QRS są charakterystyczne dla

A. migotania komór.
B. trzepotania przedsionków.
C. wielokształtnego częstoskurczu przedsionkowego.
D. napadowego częstoskurczu nadkomorowego.
Opis miarowych fal f w kształcie „zębów piły”, poprzedzielanych prawidłowymi, wąskimi zespołami QRS, jest bardzo specyficzny i dotyczy głównie trzepotania przedsionków. Błędne skojarzenia pojawiają się zwykle wtedy, gdy ktoś ogólnie pamięta, że „coś z przedsionkami, coś z częstoskurczem”, ale nie odróżnia dokładnie obrazu EKG poszczególnych arytmii. W migotaniu komór zapis EKG jest zupełnie inny: chaotyczny, bez wyraźnych zespołów QRS, bez linii izoelektrycznej, przypomina raczej drobnofaliste lub grubofaliste drgania o różnej amplitudzie i częstotliwości. To jest stan bez tętna, wymagający natychmiastowej defibrylacji, a nie miarowy rytm z wyraźnymi zespołami QRS. Jeżeli na EKG widzimy regularne, wąskie QRS-y poprzedzielane charakterystyczną falą tła, to zdecydowanie nie jest to migotanie komór. Napadowy częstoskurcz nadkomorowy (SVT) zwykle objawia się jako bardzo szybki, ale regularny rytm z wąskimi zespołami QRS, natomiast załamki P mogą być niewidoczne, zlane z QRS lub z załamkiem T. Tło między zespołami QRS jest zazwyczaj „płaskie”, bez typowych „zębów piły”. To częsty błąd – każdą szybką tachykardię nadkomorową nazywać SVT, bez wpatrzenia się w morfologię fali podstawowej. Wielokształtny częstoskurcz przedsionkowy też nie pasuje do opisu. W zapisie widzimy wtedy różne morfologie załamków P, nieregularne odstępy PP i RR, brak tej powtarzalnej fali przypominającej grzebień. Sama nazwa „wielokształtny” podpowiada, że załamki przedsionkowe nie są jednakowe, a tutaj w trzepotaniu mamy właśnie bardzo jednorodne, rytmiczne fale f. Typowym błędem myślowym jest skupianie się wyłącznie na szybkości rytmu, zamiast na kształcie załamków i tła między zespołami QRS. Dobre praktyki w diagnostyce EKG mówią jasno: zanim nazwiesz arytmię, oceń regularność rytmu, szerokość QRS, obecność i wygląd załamków P (lub fal f/F) oraz linię izoelektryczną. Dopiero po połączeniu tych elementów można poprawnie rozróżnić trzepotanie przedsionków od innych tachyarytmii.

Pytanie 14

W których projekcjach wykonuje się standardowe badanie mammograficzne?

A. Kaudokranialnej i zrotowanej.
B. Kraniokaudalnej i skośnej przyśrodkowo-bocznej.
C. Kaudokranialnej i skośnej przyśrodkowo-bocznej.
D. Kraniokaudalnej i zrotowanej.
Prawidłowo wskazana projekcja kraniokaudalna (CC) oraz skośna przyśrodkowo-boczna, czyli mediolateral oblique (MLO), to standardowy zestaw w rutynowym badaniu mammograficznym. W praktyce technik wykonuje dla każdej piersi przynajmniej te dwie projekcje, bo one się wzajemnie uzupełniają i dają możliwie pełny obraz gruczołu piersiowego. Projekcja kraniokaudalna polega na uciśnięciu piersi między detektorem a kompresorem z góry na dół. Dzięki temu dobrze oceniamy centralne i przyśrodkowe części piersi, a także struktury położone bardziej powierzchownie. Widzimy wtedy rozkład tkanki gruczołowej, mikrozwapnienia, zarysy ewentualnych guzków. Z mojego doświadczenia, jeśli CC jest dobrze wykonana, to brodawka jest widoczna w profilu, a pierś jest równomiernie spłaszczona, bez zagięć skóry, co ma ogromne znaczenie dla jakości obrazu. Z kolei projekcja skośna przyśrodkowo-boczna (MLO) jest kluczowa, bo obejmuje nie tylko pierś, ale też ogon pachowy, czyli fragment tkanki gruczołowej wchodzący w dół pachy. Właśnie tam często lokalizują się zmiany, które mogą umknąć w projekcji CC. W dobrych praktykach przyjmuje się, że na MLO powinna być widoczna fałda podpiersiowa, mięsień piersiowy większy i jak największa objętość tkanki piersi. To jest taki wyznacznik poprawnego pozycjonowania pacjentki. Standardy programów przesiewowych (np. europejskich EUREF) jasno wskazują zestaw CC + MLO jako podstawę badania screeningowego. Dodatkowe projekcje, jak np. powiększeniowe czy celowane, wykonuje się dopiero przy podejrzeniu zmiany. W praktyce technika najważniejsze jest prawidłowe ułożenie pacjentki, odpowiedni ucisk piersi (żeby zmniejszyć dawkę i poprawić kontrast) oraz unikanie artefaktów. Moim zdaniem im lepiej rozumiesz, po co robisz te dwie konkretne projekcje, tym łatwiej potem zauważyć, że czegoś na obrazie brakuje i trzeba np. powtórzyć ujęcie albo dodać kolejne.

Pytanie 15

Wskaż przyczynę powstania artefaktu widocznego na obrazie MR.

Ilustracja do pytania
A. Nieprawidłowa kalibracja aparatu.
B. Błędny dobór cewki gradientowej.
C. Wymiary obiektu przekroczyły pole widzenia.
D. Niejednorodność pola magnetycznego.
Prawidłowo powiązałeś artefakt z przekroczeniem pola widzenia (FOV) przez obrazowany obiekt. Na pokazanym obrazie MR mózgowia widać typowy przykład tzw. wrap-around albo aliasingu: struktury anatomiczne, które „nie mieszczą się” w zadanym polu widzenia, są składane z powrotem na przeciwległą krawędź obrazu. Dzieje się tak, bo system MR próbuje przypisać sygnał z obszaru poza FOV do najbliższej pozycji wynikającej z zakresu próbkowania w przestrzeni k‑przestrzeni. W praktyce wygląda to tak, że np. część tkanek z przodu lub z tyłu głowy pojawia się jakby „nad” mózgiem albo w innym nielogicznym miejscu przekroju. Z mojego doświadczenia, przy głowie ten artefakt widzi się dość często, gdy technik ustawi zbyt małe FOV w kierunku fazowym, bo chce poprawić rozdzielczość albo skrócić czas badania. Standardową dobrą praktyką jest tak dobrać FOV i kierunek kodowania fazy, żeby całe ciało pacjenta w danym przekroju znajdowało się wewnątrz pola widzenia, albo zastosować techniki antyaliasingowe (np. oversampling w kierunku fazowym, no phase wrap, sat bandy). W opisach MR radiolodzy zwracają uwagę, czy artefakt aliasingu nie maskuje istotnych struktur, zwłaszcza w okolicy czaszki, kręgosłupa szyjnego i kończyn. W codziennej pracy technika jest to też kwestia komfortu – jak FOV jest za małe, badanie często trzeba powtarzać, co wydłuża czas i irytuje pacjenta. Dlatego warto odruchowo sprawdzać, czy głowa, brzuch czy inny badany obszar naprawdę mieści się w polu widzenia w obu kierunkach kodowania.

Pytanie 16

Zgodnie z obowiązującymi przepisami powierzchnia gabinetu rentgenowskiego, w którym jest zainstalowany zestaw rentgenowski do badań naczyniowych, powinna wynosić

A. 8 m²
B. 25 m²
C. 20 m²
D. 15 m²
W tym pytaniu łatwo wpaść w pułapkę myślenia, że „przecież aparat to tylko RTG, więc wystarczy taki sam gabinet jak do zwykłych zdjęć”. To jest właśnie typowy błąd. Badania naczyniowe wymagają znacznie bardziej rozbudowanego stanowiska niż klasyczna lampa do zdjęć przeglądowych. Powierzchnie rzędu 8 m² czy 15 m² są wartościami, które można kojarzyć raczej z małymi gabinetami zabiegowymi albo z minimalnymi pokojami dla prostych stanowisk diagnostycznych, ale nie z angiografią. Przy tak małej powierzchni nie da się zapewnić prawidłowego ustawienia ramienia C, swobody obrotu wokół pacjenta, miejsca na wjazd łóżka oraz przestrzeni na zespół zabiegowy. To nie jest tylko kwestia wygody – to wprost przekłada się na bezpieczeństwo radiologiczne i możliwość ewakuacji pacjenta, jeśli coś pójdzie nie tak. Podobnie 20 m² bywa intuicyjnie wybierane jako „rozsądny kompromis”, ale w przypadku gabinetu do badań naczyniowych nadal jest to za mało. Sprzęt angiograficzny jest obszerny: stół, kolumna lampy, detektor, panele sterowania, pompa kontrastu, zestaw monitorów, często też dodatkowe wyposażenie anestezjologiczne. Trzeba zachować określone odległości od źródła promieniowania i zaplanować układ ścian z odpowiednimi osłonami stałymi. Jeżeli sala jest za ciasna, personel ma tendencję do pracy bliżej pola promieniowania, trudniej też ustawić ruchome osłony ołowiane w optymalnym miejscu, co zwiększa dawki rozproszone. Z mojego doświadczenia wynika, że projektując pracownię, która ma obsługiwać zabiegi naczyniowe, zawsze kończy się na większych metrażach niż ktoś „na oko” zakłada na początku. Przepisy, które wymagają co najmniej 25 m², biorą pod uwagę nie tylko obecny sprzęt, ale też rezerwę na serwis, ewentualne doposażenie, a przede wszystkim ergonomię i ochronę radiologiczną. Dlatego wszystkie mniejsze wartości z odpowiedzi są po prostu niezgodne z wymaganiami dla tej klasy pracowni i w praktyce nie pozwoliłyby na legalne dopuszczenie gabinetu do użytkowania.

Pytanie 17

Przedstawiony obraz został zarejestrowany podczas wykonywania

Ilustracja do pytania
A. badania radioizotopowego.
B. rezonansu magnetycznego.
C. pozytonowej tomografii emisyjnej.
D. tomografii komputerowej.
Na obrazie widzisz typowy wynik badania radioizotopowego kośćca, czyli scyntygrafię kości wykonaną gammakamerą po dożylnym podaniu radiofarmaceutyku (najczęściej znaczonego technetem-99m fosfonianu). Charakterystyczny jest tu tzw. obraz „szkieletu z rozmytymi konturami” – widoczne są głównie struktury kostne, bez dokładnego zarysu tkanek miękkich, a intensywność zabarwienia zależy od wychwytu znacznika metabolicznie aktywnego w kościach. To właśnie odróżnia obraz scyntygraficzny od klasycznego RTG czy TK, gdzie widzimy anatomiczne szczegóły, krawędzie, zróżnicowaną gęstość tkanek. W medycynie nuklearnej nie pokazujemy bezpośrednio anatomii, tylko rozkład radioaktywności – czyli funkcję narządu lub metabolizm tkanki. Moim zdaniem warto zapamiętać prostą rzecz: w badaniach radioizotopowych obraz jest zwykle bardziej „rozmyty”, kontrast jest funkcjonalny, a nie czysto anatomiczny. W scyntygrafii kości oceniamy m.in. ogniska wzmożonego metabolizmu kostnego – przerzuty nowotworowe, złamania przeciążeniowe, zmiany zapalne, martwicze. W praktyce klinicznej takie badanie jest standardem np. w onkologii przy podejrzeniu przerzutów do kości (rak piersi, prostaty), w ortopedii przy niejasnym bólu kostnym, w reumatologii przy rozsianych zmianach zapalnych. Zgodnie z dobrą praktyką medycyny nuklearnej ważne jest odpowiednie przygotowanie pacjenta (nawodnienie, opróżnienie pęcherza przed badaniem, zdjęcie metalowych przedmiotów) oraz właściwy dobór radiofarmaceutyku i aktywności dawki. Personel musi też zadbać o czas między podaniem znacznika a rejestracją obrazu (dla scyntygrafii kości najczęściej ok. 2–3 godziny), bo to wpływa na jakość i interpretowalność wyniku. Warto kojarzyć, że takie całociałowe, symetryczne „szkieletowe” obrazy to klasyka badań radioizotopowych w medycynie nuklearnej, a nie TK, MR czy PET, chociaż PET też należy do metod medycyny nuklearnej, ale wygląda już trochę inaczej i zwykle jest łączony z CT (PET/CT).

Pytanie 18

Fistulografia to badanie kontrastowe

A. naczyń tętniczych.
B. przetok.
C. naczyń włosowatych.
D. żylaków.
W tym pytaniu łatwo się pomylić, bo samo słowo „fistulografia” może kojarzyć się z naczyniami, zwłaszcza jeśli ktoś myśli o przetokach tętniczo-żylnych do hemodializy. Trzeba jednak odróżnić pojęcia: fistulografia to badanie kontrastowe przetok jako patologicznych kanałów, a nie rutynowe obrazowanie naczyń. Żylaki to poszerzone, kręte żyły powierzchowne, najczęściej kończyn dolnych. Do ich oceny standardem jest badanie USG Doppler, ewentualnie flebografia kontrastowa w bardziej złożonych przypadkach. Fistulografia nie służy do obrazowania żylaków, bo kontrast nie jest tu podawany do żyły w sposób systemowy, tylko do jamy lub kanału przetoki. W praktyce pomylenie fistulografii z badaniem żył wynika często z myślenia: „jest kontrast, więc na pewno chodzi o naczynia krwionośne”. To jest takie dość typowe uproszczenie, które potem robi kłopot na testach. Naczynia tętnicze ocenia się w angiografii tętniczej – tam kontrast podawany jest do tętnicy (np. udowej) i pod kontrolą fluoroskopii ocenia się drożność, zwężenia, tętniaki. To zupełnie inna technika, inne wskazania i inne ryzyko powikłań. Z kolei naczynia włosowate nie są praktycznie obrazowane jako osobna struktura w klasycznych badaniach kontrastowych RTG, bo są zbyt drobne; ich obecność ocenia się pośrednio, np. w kapilaroskopii lub w badaniach mikrokrążenia, ale to już w innych modalnościach i warunkach. Moim zdaniem największy błąd myślowy przy tym pytaniu polega na automatycznym łączeniu końcówki „-grafia” z angiografią i naczyniami. Warto zapamiętać, że w nazwach badań kontrastowych pierwszy człon zwykle mówi, co dokładnie obrazujemy: „fistulo-” – przetoka, „angio-” – naczynie, „uro-” – drogi moczowe. Jak się to raz dobrze skojarzy, to takie pytania stają się dużo prostsze i przestają być podchwytliwe.

Pytanie 19

W badaniu PET stosuje się tylko radioizotopy emitujące

A. pozytony.
B. cząstki alfa.
C. elektrony.
D. neutrony.
Podstawowy błąd przy tym pytaniu wynika zwykle z pomieszania różnych rodzajów promieniowania jonizującego i ich zastosowań w diagnostyce obrazowej. W medycynie używamy neutronów, elektronów, pozytonów, fotonów gamma czy cząstek alfa, ale każda z tych cząstek ma swoją specyficzną rolę i nie da się ich tak po prostu zamieniać między sobą w konkretnych technikach obrazowania. Neutrony są używane raczej w bardzo wyspecjalizowanych procedurach, np. w niektórych typach radioterapii neutronowej czy w badaniach materiałowych, a nie w rutynowej medycynie nuklearnej. Neutron jest elektrycznie obojętny, ma inne oddziaływania z materią niż cząstki naładowane, a aparatura PET jest zbudowana do rejestracji fotonów gamma o energii 511 keV, powstających z anihilacji pozyton–elektron, a nie do rejestracji neutronów. Elektrony, a właściwie promieniowanie beta minus, są istotne w wielu radioizotopach terapeutycznych, np. w leczeniu zmian przerzutowych do kości czy w terapii radioizotopowej tarczycy. Jednak w klasycznym badaniu PET one nie odgrywają roli sygnału używanego do obrazowania. Emiter beta minus nie daje par fotonów 511 keV w koincydencji, więc skaner PET nie ma czego zarejestrować w sposób pozwalający na rekonstrukcję obrazu. To jest typowe nieporozumienie: skoro to też „beta”, to może się nada – ale PET opiera się ściśle na emisji beta plus, czyli na pozytonach. Cząstki alfa z kolei mają bardzo krótką drogę w tkankach i ogromną energię liniową (wysokie LET). To idealne narzędzie w niektórych nowoczesnych terapiach celowanych (tzw. terapia alfa celowana), ale zupełnie niepraktyczne do obrazowania całego ciała. Z praktycznego punktu widzenia ich zasięg jest tak mały, że nie ma szans, żeby zarejestrować je na zewnątrz ciała za pomocą pierścienia detektorów PET. Do tego aparatura PET nie jest konstruowana pod wykrywanie cząstek ciężkich, tylko fotonów gamma. Moim zdaniem najczęstszy błąd myślowy polega na utożsamianiu „dowolnego promieniowania jonizującego” z możliwością wykonania dowolnego badania. A tak nie jest. PET to bardzo specyficzna technika, która wymaga radioizotopów emitujących pozytony (beta plus). Pozyton po anihilacji z elektronem generuje dwa fotony 511 keV, a cały system detekcji, koincydencji i rekonstrukcji obrazu jest pod to zoptymalizowany. Zastosowanie emiterów neutronów, elektronów czy cząstek alfa po prostu nie wygenerowałoby sygnału możliwego do wykorzystania w PET, zgodnie ze standardami medycyny nuklearnej i fizyki medycznej. Dlatego poprawne rozróżnienie typów promieniowania jest tu kluczowe, zarówno dla zrozumienia teorii, jak i dla bezpiecznej praktyki klinicznej.

Pytanie 20

Odprowadzenie II rejestruje różnicę potencjałów między

A. prawą ręką i lewą nogą.
B. lewą ręką i lewą nogą.
C. lewą i prawą ręką.
D. prawą ręką i prawą nogą.
Prawidłowo – odprowadzenie II w standardowym 12-odprowadzeniowym EKG rejestruje różnicę potencjałów między prawą ręką (elektroda ujemna) a lewą nogą (elektroda dodatnia). Tak jest zdefiniowane w klasycznej trójkątnej konfiguracji Einthovena i obowiązuje w praktycznie wszystkich aparatach EKG, zgodnie z normami opisanymi w podręcznikach kardiologii i zaleceniach towarzystw naukowych. Moim zdaniem warto to mieć „w palcu”, bo odprowadzenie II jest jednym z najczęściej oglądanych – to właśnie w nim zwykle oceniamy rytm zatokowy, załamki P, odstęp PQ i ogólne przewodzenie przedsionkowo–komorowe. W praktyce technika wygląda tak, że elektrody kończynowe zakładamy najczęściej na przeguby: prawa ręka – elektroda prawa, lewa ręka – elektroda lewa, lewa noga – elektroda referencyjna dodatnia, prawa noga – elektroda uziemiająca (neutralna, nie bierze udziału w tworzeniu odprowadzeń I, II, III). Aparat następnie „matematycznie” zestawia między sobą potencjały z tych punktów i tworzy trzy odprowadzenia kończynowe: I (lewa ręka – prawa ręka), II (lewa noga – prawa ręka) oraz III (lewa noga – lewa ręka). W odprowadzeniu II oś elektryczna serca często wypada najbardziej fizjologicznie, dlatego zapis jest „czytelny”: wysokie dodatnie załamki P i R, łatwo ocenić regularność rytmu i obecność zaburzeń przewodzenia. W wielu systemach monitorowania kardiologicznego (oddziały intensywnej terapii, sale pooperacyjne) jako monitoring ciągły wybiera się właśnie odprowadzenie II, bo najlepiej pokazuje depolaryzację przedsionków i pozwala szybko wychwycić np. migotanie przedsionków czy częstoskurcze nadkomorowe. Z mojego doświadczenia, jeśli ktoś dobrze rozumie, jak jest zbudowany trójkąt Einthovena i które kończyny tworzą dane odprowadzenie, dużo łatwiej mu potem ogarnąć bardziej złożone układy jak odprowadzenia wzmocnione (aVR, aVL, aVF) czy analizę osi elektrycznej serca. To jest taka podstawa, na której buduje się całą dalszą interpretację EKG.

Pytanie 21

Na radiogramie uwidoczniono

Ilustracja do pytania
A. zwichnięcie stawu ramiennego w projekcji przednio-tylnej.
B. zwichnięcie stawu ramiennego w projekcji barkowo-pachowej.
C. prawidłowy obraz stawu ramiennego w projekcji przednio-tylnej.
D. prawidłowy obraz stawu ramiennego w projekcji barkowo-pachowej.
Na przedstawionym radiogramie widoczny jest prawidłowy obraz stawu ramiennego w projekcji przednio-tylnej (AP). Główka kości ramiennej jest prawidłowo dosymetryzowana w panewce łopatki: jej środek pokrywa się mniej więcej z środkiem panewki, nie ma cech przemieszczenia ku przodowi ani ku tyłowi. Kontur kostny jest ciągły, bez przerwania linii korowej, co przemawia przeciwko złamaniu. Przestrzeń stawowa ma równomierną szerokość, bez wyraźnego zwężenia czy poszerzenia, które mogłoby sugerować podwichnięcie. Typowym punktem orientacyjnym w projekcji AP jest tzw. łuk przedni (arch of Shenton dla barku) – gładka, półkolista linia biegnąca od brzegu panewki po kontur głowy kości ramiennej; tutaj ta linia jest zachowana. Dodatkowo widoczne jest prawidłowe ustawienie obojczyka względem wyrostka barkowego łopatki, bez cech zwichnięcia stawu barkowo-obojczykowego. W praktyce klinicznej taka projekcja jest pierwszym, podstawowym zdjęciem wykonywanym przy urazach barku, bólach stawu ramiennego czy podejrzeniu zmian zwyrodnieniowych. Standardowe zalecenia (np. według European Society of Musculoskeletal Radiology) mówią, że do pełnej oceny stawu ramiennego warto łączyć tę projekcję z osiągową (barkowo-pachową) lub projekcją Y łopatki, ale poprawne rozpoznanie podstawowego ustawienia w AP jest kluczowe. Moim zdaniem warto sobie wyrobić nawyk patrzenia najpierw na relację głowa–panewka, potem na ciągłość brzegów kostnych i dopiero na resztę szczegółów – to bardzo pomaga w szybkim wychwytywaniu zwichnięć w codziennej pracy.

Pytanie 22

Po zakończeniu badania angiograficznego należy zapisać w dokumentacji medycznej pacjenta:

A. czas skopii, dawkę efektywną, równoważnik dawki.
B. ilość kontrastu, czas skopii, dawkę efektywną.
C. ilość kontrastu, dawkę efektywną, równoważnik dawki.
D. ilość kontrastu, ilość znieczulenia, czas skopii.
W tej sytuacji wybrałeś dokładnie ten zestaw danych, który po badaniu angiograficznym rzeczywiście musi znaleźć się w dokumentacji: ilość podanego kontrastu, czas skopii oraz dawka efektywna. To jest taki podstawowy „pakiet” informacji, który pozwala później ocenić zarówno bezpieczeństwo pacjenta, jak i jakość całego badania. Ilość kontrastu zapisujemy po to, żeby mieć kontrolę nad ryzykiem nefropatii pokontrastowej, szczególnie u pacjentów z niewydolnością nerek, cukrzycą albo odwodnionych. Jeśli pacjent wróci za tydzień czy miesiąc na kolejne badanie, lekarz od razu widzi, ile kontrastu dostał poprzednio i może to uwzględnić w planowaniu. Czas skopii jest bezpośrednio związany z narażeniem na promieniowanie jonizujące – dłuższa skopia to zwykle większa dawka. Dlatego jego wpisanie do dokumentacji jest też elementem ochrony radiologicznej i kontroli jakości pracy pracowni. W wielu ośrodkach porównuje się potem średnie czasy skopii dla określonych typów procedur, żeby wychwycić, czy nie ma niepotrzebnie przedłużanych badań. Dawka efektywna (albo dawka skojarzona, wyliczona na podstawie parametrów aparatu, np. DAP – dose area product) jest kluczowa z punktu widzenia prawa i zasad ochrony radiologicznej. Normy i wytyczne (m.in. europejskie i krajowe rozporządzenia dot. ochrony radiologicznej pacjenta) wymagają, żeby narażenie było udokumentowane, tak aby można było je prześledzić w historii pacjenta i porównać z poziomami referencyjnymi. W praktyce, w opisie badania często pojawia się np.: „Ilość kontrastu: 120 ml, czas skopii: 7,2 min, DAP: 45 Gy·cm², dawka efektywna szac.: … mSv”. Moim zdaniem warto od razu wyrabiać sobie nawyk, że te trzy parametry są tak samo ważne jak sam opis obrazu angiograficznego. To nie jest sucha biurokracja, tylko realne dane, które wpływają na bezpieczeństwo pacjenta, planowanie kolejnych procedur i kontrolę jakości w pracowni angiograficznej.

Pytanie 23

Który środek kontrastujący stosuje się w badaniu metodą rezonansu magnetycznego?

A. Siarczan baru.
B. Na bazie gadolinu.
C. Na bazie jodu.
D. Lipiodol ultra fluid.
Prawidłowo wskazany został środek kontrastowy na bazie gadolinu, czyli standard w badaniach metodą rezonansu magnetycznego. W MR nie wykorzystujemy promieniowania jonizującego, tylko zjawiska związane z polem magnetycznym i falami radiowymi, dlatego potrzebny jest inny typ kontrastu niż w klasycznym RTG czy TK. Związki gadolinu (np. gadobutrol, gadoterat, gadopentetat) są paramagnetyczne i wpływają na czasy relaksacji protonów w tkankach, głównie skracają czas T1, przez co struktury, które gromadzą kontrast, świecą jaśniej na obrazach T1-zależnych. W praktyce klinicznej kontrast gadolinowy stosuje się m.in. w obrazowaniu mózgowia (guzy, przerzuty, stwardnienie rozsiane, ropnie), kręgosłupa, w angiografii MR (MRA) do uwidaczniania naczyń, w badaniach wątroby, nerek, piersi, stawów. Pozwala to dokładniej ocenić unaczynienie zmian, barierę krew–mózg, stan zapalny, blizny czy aktywność choroby. W dobrych praktykach pracowni MR zawsze przed podaniem gadolinu ocenia się czynność nerek (eGFR), bo u pacjentów z ciężką niewydolnością nerek istnieje ryzyko nefrogennego układowego zwłóknienia. Obecnie zaleca się stosowanie głównie makrocyklicznych związków gadolinu, które są stabilniejsze chemicznie i bezpieczniejsze. Moim zdaniem warto też zapamiętać, że dawki są niewielkie, ale bardzo precyzyjnie dobierane do masy ciała, a podanie kontrastu wymaga pewnego reżimu: dostęp do żyły, obserwacja pacjenta po iniekcji, gotowość na ewentualną reakcję alergiczną, chociaż te po gadolinie są zdecydowanie rzadsze niż po kontrastach jodowych.

Pytanie 24

Dobierz dla standardowego pacjenta projekcję, pozycję i sposób ułożenia kasety o wymiarach 30 cm x 40 cm do zdjęcia przeglądowego układu moczowego.

ProjekcjaPozycjaUłożenie kasety
1.AP3.stojąca5.poprzeczne
2.PA4.leżąca6.podłużne
A. 2, 3, 6
B. 1, 3, 5
C. 1, 4, 6
D. 2, 4, 5
Prawidłowo dobrana kombinacja 1, 4, 6 oznacza projekcję AP, pozycję leżącą i ułożenie kasety podłużne – dokładnie tak, jak wykonuje się standardowe zdjęcie przeglądowe układu moczowego (tzw. KUB – kidneys, ureters, bladder). W praktyce klinicznej większość takich badań robi się w pozycji leżącej na plecach, bo pozwala to spokojnie ułożyć pacjenta, dobrze wycentrować wiązkę i zminimalizować poruszenie. Projekcja AP oznacza, że promień główny biegnie od przodu do tyłu pacjenta, czyli pacjent leży plecami na detektorze, a lampa jest nad brzuchem. To jest najbardziej klasyczny układ w radiografii przeglądowej jamy brzusznej i miednicy. Kaseta 30×40 cm w tym badaniu powinna być ułożona wzdłuż długiej osi ciała (podłużnie), żeby objąć od górnych biegunów nerek aż do okolicy spojenia łonowego i pęcherza moczowego. Przy ułożeniu poprzecznym zwykle zabrakłoby zasięgu w kierunku czaszkowo-ogonowym, szczególnie u wyższych pacjentów. Moim zdaniem warto zapamiętać prostą regułę: gdy interesuje nas cały układ moczowy w jednym ujęciu, wybieramy AP leżące z kasetą podłużnie, centrowanie na poziom grzebieni biodrowych, lekkie zwiększenie kV w stosunku do typowego brzucha, tak żeby dobrze uwidocznić zarysy nerek, cienie złogów i gaz w jelitach. W wielu pracowniach to badanie jest jednym z podstawowych przed urografią czy TK, więc dobrze opanowana technika AP leżące + kaseta podłużnie to po prostu codzienny chleb technika RTG.

Pytanie 25

Podczas wykonywania badania EEG elektrodę P4 umieszcza się w okolicy

A. ciemieniowej po stronie lewej.
B. czołowej po stronie lewej.
C. czołowej po stronie prawej.
D. ciemieniowej po stronie prawej.
Prawidłowo – elektroda P4 w standardowym systemie 10–20 do badania EEG jest umieszczana w okolicy ciemieniowej po stronie prawej. Litera „P” pochodzi od angielskiego słowa „parietal”, czyli płat ciemieniowy, a cyfra „4” oznacza prawą półkulę. Parzyste liczby (2,4,6,8) zawsze odnoszą się do strony prawej, a nieparzyste (1,3,5,7) do lewej. To jest taki podstawowy kod, który w praktyce bardzo ułatwia szybkie orientowanie się w rozmieszczeniu elektrod na skórze głowy. W systemie 10–20 istotne jest, że pozycje elektrod wyznacza się w oparciu o konkretne punkty anatomiczne: nasadę nosa (nasion), guzowatość potyliczną z tyłu głowy (inion) oraz punkty przeduszne po obu stronach. Odległości między elektrodami stanowią 10% lub 20% całkowitej długości tych wymiarów czaszkowych. Elektroda P4 leży mniej więcej nad korą ciemieniową prawej półkuli, w rejonie reprezentującym czucie somatyczne i integrację bodźców czuciowych. Z praktycznego punktu widzenia prawidłowe położenie P4 ma znaczenie np. przy ocenie napadów padaczkowych pochodzących z okolicy ciemieniowej, przy analizie fal wolnych w uszkodzeniach ogniskowych oraz przy mapowaniu czynności bioelektrycznej mózgu w badaniach neurofizjologicznych. W pracowniach EEG standardem jest dokładne trzymanie się systemu 10–20 (a coraz częściej 10–10 w badaniach rozszerzonych), bo tylko wtedy zapis jest porównywalny między różnymi pracowniami i lekarz może wiarygodnie porównać kolejne badania tego samego pacjenta. Moim zdaniem warto sobie wręcz „na pamięć” opanować powiązanie liter z płatami mózgowymi: F – czołowy, C – centralny, P – ciemieniowy, T – skroniowy, O – potyliczny, a dalej już tylko pamiętać, że P4 to ciemieniowa prawa, dokładnie tak jak w kluczu.

Pytanie 26

Na rentgenogramie przedstawione jest złamanie Saltera-Harrisa typu

Ilustracja do pytania
A. III nasady dalszej kości piszczelowej.
B. I ześlizgnięcie bliższej nasady kości udowej lewej.
C. II odcinka bliższego kości piszczelowej.
D. V czwartej kości śródręcza.
Na zdjęciu RTG widoczny jest typowy obraz ześlizgnięcia bliższej nasady kości udowej – klasyczne złamanie Saltera-Harrisa typu I w obrębie głowy i szyjki kości udowej. W tym typie uszkodzenia linia złamania przebiega wyłącznie przez chrząstkę wzrostową (fizę), bez zajęcia przynasady ani nasady. Na obrazie nie zobaczysz typowego „pęknięcia” w kości, tylko przemieszczenie nasady względem przynasady. W praktyce klinicznej u dzieci i młodzieży takie uszkodzenie w okolicy bliższej kości udowej określa się właśnie jako ześlizgnięcie bliższej nasady kości udowej (SCFE – slipped capital femoral epiphysis). Na RTG, szczególnie w projekcji AP i bocznej, ocenia się linię Klein’a, kształt szyjki i położenie głowy kości udowej. W prawidłowych warunkach głowa powinna „zawieszać się” nad linią Klein’a; w ześlizgnięciu jest wyraźnie przesunięta. Z mojego doświadczenia, kluczowe jest też zwrócenie uwagi na rozmycie zarysu przynasady i lekkie poszerzenie szpary fizy – to często pierwszy subtelny sygnał na wczesnym etapie. Dobre praktyki w diagnostyce mówią, żeby zawsze wykonywać RTG obu bioder do porównania, bo asymetria bardzo pomaga w rozpoznaniu. Ważna jest też szybka kwalifikacja do leczenia – zwykle stabilizacja śrubą kaniulowaną przez płytkę wzrostową, tak aby zapobiec dalszemu ześlizgnięciu i powikłaniom, jak martwica głowy kości udowej czy deformacja typu cam w konflikcie udowo-panewkowym. Rozpoznanie Salter-Harris I w tym miejscu wymaga więc połączenia znajomości klasyfikacji, anatomii radiologicznej stawu biodrowego i typowego obrazu klinicznego: ból biodra lub kolana, utykanie, ograniczenie rotacji wewnętrznej. W praktyce technika wykonania badania RTG (prawidłowe ułożenie pacjenta, odpowiednie projekcje – AP miednicy, oś osiowa szyjki) ma ogromne znaczenie, bo złe ustawienie może zamaskować ześlizgnięcie i zmylić nawet doświadczonego opisywacza.

Pytanie 27

Którą strukturę anatomiczną i w jakiej projekcji uwidoczniono na radiogramie?

Ilustracja do pytania
A. Staw kolanowy w projekcji tunelowej.
B. Guz piętowy w projekcji osiowej.
C. Wyrostek łokciowy w projekcji osiowej.
D. Wyrostek dziobiasty w projekcji skośnej.
Prawidłowo rozpoznałeś wyrostek łokciowy w projekcji osiowej. Na tym radiogramie patrzymy na staw łokciowy niejako „od tyłu”, wzdłuż długiej osi kości ramiennej i kości przedramienia. Charakterystyczny jest widok bloczka i główki kości ramiennej oraz wyraźne uwidocznienie wyrostka łokciowego, który w tej projekcji tworzy taką jakby półksiężycowatą, masywną strukturę w tylnej części stawu. W projekcji osiowej promień centralny jest skierowany wzdłuż osi wyrostka łokciowego, co pozwala dobrze ocenić jego zarys korowy, powierzchnię stawową oraz ewentualne odłamy kostne. W praktyce technik radiologii wykonuje takie zdjęcie głównie przy podejrzeniu złamania wyrostka łokciowego, awulsji przy urazach bezpośrednich, a także przy kontroli zrostu po zespoleniach chirurgicznych (np. płyty, śruby). Moim zdaniem to jedno z tych zdjęć, gdzie prawidłowe ułożenie pacjenta jest ważniejsze niż „dokręcanie kV” – jeśli łokieć nie jest odpowiednio zgięty (zwykle około 90°) i ustabilizowany, zarysy wyrostka nakładają się i obraz traci wartość diagnostyczną. Według dobrych praktyk (wg standardów radiologii narządu ruchu) w urazach łokcia zaleca się wykonanie minimum dwóch projekcji prostopadłych, ale właśnie projekcja osiowa wyrostka łokciowego jest często dodatkowo zlecana przez ortopedów, kiedy klinicznie bolesny jest tylny przedział stawu. Warto też pamiętać, że na takim zdjęciu łatwo ocenić nie tylko samo złamanie, ale też stopień przemieszczenia odłamów, co ma znaczenie przy kwalifikacji do leczenia operacyjnego lub zachowawczego. W codziennej pracy dobrze jest „nauczyć się na oko” typowego kształtu wyrostka łokciowego w tej projekcji, wtedy różne subtelne nierówności czy zatarcia warstwy korowej szybciej rzucają się w oczy.

Pytanie 28

Elementem pomocniczym w radioterapii, zapewniającym powtarzalność ułożenia w pozycji terapeutycznej, a także unieruchomienie pacjenta, jest

A. maska termoplastyczna.
B. bolus.
C. osłona.
D. filtr kompensacyjny.
Prawidłowo wskazana maska termoplastyczna to w radioterapii klasyczny przykład systemu unieruchomienia i pozycjonowania pacjenta. Jej główna rola nie jest fizyczna modyfikacja wiązki promieniowania, tylko zapewnienie powtarzalnego, stabilnego ułożenia ciała – najczęściej głowy i szyi, czasem także górnej części klatki piersiowej. Maska jest wykonywana indywidualnie: podgrzany materiał termoplastyczny formuje się na twarzy i głowie pacjenta na etapie planowania (TK planistyczna), a po ostygnięciu zachowuje dokładnie ten kształt. Dzięki temu przy każdym kolejnym frakcyjnym napromienianiu pacjent jest układany praktycznie tak samo, w granicach kilku milimetrów, co jest zgodne z wymaganiami dokładności ICRU i standardów ośrodków radioterapii. Z mojego doświadczenia, bez dobrego unieruchomienia nawet najlepszy plan leczenia na akceleratorze traci sens, bo narządy krytyczne mogą dostać wyższą dawkę niż zakładano, a objętość tarczowa będzie napromieniona nierównomiernie. W praktyce klinicznej maski termoplastyczne są obowiązkowym elementem przy nowotworach głowy i szyi, guzach mózgu, czasem przy napromienianiu oczodołu czy podstawy czaszki. Stosuje się je razem z systemami IGRT (obrazowanie przedzabiegowe – np. CBCT), żeby jeszcze dokładniej zweryfikować pozycję. Maska ogranicza też mimowolne ruchy, np. przełykanie czy lekki skręt szyi. Warto zapamiętać, że bolusy, filtry kompensacyjne czy osłony służą głównie do kształtowania rozkładu dawki w objętości, a nie do stabilizacji pacjenta. W dobrych pracowniach zawsze rozróżnia się systemy unieruchomienia (maski, materace próżniowe, podpórki) od elementów modyfikujących wiązkę.

Pytanie 29

W radiologii stomatologicznej ząb o numerze 23 to kieł

A. górny prawy.
B. górny lewy.
C. dolny lewy.
D. dolny prawy.
W systemie numeracji zębów stosowanym w stomatologii i radiologii stomatologicznej (system FDI, czyli dwucyfrowy) ząb 23 oznacza górny lewy kieł. Pierwsza cyfra „2” wskazuje na II ćwiartkę łuku zębowego, czyli szczękę lewą (górny lewy kwadrant), a druga cyfra „3” określa konkretny ząb w tej ćwiartce – trójka to właśnie kieł. W praktyce radiologicznej bardzo ważne jest, żeby automatycznie kojarzyć numer z lokalizacją, bo na zdjęciu – szczególnie panoramicznym – łatwo się pomylić stronami, jeśli nie myśli się schematem ćwiartek. Na pantomogramie prawa i lewa strona są odwrócone względem obserwatora: prawa strona pacjenta jest po lewej stronie obrazu. Mimo tego numeracja pozostaje taka sama: ząb 23 zawsze będzie w górnym lewym kwadrancie pacjenta, czyli na szczęce po jego lewej stronie. W dobrych praktykach opisu zdjęć RTG zawsze podaje się numery zębów według FDI, żeby uniknąć nieporozumień między lekarzem, technikiem i protetykiem. Moim zdaniem warto wyrobić sobie nawyk „czytania” numeru: 1 i 2 to szczęka (góra), 3 i 4 to żuchwa (dół), a cyfry 1–8 to kolejno: siekacz przyśrodkowy, siekacz boczny, kieł, pierwszy przedtrzonowiec, drugi przedtrzonowiec, pierwszy trzonowiec, drugi trzonowiec, trzeci trzonowiec. Dzięki temu, gdy na opisie widzisz np. „ubytkowe zmiany próchnicowe zęba 23” albo „ognisko okołowierzchołkowe przy 23”, od razu wiesz, że chodzi o górny lewy kieł, co ma znaczenie przy planowaniu leczenia zachowawczego, endodontycznego czy chirurgicznego oraz przy prawidłowym pozycjonowaniu pacjenta do zdjęć celowanych na kły.

Pytanie 30

Za wyrównanie ciśnienia między uchem środkowym a otoczeniem odpowiada

A. błona bębenkowa.
B. trąbka słuchowa.
C. przewód słuchowy.
D. narząd Cortiego.
W tym pytaniu łatwo się złapać na skojarzeniach z ogólną budową ucha i funkcją słyszenia, a umknąć temu, co jest naprawdę kluczowe: chodzi konkretnie o wyrównywanie ciśnienia między uchem środkowym a otoczeniem. Za to zadanie odpowiada wyłącznie trąbka słuchowa, czyli przewód łączący jamę bębenkową z nosową częścią gardła. Pozostałe struktury z odpowiedzi pełnią inne, też ważne funkcje, ale nie mają realnego wpływu na aktywne wyrównywanie ciśnienia. Narząd Cortiego znajduje się w ślimaku w uchu wewnętrznym i jest wyspecjalizowanym receptorem zmysłu słuchu. Zawiera komórki rzęsate, które przetwarzają drgania mechaniczne na impulsy nerwowe przewodzone nerwem ślimakowym do ośrodkowego układu nerwowego. Można powiedzieć, że to „serce” percepcji dźwięku, ale nie ma on kontaktu z jamą bębenkową ani z gardłem, więc nie uczestniczy w regulacji ciśnienia. Błona bębenkowa z kolei oddziela przewód słuchowy zewnętrzny od jamy bębenkowej i drga pod wpływem fal dźwiękowych. Jest elastyczna, ale sama z siebie nie wyrównuje ciśnienia – ona tylko reaguje na różnicę ciśnień, co objawia się bólem lub uczuciem rozpierania, gdy trąbka słuchowa nie działa prawidłowo. Przewód słuchowy zewnętrzny jest kanałem doprowadzającym fale dźwiękowe do błony bębenkowej i ma funkcję ochronną (małżowina, woskowina, zagięcie kanału), ale kończy się ślepo na błonie bębenkowej, więc nie ma żadnego połączenia z gardłem ani możliwością regulowania ciśnienia w uchu środkowym. Typowym błędem myślowym jest mylenie funkcji struktur „centralnych” w uchu zewnętrznym i środkowym: skoro błona bębenkowa jest na granicy i reaguje na ciśnienie, to bywa błędnie uznawana za element wyrównujący ciśnienie. W rzeczywistości to trąbka słuchowa doprowadza powietrze i wyrównuje gradient, a błona tylko pokazuje, że coś jest nie tak. W diagnostyce audiologicznej i badaniach typu tympanometria właśnie ocena ciśnienia w uchu środkowym i pośrednio drożności trąbki słuchowej jest jednym ze standardów postępowania, więc warto mieć to klarownie poukładane, bo potem przekłada się to na prawidłową interpretację wyników i współpracę z laryngologiem.

Pytanie 31

Które zaburzenie rytmu serca zarejestrowano na elektrokardiogramie?

Ilustracja do pytania
A. Blok prawej odnogi pęczka Hisa.
B. Częstoskurcz komorowy.
C. Migotanie przedsionków.
D. Blok przedsionkowo-komorowy.
Na przedstawionym zapisie EKG widzimy szybki, regularny rytm z wyraźnie poszerzonymi i zniekształconymi zespołami QRS, bez czytelnych załamków P poprzedzających każdy kompleks. To jest kluczowe, bo wiele osób, patrząc tylko na częstość, myśli od razu o migotaniu przedsionków. Migotanie przedsionków ma jednak zupełnie inny charakter: rytm jest wyraźnie niemiarowy („nieregularny, całkowicie niemiarowy”), zespoły QRS są zazwyczaj wąskie, a linia izoelektryczna między nimi jest poszarpana przez drobne fale f. Tutaj tego nie ma – rytm jest miarowy, a zespoły QRS są szerokie, co od razu odsuwa nas od rozpoznania AF. Częsty błąd to także mylenie takiego zapisu z blokiem przedsionkowo‑komorowym. W blokach AV dominuje zwolnienie przewodzenia bodźców z przedsionków do komór, co na EKG daje albo wydłużony odstęp PQ (blok I stopnia), albo wypadanie zespołów QRS przy zachowanych załamkach P (blok II stopnia), albo całkowite rozkojarzenie P i QRS, ale zwykle z wolną, a nie szybką akcją komór (blok III stopnia). Tutaj nie widać ani klasycznego odstępu PQ, ani typowego zwolnienia rytmu, więc obraz nie pasuje. Z kolei blok prawej odnogi pęczka Hisa daje poszerzenie QRS, ale przy względnie prawidłowej częstości rytmu i zachowanej relacji P–QRS. Charakterystyczne są zespoły rsR’ w V1 i poszerzony, ząbkowany S w odprowadzeniach bocznych (I, aVL, V5–V6). W naszym zapisie mamy natomiast seryjne, bardzo szybkie, szerokie zespoły, bez czytelnych załamków P, co wskazuje na rytm wywodzący się z komór, a nie na zaburzenie przewodzenia w jednej z odnóg. Typowy schemat błędnego rozumowania polega na tym, że ktoś widzi „dziwne QRS-y” i automatycznie przypisuje je blokowi odnóg, zamiast najpierw ocenić częstość i regularność rytmu. Dobra praktyka w diagnostyce elektromedycznej to najpierw odpowiedzieć sobie na trzy pytania: czy rytm jest miarowy, jaka jest szerokość QRS oraz czy widać prawidłowe załamki P związane z każdym kompleksem. Dopiero wtedy rozstrzygamy, czy mamy do czynienia z arytmią nadkomorową, komorową, czy zaburzeniem przewodzenia. W tym przypadku wszystkie te elementy układają się w klasyczny obraz częstoskurczu komorowego, a nie migotania przedsionków, bloku przedsionkowo‑komorowego ani bloku prawej odnogi.

Pytanie 32

Zadaniem technika elektroradiologa w pracowni naczyniowej jest

A. nadzorowanie sprawnego działania aparatury rentgenowskiej.
B. wprowadzenie cewnika w światło naczyń.
C. przygotowanie niezbędnych narzędzi.
D. przygotowanie cewników.
Prawidłowo wskazana rola technika elektroradiologa w pracowni naczyniowej to nadzorowanie sprawnego działania aparatury rentgenowskiej. W pracowni angiograficznej technik jest odpowiedzialny przede wszystkim za stronę techniczną badania, a nie za wykonywanie czynności inwazyjnych w obrębie naczyń. To lekarz – najczęściej radiolog interwencyjny, kardiolog lub chirurg naczyniowy – wprowadza cewnik do światła naczynia, prowadzi go, podaje kontrast i wykonuje właściwy zabieg. Technik natomiast musi zadbać o to, żeby cały system obrazowania działał stabilnie, bezpiecznie i dawał obrazy o jak najlepszej jakości przy możliwie najmniejszej dawce promieniowania. W praktyce oznacza to m.in. prawidłowe ustawienie parametrów ekspozycji, kontrolę pracy lampy rentgenowskiej, generatora, stołu angiograficznego, systemu akwizycji obrazu oraz monitorów. Technik sprawdza przed badaniem poprawność działania układów sterowania, kolimatorów, systemów automatycznej kontroli ekspozycji, a także współpracuje z lekarzem przy doborze protokołów obrazowania, np. częstości serii, czasu akwizycji, projekcji, synchronizacji z podaniem kontrastu. Moim zdaniem bardzo ważne jest też to, że technik pilnuje bezpieczeństwa radiologicznego całego zespołu i pacjenta: dobiera osłony, kontroluje dawkę, dba o prawidłowe ustawienie ramienia C, żeby ograniczyć niepotrzebne ekspozycje. W dobrze działającej pracowni naczyniowej technik jest takim „operatorem systemu”, który musi szybko reagować, gdy pojawiają się komunikaty błędów, spadek jakości obrazu, przegrzewanie lampy czy problemy z archiwizacją w systemie PACS. To wszystko bezpośrednio przekłada się na bezpieczeństwo zabiegu, komfort pracy lekarza i skuteczność diagnostyki oraz terapii.

Pytanie 33

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. wydłużenie fali i zmniejszenie przenikliwości promieniowania X
B. wydłużenie fali i zwiększenie przenikliwości promieniowania X
C. skrócenie fali i zwiększenie przenikliwości promieniowania X
D. skrócenie fali i zmniejszenie przenikliwości promieniowania X
Prawidłowo – zwiększenie napięcia na lampie rentgenowskiej skraca długość fali promieniowania X i jednocześnie zwiększa jego przenikliwość. Wynika to bezpośrednio z fizyki zjawiska: wyższe napięcie anodowe (kV) nadaje elektronom większą energię kinetyczną. Te szybsze elektrony uderzają w anodę i wytwarzają fotony promieniowania X o wyższej energii. A im wyższa energia fotonu, tym krótsza długość fali (E = h·c/λ) i większa zdolność przenikania przez tkanki pacjenta czy materiały osłonowe. W praktyce radiologicznej oznacza to, że podnosząc kV, uzyskujemy bardziej „twarde” promieniowanie, które lepiej przechodzi przez gęste struktury, np. kości miednicy czy klatkę piersiową u pacjentów o większej masie ciała. Moim zdaniem kluczowe jest kojarzenie: kV = jakość promieniowania (energia, przenikliwość), a mAs = ilość promieniowania (liczba fotonów). W nowoczesnych aparatach RTG standardy pracy i dobre praktyki (np. wytyczne EFRS, europejskie zalecenia dla ekspozycji) mówią jasno: dobiera się możliwie wysokie kV i możliwie niskie mAs, aby zmniejszyć dawkę dla pacjenta, ale jednocześnie zachować odpowiedni kontrast obrazu. Dla zdjęć klatki piersiowej stosuje się zwykle wyższe napięcia (np. 100–125 kV), właśnie po to, żeby promieniowanie miało wysoką przenikliwość i równomiernie „przeszło” przez cały przekrój klatki. Przy badaniach kończyn, gdzie struktury są cieńsze, używa się niższego napięcia, bo nie potrzebujemy aż tak twardego widma. Warto też pamiętać, że zwiększenie kV zmniejsza kontrast tkankowy obrazu (bo wszystko jest bardziej przepuszczalne), ale za to redukuje pochłoniętą dawkę w skórze. W dobrze prowadzonym pracowni RTG technik świadomie balansuje kV i mAs, aby osiągnąć kompromis między jakością diagnostyczną a ochroną radiologiczną. Z mojego doświadczenia to jedna z podstawowych umiejętności w diagnostyce obrazowej – rozumieć, że zmiana napięcia to nie tylko „jaśniej/ciemniej”, ale przede wszystkim zmiana energii i przenikliwości promieniowania.

Pytanie 34

W badaniu EEG elektrody referencyjne przymocowane do płatka ucha to

A. C3, C4
B. Fp1,Fp2
C. P3, P4
D. A1, A2
Prawidłowo – w klasycznym badaniu EEG elektrody referencyjne umieszczane na płatkach uszu oznaczamy jako A1 (ucho lewe) i A2 (ucho prawe). Litera „A” pochodzi od słowa „auricular”, czyli uszny. W systemie 10–20 to jest standardowe, międzynarodowo przyjęte oznaczenie i praktycznie w każdej pracowni EEG, która trzyma się zaleceń IFCN (International Federation of Clinical Neurophysiology), spotkasz właśnie te symbole. Płatki uszu traktuje się jako miejsca stosunkowo „elektrycznie spokojne”, czyli z mniejszym udziałem aktywności korowej, dlatego dobrze się nadają na elektrody odniesienia w wielu montażach, np. w montażu uszno-mózgowym (ear-linked). W praktyce technik EEG często sprawdza, czy A1 i A2 są poprawnie przymocowane, bo jeśli kontakt z płatkiem ucha jest słaby, to później w zapisie widzimy sztuczne różnice potencjałów i pojawiają się fałszywe asymetrie między półkulami. Co ciekawe, w niektórych pracowniach stosuje się referencję złączoną A1+A2, żeby zminimalizować wpływ jednostronnych zakłóceń. Moim zdaniem warto zapamiętać, że A1/A2 to taki punkt wyjścia – jak zobaczysz w opisie montażu „referencja do A1/A2”, od razu wiesz, że chodzi o płatki uszu, a nie o okolice czaszkowe. Znajomość tych oznaczeń ułatwia potem interpretację zapisu, rozróżnianie artefaktów od rzeczywistej aktywności bioelektrycznej mózgu oraz poprawne porównywanie zapisów między różnymi pracowniami i aparatami EEG. To jest po prostu element podstawowej „mapy” głowy w EEG, bez którego ciężko się poruszać w diagnostyce elektromedycznej.

Pytanie 35

Radiogram jamy brzusznej uwidacznia

Ilustracja do pytania
A. perforację przewodu pokarmowego.
B. złogi w nerkach.
C. złogi w pęcherzyku żółciowym.
D. połknięte ciało obce.
Prawidłowo wskazana perforacja przewodu pokarmowego odnosi się do jednej z najważniejszych, wręcz klasycznych wskazań do wykonania przeglądowego radiogramu jamy brzusznej w projekcji stojącej. Na takim zdjęciu szukamy przede wszystkim wolnego powietrza w jamie otrzewnej – tzw. odmy otrzewnowej. Typowy obraz to pas powietrza pod kopułami przepony, oddzielony wyraźną linią od cienia wątroby lub śledziony. W standardach opisowych przyjmuje się, że nawet niewielka ilość gazu, jeżeli jest dobrze uwidoczniona pod przeponą, jest bardzo silnym argumentem za perforacją żołądka, dwunastnicy albo jelit. W praktyce ostrych dyżurów chirurgicznych takie RTG w projekcji stojącej albo bocznej leżącej jest szybkim, tanim i ciągle stosowanym badaniem przesiewowym, zanim pacjent trafi na TK. Moim zdaniem warto zapamiętać, że w sytuacji ostrego brzucha, nagłego bólu, twardego „deskowatego” brzucha – zlecenie RTG jamy brzusznej i klatki piersiowej w pozycji stojącej to standardowa dobra praktyka. Radiolog opisując obraz zwraca uwagę na obecność wolnego powietrza, poziomy płyn–powietrze, rozdęcie pętli jelitowych, ale to właśnie odma podprzeponowa jest najbardziej charakterystycznym i jednoznacznym wskaźnikiem perforacji. W przeciwieństwie do złogów czy ciał obcych, które mogą być widoczne albo nie (zależnie od ich wysycenia), wolne powietrze ma bardzo typową, kontrastową prezentację. Współczesne wytyczne sugerują, że TK jamy brzusznej jest dokładniejsza, ale zwykłe RTG nadal pozostaje ważnym, szybkim narzędziem wstępnej diagnostyki i triage’u pacjentów z podejrzeniem pęknięcia przewodu pokarmowego.

Pytanie 36

Emisja fali elektromagnetycznej występuje w procesie rozpadu promieniotwórczego

A. alfa.
B. beta minus.
C. gamma.
D. beta plus.
W tym zadaniu łatwo się pomylić, bo wszystkie wymienione typy promieniowania kojarzą się z promieniotwórczością, ale tylko jedno z nich jest faktycznie falą elektromagnetyczną. Rozpad alfa polega na emisji ciężkiej cząstki złożonej z dwóch protonów i dwóch neutronów, czyli w praktyce jądra helu. To jest obiekt materialny, ma masę spoczynkową, ładunek dodatni i bardzo krótki zasięg w tkankach. Jest silnie jonizujące, ale absolutnie nie jest to fala elektromagnetyczna, tylko strumień cząstek. Rozpad beta minus to z kolei przemiana neutronu w proton, połączona z emisją elektronu i antyneutrina. Tu znów głównym nośnikiem promieniowania, który nas interesuje, jest cząstka materialna – elektron beta. Ma ona masę, ładunek ujemny i zachowuje się bardziej jak elektron w wiązce przyspieszacza niż jak foton gamma. Podobnie w rozpadzie beta plus dochodzi do emisji pozytonu, czyli antyelektronu. Ten pozyton po wyhamowaniu w tkankach anihiluje z elektronem, i dopiero wtedy powstają dwa fotony gamma o energii 511 keV. Typowy błąd myślowy jest taki, że skoro w PET używa się izotopów beta plus, to niektórzy automatycznie utożsamiają rozpad beta plus z emisją fali elektromagnetycznej. Tymczasem sama przemiana jądra w trybie beta plus emituje cząstkę (pozyton), a fala elektromagnetyczna gamma pojawia się dopiero jako produkt anihilacji, formalnie będący osobnym etapem. Z punktu widzenia fizyki promieniowania i standardów opisu rozpadów w medycynie nuklearnej rozróżniamy wyraźnie: alfa, beta plus, beta minus to promieniowanie korpuskularne, a gamma to promieniowanie elektromagnetyczne wysokiej energii. W praktyce klinicznej ma to znaczenie dla osłon, planowania procedur, bezpieczeństwa personelu i pacjenta. Dlatego tak ważne jest, żeby kojarzyć emisję fali elektromagnetycznej bezpośrednio z promieniowaniem gamma, a nie z procesami alfa czy beta, nawet jeśli w ich następstwie też mogą pojawić się fotony gamma jako etap wtórny.

Pytanie 37

W medycznym przyspieszaczu liniowym jest generowana wiązka fotonów o energii w zakresie

A. 1 + 3 MeV
B. 100 + 150 MeV
C. 0,1 + 0,3 MeV
D. 4 + 25 MeV
Poprawna odpowiedź „4–25 MeV” dobrze oddaje typowy zakres energii wiązki fotonowej generowanej w medycznym przyspieszaczu liniowym stosowanym w radioterapii. W praktyce klinicznej większość akceleratorów terapeutycznych pracuje z energiami fotonów około 4, 6, 10, 15, czasem 18 MV (czyli MeV, bo w tym kontekście używa się zamiennie skrótu MV), a górna granica rzędu 20–25 MeV jest już stosowana rzadziej, ale wciąż mieści się w standardach. Takie energie pozwalają na głęboką penetrację w tkankach, co jest kluczowe przy napromienianiu nowotworów położonych kilka–kilkanaście centymetrów pod powierzchnią skóry, np. guzów w miednicy czy w śródpiersiu. Z mojego doświadczenia, w codziennej pracy klinicznej najczęściej używa się wiązek 6 i 10 MV, bo dają dobry kompromis między głębokością dawki a ochroną skóry. Dzięki zjawisku tzw. build-up dawka maksymalna odkłada się na pewnej głębokości, a nie od razu na powierzchni, co jest ważnym elementem dobrej praktyki radioterapeutycznej. Standardy planowania (np. zalecenia ESTRO, IAEA) zakładają stosowanie właśnie takich energii w teleterapii megawoltowej, z użyciem technik IMRT czy VMAT. Przy niższych energiach fotonów nie uzyskano by odpowiedniej głębokości penetracji, a przy dużo wyższych pojawiłyby się dodatkowe problemy, jak nasilona produkcja neutronów i trudniejsza ochrona radiologiczna bunkra. Warto też pamiętać, że inny jest zakres energii w diagnostyce (kilkadziesiąt–kilkaset keV), a inny w terapii megawoltowej, i to pytanie właśnie ładnie to rozgranicza. W praktyce technik radioterapii, wiedza o typowym zakresie 4–25 MeV pomaga lepiej rozumieć krzywe procentowej dawki w głębokości, dobór energii do lokalizacji guza i ograniczeń narządów krytycznych, a więc realnie przekłada się na bezpieczeństwo i skuteczność leczenia.

Pytanie 38

W badaniu audiometrycznym rezerwa ślimakowa to odległość między krzywą

A. szumu a powietrzną.
B. kostną a powietrzną.
C. kostną a krzywą szumu.
D. kostną względną a bezwzględną.
Prawidłowo – rezerwa ślimakowa w klasycznym badaniu audiometrycznym to właśnie odległość (w dB) między krzywą przewodnictwa kostnego a krzywą przewodnictwa powietrznego. Innymi słowy: patrzymy na audiogram i mierzymy różnicę między progiem słyszenia dla tego samego ucha, ale badanym dwiema drogami – przez kość skroniową (kostnie) i przez słuchawki (powietrznie). Jeżeli przewodnictwo kostne jest lepsze (niższe progi, krzywa wyżej na wykresie) niż powietrzne, a między nimi jest odstęp, to właśnie ten odstęp nazywamy rezerwą ślimakową, często też po prostu luką powietrzno–kostną. Z praktycznego punktu widzenia ta różnica mówi nam, że ślimak i nerw słuchowy jeszcze działają przyzwoicie, a problem jest głównie w przewodzeniu dźwięku przez ucho zewnętrzne lub środkowe (np. wysięk w jamie bębenkowej, otoskleroza, perforacja błony bębenkowej). W badaniach audiometrycznych dobre praktyki mówią, żeby zawsze oceniać osobno: kształt krzywej powietrznej, kształt krzywej kostnej oraz wielkość rezerwy ślimakowej – bo to pozwala odróżnić niedosłuch przewodzeniowy od odbiorczego i mieszanego. Moim zdaniem to jedno z podstawowych pojęć, które technik audiologii musi mieć „w małym palcu”, bo od właściwej interpretacji tej różnicy zależy dalsze postępowanie: czy wystarczy leczenie laryngologiczne (np. drenaż, operacja kosteczek), czy trzeba od razu myśleć o aparacie słuchowym. W codziennej pracy, gdy widzimy rezerwę ślimakową rzędu 20–30 dB przy względnie dobrym przewodnictwie kostnym, od razu zapala się lampka, że ślimak jest jeszcze w miarę zachowany i rokowanie po leczeniu przewodzeniowym bywa całkiem dobre.

Pytanie 39

Testy specjalistyczne aparatów rentgenowskich do zdjęć wewnątrzustnych są przeprowadzane

A. co najmniej raz na 12 miesięcy.
B. co miesiąc.
C. co najmniej raz na 24 miesiące.
D. co 6 miesięcy.
W przypadku testów specjalistycznych aparatów rentgenowskich do zdjęć wewnątrzustnych bardzo łatwo pomylić je z innymi rodzajami kontroli jakości, które robi się częściej. Stąd biorą się odpowiedzi typu „co miesiąc” czy „co 6 miesięcy”. W codziennej praktyce faktycznie wykonuje się różne sprawdzenia – np. testy podstawowe, bieżącą ocenę jakości obrazu, testy eksploatacyjne po naprawie. To jednak nie są testy specjalistyczne w rozumieniu przepisów ochrony radiologicznej i nadzoru nad aparaturą rentgenowską. Zbyt krótki, comiesięczny lub półroczny interwał jest w tym kontekście nadinterpretacją wymagań. Można oczywiście wykonywać takie pomiary częściej z własnej inicjatywy, ale prawo mówi o minimalnej częstości testów specjalistycznych, a nie o maksymalnym dopuszczalnym odstępie pomiędzy dowolnymi kontrolami. Typowym błędem myślowym jest tu wrzucenie do jednego worka wszystkich rodzajów testów: podstawowych, specjalistycznych, odbiorczych i okresowych. Tymczasem testy specjalistyczne są bardziej rozbudowane, zwykle prowadzone przez uprawnionego fizyka medycznego lub inspektora, z użyciem profesjonalnych fantomów i przyrządów pomiarowych, i dlatego ich cykl jest dłuższy. Z kolei odpowiedź „co najmniej raz na 12 miesięcy” sugeruje intuicyjne przekonanie, że „raz w roku” to taki bezpieczny, standardowy okres dla każdej kontroli technicznej. W wielu dziedzinach faktycznie tak jest, ale w diagnostyce stomatologicznej dla aparatów wewnątrzustnych przepisy dopuszczają dłuższy, dwuletni okres między testami specjalistycznymi. Nie oznacza to oczywiście, że aparat może działać „samopas” przez dwa lata. Nadal obowiązują testy podstawowe, bieżąca obserwacja jakości zdjęć, kontrola dokumentacji dawek i reagowanie na wszelkie nieprawidłowości. Jednak formalny, pełny test specjalistyczny, z kompleksową oceną dawki, warstwy półchłonnej, geometrii wiązki i stabilności parametrów, musi być wykonany co najmniej raz na 24 miesiące. Moim zdaniem ważne jest rozróżnienie między racjonalną ostrożnością a wymogami prawnymi i organizacyjnymi. Jeśli ktoś odpowiada krótszym okresem, zwykle kieruje się chęcią „większego bezpieczeństwa”, ale nie odróżnia, które testy są wymagane jak często. Dobra praktyka to zapamiętać: testy specjalistyczne dla aparatów do zdjęć wewnątrzustnych – maksymalnie co 2 lata, a wszystko, co dzieje się częściej, to już inne kategorie kontroli jakości i nadzoru nad pracą aparatu.

Pytanie 40

DSA to cyfrowa

A. flebografia subtrakcyjna.
B. angiografia subtrakcyjna.
C. arteriografia subtrakcyjna.
D. limfografia subtrakcyjna.
Skrót DSA bywa mylący, bo w praktyce klinicznej funkcjonuje sporo podobnie brzmiących nazw badań naczyniowych. Kluczowe jest jednak to, że „A” w DSA oznacza angiografię, czyli ogólne obrazowanie naczyń krwionośnych, a nie konkretny typ naczynia. Angiografia jako pojęcie obejmuje zarówno arteriografię (tętnice), flebografię (żyły), jak i badania bardziej wyspecjalizowane. Dlatego mówimy o cyfrowej angiografii subtrakcyjnej, a nie np. wyłącznie o cyfrowej arteriografii subtrakcyjnej. Arteriografia to badanie skoncentrowane na tętnicach – technicznie często wykorzystuje się do niej właśnie DSA, ale sama nazwa DSA nie ogranicza się tylko do tętnic. Z punktu widzenia terminologii byłoby więc nieprecyzyjne utożsamianie DSA z arteriografią, bo w jednej pracowni na tym samym aparacie wykonuje się w tej samej technice również obrazowanie żylne czy tętniczo-żylne malformacje. Podobnie jest z flebografią. Flebografia to kontrastowe badanie żył, np. żył kończyn dolnych czy żyły głównej górnej. Można zastosować technikę subtrakcji cyfrowej do uwidocznienia żył, ale nazwa badania systemowo pozostaje angiografią wykonywaną metodą DSA, a flebografia jest określeniem opisującym zakres anatomiczny, a nie typ technologii. Mylenie tych pojęć wynika zwykle z tego, że ktoś łączy nazwę techniki z nazwą konkretnej procedury klinicznej. Jeszcze mniej trafne jest kojarzenie DSA z limfografią. Limfografia dotyczy obrazowania naczyń chłonnych i węzłów chłonnych, tradycyjnie z użyciem specyficznych środków kontrastowych i zupełnie innych protokołów. W praktyce współczesnej limfografia klasyczna jest rzadziej wykonywana, częściej zastępują ją MR czy CT z odpowiednimi sekwencjami lub technikami, ale nadal nie używa się dla niej terminu DSA. Sedno sprawy jest takie: DSA to nazwa technologii i metody obróbki obrazu (cyfrowa subtrakcja), stosowanej przede wszystkim w angiografii. Arteriografia, flebografia i limfografia to natomiast nazwy opisujące, jakie naczynia są badane. Dobra praktyka w radiologii wymaga, żeby tych pojęć nie mieszać, bo ma to znaczenie zarówno dla dokumentacji, jak i dla planowania zabiegu oraz oceny ryzyka dla pacjenta.