Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroradiolog
  • Kwalifikacja: MED.08 - Świadczenie usług medycznych w zakresie diagnostyki obrazowej, elektromedycznej i radioterapii
  • Data rozpoczęcia: 16 kwietnia 2026 15:47
  • Data zakończenia: 16 kwietnia 2026 16:04

Egzamin niezdany

Wynik: 18/40 punktów (45,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Hiperfrakcjonowanie dawki w teleradioterapii polega na napromienianiu 2 do 3 razy dziennie dawką frakcyjną

A. większą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
B. mniejszą niż 2 Gy i wydłużeniu całkowitego czasu leczenia.
C. większą niż 2 Gy bez zmiany całkowitego czasu leczenia.
D. mniejszą niż 2 Gy bez zmiany całkowitego czasu leczenia.
W tym pytaniu bardzo łatwo pomylić różne schematy frakcjonowania, bo wszystkie brzmią dość podobnie, a różnice są czysto „liczbowe”, ale za tymi liczbami stoi konkretna radiobiologia. Hiperfrakcjonowanie to nie jest po prostu „więcej razy dziennie” ani „większa dawka”, tylko konkretny sposób podawania promieniowania: dawka na pojedynczą frakcję jest mniejsza niż standardowe 2 Gy, frakcji jest więcej w ciągu dnia, a całkowity czas leczenia pozostaje zbliżony do klasycznego schematu. Błędne skojarzenie, że skoro robimy 2–3 frakcje dziennie, to dawka jednostkowa powinna być większa, wynika często z mylenia hiperfrakcjonowania z hipofrakcjonowaniem. W hipofrakcjonowaniu właśnie podnosi się dawkę frakcyjną (np. 3–8 Gy), zwykle przy mniejszej liczbie frakcji i często skróceniu całkowitego czasu leczenia, co wykorzystuje się np. w radioterapii paliatywnej czy stereotaktycznej (SBRT). Z kolei pomysł wydłużania całkowitego czasu leczenia przy hiperfrakcjonowaniu jest sprzeczny z jego celem. Jeżeli leczenie trwa dłużej, dochodzi do repopulacji komórek nowotworowych, czyli guz ma więcej czasu na „odbudowę”, co obniża skuteczność terapii. Standardy planowania radioterapii jasno mówią, że w schematach hiperfrakcyjnych całkowity czas leczenia powinien być podobny do konwencjonalnego, właśnie po to, żeby nie zwiększać ryzyka odrastania guza. Dodatkowo, zwiększanie dawki frakcyjnej przy dwóch lub trzech frakcjach dziennie mocno podbiłoby ryzyko powikłań późnych w tkankach zdrowych, takich jak zwłóknienia, mielopatie czy uszkodzenia narządów krytycznych. Z mojego doświadczenia w nauczaniu ten błąd bierze się z prostego skojarzenia: „więcej frakcji = więcej dawki na raz”, a tymczasem w radioterapii często jest odwrotnie – im więcej frakcji, tym mniejsza dawka na pojedyncze naświetlanie, przy starannie zaplanowanej dawce całkowitej i czasie leczenia.

Pytanie 2

Co jest przyczyną artefaktu widocznego na obrazie MR?

Ilustracja do pytania
A. Zjawisko zaniku sygnału.
B. Pulsacyjny przepływ krwi.
C. Zjawisko zawijania fazy.
D. Ruch narządu lub pacjenta.
W rezonansie magnetycznym istnieje kilka typowych artefaktów i łatwo je ze sobą pomylić, szczególnie kiedy patrzymy tylko na pojedynczy przekrój. W tym pytaniu kluczowe jest odróżnienie zjawisk związanych z samą fizyką obrazowania od efektów wynikających z ruchu pacjenta. Zjawisko zawijania fazy, czyli aliasing, powstaje wtedy, gdy pole widzenia (FOV) w kierunku kodowania fazy jest zbyt małe w stosunku do rzeczywistej wielkości obszaru, z którego pochodzi sygnał. Struktury spoza FOV są „przenoszone” na przeciwległą stronę obrazu, jakby nachodziły na badany obszar. Wygląda to jak zdublowane elementy anatomiczne pojawiające się w miejscu, gdzie ich w ogóle nie powinno być. Na obrazie oczodołów w pytaniu nie ma jednak takiego typowego nałożenia struktur spoza pola – jest raczej rozmycie i nieostrość, co sugeruje ruch, a nie aliasing. Zanik sygnału kojarzy się głównie z artefaktami przepływowymi, niejednorodnością pola lub obecnością materiału o silnych właściwościach magnetycznych. Wtedy w obrazie widzimy ciemne strefy, „dziury” w sygnale, czasem z towarzyszącymi zniekształceniami geometrii. Tu sygnał nie znika, tylko jest rozciągnięty i nieostry, więc mechanizm jest inny. Pulsacyjny przepływ krwi faktycznie może dawać artefakty, zwłaszcza w naczyniach podstawy czaszki czy zatokach żylnych, ale najczęściej objawia się to pasmami wysokiego lub niskiego sygnału w przebiegu naczyń, czasem przypominającymi duchy w kierunku kodowania fazy. W oczodołach bardziej widoczne byłyby naczynia oczodołowe lub struktury sąsiadujące, a nie tak uogólnione rozmazanie konturów. Typowy błąd myślowy polega na tym, że każdą nieostrość przypisuje się od razu zanikowi sygnału albo aliasingowi, bo brzmią bardziej „fizycznie”. Tymczasem w codziennej praktyce technika MR najczęstszą przyczyną problemów z jakością obrazu jest zwykły ruch: mruganie, poruszenie głową, przełykanie śliny. Dlatego przy analizie artefaktów zawsze warto najpierw zadać sobie pytanie, czy pacjent mógł się ruszyć, a dopiero później szukać bardziej złożonych wyjaśnień fizycznych.

Pytanie 3

Które czynności wykonuje technik elektroradiolog w pracowni „gorącej”?

A. Przeprowadza badanie gammakamerą.
B. Sporządza dokumentację medyczną.
C. Układa pacjenta do badania.
D. Przygotowuje radiofarmaceutyk.
Prawidłowo wskazana czynność „przygotowuje radiofarmaceutyk” jest typowym, wręcz kluczowym zadaniem technika elektroradiologii w tzw. pracowni „gorącej” medycyny nuklearnej. W tej części zakładu nie wykonuje się jeszcze obrazowania gammakamerą, tylko właśnie przygotowuje i porcjuje substancje promieniotwórcze – radiofarmaceutyki – które później są podawane pacjentom. Pracownia „gorąca” to miejsce, gdzie dochodzi do znakowania nośnika (np. związku chemicznego, koloidu, peptydu) odpowiednim radioizotopem, kontroluje się aktywność, czas rozpadu, przygotowuje dawki indywidualne i prowadzi dokumentację radioaktywności. Wszystko odbywa się zgodnie z zasadami GMP, przepisami PAA i wewnętrznymi procedurami BHP oraz ochrony radiologicznej. Technik korzysta tu z osłon ołowianych, dozowników, dygestoriów, kalibratora dawki, a także przestrzega ścisłych procedur dotyczących dekontaminacji i postępowania z odpadami promieniotwórczymi. W praktyce wygląda to tak, że rano przychodzi fiolka z radionuklidem (np. technet-99m), technik w pracowni „gorącej” przygotowuje z niej konkretne radiofarmaceutyki do badań różnych narządów, mierzy aktywność w kalibratorze dawki, rozdziela do strzykawek w osłonach ołowianych i opisuje je. Moim zdaniem to jedno z bardziej odpowiedzialnych zadań, bo od prawidłowego przygotowania radiofarmaceutyku zależy zarówno bezpieczeństwo pacjenta, jak i jakość późniejszego obrazu scyntygraficznego. Dobre praktyki wymagają też ciągłego monitorowania zanieczyszczeń powierzchni, kontroli skażeń osobistych i prowadzenia szczegółowej ewidencji źródeł, co również jest elementem codziennej pracy w „gorącej” pracowni.

Pytanie 4

Kasety do pośredniej radiografii cyfrowej CR są wyposażone

A. w filmy rentgenowskie.
B. w płyty ołowiowe.
C. w płyty fosforowe.
D. w folie wzmacniające.
Prawidłowo – w systemie pośredniej radiografii cyfrowej CR kasety są wyposażone w płyty fosforowe, nazywane też płytami obrazowymi (IP – imaging plate). To nie są klasyczne filmy, tylko specjalne płyty z fosforem luminescencyjnym, najczęściej fosforem halogenkowym z domieszką europu. Pod wpływem promieniowania rentgenowskiego w krysztale fosforu gromadzi się energia w postaci tzw. obrazu utajonego. Ten obraz nie jest widoczny gołym okiem, dopiero skaner CR odczytuje go laserem, powodując zjawisko fotostymulowanej luminescencji. Wtedy emisja światła jest zamieniana przez fotopowielacz i przetwornik A/C na sygnał cyfrowy, który trafia do systemu PACS. W praktyce, podczas pracy w pracowni RTG, płyta fosforowa zachowuje się podobnie jak dawny film: wkładasz ją do kasety, po ekspozycji przenosisz do czytnika CR, a po odczycie płyta jest kasowana i może być użyta ponownie dziesiątki, a nawet setki razy, o ile nie zostanie mechanicznie uszkodzona. Moim zdaniem ważne jest, żeby kojarzyć CR właśnie z płytą fosforową, a DR z detektorem płaskopanelowym – to dwa różne systemy cyfrowe. Standardem dobrej praktyki jest delikatne obchodzenie się z kasetami CR, unikanie zarysowań i zginania, bo wszelkie uszkodzenia płyty fosforowej potem wychodzą jako artefakty na obrazie (pasy, plamki, „zadrapania”). W wielu szpitalach CR nadal jest używany w pracowniach ogólnych, na SOR czy w weterynarii, bo jest tańszy i bardziej elastyczny niż pełne DR, a kluczowe jest właśnie to, że sercem kasety jest płyta fosforowa, a nie film rentgenowski czy płyta ołowiowa.

Pytanie 5

Promieniowanie rentgenowskie jest

A. strumieniem elektronów.
B. falą ultradźwiękową.
C. strumieniem protonów.
D. falą elektromagnetyczną.
Promieniowanie rentgenowskie bardzo często bywa mylone z innymi rodzajami oddziaływań fizycznych, bo w aparacie RTG faktycznie pojawiają się elektrony, wysokie napięcia i różne procesy w lampie. Trzeba jednak odróżnić to, co dzieje się wewnątrz lampy, od tego, czym jest samo promieniowanie wychodzące na zewnątrz. Nie jest ono falą ultradźwiękową, ponieważ ultradźwięki to fale mechaniczne, czyli drgania ośrodka (np. tkanek, żelu, wody). Do ich rozchodzenia się potrzebne jest medium. W diagnostyce USG głowica wprawia kryształ piezoelektryczny w drgania, które rozchodzą się w ciele pacjenta właśnie jako fale mechaniczne. Promieniowanie X nie potrzebuje ośrodka, przebiega także w próżni, więc z definicji jest falą elektromagnetyczną, a nie ultradźwiękiem. Częsty błąd myślowy polega na wrzucaniu wszystkich „medycznych fal” do jednego worka, bez rozróżnienia na mechaniczne i elektromagnetyczne. Kolejne nieporozumienie dotyczy utożsamiania promieniowania rentgenowskiego ze strumieniem protonów albo elektronów. W lampie rentgenowskiej faktycznie mamy strumień elektronów, które lecą od katody do anody i przy hamowaniu emitują promieniowanie X. Jednak sam strumień elektronów pozostaje wewnątrz lampy próżniowej. To, co wykorzystujemy do obrazowania pacjenta, to już nie elektrony, tylko fotony promieniowania elektromagnetycznego. Protony z kolei są ciężkimi cząstkami dodatnio naładowanymi i używa się ich np. w radioterapii protonowej, a nie w klasycznej diagnostyce RTG. Mylenie promieniowania X ze strumieniem cząstek naładowanych bierze się moim zdaniem z tego, że w wielu opisach podkreśla się przyspieszanie elektronów, ale pomija, że efektem końcowym jest emisja fotonów. W standardach fizyki medycznej promieniowanie rentgenowskie jest jednoznacznie klasyfikowane jako promieniowanie elektromagnetyczne o energii w zakresie kilkudziesięciu do kilkuset keV. Z praktycznego punktu widzenia ma to ogromne znaczenie: inne są metody ekranowania, sposób obliczania dawki, modele pochłaniania w tkankach i całe podejście do ochrony radiologicznej. Dlatego tak ważne jest, żeby nie mieszać pojęć ultradźwięków, wiązek elektronowych czy protonowych z promieniowaniem X, bo prowadzi to potem do błędnego rozumienia zasad działania aparatów i ryzyka związanego z badaniami.

Pytanie 6

Hiperfrakcjonowanie dawki w radioterapii oznacza napromienienie pacjenta

A. 2-3 razy w tygodniu.
B. raz dziennie.
C. 2-3 razy dziennie.
D. raz w tygodniu.
Prawidłowa odpowiedź odnosi się do klasycznej definicji hiperfrakcjonowania w radioterapii: dawka całkowita jest podawana w większej liczbie mniejszych frakcji, zazwyczaj 2–3 razy dziennie. Kluczowe są tu dwie rzeczy: mniejsza dawka na jedną frakcję oraz zwiększona częstość napromieniania w ciągu doby. W odróżnieniu od standardowej frakcjonacji (zwykle 1 frakcja dziennie, 5 razy w tygodniu), w hiperfrakcjonowaniu stosuje się np. 2 frakcje dziennie po 1,1–1,2 Gy zamiast jednej frakcji 1,8–2,0 Gy. Dzięki temu można zwiększyć dawkę całkowitą skierowaną do guza, a jednocześnie lepiej chronić tkanki zdrowe, które mają większą zdolność naprawy uszkodzeń między kolejnymi małymi frakcjami. W praktyce klinicznej stosuje się rozdzielenie frakcji o co najmniej 6 godzin, żeby komórki zdrowe zdążyły częściowo zregenerować uszkodzenia subletalne. Jest to zgodne z radiobiologicznymi zasadami tzw. 4R radiobiologii (reperacja, repopulacja, redystrybucja, reoksygenacja). Moim zdaniem warto zapamiętać, że hiperfrakcjonowanie to strategia „więcej razy, mniejsze dawki”, stosowana szczególnie tam, gdzie zależy nam na eskalacji dawki w guzie przy ograniczeniu późnych powikłań w tkankach zdrowych, np. w niektórych nowotworach głowy i szyi. W wytycznych wielu ośrodków onkologicznych podkreśla się, że taki schemat wymaga dobrej organizacji pracy zakładu radioterapii: precyzyjnego planowania, stałego pozycjonowania pacjenta, kontroli jakości dawki oraz ścisłego przestrzegania odstępów czasowych między frakcjami. W praktyce technik musi pamiętać, że jeśli w zleceniu pojawia się schemat hiperfrakcjonowany, pacjent przychodzi dwa lub trzy razy dziennie na napromienianie, a nie tylko raz, jak w klasycznym schemacie.

Pytanie 7

Do wczesnych odczynów popromiennych po radioterapii zalicza się

A. świąd skóry.
B. martwicę nerwów.
C. retinopatię.
D. blizny.
Prawidłowo wskazana świąd skóry jako wczesny odczyn popromienny bardzo dobrze pokazuje zrozumienie podstaw radiobiologii klinicznej. W radioterapii wczesne odczyny popromienne to takie, które pojawiają się w trakcie napromieniania albo w ciągu kilku tygodni po jego zakończeniu. Dotyczą one tkanek szybko dzielących się, głównie nabłonka skóry i błon śluzowych. Typowe objawy to rumień, suchość skóry, złuszczanie, uczucie pieczenia, kłucia, no i właśnie świąd. Ten świąd wynika z uszkodzenia komórek naskórka i reakcji zapalnej w skórze, a także z przesuszenia – bariera naskórkowa jest naruszona, więc skóra reaguje podrażnieniem. W praktyce, na oddziale radioterapii, pacjenci bardzo często zgłaszają swędzenie w polu napromieniania już po kilkunastu–kilkudziesięciu Gy, zwłaszcza przy napromienianiu piersi, głowy i szyi czy okolic miednicy. Standardem postępowania jest edukacja pacjenta: delikatna higiena, unikanie drażniących kosmetyków, luźna odzież, zakaz drapania skóry oraz stosowanie zaleconych emolientów czy kremów łagodzących zgodnych z procedurami ośrodka. Dobre praktyki mówią też o regularnej ocenie skóry według skal toksyczności (np. RTOG, CTCAE) i dokumentowaniu nasilenia objawów. Moim zdaniem kluczowe jest, żeby kojarzyć świąd i rumień bardziej z wczesną, odwracalną reakcją, a nie od razu z powikłaniami trwałymi. Wczesne odczyny zazwyczaj ustępują w ciągu kilku tygodni po zakończeniu leczenia, jeśli odpowiednio się o skórę dba i nie przerywa się niepotrzebnie radioterapii. To pozwala utrzymać ciągłość terapii, co ma ogromne znaczenie dla skuteczności onkologicznej.

Pytanie 8

W badaniu MR czas repetycji TR jest parametrem określającym odstęp czasu między

A. impulsem inwersji 90ᵒ a czasem powstania sygnału (echa).
B. dwoma kolejnymi impulsami pobudzającymi RF90ᵒ
C. impulsem inwersji 180ᵒ a czasem powstania sygnału (echa).
D. dwoma kolejnymi impulsami pobudzającymi RF180ᵒ
Prawidłowo – czas repetycji TR w badaniu rezonansu magnetycznego to odstęp czasu między dwoma kolejnymi impulsami pobudzającymi RF o kącie 90°. To jest taki podstawowy „rytmem serca” sekwencji spin-echo i większości klasycznych sekwencji. Po pierwszym impulsie 90° następuje wzbudzenie magnetyzacji poprzecznej, potem relaksacja T1 i T2, pojawia się echo, a dopiero po zadanym czasie TR podajemy kolejny impuls 90° i zaczyna się następny cykl pomiaru dla tej samej warstwy. W praktyce dobór TR decyduje o tym, jak bardzo obraz będzie zależny od relaksacji T1. Krótkie TR (np. 300–700 ms) silnie eksponuje różnice T1, czyli daje typowe obrazy T1-zależne. Długie TR (np. 2000 ms i więcej) zmniejsza wpływ T1 i pozwala bardziej „wybrzmieć” kontrastowi T2 lub gęstości protonowej. Moim zdaniem warto to sobie kojarzyć tak: technik ustawiając TR de facto ustawia, ile czasu da tkankom na odtworzenie magnetyzacji podłużnej po impulsie 90°. Jeśli czasu jest mało, tkanki o krótkim T1 będą jaśniejsze, bo szybciej się regenerują; jeśli dużo, różnice T1 się spłaszczają. W codziennej pracy przy planowaniu protokołów MR TR jest jednym z kluczowych parametrów razem z TE i ewentualnie TI. W standardowych sekwencjach spin-echo zawsze myślimy o TR jako o czasie pomiędzy kolejnymi impulsami 90°, a nie 180° czy impulsami inwersyjnymi. To pomaga też szybko odróżnić, czym jest TR, a czym TI, które definiuje się zupełnie inaczej. Dobrą praktyką jest zawsze patrzeć na TR i od razu kojarzyć, jaki rodzaj kontrastu uzyskamy oraz jak wpłynie to na czas trwania całej sekwencji i komfort pacjenta.

Pytanie 9

Na rycinie rentgenogramu w projekcji AP symbolem X oznaczono

Ilustracja do pytania
A. brzeg panewki.
B. szyjkę kości udowej.
C. głowę kości udowej.
D. dołek głowy kości udowej.
Na rycinie w projekcji AP miednicy symbol X rzeczywiście wskazuje na głowę kości udowej. W obrazie rentgenowskim głowa kości udowej ma charakterystyczny, prawie kulisty kształt o jednolitej, stosunkowo wysokiej gęstości kostnej i jest położona centralnie w panewce stawu biodrowego. Od szyjki oddziela ją wyraźna zmiana zarysu – szyjka jest bardziej wydłużona, zwężona i nachylona skośnie względem trzonu kości udowej. Brzeg panewki natomiast tworzy łukowatą linię po stronie miednicy, a nie po stronie kości udowej. W praktyce opisowej radiologii, zgodnie z typowymi schematami oceny stawu biodrowego (np. standardy ESOR, zalecenia PTChR), zawsze zaczyna się analizę od położenia i kształtu głowy kości udowej: czy jest kulista, dobrze pokryta przez panewkę, czy nie ma cech spłaszczenia, osteofitów, podwichnięcia. To pozwala szybko wychwycić dysplazję, chorobę zwyrodnieniową, jałową martwicę czy świeże zwichnięcie. Moim zdaniem warto wyrobić sobie nawyk, że na zdjęciu AP miednicy najpierw „lokalizujesz kulę” – czyli głowę kości udowej – a dopiero potem identyfikujesz szyjkę, krętarze i zarysy panewki. W codziennej pracy technika elektroradiologii ta umiejętność jest potrzebna nie tylko do interpretacji, ale też do prawidłowego pozycjonowania: ustawiając pacjenta, starasz się tak ułożyć kończynę, żeby głowa była w centrum panewki i żeby szyjka nie nakładała się nadmiernie na panewkę, co jest standardem dobrej jakości projekcji AP biodra i miednicy.

Pytanie 10

Technik elektroradiolog do badania MR kręgosłupa lędźwiowego powinien ułożyć pacjenta:

A. na brzuchu, nogami do magnesu, ręce za głową.
B. na plecach, głową do magnesu, ręce za głową.
C. na brzuchu, nogami do magnesu, ręce wzdłuż tułowia.
D. na plecach, głową do magnesu, ręce wzdłuż tułowia.
Prawidłowe ułożenie pacjenta do badania MR kręgosłupa lędźwiowego to pozycja na plecach (supinacja), głową do magnesu, z rękami ułożonymi swobodnie wzdłuż tułowia. Taki układ wynika zarówno z zasad pozycjonowania w rezonansie, jak i z anatomii oraz przebiegu cewek nadawczo‑odbiorczych. Przy badaniu odcinka lędźwiowego zazwyczaj używa się cewki kręgosłupowej zintegrowanej ze stołem oraz ewentualnie dodatkowej cewki powierzchownej, która najlepiej przylega właśnie wtedy, gdy pacjent leży na plecach i jest stabilnie ułożony. Pozycja na plecach jest dla większości osób najwygodniejsza, co zmniejsza ryzyko ruchów podczas badania. A ruchy to, jak wiadomo, największy wróg jakości obrazów MR – powodują rozmycie granic struktur, artefakty ruchowe i konieczność powtarzania sekwencji. Ułożenie głową do magnesu jest standardem w większości protokołów dla kręgosłupa, bo pozwala prawidłowo wprowadzić pacjenta w izocentrum, gdzie pole magnetyczne jest najbardziej jednorodne. Dzięki temu sekwencje T1, T2, STIR czy FSE dają optymalny kontrast i rozdzielczość w obrębie trzonów kręgów L, krążków międzykręgowych oraz kanału kręgowego. Ręce wzdłuż tułowia są ważne z kilku powodów. Po pierwsze, minimalizują ryzyko ucisku, drętwienia i dyskomfortu, jaki pojawia się przy dłuższym badaniu, zwłaszcza jeśli ręce są uniesione lub nienaturalnie wygięte. Po drugie, taka pozycja ułatwia równomierne rozłożenie masy ciała i stabilizację kręgosłupa, co pomaga utrzymać prostą oś ciała i prawidłowe ułożenie w płaszczyźnie strzałkowej. Po trzecie, zmniejsza się szansa, że kończyny górne wejdą w obszar skanowania i spowodują niepotrzebne artefakty czy ograniczenie pola widzenia (FOV). W codziennej praktyce technika elektroradiologa dochodzi do tego jeszcze kilka drobiazgów: zastosowanie klinów pod kolana, żeby odciążyć odcinek lędźwiowy, poduszka pod głową, pasy mocujące lub wałki stabilizujące miednicę. Moim zdaniem warto zawsze poświęcić dodatkową minutę na dokładne wypoziomowanie pacjenta i wyrównanie linii kręgosłupa względem osi stołu, bo to potem procentuje lepszą powtarzalnością przekrojów i łatwiejszą oceną zmian na kolejnych badaniach kontrolnych.

Pytanie 11

Jaki kolor ma warstwa korowa kości w badaniu MR na obrazie T1- zależnym?

A. Ciemnoszary.
B. Czarny.
C. Jasnoszary.
D. Biały.
W obrazowaniu MR łatwo pomylić się przy ocenie kości, bo jesteśmy przyzwyczajeni do RTG czy TK, gdzie kość jest jasna. W rezonansie magnetycznym mechanizm powstawania obrazu jest zupełnie inny – nie chodzi o pochłanianie promieniowania jonizującego, tylko o rejestrację sygnału od protonów wodoru. Warstwa korowa kości ma bardzo mało wolnych protonów, dlatego praktycznie nie generuje sygnału i na obrazach, zarówno T1-, jak i T2-zależnych, pozostaje czarna. To, co bywa mylące, to fakt, że na niektórych monitorach albo przy kiepskim oknie i poziomie (window/level) czerń może wydawać się jakby „ciemnoszara”, ale w standardowym opisie mówimy: sygnał jest zerowy, czyli struktura jest czarna i hipointensywna. Błędne wyobrażenie, że kość powinna być biała, bierze się głównie z przenoszenia nawyków z RTG i TK na MR. W tych badaniach gęsta kość silnie pochłania promieniowanie i przez to jest bardzo jasna. W MR zasada jest odwrotna: im mniej ruchomych protonów, tym mniej sygnału i ciemniejszy obraz. Podobnie mylące bywa kojarzenie jaśniejszych odcieni szarości z „twardszą” tkanką. W T1 to nie gęstość fizyczna decyduje o jasności, tylko czasy relaksacji i zawartość tłuszczu oraz wody. Jasnoszary czy ciemnoszary sygnał w obrębie kości bardziej pasuje do szpiku kostnego (tłuszczowego lub obrzękowego), a nie do samej warstwy korowej. Częstym błędem jest też wrzucanie do jednego worka wszystkich „szarych” struktur i kierowanie się jedynie odcieniem, bez patrzenia na anatomię i typ sekwencji. Dobra praktyka w MR to zawsze: po pierwsze, rozpoznać sekwencję (T1, T2, STIR itd.), po drugie, znać typowe wzorce sygnału tkanek. Kość korowa – czarna, szpik tłuszczowy – jasny na T1, płyn – ciemny na T1 i jasny na T2. Jeśli trzymamy się tych prostych zasad, dużo łatwiej uniknąć pomyłek przy interpretacji badań.

Pytanie 12

W badaniu EKG różnice potencjałów pomiędzy lewym podudziem a lewym przedramieniem rejestruje odprowadzenie

A. aVR
B. III
C. aVL
D. I
W tym pytaniu łatwo się pomylić, bo nazwy odprowadzeń aVR, aVL i III brzmią dość podobnie, a jeszcze dochodzi odprowadzenie I, które też jest kończynowe. Kluczowa sprawa to odróżnienie odprowadzeń dwubiegunowych (I, II, III) od jednobiegunowych wzmocnionych (aVR, aVL, aVF). Dwubiegunowe rejestrują różnicę potencjałów między dwiema konkretnymi elektrodami kończynowymi, natomiast odprowadzenia aV korzystają z tzw. elektrody wirtualnej (średnia potencjałów z dwóch kończyn) i porównują ją z trzecią kończyną. Dlatego mówienie, że aVL „mierzy” między lewym podudziem a lewym przedramieniem jest po prostu fizjologicznie i technicznie niepoprawne. aVL patrzy na lewą rękę względem średniej z prawej ręki i lewej nogi, więc to zupełnie inna konfiguracja. Podobnie aVR nie może być poprawną odpowiedzią, bo to odprowadzenie „patrzące” z punktu widzenia prawej ręki, z odniesieniem do średniej z lewej ręki i lewej nogi. W praktyce klinicznej aVR używa się do oceny np. odwróconego obrazu ściany bocznej czy w niektórych zaburzeniach przewodzenia, ale nie jest to proste porównanie dwóch kończyn jak w odprowadzeniu III. Odprowadzenie I też bywa mylące, bo część osób kojarzy je ogólnie z kończynami górnymi. Tymczasem w standardzie Einthovena odprowadzenie I to różnica potencjałów między prawą ręką (RA) a lewą ręką (LA), więc noga w ogóle tu „nie wchodzi do gry”. Typowy błąd myślowy polega na tym, że ktoś patrzy tylko na nazwę (np. „aVL – pewnie lewe coś tam”) i nie analizuje, jak naprawdę są podłączone elektrody i jakie jest odniesienie elektryczne. Dobra praktyka, moim zdaniem, to nauczyć się na pamięć prostego schematu: I = LA – RA, II = LL – RA, III = LL – LA oraz zapamiętać, że aVR, aVL, aVF są jednobiegunowe i zawsze porównują jedną kończynę do średniej z dwóch pozostałych. Dzięki temu łatwiej unika się takich pomyłek i można świadomie interpretować zapis EKG, a nie tylko odczytywać go z automatu aparatu.

Pytanie 13

Gruboziarnista folia wzmacniająca wpływa na zwiększenie na obrazie rentgenowskim nieostrości

A. geometrycznej.
B. ruchowej.
C. rozproszeniowej.
D. fotograficznej.
W tym pytaniu haczyk polega głównie na tym, żeby dobrze rozróżniać typy nieostrości w radiografii. Gruboziarnista folia wzmacniająca jest elementem układu obrazującego, czyli części odpowiedzialnej za rejestrację obrazu, a nie za ruch, geometrię wiązki czy rozproszenie promieniowania. Dlatego nie może powodować nieostrości ruchowej. Nieostrość ruchowa pojawia się, gdy pacjent się porusza, gdy technik nie ustabilizuje odpowiednio kończyny, albo gdy czas ekspozycji jest za długi. Z mojego doświadczenia w pracowni: jeśli ktoś ma problem z rozmazanymi zdjęciami klatki piersiowej, to zwykle chodzi o oddech pacjenta lub kaszel, a nie o rodzaj folii. Druga często mylona sprawa to nieostrość geometryczna. Ona wynika z wielkości ogniska lampy rentgenowskiej, odległości ognisko–film (OID, FFD) i rozbieżności wiązki. Jeśli ognisko jest duże, a obiekt znajduje się daleko od detektora, powstaje powiększenie i rozmycie krawędzi – to typowa nieostrość geometryczna. Folia wzmacniająca nie zmienia geometrii układu, więc nie może wpływać na ten typ nieostrości. Kto miesza te pojęcia, zwykle wrzuca wszystko do jednego worka: „jak obraz jest nieostry, to pewnie geometria”, a to spore uproszczenie. Pojawia się też skojarzenie z nieostrością rozproszeniową. Ta natomiast jest związana z promieniowaniem rozproszonym w ciele pacjenta i w otoczeniu, które dociera do detektora z innych kierunków niż wiązka pierwotna. Do jej ograniczania służą kratki przeciwrozproszeniowe, kolimacja i odpowiednie parametry ekspozycji. Folia wzmacniająca jedynie przetwarza to, co do niej dociera – nie generuje dodatkowego rozproszenia promieniowania X w takim sensie, by tworzyć osobny typ nieostrości. Typowym błędem myślowym jest tu łączenie „grubej” folii z czymś, co „rozprasza” wszystko dookoła. W rzeczywistości mamy do czynienia z rozpraszaniem światła w samej folii, co właśnie zaliczamy do nieostrości fotograficznej, a nie rozproszeniowej w sensie fizyki promieniowania. Dlatego poprawne rozróżnianie tych pojęć jest kluczowe przy analizie jakości obrazu i planowaniu parametrów badania RTG.

Pytanie 14

Jak oznacza się w systemie międzynarodowym czwarty górny ząb mleczny po stronie prawej?

A. 84
B. 24
C. 14
D. 54
Prawidłowe oznaczenie czwartgo górnego zęba mlecznego po stronie prawej w systemie międzynarodowym (FDI) to 54. Ten system, nazywany też systemem dwucyfrowym, jest standardem przyjętym przez FDI World Dental Federation i stosowany praktycznie wszędzie w nowoczesnej stomatologii, także w opisach radiogramów. Pierwsza cyfra oznacza ćwiartkę łuku zębowego, a druga – pozycję zęba liczoną od linii pośrodkowej. Dla uzębienia mlecznego używa się cyfr 5–8 dla ćwiartek: 5 – górna prawa, 6 – górna lewa, 7 – dolna lewa, 8 – dolna prawa. W tej logice ząb 54 to: „5” – kwadrant górny prawy w uzębieniu mlecznym oraz „4” – czwarty ząb od środka, czyli czwarty ząb mleczny w tym kwadrancie. W praktyce, gdy opisujesz zdjęcie pantomograficzne albo skrzydłowo-zgryzowe u dziecka, wpisujesz właśnie takie oznaczenia: np. próchnica na powierzchni żującej 54, brak zawiązka 15, resorpcja korzenia 54 widoczna w RTG – i każdy stomatolog na świecie wie o jaki ząb chodzi. Moim zdaniem warto od razu wyrobić sobie nawyk rozróżniania: cyfry 1–4 w pierwszej pozycji to zawsze zęby stałe, a 5–8 – mleczne. To bardzo ułatwia czytanie dokumentacji, kart pacjenta i opisów badań obrazowych. W diagnostyce radiologicznej bez poprawnego oznaczenia zębów łatwo pomylić stronę lub ząb, co później może skutkować np. leczeniem niewłaściwego zęba, dlatego standard FDI jest traktowany jako dobra praktyka i wręcz obowiązkowy element profesjonalnego opisu.

Pytanie 15

Wiązka elektronów najczęściej stosowana jest do leczenia zmian nowotworowych w obrębie

A. skóry i płytko pod skórą.
B. płuc.
C. macicy.
D. prostaty.
Prawidłowo wskazana odpowiedź „skóry i płytko pod skórą” idealnie oddaje główne zastosowanie kliniczne wiązki elektronów w radioterapii. Elektrony mają stosunkowo mały zasięg w tkankach – ich dawka rośnie szybko od powierzchni, osiąga maksimum na kilku–kilkunastu milimetrach głębokości, a potem gwałtownie spada. Moim zdaniem to jest właśnie najważniejszy parametr, który trzeba kojarzyć: krótki zasięg i oszczędzanie głębiej położonych narządów. Dlatego w standardach radioterapii (np. zalecenia ESTRO, krajowe rekomendacje) elektrony stosuje się głównie do leczenia zmian powierzchownych: rak skóry, przerzuty skórne, naciekające blizny pooperacyjne, węzły chłonne leżące płytko, blizna po mastektomii, czasem kikut piersi. W praktyce planowania leczenia fizyk medyczny dobiera energię wiązki elektronów (np. 6 MeV, 9 MeV, 12 MeV) tak, żeby maksymalna dawka pokrywała guz, ale nie „przebijała” zbyt głęboko. To jest właśnie przewaga nad fotonami, które penetrują głęboko i oddają istotną dawkę w narządach położonych za guzem. Wiązka elektronowa pozwala np. napromieniać rozległy rak skóry na czaszce, minimalizując dawkę w mózgu, albo zmiany skórne na klatce piersiowej z ograniczeniem dawki w płucach. Dobrą praktyką jest też stosowanie bolusa (materiału dosłownie położonego na skórze), żeby „przesunąć” maksimum dawki bliżej powierzchni, gdy zmiana jest bardzo płytka. Warto zapamiętać: jak widzisz zmianę nowotworową w skórze lub do ok. 3–4 cm pod skórą, w głowie od razu powinna zapalić się lampka – to potencjalne pole do zastosowania elektronów, oczywiście po weryfikacji onkologicznej i fizycznej.

Pytanie 16

Ligand stosuje się

A. w radiologii klasycznej jako środek kontrastujący negatywny.
B. w rezonansie magnetycznym jako środek kontrastujący pozytywny.
C. w medycynie nuklearnej jako nośnik radiofarmaceutyku.
D. w radiologii klasycznej jako środek kontrastujący pozytywny.
Prawidłowo – ligand w tym kontekście to związek chemiczny, który wiąże się selektywnie z określonym celem biologicznym, np. receptorem, enzymem czy transporterem, i właśnie w medycynie nuklearnej pełni rolę nośnika radiofarmaceutyku. Mówiąc prościej: ligand „prowadzi za rękę” izotop promieniotwórczy dokładnie tam, gdzie chcemy zobaczyć czynność narządu albo ognisko chorobowe. Radioizotop sam z siebie nie jest wybiórczy, dopiero połączenie go z odpowiednim ligandem tworzy radiofarmaceutyk o określonej tropowości, np. do kości, mięśnia sercowego, guzów neuroendokrynnych czy receptorów dopaminergicznych. W scyntygrafii kości używa się ligandów fosfonianowych znakowanych technetem-99m, które gromadzą się w miejscach wzmożonego metabolizmu kostnego. W scyntygrafii perfuzyjnej serca mamy ligandy lipofilne, które wnikają do kardiomiocytów proporcjonalnie do przepływu krwi. W PET z kolei typowym przykładem jest 18F-FDG, gdzie ligandem jest analog glukozy, a izotopem fluor-18. Z mojego doświadczenia to właśnie zrozumienie roli liganda tłumaczy, czemu dwa różne radiofarmaceutyki z tym samym izotopem mogą mieć zupełnie inne wskazania. Dobre praktyki w medycynie nuklearnej wymagają bardzo świadomego doboru liganda do konkretnego badania: bierzemy pod uwagę farmakokinetykę, specyficzność wiązania, szybkość eliminacji, a także bezpieczeństwo dla pacjenta. W wytycznych EANM czy IAEA wyraźnie podkreśla się, że to właściwości liganda decydują o jakości obrazowania funkcjonalnego, a nie tylko sam izotop. Dlatego poprawne skojarzenie pojęcia „ligand” z nośnikiem radiofarmaceutyku w medycynie nuklearnej jest bardzo istotne i praktycznie przydatne w pracy z gammakamerą czy PET.

Pytanie 17

W leczeniu izotopowym tarczycy podaje się

A. dożylnie emiter promieniowania α
B. doustnie emiter promieniowania α
C. dożylnie emiter promieniowania β
D. doustnie emiter promieniowania β
W leczeniu izotopowym tarczycy kluczowe jest zrozumienie zarówno drogi podania, jak i rodzaju używanego promieniowania. Częsty błąd myślowy polega na automatycznym kojarzeniu wszelkiego „leczenia promieniowaniem” z podaniem dożylnym, bo tak podaje się większość leków w szpitalu, oraz z promieniowaniem alfa, bo brzmi bardziej „mocno” i kojarzy się z silnym działaniem. W medycynie nuklearnej mechanizm jest jednak trochę inny – opiera się na wykorzystaniu fizjologii narządu, w tym przypadku tarczycy, która naturalnie wychwytuje jod z krwi. Podanie dożylne emisji β w leczeniu nadczynności tarczycy byłoby po prostu nielogiczne, bo i tak zależy nam na tym, żeby radioizotop dotarł do tarczycy drogą fizjologicznego wychwytu jodu. Preparat po podaniu doustnym wchłania się z przewodu pokarmowego do krwi i dalej zachowuje się dokładnie tak samo jak po podaniu dożylnym, tylko w sposób znacznie prostszy, tańszy i bez ryzyka powikłań naczyniowych. Standardy medycyny nuklearnej bardzo jasno opisują, że radiojod w leczeniu tarczycy podaje się doustnie, w postaci kapsułek lub płynu, a nie w iniekcji. Drugi problem dotyczy promieniowania alfa. Emiterów α używa się obecnie głównie w wyspecjalizowanych terapiach celowanych, np. w leczeniu niektórych nowotworów z przerzutami do kości czy w zaawansowanej onkologii, ale nie w rutynowym leczeniu nadczynności tarczycy. Promieniowanie alfa ma bardzo krótki zasięg w tkance (mikrometry), ale ogromną energię jonizującą, co wymaga ekstremalnie precyzyjnego „dostarczenia” cząsteczek do komórek docelowych. Tarczyca i wychwyt jodu są do tego po prostu zbyt „szerokie” i nieselektywne, więc użycie alfa byłoby niepraktyczne i potencjalnie bardziej toksyczne. Z mojego doświadczenia osoby uczące się często mieszają medycynę nuklearną z klasyczną radioterapią. Dożylne podanie kojarzy się im z chemioterapią, a „mocne” promieniowanie z radioterapią zewnętrzną. W przypadku leczenia radiojodem mamy jednak typową terapię metaboliczną: wykorzystujemy naturalny metabolizm jodu i promieniowanie β o ograniczonym zasięgu do zniszczenia nadczynnych komórek tarczycy. Dlatego odpowiedzi sugerujące podanie dożylne lub użycie promieniowania alfa stoją w sprzeczności z obowiązującymi wytycznymi medycyny nuklearnej i zasadami racjonalnej ochrony radiologicznej.

Pytanie 18

Które badanie, zgodnie z zakresem kompetencji, może samodzielnie wykonać technik elektroradiolog?

A. Rentgenowskie jednokontrastowe żołądka.
B. Bronchoskopię.
C. Rentgenowskie klatki piersiowej z kontrastem.
D. Pielografię.
W tym pytaniu łatwo wpaść w pułapkę myślenia, że skoro technik elektroradiolog pracuje „przy aparacie” i przy badaniach z kontrastem, to może wykonywać większość procedur inwazyjnych, w których używa się promieniowania czy środków cieniujących. To jednak mocne uproszczenie. Zakres jego samodzielnych kompetencji dotyczy przede wszystkim badań obrazowych, gdzie nie ma charakteru zabiegowego, a rola technika koncentruje się na obsłudze aparatury, pozycjonowaniu pacjenta, doborze parametrów ekspozycji i zapewnieniu ochrony radiologicznej. Pielografia jest procedurą urologiczną o charakterze inwazyjnym, gdzie kontrast podaje się bezpośrednio do układu moczowego, np. przez cewnik. Wymaga to umiejętności zabiegowych, oceny anatomicznej w czasie rzeczywistym oraz podejmowania decyzji klinicznych, co jest zarezerwowane dla lekarza. Technik może asystować, przygotować stanowisko, obsługiwać aparat RTG czy ramię C, ale nie wykonuje samodzielnie samego badania jako procedury medycznej. Podobnie bronchoskopia to typowe badanie endoskopowe dróg oddechowych. Wprowadza się bronchoskop do dróg oddechowych, często w znieczuleniu, czasem z pobraniem wycinków. To już czysta kompetencja lekarska (pulmonologia, torakochirurgia). Technik elektroradiolog nie wykonuje bronchoskopii, nawet jeśli czasem w pracowni endoskopowej są używane aparaty RTG czy fluoroskopia do kontroli położenia narzędzi. Często mylone jest też „RTG z kontrastem” z procedurami, które w praktyce wymagają bardziej złożonej współpracy lekarza i technika, jak klasyczne badanie kontrastowe żołądka. Rentgenowskie jednokontrastowe badanie żołądka, choć technicznie oparte na promieniowaniu RTG, jest prowadzone przez lekarza radiologa, który na bieżąco ocenia obraz, zmienia pozycje pacjenta, decyduje o kolejnych ujęciach, a czasami również o tym, kiedy przerwać badanie. Technik tutaj przygotowuje aparat, ustawia projekcje, nadzoruje dawkę i jakość obrazu, ale nie prowadzi całej procedury samodzielnie. Typowy błąd myślowy polega na wrzuceniu do jednego worka wszystkich badań „z kontrastem” i założeniu, że skoro technik zna zasady stosowania środków cieniujących, to może samodzielnie wykonywać każde z nich. W rzeczywistości kluczowe jest rozróżnienie badań typowo obrazowych, nieinwazyjnych lub mało inwazyjnych, gdzie technik pracuje głównie na aparaturze, od badań zabiegowych i endoskopowych, które wymagają uprawnień lekarskich. Właśnie dlatego w tym zestawie poprawna jest tylko procedura klasycznego RTG klatki piersiowej z kontrastem, a nie badania urologiczne czy endoskopowe.

Pytanie 19

Który załamek odzwierciedla szybką repolaryzację komór w zapisie EKG?

A. S
B. T
C. Q
D. R
Załamek T jest w zapisie EKG bezpośrednio związany z repolaryzacją komór, a więc z procesem powrotu ich błony komórkowej do potencjału spoczynkowego po zakończonej depolaryzacji i skurczu. Błędne jest więc wiązanie szybkiej repolaryzacji komór z załamkami Q, R czy S, ponieważ te elementy EKG tworzą razem zespół QRS, który opisuje coś zupełnie innego – depolaryzację komór. W sensie elektrofizjologicznym zespół QRS odpowiada głównie fazie 0 i częściowo fazie 1 potencjału czynnościowego komórek komorowych, kiedy dochodzi do gwałtownego napływu jonów sodu do wnętrza kardiomiocytów i szybkiego rozprzestrzeniania się fali pobudzenia w mięśniu komór. To jest moment inicjacji skurczu, a nie jego wygaszania. Załamek Q, jeśli występuje, zwykle reprezentuje początkową depolaryzację przegrody międzykomorowej. Załamek R jest główną składową depolaryzacji masy mięśnia komór, szczególnie lewej komory, natomiast załamek S odzwierciedla końcowy etap depolaryzacji podstawnych części komór. Typowym błędem myślowym jest traktowanie całego zespołu QRS jako „aktywności komór w ogóle”, bez rozróżnienia, czy chodzi o depolaryzację, czy repolaryzację. Stąd łatwo o pomylenie pojęć i przypisanie którejś z liter Q, R lub S roli, której one fizjologicznie nie pełnią. Dobra praktyka w diagnostyce elektromedycznej zakłada jasne kojarzenie: P – depolaryzacja przedsionków, QRS – depolaryzacja komór, T – repolaryzacja komór. Dopiero w takim uporządkowaniu można sensownie analizować odchylenia, np. obniżenia lub uniesienia odcinka ST, odwrócone lub spłaszczone załamki T, czy poszerzenie QRS. Mylenie depolaryzacji z repolaryzacją prowadzi potem do złej interpretacji niedokrwienia, zaburzeń przewodzenia albo działania leków antyarytmicznych. Moim zdaniem warto sobie skojarzyć, że wszystko co „wysokie i wąskie” w środku zespołu to depolaryzacja (QRS), a „łagodny, szerszy garb” po nim to właśnie repolaryzacja komór – załamek T.

Pytanie 20

Jednostką indukcji magnetycznej jest

A. om (Ω)
B. tesla (T)
C. weber (Wb)
D. kulomb (C)
Indukcja magnetyczna opisuje lokalną „gęstość” pola magnetycznego, a więc to, jak silnie pole działa w danym punkcie przestrzeni na ładunki w ruchu czy przewodniki z prądem. Z tego powodu jej jednostką w układzie SI jest tesla (T), a nie jednostki związane z oporem elektrycznym, ładunkiem czy całkowitym strumieniem. Dość częsty błąd polega na mieszaniu różnych wielkości elektromagnetycznych tylko dlatego, że wszystkie „kręcą się” wokół prądu, napięcia i pola. Om jest jednostką oporu elektrycznego. Pojawia się w prawie Ohma (U = R · I) i mówi nam, jak bardzo element obwodu „przeszkadza” przepływowi prądu. Opór ma związek z przewodnikami, budową tkanek w kontekście bioimpedancji czy dopasowaniem obwodów w aparaturze medycznej, ale nie opisuje pola magnetycznego. Dlatego użycie oma jako jednostki indukcji magnetycznej jest po prostu pomyleniem kontekstu. Kulomb to z kolei jednostka ładunku elektrycznego. Jeden kulomb to ładunek przenoszony przez prąd 1 A w czasie 1 sekundy. Ładunek jest podstawową wielkością w elektrostatyce i elektrodynamice, ale sam z siebie nie mówi nic o „mocy” pola magnetycznego w przestrzeni. Wzory na siłę Lorentza czy ruch ładunku w polu magnetycznym zawierają zarówno ładunek q, jak i indukcję B – to dwie różne wielkości, każda z własną jednostką. Jest jeszcze weber, który bywa mylący, bo dotyczy też magnetyzmu. Weber (Wb) to jednostka strumienia magnetycznego Φ, czyli jakby „sumarycznej ilości” pola przechodzącej przez daną powierzchnię. Indukcja magnetyczna B to strumień na jednostkę powierzchni, stąd związek Φ = B · S · cosα. Można powiedzieć, że weber odnosi się do całkowitego strumienia, a tesla do jego gęstości. W praktyce inżynierskiej i medycznej ważne jest, żeby świadomie odróżniać te pojęcia: pola magnesów w rezonansie magnetycznym, oznaczane w teslach, opisują warunki pracy urządzenia i wymagania bezpieczeństwa, natomiast strumień w weberach wykorzystuje się raczej w obliczeniach konstrukcyjnych cewek czy transformatorów. Mylenie tych jednostek prowadzi do błędów interpretacyjnych, np. przy odczytywaniu dokumentacji technicznej aparatury albo przy ocenie ryzyka ekspozycji personelu na silne pola magnetyczne. Dlatego, z mojego doświadczenia, warto sobie raz porządnie poukładać: tesla – indukcja magnetyczna, weber – strumień, om – opór, kulomb – ładunek.

Pytanie 21

Która sekwencja w obrazowaniu MR jest stosowana do uwidocznienia naczyń krwionośnych?

A. TOF
B. DWI
C. EPI
D. STIR
W obrazowaniu MR różne sekwencje są projektowane pod konkretne zadania i łatwo się pomylić, zwłaszcza gdy kojarzymy je tylko z nazw skrótowych. W pytaniu chodzi o sekwencję służącą typowo do uwidaczniania naczyń krwionośnych, czyli o technikę angiografii MR. Tę rolę pełni sekwencja TOF (Time-of-Flight), która wykorzystuje efekt napływu świeżej, niezsaturowanej krwi do objętości obrazowanej i dzięki temu naczynia są bardzo dobrze widoczne, zwykle jako jasne struktury na ciemniejszym tle tkanek. To jest w zasadzie standardowa technika MRA bez kontrastu, szczególnie w badaniach naczyń mózgowych i szyjnych. EPI, czyli Echo Planar Imaging, jest natomiast sekwencją bardzo szybką, używaną głównie w obrazowaniu funkcjonalnym (fMRI) oraz w sekwencjach dyfuzyjnych DWI. Daje duże pokrycie w krótkim czasie, ale ma sporo artefaktów zniekształcających obraz, dlatego nie jest typową sekwencją do precyzyjnego odwzorowania światła naczyń. Kto kojarzy EPI z „nowoczesnym” obrazowaniem, może odruchowo uznać ją za dobrą do wszystkiego, co jest po prostu pewnym skrótem myślowym, ale niestety błędnym. DWI (Diffusion Weighted Imaging) służy przede wszystkim do oceny dyfuzji wody w tkankach. Jest kluczowa np. w diagnostyce udaru niedokrwiennego mózgu, gdzie pokazuje ognisko świeżego zawału, ale to nie jest sekwencja, na której standardowo ocenia się sam przebieg naczyń. Owszem, zmiany naczyniowe pośrednio wpływają na obraz w DWI, ale nie zobaczymy tu tak wyraźnie światła tętnic jak w TOF. STIR (Short Tau Inversion Recovery) to sekwencja tłumiąca sygnał tłuszczu, bardzo przydatna np. w obrazowaniu układu kostno-stawowego, szpiku czy tkanek miękkich, gdy chcemy uwidocznić obrzęk, zmiany zapalne, nacieki. Nie jest natomiast projektowana do angiografii MR i nie daje takiego kontrastu między krwią w naczyniach a otoczeniem, jak specjalistyczne techniki przepływowe. Typowy błąd polega na tym, że kojarzymy nazwę sekwencji z jakimś „efektem specjalnym” (np. szybkość, tłumienie tłuszczu, dyfuzja) i zakładamy, że to będzie dobre też do naczyń. Tymczasem w praktyce klinicznej do oceny naczyń używa się wyspecjalizowanych protokołów MRA, a Time-of-Flight jest jednym z podstawowych rozwiązań, szczególnie gdy badanie ma być wykonane bez kontrastu.

Pytanie 22

Który radioizotop jest emiterem promieniowania alfa?

A. ⁹⁹ᵐTc
B. ¹⁸F
C. ¹³¹I
D. ²²³Ra
W tym pytaniu łatwo się pomylić, bo wszystkie podane izotopy są dobrze znane w medycynie, ale pełnią zupełnie różne role i emitują różne typy promieniowania. Kluczowe jest rozróżnienie, które radioizotopy są typowo diagnostyczne, a które terapeutyczne, oraz jaki jest ich główny rodzaj promieniowania. Fluor-18 jest klasycznym izotopem stosowanym w PET. To emiter beta plus (β+), czyli emituje pozytony. Pozyton anihiluje z elektronem, powstają dwa kwanty promieniowania gamma 511 keV, rejestrowane przez detektory w skanerze PET. On nie jest emiterem alfa, więc mimo że często pojawia się w praktyce, nie pasuje do tego pytania. Jod-131 to z kolei izotop kojarzony z leczeniem chorób tarczycy i diagnostyką scyntygraficzną. Jego główne znaczenie terapeutyczne wynika z emisji promieniowania beta minus (β−), które ma zasięg kilku milimetrów w tkance i pozwala niszczyć komórki tarczycy. Dodatkowo emituje promieniowanie gamma, przydatne diagnostycznie. Wiele osób myli silne działanie terapeutyczne z promieniowaniem alfa, ale tutaj to nadal beta minus. Technet-99m jest natomiast złotym standardem w diagnostyce scyntygraficznej. Emituje głównie promieniowanie gamma o energii około 140 keV, idealne do obrazowania gammakamerą. Ten izotop prawie nie ma zastosowania terapeutycznego, bo nie emituje ani beta, ani alfa w sposób klinicznie istotny. Mylenie go z emiterem alfa wynika czasem z tego, że jest „wszędzie” w medycynie nuklearnej, więc intuicyjnie wydaje się dobrym kandydatem. W rzeczywistości jedynym z wymienionych izotopów, który jest typowym emiterem promieniowania alfa, jest rad-223. To on ma wysokie LET, bardzo krótki zasięg w tkance i jest używany w terapii izotopowej, a nie w obrazowaniu. Dobra praktyka jest taka, żeby przy nauce radioizotopów od razu łączyć: rodzaj promieniowania + zastosowanie (diagnostyka/terapia) + przykład badania lub procedury klinicznej. To mocno ułatwia unikanie takich pomyłek.

Pytanie 23

Który załamek odzwierciedla repolaryzację komór w zapisie EKG?

A. R
B. P
C. T
D. Q
W zapisie EKG łatwo się pomylić, bo każdy załamek coś oznacza, a nazwy są dość abstrakcyjne. Kluczowe jest jednak zrozumienie, które struktury serca odpowiadają za konkretne elementy krzywej. Repolaryzacja komór to proces przywracania spoczynkowego potencjału błonowego w kardiomiocytach komorowych. Ten etap nie jest widoczny jako załamek R, P czy Q, tylko jako załamek T. Załamek P odzwierciedla depolaryzację przedsionków, czyli pobudzenie elektryczne rozchodzące się przez mięsień przedsionków. Wiele osób myli go z repolaryzacją, bo intuicyjnie zakłada, że mniejszy załamek to „powrót do normy”, ale to błędne podejście. Repolaryzacja przedsionków rzeczywiście istnieje, natomiast jest maskowana przez dużo silniejszy zespół QRS i w typowym EKG się jej osobno nie widzi. Zespół QRS (czyli załamki Q, R i S razem) odpowiada za depolaryzację komór, nie za ich repolaryzację. To jest moment, kiedy komory się aktywują i przygotowują do skurczu mechanicznego. Załamek R to po prostu najwyższa dodatnia część zespołu QRS, a załamki Q i S są jego ujemnymi składowymi. Próba przypisania któregokolwiek z nich do repolaryzacji jest niezgodna z fizjologią i standardową interpretacją EKG. Typowym błędem myślowym jest patrzenie na EKG jak na „górki i dołki” bez skojarzenia ich z procesami bioelektrycznymi w mięśniu sercowym. Innym częstym uproszczeniem jest przekonanie, że pierwszy widoczny duży załamek dodatni (R) musi oznaczać „najważniejszy” proces, czyli powrót do spoczynku, ale w rzeczywistości jest dokładnie odwrotnie – to jest faza aktywacji. Dobra praktyka w diagnostyce elektromedycznej polega na tym, żeby każdy element krzywej EKG kojarzyć z konkretnym zjawiskiem: P – depolaryzacja przedsionków, QRS – depolaryzacja komór, T – repolaryzacja komór. Dopiero tak uporządkowana wiedza pozwala prawidłowo analizować zmiany patologiczne, np. w ostrym zawale, zaburzeniach elektrolitowych czy przy stosowaniu leków wydłużających repolaryzację.

Pytanie 24

Na obrazie MR jamy brzusznej strzałką wskazano

Ilustracja do pytania
A. śledzionę.
B. wątrobę.
C. nerkę.
D. trzustkę.
Na obrazie MR jamy brzusznej strzałka wskazuje wątrobę, czyli największy narząd miąższowy w górnej części jamy brzusznej, po prawej stronie. Na przekroju czołowym, takim jak na tym zdjęciu, wątroba zajmuje prawą górną część obrazu, tuż pod przeponą, przylega do prawej ściany klatki piersiowej i zwykle częściowo przykrywa prawą nerkę. W rezonansie magnetycznym jej sygnał jest stosunkowo jednorodny, a granica z płucem i przeponą jest wyraźna. Moim zdaniem to jedno z podstawowych ćwiczeń w radiologii: najpierw lokalizacja wątroby, potem dopiero szukanie zmian patologicznych. W praktyce klinicznej prawidłowe rozpoznanie wątroby na MR jest kluczowe przy ocenie ogniskowych zmian, takich jak naczyniaki, przerzuty, HCC czy torbiele. Standardem jest porównywanie położenia narządu względem kręgosłupa, żeber i innych narządów – to bardzo pomaga, gdy obraz nie jest idealny albo pacjent był słabo ułożony. Dobre praktyki mówią, żeby zawsze „czytać” badanie systematycznie: najpierw orientacja w płaszczyźnie i stronach ciała (oznaczenia L/R), potem narządy miąższowe (wątroba, śledziona, nerki, trzustka), a dopiero na końcu drobne szczegóły. Dzięki temu łatwiej uniknąć pomylenia wątroby np. ze śledzioną w nietypowych wariantach anatomicznych czy przy dużych guzach. W codziennej pracy technika lub młodego radiologa poprawna identyfikacja wątroby na MR to absolutna podstawa do dalszej, bardziej zaawansowanej interpretacji badania.

Pytanie 25

Parametr SNR w obrazowaniu MR oznacza

A. wielkość pola widzenia.
B. rozmiar matrycy.
C. stosunek sygnału do szumu.
D. grubość obrazowanej warstwy.
W obrazowaniu MR bardzo łatwo pomylić różne parametry techniczne, bo wszystkie one wpływają na końcowy wygląd obrazu, ale nie wszystkie opisują to samo. Rozmiar matrycy określa liczbę punktów pomiarowych w kierunku fazy i częstotliwości, czyli w praktyce rozdzielczość przestrzenną obrazu. Większa matryca daje drobniejsze detale, ale zwykle obniża SNR, bo ten sam sygnał jest „rozsmarowany” na większą liczbę pikseli. To jednak nie jest definicja SNR, tylko jeden z czynników, który na niego wpływa. Podobnie pole widzenia (FOV) określa obszar ciała obejmowany obrazem. Zwiększenie FOV powoduje, że obejmujemy większą część pacjenta, ale też zmienia rozmiar pojedynczego voxela. Większy voxel zwykle poprawia SNR, bo zawiera więcej sygnału z większej objętości tkanki, jednak to dalej tylko pośredni wpływ, a nie sama istota parametru. Grubość warstwy działa analogicznie: grubsza warstwa to większa objętość tkanki, więcej protonów, silniejszy sygnał, więc lepszy SNR, ale jednocześnie gorsza rozdzielczość w kierunku osiowym i możliwość nakładania się struktur. Typowym błędem myślowym jest utożsamianie parametru, który poprawia „jakość obrazu”, z samą definicją SNR. SNR nie mówi ani o rozmiarze obrazu, ani o ilości pikseli, ani o grubości warstwy, tylko o relacji między sygnałem a losowym szumem w układzie pomiarowym. W dobrych praktykach MR rozmiar matrycy, FOV i grubość warstwy traktuje się jako narzędzia do kształtowania SNR i rozdzielczości, ale same w sobie nie są SNR. Z mojego doświadczenia dobrze jest to sobie poukładać tak: matryca, FOV, grubość warstwy opisują GEOMETRIĘ i ROZDZIELCZOŚĆ obrazu, a SNR opisuje jego CZYTELNOŚĆ w kontekście zakłóceń. I dopiero połączenie tych parametrów daje optymalny protokół badania, zgodny ze standardami diagnostycznymi.

Pytanie 26

W jakiej projekcji i pod jakim kątem padania promienia centralnego został wykonany radiogram obojczyka?

Ilustracja do pytania
A. W projekcji AP i prostopadłym kącie padania promienia centralnego.
B. W projekcji PA i prostopadłym kącie padania promienia centralnego.
C. W projekcji AP i skośnym dołgłowowo kącie padania promienia centralnego.
D. W projekcji AP i skośnym doogonowo kącie padania promienia centralnego.
W radiografii obojczyka kluczowe jest zrozumienie, po co w ogóle stosuje się różne kąty padania promienia centralnego. Intuicyjnie wiele osób zakłada, że wystarczy zwykła projekcja AP lub PA z promieniem prostopadłym, bo przecież kość leży stosunkowo płytko. To jednak typowy błąd myślowy – przy padaniu prostopadłym obojczyk nakłada się na żebra, łopatkę i górną część klatki piersiowej, przez co drobne szczeliny złamań mogą być zupełnie niewidoczne albo mocno zamaskowane. Odpowiedź z projekcją AP i promieniem prostopadłym opisuje właśnie taki zbyt „podstawowy” wariant. On ma swoje miejsce, jako zdjęcie przeglądowe, ale nie odpowiada obrazowi, na którym obojczyk jest wyraźnie wyciągnięty ponad tło żeber. Podobnie projekcja PA z prostopadłym promieniem centralnym jest w rutynowej praktyce zdecydowanie rzadziej stosowana do obojczyka. Ułożenie pacjenta tyłem do lampy i przodem do detektora przy obojczyku nie daje żadnej istotnej przewagi diagnostycznej, a często jest mniej wygodne przy urazach barku. Dlatego większość zaleceń i podręczników technik obrazowania promuje raczej układ AP niż PA. Problematyczne jest też założenie, że wystarczy dowolny skośny kąt – stąd myląca odpowiedź ze skośnym doogonowym nachyleniem promienia. Kąt doogonowy powoduje „opuszczenie” obojczyka w cień żeber, czyli dokładnie odwrotny efekt niż chcemy uzyskać. Z mojego doświadczenia to częsty błąd: ktoś pamięta, że ma być kąt skośny, ale myli kierunek – do głowy zamiast do ogona. Tymczasem celem jest uniesienie cienia obojczyka, a to uzyskujemy tylko przy nachyleniu dołgłowowym w projekcji AP. Dobre zrozumienie geometrii wiązki i nakładania się struktur anatomicznych jest tutaj ważniejsze niż samo „wkuwanie” nazwy projekcji, bo potem łatwiej samodzielnie dobrać kąt do konkretnego pacjenta i sytuacji klinicznej.

Pytanie 27

Którą tętnicę zaznaczono strzałką na obrazie MR?

Ilustracja do pytania
A. Nerkową lewą.
B. Krezkową górną.
C. Śledzionową.
D. Krezkową dolną.
Na tym typie obrazu – jest to w praktyce MR-angiografia aorty brzusznej i jej głównych odgałęzień – kluczowe jest zrozumienie topografii naczyń względem aorty i nerek. Typowy błąd polega na patrzeniu tylko na to, że naczynie „jest w okolicy nerki” albo „idzie gdzieś w bok”, bez świadomego odniesienia do poziomu odejścia od aorty i kierunku przebiegu. Tętnica śledzionowa w ogóle nie odchodzi bezpośrednio z aorty, tylko jest jedną z gałęzi pnia trzewnego. Pień trzewny wychodzi z aorty wysoko, nad tętnicami nerkowymi, a następnie dzieli się na tętnicę żołądkową lewą, wątrobową wspólną i właśnie śledzionową. Ta ostatnia biegnie mocno kręto, w górnej części jamy brzusznej, nad lewą nerką i w kierunku wnęki śledziony. Na pokazanym obrazie naczynie wskazane strzałką wychodzi z aorty niżej, w osi około pępka, a jego przebieg jest stosunkowo prosty – to absolutnie nie pasuje do typowego obrazu tętnicy śledzionowej. Z kolei tętnice nerkowe wychodzą z bocznych ścian aorty, na poziomie wnęk nerek, biegnąc niemal horyzontalnie w kierunku miąższu nerek. Na zdjęciu obie te tętnice są widoczne i wyraźnie oddzielone od zaznaczonego naczynia, które odchodzi z przedniej ściany aorty, a nie z bocznej. Stąd nazwanie go lewą tętnicą nerkową wynika zwykle z patrzenia tylko na stronę ciała, bez analizy dokładnego poziomu i wektora odejścia. Tętnica krezkowa dolna natomiast odchodzi od aorty znacznie niżej, poniżej tętnic nerkowych, zwykle kilka centymetrów powyżej rozdwojenia aorty. Zaopatruje końcowy odcinek okrężnicy i odbytnicę, a na rekonstrukcjach naczyniowych widzimy ją jako stosunkowo cienkie naczynie wychodzące z przednio-lewej powierzchni aorty, dużo bardziej kaudalnie niż struktura zaznaczona na obrazie. Pomylenie jej z tętnicą krezkową górną to typowy błąd „na wysokość” – ktoś widzi naczynie z przodu aorty i od razu myśli: krezkowa, ale nie sprawdza odległości od pnia trzewnego i od tętnic nerkowych. Dobra praktyka w diagnostyce obrazowej wymaga zawsze analizowania kolejności odgałęzień aorty: najpierw pień trzewny, niżej tętnica krezkowa górna, potem tętnice nerkowe i dopiero jeszcze niżej tętnica krezkowa dolna. Świadome trzymanie się tej sekwencji bardzo ogranicza takie pomyłki i ułatwia poprawną identyfikację naczyń na MR, TK i klasycznej angiografii.

Pytanie 28

Promieniowanie rentgenowskie powstaje w wyniku hamowania

A. kwantów energii na katodzie lampy rentgenowskiej.
B. elektronów na katodzie lampy rentgenowskiej.
C. kwantów energii na anodzie lampy rentgenowskiej.
D. elektronów na anodzie lampy rentgenowskiej.
W tym zagadnieniu łatwo pomylić kilka pojęć: katodę, anodę, elektrony i „kwanty energii”. W lampie rentgenowskiej mamy klasyczny układ katoda–anoda w próżni. Katoda to żarnik emitujący elektrony na skutek rozgrzania, natomiast anoda to tarcza, w którą te elektrony uderzają po przyspieszeniu wysokim napięciem. Kluczowe jest to, że „materiałem roboczym” są elektrony, a nie gotowe fotony czy jakieś abstrakcyjne „kwanty energii”. Częsty błąd myślowy polega na odwróceniu roli anody i katody lub na traktowaniu kwantów energii jakby już istniały w lampie i dopiero gdzieś się „hamowały”. W rzeczywistości przed zderzeniem z anodą mamy wyłącznie strumień elektronów, a nie promieniowanie X. Promieniowanie powstaje dopiero w momencie gwałtownego hamowania tych naładowanych cząstek w polu jąder atomowych materiału anody. Stąd odpowiedzi, w których mowa o hamowaniu na katodzie, są niezgodne z fizyką procesu. Katoda jest miejscem emisji i „wyrzucania” elektronów, a nie miejscem ich wytracania energii kinetycznej. Elektrony są tam przyspieszane przez pole elektryczne, więc nie ma mowy o wytwarzaniu promieniowania hamowania. Podobnie określenie „hamowanie kwantów energii” jest po prostu błędne pojęciowo. Kwant promieniowania X jest już efektem hamowania – to foton emitowany, gdy elektron traci energię. Nie da się więc logicznie mówić, że kwanty energii ulegają hamowaniu, bo one są produktem tego hamowania. Z punktu widzenia dobrej praktyki w radiologii warto zapamiętać prosty schemat: katoda emituje elektrony, wysokie napięcie je przyspiesza, anoda zatrzymuje i hamuje, a skutkiem tego jest powstanie fotonów promieniowania X. To tłumaczy, czemu konstrukcja anody (materiał, kąt nachylenia, chłodzenie) jest tak istotna, a także dlaczego większość ciepła generuje się właśnie w ognisku anody. Zrozumienie tego mechanizmu pomaga później ogarnąć m.in. charakterystykę widma promieniowania, zależność od kV i mAs oraz ograniczenia obciążenia cieplnego lampy – co jest podstawą bezpiecznej i poprawnej technicznie pracy przy aparacie RTG.

Pytanie 29

W zapisie EKG załamek U występuje bezpośrednio po załamku

A. P, u wszystkich pacjentów.
B. T, u wszystkich pacjentów.
C. T, tylko u niektórych pacjentów.
D. P, tylko u niektórych pacjentów.
Załamek U na zapisie EKG pojawia się, gdy w ogóle jest widoczny, bezpośrednio po załamku T. Poprawna odpowiedź mówi też, że występuje tylko u niektórych pacjentów – i to jest bardzo ważne. W standardowym opisie cyklu pracy serca w EKG mamy: załamek P (depolaryzacja przedsionków), zespół QRS (depolaryzacja komór), załamek T (repolaryzacja komór). Załamek U jest takim „dodatkowym” małym załamkiem, który bywa widoczny po T, ale nie jest obowiązkowym elementem zapisu. Moim zdaniem warto zapamiętać dwie rzeczy: po pierwsze – lokalizacja w czasie: U zawsze po T, nigdy przed nim. Po drugie – jego obecność jest zmienna osobniczo. U części zdrowych osób w ogóle go nie zobaczysz, a u innych będzie delikatny, niski, najlepiej widoczny w odprowadzeniach przedsercowych, zwłaszcza V2–V3. W praktyce technika EKG dobrze jest świadomie oceniać odcinek ST–T–U, bo niekiedy zmiany w obrębie załamka U mogą sugerować zaburzenia elektrolitowe, szczególnie hipokaliemię, albo działanie niektórych leków (np. antyarytmicznych). W hipokaliemii typowo załamek U staje się wyraźniejszy, wysoki w stosunku do T, czasem wręcz dominuje obraz końcowej części zespołu komorowego. W dobrych praktykach opisu EKG w dokumentacji medycznej załamek U opisuje się wtedy, gdy jest wyraźny, nietypowo wysoki, odwrócony lub zlewa się z załamkiem T, co może utrudniać pomiar odstępu QT. Właśnie dlatego rozumienie, że U pojawia się po T i nie zawsze występuje, pomaga uniknąć błędów przy interpretacji QT i QTc – bo nie wolno „na siłę” dopisywać U tam, gdzie go nie ma. Z mojego doświadczenia w nauce EKG dobrze jest po prostu przyzwyczaić oko: najpierw znaleźć T, a potem sprawdzić, czy po nim nie ma małego, dodatkowego załamka – to będzie właśnie U.

Pytanie 30

Pojawienie się w zapisie EKG patologicznego załamka Q lub QS może wskazywać na

A. blok prawej odnogi pęczka Hisa.
B. blok lewej odnogi pęczka Hisa.
C. bliznę po zawale podwsierdziowym.
D. bliznę po zawale pełnościennym.
Patologiczny załamek Q albo kompleks QS wielu osobom kojarzy się ogólnie z poważnym uszkodzeniem mięśnia sercowego, więc łatwo tu o skrót myślowy w stronę „jakiejś poważnej blokady przewodzenia” albo „każdego typu zawału”. To jest dość typowy błąd. W blokach odnóg pęczka Hisa obraz EKG zmienia się przede wszystkim w obrębie zespołu QRS, ale w inny sposób. W bloku lewej odnogi pęczka Hisa QRS jest szeroki, zwykle ≥ 120 ms, z charakterystycznym kształtem „M” lub „RR'” w odprowadzeniach V5–V6, I, aVL. Często obserwujemy brak prawidłowych małych załamków q w odprowadzeniach bocznych, natomiast nie mówimy tu o patologicznych załamkach Q w sensie blizny pozawałowej, tylko o zaburzeniu sekwencji depolaryzacji komór. Sygnał elektryczny idzie najpierw przez prawą komorę, później przez lewą, stąd ten zniekształcony, szeroki zespół. W bloku prawej odnogi z kolei typowy jest obraz rSR' w V1–V2, szeroki QRS, z poszerzoną końcową częścią zespołu w odprowadzeniach prawokomorowych. Znowu, dominuje zaburzona kolejność pobudzenia komór, a nie utrwalona martwica ściany. Załamek Q w tym kontekście nie jest cechą diagnostyczną bloku prawej odnogi. Kolejna częsta pomyłka to wiązanie patologicznych załamków Q z zawałem podwsierdziowym. Zawał podwsierdziowy, czyli niedokrwienie obejmujące głównie warstwę podwsierdziową, ma zwykle charakter „non-Q”, bez typowych, głębokich załamków Q. W EKG dominuje obniżenie odcinka ST, zmiany załamka T, ale nie powstaje klasyczna blizna transmuralna, która odwraca wektor pobudzenia i daje trwały Q lub QS. Z mojego doświadczenia wynika, że uproszczenie „każdy zawał = załamki Q” jest bardzo mylące. Standardy interpretacji EKG i wytyczne kardiologiczne dość mocno to rozróżniają: patologiczny Q lub QS jest typowy dla przebytego zawału pełnościennego, a nie dla bloków odnóg ani dla zawału ograniczonego do warstw podwsierdziowych. Dlatego przy analizie EKG warto zawsze patrzeć na szerokość QRS, morfologię w konkretnych odprowadzeniach i kontekst kliniczny, zamiast automatycznie łączyć każdy nietypowy kształt z tym samym rozpoznaniem.

Pytanie 31

Na zamieszczonym obrazie TK strzałką zaznaczono zatokę

Ilustracja do pytania
A. czołową w przekroju strzałkowym.
B. szczękową w przekroju strzałkowym.
C. czołową w przekroju czołowym.
D. szczękową w przekroju czołowym.
Na obrazie TK widzisz klasyczny przekrój czołowy (koronalny) przez okolice zatok przynosowych. Świadczy o tym układ struktur: symetrycznie położone oczodoły po obu stronach, przegroda nosa biegnąca pionowo pośrodku oraz charakterystyczny kształt małżowin nosowych. Strzałka wskazuje dużą, powietrzną jamę położoną bocznie i nieco poniżej jamy nosowej – to właśnie zatoka szczękowa. Zatoki czołowe leżałyby znacznie wyżej, nad oczodołami, w obrębie kości czołowej, a tutaj ich po prostu nie widać. W praktyce technik i lekarz radiolog muszą bardzo dobrze rozpoznawać takie przekroje, bo od poprawnej identyfikacji zależy opis zmian zapalnych, torbieli, polipów czy poziomów płynu. W badaniach TK zatok standardem jest wykonywanie serii przekrojów koronalnych, bo najlepiej pokazują drożność kompleksu ujściowo-przewodowego i relacje między zatoką szczękową a jamą nosową. Moim zdaniem warto się „oswoić” z obrazem tej zatoki: położenie bocznie od jamy nosowej, cienka kostna ściana dolna sąsiadująca z korzeniami zębów trzonowych i przedtrzonowych, przyśrodkowa ściana granicząca z małżowinami nosowymi. W praktyce laryngologicznej i stomatologicznej to ma duże znaczenie – np. przy planowaniu podniesienia dna zatoki, implantów czy ocenie powikłań zapaleń okołowierzchołkowych. Dobre rozpoznanie, że jest to zatoka szczękowa w przekroju czołowym, jest więc zgodne z typowym standardem interpretacji badań TK zatok i pokazuje, że prawidłowo orientujesz się w anatomii w obrazowaniu.

Pytanie 32

Powierzchnia gabinetu rentgenowskiego, w którym zainstalowany jest aparat rentgenowski wyposażony w oddzielną lampę, nie może być mniejsza niż

A. 15 m²
B. 18 m²
C. 20 m²
D. 10 m²
Prawidłowo – minimalna powierzchnia gabinetu rentgenowskiego z aparatem z oddzielną lampą to 15 m². Wynika to z przepisów dotyczących pracowni rentgenowskich i ogólnych zasad ochrony radiologicznej. Taka powierzchnia nie jest przypadkowa: pozwala na bezpieczne ustawienie aparatu, lampy, stołu pacjenta, osłon stałych (np. ściany z osłoną ołowianą), a także zapewnia odpowiednią odległość roboczą między źródłem promieniowania a personelem. Przy 15 m² można zachować wymagane odległości geometryczne, tak żeby wiązka pierwotna nie „celowała” w drzwi czy w ściany sąsiadujących pomieszczeń, tylko w odpowiednio zaprojektowaną strefę kontrolowaną. W praktyce w takim gabinecie da się też bezpiecznie manewrować wózkiem, stołem, kasetami lub detektorem cyfrowym, co ma znaczenie przy cięższych pacjentach albo przy urazach. Z mojego doświadczenia, jeśli pracownia jest za mała, zaczynają się kombinacje: trudności z właściwym pozycjonowaniem pacjenta, z utrzymaniem odległości ognisko–błona, większe ryzyko, że część ciała personelu wejdzie w strefę promieniowania rozproszonego. Normy powierzchni są po to, żeby takie sytuacje od razu wyeliminować na etapie projektu. Dobrą praktyką jest też, żeby w projekcie uwzględnić nie tylko te minimalne 15 m², ale trochę zapasu pod ewentualną rozbudowę, dodatkowe osprzętowanie czy modernizację aparatu. W nowoczesnych pracowniach często stosuje się też dodatkowe środki, jak odpowiednie rozmieszczenie pulpitów sterowniczych i szyb ochronnych, ale to wszystko ma sens dopiero wtedy, gdy podstawowy warunek – minimalna powierzchnia gabinetu – jest spełniony. Dlatego odpowiedź 15 m² jest zgodna zarówno z przepisami, jak i zdrowym rozsądkiem pracy w radiologii.

Pytanie 33

Warstwa półchłonna (WP) jest wyrażona w mm Cu dla

A. diagnostyki radiologicznej.
B. medycyny nuklearnej.
C. terapii ortowoltowej.
D. terapii megawoltowej.
Warstwa półchłonna to pojęcie wspólne dla wielu dziedzin wykorzystujących promieniowanie jonizujące, ale kluczowe jest, w jakim materiale i dla jakiego zakresu energii ją określamy. Typowy błąd polega na automatycznym przenoszeniu jednego standardu na wszystkie zastosowania. W medycynie nuklearnej wprawdzie też mówi się o osłonach i tłumieniu, ale tam operuje się głównie radionuklidami emitującymi promieniowanie gamma lub beta i używa się ołowiu, wolframu czy betaglasa, a nie milimetrów miedzi jako standardu HVL. Dodatkowo w medycynie nuklearnej bardziej interesuje nas aktywność, czas połowicznego zaniku i dawka pochłonięta niż klasyczna WP dla wiązki rentgenowskiej. W terapii megawoltowej sytuacja jest jeszcze inna. Dla energii rzędu kilku–kilkunastu MV (akceleratory liniowe) miedź nie jest typowym materiałem referencyjnym do określania warstwy półchłonnej. Charakterystyka wiązki opisuje się raczej przez procentową dawkę głęboką (PDD) albo wskaźniki TPR/TMR, a kontrolę jakości prowadzi się w fantomach wodnych i za pomocą wiązki fotonów wysokoenergetycznych, gdzie rolę materiału odniesienia pełni woda lub tkanka ekwiwalentna. W diagnostyce radiologicznej z kolei HVL jak najbardziej się stosuje, ale standardowo w milimetrach aluminium, nie miedzi. Wynika to z niższych energii wiązki diagnostycznej (zwykle 40–120 kV) i historycznych oraz normatywnych zaleceń, np. w regulacjach dotyczących kontroli jakości aparatów RTG. Mylenie mm Al z mm Cu wynika często z tego, że oba pojęcia występują w literaturze i na szkoleniach obok siebie, ale są przypisane do innych zakresów energii i innych zastosowań. Dobra praktyka w ochronie radiologicznej i radioterapii jest taka, żeby zawsze kojarzyć: ortowolt – mm Cu, diagnostyka – mm Al, megawolt – inne wskaźniki jakości wiązki, a w medycynie nuklearnej głównie ekwiwalentne grubości ołowiu i parametry związane z izotopem, a nie klasyczną WP dla promieniowania rentgenowskiego.

Pytanie 34

Testy podstawowe z zakresu geometrii pola rentgenowskiego, przeznaczone do sprawdzenia zgodności pola wiązki promieniowania rentgenowskiego z symulacją świetlną, są wykonywane raz

A. w miesiącu.
B. w roku.
C. w tygodniu.
D. w kwartale.
W diagnostyce obrazowej bardzo łatwo przecenić albo nie docenić częstości wykonywania testów kontroli jakości. Przy testach geometrii pola rentgenowskiego, czyli sprawdzaniu zgodności pola wiązki z symulacją świetlną, myślenie w stylu „raz w roku wystarczy, przecież aparat ma przegląd serwisowy” jest dość typowym błędem. Przegląd roczny jest ważny, ale dotyczy głównie pełnego serwisu, bezpieczeństwa elektrycznego, kalibracji systemowej. Geometria głowicy, kolimatora, mechaniki stołu i statywu potrafi się delikatnie rozjechać dużo szybciej, chociażby przez codzienną eksploatację, uderzenia, luzowanie się elementów. Gdyby taki test robić tylko raz w roku, to przez wiele miesięcy można by pracować na sprzęcie, który nieprawidłowo wyznacza pole napromieniania, co skutkuje albo niepotrzebnym zwiększeniem napromienianej objętości pacjenta, albo ucięciem istotnych struktur na obrazie. Z drugiej strony zbyt częste testowanie, np. co tydzień, też nie jest rozsądne. To nie jest test dzienny jak sprawdzenie ogólnej sprawności systemu czy prosty test wizualny. Comiesięczny cykl to kompromis między bezpieczeństwem, realnymi możliwościami organizacyjnymi pracowni a stabilnością parametrów geometrycznych współczesnych aparatów RTG. Comiesięczne testy pozwalają wyłapać stopniowe zmiany zanim staną się krytyczne, ale nie blokują pracy zespołu ciągłymi pomiarami. Podobnie mylące jest myślenie o kontroli geometrycznej jako o zadaniu „na kwartał”. Kwartalne odstępy są stosowane raczej przy niektórych testach bardziej stabilnych parametrów, jednak zgodność pola świetlnego i promieniowania jest kluczowa przy każdym badaniu, więc nie powinna być zostawiona bez weryfikacji przez trzy miesiące. Z mojego doświadczenia, jeśli ktoś przyjmuje zbyt rzadkie testy, to zwykle wynika to z niedoceniania wpływu geometrii na dawkę i jakość obrazu. A to właśnie geometra pola decyduje, czy to co na lampie „widzimy”, rzeczywiście jest tym, co napromieniamy. Dlatego poprawnym, zgodnym ze standardami podejściem jest traktowanie tego testu jako badania comiesięcznego, a nie rocznego, kwartalnego czy tygodniowego.

Pytanie 35

Wskazaniem do wykonania badania spirometrycznego jest

A. zapalenie płuc.
B. odma opłucnowa.
C. przewlekła choroba obturacyjna płuc.
D. krwioplucie niejasnego pochodzenia.
Prawidłowo wskazana przewlekła choroba obturacyjna płuc (POChP) to klasyczne i jedno z najważniejszych wskazań do wykonania spirometrii. Spirometria jest podstawowym badaniem czynnościowym układu oddechowego, które pozwala ocenić pojemności i objętości płuc oraz przepływy powietrza w drogach oddechowych. W praktyce klinicznej właśnie dzięki temu badaniu rozpoznaje się obturację, czyli zwężenie dróg oddechowych, typowe dla POChP i astmy. Standardy GOLD oraz wytyczne towarzystw pneumonologicznych bardzo jasno mówią, że rozpoznanie POChP nie powinno być stawiane tylko „na oko”, na podstawie objawów, ale musi być potwierdzone spirometrycznie – typowo przez obniżony wskaźnik FEV1/FVC poniżej wartości granicznej. Z mojego doświadczenia to badanie jest takim „EKG dla płuc” – proste, powtarzalne, a daje masę informacji. U pacjentów z przewlekłym kaszlem, dusznością wysiłkową, nawracającymi infekcjami oskrzelowymi, szczególnie palaczy, spirometria jest absolutnym standardem postępowania. Dzięki niej można nie tylko postawić diagnozę, ale też oceniać stopień zaawansowania choroby, monitorować skuteczność leczenia (np. lekami rozszerzającymi oskrzela) i kontrolować postęp choroby w czasie. W POChP wynik spirometrii ma też znaczenie rokownicze i pomaga ustalić, czy pacjent kwalifikuje się np. do tlenoterapii domowej albo rehabilitacji oddechowej. W dobrej praktyce technik i personel wykonujący spirometrię dba o prawidłowe przygotowanie pacjenta, poprawną technikę dmuchania, powtarzalność prób i interpretację zgodną z normami odniesienia, bo od jakości tego badania zależy cała dalsza diagnostyka i leczenie pacjenta z przewlekłą obturacją.

Pytanie 36

Scyntygrafia kości „whole body” jest wskazana podczas diagnostyki

A. podejrzenia choroby reumatycznej.
B. wad wrodzonych.
C. podejrzenia zmian przerzutów nowotworowych do układu kostnego.
D. osteoporozy.
Prawidłowo wskazana sytuacja kliniczna bardzo dobrze oddaje główne zastosowanie scyntygrafii kości typu „whole body”. Jest to badanie medycyny nuklearnej, w którym dożylnie podaje się radioznacznik wiążący się z tkanką kostną, najczęściej fosfoniany znakowane technetem-99m (np. MDP, HDP), a następnie gammakamera rejestruje jego rozmieszczenie w całym układzie kostnym. Z punktu widzenia praktyki klinicznej, jednym z podstawowych wskazań jest właśnie poszukiwanie przerzutów nowotworowych do kości, np. w raku piersi, raku prostaty, raku płuca czy raku nerki. Przerzuty osteoblastyczne (pobudzające tworzenie kości) dają charakterystyczne ogniska wzmożonego gromadzenia znacznika, często wieloogniskowe, rozsiane po szkielecie. Właśnie dlatego wykonuje się badanie „whole body”, czyli obejmujące cały szkielet, a nie tylko jedną okolicę – bo przerzuty potrafią być odległe od guza pierwotnego i zupełnie bezobjawowe. W standardach onkologicznych scyntygrafia kości jest często badaniem z wyboru przy podejrzeniu zajęcia kośćca, szczególnie gdy rośnie poziom markerów nowotworowych, występują bóle kostne o niejasnej etiologii albo planowana jest duża operacja ortopedyczna i trzeba ocenić stabilność kości. Moim zdaniem ważne jest też zapamiętanie, że scyntygrafia jest bardzo czuła, ale mniej swoista – wykrywa wcześnie zmiany czynnościowe, zanim będą widoczne w RTG, dlatego świetnie nadaje się do „przesiewowego” przeglądu całego układu kostnego w poszukiwaniu przerzutów. W praktyce technika „whole body” to standardowa procedura opisana w wytycznych medycyny nuklearnej i stosowana rutynowo w dużych ośrodkach onkologicznych.

Pytanie 37

W diagnostyce mammograficznej punktowy ucisk sutka stosuje się w projekcji

A. celowanej.
B. dolinowej.
C. bocznej.
D. stycznej.
W diagnostyce mammograficznej nazwy projekcji i technik dodatkowych są dość precyzyjne, dlatego łatwo się pomylić, jeśli kojarzymy je tylko „na czuja”. Punktowy ucisk sutka to nie jest po prostu mocniejsze dociśnięcie piersi w dowolnej projekcji, tylko specyficzna technika stosowana w projekcji celowanej. Polega na użyciu małego, twardego kompresora obejmującego niewielki fragment piersi, a nie całą jej powierzchnię. Częsty błąd myślowy polega na tym, że jak ktoś widzi słowo „boczna” albo „styczna”, to automatycznie kojarzy z bardziej szczegółowym obrazem, więc zakłada, że tam musi być zastosowany punktowy ucisk. Projekcja boczna (true lateral, ML/LM) jest standardową projekcją dodatkową, używaną głównie do lepszego określenia położenia zmiany w wymiarze górno-dolnym oraz do korelacji z projekcją skośną MLO. Kompresja jest tu równomierna na całą pierś, a nie punktowa. Projekcja styczna natomiast służy przede wszystkim do oceny zmian zlokalizowanych bardzo powierzchownie, np. przy skórze, albo do weryfikacji zwapnień związanych ze skórą. Ustawia się pierś tak, by promień praktycznie „muskał” powierzchnię zmiany. Można oczywiście docisnąć pierś, ale to nie jest klasyczny punktowy ucisk w rozumieniu projekcji celowanej. Z kolei określenie „projekcja dolinowa” nie funkcjonuje w standardowej nomenklaturze mammograficznej jako akceptowana technika diagnostyczna – to raczej mylące, potoczne albo po prostu błędne nazewnictwo. W profesjonalnej praktyce, zgodnie z dobrymi standardami pracowni mammograficznych, gdy trzeba doprecyzować niejednoznaczną zmianę, radiolog zleca właśnie projekcję celowaną z kompresją punktową w danym kwadrancie piersi. Pozostałe projekcje mają inne, konkretne zastosowania i nie zastępują tej techniki, bo nie dają takiego stopnia lokalnego „rozpłaszczenia” tkanki i poprawy kontrastu w małym obszarze. Warto więc porządkować sobie w głowie nazwy: boczna – pozycjonowanie całej piersi; styczna – zmiany powierzchowne; celowana – mały obszar + punktowy ucisk.

Pytanie 38

Zwiększenie napięcia na lampie rentgenowskiej powoduje

A. skrócenie fali i zwiększenie przenikliwości promieniowania X
B. wydłużenie fali i zmniejszenie przenikliwości promieniowania X
C. wydłużenie fali i zwiększenie przenikliwości promieniowania X
D. skrócenie fali i zmniejszenie przenikliwości promieniowania X
Prawidłowo – zwiększenie napięcia na lampie rentgenowskiej skraca długość fali promieniowania X i jednocześnie zwiększa jego przenikliwość. Wynika to bezpośrednio z fizyki zjawiska: wyższe napięcie anodowe (kV) nadaje elektronom większą energię kinetyczną. Te szybsze elektrony uderzają w anodę i wytwarzają fotony promieniowania X o wyższej energii. A im wyższa energia fotonu, tym krótsza długość fali (E = h·c/λ) i większa zdolność przenikania przez tkanki pacjenta czy materiały osłonowe. W praktyce radiologicznej oznacza to, że podnosząc kV, uzyskujemy bardziej „twarde” promieniowanie, które lepiej przechodzi przez gęste struktury, np. kości miednicy czy klatkę piersiową u pacjentów o większej masie ciała. Moim zdaniem kluczowe jest kojarzenie: kV = jakość promieniowania (energia, przenikliwość), a mAs = ilość promieniowania (liczba fotonów). W nowoczesnych aparatach RTG standardy pracy i dobre praktyki (np. wytyczne EFRS, europejskie zalecenia dla ekspozycji) mówią jasno: dobiera się możliwie wysokie kV i możliwie niskie mAs, aby zmniejszyć dawkę dla pacjenta, ale jednocześnie zachować odpowiedni kontrast obrazu. Dla zdjęć klatki piersiowej stosuje się zwykle wyższe napięcia (np. 100–125 kV), właśnie po to, żeby promieniowanie miało wysoką przenikliwość i równomiernie „przeszło” przez cały przekrój klatki. Przy badaniach kończyn, gdzie struktury są cieńsze, używa się niższego napięcia, bo nie potrzebujemy aż tak twardego widma. Warto też pamiętać, że zwiększenie kV zmniejsza kontrast tkankowy obrazu (bo wszystko jest bardziej przepuszczalne), ale za to redukuje pochłoniętą dawkę w skórze. W dobrze prowadzonym pracowni RTG technik świadomie balansuje kV i mAs, aby osiągnąć kompromis między jakością diagnostyczną a ochroną radiologiczną. Z mojego doświadczenia to jedna z podstawowych umiejętności w diagnostyce obrazowej – rozumieć, że zmiana napięcia to nie tylko „jaśniej/ciemniej”, ale przede wszystkim zmiana energii i przenikliwości promieniowania.

Pytanie 39

W badaniu PETCT radioizotop ulega

A. rozpadowi β +, emitując pozyton.
B. rozpadowi β -, emitując elektron.
C. rozpadowi γ, emitując pozyton.
D. rozpadowi γ, emitując foton promieniowania.
W pytaniu o PET/CT dość łatwo się pomylić, bo wszystkie odpowiedzi kręcą się wokół promieniowania jonizującego i na pierwszy rzut oka brzmią nawet podobnie. Kluczowy błąd polega zwykle na tym, że myli się różne typy promieniowania: β+, β− i γ. W badaniach PET fundamentem jest emisja pozytonu, czyli rozpadu β+, a nie zwykłe promieniowanie γ ani emisja elektronu. Radioizotopy stosowane w PET, takie jak 18F, 11C, 13N czy 15O, ulegają rozpadowi β+, co oznacza, że w jądrze powstaje pozyton. Ten dodatnio naładowany elektron po bardzo krótkim torze w tkankach anihiluje z elektronem, a efektem są dwa fotony γ o energii 511 keV, lecące prawie w przeciwnych kierunkach. Dopiero te fotony rejestruje detektor PET w koincydencji. To jest bardzo charakterystyczny mechanizm i różni się zasadniczo od tego, co dzieje się np. w klasycznej scyntygrafii. Rozpad β−, z emisją elektronu, jest typowy dla wielu radioizotopów używanych bardziej w terapii (np. 90Y, 131I w aspekcie terapeutycznym) albo w innych zastosowaniach, ale nie stanowi podstawy działania aparatu PET. Elektron emitowany w rozpadzie β− nie daje takiego uporządkowanego, koincydencyjnego sygnału jak para fotonów po anihilacji, więc nie da się na nim zbudować precyzyjnego systemu obrazowania podobnego do PET. To jest częsty błąd myślowy: skoro to też promieniowanie β, to może być użyte tak samo – niestety fizyka tu jest dość bezlitosna. Kolejna pułapka to utożsamianie promieniowania γ z PET wprost. Owszem, w PET rejestrujemy fotony γ, ale one nie pochodzą z prostego „rozpadu γ radioizotopu”, tylko właśnie z anihilacji pozyton–elektron po wcześniejszym rozpadzie β+. Odpowiedzi sugerujące sam rozpad γ pomijają ten kluczowy etap z pozytonem. Rozpad γ jako taki polega na przejściu jądra z pobudzonego stanu do niższego bez zmiany liczby protonów i neutronów, co jest typowe np. dla niektórych znaczników w scyntygrafii (jak 99mTc), ale to już inna technika obrazowa i inny sprzęt (gammakamera, SPECT). Z mojego punktu widzenia warto zapamiętać logiczny schemat: PET = emiter pozytonów (β+) → anihilacja → dwa fotony 511 keV → detekcja koincydencyjna. Jeśli w opisie brakuje pozytonu lub pojawia się elektron β− albo „gołe” promieniowanie γ bez anihilacji, to nie mówimy już o klasycznym mechanizmie PET. Taka świadomość pomaga potem lepiej rozumieć dobór radiofarmaceutyków, zasady bezpieczeństwa oraz różnice między PET, SPECT i innymi metodami medycyny nuklearnej.

Pytanie 40

W systemie międzynarodowym czwarty górny ząb mleczny po stronie prawej oznacza się symbolem

A. 14
B. 84
C. 24
D. 54
Prawidłowa odpowiedź 54 wynika z zasad międzynarodowego systemu oznaczania zębów mlecznych (system FDI/ISO 3950). W uzębieniu mlecznym pierwszy numer oznacza ćwiartkę łuku zębowego, a drugi konkretny ząb w tej ćwiartce, liczony od linii pośrodkowej. Dla zębów mlecznych ćwiartki oznaczamy cyframi 5–8: 5 – górny prawy, 6 – górny lewy, 7 – dolny lewy, 8 – dolny prawy. Skoro pytanie dotyczy czwartego górnego zęba mlecznego po stronie prawej, to: górny prawy łuk mleczny to ćwiartka „5”, a czwarty ząb mleczny w tej ćwiartce ma numer „4”. Razem daje to symbol 54. W praktyce jest to drugi trzonowiec mleczny w szczęce po stronie prawej. W gabinecie stomatologicznym takie oznaczenie stosuje się w kartach pacjenta, opisach zdjęć RTG, przy planowaniu leczenia zachowawczego czy protetycznego. Moim zdaniem warto od razu kojarzyć: 51–52–53–54–55 to komplet mlecznych zębów w górnej prawej ćwiartce, od siekacza przyśrodkowego do drugiego trzonowca. W diagnostyce radiologicznej poprawne oznaczenie ma duże znaczenie, bo pozwala uniknąć pomyłek, np. przy opisie próchnicy, zawiązków zębów stałych czy przy kwalifikacji do ekstrakcji. W standardach FDI przyjmuje się, że ten system jest uniwersalny, dlatego dobrze go mieć „w ręku”, bo jest stosowany w dokumentacji międzynarodowej, w programach komputerowych (PACS, systemy stomatologiczne) i w wymianie danych między placówkami.