Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 1 maja 2026 23:36
  • Data zakończenia: 1 maja 2026 23:42

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Który zabieg wymusza naprzemienną pracę mięśni zginaczy i prostowników poprzez stymulację mięśni impulsem prądowym?

A. Sonoforeza.
B. Jonoforeza.
C. Dializa.
D. Tonoliza.
Tonoliza to bardzo specyficzny zabieg fizykalny, który wykorzystuje impulsy prądu do stymulowania pracy mięśni zginaczy oraz prostowników – dokładnie naprzemiennie. Chodzi o to, żeby pobudzać mięśnie w odpowiedniej sekwencji, co prowadzi do ich aktywizacji i poprawy koordynacji ruchowej. W praktyce najczęściej stosuje się ją przy porażeniach spastycznych, np. po udarach czy urazach, kiedy mięśnie mają tendencję do patologicznego napięcia lub osłabienia. Moim zdaniem niesamowite jest to, jak dobrze dobrany impuls może „przypomnieć” mięśniom ich naturalną funkcję. Standardy fizjoterapii mówią o takim podejściu jako bardzo korzystnym w rehabilitacji neurologicznej – bo zamiast biernego rozciągania czy masażu, tutaj mięsień ćwiczy aktywnie, nawet jeśli pacjent sam nie jest w stanie wykonać ruchu. Spotkałem się z sytuacjami, gdzie systematyczna tonoliza naprawdę przyspieszała powrót do sprawności, szczególnie u osób po udarze. Fajne jest również to, że zabieg można zindywidualizować: ustalasz parametry impulsu, czas trwania, kolejność, wszystko pod konkretnego pacjenta. Warto dodać, że w odróżnieniu od innych zabiegów prądowych, tutaj duży nacisk kładzie się właśnie na ruch naprzemienny – nie tylko pobudzanie jednego mięśnia, ale pełny cykl pracy antagonisty i agonisty. Według mnie, to świetna opcja, kiedy zależy nam na funkcjonalnej poprawie ruchu, a nie tylko na zmniejszeniu bólu czy obrzęku.

Pytanie 2

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. UKG
B. KTG
C. EOG
D. EEG
EEG, czyli elektroencefalografia, to rzeczywiście zapis elektrycznej aktywności mózgu, który wykorzystuje się w wielu dziedzinach, od neurologii po psychologię. W praktyce wygląda to tak, że na skórę głowy pacjenta nakłada się elektrody, które rejestrują zmiany potencjałów elektrycznych powstających podczas pracy neuronów w mózgu. Wynik tego badania to wykres fal mózgowych – takich jak alfa, beta, delta czy theta. Najczęściej EEG stosuje się przy diagnostyce padaczki, śpiączek, różnych zaburzeń snu albo nawet przy sprawdzaniu głębokości narkozy. Moim zdaniem to jedno z bardziej uniwersalnych narzędzi we współczesnej medycynie – nieinwazyjne, szybkie i naprawdę często ratuje skórę, gdy diagnoza jest niejasna. Fachowcy trzymają się przy tym określonych wytycznych – jak np. systemu 10-20 do rozmieszczania elektrod na głowie, żeby wyniki były powtarzalne i wiarygodne. Z mojego doświadczenia wynika też, że coraz częściej EEG łączy się z nowymi technikami analizy danych, jak machine learning, co otwiera kolejne drzwi do lepszego rozumienia pracy mózgu. No i warto dodać, że skrót EEG to już światowy standard, więc w każdym szpitalu czy laboratorium rozumieją, o co chodzi.

Pytanie 3

Zasilacz, który podczas normalnej pracy zasila urządzenie, jednocześnie ładując akumulator, a podczas awarii zasilania sieciowego zasila urządzenie z akumulatora, oznaczany jest skrótem

A. UPS
B. UEFI
C. UTP
D. UDP
UPS, czyli Uninterruptible Power Supply, to według mojej opinii jedno z tych urządzeń, które każdy kto poważnie myśli o bezpieczeństwie sprzętu IT powinien znać jak własną kieszeń. Główną zaletą UPS-a jest to, że działa on praktycznie niezauważalnie podczas normalnej pracy – urządzenie jest zasilane z sieci, a akumulatory doładowują się w tle. Dopiero jak zniknie napięcie – czy to z powodu awarii, czy zwykłego przepięcia, UPS przełącza się automatycznie na zasilanie z akumulatora i zapewnia ciągłość pracy. Ta funkcja to podstawa w serwerowniach, laboratoriach, ale też w domowych biurach – przecież nikt nie chce stracić niedokończonego projektu przez nagły zanik prądu. Z mojego doświadczenia, nawet najprostsze UPS-y typu offline potrafią uratować niejedną prezentację czy egzamin online. W praktyce branżowej bardzo często spotykamy różne typy UPS-ów: offline, line-interactive czy online (double conversion), każdy z nich inny pod względem czasu przełączenia czy jakości napięcia wyjściowego. Warto pamiętać, że dobór właściwego UPS-a to nie tylko kwestia mocy, ale też ilości i rodzaju podłączonych urządzeń, czasu podtrzymania i jakości filtracji. Standardy takie jak PN-EN 62040 czy wytyczne organizacji IEEE pokazują, na co zwracać uwagę przy projektowaniu zasilania awaryjnego. Szczerze mówiąc – bez UPS-a ciężko mówić o poważnym podejściu do ochrony sprzętu i danych.

Pytanie 4

Przedstawiony na rysunku kolimator stanowi część

Ilustracja do pytania
A. tomografu komputerowego.
B. sztucznego płuco-serca.
C. sztucznej nerki.
D. pompy infuzyjnej.
Kolimator, który pokazano na rysunku, to kluczowy element wykorzystywany w tomografii komputerowej. Działa on jak bardzo precyzyjna przesłona, przepuszczając tylko te promienie rentgenowskie, które biegną w określonych kierunkach. Pozwala to ograniczyć rozproszenie promieniowania i poprawić ostrość uzyskiwanych obrazów. Z mojego doświadczenia wynika, że dobre ustawienie kolimatora to podstawa w codziennej pracy technika radiologii – bez tego uzyskanie wiarygodnych przekrojów ciała jest praktycznie niemożliwe. W praktyce klinicznej kolimatory pozwalają nie tylko polepszyć jakość obrazu, ale też zmniejszyć dawkę promieniowania dla pacjenta, co jest zgodne z zasadą ALARA (as low as reasonably achievable). W tomografii komputerowej stosuje się zarówno kolimatory wejściowe przy lampie, jak i wyjściowe przy detektorach. To rozwiązanie jest standardem w diagnostyce obrazowej, a odpowiednie dobranie szerokości wiązki rzutuje na jakość rekonstrukcji i możliwość wykrycia drobnych zmian chorobowych. Moim zdaniem, świadomość roli kolimatorów przydaje się nie tylko w pracy w szpitalu, ale nawet podczas rozmów z lekarzami o możliwych artefaktach na obrazie.

Pytanie 5

Na którym rysunku przedstawiony jest interfejs zapewniający najwyższą prędkość transferu urządzeń elektroniki medycznej?

A. Rysunek 1
Ilustracja do odpowiedzi A
B. Rysunek 4
Ilustracja do odpowiedzi B
C. Rysunek 2
Ilustracja do odpowiedzi C
D. Rysunek 3
Ilustracja do odpowiedzi D
Rysunek 2 przedstawia symbol USB SuperSpeed, czyli USB 3.0 lub wyższe. Moim zdaniem to właśnie ten standard wprowadził ogromny skok technologiczny, bo umożliwił transfery rzędu nawet do 5 Gbit/s (a w nowszych wersjach jeszcze więcej). To przełom w zastosowaniach profesjonalnych, gdzie często pracuje się z dużymi plikami – na przykład w medycynie, gdzie przesył obrazów czy wyników badań musi być nie tylko szybki, ale też niezawodny. Jeżeli ktoś kiedykolwiek przenosił duże pliki MRI przez zwykłe USB 2.0, to wie, jak długo to potrafi trwać… Standard SS (SuperSpeed) został specjalnie zaprojektowany, by sprostać wymaganiom nowoczesnych urządzeń, także tych z zakresu elektroniki medycznej. Co ciekawe, coraz częściej spotyka się jeszcze szybsze wersje, jak USB 3.1 czy 3.2, ale już sam symbol SS gwarantuje wielokrotnie wyższą przepustowość niż wcześniejsze technologie USB. Dla mnie – i też według branżowych norm – to obecnie absolutna podstawa w sprzęcie wymagającym niezawodnego i szybkiego transferu danych.

Pytanie 6

Do badań ultrasonograficznych struktur płytko położonych (np. tarczycy) stosuje się głowicę

A. sektorową.
B. konweksową.
C. liniową.
D. rektalną.
W badaniach ultrasonograficznych struktur płytko położonych, takich jak tarczyca, zdecydowanie najlepiej sprawdza się głowica liniowa. Wynika to przede wszystkim z jej specyficznej konstrukcji – liniowy układ piezoelektryczny umożliwia uzyskanie bardzo wysokiej rozdzielczości obrazowania w zakresie kilku centymetrów od powierzchni skóry. Moim zdaniem, to właśnie ta precyzja jest kluczowa, bo tarczyca czy naczynia powierzchowne wymagają dokładnych pomiarów i detekcji nawet drobnych zmian strukturalnych. Liniowa głowica emituje fale ultradźwiękowe pod kątem prostym do powierzchni skóry, co pozwala na uzyskanie szczegółowego obrazu przekroju poprzecznego badanej tkanki. Standardem w diagnostyce chorób tarczycy oraz w ocenie węzłów chłonnych szyi jest właśnie użycie głowicy liniowej o częstotliwości minimum 7,5 MHz, choć często stosuje się nawet wyższe, bo powyżej 10 MHz, jeśli sprzęt pozwala. Z mojego doświadczenia – jeśli tylko operator korzysta z wysokiej klasy głowicy liniowej, łatwiej mu wykryć nawet bardzo niewielkie guzki czy mikrozwapnienia. Warto też pamiętać, że ta sama głowica bywa wykorzystywana w diagnostyce zmian skórnych, naczyniowych czy nawet w ocenie mięśni i ścięgien. To taka uniwersalna głowica do płytko położonych struktur – praktycznie nieoceniona w gabinecie USG. Przykładowo, większość zaleceń Polskiego Towarzystwa Ultrasonograficznego jasno wskazuje głowicę liniową jako bazową w tych zastosowaniach. Takie rozwiązanie pozwala na uzyskanie obrazu o najwyższej dostępnej jakości powierzchniowej, co finalnie przekłada się na lepszą diagnostykę i komfort pracy.

Pytanie 7

Jakiego typu papier należy zastosować w aparacie elektrokardiograficznym?

A. Termoczuły.
B. Samokopiujący.
C. Litograficzny.
D. Światłoczuły.
Papier termoczuły to absolutny standard w pracy z elektrokardiografem. Wynika to z samej zasady działania większości współczesnych EKG – zapis odbywa się nie na zasadzie nanoszenia tuszu, tylko przez termiczną zmianę barwy papieru pod wpływem specjalnych głowic grzewczych. W praktyce oznacza to, że użycie innego rodzaju papieru, np. zwykłego lub światłoczułego, całkowicie uniemożliwiłoby rejestrację sygnału. Na papierze termoczułym widać precyzyjne odwzorowanie krzywej EKG, a drobne szczegóły, takie jak załamki i odstępy, są zachowane zgodnie z wymaganiami diagnostycznymi. Warto też wiedzieć, że papier taki jest skalibrowany i pokryty siatką milimetrową, co ułatwia odczyt i analizę wyników. W szpitalach i przychodniach nie wyobrażam sobie stosowania innego rozwiązania, bo cała aparatura jest do tego przystosowana. Często widzę, że nowi technicy próbują używać tańszych zamienników, ale kończy się to zwykle błędami odczytu albo uszkodzeniem urządzenia. W dokumentacji każdego nowoczesnego EKG znajdziemy zalecenie stosowania papieru termicznego zgodnego z normą IEC 60601-2-25, co gwarantuje prawidłowy przebieg rejestracji i archiwizacji. Moim zdaniem, jeśli ktoś poważnie myśli o pracy z EKG, powinien przywiązywać dużą wagę nie tylko do jakości aparatu, ale i do jakości oraz zgodności papieru, bo to od tego w dużej mierze zależy czytelność i wiarygodność zapisu.

Pytanie 8

Symbole: 1U, 2U, 3U stosowane do oznaczenia modułów w szafach typu rack określają

A. miejsce montażu modułu w szafie.
B. ilość urządzeń danego typu umieszczonych na stelażu 19-calowym.
C. ilość slotów zajmowanych przez moduł w szafie.
D. kolejność umieszczania modułów w slotach.
Oznaczenia takie jak 1U, 2U czy 3U od lat są wykorzystywane w branży IT i telekomunikacyjnej do jednoznacznego określenia wielkości modułów czy urządzeń przeznaczonych do montażu w szafach rackowych. To wszystko wywodzi się ze standardu EIA-310, który definiuje „U” jako wysokość jednostkową równą dokładnie 44,45 mm. Czyli jak coś ma 1U, to zajmie jeden taki „slot” – 44,45 mm wysokości w szafie rackowej. Jak urządzenie oznaczone jest jako 2U, to po prostu potrzebuje dwa takie sloty, czyli 88,9 mm. To bardzo praktyczne, bo pozwala na łatwą kalkulację ile faktycznego miejsca potrzebujemy pod konkretne urządzenia serwerowe, przełączniki czy zasilacze awaryjne. Moim zdaniem, to jeden z tych standardów, które naprawdę ułatwiają życie – nie trzeba się domyślać czy sprzęt się zmieści, wszystko jest jasne już na etapie projektowania. Dobre praktyki mówią, żeby zawsze brać pod uwagę wysokość w U już przy planowaniu rozbudowy i zakupie nowego sprzętu, bo łatwo potem o ścisk i bałagan w szafie. Dodatkowo warto pamiętać, że samo „U” dotyczy tylko wysokości – szerokość typowo wynosi 19 cali (standard rackowy), ale są też szafy 23-calowe, chociaż te spotyka się rzadziej. Spotkanie w opisie sprzętu wartości „3U” oznacza po prostu, że będzie on wymagał trzech jednostek wysokości w standardowej szafie rack, co jest kluczowe przy zarządzaniu przestrzenią w serwerowni czy rozdzielni.

Pytanie 9

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 15
B. 24
C. 13
D. 10
Standardowe badanie EKG w 12 odprowadzeniach faktycznie wymaga użycia 10 elektrod. Sześć z nich umieszcza się na klatce piersiowej (przedsercowe, czyli V1-V6), a kolejne cztery stanowią elektrody kończynowe – po jednej na każdym z kończyn: prawe ramię, lewe ramię, prawa noga i lewa noga. Co ciekawe, mimo że odprowadzeń jest dwanaście, nie oznacza to, że tyle samo musi być elektrod. To, jakby nie patrzeć, jeden z częstszych błędów na praktykach – wiele osób myśli, że liczba odprowadzeń równa się ilości elektrod. W praktyce to właśnie z tych dziesięciu punktów pomiarowych aparat generuje 12 różnych odprowadzeń, korzystając z kombinacji sygnałów między elektrodami. Można to porównać trochę do matematycznych kombinacji – z tych kilku punktów zbiera się bardzo rozbudowaną informację o pracy serca z różnych stron. Takie postępowanie opisują wytyczne Polskiego Towarzystwa Kardiologicznego oraz międzynarodowe standardy, np. American Heart Association, więc dobrze się tego trzymać. Moim zdaniem warto od razu zapamiętać rozmieszczenie elektrod – nie tylko dla testów, ale w praktyce zawodowej to podstawa bezpiecznego i prawidłowego wykonania badania EKG. Z mojego doświadczenia, im więcej się ćwiczy takie układanie elektrod, tym szybciej i sprawniej idzie potem w codziennej pracy. Na marginesie: czasem spotyka się systemy z większą liczbą elektrod, np. do monitorowania Holtera albo badań bardziej zaawansowanych, ale klasyczny 12-odprowadzeniowy EKG to zawsze 10 elektrod – i tego warto się trzymać.

Pytanie 10

Stężenie którego gazu z wydychanego powietrza prezentuje kapnogram?

Ilustracja do pytania
A. N₂O
B. O₂
C. CO₂
D. H
Kapnogram to wykres, który pokazuje zmiany stężenia dwutlenku węgla (CO₂) w wydychanym powietrzu podczas oddychania. To bardzo praktyczne narzędzie, szczególnie w anestezjologii i intensywnej terapii, bo pozwala niemal natychmiast zauważyć wszelkie nieprawidłowości w wentylacji pacjenta. Moim zdaniem, właśnie kapnografia, czyli analiza gazu oddechowego pod kątem CO₂, jest jednym z najważniejszych monitorów bezpieczeństwa podczas znieczulenia – nie tylko informuje, czy pacjent oddycha, ale też podpowiada, czy intubacja się powiodła. Z kapnogramu można odczytać np. ETCO₂, czyli końcowo-wydechowe stężenie CO₂ – norma to 35-45 mmHg. Warto wiedzieć, że zmiany w kształcie kapnogramu, np. spadek wartości albo nagłe zniknięcie wykresu, mogą świadczyć o rozłączeniu układu oddechowego lub zatrzymaniu krążenia. Według wytycznych European Society of Anaesthesiology, kapnografia powinna być standardowo stosowana podczas każdej znieczulenia ogólnego. Niektórzy mylą kapnogram z wykresem O₂, ale to zupełnie inna bajka – tlen mierzy się innymi metodami. Pomiar N₂O również się wykonuje, zwłaszcza przy użyciu podtlenku azotu w znieczuleniu, ale nie przez kapnografię. W praktyce klinicznej, szybkie i precyzyjne oznaczanie CO₂ jest kluczowe dla oceny perfuzji płuc, wentylacji i metabolizmu.

Pytanie 11

Który przyrząd należy wybrać celem sprawdzenia poprawnej prędkości transmisji danych na łączu RS232 urządzenia elektroniki medycznej?

A. Amperomierz.
B. Oscyloskop.
C. Woltomierz.
D. Multimetr.
Oscyloskop to chyba jeden z tych przyrządów, których nie da się niczym zastąpić, jeśli chodzi o analizę sygnałów cyfrowych na łączach takich jak RS232. Dlaczego właśnie on? Bo tylko oscyloskop pokaże nam rzeczywisty przebieg sygnału na linii: zobaczysz na żywo impulsy, czasy trwania bitów, a nawet zakłócenia czy odbicia na przewodach. To jest mega przydatne, bo sama deklarowana prędkość transmisji (np. 9600 bps) nie zawsze zgadza się z faktycznym sygnałem – zdarzają się uszkodzenia linii lub źle skonfigurowany sprzęt. Moim zdaniem, w branży medycznej, gdzie dokładność i niezawodność transmisji danych jest kluczowa, oscyloskop daje pewność, że wszystko działa jak trzeba. Często nawet na szkoleniach technicznych podkreśla się, żeby nie ufać tylko ustawieniom software’owym czy deklaracjom producenta, tylko faktycznie mierzyć sygnał na wyjściu. Spotkałem się z sytuacjami, gdzie urządzenie deklarowało 115200 bps, a na oscyloskopie widać było, że długości bitów „pływają” – komputer gubił komunikaty i nikt nie wiedział dlaczego, dopóki nie podpięliśmy oscyloskopu. Oprócz tego, oscyloskop pozwala na szybkie wykrycie zakłóceń, które potrafią być zgubne dla transmisji – szczególnie w środowisku szpitalnym pełnym różnych zakłócaczy elektromagnetycznych. Dodatkowo, zgodnie ze standardem RS232, poziomy napięć i czas trwania impulsów muszą być w określonych granicach. Oscyloskop pozwala to wszystko zweryfikować dosłownie w kilka minut, czego nie da się zrobić innym sprzętem pomiarowym. Z mojego doświadczenia, dobra praktyka to zawsze sprawdzić przebieg przed pierwszym uruchomieniem systemu lub po naprawach.

Pytanie 12

Która tkanka najsilniej pochłania fale ultradźwiękowe?

A. Mięśniowa.
B. Kostna.
C. Nerwowa.
D. Nabłonkowa.
Tkanka kostna wyróżnia się na tle innych tkanek bardzo dużą zdolnością pochłaniania fal ultradźwiękowych. Wynika to głównie z jej gęstości oraz znacznej zawartości minerałów, przede wszystkim hydroksyapatytu, który jest wyjątkowo skuteczny w tłumieniu energii akustycznej. To właśnie dlatego podczas badań ultrasonograficznych lekarze napotykają trudności z oceną struktur znajdujących się bezpośrednio za kością — ultradźwięki są bowiem przez nią w dużej mierze pochłaniane i rozpraszane. W praktyce medycznej wiedza o właściwościach pochłaniania ultradźwięków przez tkanki jest bardzo istotna, na przykład przy planowaniu diagnoz czy zabiegów obrazowania. Z mojego doświadczenia wynika, że wiele osób myli tkankę mięśniową z kostną, bo mięśnie też wydają się dość solidne, ale jednak to kość jest najbardziej nieprzenikalna dla ultradźwięków. Nie bez powodu w fizyce medycznej przyjmuje się, że kość stanowi naturalną barierę dla fal ultradźwiękowych, co zresztą wykorzystywane jest np. w leczeniu urazów za pomocą terapii ultradźwiękowej — parametry urządzeń dobiera się, mając na uwadze silne tłumienie przez kości. Warto pamiętać, że ta cecha tkanki kostnej wyraźnie wpływa na dobór technik obrazowania w medycynie i jest wskazywana w literaturze jako kluczowa przy interpretacji wyników USG. Takie zjawisko tłumienia to nie jest tylko ciekawostka — to konkretna wiedza operacyjna, która pozwala na uniknięcie błędów diagnostycznych w codziennej pracy.

Pytanie 13

W sygnale elektrokardiograficznym za repolaryzację mięśnia komór odpowiada załamek

Ilustracja do pytania
A. T
B. R
C. Q
D. P
Załamek T w zapisie EKG to sygnał repolaryzacji mięśnia komór, czyli moment, kiedy komórki mięśnia sercowego wracają do swojego spoczynkowego potencjału elektrycznego po fazie skurczu. Praktycznie patrząc – taka repolaryzacja jest absolutnie kluczowa, bo bez niej komórki nie byłyby przygotowane do kolejnego pobudzenia i cały rytm serca by się rozjechał. Na przykład w codziennej pracy ratownika medycznego szybkie rozpoznanie zaburzeń załamka T może sugerować niedokrwienie serca czy nawet świeży zawał, co zmienia zupełnie dalsze postępowanie – to nie są żarty, czasami sekundy decydują o życiu. W podręcznikach i normach – zarówno polskich, jak i międzynarodowych – podkreśla się, żeby zawsze oceniać morfologię i wielkość załamka T, bo jego zmiany bywają pierwszym objawem poważnych patologii (np. hiperkaliemii, niedokrwienia). Moim zdaniem warto nauczyć się rozróżniać te fazy, bo praktyka pokazuje, że błędy w identyfikacji załamka T prowadzą do złej interpretacji EKG, a przez to do błędów klinicznych. Zresztą, nawet w literaturze podkreślają, że repolaryzacja komór (załamek T) to ten moment, na który trzeba szczególnie uważać np. przy analizie rytmów komorowych czy monitorowaniu pacjentów po lekach wpływających na QT.

Pytanie 14

Na zdjęciu RTG najjaśniejsze pole stanowi tkanka kostna, przez którą promieniowanie rentgenowskie jest

Ilustracja do pytania
A. przenikane.
B. odbijane.
C. rozpraszane.
D. absorbowane.
Odpowiedź dotycząca absorpcji promieniowania rentgenowskiego przez tkankę kostną w zdjęciu RTG jest jak najbardziej trafna. W praktyce medycznej jasne pola na zdjęciu oznaczają miejsca, gdzie promieniowanie zostało silnie pochłonięte, a nie przeniknęło do kliszy czy detektora cyfrowego. Kość, ze względu na wysoką zawartość wapnia i gęstość, skutecznie blokuje przechodzenie promieniowania, co sprawia, że na obrazie RTG te obszary są wyraźnie jaśniejsze w porównaniu do tkanek miękkich czy powietrza. To właśnie absorpcja jest kluczowym zjawiskiem, które umożliwia lekarzom ocenę stanu układu kostnego, wykrywanie złamań, zmian zwyrodnieniowych czy innych patologii. Moim zdaniem, zrozumienie tego mechanizmu jest absolutnie podstawą dla każdego, kto chce pracować w radiologii – bez tej wiedzy trudno o skuteczną analizę zdjęć. Standardy światowe, jak chociażby zalecenia Polskiego Lekarskiego Towarzystwa Radiologicznego, podkreślają znaczenie interpretacji różnic pochłaniania promieniowania. Często spotyka się sytuacje, gdzie osoby początkujące mylą absorpcję z odbiciem lub rozproszeniem, co prowadzi do nieprawidłowych wniosków diagnostycznych. W praktyce każdy technik czy lekarz radiolog powinien zwracać uwagę na gęstość i strukturę danego obszaru zdjęcia, żeby uniknąć pomyłek i zapewnić pacjentowi najwyższy standard diagnostyki.

Pytanie 15

Największą zdolność pochłaniania promieniowania rentgenowskiego o energii 60–160 keV wykazuje tkanka

A. mięśniowa.
B. kostna.
C. tłuszczowa.
D. nerwowa.
Tkanka kostna rzeczywiście wykazuje największą zdolność pochłaniania promieniowania rentgenowskiego w zakresie energii 60–160 keV. Wynika to przede wszystkim z jej dużej gęstości oraz zawartości pierwiastków o wysokiej liczbie atomowej, jak wapń i fosfor. To właśnie dzięki temu kości na zdjęciach RTG są tak wyraźnie widoczne jako białe struktury – pochłaniają bardzo dużo promieniowania, które nie przechodzi przez nie do detektora. Moim zdaniem właśnie ta cecha jest jednym z kluczowych powodów, dla których badania radiologiczne są tak pomocne w diagnostyce złamań czy zmian zwyrodnieniowych. W praktyce radiologicznej zawsze zwraca się uwagę na kontrast tkanek – im większa różnica w pochłanianiu promieniowania, tym łatwiej wykryć zmiany patologiczne. Często też podczas planowania ekspozycji ustawiamy odpowiednie parametry energii lampy rentgenowskiej właśnie pod kątem uzyskania jak najlepszego obrazu kości. Standardy branżowe, np. zalecenia Polskiego Towarzystwa Radiologicznego, wyraźnie opisują, że energia promieniowania powinna być dobrana do badanej okolicy anatomicznej. Co ciekawe, w stomatologii czy ortopedii wykorzystuje się tę właściwość, żeby dokładniej ocenić stan mineralizacji kości, a nawet wykrywać bardzo drobne urazy. Z mojego doświadczenia wynika, że zrozumienie tej zasady ułatwia większość typowych zadań praktycznych związanych z obsługą aparatu RTG.

Pytanie 16

Promieniowanie IR jest wykorzystywane w

A. hydroterapii.
B. radioterapii.
C. krioterapii.
D. termoterapii.
Promieniowanie podczerwone, czyli IR, to naprawdę ciekawy temat w kontekście fizykoterapii. Termoterapia właśnie opiera się na wykorzystaniu ciepła, które pozwala na zwiększenie ukrwienia tkanek, rozluźnienie mięśni oraz przyspieszenie procesów regeneracyjnych. Promieniowanie IR wnika w głąb skóry, nawet kilka milimetrów, co wywołuje efekt cieplny. Takie zabiegi stosuje się chociażby w leczeniu przewlekłych bólów stawowych, przykurczów mięśniowych czy urazów. Moim zdaniem, jest to jedna z bardziej skutecznych i zarazem bezpiecznych metod wspomagania leczenia – praktycznie nie wywołuje skutków ubocznych, jeśli tylko przestrzega się zaleceń. W wielu gabinetach fizjoterapii można spotkać lampy Sollux, które emitują właśnie podczerwień. Co ciekawe, istnieją różne typy promieniowania IR, ale w fizjoterapii najczęściej używa się pasma IR-A i IR-B, które są dobrze pochłaniane przez skórę. Standardy branżowe zalecają, by tego typu zabiegi wykonywać pod kontrolą specjalisty, bo nie dla każdego jest to wskazane – np. osoby z aktywnym stanem zapalnym albo nowotworami powinny unikać promieniowania IR. Z mojego doświadczenia wynika, że pacjenci bardzo doceniają uczucie ciepła i często szybciej wracają do sprawności. Termoterapia z użyciem IR jest więc nie tylko praktyczna, ale też zgodna z najnowszymi wytycznymi w rehabilitacji.

Pytanie 17

Prezentacja A, B, M jest charakterystyczna dla badania

A. USG
B. NMR
C. MRJ
D. RTG
Prezentacja A, B, M to coś, co chyba każdy, kto miał styczność z ultrasonografią, kiedyś widział lub choćby o tym słyszał. To są trzy zasadnicze tryby obrazowania w USG, czyli ultrasonografii – bardzo powszechnej i w sumie podstawowej techniki obrazowania w medycynie diagnostycznej. Tryb A (amplitudowy) jest dziś raczej rzadko spotykany w codziennej praktyce, ale nadal się go używa np. w okulistyce czy pomiarach głębokości tkanek. Tryb B (jasność, brightness) to ten najpopularniejszy – właściwie każde typowe badanie USG jamy brzusznej, tarczycy czy narządów miednicy jest właśnie w trybie B. To ten obraz szaro-biały, który lekarz ogląda na ekranie. Natomiast tryb M (od motion – ruch) pozwala śledzić ruchome struktury, np. pracę zastawek serca, dlatego jest wykorzystywany w echokardiografii. Co ciekawe, to właśnie te tryby stanowią podstawę do zaawansowanych badań Dopplerowskich, które często wykorzystuje się do oceny przepływu krwi. W codziennej praktyce bardzo ważne jest, żeby rozumieć, czym się różnią i kiedy się ich używa, bo czasami dobór nieodpowiedniego trybu może utrudnić prawidłową diagnostykę. Moim zdaniem, każdy technik czy lekarz powinien znać te podstawy, bo bez nich ani rusz – to taka trochę „tabliczka mnożenia” w diagnostyce obrazowej. Przykładowo, w trybie M często bada się np. frakcję wyrzutową serca. No i jak się spojrzy na standardy EFSUMB czy Polskiego Towarzystwa Ultrasonograficznego, to znajomość tych trybów to absolutna podstawa praktyki.

Pytanie 18

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Zmniejsza próg odczuwania bólu.
B. Zwiększa napięcie mięśni szkieletowych.
C. Zmniejsza przepływ krwi tętniczej.
D. Przyśpiesza procesy przemiany materii.
Promieniowanie podczerwone (IR) ma dość ciekawe zastosowania zarówno w medycynie, jak i w przemyśle. Najważniejsze jest to, że IR powoduje lokalny wzrost temperatury tkanek, co bezpośrednio wpływa na przyśpieszenie procesów przemiany materii w komórkach – właśnie ta odpowiedź jest prawidłowa. Moim zdaniem, to jeden z lepszych przykładów na to, jak fizyka spotyka się z biologią w praktyce. Jeżeli pomyślimy o naświetlaniu IR w fizykoterapii, to zauważymy, że tego typu zabiegi są wykorzystywane chociażby do poprawy regeneracji po urazach, bo podniesienie temperatury miejscowej przyspiesza metabolizm i napływ substancji odżywczych oraz usuwanie produktów przemiany materii. Branżowe standardy, np. w fizjoterapii, przypisują IR właśnie takie działanie – działanie przyspieszające metabolizm, poprawiające ukrwienie i ogólnie wspierające procesy naprawcze. Nawet w codziennym życiu, kiedy korzystamy z sauny na podczerwień, odczuwamy podniesioną temperaturę skóry i przyspieszone tętno – to wszystko efekty przyspieszonej przemiany materii. Warto pamiętać, że stosowanie IR wymaga zachowania środków ostrożności, bo nadmierne nagrzewanie może prowadzić do poparzeń. Z mojego doświadczenia, te efekty są szczególnie zauważalne przy zabiegach na osoby z przewlekłymi napięciami mięśniowymi, gdzie podczerwień realnie wspiera regenerację. W literaturze branżowej często podkreśla się ten aspekt, więc zdecydowanie warto znać praktyczne zastosowania promieniowania IR.

Pytanie 19

W dokumentacji testera aparatury medycznej podano następujące informacje:

  • Kompatybilny z technologiami: Lown, Edmark, trapezową, dwufazową oraz impulsową-dwufazową
  • Kompatybilny z technologią AED
  • Dokładność pomiarowa ±1% plus 0,1 J

Tester ten służy do sprawdzania parametrów pracy
A. defibrylatora.
B. manometru.
C. elektrokardiografu.
D. elektroencefalografu.
Wybór defibrylatora jako poprawnej odpowiedzi wynika bezpośrednio z opisanych cech testera. W dokumentacji wymieniono kompatybilność z różnymi technologiami defibrylacji, takimi jak Lown, Edmark, trapezowa, dwufazowa i impulsowa-dwufazowa oraz AED. To typowe określenia stosowane właśnie w technologii defibrylatorów – w praktyce nie spotyka się ich przy innych urządzeniach medycznych jak manometry czy EKG. Współczesne defibrylatory wykorzystują rozmaite przebiegi impulsów, a tester musi precyzyjnie mierzyć energię wyładowania, by zapewnić bezpieczeństwo pacjenta i skuteczność terapii. Informacja o dokładności pomiaru energii (±1% oraz 0,1 J) też jest jednoznacznie powiązana z testowaniem sprzętu do defibrylacji – zgodnie z normą PN-EN 60601-2-4, która dotyczy defibrylatorów medycznych, kalibracja i kontrola energii wyładowań to kluczowy element rutynowej obsługi technicznej. Moim zdaniem taka wiedza jest nie do przecenienia w pracy technika i serwisanta medycznego, bo od rzetelnej kontroli defibrylatorów zależy bezpieczeństwo pacjentów w nagłych sytuacjach. W zakładach opieki zdrowotnej regularność i jakość testów defibrylatorów jest przedmiotem licznych audytów i przeglądów. Co ciekawe, same testery bywają też używane podczas szkoleń dla personelu – można na nich symulować różne typy wyładowań. Z mojego doświadczenia warto zapamiętać, że prawidłowa eksploatacja i okresowa weryfikacja parametrów defibrylatora jest podstawą skutecznej resuscytacji i minimalizuje ryzyko awarii sprzętu w krytycznych momentach.

Pytanie 20

Wybierz narzędzie służące do zamocowania przedstawionej na rysunku końcówki kompresyjnej F na kablu koncentrycznym.

Ilustracja do pytania
A. Narzędzie 3
Ilustracja do odpowiedzi A
B. Narzędzie 1
Ilustracja do odpowiedzi B
C. Narzędzie 4
Ilustracja do odpowiedzi C
D. Narzędzie 2
Ilustracja do odpowiedzi D
Narzędzie oznaczone jako numer 4 to praska kompresyjna, która jest wręcz niezbędna do poprawnego zamocowania końcówki kompresyjnej F na kablu koncentrycznym. Takie złącza, szczególnie w instalacjach telewizyjnych lub CCTV, wymagają bardzo precyzyjnego i trwałego połączenia – tylko wtedy sygnał będzie stabilny i nie będzie zakłóceń. Z mojego doświadczenia wynika, że użycie profesjonalnej praski kompresyjnej nie tylko przyspiesza montaż, ale też eliminuje problem poluzowania się złącza po czasie, czego często nie da się uniknąć przy innych metodach. Narzędzia tego typu pozwalają dokładnie docisnąć tuleję złącza na przewodzie, co gwarantuje hermetyczność i wytrzymałość mechaniczną połączenia. Warto pamiętać, że przy montażu końcówek kompresyjnych nie sprawdzi się żadna zwykła zaciskarka czy kombinowane rozwiązania – standardy branżowe (np. wytyczne SCTE czy normy branży telekomunikacyjnej) wręcz nakazują używanie odpowiednich narzędzi dedykowanych do złączy kompresyjnych. Prawidłowo zaciśnięte złącze nie tylko zapewnia dobrą transmisję sygnału, ale też chroni przed wilgocią i uszkodzeniami mechanicznymi – na to zawsze zwracam uwagę przy odbiorach instalacji.

Pytanie 21

Do pomiaru częstotliwości rezonansowej generatora kwarcowego w kardiotokografii należy zastosować

A. fluksometr.
B. amperomierz.
C. falomierz.
D. oscyloskop.
Oscyloskop to naprawdę podstawowe i niezastąpione narzędzie w pomiarach związanych z elektroniką, zwłaszcza kiedy trzeba sprawdzić częstotliwość rezonansową generatora kwarcowego, na przykład w aparacie do kardiotokografii. Taki generator kwarcowy pracuje w określonym, bardzo stabilnym zakresie częstotliwości, co jest kluczowe dla dokładności pomiarów medycznych – serce płodu daje bardzo subtelne sygnały, więc nie można pozwolić sobie na żadne przekłamania. Oscyloskop pozwala na bezpośrednią obserwację przebiegów napięciowych oraz na dokładny pomiar okresu i amplitudy sygnału. Dzięki funkcji wyzwalania można „zamrozić” powtarzający się sygnał i spokojnie policzyć jego częstotliwość, nawet jeśli sygnał jest bardzo szybki albo o niewielkiej amplitudzie. W praktyce, jeśli podłączysz generator do oscyloskopu, wystarczy odpowiednio ustawić podstawę czasu i zobaczysz na ekranie przebieg prostokątny lub sinusoidalny, zależnie od konstrukcji generatora. Potem już tylko szybki pomiar okresu i masz gotową częstotliwość. Z mojego doświadczenia, przy pracy w serwisie sprzętu medycznego, dokładność i wygoda, jaką daje oscyloskop, biją na głowę inne metody – szczególnie że można jednocześnie ocenić czystość sygnału i ewentualne zakłócenia. W profesjonalnej diagnostyce czy kalibracji sprzętu nikt nawet nie rozważa innych narzędzi do tego celu, bo tak naprawdę tylko oscyloskop daje te wszystkie informacje na raz. Warto jeszcze pamiętać, że w nowoczesnych oscyloskopach cyfrowych masz dodatkowo możliwość automatycznego pomiaru częstotliwości, co bardzo przyspiesza pracę i eliminuje ryzyko błędu.

Pytanie 22

Do kruszenia kamieni w pęcherzu moczowym stosowane są fale

A. radiowe.
B. ultrafioletowe.
C. infradźwiękowe.
D. ultradźwiękowe.
Fale ultradźwiękowe to absolutna podstawa w nowoczesnym leczeniu kamicy pęcherza moczowego. Chodzi oczywiście o tzw. litotrypsję falą uderzeniową (z ang. ESWL), czyli procedurę wykorzystującą precyzyjnie skierowane fale ultradźwiękowe o wysokim natężeniu. Ich energia pozwala dosłownie rozbijać kamienie na drobne fragmenty, które potem naturalnie są usuwane z organizmu wraz z moczem. To rozwiązanie jest nieinwazyjne, co moim zdaniem jest ogromnym plusem – pacjent nie wymaga operacji, minimalizuje się ryzyko powikłań, a rekonwalescencja jest bardzo szybka. W praktyce często widzi się, że chorzy wracają do normalnej aktywności wręcz błyskawicznie. Uważam, że to technologia, która naprawdę pokazuje, jak medycyna potrafi sprytnie wykorzystać prawa fizyki. Warto też pamiętać, że ultradźwięki są szeroko stosowane nie tylko w urologii – np. diagnostyka USG czy leczenie przewlekłych schorzeń układu mięśniowego. Branżowe standardy zalecają stosowanie tej metody w przypadkach, gdy kamienie nie są zbyt duże ani zbyt twarde i nie zalegają w miejscach trudno dostępnych dla fali. Czasami litotrypsję łączy się z innymi technikami, ale ultradźwięki to taki pierwszy wybór. Z mojej perspektywy to naprawdę przełomowa metoda i warto ją dobrze rozumieć, bo coraz częściej pojawia się w praktyce klinicznej.

Pytanie 23

Materiałem eksploatacyjnym w drukarce laserowej jest

Ilustracja do pytania
A. pojemnik z tuszem.
B. kaseta z tonerem.
C. papier termotransferowy.
D. taśma barwiąca.
Kaseta z tonerem to podstawowy materiał eksploatacyjny w drukarkach laserowych i to jest fakt, którego nie da się przeskoczyć. W praktyce działa to tak, że toner, czyli taki drobny, suchy proszek, jest nanoszony na papier za pomocą wałka światłoczułego i utrwalany termicznie. Co ciekawe, w branży IT i serwisu biurowego, wymiana kasety tonerowej to najczęściej wykonywana czynność serwisowa przy drukarce laserowej. Moim zdaniem warto zapamiętać, że dobór odpowiedniego tonera (oryginalnego lub zamiennika) realnie wpływa na jakość wydruku, żywotność drukarki oraz minimalizuje ryzyko awarii. Praktyka pokazuje, że oryginalne tonery, zgodnie z zaleceniami producentów (np. HP, Brother, Canon), gwarantują lepszą wydajność i mniejsze zapylenie wnętrza urządzenia. Warto też wiedzieć, że kaseta z tonerem to nie tylko sam proszek, ale często cała zintegrowana jednostka z elementami odpowiedzialnymi za równomierne rozprowadzanie tonera, co jest zgodne z obecnymi standardami branżowymi. Jednym słowem, bez tego materiału drukarka laserowa zwyczajnie nie wydrukuje ani jednej strony. Z mojego doświadczenia, jeśli ktoś planuje eksploatować drukarkę laserową intensywnie, optymalizacja kosztów i dobrze dobrane tonery to podstawa sprawnej pracy biura.

Pytanie 24

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. wolnozmiennych.
B. mięśniowych 25 Hz.
C. mięśniowych 35 Hz.
D. sieciowych.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 25

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. KTG
B. EMG
C. RTG
D. EKG
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.

Pytanie 26

Na rysunku przedstawiono urządzenie z dodatkową kartą pamięci. Który rodzaj karty może zostać zastosowany w urządzeniu?

Ilustracja do pytania
A. Micro SIM
B. SD
C. SIM
D. Micro SD
Wybrałeś micro SD i to jest trafiony wybór, bo właśnie takie karty są najczęściej stosowane w urządzeniach przenośnych, jak smartfony, tablety czy aparaty cyfrowe. Z mojego doświadczenia wynika, że micro SD to taki złoty standard wśród rozszerzeń pamięci – są małe, pojemne i bardzo uniwersalne. Karty typu micro SD spełniają standardy SD Association, co gwarantuje kompatybilność z większością nowych urządzeń. W praktyce, pozwalają przechowywać zdjęcia, filmy, aplikacje czy nawet całe kopie zapasowe systemu. Warto wiedzieć, że dobre praktyki branżowe zalecają korzystanie z kart micro SD renomowanych producentów, bo podróbki potrafią sprawiać masę problemów – od utraty danych po uszkodzenie sprzętu. Współczesne karty micro SD obsługują różne klasy prędkości (np. UHS-I, UHS-II), a to ma spore znaczenie, jeśli pracujesz z nagraniami wideo w wysokiej rozdzielczości albo często przenosisz pliki. Moim zdaniem, jeśli ktoś myśli o rozbudowie pamięci, micro SD to przemyślany i elastyczny wybór, który daje sporo swobody, nie generując przy tym dużych kosztów. Niektórzy mylą pojęcia, bo sloty mogą wyglądać podobnie do slotów SIM, ale karty micro SD są dedykowane tylko do przechowywania danych, nie mają nic wspólnego z obsługą sieci GSM. Ważne też, żeby nie zapominać o bezpiecznym wyjmowaniu karty – to niby banał, ale niewłaściwe wyjmowanie może skutkować utratą plików. Takie szczegóły właśnie robią różnicę między amatorskim, a profesjonalnym podejściem do sprzętu.

Pytanie 27

Przepływ przez organizm człowieka prądów o wysokiej częstotliwości, mających zastosowanie w elektrochirurgii, może powodować

A. cięcie lub koagulację tkanki.
B. skurcz mięśni.
C. zaburzenia przewodnictwa w nerwach.
D. zaburzenie pracy serca.
Prawidłowa odpowiedź, bo właśnie prądy o wysokiej częstotliwości w elektrochirurgii zostały stworzone głównie po to, by ciąć i koagulować tkanki, nie powodując przy tym bezpośrednich, groźnych efektów pobudzenia mięśni czy zakłóceń pracy serca. To jest dość sprytne rozwiązanie, bo dzięki temu lekarze mogą bezpiecznie przecinać albo zespalać naczynia i inne struktury podczas zabiegów. Prąd HF (czyli high frequency, powyżej 300 kHz) nie wywołuje klasycznych efektów elektrofizjologicznych jak np. skurcze mięśni, bo komórki nerwowe i mięśniowe nie nadążają reagować na tak szybkie zmiany. Zamiast tego energia zamienia się miejscowo w ciepło, co pozwala uzyskać efekt cięcia (przy dużej mocy i krótkim czasie) lub koagulacji (przy mniejszej mocy i dłużej trwającym impulsie). Moim zdaniem to jedna z ciekawszych technologii w praktyce medycznej, bo pozwala ograniczyć krwawienie i przyspieszyć zabiegi – niejednokrotnie widziałem, jak chirurg dzięki elektrokauterowi szybciej zamyka naczynia. Z punktu widzenia bezpieczeństwa, większość urządzeń spełnia normy PN-EN 60601-2-2, które określają właśnie zasady użytkowania sprzętu HF w chirurgii. Warto też pamiętać, że zastosowanie tych prądów wymaga szczególnej ostrożności przy pracy w pobliżu implantów czy urządzeń elektronicznych u pacjenta.

Pytanie 28

Zaćma fotochemiczna jest wywoływana promieniowaniem

A. VIS
B. UV-B
C. UV-A
D. IR-C
Zaćma fotochemiczna to taki typ uszkodzenia soczewki oka, który jest wywoływany przez długotrwałe lub intensywne narażenie na promieniowanie ultrafioletowe, głównie w zakresie UV-A. To właśnie ten zakres fal elektromagnetycznych (320–400 nm) przenika najgłębiej do oka i może powodować zmiany w strukturze białek soczewki, prowadząc do jej zmętnienia. Stosunkowo mało osób zdaje sobie sprawę, że zwykłe przebywanie na słońcu bez odpowiedniej ochrony oczu przez wiele lat, nawet poza tropikami, może wywołać takie zmiany. W praktyce zawodowej, na przykład w branży spawania czy pracy w laboratoriach, stosuje się specjalne okulary ochronne, które blokują UV-A, bo właśnie to pasmo jest najbardziej podstępne – nie czujemy go, a uszkodzenia pojawiają się powoli. Zgodnie z zaleceniami BHP oraz wytycznymi międzynarodowymi (np. normy EN 166, EN 170) ochrona oczu przed UV-A jest uznawana za absolutny standard. Moim zdaniem, warto też wiedzieć, że UV-B ma bardziej powierzchniowe działanie i powoduje głównie oparzenia rogówki, natomiast UV-A dociera głębiej. Wielu okulistów zwraca uwagę, że świadomość tej zależności pozwala lepiej dbać o wzrok – dobre okulary przeciwsłoneczne powinny mieć filtr UV-A, nie tylko UV-B. Ja zawsze staram się wybierać takie, które wyraźnie mają oznaczenie 100% UV, bo to daje największe bezpieczeństwo. Warto to zapamiętać, szczególnie jeśli pracujesz dużo na zewnątrz albo wykonujesz prace w warunkach dużej ekspozycji na światło.

Pytanie 29

Z ekranu urządzenia wynika, że pełni ono między innymi funkcję

Ilustracja do pytania
A. elektromiografu.
B. kapnografu.
C. kardiotokografu.
D. elektroencefalografu.
Odpowiedź wskazująca na kapnograf jest absolutnie prawidłowa. Kapnograf to urządzenie medyczne służące do monitorowania stężenia dwutlenku węgla (CO2) w wydychanym powietrzu pacjenta. Na ekranie bardzo wyraźnie widać charakterystyczną krzywą kapnograficzną (oznaczoną jako CO2), która odzwierciedla zmiany poziomu CO2 podczas cyklu oddechowego. W praktyce klinicznej, kapnografia jest używana przede wszystkim na oddziałach intensywnej terapii, podczas zabiegów anestezjologicznych czy nawet ratownictwie medycznym do oceny wentylacji pacjenta. Jest to standard monitorowania podczas znieczulenia ogólnego – zgodnie z wytycznymi chociażby European Society of Anaesthesiology. Moim zdaniem, znajomość działania kapnografu to ogromny atut, bo pozwala szybciej wychwycić groźne sytuacje, jak np. niedrożność dróg oddechowych albo nieprawidłową wentylację. Dla mnie osobiście to jedno z najbardziej praktycznych narzędzi codziennej pracy bloku operacyjnego. Warto też wiedzieć, że parametry takie jak EtCO2 (końcowo-wydechowe stężenie CO2) są kluczowe dla oceny jakości resuscytacji czy skuteczności intubacji.

Pytanie 30

Które urządzenie medyczne wspomaga lub zastępuje mięśnie pacjenta w oddychaniu?

A. Kapnograf.
B. Saturator.
C. Pulsoksymetr.
D. Respirator.
Respirator to zdecydowanie jedno z najważniejszych urządzeń medycznych stosowanych na oddziałach intensywnej terapii, blokach operacyjnych czy nawet w transporcie medycznym. Jego główne zadanie polega na mechanicznym wspomaganiu lub wręcz zastępowaniu funkcji oddychania u pacjentów, którzy nie są w stanie samodzielnie zapewnić odpowiedniej wentylacji płuc. Moim zdaniem bez respiratora nowoczesna medycyna ratunkowa praktycznie nie mogłaby funkcjonować – szczególnie w sytuacjach takich jak niewydolność oddechowa, urazy klatki piersiowej, poważne infekcje płuc czy też znieczulenie ogólne podczas operacji. Respiratory umożliwiają precyzyjne ustawienie parametrów takich jak objętość oddechowa, częstotliwość oddechu, ciśnienie końcowo-wydechowe albo stężenie tlenu w mieszaninie oddechowej, co jest absolutnie kluczowe dla indywidualnego dostosowania terapii do stanu pacjenta. Współczesne standardy, jak np. wytyczne European Society of Intensive Care Medicine, kładą nacisk na personalizację wentylacji mechanicznej, żeby minimalizować ryzyko powikłań takich jak barotrauma czy uszkodzenie płuc. W praktyce spotkałem się z sytuacjami, kiedy odpowiednie zastosowanie respiratora dosłownie ratowało życie – np. u pacjentów po zatrzymaniu akcji serca czy z ciężkim COVID-19. Warto pamiętać, że obsługa respiratora wymaga solidnej wiedzy i regularnych szkoleń, bo nieprawidłowe ustawienia mogą pogorszyć stan chorego. Ciekawostka: nowoczesne respiratory potrafią nawet automatycznie dostosowywać parametry do zmieniających się potrzeb pacjenta.

Pytanie 31

Urządzenie, którego dotyczy fragment podanej specyfikacji, jest przystosowane do

■ Architektura sieci LAN:Wireless IEEE 802.11ac, Wireless IEEE 802.11a, Wireless IEEE 802.11b, Wireless IEEE 802.11g, Wireless IEEE 802.11n
■ Dodatkowe informacje:PoE, RJ-45 Serial
■ Typ urządzenia:Bezprzewodowy kontroler
■ Typ złącza anteny zewnętrznej:3x3 MIMO
A. pracy ze złączem światłowodowym.
B. wymiany danych z wykorzystaniem technologii Bluetooth.
C. parowania urządzeń przy pomocy standardu NFC.
D. korzystania z pojedynczego przewodu do transmisji danych i zasilania urządzenia.
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje funkcjonalność opisanego urządzenia. W specyfikacji wyraźnie podano, że urządzenie obsługuje PoE (Power over Ethernet), a to jest właśnie technologia pozwalająca na jednoczesną transmisję danych oraz zasilanie poprzez jeden przewód Ethernetowy (RJ-45). Moim zdaniem to rozwiązanie jest bardzo praktyczne wszędzie tam, gdzie nie ma możliwości poprowadzenia osobnej instalacji elektrycznej, np. w biurach, na halach produkcyjnych czy w szkołach. W branży sieciowej PoE jest już właściwie standardem przy wdrażaniu punktów dostępowych Wi-Fi, kamer IP czy telefonów VoIP. Dzięki temu ogranicza się liczbę przewodów, zmniejsza ryzyko błędów instalacyjnych oraz obniża koszty całej infrastruktury. Warto też dodać, że PoE ma różne warianty (np. PoE, PoE+, PoE++), które różnią się mocą dostarczaną do urządzenia. Oprócz wygody, PoE daje też większą elastyczność przy modernizacjach sieci – można łatwiej zmienić lokalizację urządzenia bez konieczności przekładania instalacji elektrycznej. Z mojego doświadczenia wynika, że jeśli dostajesz urządzenie z PoE i RJ-45, to praktycznie zawsze oznacza to możliwość transmisji danych oraz zasilania przez jeden przewód – i to jest właśnie kluczowa przewaga tej technologii nad bardziej tradycyjnymi rozwiązaniami.

Pytanie 32

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. γ
B. e
C. β
D. α
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 33

Do pomiaru objętości i pojemności płuc w różnych fazach cyklu oddechowego służy

A. saturator.
B. spirometr.
C. respirator.
D. kapnometr.
Spirometr to w praktyce podstawowe narzędzie w diagnostyce funkcji układu oddechowego – bez niego ani rusz w pracowni pulmonologicznej czy na oddziale szpitalnym. Za jego pomocą można dokładnie zmierzyć objętość powietrza wdychanego i wydychanego przez płuca oraz określić pojemności w różnych fazach cyklu oddechowego, takich jak wdech spokojny, wydech maksymalny czy pojemność życiowa płuc. Moim zdaniem, jeśli ktoś myśli o pracy w ochronie zdrowia, to powinien wiedzieć, że spirometria jest jednym z najbardziej podstawowych i jednocześnie uniwersalnych badań. Sami lekarze często powtarzają, że to taki 'EKG dla płuc' – szybkie, bezpieczne i dające mnóstwo informacji o stanie układu oddechowego. Dzięki spirometrowi wychwytuje się nie tylko przewlekłą obturacyjną chorobę płuc (POChP), ale też astmę czy różne zaburzenia wentylacji. Zresztą, nawet sportowcy czy osoby pracujące w trudnych warunkach czasem muszą przejść badanie spirometryczne, żeby ocenić wydolność oddechową. Z mojego doświadczenia, korzystanie ze spirometru nie jest trudne, choć trzeba pamiętać o odpowiedniej kalibracji sprzętu i prawidłowym przygotowaniu pacjenta, bo każdy błąd może zafałszować wynik. Standardy branżowe, takie jak zalecenia Polskiego Towarzystwa Chorób Płuc czy wytyczne GOLD, jasno podkreślają, że spirometria to złoty standard w ocenie objętości płuc oraz pojemności życiowej. Fajne jest też to, że nowoczesne spirometry potrafią automatycznie analizować wyniki i wyłapywać błędy pomiarowe.

Pytanie 34

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. EKG.
B. EEG.
C. oddechu.
D. ciśnienia krwi.
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 35

W dokumentacji skanera zapisano „rozdzielczość optyczna 600 x 600 [dpi]”. Skrót dpi określa liczbę punktów

A. na cal.
B. szerokości dokumentu.
C. wysokości dokumentu.
D. na cm.
Dpi to skrót od „dots per inch”, co w bezpośrednim tłumaczeniu oznacza „liczba punktów na cal”. To taki techniczny wskaźnik, który bardzo często stosuje się w grafice komputerowej, drukarkach i oczywiście skanerach. W praktyce, im większa liczba dpi, tym urządzenie potrafi uchwycić (albo wydrukować) więcej szczegółów na danym odcinku długości jednego cala. Standardowy cal to 2,54 cm, co czasami bywa mylące, bo niektórzy próbują przeliczać dpi na centymetry, ale to nie jest ta sama jednostka. Weźmy na przykład taki skaner o rozdzielczości 600x600 dpi – oznacza to, że w jednym calu w pionie i poziomie urządzenie rozróżnia aż 600 punktów. To właśnie dlatego skany są ostre, a detale dobrze widoczne. Warto pamiętać, że na rynku sprzętu biurowego i poligraficznego przyjęło się właśnie operowanie jednostką dpi, nie na centymetry czy milimetry, bo jest to uniwersalne i pozwala łatwiej porównywać różne urządzenia. Z mojego doświadczenia wynika, że sporo nieporozumień wśród początkujących wynika z pomieszania tych jednostek – a tak naprawdę dpi funkcjonuje od dekad i jest właściwie standardem branżowym. Jeśli na przyszłość będziesz miał do czynienia z drukiem albo digitalizacją dokumentów, to dpi zawsze będzie odnosiło się do ilości punktów na cal. To taki niepisany „język” technologii obrazu.

Pytanie 36

W urządzeniu medycznym wyznaczono charakterystykę filtru jak na rysunku. Jest to filtr

A. górnoprzepustowy o częstotliwości granicznej 20 Hz.
B. górnoprzepustowy o częstotliwości granicznej 25 Hz.
C. dolnoprzepustowy o częstotliwości granicznej 20 Hz.
D. dolnoprzepustowy o częstotliwości granicznej 25 Hz.
To jest właśnie solidna odpowiedź, która pokazuje dobre zrozumienie działania filtrów w układach elektronicznych – zwłaszcza w medycynie. Filtr dolnoprzepustowy przepuszcza sygnały o częstotliwościach niższych niż częstotliwość graniczna, tłumiąc te wyższe. W praktyce, taka konfiguracja jest często używana w aparaturze EKG, EEG czy nawet w niektórych układach monitorujących parametry życiowe, żeby odfiltrować zakłócenia z sieci czy artefakty ruchowe. Częstotliwość graniczna 20 Hz jest typowa np. dla filtracji sygnałów EKG, gdzie zależy nam na zachowaniu najważniejszych informacji o pracy serca, a jednocześnie na zredukowaniu szumów wysokoczęstotliwościowych. Z mojego doświadczenia, projektanci zawsze zwracają uwagę, by nie ustawiać tej granicy za nisko, bo wtedy zginą pewne ważne składowe sygnału. To też warto wiedzieć, że wybór częstotliwości granicznej wynika nie tylko ze specyfikacji urządzenia, ale też z norm międzynarodowych, np. PN-EN 60601-2-25 w przypadku EKG. Tego typu filtry można realizować analogowo (np. prosty filtr RC) albo cyfrowo, zależnie od konstrukcji sprzętu. Branżowym standardem jest też, by każda charakterystyka takiego filtra była udokumentowana, właśnie po to, by lekarz wiedział, jakie informacje z sygnału zostaną zachowane. Moim zdaniem, umiejętność rozpoznania typu filtra na podstawie wykresu to absolutna podstawa dla każdego technika czy inżyniera elektroniki medycznej.

Pytanie 37

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 kₖW
B. 10 W
C. 10 MW
D. 10 kW
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 38

Na zdjęciu przedstawiono

Ilustracja do pytania
A. głowicę USG.
B. lampę SOLLUX.
C. elektrodę AED.
D. sondę TOCO.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 39

Ilość jodu-131 podana pacjentowi w terapii tarczycy zmniejszy się o połowę po

A. 17 godzinach.
B. 8 dniach.
C. 12 miesiącach.
D. 30 minutach.
Izotop jodu-131 (I-131) to radioizotop stosowany najczęściej w leczeniu chorób tarczycy, zwłaszcza w terapii nadczynności tarczycy czy raka tarczycy. Jego kluczową cechą, która decyduje o wykorzystaniu w medycynie, jest stosunkowo krótki czas połowicznego rozpadu – wynosi około 8 dni. To oznacza, że po upływie 8 dni od podania pacjentowi połowa dawki I-131 ulegnie rozpadowi, a więc przestanie być aktywna biologicznie. W praktyce klinicznej precyzyjne wyliczenie czasu połowicznego rozpadu jest niezwykle ważne, bo pozwala lekarzom określić, jak długo pacjent pozostaje źródłem promieniowania i kiedy można bezpiecznie wrócić do codziennej aktywności. Moim zdaniem, odpowiednie zarządzanie czasem kontaktu pacjenta z innymi osobami po podaniu jodu-131 to taka podstawa bezpieczeństwa radiologicznego. Zwraca się też uwagę na fakt, że właściwe planowanie dawek i okresów karencji pozwala maksymalizować skuteczność leczenia, a zarazem minimalizować narażenie osób trzecich. W radiologii medycznej takie dane podaje się w każdej charakterystyce produktu, bo stanowią one podstawę do wyliczania dawek kumulacyjnych i planowania powtórnej terapii. Dość istotne jest też to, że czas połowicznego rozpadu wpływa bezpośrednio na okres przechowywania materiałów radioaktywnych – odpady z terapii jodem-131 muszą być przechowywane aż do momentu, gdy ich aktywność spadnie do poziomu uznawanego za bezpieczny. Warto wiedzieć, że inne radioizotopy mają zupełnie inne czasy połowicznego rozpadu i właśnie dlatego I-131 jest tak popularny w leczeniu tarczycy – jego czas jest optymalny, żeby skutecznie działać, ale nie kumulować się nadmiernie w organizmie. Z mojego doświadczenia wynika, że wielu ludzi myli czas połowicznego rozpadu z całkowitym zanikiem radioaktywności, a to przecież nie to samo. Właśnie z tego powodu odpowiedź „8 dni” jest najbardziej trafna i zgodna z praktyką kliniczną.

Pytanie 40

Membrana półprzepuszczalna jest podstawowym elementem

A. pompy infuzyjnej.
B. nebulizatorów.
C. dializatora krwi.
D. respiratorów.
Membrana półprzepuszczalna to taki trochę cichy bohater całego procesu hemodializy. W dializatorze krwi jej zadaniem jest dokładnie oddzielić składniki krwi od płynu dializacyjnego – tak, żeby toksyny, mocznik czy nadmiar elektrolitów mogły swobodnie przechodzić, a większe cząsteczki, na przykład białka czy komórki, pozostały po właściwej stronie. Moim zdaniem bez dobrze dobranej membrany półprzepuszczalnej nie da się zapewnić skutecznego oczyszczania krwi, a to kluczowe dla osób z niewydolnością nerek. Co ciekawe, materiał i mikrostruktura tej membrany są projektowane tak, by zoptymalizować przepływ i selektywność – branża medyczna zwraca na to ogromną uwagę, bo chodzi o bezpieczeństwo pacjenta. W nowoczesnych dializatorach bardzo często stosuje się membrany z wysokoprzepuszczalnych polimerów, dzięki czemu usuwanie toksyn jest jeszcze skuteczniejsze, a ryzyko przenikania niepożądanych substancji minimalizowane. Z doświadczenia mogę powiedzieć, że te membrany to nie tylko fizyczna bariera – to właściwie kluczowy element całego urządzenia, od którego wszystko zależy. W praktyce na oddziałach dializacyjnych personel zawsze sprawdza, czy membrana nie jest uszkodzona, bo jakakolwiek nieszczelność może mieć poważne konsekwencje. Standardy branżowe, np. ISO 8637, dokładnie opisują wymagania dla takich membran, co dodatkowo podnosi poziom bezpieczeństwa. Dla mnie, jeśli ktoś myśli o profesjonalnej obsłudze sprzętu medycznego, to zrozumienie roli membrany półprzepuszczalnej jest absolutną podstawą.