Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 28 kwietnia 2026 18:10
  • Data zakończenia: 28 kwietnia 2026 18:19

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na rysunku przedstawiono badanie za pomocą

Ilustracja do pytania
A. densytometru.
B. higrometru.
C. pulsoksymetru.
D. manometru.
Na zdjęciu widzimy pulsoksymetr – to niewielkie urządzenie, które w praktyce medycznej jest absolutnym standardem do nieinwazyjnego pomiaru saturacji krwi (czyli nasycenia hemoglobiny tlenem) oraz tętna pacjenta. Bardzo często spotyka się go nie tylko na oddziałach szpitalnych, ale i w ambulansach czy nawet w domowej opiece nad pacjentami przewlekle chorymi. Pulsoksymetr działa na zasadzie analizy pochłaniania fal świetlnych o dwóch długościach – podczerwieni i czerwieni – przechodzących przez naczynia włosowate w palcu. Stężenie tlenu w hemoglobinie wpływa na sposób pochłaniania światła, a precyzyjna elektronika zamienia te różnice na łatwą do odczytania wartość procentową. To w zasadzie niezbędne narzędzie w monitoringu osób z chorobami układu oddechowego, przy COVID-19, w anestezjologii, a również w ratownictwie. Moim zdaniem każdy, kto choć trochę interesuje się praktyczną medycyną albo pracuje w branży zdrowotnej, powinien nawet taki sprzęt mieć pod ręką – szczególnie że pomiar jest szybki, bezbolesny i pozwala na błyskawiczną reakcję w przypadku pogorszenia stanu pacjenta. Dobre praktyki sugerują, by zawsze sprawdzić poprawność działania urządzenia i prawidłowe założenie na palec – źle umieszczony pulsoksymetr może dać błędne odczyty, a to już poważny problem w diagnostyce.

Pytanie 2

Pod wpływem bodźca świetlnego, dźwiękowego lub czuciowego mózg generuje elektryczne potencjały wywołane rejestrowane przez

A. ERG
B. EEG
C. EOG
D. EKG
Podanie, że EEG rejestruje potencjały wywołane generowane przez mózg pod wpływem bodźców, to naprawdę solidna odpowiedź. Elektroencefalografia (EEG) jest podstawowym narzędziem w neurofizjologii, pozwalającym obserwować zmiany elektryczne aktywności mózgu, szczególnie w odpowiedzi na bodźce świetlne, dźwiękowe czy czuciowe. W praktyce klinicznej i badawczej EEG wykorzystuje się przy diagnostyce padaczki, zaburzeń snu, czy nawet podczas oceny funkcji mózgu u pacjentów nieprzytomnych. Z mojego doświadczenia w laboratoriach EEG najważniejszym standardem jest stosowanie międzynarodowego układu 10-20 do rozmieszczania elektrod na czaszce – to podstawa, żeby pomiary były powtarzalne i porównywalne. Potencjały wywołane (ang. evoked potentials, EP) to konkretna część sygnału EEG – wyodrębnia się je przez wielokrotne powtarzanie bodźca i uśrednianie odpowiedzi, co pozwala wyłapać subtelne zmiany elektryczne układu nerwowego. To naprawdę ciekawe, jak wyraźnie można zobaczyć reakcję mózgu np. na błysk światła czy krótki dźwięk, a takie pomiary są dziś standardem nie tylko w neurologii, ale także w psychologii eksperymentalnej i medycynie pracy. Moim zdaniem warto umieć rozróżniać te techniki – na rynku pracy to ogromny atut, bo EEG z potencjałami wywołanymi jest wręcz codziennym narzędziem w wielu laboratoriach i szpitalach.

Pytanie 3

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. pewnymi.
B. zastrzeżonymi.
C. publicznymi.
D. chronionymi.
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 4

Zaćma fotochemiczna jest wywołana promieniowaniem

A. IR-C
B. UV-A
C. VIS
D. UV-B
Zaćma fotochemiczna to temat, który moim zdaniem warto dobrze zrozumieć, zwłaszcza jeśli myśli się o pracy w zawodach narażonych na promieniowanie optyczne. Chodzi tu o to, że soczewka oka jest wyjątkowo wrażliwa na promieniowanie ultrafioletowe, a szczególnie na zakres UV-A (czyli fale o długości 315-400 nm). To właśnie ekspozycja na UV-A, nawet w stosunkowo niskich dawkach, ale przez dłuższy czas, prowadzi do zmian fotochemicznych w białkach soczewki. W rezultacie mogą pojawiać się zmętnienia – to jest właśnie zaćma fotochemiczna. Przykładem mogą być osoby pracujące na świeżym powietrzu przez wiele lat bez odpowiednich okularów ochronnych – np. rolnicy, spawacze czy pracownicy budowlani. Sztandarowe normy BHP, takie jak PN-EN 14255 czy wytyczne Europejskiego Towarzystwa Zaćmy i Chirurgii Refrakcyjnej, podkreślają konieczność stosowania filtrów UV właśnie w zakresie UV-A. W praktyce, stosując dobre okulary przeciwsłoneczne z filtrem UV-A, można znacznie ograniczyć ryzyko zaćmy. Mało kto pamięta, że popularne lampy żarowe UV do utwardzania lakierów czy dezynfekcji również generują UV-A i tam ochrona oczu to podstawa. Ciekawostka: promieniowanie UV-B i UV-C też bywa szkodliwe, ale dla soczewki zdecydowanie najgroźniejsze w kontekście zaćmy jest UV-A, głównie przez głębokość penetracji w tkankach oka. Dlatego w branży optycznej i medycznej mówi się jasno – UV-A to wróg soczewki.

Pytanie 5

W dokumentacji sieci centralnego monitoringu zapisano, że sieć jest wykonana w standardzie 802.11 Do montażu takiej sieci są wymagane urządzenia wykorzystujące

A. Bluetooth.
B. Ethernet.
C. WiFi.
D. Token ring.
Standard 802.11 to nic innego jak specyfikacja techniczna dla sieci bezprzewodowych, znanych powszechnie jako WiFi. W praktyce oznacza to, że jeśli ktoś w dokumentacji wspomina o sieci wykonanej zgodnie z 802.11, to od razu można założyć, że mowa o połączeniach bezprzewodowych, gdzie transmisja danych odbywa się za pomocą fal radiowych. Z mojego doświadczenia wynika, że w centralnym monitoringu – czy to szpitalnym, czy przemysłowym – właśnie WiFi jest bardzo często wykorzystywane, bo eliminuje konieczność prowadzenia kabli, a to ogromne ułatwienie przy rozległych instalacjach albo modernizacjach. WiFi, jako rodzina standardów 802.11 (np. 802.11n, 802.11ac), zapewnia odpowiednią wydajność, elastyczność i bezpieczeństwo, o ile odpowiednio skonfiguruje się zabezpieczenia sieci. Warto tu dodać, że urządzenia kompatybilne z tym standardem, np. access pointy, kamery IP, laptopy czy czujniki monitoringu, bez problemu nawiążą komunikację w tej samej sieci WiFi. Moim zdaniem nie ma obecnie prostszego sposobu na wdrożenie szybkiego monitoringu na dużym obszarze niż właśnie wykorzystanie WiFi. To też rozwiązanie zgodne z aktualnymi trendami branżowymi – wszędzie tam, gdzie liczy się elastyczność, łatwość rozbudowy i szybki serwis.

Pytanie 6

Za pomocą oscyloskopu nie można zmierzyć bezpośrednio

A. amplitudy.
B. częstotliwości.
C. rezystancji.
D. napięcia.
Oscyloskop to narzędzie, które świetnie sprawdza się przy obserwacji przebiegów napięciowych oraz pomiarach parametrów sygnału, takich jak amplituda, częstotliwość czy kształt. Jednak moim zdaniem – i nie tylko moim, bo tak wynika ze standardów branżowych – nie nadaje się on do bezpośredniego pomiaru rezystancji. Wynika to z samej zasady działania oscyloskopu: on „patrzy” na zmiany napięcia w czasie, a nie na rezystancję, która jest wielkością statyczną. Jeśli już ktoś bardzo by się uparł, można co prawda pośrednio wywnioskować rezystancję, ale tylko poprzez obserwację napięcia i prądu na zewnętrznym rezystorze (np. przez pomiar napięcia na znanej rezystancji i wyliczenie wartości nieznanej rezystancji z prawa Ohma). W praktyce jednak – czy to w serwisie, czy przy uruchomieniach nowych układów – do pomiaru rezystancji używamy często multimetru, nie oscyloskopu. To bardzo ważne, bo sporo osób myli te przyrządy i czasami nawet próbują „mierzyć wszystko” oscyloskopem, co prowadzi do kiepskich wyników i niepotrzebnego zamieszania. Zresztą, najlepsze praktyki mówią jasno: oscyloskop to narzędzie do sygnałów dynamicznych, a rezystancja to domena omomierza czy multimetru. Czasem fajnie jest to sobie przypomnieć, bo jak się człowiek zagalopuje, to potem błędy wychodzą w najmniej oczekiwanym momencie.

Pytanie 7

Z elektrokardiogramu wynika, że rytm serca rejestrowany i wskazywany przez elektrokardiograf wynosi

Ilustracja do pytania
A. 84 uderzeń na minutę.
B. 96 uderzeń na minutę.
C. 60 uderzeń na minutę.
D. 75 uderzeń na minutę.
Rytm serca wynoszący 84 uderzeń na minutę, odczytany z elektrokardiogramu, to wartość mieszcząca się w granicach tzw. normy fizjologicznej dla dorosłego człowieka. W praktyce medycznej, prawidłowy rytm zatokowy serca to zwykle zakres 60–100 uderzeń na minutę według wytycznych Europejskiego Towarzystwa Kardiologicznego. Odpowiedź 84 jest więc nie tylko zgodna z odczytem z wykresu, ale też zgodna z rzeczywistością kliniczną – to ani bradykardia, ani tachykardia. Z mojego doświadczenia wynika, że umiejętność poprawnego liczenia częstości rytmu z EKG to fundament dla techników elektroradiologii, pielęgniarek i ratowników medycznych. W praktyce wygląda to tak: liczysz liczbę szczytów QRS w określonym czasie, najczęściej w 6 sekund, mnożysz przez 10 i masz wynik. Dzięki takiej metodzie błyskawicznie można ocenić, czy pacjent wymaga interwencji. Moim zdaniem, regularne ćwiczenie tej analizy bardzo pomaga w realnych sytuacjach – szczególnie na oddziale ratunkowym, gdzie czas gra ogromną rolę. Dobrą praktyką jest też porównywanie manualnych obliczeń z wynikiem wskazanym przez elektrokardiograf, bo nawet automaty potrafią się czasem mylić, zwłaszcza przy arytmiach. Warto o tym pamiętać i nie polegać ślepo na maszynie.

Pytanie 8

Jeżeli węzeł zatokowo–przedsionkowy będzie pobudzał serce generując bodźce elektryczne z częstotliwością 1 Hz, to wartość rytmu serca będzie wynosiła

A. 100 uderzeń na minutę.
B. 60 uderzeń na minutę.
C. 50 uderzeń na minutę.
D. 80 uderzeń na minutę.
Wartość 60 uderzeń na minutę wynika bezpośrednio z przeliczenia częstotliwości generowanej przez węzeł zatokowo–przedsionkowy. Jeśli ten naturalny rozrusznik serca wysyła impuls elektryczny z częstotliwością 1 Hz, oznacza to, że na każdą sekundę przypada jedno pobudzenie. W ciągu minuty jest 60 sekund, więc 1 impuls na sekundę daje dokładnie 60 impulsów na minutę, czyli 60 uderzeń serca na minutę. Takie tempo to typowy, prawidłowy rytm serca u dorosłego człowieka w spoczynku, zgodny z wytycznymi Polskiego Towarzystwa Kardiologicznego i międzynarodowych organizacji, jak AHA. W praktyce, wiedza o tej zależności jest ważna np. przy analizie EKG albo w programowaniu sztucznych rozruszników – ustawiając urządzenie na 1 Hz, uzyskujemy właśnie 60/min. Spotkałem się nie raz z sytuacją, gdzie błędne przeliczenie tej częstotliwości prowadziło do niepotrzebnych niepokojów czy nawet złych decyzji klinicznych. Jest to moim zdaniem jedna z tych podstaw, które choć wydają się proste, to bywają pomijane. Dobrze wiedzieć, że granica normy tętna w spoczynku zaczyna się właśnie od 60/min – poniżej tego mówimy już o bradykardii. W diagnostyce bardzo ważne jest rozumienie takich podstawowych przełożeń, bo pomagają uniknąć podstawowych błędów podczas interpretacji pracy serca.

Pytanie 9

Narzędzie przedstawione na rysunku służy do

Ilustracja do pytania
A. zaciskania wtyków na przewodach.
B. znakowania przewodów.
C. sprawdzania grubości izolacji.
D. wykonywania połączeń nitowanych.
To narzędzie, które widzisz na zdjęciu, to klasyczna zaciskarka do wtyków, często nazywana też crimperem. Służy ona głównie do zaciskania końcówek na przewodach, najczęściej używa się jej do złączy typu RJ-45 czy RJ-11 – czyli przy tworzeniu przewodów sieciowych lub telefonicznych. Moim zdaniem to jest taki must-have każdego, kto na poważnie podchodzi do okablowania sieciowego czy drobnych napraw w domu, bo pozwala zrobić profesjonalne połączenie bez kombinowania i ryzyka, że kabel będzie się rozłączał. Co ważne, prawidłowo zaciśnięty wtyk to nie tylko stabilność mechaniczna, ale też pewność dobrego kontaktu elektrycznego, a to ma kolosalne znaczenie przy transmisji danych. Dobre praktyki branżowe, np. wg standardów EIA/TIA, zalecają właśnie korzystanie z zaciskarek, bo tylko one gwarantują powtarzalną jakość połączeń, której nie osiągnie się np. śrubokrętem czy kombinerkami. Z mojego doświadczenia wynika też, że warto regularnie sprawdzać stan zaciskarki, bo zużyte szczęki mogą uszkodzić przewód. Podsumowując, narzędzie to jest dedykowane do zaciskania wtyków na przewodach i to właśnie dzięki niemu przewody sieciowe czy telefoniczne działają niezawodnie przez lata.

Pytanie 10

Aby karta sieciowa automatycznie uzyskiwała adres IP, ruter musi mieć włączony serwer

Ilustracja do pytania
A. SSH
B. DHCP
C. TCP/IP
D. SMTP
Odpowiedź DHCP jest jak najbardziej trafiona, bo to właśnie Dynamic Host Configuration Protocol odpowiada za automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Moim zdaniem, to ogromne ułatwienie, zwłaszcza gdy w sieci mamy kilkanaście czy kilkadziesiąt urządzeń – ręczne wpisywanie adresów IP byłoby uciążliwe, a przy tym łatwo o pomyłki. DHCP działa na zasadzie wynajmowania adresów IP na określony czas, czyli tzw. dzierżawy (lease). Dzięki temu urządzenia połączone z siecią „dogadują się” z serwerem DHCP – najczęściej właśnie routerem – i otrzymują wszystkie niezbędne dane: IP, maskę podsieci, bramę domyślną, a nawet adresy DNS. To jest zgodne z zaleceniami m.in. RFC 2131, gdzie znajdziesz opis standardu. W praktyce, niemal każdy nowoczesny router domowy czy firmowy ma opcję serwera DHCP włączoną domyślnie. Co ciekawe, dobrze skonfigurowany DHCP pozwala też na rezerwacje adresów IP dla określonych urządzeń, co pomaga np. w zarządzaniu drukarkami sieciowymi albo serwerami. Z mojego doświadczenia wynika, że bez DHCP w większych sieciach często dochodzi do konfliktów adresów lub zwyczajnego bałaganu. Dlatego zdecydowanie warto znać tę usługę, bo jej prawidłowa konfiguracja to podstawa pracy administratora sieci.

Pytanie 11

Przepływ przez organizm człowieka prądów o wysokiej częstotliwości, mających zastosowanie w elektrochirurgii, może powodować

A. zaburzenie pracy serca.
B. skurcz mięśni.
C. zaburzenia przewodnictwa w nerwach.
D. cięcie lub koagulację tkanki.
Prawidłowa odpowiedź, bo właśnie prądy o wysokiej częstotliwości w elektrochirurgii zostały stworzone głównie po to, by ciąć i koagulować tkanki, nie powodując przy tym bezpośrednich, groźnych efektów pobudzenia mięśni czy zakłóceń pracy serca. To jest dość sprytne rozwiązanie, bo dzięki temu lekarze mogą bezpiecznie przecinać albo zespalać naczynia i inne struktury podczas zabiegów. Prąd HF (czyli high frequency, powyżej 300 kHz) nie wywołuje klasycznych efektów elektrofizjologicznych jak np. skurcze mięśni, bo komórki nerwowe i mięśniowe nie nadążają reagować na tak szybkie zmiany. Zamiast tego energia zamienia się miejscowo w ciepło, co pozwala uzyskać efekt cięcia (przy dużej mocy i krótkim czasie) lub koagulacji (przy mniejszej mocy i dłużej trwającym impulsie). Moim zdaniem to jedna z ciekawszych technologii w praktyce medycznej, bo pozwala ograniczyć krwawienie i przyspieszyć zabiegi – niejednokrotnie widziałem, jak chirurg dzięki elektrokauterowi szybciej zamyka naczynia. Z punktu widzenia bezpieczeństwa, większość urządzeń spełnia normy PN-EN 60601-2-2, które określają właśnie zasady użytkowania sprzętu HF w chirurgii. Warto też pamiętać, że zastosowanie tych prądów wymaga szczególnej ostrożności przy pracy w pobliżu implantów czy urządzeń elektronicznych u pacjenta.

Pytanie 12

Który z przedstawionych przyrządów służy do testowania połączeń w sieci LAN?

A. Przyrząd 1
Ilustracja do odpowiedzi A
B. Przyrząd 2
Ilustracja do odpowiedzi B
C. Przyrząd 4
Ilustracja do odpowiedzi C
D. Przyrząd 3
Ilustracja do odpowiedzi D
Przyrząd numer 4 to tzw. tester kabli sieciowych, popularnie nazywany testerem LAN lub testerem RJ-45. To urządzenie jest projektowane specjalnie do sprawdzania połączeń w przewodach sieciowych typu skrętka, którymi łączone są komputery, switche czy routery w sieci lokalnej. Tester taki pozwala sprawdzić, czy każda z żył w przewodzie jest poprawnie połączona od początku do końca – czyli czy nie ma przerw, zwarć albo błędnych zamian kolorów. W praktyce, kiedy zarabiasz końcówki RJ-45, taki tester puszczasz po kablu i od razu widzisz na diodach, czy wszystko styka. Moim zdaniem nie da się dobrze robić instalacji sieciowych bez czegoś takiego – to podstawa narzędziowa każdego technika sieciowego. Branżowe standardy (np. ANSI/TIA-568) wyraźnie zalecają testowanie każdej instalacji przed oddaniem jej do użytku właśnie za pomocą testera kabli. Co ciekawe, niektóre zaawansowane testery potrafią od razu wskazać miejsce uszkodzenia albo długość kabla. Warto pamiętać, że testery tego typu nie nadają się do pomiarów napięcia czy prądu, a skupiają się wyłącznie na poprawności połączeń logicznych, co w sieciach komputerowych jest najważniejsze. Jeśli chcesz być pewien, że twoja sieć LAN jest solidnie zrobiona i pozbawiona błędów, użycie testera to absolutna konieczność.

Pytanie 13

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. budowie nowych klas na podstawie już istniejących.
B. tworzeniu nowych obiektów za pomocą konstruktorów.
C. uogólnieniu pewnych cech w klasie bazowej.
D. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 14

Wymieniając bezpiecznik w medycznym module zasilającym, wymagającym zastosowania wkładki topikowej zwłocznej, należy użyć elementu oznaczonego symbolem literowym

A. WTA-G
B. WTA
C. WTA-T
D. WTA-F
Oznaczenie WTA-T oznacza właśnie wkładkę topikową zwłoczną, czyli taką, która nie przepala się natychmiast po przekroczeniu prądu znamionowego, tylko ma krótki czas zwłoki. To superważne w przypadku modułów zasilających w sprzęcie medycznym, bo tam zdarzają się krótkotrwałe stany przeciążenia – na przykład przy rozruchu transformatora czy urządzenia z dużą pojemnością wejściową. Bezpiecznik zwłoczny pozwala na te chwilowe wzrosty prądu bez wyłączania całego zasilania, a dalej chroni układ przed skutkami poważniejszych zwarć. W praktyce, jak się serwisuje aparaturę medyczną, to nie raz spotkałem się z sytuacją, że ktoś wsadził szybki bezpiecznik (np. WTA-F) zamiast zwłocznego i potem urządzenie ciągle się wyłączało przy starcie. W standardach technicznych np. normy PN-EN 60601 (dotyczącej sprzętu medycznego) jasno sugerują stosowanie odpowiednio dobranych wkładek – tam, gdzie producent zaleca wersję zwłoczną, nie wolno kombinować. Ogólnie, symbol T (od angielskiego „Time-lag”) staje się powoli takim branżowym standardem, więc moim zdaniem warto go zapamiętać, szczególnie jeśli ktoś poważnie myśli o pracy przy medycznych instalacjach. Poprawna identyfikacja symboli na bezpiecznikach może czasem uratować drogi sprzęt i zdrowie pacjentów – trochę przesadzam, ale coś w tym jest.

Pytanie 15

Jaki wpływ na organizm ludzki ma krioterapia?

A. Podwyższa napięcie mięśniowe.
B. Zwiększa szybkość przewodnictwa nerwowego.
C. Zmniejsza obrzęki.
D. Spowalnia procesy przemiany materii.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 16

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 75 mm/s
B. 25 mm/s
C. 10 mm/s
D. 50 mm/s
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 17

Który interfejs nie umożliwia podłączenia urządzeń peryferyjnych w standardzie „plug and play”?

A. PS/2
B. USB
C. Fire Wire
D. HDMI
Interfejs PS/2 to dość już leciwa technologia, którą można jeszcze spotkać w starszych komputerach stacjonarnych. Służył głównie do podłączania klawiatury i myszy. PS/2 nie wspiera standardu plug and play w tym sensie, że urządzenia można podłączyć i od razu zacząć używać bez restartu komputera – co jest dziś normą przy USB czy FireWire. W przypadku PS/2, jeśli podłączysz myszkę lub klawiaturę po uruchomieniu systemu, Windows najczęściej jej nie zobaczy. Niby prosta rzecz, ale dla informatyka to czasem potrafi być upierdliwe, kiedy trzeba restartować sprzęt po każdej zmianie. Moim zdaniem właśnie przez brak wygody i nowoczesności PS/2 zniknął z większości nowych płyt głównych. W nowszych standardach, takich jak USB czy FireWire, podłączanie urządzeń w locie (hot swap) jest czymś oczywistym. Standard plug and play bardzo ułatwia życie użytkownikom i serwisantom, bo można szybko testować różne peryferia albo wymieniać uszkodzone bez wyłączania kompa. Nawet HDMI, choć służy głównie do przesyłu obrazu i dźwięku, pozwala na podłączanie urządzeń w trakcie pracy. Warto też pamiętać, że obecnie dobre praktyki w IT wymagają stosowania takich rozwiązań, które minimalizują przestoje i upraszczają obsługę. Tak więc PS/2 to już raczej ciekawostka – dobry przykład, jak technologia potrafi się zestarzeć, jeśli nie nadąża za oczekiwaniami użytkowników.

Pytanie 18

Na rysunku przedstawiono kartę rozszerzeń umożliwiającą

Ilustracja do pytania
A. sprawdzenie temperatury pamięci RAM.
B. sprawdzenie czasu systemowego.
C. odczytanie kodów POST.
D. określenie użycia procesora.
Karta rozszerzeń widoczna na zdjęciu to tzw. karta diagnostyczna POST, zwana też kartą debugującą. Służy głównie do odczytywania kodów POST (Power-On Self-Test), które są generowane podczas inicjalizacji komputera, zanim jeszcze system operacyjny zacznie się ładować. Kody te pojawiają się na wyświetlaczu LED i pozwalają technikowi od razu rozpoznać, na którym etapie startu sprzętu wystąpił problem, nawet jeśli komputer nie wyświetla obrazu na monitorze. Moim zdaniem taka karta to absolutny must-have dla każdego serwisanta, bo pozwala na szybkie diagnozowanie usterek płyty głównej, pamięci RAM czy procesora. Standardy branżowe, na przykład wytyczne ATX, przewidują stosowanie procedur POST i związanych z nimi kodów do wykrywania problemów sprzętowych. Kartę wystarczy wpiąć w slot PCI lub ISA (zależnie od wersji), a podczas uruchamiania komputera na jej wyświetlaczu pojawi się kod szesnastkowy – później wystarczy sprawdzić w dokumentacji, co oznacza dany kod. Z mojego doświadczenia wynika, że taka karta potrafi skrócić czas diagnozy nawet o połowę. Pozwala to unikać żmudnego sprawdzania każdego podzespołu osobno, więc to naprawdę praktyczne narzędzie w każdej pracowni serwisowej.

Pytanie 19

Metoda diagnostyczna, w której rejestruje się rozpad radioizotopu wprowadzonego do organizmu, to

A. spektroskopia.
B. termografia.
C. tomografia.
D. scyntygrafia.
Scyntygrafia to metoda diagnostyczna, która moim zdaniem zasługuje na szczególne wyróżnienie wśród badań obrazowych, zwłaszcza gdy chodzi o ocenę funkcji narządów. Polega na podaniu pacjentowi radioaktywnego izotopu – często są to związki technetu czy jodu – które potem gromadzą się w określonych tkankach. W praktyce oznacza to, że dzięki detekcji promieniowania gamma można zobaczyć, jak rozkłada się substancja w organizmie i wyłapać np. zmiany nowotworowe, przerzuty albo zaburzenia krążenia. To badanie jest stosowane m.in. w kardiologii do oceny ukrwienia mięśnia sercowego, w endokrynologii do badania tarczycy, albo w onkologii do szukania ognisk raka. Wielu lekarzy chwali scyntygrafię za jej czułość i możliwość wykrycia problemów na bardzo wczesnym etapie – zdecydowanie warto znać tę metodę, bo nie ma chyba bardziej efektywnego sposobu monitorowania funkcji narządów przy użyciu izotopów. Oczywiście trzeba pamiętać o ścisłym przestrzeganiu zasad bezpieczeństwa i minimalizowaniu dawki promieniowania, zgodnie z dobrymi praktykami ALARA. Z mojego punktu widzenia, scyntygrafia to podstawa w nowoczesnej medycynie nuklearnej i nie da się jej zastąpić samą klasyczną diagnostyką obrazową.

Pytanie 20

Do badań ultrasonograficznych struktur płytko położonych (np. tarczycy) stosuje się głowicę

A. rektalną.
B. konweksową.
C. sektorową.
D. liniową.
W badaniach ultrasonograficznych struktur płytko położonych, takich jak tarczyca, zdecydowanie najlepiej sprawdza się głowica liniowa. Wynika to przede wszystkim z jej specyficznej konstrukcji – liniowy układ piezoelektryczny umożliwia uzyskanie bardzo wysokiej rozdzielczości obrazowania w zakresie kilku centymetrów od powierzchni skóry. Moim zdaniem, to właśnie ta precyzja jest kluczowa, bo tarczyca czy naczynia powierzchowne wymagają dokładnych pomiarów i detekcji nawet drobnych zmian strukturalnych. Liniowa głowica emituje fale ultradźwiękowe pod kątem prostym do powierzchni skóry, co pozwala na uzyskanie szczegółowego obrazu przekroju poprzecznego badanej tkanki. Standardem w diagnostyce chorób tarczycy oraz w ocenie węzłów chłonnych szyi jest właśnie użycie głowicy liniowej o częstotliwości minimum 7,5 MHz, choć często stosuje się nawet wyższe, bo powyżej 10 MHz, jeśli sprzęt pozwala. Z mojego doświadczenia – jeśli tylko operator korzysta z wysokiej klasy głowicy liniowej, łatwiej mu wykryć nawet bardzo niewielkie guzki czy mikrozwapnienia. Warto też pamiętać, że ta sama głowica bywa wykorzystywana w diagnostyce zmian skórnych, naczyniowych czy nawet w ocenie mięśni i ścięgien. To taka uniwersalna głowica do płytko położonych struktur – praktycznie nieoceniona w gabinecie USG. Przykładowo, większość zaleceń Polskiego Towarzystwa Ultrasonograficznego jasno wskazuje głowicę liniową jako bazową w tych zastosowaniach. Takie rozwiązanie pozwala na uzyskanie obrazu o najwyższej dostępnej jakości powierzchniowej, co finalnie przekłada się na lepszą diagnostykę i komfort pracy.

Pytanie 21

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. sieciowych.
B. wolnozmiennych.
C. mięśniowych 35 Hz.
D. mięśniowych 25 Hz.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 22

Elementem sieci komputerowej w topologii gwiazdy, pozwalającym przyłączyć wiele urządzeń sieciowych, jest

A. modem.
B. przełącznik.
C. konwerter.
D. repeater.
W topologii gwiazdy sercem sieci jest właśnie przełącznik, czyli switch. To urządzenie odpowiada za przyłączanie wielu komputerów lub innych sprzętów sieciowych w taki sposób, że każde z nich komunikuje się z przełącznikiem osobnym przewodem. Dzięki temu nie powstają niepotrzebne kolizje danych, a każdy host może przesyłać i odbierać informacje optymalnie szybko. W nowoczesnych sieciach LAN praktycznie wszędzie stosuje się przełączniki, bo są one nie tylko wydajne, ale też umożliwiają stworzenie naprawdę rozbudowanych infrastruktur – można podłączać komputery, drukarki, access pointy czy serwery, a wszystko jest administrowane centralnie. Moim zdaniem trudno sobie wyobrazić profesjonalną sieć w biurze czy szkole bez przełącznika jako centrum. Warto też wiedzieć, że przełączniki pracują głównie w warstwie drugiej modelu OSI (łącza danych), chociaż są zaawansowane modele, które obsługują nawet routowanie (L3). Dobre praktyki branżowe mówią, żeby nie mieszać przełączników z hubami, bo te drugie nie potrafią inteligentnie kierować ruchem – a przełącznik analizuje MAC adresy i przesyła ramki tylko tam, gdzie trzeba. Praktycznym przykładem jest sytuacja, gdy w pracowni komputerowej trzeba szybko przesłać duży plik – dzięki przełącznikowi transfer odbywa się bez zakłóceń na linii nadawca-odbiorca, a reszta użytkowników nie odczuwa spowolnienia. Takie rozwiązanie daje też dużą elastyczność przy rozbudowie sieci. Z mojego doświadczenia wynika, że wybór dobrego przełącznika na początek to inwestycja, która się naprawdę opłaca.

Pytanie 23

Rysunek przedstawia wynik działania polecenia ipconfig urządzenia w sieci LAN. Który adres rutera umożliwia dostęp tego urządzenia do sieci WAN?

Karta Ethernet Połączenie lokalne:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :

Karta bezprzewodowej sieci LAN Połączenie sieci bezprzewodowej:

Sufiks DNS konkretnego połączenia :
Adres IPv6 połączenia lokalnego . : fe80::2dd5:5602:1f17:82c8%11
Adres IPv4. . . . . . . . . . . . : 192.168.10.44
Maska podsieci. . . . . . . . . . : 255.255.255.0
Brama domyślna. . . . . . . . . . : 192.168.10.1

Karta tunelowa isatap.Home:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :
A. 255.255.255.0
B. 192.168.10.1
C. fe80.2dd5.5602
D. 192.168.10.44
Adres 192.168.10.1 został wskazany jako brama domyślna w wyniku polecenia ipconfig. To właśnie ten adres odpowiada za „wyjście” urządzenia z sieci lokalnej (LAN) do sieci zewnętrznej, czyli WAN, najczęściej Internetu. W praktyce jest to adres IP interfejsu routera w Twojej podsieci – wszystkie pakiety kierowane poza lokalny segment sieci są przesyłane właśnie do tej bramy, która dalej je przekazuje do odpowiedniego miejsca docelowego. Branżowo mówi się, że „default gateway” to taki domyślny punkt styku ze światem zewnętrznym. W standardowych konfiguracjach urządzeń sieciowych (np. Windows, routery SOHO) zawsze warto sprawdzać tę wartość, gdy pojawiają się problemy z dostępem do Internetu. Często powtarza się (i słusznie!), że zły adres bramy lub jej brak od razu uniemożliwia komunikację poza lokalną siecią, nawet jeśli IP i maska są poprawne. Co ciekawe, w większych sieciach bywa, że bram jest kilka, ale domyślna jest tylko jedna dla danego hosta. W sumie – bez bramy domyślnej nie ma szans, żeby „wyjść” z LANu. Z mojego doświadczenia zawsze najpierw sprawdzam tę wartość podczas diagnozowania awarii sieci – to podstawa każdego serwisanta albo administratora. Warto też wiedzieć, że adres bramy domyślnej zwykle kończy się na .1, choć nie jest to twarda reguła, po prostu tak przyjęło się ze względów porządkowych. W tym przykładzie wszystko wygląda książkowo.

Pytanie 24

Wybierz narzędzie służące do zamocowania przedstawionej na rysunku końcówki kompresyjnej F na kablu koncentrycznym.

Ilustracja do pytania
A. Narzędzie 3
Ilustracja do odpowiedzi A
B. Narzędzie 1
Ilustracja do odpowiedzi B
C. Narzędzie 4
Ilustracja do odpowiedzi C
D. Narzędzie 2
Ilustracja do odpowiedzi D
Narzędzie oznaczone jako numer 4 to praska kompresyjna, która jest wręcz niezbędna do poprawnego zamocowania końcówki kompresyjnej F na kablu koncentrycznym. Takie złącza, szczególnie w instalacjach telewizyjnych lub CCTV, wymagają bardzo precyzyjnego i trwałego połączenia – tylko wtedy sygnał będzie stabilny i nie będzie zakłóceń. Z mojego doświadczenia wynika, że użycie profesjonalnej praski kompresyjnej nie tylko przyspiesza montaż, ale też eliminuje problem poluzowania się złącza po czasie, czego często nie da się uniknąć przy innych metodach. Narzędzia tego typu pozwalają dokładnie docisnąć tuleję złącza na przewodzie, co gwarantuje hermetyczność i wytrzymałość mechaniczną połączenia. Warto pamiętać, że przy montażu końcówek kompresyjnych nie sprawdzi się żadna zwykła zaciskarka czy kombinowane rozwiązania – standardy branżowe (np. wytyczne SCTE czy normy branży telekomunikacyjnej) wręcz nakazują używanie odpowiednich narzędzi dedykowanych do złączy kompresyjnych. Prawidłowo zaciśnięte złącze nie tylko zapewnia dobrą transmisję sygnału, ale też chroni przed wilgocią i uszkodzeniami mechanicznymi – na to zawsze zwracam uwagę przy odbiorach instalacji.

Pytanie 25

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. sieciowej.
B. graficznej.
C. telewizyjnej.
D. dźwiękowej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 26

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. ciśnienia krwi.
B. EEG.
C. oddechu.
D. EKG.
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 27

Który zabieg wymusza naprzemienną pracę mięśni zginaczy i prostowników poprzez stymulację mięśni impulsem prądowym?

A. Jonoforeza.
B. Sonoforeza.
C. Dializa.
D. Tonoliza.
Tonoliza to bardzo specyficzny zabieg fizykalny, który wykorzystuje impulsy prądu do stymulowania pracy mięśni zginaczy oraz prostowników – dokładnie naprzemiennie. Chodzi o to, żeby pobudzać mięśnie w odpowiedniej sekwencji, co prowadzi do ich aktywizacji i poprawy koordynacji ruchowej. W praktyce najczęściej stosuje się ją przy porażeniach spastycznych, np. po udarach czy urazach, kiedy mięśnie mają tendencję do patologicznego napięcia lub osłabienia. Moim zdaniem niesamowite jest to, jak dobrze dobrany impuls może „przypomnieć” mięśniom ich naturalną funkcję. Standardy fizjoterapii mówią o takim podejściu jako bardzo korzystnym w rehabilitacji neurologicznej – bo zamiast biernego rozciągania czy masażu, tutaj mięsień ćwiczy aktywnie, nawet jeśli pacjent sam nie jest w stanie wykonać ruchu. Spotkałem się z sytuacjami, gdzie systematyczna tonoliza naprawdę przyspieszała powrót do sprawności, szczególnie u osób po udarze. Fajne jest również to, że zabieg można zindywidualizować: ustalasz parametry impulsu, czas trwania, kolejność, wszystko pod konkretnego pacjenta. Warto dodać, że w odróżnieniu od innych zabiegów prądowych, tutaj duży nacisk kładzie się właśnie na ruch naprzemienny – nie tylko pobudzanie jednego mięśnia, ale pełny cykl pracy antagonisty i agonisty. Według mnie, to świetna opcja, kiedy zależy nam na funkcjonalnej poprawie ruchu, a nie tylko na zmniejszeniu bólu czy obrzęku.

Pytanie 28

Przedstawiony na rysunku kolimator stanowi część

Ilustracja do pytania
A. pompy infuzyjnej.
B. tomografu komputerowego.
C. sztucznej nerki.
D. sztucznego płuco-serca.
Kolimator, który pokazano na rysunku, to kluczowy element wykorzystywany w tomografii komputerowej. Działa on jak bardzo precyzyjna przesłona, przepuszczając tylko te promienie rentgenowskie, które biegną w określonych kierunkach. Pozwala to ograniczyć rozproszenie promieniowania i poprawić ostrość uzyskiwanych obrazów. Z mojego doświadczenia wynika, że dobre ustawienie kolimatora to podstawa w codziennej pracy technika radiologii – bez tego uzyskanie wiarygodnych przekrojów ciała jest praktycznie niemożliwe. W praktyce klinicznej kolimatory pozwalają nie tylko polepszyć jakość obrazu, ale też zmniejszyć dawkę promieniowania dla pacjenta, co jest zgodne z zasadą ALARA (as low as reasonably achievable). W tomografii komputerowej stosuje się zarówno kolimatory wejściowe przy lampie, jak i wyjściowe przy detektorach. To rozwiązanie jest standardem w diagnostyce obrazowej, a odpowiednie dobranie szerokości wiązki rzutuje na jakość rekonstrukcji i możliwość wykrycia drobnych zmian chorobowych. Moim zdaniem, świadomość roli kolimatorów przydaje się nie tylko w pracy w szpitalu, ale nawet podczas rozmów z lekarzami o możliwych artefaktach na obrazie.

Pytanie 29

Zmienne definiowane w programie głównym na zewnątrz wszystkich funkcji i procedur lub innych bloków programu określamy jako zmienne

A. statyczne.
B. lokalne.
C. globalne.
D. dynamiczne.
Zmienne globalne to taki typ zmiennych, które są deklarowane poza wszystkimi funkcjami, procedurami czy innymi blokami programu – zazwyczaj na samym początku pliku źródłowego. Dzięki temu mają one zasięg obejmujący cały program, czyli mogą być używane i modyfikowane w dowolnej funkcji czy procedurze, o ile nie zostaną przesłonięte przez zmienne lokalne o tej samej nazwie. Moim zdaniem bardzo ważne jest, żeby rozumieć konsekwencje używania zmiennych globalnych. Owszem, często ułatwiają dostęp do wspólnych danych w większych projektach czy przy szybkim prototypowaniu, ale dobre praktyki branżowe (np. Clean Code, wzorce projektowe) zalecają ograniczać ich stosowanie. To dlatego, że nadmierne poleganie na globalnych zmiennych utrudnia debugowanie i testowanie kodu – szczególnie w większych projektach, gdzie kilka funkcji może jednocześnie modyfikować tę samą zmienną, przez co łatwiej o błędy trudne do znalezienia. Przykład z życia: gdy w programie potrzebujesz mieć licznik dostępny w różnych częściach kodu, możesz zadeklarować go globalnie. Jednak lepszym rozwiązaniem jest przekazywanie wartości przez argumenty funkcji lub korzystanie z struktur czy klas, jeśli język na to pozwala. To jedna z podstawowych zasad programowania – wiedzieć, kiedy stosować zmienne globalne, a kiedy lepiej ich unikać. Warto też pamiętać, że w niektórych językach (np. C/C++, Python) słowo kluczowe global lub inna składnia wyraźnie wskazuje, że dana zmienna jest dostępna wszędzie. Praktykując programowanie, dobrze jest ćwiczyć rozróżnianie zasięgu zmiennych, bo to często pojawia się na rozmowach kwalifikacyjnych i w zadaniach rekrutacyjnych.

Pytanie 30

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. katalog główny.
B. katalog domowy.
C. plik tymczasowy.
D. plik systemowy.
Znak ~ na początku ścieżki w systemach uniksowych to taki trochę skrót-klucz, który odwołuje się bezpośrednio do katalogu domowego użytkownika. W praktyce, jak wpiszesz np. cd ~ w terminalu, to od razu przenosi cię do twojego katalogu domowego – czyli miejsca, gdzie masz swoje dokumenty, konfiguracje, pulpit, pliki robocze i całą resztę rzeczy, za które odpowiadasz bezpośrednio jako użytkownik w systemie. To się sprawdza genialnie, bo nie musisz pamiętać czy katalog domowy to /home/jan, /Users/ania albo coś jeszcze innego – system sam wie, o którego użytkownika chodzi. Zresztą, jeśli chcesz wejść do katalogu domowego innego użytkownika, wpisujesz np. ~marek i terminal zabierze cię do /home/marek. W skryptach Bash i innych powłokach uniksowych to rozszerzanie znaku ~ na konkretną ścieżkę jest standardem od lat i praktycznie każdy administrator korzysta z tego automatycznie. To jeden z tych drobiazgów, które mega przyspieszają pracę na konsoli. Moim zdaniem, jak ktoś często korzysta z powłoki, to nie wyobraża sobie codziennej pracy bez tego symbolu. Ciekawe jest też to, że pliki tymczasowe i systemowe mają zupełnie inne notacje – tutaj ~ jest ściśle powiązany z profilem użytkownika i nie ma nic wspólnego z katalogiem głównym systemu, czyli /. Warto to zapamiętać.

Pytanie 31

Struktura anatomiczna człowieka, która jest nazywana krytyczną ze względu na szczególną wrażliwość na zewnętrzne promieniowanie jonizujące, to

A. klatka piersiowa.
B. soczewka oka.
C. wątroba.
D. nerka.
Soczewka oka to taka dość specyficzna struktura w ciele człowieka, która jest wyjątkowo wrażliwa na promieniowanie jonizujące, nawet przy bardzo niskich dawkach. Z mojej perspektywy praktyka – czy to w diagnostyce obrazowej, czy w radiologii czy nawet w ochronie radiologicznej – zawsze kładzie się ogromny nacisk na ochronę oczu. Soczewka nie ma własnych naczyń krwionośnych i nie jest w stanie samodzielnie naprawić uszkodzeń wywołanych przez promieniowanie. Efektem zbyt dużej dawki może być rozwój zaćmy popromiennej, często nieodwracalnej. Co ciekawe, jeszcze kilka lat temu uznawano, że dopuszczalna dawka dla soczewki może być stosunkowo wysoka, ale teraz – zgodnie z zaleceniami Międzynarodowej Komisji Ochrony Radiologicznej (ICRP) – te wartości znacznie obniżono (obecnie wynosi to 20 mSv/rok dla osób zawodowo narażonych). W praktyce lekarze i technicy wszędzie tam, gdzie istnieje ryzyko ekspozycji, stosują ołowiane okulary ochronne, bo to naprawdę się opłaca. Warto też pamiętać, że nawet podczas krótkotrwałej ekspozycji oko jest dużo bardziej podatne na skutki promieniowania niż większość innych narządów. Ochrona soczewki to taki elementarz w każdej pracowni rentgenowskiej czy tomografii komputerowej. O tym się mówi na każdym szkoleniu BHP związanym z promieniowaniem.

Pytanie 32

W systemie bazodanowym wymagane jest dodatkowe sprzętowe zabezpieczenie danych przed ich utratą. Która macierz dyskowa pozwala uodpornić się na utratę danych w przypadku awarii wszystkich dysków poza jednym?

A. RAID 5
B. RAID 0
C. RAID 1
D. RAID 6
RAID 1 to tak naprawdę najprostszy i najczęściej spotykany sposób na zabezpieczenie danych w środowiskach, gdzie kluczowa jest niezawodność, a niekoniecznie wydajność czy oszczędność miejsca. Działanie RAID 1 opiera się na tzw. mirroringu, czyli lustrzanym zapisie – wszystkie dane są zapisywane jednocześnie na dwóch (lub więcej, jeśli kontroler pozwala) identycznych dyskach. Dzięki temu nawet jeśli jeden z dysków nagle padnie, system praktycznie bez przerwy dalej działa na kopii znajdującej się na pozostałym sprawnym dysku. Moim zdaniem to bardzo rozsądny wybór zwłaszcza dla baz danych czy systemów księgowych, gdzie utrata chociażby kilkudziesięciu minut pracy to już realna strata. Oczywiście, RAID 1 nie chroni przed wszystkimi zagrożeniami – gdyby np. zasilacz spalił wszystkie dyski naraz, nic nie pomoże – ale na typowe awarie sprzętowe to bardzo skuteczna ochrona. Dobrą praktyką IT jest łączyć RAID 1 z regularnym backupem na zewnętrzny nośnik, bo samo powielanie dysków nie zabezpiecza przed błędami użytkownika czy atakiem ransomware. Warto dodać, że RAID 1 pozwala na tzw. hot swap, czyli wymianę uszkodzonego dysku nawet bez wyłączania serwera – co w serwerowniach jest absolutnie nieocenione. Dla mnie, jeśli priorytetem jest bezpieczeństwo i prostota zarządzania, RAID 1 zawsze będzie jednym z najważniejszych rozwiązań.

Pytanie 33

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. add user rejestracja
B. user add rejestracja
C. net user rejestracja /add
D. net rejestracja \add user
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 34

Który system plików zapewnia największe bezpieczeństwo danych w systemie Windows?

A. NTFS
B. ext4
C. FAT 16
D. FAT 32
NTFS to zdecydowanie najlepszy wybór, jeśli chodzi o bezpieczeństwo danych w systemie Windows. Po pierwsze, ten system plików pozwala na zaawansowane zarządzanie uprawnieniami – można bardzo precyzyjnie ustawiać, kto ma dostęp do jakiego pliku czy folderu, a to w praktyce daje ogromne możliwości kontroli. Jedną z najważniejszych cech NTFS jest obsługa szyfrowania plików (EFS), co wrażliwych danych zabezpiecza przed dostępem niepowołanych użytkowników. No i oczywiście, NTFS ma wbudowane mechanizmy odzyskiwania po awarii – na przykład dziennikowanie operacji (tzw. journaling), dzięki czemu podczas nagłego zaniku zasilania system jest w stanie automatycznie naprawić uszkodzone struktury plików. W przedsiębiorstwach NTFS to standard, bo pozwala na stosowanie polityk bezpieczeństwa zgodnych z wymaganiami ISO/IEC 27001 czy politykami RODO. Moim zdaniem, dla każdego, kto chociaż trochę dba o integralność i bezpieczeństwo danych, inne opcje nie mają nawet podejścia. Co ciekawe, NTFS obsługuje także limity pojemności, kompresję plików czy tworzenie kopii zapasowych typu shadow copy. I jeszcze taka ciekawostka – większość zaawansowanych narzędzi Windows nawet nie pozwala korzystać z dysków FAT, jeśli trzeba ustawić uprawnienia albo szyfrować katalogi. W sumie, dziś to już absolutna podstawa w każdej firmowej sieci.

Pytanie 35

Podczas uruchamiania komputera procedura POST testuje poprawność działania

A. tylko karty graficznej oraz karty sieciowej.
B. tylko pamięci RAM i kart pamięci.
C. procesora, pamięci RAM, karty graficznej oraz dysków twardych.
D. dysków, napędów optycznych i kart pamięci.
Procedura POST (Power-On Self Test) to taki pierwszy etap uruchamiania komputera, który sprawdza, czy najważniejsze podzespoły działają poprawnie. Moim zdaniem to jeden z tych procesów, o których często się zapomina, a bez niego komputer nawet nie ruszy dalej! POST weryfikuje przede wszystkim, czy procesor, pamięć RAM, karta graficzna oraz dyski twarde są sprawne i prawidłowo podłączone. Bez tych elementów nie da się zainicjować systemu operacyjnego ani nawet wyświetlić komunikatów o błędach. W praktyce, jeśli np. pamięć RAM jest uszkodzona, komputer wyda sygnał dźwiękowy lub pokaże odpowiedni komunikat na ekranie (jeśli karta graficzna działa). Z mojego doświadczenia, najczęściej spotykanymi problemami podczas POST są właśnie źle włożone pamięci RAM lub brak sygnału z karty graficznej. Branżowe dobre praktyki podkreślają, żeby zawsze zacząć diagnostykę komputera od tych podstawowych komponentów, zanim przejdzie się do drobniejszych usterek. Procedura POST jest częścią standardu BIOS/UEFI i to dzięki niej użytkownik od razu wie, że coś jest nie tak, zanim system operacyjny w ogóle zacznie się ładować. Dodatkowo, POST nie sprawdza urządzeń peryferyjnych typu drukarki czy skanery, tylko skupia się na tym, bez czego komputer nie ruszy. To naprawdę ułatwia życie każdemu, kto zajmuje się serwisem komputerowym – po dźwiękach beep można od razu zorientować się, gdzie jest błąd. Taką diagnostykę można znaleźć w każdym nowoczesnym pececie i to jest absolutny standard branżowy.

Pytanie 36

Przedstawiony zrzut ekranu prezentuje parametry

Ilustracja do pytania
A. pamięci dynamicznej RAM.
B. pamięci USB typu Flash.
C. BIOS.
D. dysku twardego.
Ten zrzut ekranu rzeczywiście dotyczy parametrów dysku twardego. Widać tutaj mnóstwo informacji, które są typowe dla tego właśnie urządzenia, jak np. obsługiwane funkcje S.M.A.R.T., Native Command Queuing (NCQ), czy też tryby UDMA. To są tematy, które non stop przewijają się w pracy technika czy administratora – nawet zwykła zmiana trybu pracy może wpłynąć na wydajność całego systemu. Bardzo ważne jest, żeby znać i rozumieć takie parametry, bo pozwalają one na szybką diagnozę ewentualnych problemów z magazynem danych. Przykładowo, S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) to standard branżowy, który stale monitoruje stan dysku i może ostrzec użytkownika, zanim nastąpi awaria. Native Command Queuing z kolei poprawia wydajność przy równoległym przesyłaniu wielu poleceń – praktyczna rzecz np. w środowiskach serwerowych. Z mojego doświadczenia, osoby, które potrafią czytać takie zestawienia parametrów, szybciej wyłapują potencjalne zagrożenia i lepiej dobierają sprzęt pod konkretne zastosowania. Najważniejsze jednak, żeby nie traktować tych danych jako czystej teorii – umiejętność praktycznego ich wykorzystania, np. podczas konfigurowania RAID czy oceny kompatybilności z systemem operacyjnym, naprawdę często ratuje sytuację. Dobrą praktyką jest regularne sprawdzanie tych parametrów, np. przy przeglądzie infrastruktury IT, bo czasem już jedna nieaktywna opcja (np. Write Cache) może znacząco wpłynąć na stabilność działania całego systemu.

Pytanie 37

W aparacie holterowskim sygnał jest archiwizowany na karcie SD. Który rysunek przedstawia wymieniony nośnik pamięci?

Ilustracja do pytania
A. 1
B. 4
C. 3
D. 2
Karta SD, czyli Secure Digital, to obecnie jeden z najczęściej używanych nośników pamięci w urządzeniach medycznych, takich jak aparaty holterowskie. Na rysunku numer 2 oznacza właśnie kartę SD – cechuje się ona stosunkowo niewielkimi wymiarami i charakterystycznym ściętym narożnikiem. Moim zdaniem nie ma obecnie bardziej praktycznego i dostępnego rozwiązania do zapisywania dużych ilości danych w małym urządzeniu. Typowo używa się tych kart, bo są bardzo odporne na uszkodzenia mechaniczne, mają niski pobór energii i łatwo je przełożyć do komputera lub stacji odczytującej, co jest ogromnym plusem w pracy diagnostycznej – zwłaszcza kiedy trzeba szybko przeanalizować wyniki zapisu EKG z Holtera. Praktyka szpitalna pokazuje, że szybka wymienność i prostota obsługi kart SD to standard, do którego wszyscy już się przyzwyczaili. Często spotykam się z sytuacją, że starsi pacjenci także potrafią samodzielnie przełożyć kartę SD z urządzenia do czytnika, co tylko pokazuje, jak uniwersalne i wygodne jest to rozwiązanie. Dobrym zwyczajem jest też regularne sprawdzanie stanu karty przed założeniem holtera, bo uszkodzona karta SD potrafi zepsuć całą rejestrację. Tak więc wybór odpowiedzi nr 2 jest zgodny nie tylko z teorią, ale i praktyką na rynku medycznym.

Pytanie 38

Który z nośników danych umożliwia wielokrotny zapis i ma największą pojemność?

A. Nośnik 3
Ilustracja do odpowiedzi A
B. Nośnik 4
Ilustracja do odpowiedzi B
C. Nośnik 2
Ilustracja do odpowiedzi C
D. Nośnik 1
Ilustracja do odpowiedzi D
Nośnik 2 to płyta DVD-RW, czyli nośnik optyczny umożliwiający wielokrotny zapis i kasowanie danych. Moim zdaniem, to dość praktyczne rozwiązanie, zwłaszcza jeśli ktoś często potrzebuje przenosić dane albo je aktualizować bez konieczności kupowania nowych płyt. Standard DVD-RW (Digital Versatile Disc ReWritable) pozwala na zapisanie do 4,7 GB danych, co w środowisku domowym i biurowym długo wystarczało na backupy, archiwizację czy kopiowanie filmów i dużych plików. W praktyce DVD-RW były polecane tam, gdzie elastyczność była ważniejsza niż np. długowieczność zapisu – branża polecała je do testowania instalek, kompilacji czy nawet do transportu projektów graficznych między stanowiskami. Warto wiedzieć, że nośniki typu RW spełniają standardy branżowe jeśli chodzi o wielokrotność zapisu, są też kompatybilne z większością napędów DVD od lat 2000. Dla porównania, tradycyjny CD-RW ma pojemność zaledwie 700 MB, a choć Blu-ray oferuje większą pojemność, to wersja BD-R pozwala wyłącznie na jednokrotny zapis. Gdybyś chciał sięgnąć po coś o większej pojemności i wielokrotnego zapisu, to w praktyce poza DVD-RW przychodzą do głowy już raczej tylko profesjonalne rozwiązania typu BD-RE, które jednak rzadko były wykorzystywane domowo – są drogie i wymagają specjalistycznych napędów. Tak więc DVD-RW to moim zdaniem sensowny kompromis między pojemnością, ceną i dostępnością urządzeń, zgodny z dobrymi praktykami branży informatycznej.

Pytanie 39

Aby usunąć katalog w systemie Windows należy wykonać polecenie

A. REPLACE
B. RENAME
C. RMDIR
D. REM
Polecenie RMDIR w systemie Windows służy do usuwania katalogów, czyli folderów, z poziomu wiersza poleceń. Użycie tego polecenia pozwala na szybkie i efektywne zarządzanie strukturą plików bez konieczności korzystania z interfejsu graficznego. Moim zdaniem warto pamiętać, że komenda rmdir (albo jej skrócona forma rd) pozwala na usuwanie tylko pustych katalogów domyślnie – jeśli chcesz usunąć katalog wraz z całą jego zawartością, musisz użyć przełącznika /S, np. rmdir /S nazwa_katalogu. Z mojego doświadczenia w pracy z serwerami Windows to właśnie rmdir najczęściej wykorzystuje się do automatyzacji porządkowania zasobów czy usuwania tymczasowych folderów w skryptach batch. Warto wiedzieć, że przed usunięciem katalogu dobrze jest sprawdzić, czy nie zawiera on ważnych danych, bo cofnięcie tej operacji może być problematyczne – system nie przenosi katalogu do kosza, tylko usuwa go trwale. Standardowo, polecenie to działa w konsoli cmd, a w PowerShellu mamy Remove-Item, co pokazuje, jak różne narzędzia systemowe mogą się uzupełniać. Ogólnie rzecz biorąc, znajomość takich podstawowych komend jest absolutnie kluczowa dla każdego, kto poważnie myśli o pracy z systemami operacyjnymi na poziomie administracyjnym czy programistycznym. Dobrą praktyką jest także uruchamianie polecenia rmdir z odpowiednimi uprawnieniami, by uniknąć błędów dostępu do katalogu.

Pytanie 40

Które urządzenie medyczne wspomaga lub zastępuje mięśnie pacjenta w oddychaniu?

A. Pulsoksymetr.
B. Kapnograf.
C. Saturator.
D. Respirator.
Respirator to zdecydowanie jedno z najważniejszych urządzeń medycznych stosowanych na oddziałach intensywnej terapii, blokach operacyjnych czy nawet w transporcie medycznym. Jego główne zadanie polega na mechanicznym wspomaganiu lub wręcz zastępowaniu funkcji oddychania u pacjentów, którzy nie są w stanie samodzielnie zapewnić odpowiedniej wentylacji płuc. Moim zdaniem bez respiratora nowoczesna medycyna ratunkowa praktycznie nie mogłaby funkcjonować – szczególnie w sytuacjach takich jak niewydolność oddechowa, urazy klatki piersiowej, poważne infekcje płuc czy też znieczulenie ogólne podczas operacji. Respiratory umożliwiają precyzyjne ustawienie parametrów takich jak objętość oddechowa, częstotliwość oddechu, ciśnienie końcowo-wydechowe albo stężenie tlenu w mieszaninie oddechowej, co jest absolutnie kluczowe dla indywidualnego dostosowania terapii do stanu pacjenta. Współczesne standardy, jak np. wytyczne European Society of Intensive Care Medicine, kładą nacisk na personalizację wentylacji mechanicznej, żeby minimalizować ryzyko powikłań takich jak barotrauma czy uszkodzenie płuc. W praktyce spotkałem się z sytuacjami, kiedy odpowiednie zastosowanie respiratora dosłownie ratowało życie – np. u pacjentów po zatrzymaniu akcji serca czy z ciężkim COVID-19. Warto pamiętać, że obsługa respiratora wymaga solidnej wiedzy i regularnych szkoleń, bo nieprawidłowe ustawienia mogą pogorszyć stan chorego. Ciekawostka: nowoczesne respiratory potrafią nawet automatycznie dostosowywać parametry do zmieniających się potrzeb pacjenta.