Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 28 kwietnia 2026 17:58
  • Data zakończenia: 28 kwietnia 2026 18:09

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Urządzenie do rejestracji bioelektrycznych potencjałów mięśniowych to

A. elektrokochleograf.
B. elektroencefalograf.
C. elektromiograf.
D. kardiotokograf.
Elektromiograf to specjalistyczne urządzenie, które służy do rejestrowania bioelektrycznej aktywności mięśniowej. Zawsze mnie fascynowało, jak za pomocą cienkich elektrod powierzchniowych albo igłowych można „podejrzeć”, co dzieje się w mięśniach podczas ruchu czy nawet w spoczynku. Elektromiografia, czyli technika oparta o to urządzenie, pozwala ocenić działanie mięśni oraz przewodnictwo nerwowo-mięśniowe. To podstawa diagnostyki w neurologii oraz rehabilitacji – przykładowo, kiedy ktoś ma podejrzenie uszkodzenia nerwu, elektromiograf dostarcza precyzyjnych danych na temat lokalizacji i stopnia uszkodzenia. Często korzystają z tego fizjoterapeuci, lekarze sportowi, a nawet inżynierowie przy projektowaniu interfejsów do sterowania protezami bionicznych. W praktyce, prawidłowe użycie elektromiografu wymaga nie tylko znajomości zasad pomiaru, ale też analizy sygnałów EMG, które mogą być zakłócone przez szumy czy niewłaściwe ułożenie elektrod. Moim zdaniem, umiejętność obsługi tego sprzętu to absolutna podstawa w pracy z pacjentami po urazach neurologicznych. Branżowe wytyczne (np. standardy SENIAM) sugerują stosowanie odpowiednich protokołów do minimalizacji artefaktów oraz właściwej interpretacji wyników. Warto pamiętać, że sygnały EMG są bardzo czułe na ruchy, dlatego odpowiednie przygotowanie skóry i dobór elektrod mają kluczowe znaczenie dla jakości rejestracji. To naprawdę ciekawe i praktyczne narzędzie w codziennej pracy medycznej czy sportowej.

Pytanie 2

W dokumentacji sieci centralnego monitoringu zapisano, że sieć jest wykonana w standardzie 802.11 Do montażu takiej sieci są wymagane urządzenia wykorzystujące

A. Bluetooth.
B. WiFi.
C. Ethernet.
D. Token ring.
Standard 802.11 to nic innego jak specyfikacja techniczna dla sieci bezprzewodowych, znanych powszechnie jako WiFi. W praktyce oznacza to, że jeśli ktoś w dokumentacji wspomina o sieci wykonanej zgodnie z 802.11, to od razu można założyć, że mowa o połączeniach bezprzewodowych, gdzie transmisja danych odbywa się za pomocą fal radiowych. Z mojego doświadczenia wynika, że w centralnym monitoringu – czy to szpitalnym, czy przemysłowym – właśnie WiFi jest bardzo często wykorzystywane, bo eliminuje konieczność prowadzenia kabli, a to ogromne ułatwienie przy rozległych instalacjach albo modernizacjach. WiFi, jako rodzina standardów 802.11 (np. 802.11n, 802.11ac), zapewnia odpowiednią wydajność, elastyczność i bezpieczeństwo, o ile odpowiednio skonfiguruje się zabezpieczenia sieci. Warto tu dodać, że urządzenia kompatybilne z tym standardem, np. access pointy, kamery IP, laptopy czy czujniki monitoringu, bez problemu nawiążą komunikację w tej samej sieci WiFi. Moim zdaniem nie ma obecnie prostszego sposobu na wdrożenie szybkiego monitoringu na dużym obszarze niż właśnie wykorzystanie WiFi. To też rozwiązanie zgodne z aktualnymi trendami branżowymi – wszędzie tam, gdzie liczy się elastyczność, łatwość rozbudowy i szybki serwis.

Pytanie 3

Które urządzenie medyczne wspomaga lub zastępuje mięśnie pacjenta w oddychaniu?

A. Saturator.
B. Respirator.
C. Kapnograf.
D. Pulsoksymetr.
Respirator to zdecydowanie jedno z najważniejszych urządzeń medycznych stosowanych na oddziałach intensywnej terapii, blokach operacyjnych czy nawet w transporcie medycznym. Jego główne zadanie polega na mechanicznym wspomaganiu lub wręcz zastępowaniu funkcji oddychania u pacjentów, którzy nie są w stanie samodzielnie zapewnić odpowiedniej wentylacji płuc. Moim zdaniem bez respiratora nowoczesna medycyna ratunkowa praktycznie nie mogłaby funkcjonować – szczególnie w sytuacjach takich jak niewydolność oddechowa, urazy klatki piersiowej, poważne infekcje płuc czy też znieczulenie ogólne podczas operacji. Respiratory umożliwiają precyzyjne ustawienie parametrów takich jak objętość oddechowa, częstotliwość oddechu, ciśnienie końcowo-wydechowe albo stężenie tlenu w mieszaninie oddechowej, co jest absolutnie kluczowe dla indywidualnego dostosowania terapii do stanu pacjenta. Współczesne standardy, jak np. wytyczne European Society of Intensive Care Medicine, kładą nacisk na personalizację wentylacji mechanicznej, żeby minimalizować ryzyko powikłań takich jak barotrauma czy uszkodzenie płuc. W praktyce spotkałem się z sytuacjami, kiedy odpowiednie zastosowanie respiratora dosłownie ratowało życie – np. u pacjentów po zatrzymaniu akcji serca czy z ciężkim COVID-19. Warto pamiętać, że obsługa respiratora wymaga solidnej wiedzy i regularnych szkoleń, bo nieprawidłowe ustawienia mogą pogorszyć stan chorego. Ciekawostka: nowoczesne respiratory potrafią nawet automatycznie dostosowywać parametry do zmieniających się potrzeb pacjenta.

Pytanie 4

Zgodnie z przedstawionym opisem, gniazdo interfejsu służące do podłączenia audiometru ze stanowiskiem komputerowym przedstawione jest na rysunku

Opis:
− 125 Hz ÷ 8.000 Hz
− -10 dB do 120 dB HL na wyjściu
− połączenie z komputerem PC – interfejs RS232
− połączenie z drukarką laserową
− połączenie z drukarką atramentową
A. Gniazdo 2
Ilustracja do odpowiedzi A
B. Gniazdo 4
Ilustracja do odpowiedzi B
C. Gniazdo 1
Ilustracja do odpowiedzi C
D. Gniazdo 3
Ilustracja do odpowiedzi D
Wybrałeś gniazdo RS232, czyli tzw. port szeregowy DB9. To właśnie to złącze było i nadal jest stosowane w interfejsach komunikacyjnych wielu urządzeń medycznych, właśnie takich jak audiometry. Ten port umożliwia stabilne, przewodowe przesyłanie danych pomiędzy audiometrem a komputerem PC, zgodnie ze standardami transmisji szeregowej. Gniazdo DB9 zostało zaprojektowane jeszcze w epoce komputerów klasy PC XT/AT i z mojego doświadczenia – wciąż pojawia się w sprzęcie specjalistycznym, bo jest niezawodne i proste w obsłudze. W praktyce, jeśli chcesz wyeksportować dane z audiometru do komputera, to właśnie przez takie złącze podłączysz kabel i uruchomisz transmisję, korzystając np. z programów do akwizycji danych medycznych. Chociaż dziś coraz częściej widzi się USB, to branża medyczna mocno trzyma się rozwiązań sprawdzonych – RS232 uchodzi za coś pewnego, dobrze opisanego w normach (np. EIA-232), a po drobnych przeróbkach można nawet przesłać sygnał na spore odległości. Warto znać ten standard, bo często spotyka się go przy serwisowaniu i integracji starszych urządzeń diagnostycznych, także poza medycyną – np. w automatyce czy przemyśle. Moim zdaniem, taka wiedza daje fajne podstawy do dalszego rozwoju w elektronice użytkowej.

Pytanie 5

Narzędzie przedstawione na rysunku służy do

Ilustracja do pytania
A. wykonywania połączeń nitowanych.
B. sprawdzania grubości izolacji.
C. znakowania przewodów.
D. zaciskania wtyków na przewodach.
To narzędzie, które widzisz na zdjęciu, to klasyczna zaciskarka do wtyków, często nazywana też crimperem. Służy ona głównie do zaciskania końcówek na przewodach, najczęściej używa się jej do złączy typu RJ-45 czy RJ-11 – czyli przy tworzeniu przewodów sieciowych lub telefonicznych. Moim zdaniem to jest taki must-have każdego, kto na poważnie podchodzi do okablowania sieciowego czy drobnych napraw w domu, bo pozwala zrobić profesjonalne połączenie bez kombinowania i ryzyka, że kabel będzie się rozłączał. Co ważne, prawidłowo zaciśnięty wtyk to nie tylko stabilność mechaniczna, ale też pewność dobrego kontaktu elektrycznego, a to ma kolosalne znaczenie przy transmisji danych. Dobre praktyki branżowe, np. wg standardów EIA/TIA, zalecają właśnie korzystanie z zaciskarek, bo tylko one gwarantują powtarzalną jakość połączeń, której nie osiągnie się np. śrubokrętem czy kombinerkami. Z mojego doświadczenia wynika też, że warto regularnie sprawdzać stan zaciskarki, bo zużyte szczęki mogą uszkodzić przewód. Podsumowując, narzędzie to jest dedykowane do zaciskania wtyków na przewodach i to właśnie dzięki niemu przewody sieciowe czy telefoniczne działają niezawodnie przez lata.

Pytanie 6

Usterka programowa uniemożliwia uruchomienie systemu Windows. W celu diagnozy i usunięcia usterki wskazane jest

A. przeinstalowanie systemu Windows.
B. uruchomienie komputera w trybie awaryjnym.
C. przeprowadzenie diagnostyki podzespołów.
D. uruchomienie programu do defragmentacji dysku HDD.
Uruchomienie komputera w trybie awaryjnym to zdecydowanie najbardziej sensowny krok przy diagnozowaniu usterki programowej, która uniemożliwia start systemu Windows. Tryb awaryjny to specjalny tryb pracy systemu, który ładuje tylko podstawowe sterowniki i minimalny zestaw usług niezbędnych do funkcjonowania Windowsa. Z mojego doświadczenia wynika, że właśnie w ten sposób najłatwiej jest zidentyfikować, czy problem powoduje na przykład wadliwy sterownik, konflikt oprogramowania czy może uszkodzony plik systemowy. W trybie awaryjnym użytkownik może przeprowadzić naprawę systemu poprzez narzędzia typu Przywracanie systemu, usunąć niedawno zainstalowane oprogramowanie lub nawet wycofać aktualizacje, które mogły spowodować awarię. W praktyce, bardzo często to właśnie ten tryb pozwala dotrzeć do przyczyny problemu bez ryzyka dalszego uszkodzenia systemu. Branżowe standardy IT jednoznacznie wskazują, że rozpoczęcie od trybu awaryjnego to najlepsza praktyka – pozwala uniknąć niepotrzebnych, kosztownych działań, takich jak reinstalacja Windows. Moim zdaniem, każdy kto choć raz rozwiązywał problem z uruchomieniem Windowsa, doceni możliwości tego trybu – zapewnia on naprawdę szerokie pole manewru. Niektórzy nawet mówią, że to ostatnia deska ratunku przed poważniejszą ingerencją. Dlatego warto znać i korzystać z tej opcji, zanim sięgnie się po bardziej radykalne środki.

Pytanie 7

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. Oracle
B. Firebird
C. MySQL
D. PostgreSQL
Oracle faktycznie uniemożliwia bezpłatne zastosowanie w celach komercyjnych i to jest dość znany temat w branży IT. Korzystanie z tego systemu bazodanowego w firmie, która na przykład świadczy usługi dla klientów albo prowadzi własny sklep internetowy, wymaga wykupienia odpowiedniej licencji. Licencjonowanie Oracle jest trochę zagmatwane, bo są tam różne opcje: per user, per processor, no i do tego dochodzi wsparcie techniczne. Co ciekawe, do nauki czy testów jest dostępna wersja Oracle XE (Express Edition), która jednak ma sporo ograniczeń i wyraźnie nie wolno jej używać komercyjnie – producent zresztą tego pilnuje, a łamanie postanowień licencyjnych może się skończyć dość nieprzyjemnie, nawet finansowo. W praktyce wiele dużych przedsiębiorstw korzysta z Oracle, bo system oferuje niesamowite możliwości skalowania, bezpieczeństwo na bardzo wysokim poziomie i wsparcie dla zaawansowanych scenariuszy. Ale jeśli ktoś prowadzi mały start-up albo projekt open-source, to Oracle raczej odpada ze względu na koszty. Moim zdaniem warto znać ograniczenia licencyjne i czytać dokładnie dokumentację licencyjną, bo w czasach audytów software’owych to już nie jest tylko teoria – firmy faktycznie tego pilnują. Co ciekawe, takie restrykcje licencyjne są jedną z przyczyn, dla których projekty open-source tak mocno zyskały popularność – tam nie trzeba się zastanawiać, czy wolno korzystać z bazy w celach zarobkowych.

Pytanie 8

Z elektrokardiogramu wynika, że rytm serca rejestrowany i wskazywany przez elektrokardiograf wynosi

Ilustracja do pytania
A. 96 uderzeń na minutę.
B. 75 uderzeń na minutę.
C. 84 uderzeń na minutę.
D. 60 uderzeń na minutę.
Rytm serca wynoszący 84 uderzeń na minutę, odczytany z elektrokardiogramu, to wartość mieszcząca się w granicach tzw. normy fizjologicznej dla dorosłego człowieka. W praktyce medycznej, prawidłowy rytm zatokowy serca to zwykle zakres 60–100 uderzeń na minutę według wytycznych Europejskiego Towarzystwa Kardiologicznego. Odpowiedź 84 jest więc nie tylko zgodna z odczytem z wykresu, ale też zgodna z rzeczywistością kliniczną – to ani bradykardia, ani tachykardia. Z mojego doświadczenia wynika, że umiejętność poprawnego liczenia częstości rytmu z EKG to fundament dla techników elektroradiologii, pielęgniarek i ratowników medycznych. W praktyce wygląda to tak: liczysz liczbę szczytów QRS w określonym czasie, najczęściej w 6 sekund, mnożysz przez 10 i masz wynik. Dzięki takiej metodzie błyskawicznie można ocenić, czy pacjent wymaga interwencji. Moim zdaniem, regularne ćwiczenie tej analizy bardzo pomaga w realnych sytuacjach – szczególnie na oddziale ratunkowym, gdzie czas gra ogromną rolę. Dobrą praktyką jest też porównywanie manualnych obliczeń z wynikiem wskazanym przez elektrokardiograf, bo nawet automaty potrafią się czasem mylić, zwłaszcza przy arytmiach. Warto o tym pamiętać i nie polegać ślepo na maszynie.

Pytanie 9

Najważniejszą cechą pamięci operacyjnych serwerowych jest ich niezawodność, dlatego powinny być wyposażone w mechanizm kontroli błędów określany skrótem

A. CAS
B. EPP
C. RAS
D. ECC
Prawidłowa odpowiedź to ECC, czyli Error-Correcting Code. To jest obecnie absolutny standard w serwerowych pamięciach RAM, nie tylko dlatego, że ktoś sobie wymyślił, ale dlatego, że bez tego w dużych systemach po prostu nie ma szans na niezawodność. ECC umożliwia wykrywanie i automatyczne korygowanie pojedynczych błędów bitowych, które mogą się pojawiać podczas pracy pamięci – szczególnie ważne przy 24/7, bo w serwerach każda, nawet minimalna, utrata danych może mieć poważne konsekwencje. Moim zdaniem, jeśli ktoś myśli o budowie infrastruktury, na którą ma spaść jakakolwiek odpowiedzialność, to wybór pamięci z ECC jest podstawą. Sam kiedyś widziałem przypadki, gdzie jedna kość bez ECC potrafiła powodować bardzo dziwne, trudne do zdiagnozowania awarie systemu. ECC to nie tylko większy spokój, ale też zgodność ze standardami branżowymi – praktycznie każda poważna serwerownia, data center czy nawet mniejszy system NAS korzysta z tej technologii, bo nikt nie chce tracić danych przez pojedynczy zakłócony bit. Dodatkowo pamięci ECC są często wymagane przez producentów serwerów, żeby gwarancja czy wsparcie serwisowe w ogóle obowiązywało. W praktyce, jeśli planujesz serwery, to ECC absolutnie musi być na liście wymagań, nawet jeśli koszt jest trochę wyższy – to po prostu się opłaca w dłuższej perspektywie.

Pytanie 10

W dokumentacji testera aparatury medycznej podano następujące informacje:

  • Kompatybilny z technologiami: Lown, Edmark, trapezową, dwufazową oraz impulsową-dwufazową
  • Kompatybilny z technologią AED
  • Dokładność pomiarowa ±1% plus 0,1 J

Tester ten służy do sprawdzania parametrów pracy
A. defibrylatora.
B. elektrokardiografu.
C. elektroencefalografu.
D. manometru.
Wybór defibrylatora jako poprawnej odpowiedzi wynika bezpośrednio z opisanych cech testera. W dokumentacji wymieniono kompatybilność z różnymi technologiami defibrylacji, takimi jak Lown, Edmark, trapezowa, dwufazowa i impulsowa-dwufazowa oraz AED. To typowe określenia stosowane właśnie w technologii defibrylatorów – w praktyce nie spotyka się ich przy innych urządzeniach medycznych jak manometry czy EKG. Współczesne defibrylatory wykorzystują rozmaite przebiegi impulsów, a tester musi precyzyjnie mierzyć energię wyładowania, by zapewnić bezpieczeństwo pacjenta i skuteczność terapii. Informacja o dokładności pomiaru energii (±1% oraz 0,1 J) też jest jednoznacznie powiązana z testowaniem sprzętu do defibrylacji – zgodnie z normą PN-EN 60601-2-4, która dotyczy defibrylatorów medycznych, kalibracja i kontrola energii wyładowań to kluczowy element rutynowej obsługi technicznej. Moim zdaniem taka wiedza jest nie do przecenienia w pracy technika i serwisanta medycznego, bo od rzetelnej kontroli defibrylatorów zależy bezpieczeństwo pacjentów w nagłych sytuacjach. W zakładach opieki zdrowotnej regularność i jakość testów defibrylatorów jest przedmiotem licznych audytów i przeglądów. Co ciekawe, same testery bywają też używane podczas szkoleń dla personelu – można na nich symulować różne typy wyładowań. Z mojego doświadczenia warto zapamiętać, że prawidłowa eksploatacja i okresowa weryfikacja parametrów defibrylatora jest podstawą skutecznej resuscytacji i minimalizuje ryzyko awarii sprzętu w krytycznych momentach.

Pytanie 11

W celu archiwizacji danych w systemie Linux wymagane jest utworzenie archiwum. Korzystając z zamieszczonej w ramce pomocy dobierz odpowiednie polecenie.

-c, --createutworzenie nowego archiwum
-z, --gzipfiltrowanie archiwum przez gzip
-v, --verbosewypisywanie szczegółów o przetwarzanych plikach
-f, --file=ARCHIWUMużycie pliku lub urządzenia ARCHIWUM
-x, --extractrozpakowanie plików z archiwum
-t, --listwypisanie zawartości archiwum
-r, --appenddołączenie plików na końcu archiwum
-u, --updatedołączenie tylko plików nowszych niż kopie w archiwum
A. tar – cvf
B. tar – xvf
C. tar – rvf
D. tar – tvf
Polecenie tar –cvf to absolutna podstawa, jeśli chodzi o archiwizację danych w systemach Linux. Flaga -c, jak pokazuje tabela pomocy, oznacza utworzenie nowego archiwum, a -v pozwala na obserwowanie, co dokładnie jest do niego dodawane – co, moim zdaniem, bywa przydatne, zwłaszcza gdy pracujesz z większą liczbą plików i chcesz mieć szybki podgląd postępu. Opcja -f wskazuje miejsce docelowe archiwum, czyli nazwę pliku (na przykład backup.tar). Bardzo często w praktyce dodaje się też -z do kompresji przez gzip, czyli tar -czvf, co pozwala mocno zmniejszyć rozmiar archiwum. Warto przyjąć zasadę, żeby zawsze jasno nazywać pliki wynikowe i trzymać się ustalonych konwencji nazewnictwa, bo potem łatwiej znaleźć archiwum wśród setek innych plików. Z mojego doświadczenia archiwizacja przez tar to nie tylko backupy – sporo administratorów korzysta z tej metody do migracji środowisk, przenoszenia całych katalogów konfiguracyjnych czy nawet przygotowywania snapshotów aplikacji na serwerach produkcyjnych. Dobrą praktyką jest też testowanie potem archiwum przez tar -tvf, żeby sprawdzić, czy wszystko się poprawnie zapisało. Ogólnie, polecenie tar –cvf to żelazny standard i aż dziw bierze, jak często ktoś się myli, bo nie do końca rozumie, co oznacza każda flaga – choć to przecież fundamenty pracy w Linuxie.

Pytanie 12

Które działanie nie odnosi się do podstawowej funkcji komputera?

A. Dekodowanie rozkazów.
B. Przetwarzanie danych.
C. Przechowywanie danych.
D. Diagnostyka systemu.
Diagnostyka systemu faktycznie nie jest podstawową funkcją komputera – to raczej dodatkowa czynność, którą wykonują specjalistyczne programy albo sam użytkownik, kiedy coś zaczyna szwankować. Komputer z założenia został stworzony do przetwarzania danych, przechowywania informacji oraz do dekodowania rozkazów, czyli po prostu do wykonywania instrukcji, jakie mu wydamy. Diagnostyka to taka „kontrola stanu technicznego” – sprzęt i systemy operacyjne mają narzędzia, które potrafią wykryć i zdiagnozować błędy, ale to nie jest ich główna rola. Moim zdaniem, patrząc na standardowe klasyfikacje – np. na to, co jest nazywane cyklem przetwarzania informacji przez komputer (ang. information processing cycle) – zawsze wymienia się: wejście danych, przetwarzanie, wyjście i przechowywanie. Diagnostyka mogłaby się pojawić jako funkcja pomocnicza, no powiedzmy – coś jak przegląd techniczny, a nie silnik, który napędza auto. W praktyce, w firmach IT czy nawet w codziennym użytkowaniu, diagnostyka przydaje się głównie wtedy, gdy występują problemy, a nie podczas typowego działania systemu. Oczywiście, istnieją specjalne narzędzia do monitoringu i diagnostyki, ale są one uruchamiane na żądanie, a nie w ramach podstawowych procesów komputerowych. Warto zapamiętać, że podstawą działania każdego komputera jest przetwarzanie, dekodowanie i przechowywanie danych – reszta to już dodatki, które mają usprawnić pracę lub rozwiązać pojawiające się trudności.

Pytanie 13

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. net rejestracja \add user
B. net user rejestracja /add
C. user add rejestracja
D. add user rejestracja
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 14

Materiałem eksploatacyjnym w drukarce laserowej jest

Ilustracja do pytania
A. pojemnik z tuszem.
B. kaseta z tonerem.
C. papier termotransferowy.
D. taśma barwiąca.
Kaseta z tonerem to podstawowy materiał eksploatacyjny w drukarkach laserowych i to jest fakt, którego nie da się przeskoczyć. W praktyce działa to tak, że toner, czyli taki drobny, suchy proszek, jest nanoszony na papier za pomocą wałka światłoczułego i utrwalany termicznie. Co ciekawe, w branży IT i serwisu biurowego, wymiana kasety tonerowej to najczęściej wykonywana czynność serwisowa przy drukarce laserowej. Moim zdaniem warto zapamiętać, że dobór odpowiedniego tonera (oryginalnego lub zamiennika) realnie wpływa na jakość wydruku, żywotność drukarki oraz minimalizuje ryzyko awarii. Praktyka pokazuje, że oryginalne tonery, zgodnie z zaleceniami producentów (np. HP, Brother, Canon), gwarantują lepszą wydajność i mniejsze zapylenie wnętrza urządzenia. Warto też wiedzieć, że kaseta z tonerem to nie tylko sam proszek, ale często cała zintegrowana jednostka z elementami odpowiedzialnymi za równomierne rozprowadzanie tonera, co jest zgodne z obecnymi standardami branżowymi. Jednym słowem, bez tego materiału drukarka laserowa zwyczajnie nie wydrukuje ani jednej strony. Z mojego doświadczenia, jeśli ktoś planuje eksploatować drukarkę laserową intensywnie, optymalizacja kosztów i dobrze dobrane tonery to podstawa sprawnej pracy biura.

Pytanie 15

W tabeli zestawiono parametry pamięci półprzewodnikowej i pamięci magnetycznej. Zastosowanie którego rodzaju pamięci umożliwi szybszą pracę komputera?

Ilustracja do pytania
A. Dysk HDD z uwagi na czas procesora.
B. Dysk SSD ze względu na pobieraną moc.
C. Dysk HDD ze względu na pobieraną moc.
D. Dysk SSD z uwagi na czas dostępu.
Prawidłowo wskazana odpowiedź opiera się na kluczowym parametrze, jakim jest czas dostępu do danych. W praktyce to właśnie ten czas w największym stopniu wpływa na odczuwalną szybkość pracy komputera – szczególnie przy uruchamianiu systemu, ładowaniu aplikacji czy pracy z dużą ilością plików. SSD, czyli dyski półprzewodnikowe, charakteryzują się czasem dostępu rzędu 0,1 ms, co w porównaniu z 5,5-8 ms dla dysków HDD jest wynikiem nieporównywalnie lepszym. To oznacza, że praktycznie każda operacja na plikach odbywa się prawie natychmiastowo. W realnych zastosowaniach, takich jak montaż wideo, programowanie, czy nawet zwykłe korzystanie z przeglądarki, SSD po prostu nie mają sobie równych. Z mojego doświadczenia wynika, że nawet w starszych komputerach wymiana HDD na SSD potrafi sprawić, że sprzęt dostaje drugie życie. Warto też zauważyć, że standardy branżowe, takie jak zalecenia Microsoft czy producentów serwerów, jasno wskazują SSD jako optymalne rozwiązanie wszędzie tam, gdzie liczy się szybkość dostępu do danych. Oczywiście SSD mają też inne zalety – są mniej awaryjne, mniej prądożerne, no ale to właśnie szybkość jest tu kluczowa. W sumie, jeśli komuś zależy na przyspieszeniu pracy komputera w codziennych zastosowaniach, SSD to wybór numer jeden – i tego raczej nic już nie zmieni.

Pytanie 16

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. elektrokardiogramie.
B. scyntygramie.
C. renogramie.
D. elektroencefalogramie.
Fale mózgowe, takie jak alfa, beta, gamma, delta i theta, są zapisywane przy użyciu elektroencefalogramu, czyli EEG. To jest standardowa metoda monitorowania aktywności elektrycznej mózgu. W praktyce EEG wykorzystuje się do diagnozowania różnych schorzeń neurologicznych, np. padaczki, zaburzeń snu, czy też uszkodzeń mózgu po urazach. Osobiście uważam, że EEG jest jednym z ciekawszych narzędzi w neurofizjologii, bo pozwala zobaczyć dosłownie pracę mózgu na żywo. Z mojego doświadczenia wynika, że interpretacja fal wymaga trochę wprawy – np. fale alfa najczęściej pojawiają się u relaksujących się osób z zamkniętymi oczami, a beta dominują podczas aktywności umysłowej czy stresu. Fale theta i delta są charakterystyczne dla głębokiego snu albo niektórych zaburzeń. EEG jest też wykorzystywane w badaniach naukowych, np. przy mapowaniu funkcjonalnym kory mózgowej. W praktyce klinicznej elektroencefalografia jest absolutnym standardem, a jej wyniki pomagają lekarzom podjąć decyzje terapeutyczne. Warto pamiętać, że żadne inne badanie z listy nie zarejestruje tych fal – to taka wiedza, która serio przydaje się, jeśli pracuje się w ochronie zdrowia albo naukach o człowieku.

Pytanie 17

Który z przedstawionych przyrządów służy do testowania połączeń w sieci LAN?

A. Przyrząd 4
Ilustracja do odpowiedzi A
B. Przyrząd 2
Ilustracja do odpowiedzi B
C. Przyrząd 1
Ilustracja do odpowiedzi C
D. Przyrząd 3
Ilustracja do odpowiedzi D
Przyrząd numer 4 to tzw. tester kabli sieciowych, popularnie nazywany testerem LAN lub testerem RJ-45. To urządzenie jest projektowane specjalnie do sprawdzania połączeń w przewodach sieciowych typu skrętka, którymi łączone są komputery, switche czy routery w sieci lokalnej. Tester taki pozwala sprawdzić, czy każda z żył w przewodzie jest poprawnie połączona od początku do końca – czyli czy nie ma przerw, zwarć albo błędnych zamian kolorów. W praktyce, kiedy zarabiasz końcówki RJ-45, taki tester puszczasz po kablu i od razu widzisz na diodach, czy wszystko styka. Moim zdaniem nie da się dobrze robić instalacji sieciowych bez czegoś takiego – to podstawa narzędziowa każdego technika sieciowego. Branżowe standardy (np. ANSI/TIA-568) wyraźnie zalecają testowanie każdej instalacji przed oddaniem jej do użytku właśnie za pomocą testera kabli. Co ciekawe, niektóre zaawansowane testery potrafią od razu wskazać miejsce uszkodzenia albo długość kabla. Warto pamiętać, że testery tego typu nie nadają się do pomiarów napięcia czy prądu, a skupiają się wyłącznie na poprawności połączeń logicznych, co w sieciach komputerowych jest najważniejsze. Jeśli chcesz być pewien, że twoja sieć LAN jest solidnie zrobiona i pozbawiona błędów, użycie testera to absolutna konieczność.

Pytanie 18

Wymianą informacji pomiędzy układami znajdującymi się na płycie głównej komputera steruje

A. chipset.
B. MAC.
C. pamięć RAM.
D. procesor GPU.
Chipset to taki trochę niewidzialny bohater na płycie głównej – niby go nie widać, mało kto o nim mówi przy składaniu kompa, a jednak to on kieruje całym ruchem informacji pomiędzy procesorem, pamięcią RAM, kartami rozszerzeń czy nawet dyskami. Jeśli by porównać płytę główną do ruchliwego skrzyżowania, to chipset jest takim policjantem, który decyduje, kto ma pierwszeństwo, a kto musi poczekać. Chipset składa się z dwóch głównych części – dawniej nazywanych Northbridge i Southbridge, choć dzisiaj w nowoczesnych rozwiązaniach większość funkcji Northbridge’a jest już przeniesiona do procesora. W praktyce to właśnie chipset odgrywa kluczową rolę w tym, czy dany komputer obsłuży szybkie pamięci RAM, ile dysków SSD da się podłączyć, czy można zamontować najnowszą kartę graficzną, czy nie. Wybierając płytę główną, zawsze warto spojrzeć, jaki chipset jest na pokładzie, bo to od niego zależy, jakie technologie będą dostępne i jak wydajnie będą one ze sobą współpracowały. Moim zdaniem znajomość działania chipsetu to absolutna podstawa dla każdego, kto chce nie tylko składać, ale i naprawiać czy rozbudowywać komputery. Bez tej wiedzy bardzo łatwo popełnić błąd i potem się dziwić, czemu coś nie działa albo nie da się podkręcić sprzętu. Z własnego doświadczenia wiem, że zwracanie uwagi na chipset pozwala uniknąć wielu problemów z kompatybilnością i wydajnością. To taka nieoczywista, ale bardzo ważna część komputera, o której mówią wszyscy bardziej zaawansowani technicy.

Pytanie 19

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. KTG
B. EKG
C. EMG
D. RTG
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.

Pytanie 20

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. sieciowych.
B. wolnozmiennych.
C. mięśniowych 25 Hz.
D. mięśniowych 35 Hz.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 21

Do badania przewodnictwa powietrznego i kostnego służy

A. kapnometr.
B. audiometr.
C. adaptometr.
D. fotometr.
Audiometr to urządzenie, które z mojego doświadczenia jest totalną podstawą w badaniach słuchu – zarówno przewodnictwa powietrznego, jak i kostnego. W praktyce używa się go w gabinetach laryngologicznych oraz w poradniach audiologicznych. Pozwala ocenić, jak dobrze dany pacjent słyszy dźwięki o różnych częstotliwościach zarówno przez słuchawki (przewodnictwo powietrzne), jak i przez specjalne wibratory kostne (przewodnictwo kostne). Bardzo często audiometr stosuje się przy podejrzeniu niedosłuchu przewodzeniowego lub odbiorczego – wyniki pozwalają określić, gdzie dokładnie leży problem w uchu. Zwraca się uwagę na to, by badanie było przeprowadzone w wyciszonym pomieszczeniu, zgodnie z wytycznymi Polskiego Towarzystwa Otolaryngologów. Z mojej perspektywy, to sprzęt niezastąpiony w profilaktyce słuchu chociażby u osób pracujących w hałasie – dzięki temu wykrywa się uszkodzenia słuchu zanim pojawią się trwałe zmiany. Audiometria tonalna i próby przewodnictwa kostnego to standard w medycynie pracy, diagnostyce dzieci, osób starszych, czy nawet przed doborem aparatów słuchowych. Przy okazji warto dodać, że są różne modele audiometrów – od prostych, przenośnych po bardzo zaawansowane, komputerowe systemy, które umożliwiają szczegółową analizę słuchu. W sumie nie wyobrażam sobie dobrej diagnostyki bez tego sprzętu – zdecydowanie jest to narzędzie pierwszego wyboru według wszelkich dobrych praktyk.

Pytanie 22

Operacja warunkowa w większości języków programowania wysokiego poziomu zaczyna się słowem

A. for
B. do
C. while
D. if
Operacja warunkowa to coś, co w programowaniu spotyka się na każdym kroku. Słowo kluczowe „if” jest takim fundamentem, bez którego trudno wyobrazić sobie jakikolwiek prosty algorytm. Można powiedzieć, że to taki podstawowy budulec logiki w większości popularnych języków, jak Python, Java, C++, C#, JavaScript – wszędzie tam „if” rozpoczyna warunkowe rozgałęzienie. Praktycznie zawsze wygląda to mniej więcej tak: if (warunek) { // kod gdy warunek prawdziwy }. Dzięki temu można sterować przepływem programu i reagować na różne sytuacje, zależnie od zmiennych lub wyniku działania funkcji. Co ciekawe, samo „if” to skrót od angielskiego „jeśli”, więc nawet osoby, które nie znają za dobrze języka angielskiego, łatwo zapamiętują jego działanie. Moim zdaniem, warto zawsze na początku nauki programowania dobrze zrozumieć, jak działa instrukcja warunkowa, bo potem przy bardziej złożonych projektach nie raz ratuje nam skórę. Dla przykładu – gdy programujemy prostą aplikację do logowania, najpierw sprawdzamy if hasło jest prawidłowe, potem if użytkownik jest aktywny, itd. To jest naprawdę uniwersalne narzędzie, a przy okazji bardzo czytelne i intuicyjne. Warto jeszcze wiedzieć, że „if” to element tzw. struktury sterowania, której znajomość jest absolutną podstawą, według praktycznie wszystkich standardów nauczania i dokumentacji języków programistycznych.

Pytanie 23

Który system plików zapewnia największe bezpieczeństwo danych w systemie Windows?

A. ext4
B. FAT 16
C. NTFS
D. FAT 32
NTFS to zdecydowanie najlepszy wybór, jeśli chodzi o bezpieczeństwo danych w systemie Windows. Po pierwsze, ten system plików pozwala na zaawansowane zarządzanie uprawnieniami – można bardzo precyzyjnie ustawiać, kto ma dostęp do jakiego pliku czy folderu, a to w praktyce daje ogromne możliwości kontroli. Jedną z najważniejszych cech NTFS jest obsługa szyfrowania plików (EFS), co wrażliwych danych zabezpiecza przed dostępem niepowołanych użytkowników. No i oczywiście, NTFS ma wbudowane mechanizmy odzyskiwania po awarii – na przykład dziennikowanie operacji (tzw. journaling), dzięki czemu podczas nagłego zaniku zasilania system jest w stanie automatycznie naprawić uszkodzone struktury plików. W przedsiębiorstwach NTFS to standard, bo pozwala na stosowanie polityk bezpieczeństwa zgodnych z wymaganiami ISO/IEC 27001 czy politykami RODO. Moim zdaniem, dla każdego, kto chociaż trochę dba o integralność i bezpieczeństwo danych, inne opcje nie mają nawet podejścia. Co ciekawe, NTFS obsługuje także limity pojemności, kompresję plików czy tworzenie kopii zapasowych typu shadow copy. I jeszcze taka ciekawostka – większość zaawansowanych narzędzi Windows nawet nie pozwala korzystać z dysków FAT, jeśli trzeba ustawić uprawnienia albo szyfrować katalogi. W sumie, dziś to już absolutna podstawa w każdej firmowej sieci.

Pytanie 24

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. ALU
B. DSP
C. GPU
D. FPU
Jednostka ALU, czyli Arithmetic Logic Unit, to absolutna podstawa każdego procesora. To właśnie tutaj odbywają się wszystkie operacje stałoprzecinkowe: dodawanie, odejmowanie, przesunięcia bitowe, porównania czy proste operacje logiczne typu AND, OR. W praktyce, jak piszemy nawet najprostszy kawałek kodu w C czy assemblerze, to praktycznie każda instrukcja arytmetyczna przechodzi przez ALU. Moim zdaniem warto pamiętać, że ALU działa na liczbach całkowitych, a nie zmiennoprzecinkowych. W komputerach PC, ale też w mikrokontrolerach typu AVR czy ARM Cortex-M, ALU obsługuje praktycznie wszystkie codzienne operacje matematyczne. W sumie to podstawa np. przy obsłudze liczników, timerów, adresacji pamięci, operacjach na portach I/O. Standardy projektowania procesorów wyraźnie rozgraniczają ALU od innych jednostek, które odpowiadają za specjalistyczne zadania, np. FPU do operacji zmiennoprzecinkowych. Praktyczna rada: jak pracujecie z niskopoziomowym kodem, warto zaglądać do dokumentacji i zobaczyć, które instrukcje korzystają z ALU. Z mojego doświadczenia, zrozumienie działania ALU bardzo przydaje się przy optymalizowaniu szybkości programów i debugowaniu problemów sprzętowych. W wielu systemach embedded, gdzie liczy się każdy cykl zegara, znajomość możliwości ALU potrafi uratować projekt.

Pytanie 25

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. chronionymi.
B. zastrzeżonymi.
C. pewnymi.
D. publicznymi.
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 26

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. β
B. e
C. γ
D. α
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 27

W urządzeniu medycznym wyznaczono charakterystykę filtru jak na rysunku. Jest to filtr

A. górnoprzepustowy o częstotliwości granicznej 20 Hz.
B. dolnoprzepustowy o częstotliwości granicznej 20 Hz.
C. górnoprzepustowy o częstotliwości granicznej 25 Hz.
D. dolnoprzepustowy o częstotliwości granicznej 25 Hz.
To jest właśnie solidna odpowiedź, która pokazuje dobre zrozumienie działania filtrów w układach elektronicznych – zwłaszcza w medycynie. Filtr dolnoprzepustowy przepuszcza sygnały o częstotliwościach niższych niż częstotliwość graniczna, tłumiąc te wyższe. W praktyce, taka konfiguracja jest często używana w aparaturze EKG, EEG czy nawet w niektórych układach monitorujących parametry życiowe, żeby odfiltrować zakłócenia z sieci czy artefakty ruchowe. Częstotliwość graniczna 20 Hz jest typowa np. dla filtracji sygnałów EKG, gdzie zależy nam na zachowaniu najważniejszych informacji o pracy serca, a jednocześnie na zredukowaniu szumów wysokoczęstotliwościowych. Z mojego doświadczenia, projektanci zawsze zwracają uwagę, by nie ustawiać tej granicy za nisko, bo wtedy zginą pewne ważne składowe sygnału. To też warto wiedzieć, że wybór częstotliwości granicznej wynika nie tylko ze specyfikacji urządzenia, ale też z norm międzynarodowych, np. PN-EN 60601-2-25 w przypadku EKG. Tego typu filtry można realizować analogowo (np. prosty filtr RC) albo cyfrowo, zależnie od konstrukcji sprzętu. Branżowym standardem jest też, by każda charakterystyka takiego filtra była udokumentowana, właśnie po to, by lekarz wiedział, jakie informacje z sygnału zostaną zachowane. Moim zdaniem, umiejętność rozpoznania typu filtra na podstawie wykresu to absolutna podstawa dla każdego technika czy inżyniera elektroniki medycznej.

Pytanie 28

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Pamięć RAM
B. Procesor
C. Układ I/O
D. Pamięć flash
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 29

Przedstawiony fragment dokumentacji dotyczy

Częstotliwość: 2.0-10.0MHz;

Tryb obrazowania: B, B/B, B/M, M, 4B;

Dynamiczne 4-stopniowe ogniskowanie;

A. tomografu.
B. ultrasonografu.
C. renografu.
D. scyntygrafu.
Poprawnie wskazano, że fragment dokumentacji dotyczy ultrasonografu. Świadczy o tym kilka bardzo charakterystycznych elementów. Po pierwsze zakres częstotliwości 2,0–10,0 MHz jest typowy właśnie dla głowic USG używanych w diagnostyce medycznej. Niższe częstotliwości (ok. 2–3,5 MHz) stosuje się np. w badaniach jamy brzusznej czy serca, bo fale głębiej penetrują tkanki, ale kosztem rozdzielczości. Wyższe częstotliwości (7,5–10 MHz i więcej) wykorzystuje się w badaniach powierzchownych struktur, np. tarczycy, ścięgien, sutka, gdzie ważna jest wysoka rozdzielczość obrazu, a głębokość już mniejsza. Po drugie, tryby obrazowania B, B/B, B/M, M, 4B to typowe oznaczenia trybów pracy aparatu USG. Tryb B (brightness mode) to standardowy obraz dwuwymiarowy w skali szarości. M-mode (motion) służy głównie w kardiologii do oceny ruchu struktur w czasie, np. zastawek serca. B/M to połączenie obrazu przekrojowego z jednoczesnym zapisem M-mode w wybranej linii. Tryb 4B oznacza wyświetlanie kilku (zwykle czterech) okien obrazu B jednocześnie, np. do porównywania przekrojów lub śledzenia dynamicznych zmian. Dodatkowo informacja o „dynamicznym 4-stopniowym ogniskowaniu” dotyczy elektronicznego kształtowania wiązki ultradźwiękowej w głowicy liniowej lub sektorowej. Aparat może ustawiać kilka ognisk w różnych głębokościach, co poprawia ostrość obrazu w całym przekroju. To jest typowa funkcja nowocześniejszych ultrasonografów, zwiększająca jakość diagnostyczną badania. W praktyce serwisowej i użytkowej trzeba umieć powiązać takie parametry z konkretnym zastosowaniem klinicznym: dobór głowicy, częstotliwości, liczby ognisk, trybu B/M czy M-mode zależy od badanej okolicy i rozpoznania. W dokumentacji technicznej USG zawsze znajdziesz właśnie takie elementy: zakres częstotliwości głowic, dostępne tryby obrazowania, rodzaj ogniskowania, czasem też głębokość skanowania, liczbę kanałów, obsługiwane presety kliniczne. To wszystko potwierdza, że opis dotyczy ultrasonografu, a nie innych urządzeń obrazowych.

Pytanie 30

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. liczbie cykli zegara.
B. liczbie bitów do odczytu.
C. sekundach.
D. milisekundach.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 31

Struktura anatomiczna człowieka, która jest nazywana krytyczną ze względu na szczególną wrażliwość na zewnętrzne promieniowanie jonizujące, to

A. soczewka oka.
B. wątroba.
C. nerka.
D. klatka piersiowa.
Soczewka oka to taka dość specyficzna struktura w ciele człowieka, która jest wyjątkowo wrażliwa na promieniowanie jonizujące, nawet przy bardzo niskich dawkach. Z mojej perspektywy praktyka – czy to w diagnostyce obrazowej, czy w radiologii czy nawet w ochronie radiologicznej – zawsze kładzie się ogromny nacisk na ochronę oczu. Soczewka nie ma własnych naczyń krwionośnych i nie jest w stanie samodzielnie naprawić uszkodzeń wywołanych przez promieniowanie. Efektem zbyt dużej dawki może być rozwój zaćmy popromiennej, często nieodwracalnej. Co ciekawe, jeszcze kilka lat temu uznawano, że dopuszczalna dawka dla soczewki może być stosunkowo wysoka, ale teraz – zgodnie z zaleceniami Międzynarodowej Komisji Ochrony Radiologicznej (ICRP) – te wartości znacznie obniżono (obecnie wynosi to 20 mSv/rok dla osób zawodowo narażonych). W praktyce lekarze i technicy wszędzie tam, gdzie istnieje ryzyko ekspozycji, stosują ołowiane okulary ochronne, bo to naprawdę się opłaca. Warto też pamiętać, że nawet podczas krótkotrwałej ekspozycji oko jest dużo bardziej podatne na skutki promieniowania niż większość innych narządów. Ochrona soczewki to taki elementarz w każdej pracowni rentgenowskiej czy tomografii komputerowej. O tym się mówi na każdym szkoleniu BHP związanym z promieniowaniem.

Pytanie 32

W opisanym programie zostaną wykonane 4

for (i=0;i<=3;i++)
suma=suma+i;
A. rekurencje.
B. iteracje.
C. rekursje.
D. dekrementacje.
W tym przypadku mamy klasyczną pętlę for, czyli typową konstrukcję służącą do wykonywania iteracji w programowaniu. Program zaczyna od wartości i=0 i zwiększa ją do i=3, wykonując blok kodu suma=suma+i za każdym razem. To powoduje, że cała ta konstrukcja wykona się dokładnie 4 razy, bo pętla działa, dopóki i<=3, czyli dla wartości 0, 1, 2 oraz 3. W praktyce właśnie takie iteracje pozwalają nam zautomatyzować powtarzanie operacji bez konieczności ręcznego kopiowania kodu. Moim zdaniem to jedna z najbardziej fundamentalnych rzeczy, jaką warto opanować na początku nauki programowania. Bez iteracji trudno sobie wyobrazić np. sumowanie elementów tablicy, przetwarzanie zbioru danych czy nawet proste generowanie raportów. W codziennej pracy z kodem iteracje spotyka się praktycznie wszędzie – od prostych algorytmów po bardziej zaawansowane pętle obsługujące np. zdarzenia w aplikacjach. Warto też pamiętać, że dobre praktyki nakazują pisanie takich pętli w sposób czytelny i optymalny, zarówno pod względem wydajności, jak i zrozumiałości dla innych członków zespołu. Pętle for są standardem w wielu językach, m.in. C, C++, Java, Python (choć tam składnia wygląda trochę inaczej).

Pytanie 33

Urządzenie, którego dotyczy fragment podanej specyfikacji, jest przystosowane do

■ Architektura sieci LAN:Wireless IEEE 802.11ac, Wireless IEEE 802.11a, Wireless IEEE 802.11b, Wireless IEEE 802.11g, Wireless IEEE 802.11n
■ Dodatkowe informacje:PoE, RJ-45 Serial
■ Typ urządzenia:Bezprzewodowy kontroler
■ Typ złącza anteny zewnętrznej:3x3 MIMO
A. parowania urządzeń przy pomocy standardu NFC.
B. korzystania z pojedynczego przewodu do transmisji danych i zasilania urządzenia.
C. wymiany danych z wykorzystaniem technologii Bluetooth.
D. pracy ze złączem światłowodowym.
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje funkcjonalność opisanego urządzenia. W specyfikacji wyraźnie podano, że urządzenie obsługuje PoE (Power over Ethernet), a to jest właśnie technologia pozwalająca na jednoczesną transmisję danych oraz zasilanie poprzez jeden przewód Ethernetowy (RJ-45). Moim zdaniem to rozwiązanie jest bardzo praktyczne wszędzie tam, gdzie nie ma możliwości poprowadzenia osobnej instalacji elektrycznej, np. w biurach, na halach produkcyjnych czy w szkołach. W branży sieciowej PoE jest już właściwie standardem przy wdrażaniu punktów dostępowych Wi-Fi, kamer IP czy telefonów VoIP. Dzięki temu ogranicza się liczbę przewodów, zmniejsza ryzyko błędów instalacyjnych oraz obniża koszty całej infrastruktury. Warto też dodać, że PoE ma różne warianty (np. PoE, PoE+, PoE++), które różnią się mocą dostarczaną do urządzenia. Oprócz wygody, PoE daje też większą elastyczność przy modernizacjach sieci – można łatwiej zmienić lokalizację urządzenia bez konieczności przekładania instalacji elektrycznej. Z mojego doświadczenia wynika, że jeśli dostajesz urządzenie z PoE i RJ-45, to praktycznie zawsze oznacza to możliwość transmisji danych oraz zasilania przez jeden przewód – i to jest właśnie kluczowa przewaga tej technologii nad bardziej tradycyjnymi rozwiązaniami.

Pytanie 34

Które polecenie SQL pozwoli na utworzenie tabeli pacjentów w bazie przychodnia?

A. CREATE DB przychodnia TABLE pacjenci.
B. CREATE DATABASE przychodnia TAB pacjenci.
C. CREATE przychodnia, pacjenci.
D. CREATE TABLE pacjenci.
Polecenie CREATE TABLE pacjenci jest zgodne z podstawową składnią języka SQL używaną do tworzenia nowej tabeli w już istniejącej bazie danych. To rozwiązanie jest nie tylko poprawne, ale i uniwersalne – działa praktycznie w każdej implementacji SQL, czy to MySQL, PostgreSQL, czy MSSQL. Tak naprawdę, zanim zaczniesz używać CREATE TABLE, musisz być już połączony z odpowiednią bazą danych (np. przychodnia). To jest bardzo ważny krok, którego nie rozwiązuje samo polecenie CREATE TABLE – ono nie tworzy bazy, tylko tabelę wewnątrz aktywnej bazy. Moim zdaniem to jedno z tych poleceń, które warto znać na pamięć, bo przy projektowaniu dowolnej aplikacji – od prostych systemów rejestracji po zaawansowane rozwiązania medyczne – operacje na tabelach to chleb powszedni. W praktyce, polecenie CREATE TABLE pacjenci powinno być rozwinięte o definicję kolumn, np. CREATE TABLE pacjenci (id INT PRIMARY KEY, imie VARCHAR(50), nazwisko VARCHAR(50), data_urodzenia DATE), bo sama nazwa tabeli to trochę za mało, żeby baza wiedziała, jak przechowywać dane. Jednak ta uproszczona forma pokazuje samą istotę polecenia. Warto pamiętać, że najlepsze praktyki branżowe mówią o precyzyjnym definiowaniu typów danych oraz kluczy głównych przy tworzeniu tabel, co poprawia bezpieczeństwo i wydajność bazy. Z mojego doświadczenia, niedokładne definiowanie tabel prowadzi potem do sporych problemów z utrzymaniem lub rozwojem bazy. W skrócie: CREATE TABLE to fundament budowy struktur danych w SQL.

Pytanie 35

Które polecenie w systemie Windows tworzy folder Dane?

A. set Dane
B. rmdir Dane
C. mkdir Dane
D. ren Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 36

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. RTG
B. EKG
C. EEG
D. KTG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 37

Która część narządu wzroku rejestruje światło widzialne?

A. Siatkówka.
B. Soczewka.
C. Spojówka.
D. Rogówka.
Siatkówka to taka część oka, która pełni kluczową rolę w procesie widzenia – można powiedzieć, że bez niej nie ma mowy o jakimkolwiek odbiorze obrazu. Zbudowana jest z warstw komórek światłoczułych, czyli pręcików i czopków. Pręciki odpowiadają za widzenie przy słabym świetle (np. nocą), a czopki za widzenie barwne i ostrość w ciągu dnia. Światło, które przechodzi przez rogówkę, soczewkę i ciało szkliste, dociera właśnie do siatkówki, gdzie zachodzą pierwsze reakcje biochemiczne uruchamiające cały proces widzenia. Rejestrowanie światła widzialnego przez siatkówkę to podstawa działania narządu wzroku – w praktyce, to dzięki niej różne urządzenia diagnostyczne, np. oftalmoskopy czy kamery do obrazowania dna oka, są w stanie wykrywać uszkodzenia lub choroby wczesnym etapie. W medycynie okulistycznej bardzo często podkreśla się, że stan siatkówki decyduje o jakości widzenia – nawet idealnie przejrzysta rogówka czy soczewka nic nie dadzą, jeśli siatkówka nie funkcjonuje prawidłowo. Moim zdaniem warto zauważyć, jak duże znaczenie ma profilaktyka schorzeń siatkówki, zwłaszcza w kontekście pracy przy komputerze albo ekspozycji na niebieskie światło. No i taka ciekawostka – w nowoczesnych badaniach nad sztuczną inteligencją często inspiruje się budową siatkówki przy projektowaniu kamer czy systemów rozpoznawania obrazu.

Pytanie 38

W sygnale elektrokardiograficznym za repolaryzację mięśnia komór odpowiada załamek

Ilustracja do pytania
A. T
B. P
C. R
D. Q
Załamek T w zapisie EKG to sygnał repolaryzacji mięśnia komór, czyli moment, kiedy komórki mięśnia sercowego wracają do swojego spoczynkowego potencjału elektrycznego po fazie skurczu. Praktycznie patrząc – taka repolaryzacja jest absolutnie kluczowa, bo bez niej komórki nie byłyby przygotowane do kolejnego pobudzenia i cały rytm serca by się rozjechał. Na przykład w codziennej pracy ratownika medycznego szybkie rozpoznanie zaburzeń załamka T może sugerować niedokrwienie serca czy nawet świeży zawał, co zmienia zupełnie dalsze postępowanie – to nie są żarty, czasami sekundy decydują o życiu. W podręcznikach i normach – zarówno polskich, jak i międzynarodowych – podkreśla się, żeby zawsze oceniać morfologię i wielkość załamka T, bo jego zmiany bywają pierwszym objawem poważnych patologii (np. hiperkaliemii, niedokrwienia). Moim zdaniem warto nauczyć się rozróżniać te fazy, bo praktyka pokazuje, że błędy w identyfikacji załamka T prowadzą do złej interpretacji EKG, a przez to do błędów klinicznych. Zresztą, nawet w literaturze podkreślają, że repolaryzacja komór (załamek T) to ten moment, na który trzeba szczególnie uważać np. przy analizie rytmów komorowych czy monitorowaniu pacjentów po lekach wpływających na QT.

Pytanie 39

Który system plików pozwala na szyfrowanie danych w systemie Windows?

A. EXT4
B. ReiserFS
C. NTFS
D. FAT32
NTFS to obecnie najpopularniejszy system plików w środowisku Windows i, co tu dużo gadać, jego największą przewagą nad starszymi rozwiązaniami, jak FAT32, jest właśnie obsługa funkcji bezpieczeństwa. Dopiero na NTFS można korzystać z tak zwanych uprawnień do plików i katalogów, kompresji czy – co najważniejsze w tym pytaniu – szyfrowania na poziomie systemu plików. Funkcja EFS (Encrypting File System) pozwala zaszyfrować dane bezpośrednio z poziomu Eksploratora Windows, więc nawet laik może zabezpieczyć swoje pliki przed nieautoryzowanym dostępem. Lubię to rozwiązanie, bo nie wymaga dodatkowych narzędzi, no i po zalogowaniu się odpowiednim kontem użytkownika pliki są po prostu dostępne. Warto pamiętać, że szyfrowanie EFS jest zgodne z polityką bezpieczeństwa wielu firm – często wręcz wymagane przez wewnętrzne standardy IT, żeby ograniczyć ryzyko wycieku danych przy kradzieży laptopa czy dysku. Moim zdaniem, jeśli ktoś pracuje na służbowym sprzęcie albo trzyma jakieś poufne rzeczy na Windowsie, to naprawdę nie ma innej sensownej opcji niż NTFS. Zresztą nawet w domowych zastosowaniach, jeśli komuś zależy na prywatności, to przejście na NTFS to podstawa. Dobrze też wiedzieć, że np. podczas przenoszenia plików na inne systemy plików (np. FAT32 na pendrive’ie) cały ten mechanizm szyfrowania znika. To czasami potrafi zaskoczyć.

Pytanie 40

Pod wpływem zwiększenia natężenia promieniowania widzialnego (bodźca świetlnego) źrenica zdrowego oka ludzkiego

A. jaśnieje.
B. zwęża się.
C. ciemnieje.
D. rozszerza się.
Źrenica ludzkiego oka reaguje na natężenie światła poprzez odruch źreniczny. Im więcej światła dostaje się do oka, tym mocniej zwęża się źrenica – to taki naturalny „automat” organizmu, dzięki któremu nie dochodzi do uszkodzenia siatkówki przez zbyt silne światło. Za to zwężenie odpowiada zwieracz źrenicy, czyli mięsień okrężny sterowany przez układ przywspółczulny. To bardzo ważny mechanizm ochronny, często wykorzystywany w praktyce np. podczas badania odruchów neurologicznych (tzw. test światła latarką). Moim zdaniem warto pamiętać, że to nie tylko czysta biologia, ale też podstawa działania wszelkich systemów optycznych, gdzie trzeba kontrolować ilość światła – podobnie jak w aparatach fotograficznych regulujemy przesłonę. Bez tej regulacji ludzkie oko bardzo szybko by się męczyło, a czasem nawet ulegało trwałym uszkodzeniom. Warto zauważyć, że w praktyce diagnostycznej zwężenie źrenicy po naświetleniu jest jednym z najważniejszych testów przy ocenie stanu neurologicznego pacjenta zgodnie z dobrymi praktykami medycznymi i standardami ratownictwa medycznego.