Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 26 kwietnia 2026 19:56
  • Data zakończenia: 26 kwietnia 2026 20:04

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na rysunku przedstawiono badanie za pomocą

Ilustracja do pytania
A. manometru.
B. pulsoksymetru.
C. higrometru.
D. densytometru.
Na zdjęciu widzimy pulsoksymetr – to niewielkie urządzenie, które w praktyce medycznej jest absolutnym standardem do nieinwazyjnego pomiaru saturacji krwi (czyli nasycenia hemoglobiny tlenem) oraz tętna pacjenta. Bardzo często spotyka się go nie tylko na oddziałach szpitalnych, ale i w ambulansach czy nawet w domowej opiece nad pacjentami przewlekle chorymi. Pulsoksymetr działa na zasadzie analizy pochłaniania fal świetlnych o dwóch długościach – podczerwieni i czerwieni – przechodzących przez naczynia włosowate w palcu. Stężenie tlenu w hemoglobinie wpływa na sposób pochłaniania światła, a precyzyjna elektronika zamienia te różnice na łatwą do odczytania wartość procentową. To w zasadzie niezbędne narzędzie w monitoringu osób z chorobami układu oddechowego, przy COVID-19, w anestezjologii, a również w ratownictwie. Moim zdaniem każdy, kto choć trochę interesuje się praktyczną medycyną albo pracuje w branży zdrowotnej, powinien nawet taki sprzęt mieć pod ręką – szczególnie że pomiar jest szybki, bezbolesny i pozwala na błyskawiczną reakcję w przypadku pogorszenia stanu pacjenta. Dobre praktyki sugerują, by zawsze sprawdzić poprawność działania urządzenia i prawidłowe założenie na palec – źle umieszczony pulsoksymetr może dać błędne odczyty, a to już poważny problem w diagnostyce.

Pytanie 2

W celu archiwizacji danych w systemie Linux wymagane jest utworzenie archiwum. Korzystając z zamieszczonej w ramce pomocy dobierz odpowiednie polecenie.

-c, --createutworzenie nowego archiwum
-z, --gzipfiltrowanie archiwum przez gzip
-v, --verbosewypisywanie szczegółów o przetwarzanych plikach
-f, --file=ARCHIWUMużycie pliku lub urządzenia ARCHIWUM
-x, --extractrozpakowanie plików z archiwum
-t, --listwypisanie zawartości archiwum
-r, --appenddołączenie plików na końcu archiwum
-u, --updatedołączenie tylko plików nowszych niż kopie w archiwum
A. tar – rvf
B. tar – tvf
C. tar – cvf
D. tar – xvf
Polecenie tar –cvf to absolutna podstawa, jeśli chodzi o archiwizację danych w systemach Linux. Flaga -c, jak pokazuje tabela pomocy, oznacza utworzenie nowego archiwum, a -v pozwala na obserwowanie, co dokładnie jest do niego dodawane – co, moim zdaniem, bywa przydatne, zwłaszcza gdy pracujesz z większą liczbą plików i chcesz mieć szybki podgląd postępu. Opcja -f wskazuje miejsce docelowe archiwum, czyli nazwę pliku (na przykład backup.tar). Bardzo często w praktyce dodaje się też -z do kompresji przez gzip, czyli tar -czvf, co pozwala mocno zmniejszyć rozmiar archiwum. Warto przyjąć zasadę, żeby zawsze jasno nazywać pliki wynikowe i trzymać się ustalonych konwencji nazewnictwa, bo potem łatwiej znaleźć archiwum wśród setek innych plików. Z mojego doświadczenia archiwizacja przez tar to nie tylko backupy – sporo administratorów korzysta z tej metody do migracji środowisk, przenoszenia całych katalogów konfiguracyjnych czy nawet przygotowywania snapshotów aplikacji na serwerach produkcyjnych. Dobrą praktyką jest też testowanie potem archiwum przez tar -tvf, żeby sprawdzić, czy wszystko się poprawnie zapisało. Ogólnie, polecenie tar –cvf to żelazny standard i aż dziw bierze, jak często ktoś się myli, bo nie do końca rozumie, co oznacza każda flaga – choć to przecież fundamenty pracy w Linuxie.

Pytanie 3

Do kruszenia kamieni w pęcherzu moczowym stosowane są fale

A. ultrafioletowe.
B. radiowe.
C. infradźwiękowe.
D. ultradźwiękowe.
Fale ultradźwiękowe to absolutna podstawa w nowoczesnym leczeniu kamicy pęcherza moczowego. Chodzi oczywiście o tzw. litotrypsję falą uderzeniową (z ang. ESWL), czyli procedurę wykorzystującą precyzyjnie skierowane fale ultradźwiękowe o wysokim natężeniu. Ich energia pozwala dosłownie rozbijać kamienie na drobne fragmenty, które potem naturalnie są usuwane z organizmu wraz z moczem. To rozwiązanie jest nieinwazyjne, co moim zdaniem jest ogromnym plusem – pacjent nie wymaga operacji, minimalizuje się ryzyko powikłań, a rekonwalescencja jest bardzo szybka. W praktyce często widzi się, że chorzy wracają do normalnej aktywności wręcz błyskawicznie. Uważam, że to technologia, która naprawdę pokazuje, jak medycyna potrafi sprytnie wykorzystać prawa fizyki. Warto też pamiętać, że ultradźwięki są szeroko stosowane nie tylko w urologii – np. diagnostyka USG czy leczenie przewlekłych schorzeń układu mięśniowego. Branżowe standardy zalecają stosowanie tej metody w przypadkach, gdy kamienie nie są zbyt duże ani zbyt twarde i nie zalegają w miejscach trudno dostępnych dla fali. Czasami litotrypsję łączy się z innymi technikami, ale ultradźwięki to taki pierwszy wybór. Z mojej perspektywy to naprawdę przełomowa metoda i warto ją dobrze rozumieć, bo coraz częściej pojawia się w praktyce klinicznej.

Pytanie 4

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Metoda.
B. Własność.
C. Obiekt.
D. Dziedziczenie.
Instancja klasy w programowaniu obiektowym to właśnie obiekt. To jest taki trochę fundament całego tego podejścia – bez obiektów nie byłoby sensu mówić o programowaniu obiektowym. Kiedy tworzymy klasę, to jest ona tylko szablonem lub pewnego rodzaju przepisem na to, jak mają wyglądać nasze dane i jak mają się zachowywać. Natomiast obiekt to konkretna, działająca „realizacja” tego przepisu – coś, co faktycznie istnieje podczas działania programu. Wyobraź sobie klasę jako projekt samochodu, a obiekty jako rzeczywiste egzemplarze tego samochodu stojące na parkingu. Każdy obiekt ma swoje własne dane (czyli stan, na przykład kolor, przebieg, model) i swoje operacje (czyli metody, na przykład przyspiesz, zahamuj). Takie podejście jest powszechnie stosowane we wszystkich popularnych językach obiektowych, jak Java, C++, Python czy C#. Z mojego doświadczenia wynika, że w realnych projektach bardzo rzadko spotyka się kod, który operuje wyłącznie na klasach – właściwie wszystko kręci się wokół obiektów. Dobre praktyki sugerują nie tylko tworzenie obiektów, ale i dbanie o ich odpowiednią enkapsulację, czyli ukrywanie szczegółów implementacyjnych, co pozwala na bezpieczne i elastyczne rozwijanie kodu. No i jeszcze ciekawostka: w wielu frameworkach spotkasz się z tzw. wzorcem fabryki, który właśnie pomaga zarządzać tworzeniem obiektów na podstawie klas. To mocno ułatwia życie, szczególnie przy dużych projektach. Moim zdaniem zrozumienie tej różnicy między klasą a obiektem to absolutna podstawa, jeśli ktoś myśli o karierze programisty.

Pytanie 5

Przedstawiony na rysunku kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. switch – ruter.
B. ruter – ruter.
C. switch – komputer.
D. hub – ruter.
Na rysunku widoczny jest schemat połączenia kabla krosowanego (ang. crossover), który służy do bezpośredniego łączenia dwóch urządzeń sieciowych tego samego typu, takich jak dwa rutery, dwa switche czy dwa komputery. Kluczowe jest tu to, że sygnały nadawcze jednego urządzenia są zamieniane miejscami z odbiorczymi drugiego – właśnie dlatego niezbędne jest skrzyżowanie przewodów w kablu. Praktycznie rzecz biorąc, jeśli próbujemy połączyć dwa rutery bez urządzenia pośredniczącego, jak switch czy hub, to właśnie kabel krosowany pozwoli nam na prawidłową komunikację. W standardzie Ethernet (norma TIA/EIA-568), wyprowadzenia przewodów 1-3 i 2-6 są zamieniane, co umożliwia przesyłanie i odbieranie danych bez zakłóceń. W moim doświadczeniu, taki kabel przydaje się często podczas konfiguracji, testów lub prac serwisowych, gdzie nie ma pod ręką switcha. Warto pamiętać, że obecnie wiele nowoczesnych urządzeń obsługuje funkcję Auto-MDI/MDIX, która automatycznie dostosowuje tryb portu, ale wciąż znajomość zastosowania kabla krosowanego jest fundamentalna. Moim zdaniem, umiejętność rozpoznania gdzie i kiedy go użyć, jest jedną z podstawowych kompetencji każdego technika sieciowego – to taka klasyka, o której ciągle się mówi na zajęciach praktycznych.

Pytanie 6

Ilość jodu-131 podana pacjentowi w terapii tarczycy zmniejszy się o połowę po

A. 30 minutach.
B. 12 miesiącach.
C. 17 godzinach.
D. 8 dniach.
Izotop jodu-131 (I-131) to radioizotop stosowany najczęściej w leczeniu chorób tarczycy, zwłaszcza w terapii nadczynności tarczycy czy raka tarczycy. Jego kluczową cechą, która decyduje o wykorzystaniu w medycynie, jest stosunkowo krótki czas połowicznego rozpadu – wynosi około 8 dni. To oznacza, że po upływie 8 dni od podania pacjentowi połowa dawki I-131 ulegnie rozpadowi, a więc przestanie być aktywna biologicznie. W praktyce klinicznej precyzyjne wyliczenie czasu połowicznego rozpadu jest niezwykle ważne, bo pozwala lekarzom określić, jak długo pacjent pozostaje źródłem promieniowania i kiedy można bezpiecznie wrócić do codziennej aktywności. Moim zdaniem, odpowiednie zarządzanie czasem kontaktu pacjenta z innymi osobami po podaniu jodu-131 to taka podstawa bezpieczeństwa radiologicznego. Zwraca się też uwagę na fakt, że właściwe planowanie dawek i okresów karencji pozwala maksymalizować skuteczność leczenia, a zarazem minimalizować narażenie osób trzecich. W radiologii medycznej takie dane podaje się w każdej charakterystyce produktu, bo stanowią one podstawę do wyliczania dawek kumulacyjnych i planowania powtórnej terapii. Dość istotne jest też to, że czas połowicznego rozpadu wpływa bezpośrednio na okres przechowywania materiałów radioaktywnych – odpady z terapii jodem-131 muszą być przechowywane aż do momentu, gdy ich aktywność spadnie do poziomu uznawanego za bezpieczny. Warto wiedzieć, że inne radioizotopy mają zupełnie inne czasy połowicznego rozpadu i właśnie dlatego I-131 jest tak popularny w leczeniu tarczycy – jego czas jest optymalny, żeby skutecznie działać, ale nie kumulować się nadmiernie w organizmie. Z mojego doświadczenia wynika, że wielu ludzi myli czas połowicznego rozpadu z całkowitym zanikiem radioaktywności, a to przecież nie to samo. Właśnie z tego powodu odpowiedź „8 dni” jest najbardziej trafna i zgodna z praktyką kliniczną.

Pytanie 7

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. angiografii.
B. echokardiografii.
C. elektrokardiografii.
D. fonokardiografii.
Zjawisko zmiany częstotliwości fali odbitej od poruszającego się obiektu to tzw. efekt Dopplera i to właśnie na nim w dużej mierze opiera się echokardiografia. Często się o tym nie mówi na lekcjach, ale dla praktyka medycznego albo technika to naprawdę fundamentalna sprawa – bo dzięki temu można zobaczyć nie tylko kształt i ruchy serca, ale też prędkość przepływu krwi przez jamy i zastawki. Echokardiograf, poza klasycznym obrazowaniem 2D, może mierzyć prędkości dzięki tzw. Dopplerowi kolorowemu albo spektralnemu i na tej podstawie lekarz od razu widzi gdzie są na przykład zwężenia naczyń czy cofanie się krwi (niedomykalność zastawek). W praktyce na oddziale kardiologicznym to jedno z podstawowych badań nie tylko diagnostycznych, ale też monitorujących efekty leczenia. Warto wiedzieć, że to bardzo nowoczesna technologia, która cały czas się rozwija – pojawiają się coraz lepsze algorytmy, a nawet systemy AI wspomagające ocenę przepływów. Moim zdaniem, znajomość efektu Dopplera i jego medycznych zastosowań jest bardzo ceniona, bo otwiera drzwi do pracy z nowoczesnym sprzętem i w ogóle daje poczucie, że rozumiemy jak działa współczesna diagnostyka obrazowa. Branża wymaga, żeby nie tylko wiedzieć „co” się widzi na ekranie, ale też „dlaczego” ten obraz tak wygląda – no i efekt Dopplera to podstawa w tej układance.

Pytanie 8

Kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. hub – ruter.
B. przełącznik – komputer.
C. przełącznik – ruter.
D. ruter – ruter.
No i właśnie! Kabel krosowany (czyli tzw. cross-over) to specjalny rodzaj kabla ethernetowego, w którym niektóre pary przewodów są zamienione miejscami – dokładnie jak na tym schemacie, gdzie przewody 1 i 3 oraz 2 i 6 są skrzyżowane. Dzięki temu urządzenia tego samego typu, np. dwa routery, mogą się ze sobą bezpośrednio komunikować. Normalnie, router i komputer lub router i switch używają kabla prostego (straight-through), bo urządzenia mają różne funkcje portów – nadajnik trafia na odbiornik i na odwrót. Ale gdy dwa takie same urządzenia próbują się połączyć, oba wysyłają i odbierają na tych samych pinach, więc połączenie by nie zadziałało bez crossa. W codziennej praktyce, szczególnie kiedy pracujemy ze starszym sprzętem, taki kabel jest niezastąpiony przy testowaniu połączeń lub awaryjnym łączeniu dwóch routerów, switchy, czy nawet komputerów. Nowoczesne urządzenia często mają funkcję auto-MDI/MDIX, która automatycznie wykrywa rodzaj kabla i odpowiednio przełącza piny, ale w starszych sieciach krosowanie było po prostu koniecznością. Moim zdaniem, warto pamiętać o tej różnicy – to niby drobiazg, ale na kablach sieciowych wiele osób się wykłada, szczególnie jak sprzęt nie jest z tej samej epoki. Standardy opisujące te połączenia to na przykład TIA/EIA-568A i TIA/EIA-568B. Dobrą praktyką jest więc mieć w szufladzie przynajmniej jeden taki kabelek – bo nigdy nie wiadomo, kiedy się przyda.

Pytanie 9

Stężenie którego gazu z wydychanego powietrza prezentuje kapnogram?

Ilustracja do pytania
A. O₂
B. N₂O
C. H
D. CO₂
Kapnogram to wykres, który pokazuje zmiany stężenia dwutlenku węgla (CO₂) w wydychanym powietrzu podczas oddychania. To bardzo praktyczne narzędzie, szczególnie w anestezjologii i intensywnej terapii, bo pozwala niemal natychmiast zauważyć wszelkie nieprawidłowości w wentylacji pacjenta. Moim zdaniem, właśnie kapnografia, czyli analiza gazu oddechowego pod kątem CO₂, jest jednym z najważniejszych monitorów bezpieczeństwa podczas znieczulenia – nie tylko informuje, czy pacjent oddycha, ale też podpowiada, czy intubacja się powiodła. Z kapnogramu można odczytać np. ETCO₂, czyli końcowo-wydechowe stężenie CO₂ – norma to 35-45 mmHg. Warto wiedzieć, że zmiany w kształcie kapnogramu, np. spadek wartości albo nagłe zniknięcie wykresu, mogą świadczyć o rozłączeniu układu oddechowego lub zatrzymaniu krążenia. Według wytycznych European Society of Anaesthesiology, kapnografia powinna być standardowo stosowana podczas każdej znieczulenia ogólnego. Niektórzy mylą kapnogram z wykresem O₂, ale to zupełnie inna bajka – tlen mierzy się innymi metodami. Pomiar N₂O również się wykonuje, zwłaszcza przy użyciu podtlenku azotu w znieczuleniu, ale nie przez kapnografię. W praktyce klinicznej, szybkie i precyzyjne oznaczanie CO₂ jest kluczowe dla oceny perfuzji płuc, wentylacji i metabolizmu.

Pytanie 10

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. INSERT
B. UPDATE
C. SELECT
D. ALTER
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 11

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.1 – 192.150.160.62
B. 192.150.160.0 – 192.150.160.127
C. 192.150.160.0 – 192.150.160.63
D. 192.150.160.1 – 192.150.160.128
Adresacja sieciowa to coś, co potrafi naprawdę namieszać na początku, ale w praktyce to podstawa przy konfiguracji sieci – zwłaszcza jak zaczynasz bawić się maskami podsieci. W przypadku adresu 192.150.160.0/26 mamy maskę 255.255.255.192, czyli 6 bitów na hosty w ostatnim oktecie. To daje w sumie 64 adresy IP w tej podsieci (od 0 do 63). Ale tylko adresy od 192.150.160.1 do 192.150.160.62 nadają się na urządzenia, bo pierwszy (z końcówką .0) to adres sieci, a ostatni (z końcówką .63) to adres rozgłoszeniowy (broadcastowy). To standardowo przyjęte we wszystkich sieciach IPv4. Moim zdaniem dobrze to sobie rozrysować na kartce, szczególnie jeśli chcesz uniknąć wpadki przy większych projektach. W praktyce, np. jak konfigurujesz routery, serwery DHCP czy firewalle – zawsze pilnuj, żeby nie przypisać urządzeniom adresu sieci ani broadcast, bo wtedy mogą pojawić się trudne do wyłapania błędy. Często spotykam się z sytuacją, gdzie ktoś korzysta z całego zakresu, nie zwraca uwagi na te dwa specjalne adresy i potem coś nie działa. Z mojej perspektywy to taka podstawowa wiedza, którą każdy administrator czy technik IT powinien mieć w małym palcu. Warto też pamiętać, że takie podejście jest zgodne z RFC 950, gdzie określono te zasady. Praktyka pokazuje, że dobrze znać te reguły chociażby po to, żeby automatycznie wiedzieć, jaki zakres możesz wpisać np. w konfiguracji serwera DHCP, bez ryzyka, że coś przestanie działać.

Pytanie 12

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. FPU
B. DSP
C. ALU
D. GPU
Odpowiedź na to pytanie bywa myląca, bo skróty typu FPU, DSP czy GPU przewijają się non stop w świecie IT i elektroniki. Często można się pomylić, bo każda z tych jednostek odpowiada za specyficzny rodzaj obliczeń, ale nie za operacje stałoprzecinkowe w ogólnym sensie. FPU, czyli Floating Point Unit, to jednostka przeznaczona do operacji na liczbach zmiennoprzecinkowych – czyli tam, gdzie mamy przecinki, bardzo duże zakresy czy precyzję naukową. Stąd FPU nie wykonuje prostych działań typu dodawanie liczb całkowitych; tym zajmuje się właśnie ALU. Z kolei DSP, czyli Digital Signal Processor, to osobny rodzaj procesorów specjalizowanych, bardzo często stosowanych w przetwarzaniu sygnału audio czy obrazu. One też mają swoje własne jednostki operacyjne, często zoptymalizowane pod szybkie mnożenie i MAC (multiply-accumulate), ale to nie jest ogólna jednostka procesora wykonująca podstawowe operacje arytmetyczne na liczbach całkowitych. GPU, procesor graficzny, można spotkać głównie w kartach graficznych czy układach mobilnych – jego architektura jest zoptymalizowana pod równoległe przetwarzanie ogromnych ilości danych graficznych, ale nie pod klasyczne operacje arytmetyczne typowe dla CPU. Często spotykam się z przekonaniem, że jak coś brzmi 'bardziej zaawansowanie', to pewnie wykonuje podstawowe operacje – stąd te pomyłki. Jednak to właśnie ALU jest tym sercem, które wewnątrz CPU wykonuje najprostsze, ale i najczęściej potrzebne obliczenia na liczbach całkowitych. Warto o tym pamiętać, bo mylenie tych jednostek może prowadzić do sporych nieporozumień, szczególnie przy analizie architektury procesora czy przy pisaniu kodu obejmującego różne typy danych.

Pytanie 13

Z przedstawionego zrzutu wynika, że na dyskach zastosowano partycjonowanie

DISKPART> list disk
Disk ### Status Size Free Dyn Gpt
-------- ------------ ------- ------- --- ---
Disk 0 Online 698 GB 0 B *

DISKPART> select disk 0
Disk 0 is now the selected disk.
DISKPART> list partition
Partition ### Type Size Offset
------------- ---------- ------- -------
Partition 1 Recovery 450 MB 1024 KB
Partition 2 System 100 MB 451 MB
Partition 3 Reserved 16 MB 551 MB
Partition 4 Primary 451 GB 567 MB
Partition 5 Unknown 242 GB 452 GB
Partition 6 Unknown 3958 MB 694 GB

DISKPART>
A. NTFS
B. MBR
C. GPT
D. FAT
W tym przypadku prawidłową odpowiedzią jest GPT. Wskazuje na to obecność gwiazdki w kolumnie 'Gpt' przy liście dysków w narzędziu DISKPART. GPT, czyli GUID Partition Table, to nowoczesny standard partycjonowania dysków, szeroko stosowany w komputerach z UEFI. Pozwala na tworzenie wielu partycji (dużo więcej niż MBR), a także na obsługę dużych dysków o pojemności powyżej 2 TB. Moim zdaniem warto kojarzyć, że GPT jest wymogiem przy instalacji nowych wersji Windowsa na komputerach z UEFI – to już właściwie standard, zwłaszcza w sprzęcie wyprodukowanym po 2012 roku. Co ciekawe, w GPT pojawiają się typowe partycje jak EFI, Recovery czy Reserved, tak jak pokazano w zrzucie – tego nie byłoby w klasycznym MBR. GPT zapewnia też odporność na uszkodzenia (backup tablicy partycji) oraz wykorzystuje unikalne identyfikatory partycji GUID, co bardzo ułatwia zarządzanie dyskami w środowiskach serwerowych czy wirtualizacyjnych. Z mojego doświadczenia, coraz rzadziej spotyka się sprzęt z klasycznym MBR – szczególnie w nowych konfiguracjach. Branża idzie zdecydowanie w stronę GPT ze względu na skalowalność i wyższe bezpieczeństwo danych. Dla administratorów systemów albo osób składających własne komputery to obecnie podstawa wiedzy – i praktycznie zawsze zalecane rozwiązanie zgodnie z dobrymi praktykami.

Pytanie 14

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. EOG
B. EEG
C. KTG
D. UKG
EEG, czyli elektroencefalografia, to rzeczywiście zapis elektrycznej aktywności mózgu, który wykorzystuje się w wielu dziedzinach, od neurologii po psychologię. W praktyce wygląda to tak, że na skórę głowy pacjenta nakłada się elektrody, które rejestrują zmiany potencjałów elektrycznych powstających podczas pracy neuronów w mózgu. Wynik tego badania to wykres fal mózgowych – takich jak alfa, beta, delta czy theta. Najczęściej EEG stosuje się przy diagnostyce padaczki, śpiączek, różnych zaburzeń snu albo nawet przy sprawdzaniu głębokości narkozy. Moim zdaniem to jedno z bardziej uniwersalnych narzędzi we współczesnej medycynie – nieinwazyjne, szybkie i naprawdę często ratuje skórę, gdy diagnoza jest niejasna. Fachowcy trzymają się przy tym określonych wytycznych – jak np. systemu 10-20 do rozmieszczania elektrod na głowie, żeby wyniki były powtarzalne i wiarygodne. Z mojego doświadczenia wynika też, że coraz częściej EEG łączy się z nowymi technikami analizy danych, jak machine learning, co otwiera kolejne drzwi do lepszego rozumienia pracy mózgu. No i warto dodać, że skrót EEG to już światowy standard, więc w każdym szpitalu czy laboratorium rozumieją, o co chodzi.

Pytanie 15

Które systemy operacyjne mogą być zainstalowane na dysku, którego działanie obrazuje GParted?

Ilustracja do pytania
A. Linux, Windows
B. Linux, Mac OS
C. Windows, Mac OS
D. Mac, Mac OS
Na tym zrzucie z GParted dokładnie widać, jakie partycje istnieją na dysku i jakie systemy plików są na nich założone. Najważniejsze, co tu rzuca się w oczy, to obecność partycji NTFS oraz EXT4. NTFS to typowy system plików używany przez Windows, natomiast EXT4 jest domeną Linuksa. Dodatkowo jest też partycja EFI (FAT32), która jest wykorzystywana w nowoczesnych komputerach z UEFI do uruchamiania systemów operacyjnych – zarówno Windows, jak i Linux potrafią korzystać z EFI. No i jeszcze jest linux-swap, czyli przestrzeń wymiany dla Linuksa. To jednoznacznie pokazuje, że na takim układzie partycji spokojnie można zainstalować i Windowsa, i Linuksa. Moim zdaniem to bardzo praktyczne rozwiązanie, bo daje możliwość tzw. dualboota – czyli wyboru, który system chcesz uruchomić podczas startu komputera. W praktyce wiele osób w technikum czy na studiach z informatyki korzysta z takiego rozwiązania, żeby mieć dostęp do narzędzi dostępnych tylko na jednym z tych systemów. Dobrą praktyką jest zawsze wydzielać osobną partycję EFI oraz osobną partycję wymiany dla Linuksa. Dodatkowo, NTFS jest uniwersalny dla Windowsa, a EXT4 zdecydowanie lepiej działa z Linuksem pod względem wydajności i bezpieczeństwa danych. To wszystko razem powoduje, że tylko odpowiedź Linux, Windows jest poprawna w tym kontekście. Takie podejście jest zgodne z zaleceniami administratorów systemów i specjalistów ds. bezpieczeństwa IT.

Pytanie 16

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. mięśniowych 35 Hz.
B. wolnozmiennych.
C. mięśniowych 25 Hz.
D. sieciowych.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 17

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. kopii rejestru.
B. importu rejestru.
C. oczyszczania rejestru.
D. podłączenia rejestru sieciowego.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 18

W aparacie holterowskim sygnał jest archiwizowany na karcie SD. Który rysunek przedstawia wymieniony nośnik pamięci?

Ilustracja do pytania
A. 3
B. 2
C. 4
D. 1
Karta SD, czyli Secure Digital, to obecnie jeden z najczęściej używanych nośników pamięci w urządzeniach medycznych, takich jak aparaty holterowskie. Na rysunku numer 2 oznacza właśnie kartę SD – cechuje się ona stosunkowo niewielkimi wymiarami i charakterystycznym ściętym narożnikiem. Moim zdaniem nie ma obecnie bardziej praktycznego i dostępnego rozwiązania do zapisywania dużych ilości danych w małym urządzeniu. Typowo używa się tych kart, bo są bardzo odporne na uszkodzenia mechaniczne, mają niski pobór energii i łatwo je przełożyć do komputera lub stacji odczytującej, co jest ogromnym plusem w pracy diagnostycznej – zwłaszcza kiedy trzeba szybko przeanalizować wyniki zapisu EKG z Holtera. Praktyka szpitalna pokazuje, że szybka wymienność i prostota obsługi kart SD to standard, do którego wszyscy już się przyzwyczaili. Często spotykam się z sytuacją, że starsi pacjenci także potrafią samodzielnie przełożyć kartę SD z urządzenia do czytnika, co tylko pokazuje, jak uniwersalne i wygodne jest to rozwiązanie. Dobrym zwyczajem jest też regularne sprawdzanie stanu karty przed założeniem holtera, bo uszkodzona karta SD potrafi zepsuć całą rejestrację. Tak więc wybór odpowiedzi nr 2 jest zgodny nie tylko z teorią, ale i praktyką na rynku medycznym.

Pytanie 19

Które polecenie w systemie Windows tworzy folder Dane?

A. ren Dane
B. rmdir Dane
C. set Dane
D. mkdir Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 20

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. iterację.
B. inkrementację.
C. rekurencję.
D. permutację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 21

Urządzenie, które składa się między innymi z kamery na końcu przewodu i światłowodowych przewodów optycznych, to

A. endoskop.
B. negatoskop.
C. audiometr.
D. pulsoksymetr.
Endoskop to naprawdę ciekawe i przydatne urządzenie medyczne, które bardzo odmieniło diagnostykę i leczenie chorób wewnętrznych. To właśnie dzięki temu, że na końcu elastycznego przewodu umieszczona jest bardzo mała kamera oraz światłowodowe przewody optyczne, lekarze mogą zobaczyć na żywo wnętrze ludzkiego ciała bez konieczności wykonywania rozległych operacji. Takie rozwiązanie to ogromna oszczędność czasu i mniejsze ryzyko powikłań. Endoskopy używa się m.in. do gastroskopii, bronchoskopii czy kolonoskopii. Co ciekawe, obecnie coraz częściej stosuje się modele giętkie, które pozwalają dotrzeć w trudniej dostępne miejsca. Oświetlenie światłowodowe zapewnia świetną widoczność, a obraz z kamery jest przesyłany na monitor w czasie rzeczywistym. W dobrych praktykach medycznych przyjmuje się, aby endoskopy po każdym użyciu były dokładnie dezynfekowane, zgodnie z normą PN-EN ISO 15883, co znacząco poprawia bezpieczeństwo pacjentów. Moim zdaniem, znajomość budowy i zasady działania endoskopu to podstawa, jeśli myślimy o pracy w branży medycznej albo serwisowaniu sprzętu diagnostycznego. Warto też zwrócić uwagę, że nowoczesne endoskopy mają coraz lepszą jakość obrazu HD, a niektóre pozwalają nawet na pobieranie wycinków tkanek do badań histopatologicznych podczas jednego badania.

Pytanie 22

Rysunek przedstawia wynik działania polecenia ipconfig urządzenia w sieci LAN. Który adres rutera umożliwia dostęp tego urządzenia do sieci WAN?

Karta Ethernet Połączenie lokalne:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :

Karta bezprzewodowej sieci LAN Połączenie sieci bezprzewodowej:

Sufiks DNS konkretnego połączenia :
Adres IPv6 połączenia lokalnego . : fe80::2dd5:5602:1f17:82c8%11
Adres IPv4. . . . . . . . . . . . : 192.168.10.44
Maska podsieci. . . . . . . . . . : 255.255.255.0
Brama domyślna. . . . . . . . . . : 192.168.10.1

Karta tunelowa isatap.Home:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :
A. 192.168.10.1
B. fe80.2dd5.5602
C. 255.255.255.0
D. 192.168.10.44
Adres 192.168.10.1 został wskazany jako brama domyślna w wyniku polecenia ipconfig. To właśnie ten adres odpowiada za „wyjście” urządzenia z sieci lokalnej (LAN) do sieci zewnętrznej, czyli WAN, najczęściej Internetu. W praktyce jest to adres IP interfejsu routera w Twojej podsieci – wszystkie pakiety kierowane poza lokalny segment sieci są przesyłane właśnie do tej bramy, która dalej je przekazuje do odpowiedniego miejsca docelowego. Branżowo mówi się, że „default gateway” to taki domyślny punkt styku ze światem zewnętrznym. W standardowych konfiguracjach urządzeń sieciowych (np. Windows, routery SOHO) zawsze warto sprawdzać tę wartość, gdy pojawiają się problemy z dostępem do Internetu. Często powtarza się (i słusznie!), że zły adres bramy lub jej brak od razu uniemożliwia komunikację poza lokalną siecią, nawet jeśli IP i maska są poprawne. Co ciekawe, w większych sieciach bywa, że bram jest kilka, ale domyślna jest tylko jedna dla danego hosta. W sumie – bez bramy domyślnej nie ma szans, żeby „wyjść” z LANu. Z mojego doświadczenia zawsze najpierw sprawdzam tę wartość podczas diagnozowania awarii sieci – to podstawa każdego serwisanta albo administratora. Warto też wiedzieć, że adres bramy domyślnej zwykle kończy się na .1, choć nie jest to twarda reguła, po prostu tak przyjęło się ze względów porządkowych. W tym przykładzie wszystko wygląda książkowo.

Pytanie 23

Na rysunku przedstawiono kartę rozszerzeń umożliwiającą

Ilustracja do pytania
A. sprawdzenie temperatury pamięci RAM.
B. określenie użycia procesora.
C. odczytanie kodów POST.
D. sprawdzenie czasu systemowego.
Karta rozszerzeń widoczna na zdjęciu to tzw. karta diagnostyczna POST, zwana też kartą debugującą. Służy głównie do odczytywania kodów POST (Power-On Self-Test), które są generowane podczas inicjalizacji komputera, zanim jeszcze system operacyjny zacznie się ładować. Kody te pojawiają się na wyświetlaczu LED i pozwalają technikowi od razu rozpoznać, na którym etapie startu sprzętu wystąpił problem, nawet jeśli komputer nie wyświetla obrazu na monitorze. Moim zdaniem taka karta to absolutny must-have dla każdego serwisanta, bo pozwala na szybkie diagnozowanie usterek płyty głównej, pamięci RAM czy procesora. Standardy branżowe, na przykład wytyczne ATX, przewidują stosowanie procedur POST i związanych z nimi kodów do wykrywania problemów sprzętowych. Kartę wystarczy wpiąć w slot PCI lub ISA (zależnie od wersji), a podczas uruchamiania komputera na jej wyświetlaczu pojawi się kod szesnastkowy – później wystarczy sprawdzić w dokumentacji, co oznacza dany kod. Z mojego doświadczenia wynika, że taka karta potrafi skrócić czas diagnozy nawet o połowę. Pozwala to unikać żmudnego sprawdzania każdego podzespołu osobno, więc to naprawdę praktyczne narzędzie w każdej pracowni serwisowej.

Pytanie 24

W celu połączenia komputera z systemem do badań wysiłkowych komunikującym się za pomocą interfejsu opisanego przedstawionym symbolem, należy w ustawieniach systemu włączyć

Ilustracja do pytania
A. ethernet.
B. bluetooth.
C. vpn.
D. wi-fi.
Ten symbol przedstawia technologię Bluetooth, czyli popularny standard komunikacji bezprzewodowej na krótkie odległości (zazwyczaj do 10 metrów, choć bywają wersje o większym zasięgu). Bluetooth to taki trochę niewidzialny kabel – pozwala na szybkie i wygodne przesyłanie danych, bez potrzeby używania przewodów. W praktyce, bardzo często wykorzystuje się go do łączenia komputerów z urządzeniami medycznymi, sportowymi, a nawet prostymi sensorami w laboratoriach czy na siłowniach. W systemach do badań wysiłkowych, Bluetooth jest w zasadzie standardem, bo nie zakłóca swobody ruchu badanego i nie wymaga skomplikowanego okablowania. Moim zdaniem, jeśli myślisz o integracji nowoczesnego sprzętu diagnostycznego, to Bluetooth jest absolutnie podstawą – nie tylko ze względu na łatwość użytkowania, ale też na szeroką kompatybilność z wieloma systemami operacyjnymi. Warto też pamiętać, że Bluetooth działa na otwartym paśmie 2,4 GHz i obsługuje różne profile komunikacyjne, dzięki czemu można korzystać z niego zarówno do transferu danych, jak i np. sterowania urządzeniem. Co ciekawe, w branży medycznej istnieją nawet specjalne wersje Bluetooth LE (Low Energy), które umożliwiają długotrwałe monitorowanie parametrów bez dużego zużycia baterii. Z mojego doświadczenia wynika, że odpowiednie skonfigurowanie ustawień Bluetooth w systemie to klucz do bezproblemowej pracy przy wielu badaniach.

Pytanie 25

Który endoskop pozwala na badanie wnętrza tchawicy i oskrzeli?

A. Artroskop.
B. Bronchoskop.
C. Laryngoskop.
D. Duodenoskop.
Bronchoskop to specjalistyczny endoskop, który pozwala na precyzyjne badanie wnętrza tchawicy oraz oskrzeli. W praktyce medycznej to właśnie bronchoskopia jest złotym standardem przy diagnostyce i leczeniu chorób układu oddechowego – począwszy od oceny zmian zapalnych, przez poszukiwanie ciał obcych, aż po pobieranie wycinków do badań histopatologicznych. Z mojego doświadczenia widać, że bronchoskop jest nieoceniony przy podejrzeniu nowotworów płuc albo przewlekłych infekcji. Co ciekawe, nowoczesne bronchoskopy są już bardzo elastyczne, wyposażone w kamerę HD i kanały robocze, przez które można np. podać leki czy narzędzia do usunięcia zatorów. Branżowe standardy mówią jasno – jeśli chodzi o diagnostykę tchawicy czy oskrzeli, bronchoskopia gwarantuje najbardziej precyzyjne obrazowanie w czasie rzeczywistym. Moim zdaniem, warto pamiętać, że ten sprzęt jest dość uniwersalny – można nim wykonywać zarówno zabiegi diagnostyczne, jak i terapeutyczne. W praktyce oddziałów pulmonologicznych czy chirurgii klatki piersiowej bronchoskopia to chleb powszedni. Trzeba też dodać, że inne endoskopy kompletnie nie nadają się do pracy w drogach oddechowych – bronchoskop został skonstruowany właśnie pod kątem anatomii i potrzeb tej części ciała.

Pytanie 26

W opisanym programie zostaną wykonane 4

for (i=0;i<=3;i++)
suma=suma+i;
A. iteracje.
B. dekrementacje.
C. rekurencje.
D. rekursje.
W tym przypadku mamy klasyczną pętlę for, czyli typową konstrukcję służącą do wykonywania iteracji w programowaniu. Program zaczyna od wartości i=0 i zwiększa ją do i=3, wykonując blok kodu suma=suma+i za każdym razem. To powoduje, że cała ta konstrukcja wykona się dokładnie 4 razy, bo pętla działa, dopóki i<=3, czyli dla wartości 0, 1, 2 oraz 3. W praktyce właśnie takie iteracje pozwalają nam zautomatyzować powtarzanie operacji bez konieczności ręcznego kopiowania kodu. Moim zdaniem to jedna z najbardziej fundamentalnych rzeczy, jaką warto opanować na początku nauki programowania. Bez iteracji trudno sobie wyobrazić np. sumowanie elementów tablicy, przetwarzanie zbioru danych czy nawet proste generowanie raportów. W codziennej pracy z kodem iteracje spotyka się praktycznie wszędzie – od prostych algorytmów po bardziej zaawansowane pętle obsługujące np. zdarzenia w aplikacjach. Warto też pamiętać, że dobre praktyki nakazują pisanie takich pętli w sposób czytelny i optymalny, zarówno pod względem wydajności, jak i zrozumiałości dla innych członków zespołu. Pętle for są standardem w wielu językach, m.in. C, C++, Java, Python (choć tam składnia wygląda trochę inaczej).

Pytanie 27

W instrukcji systemu do skanowania dokumentacji medycznej zapisano, że umożliwia wykorzystanie systemu OCR, który służy do

A. rozpoznawania tekstu w pliku graficznym.
B. pomijania białych stron.
C. skanowania wprost do systemu HIS.
D. skanowania obu stron w jednym przelocie.
Systemy OCR, czyli Optical Character Recognition, są mega przydatne wszędzie tam, gdzie mamy do czynienia z papierową dokumentacją, a chcemy coś z nią potem zrobić cyfrowo. Moim zdaniem, to taka podstawa w nowoczesnej administracji medycznej – wyobraź sobie, że masz skan wypisu ze szpitala jako plik JPG albo PDF, a musisz wrzucić dane do systemu HIS czy prowadzić elektroniczną kartę pacjenta. OCR pozwala zamienić zdjęcie tekstu na prawdziwy, edytowalny tekst, który można przeszukiwać, kopiować czy analizować algorytmicznie. To od razu przyśpiesza obieg dokumentów i pozwala uniknąć ręcznego przepisywania danych, co z mojego doświadczenia wprowadza mniej błędów i jest dużo szybsze. W branży medycznej często korzysta się z rozwiązań zgodnych ze standardami, np. HL7 czy DICOM, i OCR świetnie się w to wpisuje, bo umożliwia integrację skanów z elektronicznym obiegiem dokumentacji. W praktyce, dobrze skonfigurowany system potrafi sam rozpoznać tekst z różnych rodzajów formularzy, a potem automatycznie dodać go do odpowiednich rejestrów czy systemu szpitalnego. To już nie tylko oszczędność czasu – takie rozwiązania pozwalają na pełną cyfryzację archiwów medycznych, co jest obecnie zalecane przez Ministerstwo Zdrowia i zgodne z europejskimi standardami prowadzenia dokumentacji. Używanie OCR to po prostu cywilizacyjny krok naprzód w pracy z dokumentami.

Pytanie 28

Który interfejs nie umożliwia podłączenia urządzeń peryferyjnych w standardzie „plug and play”?

A. USB
B. PS/2
C. Fire Wire
D. HDMI
Interfejs PS/2 to dość już leciwa technologia, którą można jeszcze spotkać w starszych komputerach stacjonarnych. Służył głównie do podłączania klawiatury i myszy. PS/2 nie wspiera standardu plug and play w tym sensie, że urządzenia można podłączyć i od razu zacząć używać bez restartu komputera – co jest dziś normą przy USB czy FireWire. W przypadku PS/2, jeśli podłączysz myszkę lub klawiaturę po uruchomieniu systemu, Windows najczęściej jej nie zobaczy. Niby prosta rzecz, ale dla informatyka to czasem potrafi być upierdliwe, kiedy trzeba restartować sprzęt po każdej zmianie. Moim zdaniem właśnie przez brak wygody i nowoczesności PS/2 zniknął z większości nowych płyt głównych. W nowszych standardach, takich jak USB czy FireWire, podłączanie urządzeń w locie (hot swap) jest czymś oczywistym. Standard plug and play bardzo ułatwia życie użytkownikom i serwisantom, bo można szybko testować różne peryferia albo wymieniać uszkodzone bez wyłączania kompa. Nawet HDMI, choć służy głównie do przesyłu obrazu i dźwięku, pozwala na podłączanie urządzeń w trakcie pracy. Warto też pamiętać, że obecnie dobre praktyki w IT wymagają stosowania takich rozwiązań, które minimalizują przestoje i upraszczają obsługę. Tak więc PS/2 to już raczej ciekawostka – dobry przykład, jak technologia potrafi się zestarzeć, jeśli nie nadąża za oczekiwaniami użytkowników.

Pytanie 29

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
B. budowie nowych klas na podstawie już istniejących.
C. uogólnieniu pewnych cech w klasie bazowej.
D. tworzeniu nowych obiektów za pomocą konstruktorów.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 30

Która konsola MMC pozwala na zmianę ważności hasła i ustawienie blokady hasła po określonej liczbie logowań?

A. Szablony zabezpieczeń.
B. Certyfikaty.
C. Zasady zabezpieczeń lokalnych.
D. Użytkownicy i grupy lokalne.
Zasady zabezpieczeń lokalnych w Windows to narzędzie, które daje naprawdę spore możliwości w zakresie zarządzania bezpieczeństwem na pojedynczym komputerze. To właśnie w tej konsoli MMC ustawiasz takie rzeczy jak czas ważności hasła, wymuszanie zmiany hasła po określonym okresie czy blokadę konta po kilku nieudanych próbach logowania. Praktycznie, jeśli adminujesz stacją roboczą albo małym serwerem w sieci bez domeny, to właśnie tutaj ustawisz politykę dotyczącą długości, złożoności i cyklu życia hasła. Z mojego doświadczenia, korzystanie z "Zasad zabezpieczeń lokalnych" pozwala nie tylko podnieść poziom bezpieczeństwa, ale też wdrażać standardy zgodne z dobrymi praktykami, np. rekomendacjami CIS czy wytycznymi NIST. To narzędzie przydaje się zwłaszcza wtedy, gdy nie korzystasz z Active Directory i wszystkimi ustawieniami musisz zarządzać lokalnie. Co ciekawe, niektórzy administratorzy zapominają, że w tej samej konsoli można ustawić także blokadę konta po np. 5 nieudanych próbach logowania, a to przecież podstawa ochrony przed atakami typu brute-force. Generalnie, jeżeli chodzi o indywidualne stanowiska robocze, to praktycznie cała polityka haseł i blokad powinna być skonfigurowana właśnie w tej konsoli. Zasady zabezpieczeń lokalnych nie są może tak rozbudowane jak GPO w domenie, ale pozwalają na naprawdę sporo, jeśli chodzi o bezpieczeństwo pojedynczego komputera. Moim zdaniem, to absolutna podstawa wiedzy każdego, kto chce efektywnie zarządzać systemami Windows w małej skali.

Pytanie 31

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. ciśnienia krwi.
B. oddechu.
C. EKG.
D. EEG.
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 32

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. dźwiękowych.
B. sieciowych.
C. telewizyjnych.
D. graficznych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 33

Która usługa serwera przydziela adresy IP komputerom w sieci LAN?

A. FTP
B. DNS
C. DHCP
D. OPC
DHCP to zupełnie podstawowa usługa w każdej, nawet średnio zaawansowanej sieci lokalnej. Działa ona na zasadzie automatycznego przydzielania adresów IP, masek podsieci, bram domyślnych czy adresów serwerów DNS klientom w sieci lokalnej (LAN). Dzięki temu nie trzeba ręcznie konfigurować adresów na każdym komputerze – wystarczy, że urządzenie zostanie podłączone do sieci, a serwer DHCP rozpozna je i „poda” mu właściwe ustawienia sieciowe. To strasznie wygodne, szczególnie w dużych firmach, szkołach czy nawet domach, gdzie czasem jest mnóstwo urządzeń. Poza tym DHCP ułatwia zarządzanie, bo jeśli trzeba coś zmienić (np. bramę domyślną), wystarczy edytować ustawienia na serwerze, a klienci pobiorą je automatycznie. W praktyce to już standard – nawet tanie routery domowe mają wbudowany serwer DHCP. Protokół ten opisuje RFC 2131, a jego wdrożenie zgodne z najlepszymi praktykami pozwala uniknąć konfliktów adresów IP i usprawnia zarządzanie całym środowiskiem sieciowym. Moim zdaniem, bez DHCP sieci stają się dużo bardziej kłopotliwe w utrzymaniu, zwłaszcza jak ktoś często zmienia sprzęt lub go dodaje. Warto znać zasady jego działania oraz podstawowe ustawienia, bo spotkasz się z tym praktycznie wszędzie tam, gdzie jest więcej niż jeden komputer podłączony do sieci.

Pytanie 34

Parametr dysku twardego określany skrótem MTBF oznacza średni czas

A. odczytu danych.
B. bezawaryjnej pracy.
C. zapisu danych.
D. formatowania dysku.
MTBF, czyli Mean Time Between Failures, to jeden z najważniejszych parametrów przy ocenie niezawodności dysków twardych, zarówno tych klasycznych HDD, jak i nowoczesnych SSD. Oznacza on średni przewidywany czas pracy urządzenia do momentu wystąpienia pierwszej awarii i jest wyrażany zazwyczaj w godzinach (często to wartości rzędu kilkudziesięciu czy nawet kilkuset tysięcy godzin). W praktyce im wyższy MTBF, tym producent deklaruje dłuższą bezawaryjną pracę danego sprzętu. Moim zdaniem, patrząc na realia serwisów technicznych, ten parametr jest szczególnie istotny w zastosowaniach krytycznych – np. w serwerowniach, centrach danych czy systemach monitoringu, gdzie awaria dysku może oznaczać utratę cennych danych albo przestoje w pracy. Warto też wiedzieć, że MTBF to wartość statystyczna – nie daje gwarancji, że dysk wytrzyma dokładnie tyle, ile napisano w specyfikacji, chociaż jest to jakiś wyznacznik jakości konstrukcji i procesu produkcyjnego. W branży IT przyjmuje się, że sprzęt o wysokim MTBF lepiej sprawdzi się w środowiskach wymagających ciągłej pracy, a inwestowanie w takie rozwiązania to po prostu dobra praktyka. Spotkałem się z opinią, że niektóre osoby mylą MTBF z czasem gwarancji, a to zupełnie nie to samo. MTBF to statystyka wyliczana na podstawie testów i doświadczeń, a gwarancja to formalne zobowiązanie producenta. Warto o tym pamiętać i nie polegać tylko na jednym parametrze przy wyborze dysku – choć MTBF to na pewno ważny wyznacznik jakości i niezawodności.

Pytanie 35

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. sekundach.
B. liczbie bitów do odczytu.
C. milisekundach.
D. liczbie cykli zegara.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 36

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 10 mm/s
B. 25 mm/s
C. 50 mm/s
D. 75 mm/s
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 37

Przedstawiony fragment dokumentacji dotyczy

Częstotliwość: 2.0-10.0MHz;

Tryb obrazowania: B, B/B, B/M, M, 4B;

Dynamiczne 4-stopniowe ogniskowanie;

A. tomografu.
B. scyntygrafu.
C. renografu.
D. ultrasonografu.
Poprawnie wskazano, że fragment dokumentacji dotyczy ultrasonografu. Świadczy o tym kilka bardzo charakterystycznych elementów. Po pierwsze zakres częstotliwości 2,0–10,0 MHz jest typowy właśnie dla głowic USG używanych w diagnostyce medycznej. Niższe częstotliwości (ok. 2–3,5 MHz) stosuje się np. w badaniach jamy brzusznej czy serca, bo fale głębiej penetrują tkanki, ale kosztem rozdzielczości. Wyższe częstotliwości (7,5–10 MHz i więcej) wykorzystuje się w badaniach powierzchownych struktur, np. tarczycy, ścięgien, sutka, gdzie ważna jest wysoka rozdzielczość obrazu, a głębokość już mniejsza. Po drugie, tryby obrazowania B, B/B, B/M, M, 4B to typowe oznaczenia trybów pracy aparatu USG. Tryb B (brightness mode) to standardowy obraz dwuwymiarowy w skali szarości. M-mode (motion) służy głównie w kardiologii do oceny ruchu struktur w czasie, np. zastawek serca. B/M to połączenie obrazu przekrojowego z jednoczesnym zapisem M-mode w wybranej linii. Tryb 4B oznacza wyświetlanie kilku (zwykle czterech) okien obrazu B jednocześnie, np. do porównywania przekrojów lub śledzenia dynamicznych zmian. Dodatkowo informacja o „dynamicznym 4-stopniowym ogniskowaniu” dotyczy elektronicznego kształtowania wiązki ultradźwiękowej w głowicy liniowej lub sektorowej. Aparat może ustawiać kilka ognisk w różnych głębokościach, co poprawia ostrość obrazu w całym przekroju. To jest typowa funkcja nowocześniejszych ultrasonografów, zwiększająca jakość diagnostyczną badania. W praktyce serwisowej i użytkowej trzeba umieć powiązać takie parametry z konkretnym zastosowaniem klinicznym: dobór głowicy, częstotliwości, liczby ognisk, trybu B/M czy M-mode zależy od badanej okolicy i rozpoznania. W dokumentacji technicznej USG zawsze znajdziesz właśnie takie elementy: zakres częstotliwości głowic, dostępne tryby obrazowania, rodzaj ogniskowania, czasem też głębokość skanowania, liczbę kanałów, obsługiwane presety kliniczne. To wszystko potwierdza, że opis dotyczy ultrasonografu, a nie innych urządzeń obrazowych.

Pytanie 38

Montaż przewodów w sieciowym gniazdku natynkowym, przedstawionym na rysunku, wykonuje się

Ilustracja do pytania
A. nożem monterskim.
B. śrubokrętem płaskim.
C. narzędziem uderzeniowym.
D. szczypcami uniwersalnymi.
Właściwie, do montażu przewodów w sieciowym gniazdku natynkowym, takim jak to widoczne na zdjęciu, używa się narzędzia uderzeniowego, czyli tzw. impact toola. To rozwiązanie jest moim zdaniem najlepsze, bo pozwala wykonać połączenie przewodu z pinem złącza typu LSA (lub IDC) w sposób pewny, szybki i stabilny. Narzędzie uderzeniowe nie tylko wciska żyłę przewodu w szczelinę kontaktową, ale jednocześnie odcina nadmiar izolacji i przewodu, co znacznie przyspiesza pracę i ogranicza ryzyko uszkodzenia gniazda. W praktyce, przy montażu sieci strukturalnych w biurach, szkołach czy nawet w domach, korzystanie z impact toola to już absolutny standard. Takie podejście jest zgodne z zaleceniami producentów osprzętu sieciowego oraz normami np. PN-EN 50173 czy TIA/EIA-568 i naprawdę trudno sobie wyobrazić profesjonalną instalację bez tego narzędzia. Z mojego doświadczenia, użycie innych narzędzi może prowadzić do problemów ze stykiem, a w dłuższej perspektywie do awarii lub niestabilności połączenia. Lepiej od razu nauczyć się prawidłowej techniki i postawić na precyzję – narzędzie uderzeniowe po prostu robi robotę.

Pytanie 39

Które polecenie umożliwia śledzenie drogi pakietów w sieci?

A. ping
B. tracert
C. ipconfig
D. ifconfig
Polecenie tracert (albo traceroute na systemach Linux) to jedno z podstawowych narzędzi diagnostycznych w sieciach komputerowych. Pozwala ono na śledzenie trasy, jaką pakiet IP pokonuje od komputera źródłowego do wskazanego hosta docelowego. To bardzo przydatne, gdy próbujesz zdiagnozować, gdzie na trasie pojawiają się opóźnienia czy utraty pakietów. Z technicznego punktu widzenia tracert wykorzystuje pole TTL (Time To Live) w nagłówku pakietu IP. Każdy kolejny pakiet wysyłany przez tracert ma zwiększany TTL, co powoduje, że po drodze routery odsyłają pakiety ICMP „Time Exceeded”, a my widzimy każdy kolejny przeskok (hop). To taka swoista mapa przejścia pakietu przez wszystkie routery pośrednie. Moim zdaniem umiejętność korzystania z tracert to absolutna podstawa dla każdego administratora czy nawet zwykłego technika sieciowego. W praktyce często przydaje się, gdy ktoś mówi, że 'internet nie działa' – szybko można sprawdzić, na którym etapie coś się psuje, czy problem jest lokalny czy globalny. W wielu firmach, zwłaszcza tych z rozproszoną infrastrukturą, codziennie korzysta się z takich narzędzi, żeby wykryć błędy routingu albo nieprawidłową konfigurację routerów. Dla ciekawych: w standardzie IPv6 polecenie funkcjonuje analogicznie, chociaż czasem są drobne różnice w obsłudze ICMPv6. Z mojego doświadczenia – niejedną zagadkową awarię udało mi się wytropić właśnie z pomocą tracert. Warto pamiętać, że nie wszystkie routery odpowiadają na te pakiety – czasem widać gwiazdki, ale to już inna historia związana z politykami bezpieczeństwa.

Pytanie 40

Zaćma fotochemiczna jest wywołana promieniowaniem

A. UV-A
B. UV-B
C. VIS
D. IR-C
Zaćma fotochemiczna to temat, który moim zdaniem warto dobrze zrozumieć, zwłaszcza jeśli myśli się o pracy w zawodach narażonych na promieniowanie optyczne. Chodzi tu o to, że soczewka oka jest wyjątkowo wrażliwa na promieniowanie ultrafioletowe, a szczególnie na zakres UV-A (czyli fale o długości 315-400 nm). To właśnie ekspozycja na UV-A, nawet w stosunkowo niskich dawkach, ale przez dłuższy czas, prowadzi do zmian fotochemicznych w białkach soczewki. W rezultacie mogą pojawiać się zmętnienia – to jest właśnie zaćma fotochemiczna. Przykładem mogą być osoby pracujące na świeżym powietrzu przez wiele lat bez odpowiednich okularów ochronnych – np. rolnicy, spawacze czy pracownicy budowlani. Sztandarowe normy BHP, takie jak PN-EN 14255 czy wytyczne Europejskiego Towarzystwa Zaćmy i Chirurgii Refrakcyjnej, podkreślają konieczność stosowania filtrów UV właśnie w zakresie UV-A. W praktyce, stosując dobre okulary przeciwsłoneczne z filtrem UV-A, można znacznie ograniczyć ryzyko zaćmy. Mało kto pamięta, że popularne lampy żarowe UV do utwardzania lakierów czy dezynfekcji również generują UV-A i tam ochrona oczu to podstawa. Ciekawostka: promieniowanie UV-B i UV-C też bywa szkodliwe, ale dla soczewki zdecydowanie najgroźniejsze w kontekście zaćmy jest UV-A, głównie przez głębokość penetracji w tkankach oka. Dlatego w branży optycznej i medycznej mówi się jasno – UV-A to wróg soczewki.