Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 17 kwietnia 2026 01:12
  • Data zakończenia: 17 kwietnia 2026 01:19

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. inkrementację.
B. iterację.
C. permutację.
D. rekurencję.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 2

Pojęcie „Architektura Harvardska” odnosi się do

A. programów współpracujących z maszynami CNC.
B. topologii sieci komputerowej.
C. pracy procesora.
D. komunikacji komputera z ploterem.
Architektura Harvardska to jedno z podstawowych pojęć w obszarze projektowania procesorów oraz mikroprocesorów. Generalnie chodzi w niej o to, że pamięć programu i pamięć danych są fizycznie rozdzielone — procesor ma osobne magistrale do komunikacji z każdą z nich. Z mojego doświadczenia wynika, że takie rozwiązanie daje dużą przewagę w szybkości przetwarzania. Dla przykładu, jeśli mamy mikrokontroler oparty na architekturze Harvardskiej, może on w jednym cyklu pobrać dane z jednej pamięci i instrukcję z drugiej, praktycznie równocześnie. Brzmi jak magia, ale to po prostu przemyślana inżynieria. Jest to szczególnie popularne w systemach embedded, np. w rodzinie AVR czy PIC, które często używa się chociażby w automatyce przemysłowej lub elektronice użytkowej. W odróżnieniu od architektury von Neumanna, gdzie jest jedna magistrala i pamięć, co może prowadzić do tzw. wąskiego gardła, tak zwany bottleneck. Moim zdaniem to rozdzielenie jest świetnym przykładem praktycznego wykorzystania teorii w realnych urządzeniach. Warto też wiedzieć, że w nowoczesnych procesorach hybrydowe podejście bywa stosowane, ale sama zasada architektury Harvardskiej to właśnie praca procesora, a nie topologia sieci czy komunikacja z ploterem. W praktyce często spotykam się z pomyłkami w tym zakresie, dlatego uważam, że warto dobrze rozróżniać te pojęcia.

Pytanie 3

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. KTG
B. EEG
C. UKG
D. EOG
EEG, czyli elektroencefalografia, to rzeczywiście zapis elektrycznej aktywności mózgu, który wykorzystuje się w wielu dziedzinach, od neurologii po psychologię. W praktyce wygląda to tak, że na skórę głowy pacjenta nakłada się elektrody, które rejestrują zmiany potencjałów elektrycznych powstających podczas pracy neuronów w mózgu. Wynik tego badania to wykres fal mózgowych – takich jak alfa, beta, delta czy theta. Najczęściej EEG stosuje się przy diagnostyce padaczki, śpiączek, różnych zaburzeń snu albo nawet przy sprawdzaniu głębokości narkozy. Moim zdaniem to jedno z bardziej uniwersalnych narzędzi we współczesnej medycynie – nieinwazyjne, szybkie i naprawdę często ratuje skórę, gdy diagnoza jest niejasna. Fachowcy trzymają się przy tym określonych wytycznych – jak np. systemu 10-20 do rozmieszczania elektrod na głowie, żeby wyniki były powtarzalne i wiarygodne. Z mojego doświadczenia wynika też, że coraz częściej EEG łączy się z nowymi technikami analizy danych, jak machine learning, co otwiera kolejne drzwi do lepszego rozumienia pracy mózgu. No i warto dodać, że skrót EEG to już światowy standard, więc w każdym szpitalu czy laboratorium rozumieją, o co chodzi.

Pytanie 4

Który typ przewodu przedstawiono na rysunku?

Ilustracja do pytania
A. Skrętkę nieekranowaną.
B. Światłowód wielomodowy.
C. Skrętkę ekranowaną.
D. Światłowód jednomodowy.
Na zdjęciu widać skrętkę ekranowaną, czyli popularny przewód używany w instalacjach sieciowych, który wyróżnia się obecnością dodatkowego ekranu – tu wyraźnie widać folię lub drut ekranowy wokół żył miedzianych. No i to jest bardzo ważna cecha: ekran chroni sygnał przed zakłóceniami elektromagnetycznymi z otoczenia, co w praktyce daje lepszą jakość transmisji na większych odległościach albo w trudniejszych warunkach – np. blisko zasilaczy, silników, czy innych źródeł zakłóceń. Tego typu kable, oznaczane np. jako FTP, STP albo S/FTP, są zgodne ze standardami ISO/IEC 11801 czy EIA/TIA-568 i coraz częściej stosuje się je w rozbudowanych sieciach firmowych, choć w domowych instalacjach zwykle wystarcza skrętka nieekranowana. Moim zdaniem, jeśli planujesz budować sieć LAN w środowisku przemysłowym albo biurowym, gdzie jest dużo urządzeń elektrycznych, wybór wersji ekranowanej to prawdziwy must-have – zmniejsza ryzyko zakłóceń, przypadkowych rozłączeń i różnego rodzaju nieprzewidzianych awarii. Taka skrętka różni się od światłowodów, bo działa na zasadzie przewodnictwa miedzi, a nie światła, a od najzwyklejszej skrętki UTP różni ją obecność tego charakterystycznego ekranu – i to właśnie widać na obrazku.

Pytanie 5

Który system plików pozwala na szyfrowanie danych w systemie Windows?

A. NTFS
B. ReiserFS
C. EXT4
D. FAT32
NTFS to obecnie najpopularniejszy system plików w środowisku Windows i, co tu dużo gadać, jego największą przewagą nad starszymi rozwiązaniami, jak FAT32, jest właśnie obsługa funkcji bezpieczeństwa. Dopiero na NTFS można korzystać z tak zwanych uprawnień do plików i katalogów, kompresji czy – co najważniejsze w tym pytaniu – szyfrowania na poziomie systemu plików. Funkcja EFS (Encrypting File System) pozwala zaszyfrować dane bezpośrednio z poziomu Eksploratora Windows, więc nawet laik może zabezpieczyć swoje pliki przed nieautoryzowanym dostępem. Lubię to rozwiązanie, bo nie wymaga dodatkowych narzędzi, no i po zalogowaniu się odpowiednim kontem użytkownika pliki są po prostu dostępne. Warto pamiętać, że szyfrowanie EFS jest zgodne z polityką bezpieczeństwa wielu firm – często wręcz wymagane przez wewnętrzne standardy IT, żeby ograniczyć ryzyko wycieku danych przy kradzieży laptopa czy dysku. Moim zdaniem, jeśli ktoś pracuje na służbowym sprzęcie albo trzyma jakieś poufne rzeczy na Windowsie, to naprawdę nie ma innej sensownej opcji niż NTFS. Zresztą nawet w domowych zastosowaniach, jeśli komuś zależy na prywatności, to przejście na NTFS to podstawa. Dobrze też wiedzieć, że np. podczas przenoszenia plików na inne systemy plików (np. FAT32 na pendrive’ie) cały ten mechanizm szyfrowania znika. To czasami potrafi zaskoczyć.

Pytanie 6

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. EEG
B. RTG
C. EKG
D. KTG
Zestaw widoczny na zdjęciu to klasyczny przykład testera aparatu KTG, czyli kardiotokografu. To takie urządzenie, które wykorzystuje się przede wszystkim na oddziałach położniczych i ginekologicznych do monitorowania czynności serca płodu oraz skurczów macicy u kobiety ciężarnej. Tego typu tester pozwala na przeprowadzenie okresowej kontroli sprawności kardiotokografów, żeby mieć pewność, że pomiary są wiarygodne i bezpieczne dla pacjentek. Sam kardiotokograf jest bardzo ważny w praktyce klinicznej, bo dzięki niemu personel medyczny może szybko wykryć ewentualne nieprawidłowości w przebiegu ciąży, co w ostateczności może ratować życie dziecka lub matki. Z mojego doświadczenia wynika, że regularna kalibracja i testowanie KTG to już podstawa w nowoczesnych szpitalach – nikt nie chce ryzykować pracy na niesprawdzonym sprzęcie. Zestawy testujące mają często wbudowane standardowe sygnały testowe zgodne z normami ISO i wymaganiami producentów urządzeń medycznych, przez co można dość łatwo potwierdzić, czy dany aparat działa poprawnie. Naprawdę, jeśli ktoś myśli o pracy w serwisie sprzętu medycznego, to musi znać takie zestawy na wylot i kojarzyć, do których typów urządzeń są przeznaczone, bo pomyłka tutaj może mieć przykre skutki praktyczne.

Pytanie 7

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. FAT16
B. EXT4
C. NTFS
D. FAT32
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 8

Który interfejs nie umożliwia podłączenia urządzeń peryferyjnych w standardzie „plug and play”?

A. HDMI
B. PS/2
C. Fire Wire
D. USB
Interfejs PS/2 to dość już leciwa technologia, którą można jeszcze spotkać w starszych komputerach stacjonarnych. Służył głównie do podłączania klawiatury i myszy. PS/2 nie wspiera standardu plug and play w tym sensie, że urządzenia można podłączyć i od razu zacząć używać bez restartu komputera – co jest dziś normą przy USB czy FireWire. W przypadku PS/2, jeśli podłączysz myszkę lub klawiaturę po uruchomieniu systemu, Windows najczęściej jej nie zobaczy. Niby prosta rzecz, ale dla informatyka to czasem potrafi być upierdliwe, kiedy trzeba restartować sprzęt po każdej zmianie. Moim zdaniem właśnie przez brak wygody i nowoczesności PS/2 zniknął z większości nowych płyt głównych. W nowszych standardach, takich jak USB czy FireWire, podłączanie urządzeń w locie (hot swap) jest czymś oczywistym. Standard plug and play bardzo ułatwia życie użytkownikom i serwisantom, bo można szybko testować różne peryferia albo wymieniać uszkodzone bez wyłączania kompa. Nawet HDMI, choć służy głównie do przesyłu obrazu i dźwięku, pozwala na podłączanie urządzeń w trakcie pracy. Warto też pamiętać, że obecnie dobre praktyki w IT wymagają stosowania takich rozwiązań, które minimalizują przestoje i upraszczają obsługę. Tak więc PS/2 to już raczej ciekawostka – dobry przykład, jak technologia potrafi się zestarzeć, jeśli nie nadąża za oczekiwaniami użytkowników.

Pytanie 9

Zasilacz, który podczas normalnej pracy zasila urządzenie, jednocześnie ładując akumulator, a podczas awarii zasilania sieciowego zasila urządzenie z akumulatora, oznaczany jest skrótem

A. UEFI
B. UDP
C. UTP
D. UPS
UPS, czyli Uninterruptible Power Supply, to według mojej opinii jedno z tych urządzeń, które każdy kto poważnie myśli o bezpieczeństwie sprzętu IT powinien znać jak własną kieszeń. Główną zaletą UPS-a jest to, że działa on praktycznie niezauważalnie podczas normalnej pracy – urządzenie jest zasilane z sieci, a akumulatory doładowują się w tle. Dopiero jak zniknie napięcie – czy to z powodu awarii, czy zwykłego przepięcia, UPS przełącza się automatycznie na zasilanie z akumulatora i zapewnia ciągłość pracy. Ta funkcja to podstawa w serwerowniach, laboratoriach, ale też w domowych biurach – przecież nikt nie chce stracić niedokończonego projektu przez nagły zanik prądu. Z mojego doświadczenia, nawet najprostsze UPS-y typu offline potrafią uratować niejedną prezentację czy egzamin online. W praktyce branżowej bardzo często spotykamy różne typy UPS-ów: offline, line-interactive czy online (double conversion), każdy z nich inny pod względem czasu przełączenia czy jakości napięcia wyjściowego. Warto pamiętać, że dobór właściwego UPS-a to nie tylko kwestia mocy, ale też ilości i rodzaju podłączonych urządzeń, czasu podtrzymania i jakości filtracji. Standardy takie jak PN-EN 62040 czy wytyczne organizacji IEEE pokazują, na co zwracać uwagę przy projektowaniu zasilania awaryjnego. Szczerze mówiąc – bez UPS-a ciężko mówić o poważnym podejściu do ochrony sprzętu i danych.

Pytanie 10

Rysunek przedstawia raport sprawdzający połączenie pomiędzy stacjami monitorującymi informatycznego systemu medycznego. Którego polecenia należy użyć aby go uzyskać?

Badanie 100.25.100.50 z 32 bajtami danych:
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128

Statystyka badania ping dla 100.25.100.50:
Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
(0% straty),
Szacunkowy czas błądzenia pakietów w milisekundach:
Minimum = 0 ms, Maksimum = 0 ms, Czas średni = 0 ms

A. ifconfig
B. tracert
C. ping
D. ipconfig
To jest klasyczny przypadek użycia polecenia ping. W praktyce, gdy chcemy sprawdzić czy urządzenie sieciowe – na przykład serwer, drukarka czy inny komputer – odpowiada w sieci, korzystamy właśnie z polecenia ping. Wynik raportu, który tu widzisz, prezentuje odpowiedzi z określonego adresu IP, informując o liczbie wysłanych i odebranych pakietów oraz o czasie odpowiedzi i parametrze TTL. Moim zdaniem trudno wyobrazić sobie diagnostykę sieci bez tego narzędzia – proste, a zarazem bardzo skuteczne. Na co dzień administratorzy sieci na całym świecie używają polecenia ping przy pierwszych podejrzeniach problemów z połączeniem. Taki test pokazuje, czy host jest osiagalny, czy nie występują duże opóźnienia, a także czy pakiety nie giną po drodze. Z mojego doświadczenia wynika, że znajomość działania polecenia ping to podstawa w praktyce IT – to trochę jak młotek dla informatyka sieciowego. Warto pamiętać, że ping wykorzystuje protokół ICMP, a czasem w środowiskach korporacyjnych jego odpowiedzi mogą być blokowane w ramach polityki bezpieczeństwa. Mimo to, jeżeli mamy raport taki jak powyżej, na 100% został on wygenerowany z użyciem polecenia ping. Dobrą praktyką jest też testowanie połączenia do różnych urządzeń w sieci, aby szybko lokalizować ewentualne problemy z dostępnością.

Pytanie 11

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. continue
B. yield
C. return
D. break
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.

Pytanie 12

W dokumentacji skanera zapisano „rozdzielczość optyczna 600 x 600 [dpi]”. Skrót dpi określa liczbę punktów

A. wysokości dokumentu.
B. na cal.
C. na cm.
D. szerokości dokumentu.
Dpi to skrót od „dots per inch”, co w bezpośrednim tłumaczeniu oznacza „liczba punktów na cal”. To taki techniczny wskaźnik, który bardzo często stosuje się w grafice komputerowej, drukarkach i oczywiście skanerach. W praktyce, im większa liczba dpi, tym urządzenie potrafi uchwycić (albo wydrukować) więcej szczegółów na danym odcinku długości jednego cala. Standardowy cal to 2,54 cm, co czasami bywa mylące, bo niektórzy próbują przeliczać dpi na centymetry, ale to nie jest ta sama jednostka. Weźmy na przykład taki skaner o rozdzielczości 600x600 dpi – oznacza to, że w jednym calu w pionie i poziomie urządzenie rozróżnia aż 600 punktów. To właśnie dlatego skany są ostre, a detale dobrze widoczne. Warto pamiętać, że na rynku sprzętu biurowego i poligraficznego przyjęło się właśnie operowanie jednostką dpi, nie na centymetry czy milimetry, bo jest to uniwersalne i pozwala łatwiej porównywać różne urządzenia. Z mojego doświadczenia wynika, że sporo nieporozumień wśród początkujących wynika z pomieszania tych jednostek – a tak naprawdę dpi funkcjonuje od dekad i jest właściwie standardem branżowym. Jeśli na przyszłość będziesz miał do czynienia z drukiem albo digitalizacją dokumentów, to dpi zawsze będzie odnosiło się do ilości punktów na cal. To taki niepisany „język” technologii obrazu.

Pytanie 13

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.0 – 192.150.160.63
B. 192.150.160.0 – 192.150.160.127
C. 192.150.160.1 – 192.150.160.62
D. 192.150.160.1 – 192.150.160.128
Adresacja sieciowa to coś, co potrafi naprawdę namieszać na początku, ale w praktyce to podstawa przy konfiguracji sieci – zwłaszcza jak zaczynasz bawić się maskami podsieci. W przypadku adresu 192.150.160.0/26 mamy maskę 255.255.255.192, czyli 6 bitów na hosty w ostatnim oktecie. To daje w sumie 64 adresy IP w tej podsieci (od 0 do 63). Ale tylko adresy od 192.150.160.1 do 192.150.160.62 nadają się na urządzenia, bo pierwszy (z końcówką .0) to adres sieci, a ostatni (z końcówką .63) to adres rozgłoszeniowy (broadcastowy). To standardowo przyjęte we wszystkich sieciach IPv4. Moim zdaniem dobrze to sobie rozrysować na kartce, szczególnie jeśli chcesz uniknąć wpadki przy większych projektach. W praktyce, np. jak konfigurujesz routery, serwery DHCP czy firewalle – zawsze pilnuj, żeby nie przypisać urządzeniom adresu sieci ani broadcast, bo wtedy mogą pojawić się trudne do wyłapania błędy. Często spotykam się z sytuacją, gdzie ktoś korzysta z całego zakresu, nie zwraca uwagi na te dwa specjalne adresy i potem coś nie działa. Z mojej perspektywy to taka podstawowa wiedza, którą każdy administrator czy technik IT powinien mieć w małym palcu. Warto też pamiętać, że takie podejście jest zgodne z RFC 950, gdzie określono te zasady. Praktyka pokazuje, że dobrze znać te reguły chociażby po to, żeby automatycznie wiedzieć, jaki zakres możesz wpisać np. w konfiguracji serwera DHCP, bez ryzyka, że coś przestanie działać.

Pytanie 14

Który zabieg wymusza naprzemienną pracę mięśni zginaczy i prostowników poprzez stymulację mięśni impulsem prądowym?

A. Dializa.
B. Sonoforeza.
C. Tonoliza.
D. Jonoforeza.
Tonoliza to bardzo specyficzny zabieg fizykalny, który wykorzystuje impulsy prądu do stymulowania pracy mięśni zginaczy oraz prostowników – dokładnie naprzemiennie. Chodzi o to, żeby pobudzać mięśnie w odpowiedniej sekwencji, co prowadzi do ich aktywizacji i poprawy koordynacji ruchowej. W praktyce najczęściej stosuje się ją przy porażeniach spastycznych, np. po udarach czy urazach, kiedy mięśnie mają tendencję do patologicznego napięcia lub osłabienia. Moim zdaniem niesamowite jest to, jak dobrze dobrany impuls może „przypomnieć” mięśniom ich naturalną funkcję. Standardy fizjoterapii mówią o takim podejściu jako bardzo korzystnym w rehabilitacji neurologicznej – bo zamiast biernego rozciągania czy masażu, tutaj mięsień ćwiczy aktywnie, nawet jeśli pacjent sam nie jest w stanie wykonać ruchu. Spotkałem się z sytuacjami, gdzie systematyczna tonoliza naprawdę przyspieszała powrót do sprawności, szczególnie u osób po udarze. Fajne jest również to, że zabieg można zindywidualizować: ustalasz parametry impulsu, czas trwania, kolejność, wszystko pod konkretnego pacjenta. Warto dodać, że w odróżnieniu od innych zabiegów prądowych, tutaj duży nacisk kładzie się właśnie na ruch naprzemienny – nie tylko pobudzanie jednego mięśnia, ale pełny cykl pracy antagonisty i agonisty. Według mnie, to świetna opcja, kiedy zależy nam na funkcjonalnej poprawie ruchu, a nie tylko na zmniejszeniu bólu czy obrzęku.

Pytanie 15

Które ustawienie należy wybrać na multimetrze w celu pomiaru napięcia 12 V w obwodzie prądu stałego?

A. ACV
B. ACA
C. DCA
D. DCV
Wybierając opcję DCV na multimetrze, od razu ustawiasz się na właściwy tor do bezpiecznego i precyzyjnego pomiaru napięcia 12 V w obwodzie prądu stałego. Skrót DCV oznacza dosłownie „Direct Current Voltage”, czyli napięcie prądu stałego. To jest dokładnie to, co spotkasz chociażby w instalacjach samochodowych, zasilaczach czy popularnych układach elektronicznych. Dobrą praktyką jest przed pomiarem ocenić spodziewaną wartość napięcia i – jeśli multimetr nie jest automatyczny – wybrać zakres minimalnie wyższy od spodziewanego. To zabezpiecza zarówno miernik, jak i wynik przed błędami. Z mojego doświadczenia wynika, że wielu początkujących myli DCV z DCA, bo oba mają „DC”, ale przy napięciu zawsze chodzi o V jak „Voltage”. W przewodnikach i instrukcjach do multimetrów zawsze podkreśla się, żeby nie mierzyć napięcia na ustawieniu do prądu, bo można spalić bezpiecznik w mierniku – niby oczywiste, ale w praktyce zdarza się często. DCV to podstawa pracy z klasycznymi bateriami, akumulatorami i wszędzie tam, gdzie nie ma zmiany kierunku przepływu prądu. W branży elektronicznej i energetycznej takie podejście jest standardem i świadczy o profesjonalizmie obsługi narzędzi.

Pytanie 16

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 kW
B. 10 MW
C. 10 kₖW
D. 10 W
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 17

Proces, w którym w bazie danych są usuwane nadmiarowe dane, jest określany jako

A. redukcja.
B. normalizacja.
C. kompresja.
D. redundancja.
Normalizacja to jeden z najważniejszych procesów podczas projektowania baz danych – praktycznie każdy, kto pracuje przy większych systemach informatycznych, prędzej czy później się z tym spotka. Chodzi w niej o takie przekształcenie struktury tabel, żeby unikać powielania tych samych danych (czyli właśnie nadmiarowości). Dzięki normalizacji ograniczamy błędy logiczne, zwiększamy spójność i łatwiej się potem pracuje z taką bazą, zwłaszcza gdy pojawiają się zmiany w danych. Przykładowo: zamiast trzymać nazwę miasta w każdym zamówieniu, lepiej mieć osobną tabelę „Miasta” i tam tylko raz każda nazwa – a w zamówieniach odwoływać się do niej przez klucz. To taki klasyk, który w pracy programisty czy administratora bazy danych po prostu trzeba znać. Moim zdaniem normalizacja to trochę jak sprzątanie pokoju: na początku wydaje się, że jest więcej pracy, ale potem o wiele łatwiej wszystko znaleźć i utrzymać porządek. Standardy branżowe, jak model relacyjny i kolejne postacie normalne (1NF, 2NF, 3NF itd.), pokazują konkretne kroki, jak tę nadmiarowość eliminować. W praktyce zauważyłem, że dobrze znormalizowana baza zużywa mniej miejsca, szybciej się aktualizuje i nie dopuszcza do różnic w danych (np. dwie różne pisownie tego samego klienta). Choć czasem dla wydajności celowo się odchodzi od pełnej normalizacji, to jako punkt wyjścia i standard projektowy – normalizacja jest po prostu niezastąpiona.

Pytanie 18

W zabiegu jonoforezy leki są transportowane przez skórę do głębiej położonych warstw poprzez zastosowanie

A. fal akustycznych.
B. pola magnetycznego.
C. fal ultradźwiękowych.
D. prądu galwanicznego.
Jonoforeza to taki zabieg fizykalny, w którym wykorzystuje się prąd galwaniczny do wprowadzania leków przez skórę w głąb tkanek. To właśnie ta stała forma prądu elektrycznego sprawia, że jony substancji leczniczych są „przepychane” przez barierę naskórkową – i to dużo efektywniej niż przez zwykłe nałożenie maści czy kremu. Moim zdaniem to świetne rozwiązanie, kiedy zależy nam na działaniu miejscowym, np. w leczeniu stanów zapalnych, przewlekłego bólu czy zmian zwyrodnieniowych stawów. W praktyce fizjoterapeuci często stosują jonoforezę na takie schorzenia jak ostroga piętowa, przewlekłe zapalenie ścięgien albo przykurcze mięśni po urazach. Z mojego doświadczenia wynika, że dzięki jonoforezie leki omijają przewód pokarmowy, więc nie obciążają wątroby czy żołądka – to duży plus. Ważne, żeby dobrać odpowiedni preparat do rodzaju problemu, a także właściwie ustawić parametry prądu; wszystko zgodnie z wytycznymi branżowymi, na przykład z zaleceniami Polskiego Towarzystwa Fizjoterapii. Co ciekawe, sam prąd galwaniczny również wykazuje działanie biologiczne – poprawia ukrwienie, przyspiesza regenerację i działa przeciwbólowo, więc zabieg daje często podwójny efekt. Uczciwie mówiąc, to rozwiązanie bardzo często stosowane w gabinetach rehabilitacji i naprawdę daje widoczne rezultaty, jeśli jest dobrze przeprowadzone.

Pytanie 19

Kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. hub – ruter.
B. ruter – ruter.
C. przełącznik – komputer.
D. przełącznik – ruter.
No i właśnie! Kabel krosowany (czyli tzw. cross-over) to specjalny rodzaj kabla ethernetowego, w którym niektóre pary przewodów są zamienione miejscami – dokładnie jak na tym schemacie, gdzie przewody 1 i 3 oraz 2 i 6 są skrzyżowane. Dzięki temu urządzenia tego samego typu, np. dwa routery, mogą się ze sobą bezpośrednio komunikować. Normalnie, router i komputer lub router i switch używają kabla prostego (straight-through), bo urządzenia mają różne funkcje portów – nadajnik trafia na odbiornik i na odwrót. Ale gdy dwa takie same urządzenia próbują się połączyć, oba wysyłają i odbierają na tych samych pinach, więc połączenie by nie zadziałało bez crossa. W codziennej praktyce, szczególnie kiedy pracujemy ze starszym sprzętem, taki kabel jest niezastąpiony przy testowaniu połączeń lub awaryjnym łączeniu dwóch routerów, switchy, czy nawet komputerów. Nowoczesne urządzenia często mają funkcję auto-MDI/MDIX, która automatycznie wykrywa rodzaj kabla i odpowiednio przełącza piny, ale w starszych sieciach krosowanie było po prostu koniecznością. Moim zdaniem, warto pamiętać o tej różnicy – to niby drobiazg, ale na kablach sieciowych wiele osób się wykłada, szczególnie jak sprzęt nie jest z tej samej epoki. Standardy opisujące te połączenia to na przykład TIA/EIA-568A i TIA/EIA-568B. Dobrą praktyką jest więc mieć w szufladzie przynajmniej jeden taki kabelek – bo nigdy nie wiadomo, kiedy się przyda.

Pytanie 20

Który endoskop pozwala na badanie wnętrza tchawicy i oskrzeli?

A. Laryngoskop.
B. Duodenoskop.
C. Artroskop.
D. Bronchoskop.
Bronchoskop to specjalistyczny endoskop, który pozwala na precyzyjne badanie wnętrza tchawicy oraz oskrzeli. W praktyce medycznej to właśnie bronchoskopia jest złotym standardem przy diagnostyce i leczeniu chorób układu oddechowego – począwszy od oceny zmian zapalnych, przez poszukiwanie ciał obcych, aż po pobieranie wycinków do badań histopatologicznych. Z mojego doświadczenia widać, że bronchoskop jest nieoceniony przy podejrzeniu nowotworów płuc albo przewlekłych infekcji. Co ciekawe, nowoczesne bronchoskopy są już bardzo elastyczne, wyposażone w kamerę HD i kanały robocze, przez które można np. podać leki czy narzędzia do usunięcia zatorów. Branżowe standardy mówią jasno – jeśli chodzi o diagnostykę tchawicy czy oskrzeli, bronchoskopia gwarantuje najbardziej precyzyjne obrazowanie w czasie rzeczywistym. Moim zdaniem, warto pamiętać, że ten sprzęt jest dość uniwersalny – można nim wykonywać zarówno zabiegi diagnostyczne, jak i terapeutyczne. W praktyce oddziałów pulmonologicznych czy chirurgii klatki piersiowej bronchoskopia to chleb powszedni. Trzeba też dodać, że inne endoskopy kompletnie nie nadają się do pracy w drogach oddechowych – bronchoskop został skonstruowany właśnie pod kątem anatomii i potrzeb tej części ciała.

Pytanie 21

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. echokardiografii.
B. elektrokardiografii.
C. angiografii.
D. fonokardiografii.
Zjawisko zmiany częstotliwości fali odbitej od poruszającego się obiektu to tzw. efekt Dopplera i to właśnie na nim w dużej mierze opiera się echokardiografia. Często się o tym nie mówi na lekcjach, ale dla praktyka medycznego albo technika to naprawdę fundamentalna sprawa – bo dzięki temu można zobaczyć nie tylko kształt i ruchy serca, ale też prędkość przepływu krwi przez jamy i zastawki. Echokardiograf, poza klasycznym obrazowaniem 2D, może mierzyć prędkości dzięki tzw. Dopplerowi kolorowemu albo spektralnemu i na tej podstawie lekarz od razu widzi gdzie są na przykład zwężenia naczyń czy cofanie się krwi (niedomykalność zastawek). W praktyce na oddziale kardiologicznym to jedno z podstawowych badań nie tylko diagnostycznych, ale też monitorujących efekty leczenia. Warto wiedzieć, że to bardzo nowoczesna technologia, która cały czas się rozwija – pojawiają się coraz lepsze algorytmy, a nawet systemy AI wspomagające ocenę przepływów. Moim zdaniem, znajomość efektu Dopplera i jego medycznych zastosowań jest bardzo ceniona, bo otwiera drzwi do pracy z nowoczesnym sprzętem i w ogóle daje poczucie, że rozumiemy jak działa współczesna diagnostyka obrazowa. Branża wymaga, żeby nie tylko wiedzieć „co” się widzi na ekranie, ale też „dlaczego” ten obraz tak wygląda – no i efekt Dopplera to podstawa w tej układance.

Pytanie 22

W celu wyszukania błędów w programie wykorzystuje się

A. kompilator.
B. debuger.
C. konsolidator.
D. linker.
Debuger to narzędzie absolutnie podstawowe dla każdego programisty, który chce świadomie szukać i naprawiać błędy w swoim kodzie. Z doświadczenia mogę powiedzieć, że praca bez debugera przypomina trochę szukanie igły w stogu siana – owszem, można próbować zgadywać, co się popsuło, ale skuteczność takiego podejścia jest znikoma. Debuger pozwala uruchamiać program krok po kroku, zatrzymywać wykonanie w wybranych miejscach (tzw. breakpointach), sprawdzać wartości zmiennych na każdym etapie działania oraz obserwować zmiany w pamięci operacyjnej. Współczesne IDE, jak Visual Studio, Eclipse czy nawet darmowe Code::Blocks, mają wbudowane debugery, które bardzo ułatwiają analizę działania programów. Dobrą praktyką, stosowaną w branży, jest nie tylko używanie debugera do naprawiania błędów, ale także do zrozumienia logiki działania własnego kodu – czasami wychodzą wtedy bardzo ciekawe rzeczy na jaw. Co ciekawe, debugowanie to nie tylko szukanie tzw. crashy czy błędów logicznych, ale również optymalizacja działania programu, np. wykrywanie niepotrzebnych obliczeń czy nieefektywnych algorytmów. W sumie debuger to taki „mikroskop” programisty – pozwala zobaczyć to, co normalnie ukryte. W mojej opinii, żaden poważny projekt nie powstaje bez porządnego debugowania i właśnie dlatego znajomość obsługi debugera powinna być żelaznym punktem w arsenale każdego przyszłego developera.

Pytanie 23

Które polecenie w systemie Windows tworzy folder Dane?

A. set Dane
B. ren Dane
C. mkdir Dane
D. rmdir Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 24

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. EEG
B. KTG
C. EKG
D. RTG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 25

Które urządzenie medyczne wspomaga lub zastępuje mięśnie pacjenta w oddychaniu?

A. Saturator.
B. Kapnograf.
C. Pulsoksymetr.
D. Respirator.
Respirator to zdecydowanie jedno z najważniejszych urządzeń medycznych stosowanych na oddziałach intensywnej terapii, blokach operacyjnych czy nawet w transporcie medycznym. Jego główne zadanie polega na mechanicznym wspomaganiu lub wręcz zastępowaniu funkcji oddychania u pacjentów, którzy nie są w stanie samodzielnie zapewnić odpowiedniej wentylacji płuc. Moim zdaniem bez respiratora nowoczesna medycyna ratunkowa praktycznie nie mogłaby funkcjonować – szczególnie w sytuacjach takich jak niewydolność oddechowa, urazy klatki piersiowej, poważne infekcje płuc czy też znieczulenie ogólne podczas operacji. Respiratory umożliwiają precyzyjne ustawienie parametrów takich jak objętość oddechowa, częstotliwość oddechu, ciśnienie końcowo-wydechowe albo stężenie tlenu w mieszaninie oddechowej, co jest absolutnie kluczowe dla indywidualnego dostosowania terapii do stanu pacjenta. Współczesne standardy, jak np. wytyczne European Society of Intensive Care Medicine, kładą nacisk na personalizację wentylacji mechanicznej, żeby minimalizować ryzyko powikłań takich jak barotrauma czy uszkodzenie płuc. W praktyce spotkałem się z sytuacjami, kiedy odpowiednie zastosowanie respiratora dosłownie ratowało życie – np. u pacjentów po zatrzymaniu akcji serca czy z ciężkim COVID-19. Warto pamiętać, że obsługa respiratora wymaga solidnej wiedzy i regularnych szkoleń, bo nieprawidłowe ustawienia mogą pogorszyć stan chorego. Ciekawostka: nowoczesne respiratory potrafią nawet automatycznie dostosowywać parametry do zmieniających się potrzeb pacjenta.

Pytanie 26

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. sieciowych.
B. mięśniowych 35 Hz.
C. mięśniowych 25 Hz.
D. wolnozmiennych.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 27

Technologia OLED znajduje zastosowanie w

A. monitorach komputerowych.
B. kartach pamięci Secure Digital.
C. urządzeniach sieciowych.
D. nagrywarkach Blu-Ray.
OLED, czyli Organic Light Emitting Diode, to technologia wyświetlania obrazu, która naprawdę zrewolucjonizowała rynek monitorów komputerowych i telewizorów. Zamiast wykorzystywać podświetlenie LED, jak w klasycznych LCD, OLED pozwala na bezpośrednie świecenie każdego piksela. To daje rewelacyjną głębię czerni, bo piksel po prostu się wyłącza – nie świeci, nie pobiera energii, nie przepuszcza światła. Z mojego punktu widzenia największy plus to właśnie kontrast: w OLED-ach czarne jest naprawdę czarne, a kolory są mega żywe. Gracze i graficy bardzo często wybierają monitory z OLED, bo oprócz jakości obrazu mają one szybki czas reakcji – ważne przy dynamicznych grach czy montażu wideo. Często słyszy się, że OLED to też mniejsze zużycie energii, przynajmniej przy wyświetlaniu ciemnych treści. W branży panuje opinia, że OLED wyznacza standard nowoczesnych monitorów premium. Są tu też pewne wyzwania, np. wypalanie się pikseli przy statycznych obrazach, ale w praktyce, przy normalnym użytkowaniu i nowych technologiach zarządzania obrazem, nie jest to aż tak problematyczne, jak się kiedyś mówiło. Z ciekawostek: OLED stosuje się już nawet w wyświetlaczach do samochodów i najnowszych smartfonach, ale to właśnie monitory komputerowe są przykładem, gdzie ta technologia daje naprawdę zauważalną różnicę na co dzień. Szczerze mówiąc, jak ktoś raz popatrzy na monitor OLED, to potem ciężko wrócić do zwykłego LCD. Warto o tym pamiętać, szukając sprzętu do pracy z grafiką czy do gier.

Pytanie 28

Do badania przewodnictwa powietrznego i kostnego służy

A. adaptometr.
B. kapnometr.
C. audiometr.
D. fotometr.
Audiometr to urządzenie, które z mojego doświadczenia jest totalną podstawą w badaniach słuchu – zarówno przewodnictwa powietrznego, jak i kostnego. W praktyce używa się go w gabinetach laryngologicznych oraz w poradniach audiologicznych. Pozwala ocenić, jak dobrze dany pacjent słyszy dźwięki o różnych częstotliwościach zarówno przez słuchawki (przewodnictwo powietrzne), jak i przez specjalne wibratory kostne (przewodnictwo kostne). Bardzo często audiometr stosuje się przy podejrzeniu niedosłuchu przewodzeniowego lub odbiorczego – wyniki pozwalają określić, gdzie dokładnie leży problem w uchu. Zwraca się uwagę na to, by badanie było przeprowadzone w wyciszonym pomieszczeniu, zgodnie z wytycznymi Polskiego Towarzystwa Otolaryngologów. Z mojej perspektywy, to sprzęt niezastąpiony w profilaktyce słuchu chociażby u osób pracujących w hałasie – dzięki temu wykrywa się uszkodzenia słuchu zanim pojawią się trwałe zmiany. Audiometria tonalna i próby przewodnictwa kostnego to standard w medycynie pracy, diagnostyce dzieci, osób starszych, czy nawet przed doborem aparatów słuchowych. Przy okazji warto dodać, że są różne modele audiometrów – od prostych, przenośnych po bardzo zaawansowane, komputerowe systemy, które umożliwiają szczegółową analizę słuchu. W sumie nie wyobrażam sobie dobrej diagnostyki bez tego sprzętu – zdecydowanie jest to narzędzie pierwszego wyboru według wszelkich dobrych praktyk.

Pytanie 29

Wymianą informacji pomiędzy układami znajdującymi się na płycie głównej komputera steruje

A. procesor GPU.
B. chipset.
C. pamięć RAM.
D. MAC.
Chipset to taki trochę niewidzialny bohater na płycie głównej – niby go nie widać, mało kto o nim mówi przy składaniu kompa, a jednak to on kieruje całym ruchem informacji pomiędzy procesorem, pamięcią RAM, kartami rozszerzeń czy nawet dyskami. Jeśli by porównać płytę główną do ruchliwego skrzyżowania, to chipset jest takim policjantem, który decyduje, kto ma pierwszeństwo, a kto musi poczekać. Chipset składa się z dwóch głównych części – dawniej nazywanych Northbridge i Southbridge, choć dzisiaj w nowoczesnych rozwiązaniach większość funkcji Northbridge’a jest już przeniesiona do procesora. W praktyce to właśnie chipset odgrywa kluczową rolę w tym, czy dany komputer obsłuży szybkie pamięci RAM, ile dysków SSD da się podłączyć, czy można zamontować najnowszą kartę graficzną, czy nie. Wybierając płytę główną, zawsze warto spojrzeć, jaki chipset jest na pokładzie, bo to od niego zależy, jakie technologie będą dostępne i jak wydajnie będą one ze sobą współpracowały. Moim zdaniem znajomość działania chipsetu to absolutna podstawa dla każdego, kto chce nie tylko składać, ale i naprawiać czy rozbudowywać komputery. Bez tej wiedzy bardzo łatwo popełnić błąd i potem się dziwić, czemu coś nie działa albo nie da się podkręcić sprzętu. Z własnego doświadczenia wiem, że zwracanie uwagi na chipset pozwala uniknąć wielu problemów z kompatybilnością i wydajnością. To taka nieoczywista, ale bardzo ważna część komputera, o której mówią wszyscy bardziej zaawansowani technicy.

Pytanie 30

Rysunek przedstawia wynik działania polecenia ipconfig urządzenia w sieci LAN. Który adres rutera umożliwia dostęp tego urządzenia do sieci WAN?

Karta Ethernet Połączenie lokalne:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :

Karta bezprzewodowej sieci LAN Połączenie sieci bezprzewodowej:

Sufiks DNS konkretnego połączenia :
Adres IPv6 połączenia lokalnego . : fe80::2dd5:5602:1f17:82c8%11
Adres IPv4. . . . . . . . . . . . : 192.168.10.44
Maska podsieci. . . . . . . . . . : 255.255.255.0
Brama domyślna. . . . . . . . . . : 192.168.10.1

Karta tunelowa isatap.Home:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :
A. 255.255.255.0
B. 192.168.10.44
C. 192.168.10.1
D. fe80.2dd5.5602
Adres 192.168.10.1 został wskazany jako brama domyślna w wyniku polecenia ipconfig. To właśnie ten adres odpowiada za „wyjście” urządzenia z sieci lokalnej (LAN) do sieci zewnętrznej, czyli WAN, najczęściej Internetu. W praktyce jest to adres IP interfejsu routera w Twojej podsieci – wszystkie pakiety kierowane poza lokalny segment sieci są przesyłane właśnie do tej bramy, która dalej je przekazuje do odpowiedniego miejsca docelowego. Branżowo mówi się, że „default gateway” to taki domyślny punkt styku ze światem zewnętrznym. W standardowych konfiguracjach urządzeń sieciowych (np. Windows, routery SOHO) zawsze warto sprawdzać tę wartość, gdy pojawiają się problemy z dostępem do Internetu. Często powtarza się (i słusznie!), że zły adres bramy lub jej brak od razu uniemożliwia komunikację poza lokalną siecią, nawet jeśli IP i maska są poprawne. Co ciekawe, w większych sieciach bywa, że bram jest kilka, ale domyślna jest tylko jedna dla danego hosta. W sumie – bez bramy domyślnej nie ma szans, żeby „wyjść” z LANu. Z mojego doświadczenia zawsze najpierw sprawdzam tę wartość podczas diagnozowania awarii sieci – to podstawa każdego serwisanta albo administratora. Warto też wiedzieć, że adres bramy domyślnej zwykle kończy się na .1, choć nie jest to twarda reguła, po prostu tak przyjęło się ze względów porządkowych. W tym przykładzie wszystko wygląda książkowo.

Pytanie 31

Którego nośnika pamięci należy użyć w komputerze, aby zapewnić najszybsze ładowanie się systemu operacyjnego podczas jego uruchamiania?

A. Dysku HDD.
B. Płyty BD w napędzie optycznym.
C. Pendrive’a podłączonego do USB 3.0.
D. Dysku SSD.
Dysk SSD, czyli Solid State Drive, to obecnie najczęściej polecany nośnik pamięci do instalacji systemu operacyjnego, jeśli zależy nam na naprawdę szybkim uruchamianiu komputera. Wynika to głównie z tego, że SSD korzysta z pamięci flash, przez co dostęp do danych jest praktycznie natychmiastowy – opóźnienia są minimalne nawet w porównaniu z najszybszymi dyskami HDD. Moim zdaniem, nie ma już sensu inwestować w tradycyjne dyski talerzowe jako główny dysk systemowy, zwłaszcza że ceny SSD mocno spadły przez ostatnie lata. Sam kiedyś miałem system na HDD i różnica po przesiadce na SSD była ogromna – bootowanie systemu zajmuje dosłownie kilkanaście sekund zamiast minuty. Producenci komputerów też coraz częściej montują SSD jako standard. Warto też wiedzieć, że SSD są mniej podatne na uszkodzenia mechaniczne, bo nie mają ruchomych części, a to istotne w laptopach czy komputerach przenośnych. Najnowocześniejsze SSD na złączu NVMe (PCIe) osiągają prędkości rzędu kilku tysięcy MB/s, co w praktyce daje bardzo szybką pracę systemu i aplikacji – żaden HDD czy pendrive nie jest w stanie tego przebić. Według standardów branżowych, instalacja systemu na SSD to już właściwie reguła w profesjonalnych zastosowaniach i domowych PC.

Pytanie 32

W celu określenia trasy, przez jakie routery przechodzi sygnał pomiędzy komputerami w sieci szpitalnej, można zastosować polecenie

A. set.
B. path.
C. tracert.
D. recover.
tracert to polecenie, które na co dzień wykorzystuje się do diagnozowania tras przesyłu danych w sieciach komputerowych, również tych spotykanych w środowisku szpitalnym. Jego zadaniem jest pokazanie dokładnie, przez jakie urządzenia sieciowe, a dokładniej routery, przechodzi pakiet zanim dotrze do miejsca docelowego. W praktyce wygląda to tak, że wpisując w wierszu poleceń „tracert” i adres docelowy (np. tracert www.google.com), otrzymujemy listę kolejnych punktów pośrednich, czyli właśnie routerów, przez które przechodzi nasz sygnał. Narzędzie jest bardzo pomocne np. przy lokalizowaniu miejsca, gdzie występuje opóźnienie albo gdzie pojawia się przerwa w komunikacji. Z mojego doświadczenia wynika, że w dużych sieciach, szczególnie tam, gdzie bezpieczeństwo i niezawodność mają pierwszorzędne znaczenie (jak w szpitalach), regularne korzystanie z tracert pozwala szybciej wykryć problemy sprzętowe albo błędy konfiguracyjne. Warto dodać, że tracert stosuje standardowe mechanizmy TTL (Time To Live), dzięki czemu może zliczać przeskoki pakietów przez kolejne routery. To narzędzie dostępne jest praktycznie na każdym komputerze z systemem Windows. Na Linuxie i Macu podobną funkcję spełnia polecenie traceroute. To jedno z tych narzędzi, które w praktyce administracyjnej naprawdę robi różnicę, bo pozwala zrozumieć, jak nasze dane krążą po sieci. Moim zdaniem, znajomość i umiejętność używania tracert to absolutna podstawa w świecie IT.

Pytanie 33

W dokumentacji elektrokardiografu znajduje się informacja o wyposażeniu aparatu w filtry cyfrowe 50 Hz, 35 Hz i filtr antydriftowy. Które zakłócenia eliminuje z sygnału EKG filtr 50 Hz?

A. Wolnozmienne.
B. Mięśniowe.
C. Sieciowe.
D. Szybkozmienne.
Filtr 50 Hz w elektrokardiografie to jeden z tych elementów, bez których trudno sobie wyobrazić nowoczesne badanie EKG. Główne zadanie tego filtra polega na eliminowaniu zakłóceń pochodzących z sieci elektrycznej, czyli tak zwanych zakłóceń sieciowych (ang. power line interference). W Polsce, jak i w całej Europie, częstotliwość sieci wynosi właśnie 50 Hz, więc jeśli w przewodach, kablach czy nawet w pomieszczeniu pojawi się pole elektromagnetyczne o tej charakterystyce, może to mocno zakłócić przebieg rejestrowanego sygnału EKG. Z mojego doświadczenia wynika, że bez tego filtra na wydruku EKG często pojawia się charakterystyczny „szum”, który potrafi skutecznie utrudnić interpretację wyniku, zwłaszcza przy słabszych sygnałach pacjentów. Stosowanie filtra 50 Hz jest uznawane za dobrą praktykę w diagnostyce kardiologicznej — zarówno w szpitalach, jak i gabinetach prywatnych. Standardy, takie jak zalecenia European Society of Cardiology, wręcz sugerują, by włączać filtr 50 Hz podczas rejestracji sygnału, by nie dopuścić do błędnej interpretacji z powodu artefaktów sieciowych. Czasem zdarza się, że zakłócenia te są mylone z arytmiami lub innymi patologiami, szczególnie przez mniej doświadczonych użytkowników. Filtr 50 Hz nie wpływa znacząco na ważne fragmenty sygnału EKG (np. zespół QRS), dzięki czemu nie tracimy cennych informacji diagnostycznych. W praktyce, jeśli zauważysz na ekranie lub wydruku regularne zafalowania o odstępie 0,02 sekundy (czyli właśnie 50 razy na sekundę), to prawie na pewno pochodzi to od sieci i właśnie taki filtr rozwiązuje ten problem. Nie każdy filtr tak dobrze sobie z tym radzi — filtry mięśniowe czy antydriftowe mają zupełnie inne zadania.

Pytanie 34

Przepływ przez organizm człowieka prądów o wysokiej częstotliwości, mających zastosowanie w elektrochirurgii, może powodować

A. zaburzenie pracy serca.
B. cięcie lub koagulację tkanki.
C. zaburzenia przewodnictwa w nerwach.
D. skurcz mięśni.
Prawidłowa odpowiedź, bo właśnie prądy o wysokiej częstotliwości w elektrochirurgii zostały stworzone głównie po to, by ciąć i koagulować tkanki, nie powodując przy tym bezpośrednich, groźnych efektów pobudzenia mięśni czy zakłóceń pracy serca. To jest dość sprytne rozwiązanie, bo dzięki temu lekarze mogą bezpiecznie przecinać albo zespalać naczynia i inne struktury podczas zabiegów. Prąd HF (czyli high frequency, powyżej 300 kHz) nie wywołuje klasycznych efektów elektrofizjologicznych jak np. skurcze mięśni, bo komórki nerwowe i mięśniowe nie nadążają reagować na tak szybkie zmiany. Zamiast tego energia zamienia się miejscowo w ciepło, co pozwala uzyskać efekt cięcia (przy dużej mocy i krótkim czasie) lub koagulacji (przy mniejszej mocy i dłużej trwającym impulsie). Moim zdaniem to jedna z ciekawszych technologii w praktyce medycznej, bo pozwala ograniczyć krwawienie i przyspieszyć zabiegi – niejednokrotnie widziałem, jak chirurg dzięki elektrokauterowi szybciej zamyka naczynia. Z punktu widzenia bezpieczeństwa, większość urządzeń spełnia normy PN-EN 60601-2-2, które określają właśnie zasady użytkowania sprzętu HF w chirurgii. Warto też pamiętać, że zastosowanie tych prądów wymaga szczególnej ostrożności przy pracy w pobliżu implantów czy urządzeń elektronicznych u pacjenta.

Pytanie 35

Na zdjęciu przedstawiono

Ilustracja do pytania
A. głowicę USG.
B. sondę TOCO.
C. elektrodę AED.
D. lampę SOLLUX.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 36

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. 3^n
B. n^3
C. 3*n
D. 3*(n-1)
Funkcja F(n) jest przykładem rekurencji liniowej, gdzie za każdym razem dla n>1 wartość funkcji jest mnożona przez 3 w stosunku do poprzedniego wyniku. W skrócie: F(n) = 3 * F(n-1), a dla n=1 ustalamy F(1)=3. Jeśli rozwiniesz to rekurencyjnie, otrzymasz ciąg: F(2)=3*3, F(3)=3*3*3, itd., co prowadzi do wzoru ogólnego F(n)=3^n. To jest bardzo charakterystyczne dla tzw. ciągów geometrycznych. Moim zdaniem taki typ zadań świetnie pokazuje, jak działa propagacja wartości w rekurencji i jest często spotykany przy analizie algorytmów, szczególnie jeśli chodzi o złożoność obliczeniową. W praktyce informatycznej, takie wzory pojawiają się np. w algorytmach dziel i zwyciężaj, gdzie każda warstwa rekurencji mnoży się przez stałą. Warto pamiętać, że znajomość wyprowadzenia wzoru rekurencyjnego do postaci jawnej (czyli bezpośredniej) bardzo przyspiesza analizę nawet bardziej złożonych funkcji. Często podczas programowania można spotkać się z zadaniami, gdzie trzeba rozpoznać, jak szybko rośnie funkcja, a tu wzrost wykładniczy (czyli właśnie potęgowanie) jest jednym z najszybszych. Co ciekawe, takie proste rekurencje mają też znaczenie choćby w modelowaniu wzrostu populacji czy inwestycji finansowych. Generalnie zaś, wykładniczy wzrost to nie przelewki – potrafi bardzo szybko doprowadzić do dużych wartości, dlatego w praktycznych aplikacjach programistycznych trzeba uważać na przepełnienia zmiennych i ograniczenia sprzętowe.

Pytanie 37

Jaki powinien być ustawiony adres maski podsieci, aby umożliwiał podłączenie maksymalnie 30 urządzeń?

A. 255.255.255.252
B. 255.255.255.224
C. 255.255.255.240
D. 255.255.255.248
Maska podsieci 255.255.255.224 pozwala na uzyskanie 30 dostępnych adresów hostów w jednej podsieci, co jest dokładnie tym, czego potrzeba w tym pytaniu. Wynika to z faktu, że ta maska daje 8 adresów na ostatnim oktecie, czyli 32 adresy w sumie, ale dwa z nich (adres sieci i adres rozgłoszeniowy) nie mogą być przypisane urządzeniom. W praktyce oznacza to 30 możliwych hostów do wykorzystania. Moim zdaniem dobór takiej maski jest bardzo częsty w sieciach korporacyjnych czy mniejszych firmach, gdzie nie ma potrzeby marnowania adresów IP na zbyt dużą podsieć. Sam osobiście stosowałem podobne rozwiązania przy konfiguracji sieci w szkole. To też świetny przykład dobrej praktyki – zawsze warto dopasować maskę do faktycznych potrzeb, żeby nie marnować zakresu adresowego. W standardach sieciowych, zgodnie z RFC 950, przydzielanie podsieci z zachowaniem właściwej liczby dostępnych hostów jest podstawą efektywnego zarządzania adresacją. Dodatkowo, taka maska (czyli /27) bardzo ułatwia podział większej sieci na mniejsze segmenty, co ma przełożenie na bezpieczeństwo i kontrolę ruchu. Często takie rozwiązania spotykane są w firmach, gdzie każde biuro lub dział ma własną podsieć. Praktyka pokazuje, że lepiej mieć kilka mniejszych podsieci niż jedną wielką – łatwiej się tym zarządza, a i awarie są mniej dotkliwe.

Pytanie 38

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. PACS
B. VPN
C. LZW
D. WLAN
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.

Pytanie 39

Którą metodę montażu należy zastosować w celu zakończenia przewodu zasilającego końcówkami przedstawionymi na fotografii?

Ilustracja do pytania
A. Lutowanie.
B. Skręcanie.
C. Zgrzewanie.
D. Zaciskanie.
Do zakończenia przewodu zasilającego końcówkami pokazanymi na zdjęciu najbardziej właściwa i powszechnie stosowana jest metoda zaciskania, czyli tzw. crimpowanie. Takie końcówki – popularne oczkowe tuleje kablowe – zostały zaprojektowane właśnie z myślą o zaciskaniu specjalnymi szczypcami lub praskami hydrauliczno-mechanicznymi. Dzięki temu uzyskuje się trwałe, odporne na drgania i obciążenia mechaniczne połączenie, które gwarantuje niską rezystancję styków i bezpieczeństwo nawet przy dużych prądach. Z mojego doświadczenia wynika, że solidnie zaciśnięta końcówka praktycznie eliminuje ryzyko przegrzewania się złącza czy przypadkowego wysunięcia się przewodu spod śruby. Warto wspomnieć, że zgodnie z normami – choćby PN-EN 61238-1 – metoda zaciskania jest zalecana przy pracach elektroinstalacyjnych w przemyśle oraz energetyce. Branża elektryczna jednoznacznie uznaje zaciskanie za najbezpieczniejsze rozwiązanie dla przewodów o większych przekrojach, gdzie lutowanie czy skręcanie byłyby nie tylko niepraktyczne, ale też niezgodne z zaleceniami producentów końcówek. Praktyka pokazuje, że poprawnie zaciśnięta końcówka w dużej mierze decyduje o żywotności całego układu zasilającego, a stosowanie certyfikowanych narzędzi jest po prostu inwestycją w bezpieczeństwo i niezawodność.

Pytanie 40

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. EMG
B. EKG
C. KTG
D. RTG
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.