Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 22 kwietnia 2026 20:14
  • Data zakończenia: 22 kwietnia 2026 20:33

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W sygnale elektrokardiograficznym za repolaryzację mięśnia komór odpowiada załamek

Ilustracja do pytania
A. R
B. Q
C. T
D. P
Załamek T w zapisie EKG to sygnał repolaryzacji mięśnia komór, czyli moment, kiedy komórki mięśnia sercowego wracają do swojego spoczynkowego potencjału elektrycznego po fazie skurczu. Praktycznie patrząc – taka repolaryzacja jest absolutnie kluczowa, bo bez niej komórki nie byłyby przygotowane do kolejnego pobudzenia i cały rytm serca by się rozjechał. Na przykład w codziennej pracy ratownika medycznego szybkie rozpoznanie zaburzeń załamka T może sugerować niedokrwienie serca czy nawet świeży zawał, co zmienia zupełnie dalsze postępowanie – to nie są żarty, czasami sekundy decydują o życiu. W podręcznikach i normach – zarówno polskich, jak i międzynarodowych – podkreśla się, żeby zawsze oceniać morfologię i wielkość załamka T, bo jego zmiany bywają pierwszym objawem poważnych patologii (np. hiperkaliemii, niedokrwienia). Moim zdaniem warto nauczyć się rozróżniać te fazy, bo praktyka pokazuje, że błędy w identyfikacji załamka T prowadzą do złej interpretacji EKG, a przez to do błędów klinicznych. Zresztą, nawet w literaturze podkreślają, że repolaryzacja komór (załamek T) to ten moment, na który trzeba szczególnie uważać np. przy analizie rytmów komorowych czy monitorowaniu pacjentów po lekach wpływających na QT.

Pytanie 2

Podczas wymiany podzespołów elektronicznych czułych na wyładowania elektrostatyczne należy zastosować

A. okulary ochronne.
B. odzież poliestrową.
C. opaskę antystatyczną.
D. rękawice gumowe.
Opaska antystatyczna to taki trochę niepozorny gadżet, ale w rzeczywistości jest absolutnie kluczowa, gdy zabierasz się za wymianę podzespołów elektronicznych wrażliwych na wyładowania elektrostatyczne (ESD). Przede wszystkim – jej zadaniem jest wyrównywanie potencjału elektrostatycznego pomiędzy tobą a ziemią, dzięki czemu nie przenosisz przypadkowo ładunku elektrycznego na delikatne układy scalone czy płytki PCB. Sam nie raz widziałem, jak ktoś bez opaski uszkodził RAM czy procesor i to nawet nie czuł żadnego przeskoku. Standardy branżowe, np. IEC 61340-5-1, jasno zalecają stosowanie osobistych środków zabezpieczających przed ESD, w tym właśnie opasek antystatycznych, szczególnie w serwisach, montażowniach albo nawet, jak robisz coś w domu. W praktyce, taka opaska połączona przewodem z uziemieniem lub matą antystatyczną daje ci spokój – nie musisz się martwić, że zniszczysz drogi sprzęt. Moim zdaniem, warto wyrobić sobie taki nawyk nawet przy mniejszych naprawach, bo nie zawsze widać efekty ESD od razu – czasem uszkodzenie wychodzi dopiero po pewnym czasie. Swoją drogą, w profesjonalnych laboratoriach często używa się też mat ESD, fartuchów i specjalnego obuwia, ale opaska to takie absolutne minimum i podstawa dobrej praktyki serwisowej.

Pytanie 3

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
B. budowie nowych klas na podstawie już istniejących.
C. tworzeniu nowych obiektów za pomocą konstruktorów.
D. uogólnieniu pewnych cech w klasie bazowej.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 4

Który sterownik odpowiada za bezpośredni dostęp do pamięci?

A. DMA
B. DMI
C. IRQ
D. PIO
Sterownik DMA (Direct Memory Access) to naprawdę kluczowy element w architekturze komputerów, jeśli chodzi o sprawne przesyłanie danych. Chodzi tu o to, że urządzenia peryferyjne, jak np. karty sieciowe, dyski twarde czy nawet nowoczesne karty dźwiękowe, mogą przekazywać lub odbierać informacje bezpośrednio do/z pamięci RAM, praktycznie z pominięciem procesora. To bardzo usprawnia pracę systemu, bo CPU nie musi zajmować się każdym bajtem przesyłu — po prostu zleca zadanie kontrolerowi DMA i wraca do swoich głównych zadań. W praktyce, zwłaszcza w systemach typu embedded albo przy intensywnych operacjach na dużych plikach czy transmisjach multimedialnych, DMA skraca czas przesyłu i odciąża procesor. W branży to wręcz standard wykorzystywania DMA, żeby uzyskać wyższą przepustowość i mniejsze opóźnienia, co jest istotne na przykład w systemach czasu rzeczywistego. Moim zdaniem, jak ktoś chce być dobrym technikiem, musi rozumieć, jak działa DMA i kiedy warto go stosować — czasem to po prostu jedyna opcja, bo bezpośredni dostęp do pamięci pozwala uzyskać dużo większą wydajność niż klasyczne rozwiązania programowe. Nawet BIOS i nowoczesne systemy operacyjne korzystają z DMA, żeby efektywnie zarządzać transferami danych. To taki trochę niewidzialny bohater każdej płyty głównej, a jak się to raz zrozumie, to już później łatwiej łapie się koncepcję działania zaawansowanych systemów komputerowych.

Pytanie 5

Technologia dual channel dotyczy pracy dwóch takich samych

A. dysków twardych.
B. dysków SSD.
C. pamięci RAM.
D. kart graficznych.
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 6

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. oczyszczania rejestru.
B. kopii rejestru.
C. importu rejestru.
D. podłączenia rejestru sieciowego.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 7

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. ALTER
B. INSERT
C. UPDATE
D. SELECT
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 8

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 10
B. 13
C. 24
D. 15
Standardowe badanie EKG w 12 odprowadzeniach faktycznie wymaga użycia 10 elektrod. Sześć z nich umieszcza się na klatce piersiowej (przedsercowe, czyli V1-V6), a kolejne cztery stanowią elektrody kończynowe – po jednej na każdym z kończyn: prawe ramię, lewe ramię, prawa noga i lewa noga. Co ciekawe, mimo że odprowadzeń jest dwanaście, nie oznacza to, że tyle samo musi być elektrod. To, jakby nie patrzeć, jeden z częstszych błędów na praktykach – wiele osób myśli, że liczba odprowadzeń równa się ilości elektrod. W praktyce to właśnie z tych dziesięciu punktów pomiarowych aparat generuje 12 różnych odprowadzeń, korzystając z kombinacji sygnałów między elektrodami. Można to porównać trochę do matematycznych kombinacji – z tych kilku punktów zbiera się bardzo rozbudowaną informację o pracy serca z różnych stron. Takie postępowanie opisują wytyczne Polskiego Towarzystwa Kardiologicznego oraz międzynarodowe standardy, np. American Heart Association, więc dobrze się tego trzymać. Moim zdaniem warto od razu zapamiętać rozmieszczenie elektrod – nie tylko dla testów, ale w praktyce zawodowej to podstawa bezpiecznego i prawidłowego wykonania badania EKG. Z mojego doświadczenia, im więcej się ćwiczy takie układanie elektrod, tym szybciej i sprawniej idzie potem w codziennej pracy. Na marginesie: czasem spotyka się systemy z większą liczbą elektrod, np. do monitorowania Holtera albo badań bardziej zaawansowanych, ale klasyczny 12-odprowadzeniowy EKG to zawsze 10 elektrod – i tego warto się trzymać.

Pytanie 9

Jak nazywa się terapia stosowana w przypadku niewydolności nerek, polegająca na oczyszczaniu krwi ze zbędnych składników przemiany materii?

A. Elektroliza.
B. Destylacja.
C. Nefrologia.
D. Hemodializa.
Hemodializa to naprawdę kluczowa metoda leczenia pacjentów z zaawansowaną niewydolnością nerek, szczególnie kiedy nerki przestają spełniać swoją podstawową funkcję filtrowania krwi. Polega na tym, że specjalna maszyna pozaustrojowo oczyszcza krew z toksyn, nadmiaru wody i produktów przemiany materii, które normalnie byłyby usuwane przez zdrowe nerki. Co ciekawe, ten proces przypomina trochę pracę sztucznej nerki, a sama hemodializa odbywa się w specjalistycznych stacjach dializ i trwa zwykle kilka godzin, parę razy w tygodniu. Z mojego doświadczenia wynika, że dla wielu chorych to dosłownie ratunek – można dzięki temu uniknąć powikłań takich jak zatrucie organizmu. W praktyce, standardy medyczne (np. zalecenia Polskiego Towarzystwa Nefrologicznego oraz międzynarodowe wytyczne KDIGO) jasno wskazują, że hemodializa jest złotym standardem leczenia schyłkowej niewydolności nerek, jeśli przeszczep nie jest możliwy lub trzeba poczekać na dawcę. Sporo też zależy od jakości obsługi maszyn, odpowiedniego przygotowania pacjenta, a także dbałości o dostęp naczyniowy, co jest często sporym wyzwaniem w praktyce. Ciekawostką jest też, że istnieją inne formy dializy, np. dializa otrzewnowa, ale hemodializa jest najczęściej stosowana u dorosłych. Fajnie wiedzieć, że ta metoda ma już ponad 70 lat historii i stale jest udoskonalana. Bez przesady można powiedzieć, że uratowała życie milionom osób na całym świecie.

Pytanie 10

Technika diagnostyki obrazowej polegająca na badaniu struktur serca i dużych naczyń krwionośnych za pomocą ultradźwięków jest określana skrótem

A. EKG
B. UKG
C. ETG
D. KTG
UKG, czyli ultrasonokardiografia, to jedno z podstawowych badań obrazowych w diagnostyce chorób serca i dużych naczyń krwionośnych. Moim zdaniem to trochę niedoceniany skrót, bo przecież w praktyce klinicznej to badanie jest wykonywane bardzo często, praktycznie w każdym oddziale kardiologicznym czy nawet na SOR-ze. Ultrasonografia serca polega na wykorzystaniu fal ultradźwiękowych do tworzenia obrazu wnętrza serca – można dzięki temu ocenić anatomię, kurczliwość mięśnia, grubość ścian, działanie zastawek, a nawet przepływ krwi w poszczególnych jamach i naczyniach. Przede wszystkim UKG pozwala wykryć wady wrodzone i nabyte serca, zaburzenia funkcji zastawek, kardiomiopatie oraz niewydolność serca. To badanie jest bezpieczne, nieinwazyjne i można je powtarzać bez większego ryzyka, co jest superważne w kontroli przewlekle chorych pacjentów. Z mojego doświadczenia lekarze bardzo cenią UKG, bo pozwala podejmować szybkie decyzje kliniczne, a w standardach Polskiego Towarzystwa Kardiologicznego i międzynarodowych wytycznych UKG jest podstawą diagnostyki. Warto też wiedzieć, że inne skróty są mocno mylące – EKG to coś zupełnie innego, a UKG czasem nazywa się potocznie „echo serca”.

Pytanie 11

Którą metodę montażu należy zastosować w celu zakończenia przewodu zasilającego końcówkami przedstawionymi na fotografii?

Ilustracja do pytania
A. Zgrzewanie.
B. Lutowanie.
C. Zaciskanie.
D. Skręcanie.
Do zakończenia przewodu zasilającego końcówkami pokazanymi na zdjęciu najbardziej właściwa i powszechnie stosowana jest metoda zaciskania, czyli tzw. crimpowanie. Takie końcówki – popularne oczkowe tuleje kablowe – zostały zaprojektowane właśnie z myślą o zaciskaniu specjalnymi szczypcami lub praskami hydrauliczno-mechanicznymi. Dzięki temu uzyskuje się trwałe, odporne na drgania i obciążenia mechaniczne połączenie, które gwarantuje niską rezystancję styków i bezpieczeństwo nawet przy dużych prądach. Z mojego doświadczenia wynika, że solidnie zaciśnięta końcówka praktycznie eliminuje ryzyko przegrzewania się złącza czy przypadkowego wysunięcia się przewodu spod śruby. Warto wspomnieć, że zgodnie z normami – choćby PN-EN 61238-1 – metoda zaciskania jest zalecana przy pracach elektroinstalacyjnych w przemyśle oraz energetyce. Branża elektryczna jednoznacznie uznaje zaciskanie za najbezpieczniejsze rozwiązanie dla przewodów o większych przekrojach, gdzie lutowanie czy skręcanie byłyby nie tylko niepraktyczne, ale też niezgodne z zaleceniami producentów końcówek. Praktyka pokazuje, że poprawnie zaciśnięta końcówka w dużej mierze decyduje o żywotności całego układu zasilającego, a stosowanie certyfikowanych narzędzi jest po prostu inwestycją w bezpieczeństwo i niezawodność.

Pytanie 12

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. inkrementację.
B. rekurencję.
C. iterację.
D. permutację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 13

Organizm człowieka ma zakłóconą zdolność do termoregulacji, gdy wartość temperatury wewnętrznej organizmu spada poniżej

A. 37,3°C
B. 33,0°C
C. 38,7°C
D. 36,6°C
Gdy temperatura wewnętrzna człowieka spada poniżej 33,0°C, mówimy już o poważnym zaburzeniu termoregulacji, czyli o głębokiej hipotermii. To nie jest taki zwykły chłód, który czujemy zimą bez czapki – to już sytuacja potencjalnie zagrażająca życiu. Organizm traci kontrolę nad produkcją i utratą ciepła, przez co zaczynają zawodzić mechanizmy obronne, jak drżenie mięśni czy rozszerzanie naczyń krwionośnych. W praktyce zawodowej (np. w ratownictwie czy na oddziałach SOR-u) uznaje się, że poniżej tej granicy człowiek może stracić przytomność, pojawia się ryzyko zaburzeń rytmu serca czy nawet zatrzymania krążenia. Moim zdaniem, bardzo ważne jest kojarzenie tej liczby z poważnymi stanami, bo normą jest temperatura ok. 36,6–37°C, więc spadek aż do 33°C to już sygnał, że organizm sobie nie radzi. W instrukcjach postępowania (np. Europejskiej Rady Resuscytacji) podkreśla się, by osoby z taką temperaturą traktować jako pacjentów w stanie zagrożenia życia i natychmiast wdrażać zaawansowane ogrzewanie. Warto o tym pamiętać nie tylko w pracy, ale i na co dzień – bo sytuacje z wychłodzeniem mogą zdarzyć się każdemu, nawet latem po dłuższym przebywaniu w zimnej wodzie. Z mojego doświadczenia wynika, że rozpoznanie granicy 33°C jest kluczowe, by nie zbagatelizować objawów i nie dopuścić do tragedii. Warto więc mieć tę liczbę z tyłu głowy, szczególnie w branżach medycznych i ratowniczych.

Pytanie 14

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. telewizyjnych.
B. sieciowych.
C. dźwiękowych.
D. graficznych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 15

Moduł EKG do badań wysiłkowych został wyposażony w interfejs Bluetooth w celu przesyłania wyników badań. Aby połączyć moduł z stanowiskiem komputerowym, należy wybrać interfejs oznaczony symbolem

A. Symbol 4
Ilustracja do odpowiedzi A
B. Symbol 1
Ilustracja do odpowiedzi B
C. Symbol 3
Ilustracja do odpowiedzi C
D. Symbol 2
Ilustracja do odpowiedzi D
Symbol, który wybrałeś, to oficjalny znak Bluetooth – technologii bezprzewodowej, która umożliwia przesyłanie danych na krótkie odległości, np. między modułem EKG a komputerem. Ten symbol można spotkać praktycznie wszędzie, gdzie mamy do czynienia z łącznością Bluetooth, czyli chociażby w słuchawkach bezprzewodowych, myszkach komputerowych czy sprzęcie medycznym. W przypadku EKG, Bluetooth jest o tyle fajny, że pozwala na szybkie i wygodne przesyłanie wyników bez kabli, co według mnie bardzo ułatwia pracę w gabinecie czy laboratorium. Standard Bluetooth jest szeroko akceptowany w medycynie, bo spełnia określone normy bezpieczeństwa transmisji – oczywiście pod warunkiem odpowiedniego szyfrowania i konfiguracji urządzenia. Z doświadczenia wiem, że większość nowoczesnych systemów diagnostyki korzysta z tego standardu, bo jest po prostu praktyczny i uniwersalny. Jeżeli jeszcze nie miałeś okazji – polecam poćwiczyć parowanie urządzeń przez Bluetooth, bo w praktyce nieraz zdarza się, że trzeba szybko rozwiązać jakiś problem z łącznością. Tak na marginesie, warto wiedzieć, że Bluetooth działa na paśmie 2,4 GHz i ma różne klasy zasięgu – to czasem ma znaczenie przy rozmieszczeniu sprzętu w pracowni. Dla mnie wybór tego interfejsu to oczywista sprawa, patrząc na wygodę, szybkość i bezpieczeństwo transmisji danych.

Pytanie 16

Jeżeli procesor graficzny wykonuje także operacje arytmetyczne, oznacza to, że pracuje w architekturze

A. VLIW
B. RISC
C. CUDA
D. CISC
CUDA to specjalna architektura oraz platforma programistyczna zaprojektowana przez firmę NVIDIA, pozwalająca procesorom graficznym (GPU) nie tylko na renderowanie grafiki, ale także na wykonywanie złożonych operacji arytmetycznych i obliczeń ogólnego przeznaczenia (GPGPU – General Purpose computing on Graphics Processing Units). Co ciekawe, właśnie dzięki CUDA programiści mogą pisać własne algorytmy w językach takich jak C/C++ czy Python i uruchamiać je na GPU, co znacznie przyspiesza przetwarzanie danych tam, gdzie CPU po prostu by się nie wyrobił. Typowe zastosowania to uczenie maszynowe, symulacje naukowe, renderowanie 3D, czy obróbka wideo w czasie rzeczywistym. Z mojego doświadczenia wynika, że bez CUDA trudno byłoby wdrożyć algorytmy AI na masową skalę. Praktycy często doceniają wysoką równoległość GPU i to, że architektura CUDA wykorzystuje setki, a nawet tysiące rdzeni do równoczesnych obliczeń, co jest nieosiągalne dla klasycznych procesorów CPU. Moim zdaniem znajomość CUDA to już właściwie standard w branży IT, jeśli ktoś chce działać z grafiką czy przetwarzaniem dużych zbiorów danych.

Pytanie 17

Pod wpływem bodźca świetlnego, dźwiękowego lub czuciowego mózg generuje elektryczne potencjały wywołane rejestrowane przez

A. EKG
B. EOG
C. EEG
D. ERG
Podanie, że EEG rejestruje potencjały wywołane generowane przez mózg pod wpływem bodźców, to naprawdę solidna odpowiedź. Elektroencefalografia (EEG) jest podstawowym narzędziem w neurofizjologii, pozwalającym obserwować zmiany elektryczne aktywności mózgu, szczególnie w odpowiedzi na bodźce świetlne, dźwiękowe czy czuciowe. W praktyce klinicznej i badawczej EEG wykorzystuje się przy diagnostyce padaczki, zaburzeń snu, czy nawet podczas oceny funkcji mózgu u pacjentów nieprzytomnych. Z mojego doświadczenia w laboratoriach EEG najważniejszym standardem jest stosowanie międzynarodowego układu 10-20 do rozmieszczania elektrod na czaszce – to podstawa, żeby pomiary były powtarzalne i porównywalne. Potencjały wywołane (ang. evoked potentials, EP) to konkretna część sygnału EEG – wyodrębnia się je przez wielokrotne powtarzanie bodźca i uśrednianie odpowiedzi, co pozwala wyłapać subtelne zmiany elektryczne układu nerwowego. To naprawdę ciekawe, jak wyraźnie można zobaczyć reakcję mózgu np. na błysk światła czy krótki dźwięk, a takie pomiary są dziś standardem nie tylko w neurologii, ale także w psychologii eksperymentalnej i medycynie pracy. Moim zdaniem warto umieć rozróżniać te techniki – na rynku pracy to ogromny atut, bo EEG z potencjałami wywołanymi jest wręcz codziennym narzędziem w wielu laboratoriach i szpitalach.

Pytanie 18

Na rysunku przedstawiono badanie za pomocą

Ilustracja do pytania
A. pulsoksymetru.
B. higrometru.
C. densytometru.
D. manometru.
Na zdjęciu widzimy pulsoksymetr – to niewielkie urządzenie, które w praktyce medycznej jest absolutnym standardem do nieinwazyjnego pomiaru saturacji krwi (czyli nasycenia hemoglobiny tlenem) oraz tętna pacjenta. Bardzo często spotyka się go nie tylko na oddziałach szpitalnych, ale i w ambulansach czy nawet w domowej opiece nad pacjentami przewlekle chorymi. Pulsoksymetr działa na zasadzie analizy pochłaniania fal świetlnych o dwóch długościach – podczerwieni i czerwieni – przechodzących przez naczynia włosowate w palcu. Stężenie tlenu w hemoglobinie wpływa na sposób pochłaniania światła, a precyzyjna elektronika zamienia te różnice na łatwą do odczytania wartość procentową. To w zasadzie niezbędne narzędzie w monitoringu osób z chorobami układu oddechowego, przy COVID-19, w anestezjologii, a również w ratownictwie. Moim zdaniem każdy, kto choć trochę interesuje się praktyczną medycyną albo pracuje w branży zdrowotnej, powinien nawet taki sprzęt mieć pod ręką – szczególnie że pomiar jest szybki, bezbolesny i pozwala na błyskawiczną reakcję w przypadku pogorszenia stanu pacjenta. Dobre praktyki sugerują, by zawsze sprawdzić poprawność działania urządzenia i prawidłowe założenie na palec – źle umieszczony pulsoksymetr może dać błędne odczyty, a to już poważny problem w diagnostyce.

Pytanie 19

Konserwacja oprogramowania nie obejmuje

A. przywracania danych.
B. poprawienia wydajności.
C. poprawy funkcjonalności.
D. skorygowania błędów.
Przywracanie danych to zupełnie inna bajka niż konserwacja oprogramowania, choć na pierwszy rzut oka może się wydawać, że wszystko to są działania powiązane z utrzymaniem systemów IT. W praktyce konserwacja oprogramowania (ang. software maintenance) skupia się przede wszystkim na zarządzaniu samym kodem, poprawianiu błędów, ulepszaniu działania programu czy rozbudowie funkcjonalności zgodnie z potrzebami użytkowników lub zmianami w środowisku technicznym. To trochę tak, jakby mechanik nie tylko naprawiał samochód, ale czasem też wymieniał mu silnik na mocniejszy albo montował nowoczesne radio. Natomiast przywracanie danych, czyli tzw. data recovery, dotyczy już typowo zarządzania danymi, a nie kodem – chodzi tu na przykład o odzyskiwanie utraconych plików po awarii dysku czy przypadkowym ich usunięciu. W codziennej praktyce IT osoby zajmujące się konserwacją oprogramowania rzadko dotykają tematu przywracania danych – tym zazwyczaj zajmują się administratorzy systemów lub specjaliści ds. backupów. Dobre standardy branżowe, jak chociażby normy ISO/IEC 14764, jasno rozgraniczają te pojęcia. Moim zdaniem, rozumienie tej różnicy pomaga lepiej zorganizować pracę w zespole IT i nie mylić zakresów odpowiedzialności. Często spotykam się z sytuacją, gdzie ktoś oczekuje od programisty 'naprawienia' danych, a to już jest całkiem inne zadanie niż klasyczna konserwacja kodu.

Pytanie 20

Badanie obrazujące fizyczny rozwój płodu wykonywane jest przy użyciu

A. tomografii komputerowej.
B. spektroskopu.
C. ultrasonografu.
D. rezonansu magnetycznego.
Prawidłowa odpowiedź to ultrasonograf, bo właśnie ultrasonografia jest podstawowym i najczęściej stosowanym badaniem obrazowym do oceny rozwoju płodu. Badanie USG w ciąży pozwala nie tylko na ocenę wielkości i budowy płodu, ale też na wykrycie niektórych wad wrodzonych i ocenę ilości wód płodowych czy lokalizacji łożyska. W praktyce większość kobiet w ciąży przechodzi kilka badań USG w ramach standardowej opieki, bo to metoda całkowicie bezpieczna, nieinwazyjna i bezbolesna – nie wykorzystuje promieniowania jonizującego, więc nie zagraża ani matce, ani dziecku. Moim zdaniem, to naprawdę niesamowite, że w kilka minut można zobaczyć na ekranie ruchy i serce malucha jeszcze przed narodzinami. Warto wiedzieć, że w Polsce obowiązują określone standardy prowadzenia ciąży – Polskie Towarzystwo Ginekologów i Położników rekomenduje co najmniej trzy obowiązkowe USG w trakcie ciąży. Z mojego doświadczenia ultrasonograf jest w zasadzie na wyposażeniu każdej poradni ginekologiczno-położniczej, bo to podstawa diagnostyki prenatalnej. Oczywiście, czasem lekarz może zlecić inne badania obrazowe, ale USG zawsze jest pierwszym wyborem. Ciekawostka: obecna technologia pozwala na wykonywanie tzw. USG 3D, a nawet 4D, które jeszcze lepiej obrazują rozwój dziecka. Takie obrazowanie naprawdę zmienia podejście do diagnostyki prenatalnej.

Pytanie 21

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Metoda.
B. Obiekt.
C. Własność.
D. Dziedziczenie.
Instancja klasy w programowaniu obiektowym to właśnie obiekt. To jest taki trochę fundament całego tego podejścia – bez obiektów nie byłoby sensu mówić o programowaniu obiektowym. Kiedy tworzymy klasę, to jest ona tylko szablonem lub pewnego rodzaju przepisem na to, jak mają wyglądać nasze dane i jak mają się zachowywać. Natomiast obiekt to konkretna, działająca „realizacja” tego przepisu – coś, co faktycznie istnieje podczas działania programu. Wyobraź sobie klasę jako projekt samochodu, a obiekty jako rzeczywiste egzemplarze tego samochodu stojące na parkingu. Każdy obiekt ma swoje własne dane (czyli stan, na przykład kolor, przebieg, model) i swoje operacje (czyli metody, na przykład przyspiesz, zahamuj). Takie podejście jest powszechnie stosowane we wszystkich popularnych językach obiektowych, jak Java, C++, Python czy C#. Z mojego doświadczenia wynika, że w realnych projektach bardzo rzadko spotyka się kod, który operuje wyłącznie na klasach – właściwie wszystko kręci się wokół obiektów. Dobre praktyki sugerują nie tylko tworzenie obiektów, ale i dbanie o ich odpowiednią enkapsulację, czyli ukrywanie szczegółów implementacyjnych, co pozwala na bezpieczne i elastyczne rozwijanie kodu. No i jeszcze ciekawostka: w wielu frameworkach spotkasz się z tzw. wzorcem fabryki, który właśnie pomaga zarządzać tworzeniem obiektów na podstawie klas. To mocno ułatwia życie, szczególnie przy dużych projektach. Moim zdaniem zrozumienie tej różnicy między klasą a obiektem to absolutna podstawa, jeśli ktoś myśli o karierze programisty.

Pytanie 22

Przedstawiony na rysunku kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. switch – ruter.
B. ruter – ruter.
C. switch – komputer.
D. hub – ruter.
Na rysunku widoczny jest schemat połączenia kabla krosowanego (ang. crossover), który służy do bezpośredniego łączenia dwóch urządzeń sieciowych tego samego typu, takich jak dwa rutery, dwa switche czy dwa komputery. Kluczowe jest tu to, że sygnały nadawcze jednego urządzenia są zamieniane miejscami z odbiorczymi drugiego – właśnie dlatego niezbędne jest skrzyżowanie przewodów w kablu. Praktycznie rzecz biorąc, jeśli próbujemy połączyć dwa rutery bez urządzenia pośredniczącego, jak switch czy hub, to właśnie kabel krosowany pozwoli nam na prawidłową komunikację. W standardzie Ethernet (norma TIA/EIA-568), wyprowadzenia przewodów 1-3 i 2-6 są zamieniane, co umożliwia przesyłanie i odbieranie danych bez zakłóceń. W moim doświadczeniu, taki kabel przydaje się często podczas konfiguracji, testów lub prac serwisowych, gdzie nie ma pod ręką switcha. Warto pamiętać, że obecnie wiele nowoczesnych urządzeń obsługuje funkcję Auto-MDI/MDIX, która automatycznie dostosowuje tryb portu, ale wciąż znajomość zastosowania kabla krosowanego jest fundamentalna. Moim zdaniem, umiejętność rozpoznania gdzie i kiedy go użyć, jest jedną z podstawowych kompetencji każdego technika sieciowego – to taka klasyka, o której ciągle się mówi na zajęciach praktycznych.

Pytanie 23

W dokumentacji sieci centralnego monitoringu zapisano, że sieć jest wykonana w standardzie 802.11 Do montażu takiej sieci są wymagane urządzenia wykorzystujące

A. Token ring.
B. WiFi.
C. Bluetooth.
D. Ethernet.
Standard 802.11 to nic innego jak specyfikacja techniczna dla sieci bezprzewodowych, znanych powszechnie jako WiFi. W praktyce oznacza to, że jeśli ktoś w dokumentacji wspomina o sieci wykonanej zgodnie z 802.11, to od razu można założyć, że mowa o połączeniach bezprzewodowych, gdzie transmisja danych odbywa się za pomocą fal radiowych. Z mojego doświadczenia wynika, że w centralnym monitoringu – czy to szpitalnym, czy przemysłowym – właśnie WiFi jest bardzo często wykorzystywane, bo eliminuje konieczność prowadzenia kabli, a to ogromne ułatwienie przy rozległych instalacjach albo modernizacjach. WiFi, jako rodzina standardów 802.11 (np. 802.11n, 802.11ac), zapewnia odpowiednią wydajność, elastyczność i bezpieczeństwo, o ile odpowiednio skonfiguruje się zabezpieczenia sieci. Warto tu dodać, że urządzenia kompatybilne z tym standardem, np. access pointy, kamery IP, laptopy czy czujniki monitoringu, bez problemu nawiążą komunikację w tej samej sieci WiFi. Moim zdaniem nie ma obecnie prostszego sposobu na wdrożenie szybkiego monitoringu na dużym obszarze niż właśnie wykorzystanie WiFi. To też rozwiązanie zgodne z aktualnymi trendami branżowymi – wszędzie tam, gdzie liczy się elastyczność, łatwość rozbudowy i szybki serwis.

Pytanie 24

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. sieciowej.
B. telewizyjnej.
C. graficznej.
D. dźwiękowej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 25

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. break
B. return
C. continue
D. yield
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.

Pytanie 26

W dokumentacji Medycznego Systemu Informatycznego zapisano, że „przed użyciem programów instalacyjnych należy się upewnić, że niektóre porty w środowisku są dostępne do użycia z instalowanym oprogramowaniem pośrednim.” W celu sprawdzenia dostępności portu należy użyć programu narzędziowego

A. ipconfig
B. netstat
C. tracert
D. ping
Netstat to jedno z tych narzędzi, które naprawdę warto znać, jeśli chodzi o sprawdzanie dostępności portów w systemie operacyjnym. Moim zdaniem, bez niego ciężko byłoby szybko ogarnąć, co się dzieje na poziomie komunikacji sieciowej. Netstat pozwala zobaczyć, które porty są obecnie otwarte, jakie programy ich używają oraz na jakie adresy nasłuchują. W praktyce wygląda to tak, że jeśli masz zainstalować jakieś oprogramowanie pośrednie (np. serwer bazodanowy albo aplikację middleware), to najpierw sprawdzasz, czy wymagany port nie jest już zajęty przez inny proces. Wpisujesz „netstat -a” albo „netstat -an” w konsoli i widzisz pełną listę aktywnych portów, zarówno TCP, jak i UDP. To bardzo pomaga uniknąć konfliktów, które później mogą prowadzić do dziwnych błędów czy braku komunikacji między usługami. Branżowe dobre praktyki wyraźnie mówią, że należy się upewnić, iż porty wymagane do działania nowego oprogramowania są wolne lub odpowiednio przekonfigurowane. Z mojego doświadczenia wynika, że netstat jest też niezastąpiony podczas analizy problemów z nieautoryzowanymi połączeniami albo diagnostyki wydajności. W wielu firmach to podstawa przy wdrażaniu i utrzymaniu systemów medycznych czy innych środowisk krytycznych. Warto też wiedzieć, że netstat jest dostępny niezależnie od wersji systemu Windows, a podobne narzędzia działają na Linuxie, więc ta wiedza przydaje się praktycznie wszędzie.

Pytanie 27

Rysunek przedstawia raport sprawdzający połączenie pomiędzy stacjami monitorującymi informatycznego systemu medycznego. Którego polecenia należy użyć aby go uzyskać?

Badanie 100.25.100.50 z 32 bajtami danych:
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128

Statystyka badania ping dla 100.25.100.50:
Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
(0% straty),
Szacunkowy czas błądzenia pakietów w milisekundach:
Minimum = 0 ms, Maksimum = 0 ms, Czas średni = 0 ms

A. ping
B. tracert
C. ifconfig
D. ipconfig
Rozpoznanie narzędzia generującego taki raport jest ważne w codziennej pracy z sieciami komputerowymi. Często mylimy różne narzędzia diagnostyczne, bo ich nazwy i przeznaczenie bywają podobne, ale każde z nich służy do czegoś innego. Tracert, na przykład, pozwala śledzić trasę pakietu IP do wskazanego hosta, pokazując kolejne urządzenia pośredniczące (routery) i czas odpowiedzi z każdego z nich, ale nie daje prostego podsumowania liczby odebranych i wysłanych pakietów ani nie prezentuje informacji o czasie odpowiedzi z jednego hosta. Ten raport skupia się wyłącznie na odpowiedziach z konkretnego adresu IP, co jest typowe dla polecenia ping, a nie dla trasowania. Z kolei ifconfig i ipconfig służą do wyświetlania konfiguracji interfejsów sieciowych (ipconfig w Windows, ifconfig w systemach Linux/Unix). Nie wykonują żadnych testów połączenia, a jedynie pokazują adresy IP, maski, bramy i inne ustawienia karty sieciowej. Moim zdaniem, przez podobnie brzmiące polecenia łatwo się pomylić, zwłaszcza na początku nauki – człowiek widzi „ip” w nazwie i kojarzy to od razu z siecią i testami, ale chodzi tylko o informacje o konfiguracji, a nie o sprawdzenie połączenia. Typowy błąd polega na tym, że szukamy skomplikowanego narzędzia zamiast zacząć od najprostszego – a ping właśnie nim jest. W praktyce, przy problemach z łącznością, to pierwsze narzędzie, po które się sięga, bo szybko pokazuje czy host odpowiada i jak wygląda podstawowa komunikacja. Analizując ten raport, widać wyraźnie, że chodziło tu o sprawdzenie odpowiedzi z jednego hosta, a nie o trasowanie czy konfigurację interfejsów, dlatego tylko ping mógł wygenerować taki wynik.

Pytanie 28

Jaki wpływ na organizm ludzki ma krioterapia?

A. Podwyższa napięcie mięśniowe.
B. Zwiększa szybkość przewodnictwa nerwowego.
C. Spowalnia procesy przemiany materii.
D. Zmniejsza obrzęki.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 29

W opisanym programie zostaną wykonane 4

for (i=0;i<=3;i++)
suma=suma+i;
A. dekrementacje.
B. rekursje.
C. iteracje.
D. rekurencje.
W tym przypadku mamy klasyczną pętlę for, czyli typową konstrukcję służącą do wykonywania iteracji w programowaniu. Program zaczyna od wartości i=0 i zwiększa ją do i=3, wykonując blok kodu suma=suma+i za każdym razem. To powoduje, że cała ta konstrukcja wykona się dokładnie 4 razy, bo pętla działa, dopóki i<=3, czyli dla wartości 0, 1, 2 oraz 3. W praktyce właśnie takie iteracje pozwalają nam zautomatyzować powtarzanie operacji bez konieczności ręcznego kopiowania kodu. Moim zdaniem to jedna z najbardziej fundamentalnych rzeczy, jaką warto opanować na początku nauki programowania. Bez iteracji trudno sobie wyobrazić np. sumowanie elementów tablicy, przetwarzanie zbioru danych czy nawet proste generowanie raportów. W codziennej pracy z kodem iteracje spotyka się praktycznie wszędzie – od prostych algorytmów po bardziej zaawansowane pętle obsługujące np. zdarzenia w aplikacjach. Warto też pamiętać, że dobre praktyki nakazują pisanie takich pętli w sposób czytelny i optymalny, zarówno pod względem wydajności, jak i zrozumiałości dla innych członków zespołu. Pętle for są standardem w wielu językach, m.in. C, C++, Java, Python (choć tam składnia wygląda trochę inaczej).

Pytanie 30

Materiałem eksploatacyjnym w drukarce laserowej jest

Ilustracja do pytania
A. kaseta z tonerem.
B. taśma barwiąca.
C. pojemnik z tuszem.
D. papier termotransferowy.
Jeżeli chodzi o materiały eksploatacyjne w drukarkach, łatwo się pomylić, bo w różnych typach drukarek stosuje się zupełnie inne rozwiązania. Taśma barwiąca to klasyka znana z drukarek igłowych, ale w nowoczesnych laserowych zupełnie się jej nie używa – nie ma tam mechanizmu przesuwającego taśmę, bo cała technologia opiera się na elektrostatyce i utrwalaniu termicznym. Z kolei pojemnik z tuszem to domena drukarek atramentowych. Tam rzeczywiście tusz jest kluczowy, ale w laserówkach nie znajdziemy żadnych płynnych substancji barwiących – wszystko bazuje na suchym proszku tonerowym. Papier termotransferowy to jeszcze inna bajka; czasem wykorzystywany w drukarkach termicznych lub transferowych, głównie w specyficznych zastosowaniach (etykiety, paragony). Wybierając z tych opcji, łatwo pomylić się, zwłaszcza jeśli ktoś wcześniej miał styczność z różnymi typami urządzeń, ale podstawą w laserówkach zawsze będzie kaseta z tonerem. Typowym błędem myślenia jest przekładanie rozwiązań z jednej technologii druku na inną – warto pamiętać, że każda technika ma swoje unikalne wymagania materiałowe, co wynika z odmiennych zasad działania. Dobre praktyki branżowe wymagają, żeby zawsze przed zakupem materiałów eksploatacyjnych sprawdzać, jaki typ drukarki posiadamy, bo kompatybilność i optymalizacja kosztów eksploatacji zaczynają się właśnie w tym miejscu. W praktyce – zupełnie inne podejście będzie przy atramentówce, inne przy laserówce, a jeszcze inne przy igłówce. Moim zdaniem, kluczowa jest świadomość tych różnic, bo to pozwala uniknąć niepotrzebnych kosztów czy frustracji podczas pracy z urządzeniem.

Pytanie 31

Urządzenie, które w specyfikacji technicznej posiada zapis: „Urządzenie współpracuje z komputerem klasy PC poprzez złącze USB”, należy podłączyć do złącza oznaczonego piktogramem

A. Złącze 1
Ilustracja do odpowiedzi A
B. Złącze 3
Ilustracja do odpowiedzi B
C. Złącze 2
Ilustracja do odpowiedzi C
D. Złącze 4
Ilustracja do odpowiedzi D
Prawidłowe wskazanie złącza USB wynika z jednoznacznego, międzynarodowego oznaczenia tego interfejsu. Ten charakterystyczny symbol z trzema odnogami (jedna strzałka, jedno kółko oraz jeden kwadrat na końcach linii) jest stosowany globalnie do oznaczania portów obsługujących standard Universal Serial Bus, czyli właśnie USB. Z mojego doświadczenia wynika, że urządzenia takie jak drukarki, myszki, klawiatury, pendrive’y czy nawet zewnętrzne dyski twarde zawsze mają w instrukcji informację o konieczności podłączenia ich do portu USB. Co ciekawe, zgodnie z normami ISO/IEC 18004 i zaleceniami producentów sprzętu komputerowego, stosowanie tego konkretnego piktogramu minimalizuje ryzyko pomyłek przy instalacji sprzętu, nawet dla osób mniej doświadczonych. Praktycznie każdy komputer osobisty – czy to stacjonarny, czy laptop – ma kilka takich portów, a ich obecność pozwala na szybkie i bezpieczne podłączanie oraz odłączanie urządzeń peryferyjnych bez konieczności wyłączania komputera. To ułatwia i przyspiesza codzienną pracę. Moim zdaniem rozpoznanie tego symbolu jest podstawową umiejętnością każdego, kto chce swobodnie korzystać z nowych technologii w domu lub w pracy. Dodatkowo, USB jest interfejsem typu Plug & Play, co oznacza, że system operacyjny automatycznie wykryje i zainstaluje większość podłączonych urządzeń. To duże ułatwienie. Warto pamiętać, że inne piktogramy widoczne na komputerze mogą oznaczać zupełnie inne funkcje – dlatego warto znać ten symbol na pamięć.

Pytanie 32

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. n^3
B. 3^n
C. 3*n
D. 3*(n-1)
Funkcja F(n) jest przykładem rekurencji liniowej, gdzie za każdym razem dla n>1 wartość funkcji jest mnożona przez 3 w stosunku do poprzedniego wyniku. W skrócie: F(n) = 3 * F(n-1), a dla n=1 ustalamy F(1)=3. Jeśli rozwiniesz to rekurencyjnie, otrzymasz ciąg: F(2)=3*3, F(3)=3*3*3, itd., co prowadzi do wzoru ogólnego F(n)=3^n. To jest bardzo charakterystyczne dla tzw. ciągów geometrycznych. Moim zdaniem taki typ zadań świetnie pokazuje, jak działa propagacja wartości w rekurencji i jest często spotykany przy analizie algorytmów, szczególnie jeśli chodzi o złożoność obliczeniową. W praktyce informatycznej, takie wzory pojawiają się np. w algorytmach dziel i zwyciężaj, gdzie każda warstwa rekurencji mnoży się przez stałą. Warto pamiętać, że znajomość wyprowadzenia wzoru rekurencyjnego do postaci jawnej (czyli bezpośredniej) bardzo przyspiesza analizę nawet bardziej złożonych funkcji. Często podczas programowania można spotkać się z zadaniami, gdzie trzeba rozpoznać, jak szybko rośnie funkcja, a tu wzrost wykładniczy (czyli właśnie potęgowanie) jest jednym z najszybszych. Co ciekawe, takie proste rekurencje mają też znaczenie choćby w modelowaniu wzrostu populacji czy inwestycji finansowych. Generalnie zaś, wykładniczy wzrost to nie przelewki – potrafi bardzo szybko doprowadzić do dużych wartości, dlatego w praktycznych aplikacjach programistycznych trzeba uważać na przepełnienia zmiennych i ograniczenia sprzętowe.

Pytanie 33

Płyta jednostronna dwuwarstwowa DVD pozwala na przechowanie danych o pojemności około

A. 17 GB
B. 8,5 GB
C. 12 GB
D. 4,7 GB
Dokładnie, płyta jednostronna dwuwarstwowa DVD (czyli tzw. DVD+R DL lub DVD-R DL) pozwala na zapisanie około 8,5 GB danych. To jest naprawdę spora różnica względem zwykłej płyty DVD, która mieści tylko 4,7 GB, bo tutaj mamy aż dwie warstwy zapisu na jednej stronie. Takie rozwiązanie od lat stosowane jest np. w dystrybucji filmów pełnometrażowych albo dużych kopii zapasowych, gdzie standardowa pojemność byłaby po prostu za mała. Spotkałem się z tym często podczas archiwizacji zdjęć czy dużych projektów multimedialnych – zamiast dzielić dane na kilka płyt, wszystko mieściło się na jednej. Warto wiedzieć, że zgodnie ze standardami branżowymi DL (double layer) to już praktycznie maksimum dla jednostronnych płyt DVD, bo więcej się zwyczajnie nie zmieści bez zwiększania rozmiaru nośnika albo stosowania dwustronnych płyt. Takie płyty są czytane najczęściej przez napędy komputerowe i domowe odtwarzacze DVD, które muszą wspierać technologię DL. Moim zdaniem to ciągle ciekawa opcja do archiwizacji, mimo że dzisiaj królują pendrive’y czy dyski zewnętrzne. Warto zapamiętać tę wartość – 8,5 GB – bo pojawia się często w praktyce, zwłaszcza przy pracy ze starszym sprzętem lub archiwami.

Pytanie 34

Który interfejs nie umożliwia podłączenia urządzeń peryferyjnych w standardzie „plug and play”?

A. USB
B. Fire Wire
C. HDMI
D. PS/2
Interfejs PS/2 to dość już leciwa technologia, którą można jeszcze spotkać w starszych komputerach stacjonarnych. Służył głównie do podłączania klawiatury i myszy. PS/2 nie wspiera standardu plug and play w tym sensie, że urządzenia można podłączyć i od razu zacząć używać bez restartu komputera – co jest dziś normą przy USB czy FireWire. W przypadku PS/2, jeśli podłączysz myszkę lub klawiaturę po uruchomieniu systemu, Windows najczęściej jej nie zobaczy. Niby prosta rzecz, ale dla informatyka to czasem potrafi być upierdliwe, kiedy trzeba restartować sprzęt po każdej zmianie. Moim zdaniem właśnie przez brak wygody i nowoczesności PS/2 zniknął z większości nowych płyt głównych. W nowszych standardach, takich jak USB czy FireWire, podłączanie urządzeń w locie (hot swap) jest czymś oczywistym. Standard plug and play bardzo ułatwia życie użytkownikom i serwisantom, bo można szybko testować różne peryferia albo wymieniać uszkodzone bez wyłączania kompa. Nawet HDMI, choć służy głównie do przesyłu obrazu i dźwięku, pozwala na podłączanie urządzeń w trakcie pracy. Warto też pamiętać, że obecnie dobre praktyki w IT wymagają stosowania takich rozwiązań, które minimalizują przestoje i upraszczają obsługę. Tak więc PS/2 to już raczej ciekawostka – dobry przykład, jak technologia potrafi się zestarzeć, jeśli nie nadąża za oczekiwaniami użytkowników.

Pytanie 35

Podstawowym elementem sztucznej nerki jest pompa do przetłaczania krwi, zwana

A. śrubową.
B. tłokową.
C. jonową.
D. perystaltyczną.
Pompa perystaltyczna to absolutna podstawa w konstrukcji sztucznej nerki. To właśnie dzięki niej da się bezpiecznie i w precyzyjny sposób przetaczać krew pacjenta przez aparat do hemodializy. Z jej pomocą krew przesuwa się przez rurki silikonowe, które są dociskane przez obracające się rolki – i, co ważne, nie ma kontaktu z ruchomymi częściami samej pompy. Moim zdaniem taki sposób działania jest genialny w swojej prostocie, a przy tym szalenie skuteczny, bo minimalizuje ryzyko zanieczyszczenia czy uszkodzenia elementów krwi. W praktyce klinicznej, w szpitalach i stacjach dializ, pompy perystaltyczne są stosowane praktycznie wszędzie tam, gdzie trzeba dokładnie dozować płyny ustrojowe, zwłaszcza właśnie krew. Branżowe wytyczne – zarówno Polskiego Towarzystwa Nefrologicznego, jak i międzynarodowe normy ISO dotyczące aparatury medycznej – podkreślają, że taki rodzaj pompy pozwala na zachowanie najwyższej sterylności, co w przypadku zabiegów hemodializy jest naprawdę kluczowe. Z mojego doświadczenia wynika, że operatorzy chwalą te pompy za niezawodność i łatwość obsługi. Co ciekawe, taka technologia jest stosowana również w niektórych laboratoriach analitycznych, gdzie ważne jest, żeby próbka płynu nie miała kontaktu z mechaniką urządzenia. Bez pompy perystaltycznej nie byłoby nowoczesnej, bezpiecznej dializy – to taki cichy bohater codziennej pracy ze sztuczną nerką.

Pytanie 36

Pod wpływem zwiększenia natężenia promieniowania widzialnego (bodźca świetlnego) źrenica zdrowego oka ludzkiego

A. zwęża się.
B. rozszerza się.
C. ciemnieje.
D. jaśnieje.
Źrenica ludzkiego oka reaguje na natężenie światła poprzez odruch źreniczny. Im więcej światła dostaje się do oka, tym mocniej zwęża się źrenica – to taki naturalny „automat” organizmu, dzięki któremu nie dochodzi do uszkodzenia siatkówki przez zbyt silne światło. Za to zwężenie odpowiada zwieracz źrenicy, czyli mięsień okrężny sterowany przez układ przywspółczulny. To bardzo ważny mechanizm ochronny, często wykorzystywany w praktyce np. podczas badania odruchów neurologicznych (tzw. test światła latarką). Moim zdaniem warto pamiętać, że to nie tylko czysta biologia, ale też podstawa działania wszelkich systemów optycznych, gdzie trzeba kontrolować ilość światła – podobnie jak w aparatach fotograficznych regulujemy przesłonę. Bez tej regulacji ludzkie oko bardzo szybko by się męczyło, a czasem nawet ulegało trwałym uszkodzeniom. Warto zauważyć, że w praktyce diagnostycznej zwężenie źrenicy po naświetleniu jest jednym z najważniejszych testów przy ocenie stanu neurologicznego pacjenta zgodnie z dobrymi praktykami medycznymi i standardami ratownictwa medycznego.

Pytanie 37

Którego nośnika pamięci należy użyć w komputerze, aby zapewnić najszybsze ładowanie się systemu operacyjnego podczas jego uruchamiania?

A. Dysku SSD.
B. Płyty BD w napędzie optycznym.
C. Dysku HDD.
D. Pendrive’a podłączonego do USB 3.0.
Dysk SSD, czyli Solid State Drive, to obecnie najczęściej polecany nośnik pamięci do instalacji systemu operacyjnego, jeśli zależy nam na naprawdę szybkim uruchamianiu komputera. Wynika to głównie z tego, że SSD korzysta z pamięci flash, przez co dostęp do danych jest praktycznie natychmiastowy – opóźnienia są minimalne nawet w porównaniu z najszybszymi dyskami HDD. Moim zdaniem, nie ma już sensu inwestować w tradycyjne dyski talerzowe jako główny dysk systemowy, zwłaszcza że ceny SSD mocno spadły przez ostatnie lata. Sam kiedyś miałem system na HDD i różnica po przesiadce na SSD była ogromna – bootowanie systemu zajmuje dosłownie kilkanaście sekund zamiast minuty. Producenci komputerów też coraz częściej montują SSD jako standard. Warto też wiedzieć, że SSD są mniej podatne na uszkodzenia mechaniczne, bo nie mają ruchomych części, a to istotne w laptopach czy komputerach przenośnych. Najnowocześniejsze SSD na złączu NVMe (PCIe) osiągają prędkości rzędu kilku tysięcy MB/s, co w praktyce daje bardzo szybką pracę systemu i aplikacji – żaden HDD czy pendrive nie jest w stanie tego przebić. Według standardów branżowych, instalacja systemu na SSD to już właściwie reguła w profesjonalnych zastosowaniach i domowych PC.

Pytanie 38

Kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. ruter – ruter.
B. przełącznik – komputer.
C. hub – ruter.
D. przełącznik – ruter.
No i właśnie! Kabel krosowany (czyli tzw. cross-over) to specjalny rodzaj kabla ethernetowego, w którym niektóre pary przewodów są zamienione miejscami – dokładnie jak na tym schemacie, gdzie przewody 1 i 3 oraz 2 i 6 są skrzyżowane. Dzięki temu urządzenia tego samego typu, np. dwa routery, mogą się ze sobą bezpośrednio komunikować. Normalnie, router i komputer lub router i switch używają kabla prostego (straight-through), bo urządzenia mają różne funkcje portów – nadajnik trafia na odbiornik i na odwrót. Ale gdy dwa takie same urządzenia próbują się połączyć, oba wysyłają i odbierają na tych samych pinach, więc połączenie by nie zadziałało bez crossa. W codziennej praktyce, szczególnie kiedy pracujemy ze starszym sprzętem, taki kabel jest niezastąpiony przy testowaniu połączeń lub awaryjnym łączeniu dwóch routerów, switchy, czy nawet komputerów. Nowoczesne urządzenia często mają funkcję auto-MDI/MDIX, która automatycznie wykrywa rodzaj kabla i odpowiednio przełącza piny, ale w starszych sieciach krosowanie było po prostu koniecznością. Moim zdaniem, warto pamiętać o tej różnicy – to niby drobiazg, ale na kablach sieciowych wiele osób się wykłada, szczególnie jak sprzęt nie jest z tej samej epoki. Standardy opisujące te połączenia to na przykład TIA/EIA-568A i TIA/EIA-568B. Dobrą praktyką jest więc mieć w szufladzie przynajmniej jeden taki kabelek – bo nigdy nie wiadomo, kiedy się przyda.

Pytanie 39

W tabeli przedstawiono fragment dokumentacji testera

Zakres±500 mm Hg 20 °C
Dokładność±1% odczytu + 0.5 mm Hg)
Zakres80, 94 bpm (synch. z EKG)
Dokładność sygnału±1%
Inwazyjne:
Statyczne ciśnienie-10, -5, 0, 20, 40, 50, 60, 80, 100, 150, 160, 200, 240, 250, 300, 320, 400 mm Hg
Dokładność±(1% zakresu ±1mm Hg)
or ±(2% nastawy + 2mm Hg)
Impedancja300 Ohm (±10% dokładności)
Czułość5 do 40 μV/V/mm Hg
A. pompy infuzyjnej.
B. ciśnieniomierza.
C. defibrylatora.
D. pulsoksymetru.
Wybierając inną odpowiedź niż ciśnieniomierz, można się było pomylić przez skupienie na wybranych fragmentach tabeli bez całościowej analizy kontekstu technicznego. Przykładowo, pompa infuzyjna nie mierzy ciśnienia w tak szerokim zakresie i z taką dokładnością – jej specyfikacja dotyczy głównie przepływu oraz objętości podawanego płynu, a nie wartości w mm Hg. Z kolei pulsoksymetr koncentruje się na mierzeniu saturacji krwi (SpO2) i tętna, ale nie analizuje ciśnienia krwi – parametry takie jak impedancja, czułość na poziomie μV/V/mm Hg czy synchroniczność z EKG są mu zupełnie obce. Defibrylator natomiast służy do przywracania prawidłowego rytmu serca impulsem elektrycznym i w jego dokumentacji dominują wartości energii wyładowania (dżule), czas ładowania czy charakterystyka elektrody, a nie zakresy ciśnienia czy impedancja czujników pomiaru ciśnienia. Typowym błędem jest też utożsamianie obecności parametrów EKG z urządzeniami typu defibrylator, ale w tabeli chodzi o synchronizację pomiaru tętna z EKG, co jest często spotykane właśnie w ciśnieniomierzach inwazyjnych. Z mojego doświadczenia wynika, że takie nieporozumienia wynikają z pobieżnej znajomości dokumentacji technicznej oraz z braku praktyki w pracy z dokumentami producentów. Warto więc przy analizie tabeli zwracać uwagę na jednostki, zakresy, charakterystyczne wartości i ich powiązanie z fizjologią człowieka, bo tylko wtedy można poprawnie dopasować specyfikację do typu urządzenia. Dla technika medycznego kluczowe jest nie tylko rozpoznawanie urządzeń po nazwie, ale przede wszystkim po parametrach technicznych – to właśnie one decydują o zastosowaniu i bezpieczeństwie sprzętu w praktyce klinicznej.

Pytanie 40

Który aparat, za pomocą poleceń głosowych i wizualnych, prowadzi ratownika przez procedurę bezpiecznej defibrylacji w zatrzymaniu krążenia?

A. EEG
B. KTG
C. EKG
D. AED
AED, czyli Automatyczny Defibrylator Zewnętrzny, to sprzęt, który naprawdę potrafi uratować życie. Moim zdaniem jego największą zaletą jest to, że prowadzi ratownika krok po kroku — zarówno za pomocą poleceń głosowych, jak i sygnałów wizualnych, dzięki czemu nawet osoba bez doświadczenia nie powinna się pogubić pod presją. Każde polecenie jest jasne: najpierw przyklej elektrody, potem nie dotykaj pacjenta, dalej – jeśli trzeba – naciśnij przycisk wyładowania. Co ważne, AED sam analizuje rytm serca, więc nie ma ryzyka, że defibrylacja zostanie wykonana niepotrzebnie, co jest zgodne z wytycznymi Europejskiej Rady Resuscytacji (ERC). W praktyce, na przykład na lotnisku albo w galerii handlowej, AED często znajduje się w specjalnie oznaczonych szafkach – warto wiedzieć, gdzie są w Twojej okolicy. Z mojego doświadczenia wynika, że najwięcej osób stresuje się użyciem AED, niepotrzebnie – urządzenie robi praktycznie wszystko za Ciebie, wystarczy tylko słuchać i nie działać pochopnie. To jest właśnie sprzęt zaprojektowany tak, by każdy – nawet laik – miał szansę pomóc komuś w krytycznym momencie. Oczywiście, warto znać podstawy obsługi i nie bać się działać, bo czas gra tu olbrzymią rolę. Defibrylator ten spełnia międzynarodowe standardy bezpieczeństwa i jest coraz powszechniej dostępny w przestrzeni publicznej. W sumie trudno sobie wyobrazić skuteczną akcję ratunkową przy zatrzymaniu krążenia bez użycia AED.