Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 26 kwietnia 2026 19:30
  • Data zakończenia: 26 kwietnia 2026 19:54

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Przedstawiony na rysunku kolimator stanowi część

Ilustracja do pytania
A. tomografu komputerowego.
B. sztucznego płuco-serca.
C. sztucznej nerki.
D. pompy infuzyjnej.
Kolimator, który pokazano na rysunku, to kluczowy element wykorzystywany w tomografii komputerowej. Działa on jak bardzo precyzyjna przesłona, przepuszczając tylko te promienie rentgenowskie, które biegną w określonych kierunkach. Pozwala to ograniczyć rozproszenie promieniowania i poprawić ostrość uzyskiwanych obrazów. Z mojego doświadczenia wynika, że dobre ustawienie kolimatora to podstawa w codziennej pracy technika radiologii – bez tego uzyskanie wiarygodnych przekrojów ciała jest praktycznie niemożliwe. W praktyce klinicznej kolimatory pozwalają nie tylko polepszyć jakość obrazu, ale też zmniejszyć dawkę promieniowania dla pacjenta, co jest zgodne z zasadą ALARA (as low as reasonably achievable). W tomografii komputerowej stosuje się zarówno kolimatory wejściowe przy lampie, jak i wyjściowe przy detektorach. To rozwiązanie jest standardem w diagnostyce obrazowej, a odpowiednie dobranie szerokości wiązki rzutuje na jakość rekonstrukcji i możliwość wykrycia drobnych zmian chorobowych. Moim zdaniem, świadomość roli kolimatorów przydaje się nie tylko w pracy w szpitalu, ale nawet podczas rozmów z lekarzami o możliwych artefaktach na obrazie.

Pytanie 2

Parametr dysku twardego określany skrótem MTBF oznacza średni czas

A. bezawaryjnej pracy.
B. zapisu danych.
C. odczytu danych.
D. formatowania dysku.
MTBF, czyli Mean Time Between Failures, to jeden z najważniejszych parametrów przy ocenie niezawodności dysków twardych, zarówno tych klasycznych HDD, jak i nowoczesnych SSD. Oznacza on średni przewidywany czas pracy urządzenia do momentu wystąpienia pierwszej awarii i jest wyrażany zazwyczaj w godzinach (często to wartości rzędu kilkudziesięciu czy nawet kilkuset tysięcy godzin). W praktyce im wyższy MTBF, tym producent deklaruje dłuższą bezawaryjną pracę danego sprzętu. Moim zdaniem, patrząc na realia serwisów technicznych, ten parametr jest szczególnie istotny w zastosowaniach krytycznych – np. w serwerowniach, centrach danych czy systemach monitoringu, gdzie awaria dysku może oznaczać utratę cennych danych albo przestoje w pracy. Warto też wiedzieć, że MTBF to wartość statystyczna – nie daje gwarancji, że dysk wytrzyma dokładnie tyle, ile napisano w specyfikacji, chociaż jest to jakiś wyznacznik jakości konstrukcji i procesu produkcyjnego. W branży IT przyjmuje się, że sprzęt o wysokim MTBF lepiej sprawdzi się w środowiskach wymagających ciągłej pracy, a inwestowanie w takie rozwiązania to po prostu dobra praktyka. Spotkałem się z opinią, że niektóre osoby mylą MTBF z czasem gwarancji, a to zupełnie nie to samo. MTBF to statystyka wyliczana na podstawie testów i doświadczeń, a gwarancja to formalne zobowiązanie producenta. Warto o tym pamiętać i nie polegać tylko na jednym parametrze przy wyborze dysku – choć MTBF to na pewno ważny wyznacznik jakości i niezawodności.

Pytanie 3

Badanie obrazujące fizyczny rozwój płodu wykonywane jest przy użyciu

A. ultrasonografu.
B. spektroskopu.
C. rezonansu magnetycznego.
D. tomografii komputerowej.
Prawidłowa odpowiedź to ultrasonograf, bo właśnie ultrasonografia jest podstawowym i najczęściej stosowanym badaniem obrazowym do oceny rozwoju płodu. Badanie USG w ciąży pozwala nie tylko na ocenę wielkości i budowy płodu, ale też na wykrycie niektórych wad wrodzonych i ocenę ilości wód płodowych czy lokalizacji łożyska. W praktyce większość kobiet w ciąży przechodzi kilka badań USG w ramach standardowej opieki, bo to metoda całkowicie bezpieczna, nieinwazyjna i bezbolesna – nie wykorzystuje promieniowania jonizującego, więc nie zagraża ani matce, ani dziecku. Moim zdaniem, to naprawdę niesamowite, że w kilka minut można zobaczyć na ekranie ruchy i serce malucha jeszcze przed narodzinami. Warto wiedzieć, że w Polsce obowiązują określone standardy prowadzenia ciąży – Polskie Towarzystwo Ginekologów i Położników rekomenduje co najmniej trzy obowiązkowe USG w trakcie ciąży. Z mojego doświadczenia ultrasonograf jest w zasadzie na wyposażeniu każdej poradni ginekologiczno-położniczej, bo to podstawa diagnostyki prenatalnej. Oczywiście, czasem lekarz może zlecić inne badania obrazowe, ale USG zawsze jest pierwszym wyborem. Ciekawostka: obecna technologia pozwala na wykonywanie tzw. USG 3D, a nawet 4D, które jeszcze lepiej obrazują rozwój dziecka. Takie obrazowanie naprawdę zmienia podejście do diagnostyki prenatalnej.

Pytanie 4

Podczas uruchamiania komputera procedura POST testuje poprawność działania

A. procesora, pamięci RAM, karty graficznej oraz dysków twardych.
B. tylko pamięci RAM i kart pamięci.
C. dysków, napędów optycznych i kart pamięci.
D. tylko karty graficznej oraz karty sieciowej.
Procedura POST (Power-On Self Test) to taki pierwszy etap uruchamiania komputera, który sprawdza, czy najważniejsze podzespoły działają poprawnie. Moim zdaniem to jeden z tych procesów, o których często się zapomina, a bez niego komputer nawet nie ruszy dalej! POST weryfikuje przede wszystkim, czy procesor, pamięć RAM, karta graficzna oraz dyski twarde są sprawne i prawidłowo podłączone. Bez tych elementów nie da się zainicjować systemu operacyjnego ani nawet wyświetlić komunikatów o błędach. W praktyce, jeśli np. pamięć RAM jest uszkodzona, komputer wyda sygnał dźwiękowy lub pokaże odpowiedni komunikat na ekranie (jeśli karta graficzna działa). Z mojego doświadczenia, najczęściej spotykanymi problemami podczas POST są właśnie źle włożone pamięci RAM lub brak sygnału z karty graficznej. Branżowe dobre praktyki podkreślają, żeby zawsze zacząć diagnostykę komputera od tych podstawowych komponentów, zanim przejdzie się do drobniejszych usterek. Procedura POST jest częścią standardu BIOS/UEFI i to dzięki niej użytkownik od razu wie, że coś jest nie tak, zanim system operacyjny w ogóle zacznie się ładować. Dodatkowo, POST nie sprawdza urządzeń peryferyjnych typu drukarki czy skanery, tylko skupia się na tym, bez czego komputer nie ruszy. To naprawdę ułatwia życie każdemu, kto zajmuje się serwisem komputerowym – po dźwiękach beep można od razu zorientować się, gdzie jest błąd. Taką diagnostykę można znaleźć w każdym nowoczesnym pececie i to jest absolutny standard branżowy.

Pytanie 5

Które polecenie SQL nie modyfikuje tabeli bazy danych?

A. SELECT
B. INSERT
C. DELETE
D. UPDATE
Polecenie SELECT w języku SQL służy wyłącznie do pobierania danych z bazy, nie wpływa na strukturę ani zawartość tabeli. To takie narzędzie, które pozwala wyciągnąć konkretne informacje, np. listę wszystkich pracowników albo produkty droższe niż 100 zł – wszystko bez jakiejkolwiek ingerencji w istniejące dane. To jest zgodne z zasadą rozdzielenia operacji odczytu od zapisu, co jest szczególnie doceniane w środowiskach produkcyjnych, gdzie bezpieczeństwo i integralność danych mają pierwszorzędne znaczenie. W praktyce programista, który chce tylko sprawdzić, ile rekordów spełnia dany warunek, nie powinien polegać na UPDATE, DELETE czy INSERT – te polecenia są przeznaczone do faktycznej modyfikacji bazy. Moim zdaniem to właśnie SELECT stanowi podstawę analizy danych i raportowania – spotkałem się z tym nawet w projektach, gdzie dostęp do tabeli ograniczał się tylko do SELECT dla większości użytkowników, żeby nie dopuścić do przypadkowych zmian. Co ciekawe, w standardzie SQL bardzo wyraźnie rozdziela się instrukcje DML (Data Manipulation Language, czyli UPDATE, INSERT, DELETE) od instrukcji tylko do odczytu, takich jak SELECT. Warto też pamiętać, że SELECT sam w sobie nie blokuje rekordów na czas odczytu, co zapewnia wydajność nawet przy wielu jednoczesnych zapytaniach – to duża zaleta w dynamicznych systemach.

Pytanie 6

Który endoskop pozwala na badanie wnętrza tchawicy i oskrzeli?

A. Laryngoskop.
B. Bronchoskop.
C. Artroskop.
D. Duodenoskop.
Bronchoskop to specjalistyczny endoskop, który pozwala na precyzyjne badanie wnętrza tchawicy oraz oskrzeli. W praktyce medycznej to właśnie bronchoskopia jest złotym standardem przy diagnostyce i leczeniu chorób układu oddechowego – począwszy od oceny zmian zapalnych, przez poszukiwanie ciał obcych, aż po pobieranie wycinków do badań histopatologicznych. Z mojego doświadczenia widać, że bronchoskop jest nieoceniony przy podejrzeniu nowotworów płuc albo przewlekłych infekcji. Co ciekawe, nowoczesne bronchoskopy są już bardzo elastyczne, wyposażone w kamerę HD i kanały robocze, przez które można np. podać leki czy narzędzia do usunięcia zatorów. Branżowe standardy mówią jasno – jeśli chodzi o diagnostykę tchawicy czy oskrzeli, bronchoskopia gwarantuje najbardziej precyzyjne obrazowanie w czasie rzeczywistym. Moim zdaniem, warto pamiętać, że ten sprzęt jest dość uniwersalny – można nim wykonywać zarówno zabiegi diagnostyczne, jak i terapeutyczne. W praktyce oddziałów pulmonologicznych czy chirurgii klatki piersiowej bronchoskopia to chleb powszedni. Trzeba też dodać, że inne endoskopy kompletnie nie nadają się do pracy w drogach oddechowych – bronchoskop został skonstruowany właśnie pod kątem anatomii i potrzeb tej części ciała.

Pytanie 7

Który z przedstawionych przyrządów służy do testowania połączeń w sieci LAN?

A. Przyrząd 1
Ilustracja do odpowiedzi A
B. Przyrząd 4
Ilustracja do odpowiedzi B
C. Przyrząd 2
Ilustracja do odpowiedzi C
D. Przyrząd 3
Ilustracja do odpowiedzi D
Przyrząd numer 4 to tzw. tester kabli sieciowych, popularnie nazywany testerem LAN lub testerem RJ-45. To urządzenie jest projektowane specjalnie do sprawdzania połączeń w przewodach sieciowych typu skrętka, którymi łączone są komputery, switche czy routery w sieci lokalnej. Tester taki pozwala sprawdzić, czy każda z żył w przewodzie jest poprawnie połączona od początku do końca – czyli czy nie ma przerw, zwarć albo błędnych zamian kolorów. W praktyce, kiedy zarabiasz końcówki RJ-45, taki tester puszczasz po kablu i od razu widzisz na diodach, czy wszystko styka. Moim zdaniem nie da się dobrze robić instalacji sieciowych bez czegoś takiego – to podstawa narzędziowa każdego technika sieciowego. Branżowe standardy (np. ANSI/TIA-568) wyraźnie zalecają testowanie każdej instalacji przed oddaniem jej do użytku właśnie za pomocą testera kabli. Co ciekawe, niektóre zaawansowane testery potrafią od razu wskazać miejsce uszkodzenia albo długość kabla. Warto pamiętać, że testery tego typu nie nadają się do pomiarów napięcia czy prądu, a skupiają się wyłącznie na poprawności połączeń logicznych, co w sieciach komputerowych jest najważniejsze. Jeśli chcesz być pewien, że twoja sieć LAN jest solidnie zrobiona i pozbawiona błędów, użycie testera to absolutna konieczność.

Pytanie 8

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. γ
B. β
C. e
D. α
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 9

Który przyrząd należy wybrać celem sprawdzenia poprawnej prędkości transmisji danych na łączu RS232 urządzenia elektroniki medycznej?

A. Woltomierz.
B. Oscyloskop.
C. Amperomierz.
D. Multimetr.
Oscyloskop to chyba jeden z tych przyrządów, których nie da się niczym zastąpić, jeśli chodzi o analizę sygnałów cyfrowych na łączach takich jak RS232. Dlaczego właśnie on? Bo tylko oscyloskop pokaże nam rzeczywisty przebieg sygnału na linii: zobaczysz na żywo impulsy, czasy trwania bitów, a nawet zakłócenia czy odbicia na przewodach. To jest mega przydatne, bo sama deklarowana prędkość transmisji (np. 9600 bps) nie zawsze zgadza się z faktycznym sygnałem – zdarzają się uszkodzenia linii lub źle skonfigurowany sprzęt. Moim zdaniem, w branży medycznej, gdzie dokładność i niezawodność transmisji danych jest kluczowa, oscyloskop daje pewność, że wszystko działa jak trzeba. Często nawet na szkoleniach technicznych podkreśla się, żeby nie ufać tylko ustawieniom software’owym czy deklaracjom producenta, tylko faktycznie mierzyć sygnał na wyjściu. Spotkałem się z sytuacjami, gdzie urządzenie deklarowało 115200 bps, a na oscyloskopie widać było, że długości bitów „pływają” – komputer gubił komunikaty i nikt nie wiedział dlaczego, dopóki nie podpięliśmy oscyloskopu. Oprócz tego, oscyloskop pozwala na szybkie wykrycie zakłóceń, które potrafią być zgubne dla transmisji – szczególnie w środowisku szpitalnym pełnym różnych zakłócaczy elektromagnetycznych. Dodatkowo, zgodnie ze standardem RS232, poziomy napięć i czas trwania impulsów muszą być w określonych granicach. Oscyloskop pozwala to wszystko zweryfikować dosłownie w kilka minut, czego nie da się zrobić innym sprzętem pomiarowym. Z mojego doświadczenia, dobra praktyka to zawsze sprawdzić przebieg przed pierwszym uruchomieniem systemu lub po naprawach.

Pytanie 10

Za pomocą oscyloskopu nie można zmierzyć bezpośrednio

A. amplitudy.
B. napięcia.
C. częstotliwości.
D. rezystancji.
Oscyloskop to narzędzie, które świetnie sprawdza się przy obserwacji przebiegów napięciowych oraz pomiarach parametrów sygnału, takich jak amplituda, częstotliwość czy kształt. Jednak moim zdaniem – i nie tylko moim, bo tak wynika ze standardów branżowych – nie nadaje się on do bezpośredniego pomiaru rezystancji. Wynika to z samej zasady działania oscyloskopu: on „patrzy” na zmiany napięcia w czasie, a nie na rezystancję, która jest wielkością statyczną. Jeśli już ktoś bardzo by się uparł, można co prawda pośrednio wywnioskować rezystancję, ale tylko poprzez obserwację napięcia i prądu na zewnętrznym rezystorze (np. przez pomiar napięcia na znanej rezystancji i wyliczenie wartości nieznanej rezystancji z prawa Ohma). W praktyce jednak – czy to w serwisie, czy przy uruchomieniach nowych układów – do pomiaru rezystancji używamy często multimetru, nie oscyloskopu. To bardzo ważne, bo sporo osób myli te przyrządy i czasami nawet próbują „mierzyć wszystko” oscyloskopem, co prowadzi do kiepskich wyników i niepotrzebnego zamieszania. Zresztą, najlepsze praktyki mówią jasno: oscyloskop to narzędzie do sygnałów dynamicznych, a rezystancja to domena omomierza czy multimetru. Czasem fajnie jest to sobie przypomnieć, bo jak się człowiek zagalopuje, to potem błędy wychodzą w najmniej oczekiwanym momencie.

Pytanie 11

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. pewnymi.
B. publicznymi.
C. zastrzeżonymi.
D. chronionymi.
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 12

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. fonokardiografii.
B. echokardiografii.
C. elektrokardiografii.
D. angiografii.
Zjawisko zmiany częstotliwości fali odbitej od poruszającego się obiektu to tzw. efekt Dopplera i to właśnie na nim w dużej mierze opiera się echokardiografia. Często się o tym nie mówi na lekcjach, ale dla praktyka medycznego albo technika to naprawdę fundamentalna sprawa – bo dzięki temu można zobaczyć nie tylko kształt i ruchy serca, ale też prędkość przepływu krwi przez jamy i zastawki. Echokardiograf, poza klasycznym obrazowaniem 2D, może mierzyć prędkości dzięki tzw. Dopplerowi kolorowemu albo spektralnemu i na tej podstawie lekarz od razu widzi gdzie są na przykład zwężenia naczyń czy cofanie się krwi (niedomykalność zastawek). W praktyce na oddziale kardiologicznym to jedno z podstawowych badań nie tylko diagnostycznych, ale też monitorujących efekty leczenia. Warto wiedzieć, że to bardzo nowoczesna technologia, która cały czas się rozwija – pojawiają się coraz lepsze algorytmy, a nawet systemy AI wspomagające ocenę przepływów. Moim zdaniem, znajomość efektu Dopplera i jego medycznych zastosowań jest bardzo ceniona, bo otwiera drzwi do pracy z nowoczesnym sprzętem i w ogóle daje poczucie, że rozumiemy jak działa współczesna diagnostyka obrazowa. Branża wymaga, żeby nie tylko wiedzieć „co” się widzi na ekranie, ale też „dlaczego” ten obraz tak wygląda – no i efekt Dopplera to podstawa w tej układance.

Pytanie 13

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. 3^n
B. n^3
C. 3*(n-1)
D. 3*n
Funkcja F(n) jest przykładem rekurencji liniowej, gdzie za każdym razem dla n>1 wartość funkcji jest mnożona przez 3 w stosunku do poprzedniego wyniku. W skrócie: F(n) = 3 * F(n-1), a dla n=1 ustalamy F(1)=3. Jeśli rozwiniesz to rekurencyjnie, otrzymasz ciąg: F(2)=3*3, F(3)=3*3*3, itd., co prowadzi do wzoru ogólnego F(n)=3^n. To jest bardzo charakterystyczne dla tzw. ciągów geometrycznych. Moim zdaniem taki typ zadań świetnie pokazuje, jak działa propagacja wartości w rekurencji i jest często spotykany przy analizie algorytmów, szczególnie jeśli chodzi o złożoność obliczeniową. W praktyce informatycznej, takie wzory pojawiają się np. w algorytmach dziel i zwyciężaj, gdzie każda warstwa rekurencji mnoży się przez stałą. Warto pamiętać, że znajomość wyprowadzenia wzoru rekurencyjnego do postaci jawnej (czyli bezpośredniej) bardzo przyspiesza analizę nawet bardziej złożonych funkcji. Często podczas programowania można spotkać się z zadaniami, gdzie trzeba rozpoznać, jak szybko rośnie funkcja, a tu wzrost wykładniczy (czyli właśnie potęgowanie) jest jednym z najszybszych. Co ciekawe, takie proste rekurencje mają też znaczenie choćby w modelowaniu wzrostu populacji czy inwestycji finansowych. Generalnie zaś, wykładniczy wzrost to nie przelewki – potrafi bardzo szybko doprowadzić do dużych wartości, dlatego w praktycznych aplikacjach programistycznych trzeba uważać na przepełnienia zmiennych i ograniczenia sprzętowe.

Pytanie 14

Technologia dual channel dotyczy pracy dwóch takich samych

A. pamięci RAM.
B. kart graficznych.
C. dysków twardych.
D. dysków SSD.
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 15

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. EKG
B. RTG
C. KTG
D. EEG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 16

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.1 – 192.150.160.128
B. 192.150.160.0 – 192.150.160.63
C. 192.150.160.1 – 192.150.160.62
D. 192.150.160.0 – 192.150.160.127
Adresacja sieciowa to coś, co potrafi naprawdę namieszać na początku, ale w praktyce to podstawa przy konfiguracji sieci – zwłaszcza jak zaczynasz bawić się maskami podsieci. W przypadku adresu 192.150.160.0/26 mamy maskę 255.255.255.192, czyli 6 bitów na hosty w ostatnim oktecie. To daje w sumie 64 adresy IP w tej podsieci (od 0 do 63). Ale tylko adresy od 192.150.160.1 do 192.150.160.62 nadają się na urządzenia, bo pierwszy (z końcówką .0) to adres sieci, a ostatni (z końcówką .63) to adres rozgłoszeniowy (broadcastowy). To standardowo przyjęte we wszystkich sieciach IPv4. Moim zdaniem dobrze to sobie rozrysować na kartce, szczególnie jeśli chcesz uniknąć wpadki przy większych projektach. W praktyce, np. jak konfigurujesz routery, serwery DHCP czy firewalle – zawsze pilnuj, żeby nie przypisać urządzeniom adresu sieci ani broadcast, bo wtedy mogą pojawić się trudne do wyłapania błędy. Często spotykam się z sytuacją, gdzie ktoś korzysta z całego zakresu, nie zwraca uwagi na te dwa specjalne adresy i potem coś nie działa. Z mojej perspektywy to taka podstawowa wiedza, którą każdy administrator czy technik IT powinien mieć w małym palcu. Warto też pamiętać, że takie podejście jest zgodne z RFC 950, gdzie określono te zasady. Praktyka pokazuje, że dobrze znać te reguły chociażby po to, żeby automatycznie wiedzieć, jaki zakres możesz wpisać np. w konfiguracji serwera DHCP, bez ryzyka, że coś przestanie działać.

Pytanie 17

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. EEG.
B. ciśnienia krwi.
C. EKG.
D. oddechu.
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 18

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. move kat_zrodlowy/dane.txt kat_docelowy
B. copy kat_docelowy kat_zrodlowy/dane.txt
C. copy kat_zrodlowy\dane.txt kat_docelowy
D. move kat_docelowy kat_zrodlowy\dane.txt
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.

Pytanie 19

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. EEG
B. RTG
C. EKG
D. KTG
Zestaw widoczny na zdjęciu to klasyczny przykład testera aparatu KTG, czyli kardiotokografu. To takie urządzenie, które wykorzystuje się przede wszystkim na oddziałach położniczych i ginekologicznych do monitorowania czynności serca płodu oraz skurczów macicy u kobiety ciężarnej. Tego typu tester pozwala na przeprowadzenie okresowej kontroli sprawności kardiotokografów, żeby mieć pewność, że pomiary są wiarygodne i bezpieczne dla pacjentek. Sam kardiotokograf jest bardzo ważny w praktyce klinicznej, bo dzięki niemu personel medyczny może szybko wykryć ewentualne nieprawidłowości w przebiegu ciąży, co w ostateczności może ratować życie dziecka lub matki. Z mojego doświadczenia wynika, że regularna kalibracja i testowanie KTG to już podstawa w nowoczesnych szpitalach – nikt nie chce ryzykować pracy na niesprawdzonym sprzęcie. Zestawy testujące mają często wbudowane standardowe sygnały testowe zgodne z normami ISO i wymaganiami producentów urządzeń medycznych, przez co można dość łatwo potwierdzić, czy dany aparat działa poprawnie. Naprawdę, jeśli ktoś myśli o pracy w serwisie sprzętu medycznego, to musi znać takie zestawy na wylot i kojarzyć, do których typów urządzeń są przeznaczone, bo pomyłka tutaj może mieć przykre skutki praktyczne.

Pytanie 20

Które polecenie w systemie Windows tworzy folder Dane?

A. set Dane
B. ren Dane
C. rmdir Dane
D. mkdir Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 21

Narzędzie przedstawione na rysunku służy do

Ilustracja do pytania
A. wykonywania połączeń nitowanych.
B. znakowania przewodów.
C. sprawdzania grubości izolacji.
D. zaciskania wtyków na przewodach.
To narzędzie, które widzisz na zdjęciu, to klasyczna zaciskarka do wtyków, często nazywana też crimperem. Służy ona głównie do zaciskania końcówek na przewodach, najczęściej używa się jej do złączy typu RJ-45 czy RJ-11 – czyli przy tworzeniu przewodów sieciowych lub telefonicznych. Moim zdaniem to jest taki must-have każdego, kto na poważnie podchodzi do okablowania sieciowego czy drobnych napraw w domu, bo pozwala zrobić profesjonalne połączenie bez kombinowania i ryzyka, że kabel będzie się rozłączał. Co ważne, prawidłowo zaciśnięty wtyk to nie tylko stabilność mechaniczna, ale też pewność dobrego kontaktu elektrycznego, a to ma kolosalne znaczenie przy transmisji danych. Dobre praktyki branżowe, np. wg standardów EIA/TIA, zalecają właśnie korzystanie z zaciskarek, bo tylko one gwarantują powtarzalną jakość połączeń, której nie osiągnie się np. śrubokrętem czy kombinerkami. Z mojego doświadczenia wynika też, że warto regularnie sprawdzać stan zaciskarki, bo zużyte szczęki mogą uszkodzić przewód. Podsumowując, narzędzie to jest dedykowane do zaciskania wtyków na przewodach i to właśnie dzięki niemu przewody sieciowe czy telefoniczne działają niezawodnie przez lata.

Pytanie 22

Operacja warunkowa w większości języków programowania wysokiego poziomu zaczyna się słowem

A. for
B. do
C. if
D. while
Operacja warunkowa to coś, co w programowaniu spotyka się na każdym kroku. Słowo kluczowe „if” jest takim fundamentem, bez którego trudno wyobrazić sobie jakikolwiek prosty algorytm. Można powiedzieć, że to taki podstawowy budulec logiki w większości popularnych języków, jak Python, Java, C++, C#, JavaScript – wszędzie tam „if” rozpoczyna warunkowe rozgałęzienie. Praktycznie zawsze wygląda to mniej więcej tak: if (warunek) { // kod gdy warunek prawdziwy }. Dzięki temu można sterować przepływem programu i reagować na różne sytuacje, zależnie od zmiennych lub wyniku działania funkcji. Co ciekawe, samo „if” to skrót od angielskiego „jeśli”, więc nawet osoby, które nie znają za dobrze języka angielskiego, łatwo zapamiętują jego działanie. Moim zdaniem, warto zawsze na początku nauki programowania dobrze zrozumieć, jak działa instrukcja warunkowa, bo potem przy bardziej złożonych projektach nie raz ratuje nam skórę. Dla przykładu – gdy programujemy prostą aplikację do logowania, najpierw sprawdzamy if hasło jest prawidłowe, potem if użytkownik jest aktywny, itd. To jest naprawdę uniwersalne narzędzie, a przy okazji bardzo czytelne i intuicyjne. Warto jeszcze wiedzieć, że „if” to element tzw. struktury sterowania, której znajomość jest absolutną podstawą, według praktycznie wszystkich standardów nauczania i dokumentacji języków programistycznych.

Pytanie 23

Jaki wpływ na organizm ludzki ma krioterapia?

A. Zwiększa szybkość przewodnictwa nerwowego.
B. Zmniejsza obrzęki.
C. Spowalnia procesy przemiany materii.
D. Podwyższa napięcie mięśniowe.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 24

Która tkanka najsilniej pochłania fale ultradźwiękowe?

A. Mięśniowa.
B. Nerwowa.
C. Nabłonkowa.
D. Kostna.
Tkanka kostna wyróżnia się na tle innych tkanek bardzo dużą zdolnością pochłaniania fal ultradźwiękowych. Wynika to głównie z jej gęstości oraz znacznej zawartości minerałów, przede wszystkim hydroksyapatytu, który jest wyjątkowo skuteczny w tłumieniu energii akustycznej. To właśnie dlatego podczas badań ultrasonograficznych lekarze napotykają trudności z oceną struktur znajdujących się bezpośrednio za kością — ultradźwięki są bowiem przez nią w dużej mierze pochłaniane i rozpraszane. W praktyce medycznej wiedza o właściwościach pochłaniania ultradźwięków przez tkanki jest bardzo istotna, na przykład przy planowaniu diagnoz czy zabiegów obrazowania. Z mojego doświadczenia wynika, że wiele osób myli tkankę mięśniową z kostną, bo mięśnie też wydają się dość solidne, ale jednak to kość jest najbardziej nieprzenikalna dla ultradźwięków. Nie bez powodu w fizyce medycznej przyjmuje się, że kość stanowi naturalną barierę dla fal ultradźwiękowych, co zresztą wykorzystywane jest np. w leczeniu urazów za pomocą terapii ultradźwiękowej — parametry urządzeń dobiera się, mając na uwadze silne tłumienie przez kości. Warto pamiętać, że ta cecha tkanki kostnej wyraźnie wpływa na dobór technik obrazowania w medycynie i jest wskazywana w literaturze jako kluczowa przy interpretacji wyników USG. Takie zjawisko tłumienia to nie jest tylko ciekawostka — to konkretna wiedza operacyjna, która pozwala na uniknięcie błędów diagnostycznych w codziennej pracy.

Pytanie 25

Jakie jest przeznaczenie drukarki, której dotyczy zamieszczony fragment specyfikacji?

Głowica drukująca24-igłowa
Średnica przewodu0,2 mm
Kierunek drukuDwukierunkowe/bezkierunkowe drukowanie
Rozdzielczość grafikiMaks. 360 (wys.) x 360 (szer.) dpi
Szybkość drukowaniaHigh Speed Draft: 607 znaków/s, tryb Utility: 485 znaków/s, tryb Near Letter Quality: 245 znaków/s, Letter Quality: 165 znaków/s
Gęstość przesunięć wierszy4,23 mm (1/6"), 3,18 mm (1/8"), n x 0,42 mm (m/60") (m=0-127), n x 0,14 mm (n/180") (n=0-255), n x 0,12 mm (n/216") (n=0-255), n x 0,07 mm (n/360") (n=0-255)
Szybkość podajnika10 cali na sekundę
Pobieranie papieruRęczne (góra), traktor pchający (góra), traktor pchający (tył), traktor pchający (dół), podajnik pojedynczych arkuszy (tył)
Gęstość znakówHigh Speed Draft: 10,0 zn./cal 18,0 zn./cal
Jakość użytkowa: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20 zn./cal
Tryb Near Letter Quality: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20,0 zn./cal
Tryb Letter Quality: 10 zn./cal 12 zn./cal 15 zn./cal 17,1 zn./cal 20 zn./cal, proporcjonalnie
Szerokość druku136 zn./linia przy ANK 10 zn./cal
A. Drukowanie dokumentów w kolorze.
B. Nadruk opisów na płytach CD/DVD.
C. Drukowanie na papierze perforowanym.
D. Wykonywanie wydruków laserowych.
Specyfikacja opisuje drukarkę igłową wyposażoną w 24-igłową głowicę, co samo w sobie jest bardzo charakterystyczne dla urządzeń przeznaczonych do pracy z papierem ciągłym i perforowanym. Takie drukarki, mimo że są już trochę staroświeckie, to wciąż mają swoje miejsce w biurach, szczególnie tam, gdzie trzeba wydrukować kopie dokumentów jednocześnie (przez kalkę) albo korzysta się z papieru składankowego z perforacją. Moim zdaniem, największą zaletą takich drukarek jest niezawodność w środowiskach, gdzie laserówki czy atramentówki zawodzą – na przykład w magazynach, na produkcji, albo do wydruków faktur i dokumentów przewozowych. 24 igły w głowicy pozwalają na całkiem niezłą jakość wydruku tekstu, a różne tryby szybkości dają wybór między jakością a wydajnością. W ogóle, obecność traktora pchającego oraz możliwość podawania papieru „z dołu” i „z tyłu” to klasyka w pracy z papierem perforowanym. Z mojego doświadczenia wynika, że właśnie tam, gdzie trzeba drukować długie zestawienia albo raporty bez ciągłego dokładania papieru, taki sprzęt wygrywa. Współczesne drukarki laserowe nie poradzą sobie z papierem ciągłym, a drukarki do nadruku na CD/DVD czy kolorowe atramentówki to zupełnie inna bajka i inne zastosowania. Jeśli ktoś myśli o pracy z dokumentami wielowarstwowymi albo wydrukami archiwalnymi, to takie igłówki są nadal bezkonkurencyjne. Po prostu, nie do zdarcia sprzęt do specyficznych, ciągłych zastosowań.

Pytanie 26

Który system plików zapewnia największe bezpieczeństwo danych w systemie Windows?

A. FAT 32
B. FAT 16
C. NTFS
D. ext4
NTFS to zdecydowanie najlepszy wybór, jeśli chodzi o bezpieczeństwo danych w systemie Windows. Po pierwsze, ten system plików pozwala na zaawansowane zarządzanie uprawnieniami – można bardzo precyzyjnie ustawiać, kto ma dostęp do jakiego pliku czy folderu, a to w praktyce daje ogromne możliwości kontroli. Jedną z najważniejszych cech NTFS jest obsługa szyfrowania plików (EFS), co wrażliwych danych zabezpiecza przed dostępem niepowołanych użytkowników. No i oczywiście, NTFS ma wbudowane mechanizmy odzyskiwania po awarii – na przykład dziennikowanie operacji (tzw. journaling), dzięki czemu podczas nagłego zaniku zasilania system jest w stanie automatycznie naprawić uszkodzone struktury plików. W przedsiębiorstwach NTFS to standard, bo pozwala na stosowanie polityk bezpieczeństwa zgodnych z wymaganiami ISO/IEC 27001 czy politykami RODO. Moim zdaniem, dla każdego, kto chociaż trochę dba o integralność i bezpieczeństwo danych, inne opcje nie mają nawet podejścia. Co ciekawe, NTFS obsługuje także limity pojemności, kompresję plików czy tworzenie kopii zapasowych typu shadow copy. I jeszcze taka ciekawostka – większość zaawansowanych narzędzi Windows nawet nie pozwala korzystać z dysków FAT, jeśli trzeba ustawić uprawnienia albo szyfrować katalogi. W sumie, dziś to już absolutna podstawa w każdej firmowej sieci.

Pytanie 27

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 15
B. 24
C. 10
D. 13
Standardowe badanie EKG w 12 odprowadzeniach faktycznie wymaga użycia 10 elektrod. Sześć z nich umieszcza się na klatce piersiowej (przedsercowe, czyli V1-V6), a kolejne cztery stanowią elektrody kończynowe – po jednej na każdym z kończyn: prawe ramię, lewe ramię, prawa noga i lewa noga. Co ciekawe, mimo że odprowadzeń jest dwanaście, nie oznacza to, że tyle samo musi być elektrod. To, jakby nie patrzeć, jeden z częstszych błędów na praktykach – wiele osób myśli, że liczba odprowadzeń równa się ilości elektrod. W praktyce to właśnie z tych dziesięciu punktów pomiarowych aparat generuje 12 różnych odprowadzeń, korzystając z kombinacji sygnałów między elektrodami. Można to porównać trochę do matematycznych kombinacji – z tych kilku punktów zbiera się bardzo rozbudowaną informację o pracy serca z różnych stron. Takie postępowanie opisują wytyczne Polskiego Towarzystwa Kardiologicznego oraz międzynarodowe standardy, np. American Heart Association, więc dobrze się tego trzymać. Moim zdaniem warto od razu zapamiętać rozmieszczenie elektrod – nie tylko dla testów, ale w praktyce zawodowej to podstawa bezpiecznego i prawidłowego wykonania badania EKG. Z mojego doświadczenia, im więcej się ćwiczy takie układanie elektrod, tym szybciej i sprawniej idzie potem w codziennej pracy. Na marginesie: czasem spotyka się systemy z większą liczbą elektrod, np. do monitorowania Holtera albo badań bardziej zaawansowanych, ale klasyczny 12-odprowadzeniowy EKG to zawsze 10 elektrod – i tego warto się trzymać.

Pytanie 28

Który sterownik odpowiada za bezpośredni dostęp do pamięci?

A. IRQ
B. DMI
C. DMA
D. PIO
Sterownik DMA (Direct Memory Access) to naprawdę kluczowy element w architekturze komputerów, jeśli chodzi o sprawne przesyłanie danych. Chodzi tu o to, że urządzenia peryferyjne, jak np. karty sieciowe, dyski twarde czy nawet nowoczesne karty dźwiękowe, mogą przekazywać lub odbierać informacje bezpośrednio do/z pamięci RAM, praktycznie z pominięciem procesora. To bardzo usprawnia pracę systemu, bo CPU nie musi zajmować się każdym bajtem przesyłu — po prostu zleca zadanie kontrolerowi DMA i wraca do swoich głównych zadań. W praktyce, zwłaszcza w systemach typu embedded albo przy intensywnych operacjach na dużych plikach czy transmisjach multimedialnych, DMA skraca czas przesyłu i odciąża procesor. W branży to wręcz standard wykorzystywania DMA, żeby uzyskać wyższą przepustowość i mniejsze opóźnienia, co jest istotne na przykład w systemach czasu rzeczywistego. Moim zdaniem, jak ktoś chce być dobrym technikiem, musi rozumieć, jak działa DMA i kiedy warto go stosować — czasem to po prostu jedyna opcja, bo bezpośredni dostęp do pamięci pozwala uzyskać dużo większą wydajność niż klasyczne rozwiązania programowe. Nawet BIOS i nowoczesne systemy operacyjne korzystają z DMA, żeby efektywnie zarządzać transferami danych. To taki trochę niewidzialny bohater każdej płyty głównej, a jak się to raz zrozumie, to już później łatwiej łapie się koncepcję działania zaawansowanych systemów komputerowych.

Pytanie 29

W zabiegu jonoforezy leki są transportowane przez skórę do głębiej położonych warstw poprzez zastosowanie

A. prądu galwanicznego.
B. fal ultradźwiękowych.
C. pola magnetycznego.
D. fal akustycznych.
Jonoforeza to taki zabieg fizykalny, w którym wykorzystuje się prąd galwaniczny do wprowadzania leków przez skórę w głąb tkanek. To właśnie ta stała forma prądu elektrycznego sprawia, że jony substancji leczniczych są „przepychane” przez barierę naskórkową – i to dużo efektywniej niż przez zwykłe nałożenie maści czy kremu. Moim zdaniem to świetne rozwiązanie, kiedy zależy nam na działaniu miejscowym, np. w leczeniu stanów zapalnych, przewlekłego bólu czy zmian zwyrodnieniowych stawów. W praktyce fizjoterapeuci często stosują jonoforezę na takie schorzenia jak ostroga piętowa, przewlekłe zapalenie ścięgien albo przykurcze mięśni po urazach. Z mojego doświadczenia wynika, że dzięki jonoforezie leki omijają przewód pokarmowy, więc nie obciążają wątroby czy żołądka – to duży plus. Ważne, żeby dobrać odpowiedni preparat do rodzaju problemu, a także właściwie ustawić parametry prądu; wszystko zgodnie z wytycznymi branżowymi, na przykład z zaleceniami Polskiego Towarzystwa Fizjoterapii. Co ciekawe, sam prąd galwaniczny również wykazuje działanie biologiczne – poprawia ukrwienie, przyspiesza regenerację i działa przeciwbólowo, więc zabieg daje często podwójny efekt. Uczciwie mówiąc, to rozwiązanie bardzo często stosowane w gabinetach rehabilitacji i naprawdę daje widoczne rezultaty, jeśli jest dobrze przeprowadzone.

Pytanie 30

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 25 mm/s
B. 50 mm/s
C. 10 mm/s
D. 75 mm/s
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 31

Na rysunku przedstawiono badanie za pomocą

Ilustracja do pytania
A. pulsoksymetru.
B. densytometru.
C. manometru.
D. higrometru.
Na zdjęciu widzimy pulsoksymetr – to niewielkie urządzenie, które w praktyce medycznej jest absolutnym standardem do nieinwazyjnego pomiaru saturacji krwi (czyli nasycenia hemoglobiny tlenem) oraz tętna pacjenta. Bardzo często spotyka się go nie tylko na oddziałach szpitalnych, ale i w ambulansach czy nawet w domowej opiece nad pacjentami przewlekle chorymi. Pulsoksymetr działa na zasadzie analizy pochłaniania fal świetlnych o dwóch długościach – podczerwieni i czerwieni – przechodzących przez naczynia włosowate w palcu. Stężenie tlenu w hemoglobinie wpływa na sposób pochłaniania światła, a precyzyjna elektronika zamienia te różnice na łatwą do odczytania wartość procentową. To w zasadzie niezbędne narzędzie w monitoringu osób z chorobami układu oddechowego, przy COVID-19, w anestezjologii, a również w ratownictwie. Moim zdaniem każdy, kto choć trochę interesuje się praktyczną medycyną albo pracuje w branży zdrowotnej, powinien nawet taki sprzęt mieć pod ręką – szczególnie że pomiar jest szybki, bezbolesny i pozwala na błyskawiczną reakcję w przypadku pogorszenia stanu pacjenta. Dobre praktyki sugerują, by zawsze sprawdzić poprawność działania urządzenia i prawidłowe założenie na palec – źle umieszczony pulsoksymetr może dać błędne odczyty, a to już poważny problem w diagnostyce.

Pytanie 32

Które polecenia są charakterystyczne dla instrukcji iteracyjnych?

A. var, set
B. for, while
C. if, switch
D. begin, end
Instrukcje iteracyjne, takie jak for i while, to absolutny fundament programowania praktycznie w każdym języku. Pozwalają nam na wielokrotne powtarzanie fragmentu kodu aż do spełnienia określonego warunku. Moim zdaniem to jest jedna z tych rzeczy, które naprawdę trzeba opanować, bo bez tego trudno budować jakiekolwiek sensowne algorytmy. Najczęściej używa się ich do przetwarzania tablic, list czy sprawdzania warunków aż do momentu osiągnięcia oczekiwanego rezultatu. Na przykład, w pętli for bardzo wygodnie można przejść przez każdy element tablicy w języku C++ czy Python, a while pozwala na bardziej elastyczne powtarzanie, gdy nie znamy z góry ilości powtórzeń – np. dopóki użytkownik nie poda właściwego hasła. W praktyce warto pamiętać, żeby pętle dobrze kontrolować, bo bardzo łatwo stworzyć tzw. pętlę nieskończoną, która zatrzyma cały program. W standardach branżowych, jak np. w Pythonie czy Javie, składnia pętli for i while jest bardzo czytelna i zachęca do pisania zrozumiałego kodu. No i jeszcze – często w projektach spotykam się z zaleceniem, żeby nie nadużywać zagnieżdżonych pętli, bo to może prowadzić do spadku wydajności. Krótko mówiąc: for i while to podstawa, która daje ogromną kontrolę nad logiką programu.

Pytanie 33

Który system plików pozwala na szyfrowanie danych w systemie Windows?

A. NTFS
B. ReiserFS
C. EXT4
D. FAT32
NTFS to obecnie najpopularniejszy system plików w środowisku Windows i, co tu dużo gadać, jego największą przewagą nad starszymi rozwiązaniami, jak FAT32, jest właśnie obsługa funkcji bezpieczeństwa. Dopiero na NTFS można korzystać z tak zwanych uprawnień do plików i katalogów, kompresji czy – co najważniejsze w tym pytaniu – szyfrowania na poziomie systemu plików. Funkcja EFS (Encrypting File System) pozwala zaszyfrować dane bezpośrednio z poziomu Eksploratora Windows, więc nawet laik może zabezpieczyć swoje pliki przed nieautoryzowanym dostępem. Lubię to rozwiązanie, bo nie wymaga dodatkowych narzędzi, no i po zalogowaniu się odpowiednim kontem użytkownika pliki są po prostu dostępne. Warto pamiętać, że szyfrowanie EFS jest zgodne z polityką bezpieczeństwa wielu firm – często wręcz wymagane przez wewnętrzne standardy IT, żeby ograniczyć ryzyko wycieku danych przy kradzieży laptopa czy dysku. Moim zdaniem, jeśli ktoś pracuje na służbowym sprzęcie albo trzyma jakieś poufne rzeczy na Windowsie, to naprawdę nie ma innej sensownej opcji niż NTFS. Zresztą nawet w domowych zastosowaniach, jeśli komuś zależy na prywatności, to przejście na NTFS to podstawa. Dobrze też wiedzieć, że np. podczas przenoszenia plików na inne systemy plików (np. FAT32 na pendrive’ie) cały ten mechanizm szyfrowania znika. To czasami potrafi zaskoczyć.

Pytanie 34

Jaki powinien być ustawiony adres maski podsieci, aby umożliwiał podłączenie maksymalnie 30 urządzeń?

A. 255.255.255.240
B. 255.255.255.248
C. 255.255.255.252
D. 255.255.255.224
Maska podsieci 255.255.255.224 pozwala na uzyskanie 30 dostępnych adresów hostów w jednej podsieci, co jest dokładnie tym, czego potrzeba w tym pytaniu. Wynika to z faktu, że ta maska daje 8 adresów na ostatnim oktecie, czyli 32 adresy w sumie, ale dwa z nich (adres sieci i adres rozgłoszeniowy) nie mogą być przypisane urządzeniom. W praktyce oznacza to 30 możliwych hostów do wykorzystania. Moim zdaniem dobór takiej maski jest bardzo częsty w sieciach korporacyjnych czy mniejszych firmach, gdzie nie ma potrzeby marnowania adresów IP na zbyt dużą podsieć. Sam osobiście stosowałem podobne rozwiązania przy konfiguracji sieci w szkole. To też świetny przykład dobrej praktyki – zawsze warto dopasować maskę do faktycznych potrzeb, żeby nie marnować zakresu adresowego. W standardach sieciowych, zgodnie z RFC 950, przydzielanie podsieci z zachowaniem właściwej liczby dostępnych hostów jest podstawą efektywnego zarządzania adresacją. Dodatkowo, taka maska (czyli /27) bardzo ułatwia podział większej sieci na mniejsze segmenty, co ma przełożenie na bezpieczeństwo i kontrolę ruchu. Często takie rozwiązania spotykane są w firmach, gdzie każde biuro lub dział ma własną podsieć. Praktyka pokazuje, że lepiej mieć kilka mniejszych podsieci niż jedną wielką – łatwiej się tym zarządza, a i awarie są mniej dotkliwe.

Pytanie 35

Na zdjęciu przedstawiono

Ilustracja do pytania
A. głowicę USG.
B. sondę TOCO.
C. lampę SOLLUX.
D. elektrodę AED.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 36

Największą zdolność pochłaniania promieniowania rentgenowskiego o energii 60–160 keV wykazuje tkanka

A. kostna.
B. tłuszczowa.
C. mięśniowa.
D. nerwowa.
Tkanka kostna rzeczywiście wykazuje największą zdolność pochłaniania promieniowania rentgenowskiego w zakresie energii 60–160 keV. Wynika to przede wszystkim z jej dużej gęstości oraz zawartości pierwiastków o wysokiej liczbie atomowej, jak wapń i fosfor. To właśnie dzięki temu kości na zdjęciach RTG są tak wyraźnie widoczne jako białe struktury – pochłaniają bardzo dużo promieniowania, które nie przechodzi przez nie do detektora. Moim zdaniem właśnie ta cecha jest jednym z kluczowych powodów, dla których badania radiologiczne są tak pomocne w diagnostyce złamań czy zmian zwyrodnieniowych. W praktyce radiologicznej zawsze zwraca się uwagę na kontrast tkanek – im większa różnica w pochłanianiu promieniowania, tym łatwiej wykryć zmiany patologiczne. Często też podczas planowania ekspozycji ustawiamy odpowiednie parametry energii lampy rentgenowskiej właśnie pod kątem uzyskania jak najlepszego obrazu kości. Standardy branżowe, np. zalecenia Polskiego Towarzystwa Radiologicznego, wyraźnie opisują, że energia promieniowania powinna być dobrana do badanej okolicy anatomicznej. Co ciekawe, w stomatologii czy ortopedii wykorzystuje się tę właściwość, żeby dokładniej ocenić stan mineralizacji kości, a nawet wykrywać bardzo drobne urazy. Z mojego doświadczenia wynika, że zrozumienie tej zasady ułatwia większość typowych zadań praktycznych związanych z obsługą aparatu RTG.

Pytanie 37

Która magistrala służy do szeregowej transmisji danych?

A. PCI E
B. ATA
C. AGP
D. PCI X
Magistrale komputerowe to temat, który potrafi wprowadzić trochę zamieszania, szczególnie jeśli nie śledzi się na bieżąco zmian w technologiach. Wiele osób myli magistrale równoległe z szeregowymi, bo przez lata standardem były rozwiązania równoległe jak PCI czy ATA. Jednak, jeśli chodzi o AGP, to był to interfejs zaprojektowany specjalnie pod karty graficzne, ale opierał się na transmisji równoległej, czyli przesyłał wiele bitów jednocześnie, a nie jeden po drugim. W praktyce AGP pozwalało na szybkie łączenie kart graficznych z płytą główną, ale dziś jest już przestarzałe i praktycznie nie spotyka się tego złącza w nowych komputerach. ATA (często spotykany jako IDE) to też klasyk dawnych komputerów, stosowany głównie do podłączania dysków twardych i napędów optycznych. Tutaj również mamy do czynienia z transmisją równoległą – szeroka taśma przesyłała równocześnie 16 bitów, co z jednej strony dawało sporą przepustowość jak na tamte czasy, ale było podatne na zakłócenia i ograniczenia długości przewodów. Z kolei PCI-X (nie mylić z PCIe) to rozwinięcie klasycznego PCI, nadal jednak bazujące na równoległej transmisji. Pomimo zwiększenia przepustowości względem PCI, wciąż nie rozwiązywał problemów typowych dla równoległych magistral – synchronizacji sygnałów czy podatności na różne interferencje. W sumie wszystkie te technologie przegrały z szeregowością PCI Express, bo to ona okazała się bardziej skalowalna i efektywna. Z mojego punktu widzenia, typowy błąd podczas nauki to utożsamianie nowych magistrali z tymi starszymi tylko dlatego, że mają podobne nazwy – a jednak różnica między PCIe a PCI lub PCI-X jest zasadnicza, bo dotyczy właśnie trybu przesyłania danych. Szeregowość to fundament nowoczesnych rozwiązań, bo lepiej radzi sobie z wysokimi częstotliwościami i minimalizuje błędy transmisji, stąd PCIe niemal całkowicie wyparło poprzedników.

Pytanie 38

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Obiekt.
B. Dziedziczenie.
C. Własność.
D. Metoda.
Instancja klasy w programowaniu obiektowym to właśnie obiekt. To jest taki trochę fundament całego tego podejścia – bez obiektów nie byłoby sensu mówić o programowaniu obiektowym. Kiedy tworzymy klasę, to jest ona tylko szablonem lub pewnego rodzaju przepisem na to, jak mają wyglądać nasze dane i jak mają się zachowywać. Natomiast obiekt to konkretna, działająca „realizacja” tego przepisu – coś, co faktycznie istnieje podczas działania programu. Wyobraź sobie klasę jako projekt samochodu, a obiekty jako rzeczywiste egzemplarze tego samochodu stojące na parkingu. Każdy obiekt ma swoje własne dane (czyli stan, na przykład kolor, przebieg, model) i swoje operacje (czyli metody, na przykład przyspiesz, zahamuj). Takie podejście jest powszechnie stosowane we wszystkich popularnych językach obiektowych, jak Java, C++, Python czy C#. Z mojego doświadczenia wynika, że w realnych projektach bardzo rzadko spotyka się kod, który operuje wyłącznie na klasach – właściwie wszystko kręci się wokół obiektów. Dobre praktyki sugerują nie tylko tworzenie obiektów, ale i dbanie o ich odpowiednią enkapsulację, czyli ukrywanie szczegółów implementacyjnych, co pozwala na bezpieczne i elastyczne rozwijanie kodu. No i jeszcze ciekawostka: w wielu frameworkach spotkasz się z tzw. wzorcem fabryki, który właśnie pomaga zarządzać tworzeniem obiektów na podstawie klas. To mocno ułatwia życie, szczególnie przy dużych projektach. Moim zdaniem zrozumienie tej różnicy między klasą a obiektem to absolutna podstawa, jeśli ktoś myśli o karierze programisty.

Pytanie 39

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. WLAN
B. PACS
C. VPN
D. LZW
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.

Pytanie 40

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. continue
B. yield
C. break
D. return
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.