Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 21 kwietnia 2026 01:52
  • Data zakończenia: 21 kwietnia 2026 01:58

Egzamin zdany!

Wynik: 38/40 punktów (95,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. add user rejestracja
B. user add rejestracja
C. net user rejestracja /add
D. net rejestracja \add user
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 2

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. UDP
B. UPS
C. ATX
D. CTX
UPS, czyli Uninterruptible Power Supply, to urządzenie, które w praktyce jest absolutnym must-have w każdej serwerowni, a nawet w domowych instalacjach, gdzie zależy nam na ciągłości pracy sprzętu komputerowego. Moim zdaniem, bardzo często niedoceniany, a to właśnie UPS zabezpiecza urządzenia w czasie zaniku napięcia sieciowego, pozwalając na bezpieczne zapisanie danych czy też kontrolowane wyłączenie komputerów. Działa to tak, że w momencie wykrycia braku napięcia w sieci zasilającej, automatycznie przełącza zasilanie na akumulatory i sprzęt działa dalej bez przerwy – nie raz uratowało mi to sporo pracy podczas burzy czy awarii w bloku. W firmach standardem jest, aby każdy ważniejszy sprzęt był podłączony do UPS-a. Są różne typy – line-interactive, off-line, on-line – to już zależy od wymagań, ale zasada działania pozostaje podobna. Czas podtrzymania zależy oczywiście od pojemności akumulatora i obciążenia, więc czasem kilka minut, czasem kilkadziesiąt – wystarczająco, żeby zareagować. Warto też wspomnieć, że profesjonalne UPS-y potrafią filtrować napięcie i chronić przed przepięciami oraz wahaniami napięcia, co z mojego doświadczenia, przy dzisiejszych niestabilnych sieciach jest dużą zaletą. Dlatego właśnie, jeśli chodzi o ochronę przed skutkami zaniku zasilania sieciowego i zapewnienie ciągłej pracy urządzeń elektronicznych, to UPS nie ma sobie równych. Według najlepszych praktyk, zaleca się nawet regularne testowanie sprawności UPS-ów, żeby nie okazało się w krytycznym momencie, że akumulator już nie trzyma. Reasumując – wybór jak najbardziej trafiony, a wiedza na ten temat zdecydowanie przydaje się w praktyce.

Pytanie 3

Na rysunku przedstawiono urządzenie z dodatkową kartą pamięci. Który rodzaj karty może zostać zastosowany w urządzeniu?

Ilustracja do pytania
A. SD
B. SIM
C. Micro SD
D. Micro SIM
Wybrałeś micro SD i to jest trafiony wybór, bo właśnie takie karty są najczęściej stosowane w urządzeniach przenośnych, jak smartfony, tablety czy aparaty cyfrowe. Z mojego doświadczenia wynika, że micro SD to taki złoty standard wśród rozszerzeń pamięci – są małe, pojemne i bardzo uniwersalne. Karty typu micro SD spełniają standardy SD Association, co gwarantuje kompatybilność z większością nowych urządzeń. W praktyce, pozwalają przechowywać zdjęcia, filmy, aplikacje czy nawet całe kopie zapasowe systemu. Warto wiedzieć, że dobre praktyki branżowe zalecają korzystanie z kart micro SD renomowanych producentów, bo podróbki potrafią sprawiać masę problemów – od utraty danych po uszkodzenie sprzętu. Współczesne karty micro SD obsługują różne klasy prędkości (np. UHS-I, UHS-II), a to ma spore znaczenie, jeśli pracujesz z nagraniami wideo w wysokiej rozdzielczości albo często przenosisz pliki. Moim zdaniem, jeśli ktoś myśli o rozbudowie pamięci, micro SD to przemyślany i elastyczny wybór, który daje sporo swobody, nie generując przy tym dużych kosztów. Niektórzy mylą pojęcia, bo sloty mogą wyglądać podobnie do slotów SIM, ale karty micro SD są dedykowane tylko do przechowywania danych, nie mają nic wspólnego z obsługą sieci GSM. Ważne też, żeby nie zapominać o bezpiecznym wyjmowaniu karty – to niby banał, ale niewłaściwe wyjmowanie może skutkować utratą plików. Takie szczegóły właśnie robią różnicę między amatorskim, a profesjonalnym podejściem do sprzętu.

Pytanie 4

Technologia dual channel dotyczy pracy dwóch takich samych

A. dysków SSD.
B. kart graficznych.
C. dysków twardych.
D. pamięci RAM.
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 5

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. yield
B. return
C. break
D. continue
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.

Pytanie 6

W dokumentacji Medycznego Systemu Informatycznego zapisano, że „przed użyciem programów instalacyjnych należy się upewnić, że niektóre porty w środowisku są dostępne do użycia z instalowanym oprogramowaniem pośrednim.” W celu sprawdzenia dostępności portu należy użyć programu narzędziowego

A. ipconfig
B. tracert
C. ping
D. netstat
Netstat to jedno z tych narzędzi, które naprawdę warto znać, jeśli chodzi o sprawdzanie dostępności portów w systemie operacyjnym. Moim zdaniem, bez niego ciężko byłoby szybko ogarnąć, co się dzieje na poziomie komunikacji sieciowej. Netstat pozwala zobaczyć, które porty są obecnie otwarte, jakie programy ich używają oraz na jakie adresy nasłuchują. W praktyce wygląda to tak, że jeśli masz zainstalować jakieś oprogramowanie pośrednie (np. serwer bazodanowy albo aplikację middleware), to najpierw sprawdzasz, czy wymagany port nie jest już zajęty przez inny proces. Wpisujesz „netstat -a” albo „netstat -an” w konsoli i widzisz pełną listę aktywnych portów, zarówno TCP, jak i UDP. To bardzo pomaga uniknąć konfliktów, które później mogą prowadzić do dziwnych błędów czy braku komunikacji między usługami. Branżowe dobre praktyki wyraźnie mówią, że należy się upewnić, iż porty wymagane do działania nowego oprogramowania są wolne lub odpowiednio przekonfigurowane. Z mojego doświadczenia wynika, że netstat jest też niezastąpiony podczas analizy problemów z nieautoryzowanymi połączeniami albo diagnostyki wydajności. W wielu firmach to podstawa przy wdrażaniu i utrzymaniu systemów medycznych czy innych środowisk krytycznych. Warto też wiedzieć, że netstat jest dostępny niezależnie od wersji systemu Windows, a podobne narzędzia działają na Linuxie, więc ta wiedza przydaje się praktycznie wszędzie.

Pytanie 7

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 10
B. 13
C. 15
D. 24
Standardowe badanie EKG w 12 odprowadzeniach faktycznie wymaga użycia 10 elektrod. Sześć z nich umieszcza się na klatce piersiowej (przedsercowe, czyli V1-V6), a kolejne cztery stanowią elektrody kończynowe – po jednej na każdym z kończyn: prawe ramię, lewe ramię, prawa noga i lewa noga. Co ciekawe, mimo że odprowadzeń jest dwanaście, nie oznacza to, że tyle samo musi być elektrod. To, jakby nie patrzeć, jeden z częstszych błędów na praktykach – wiele osób myśli, że liczba odprowadzeń równa się ilości elektrod. W praktyce to właśnie z tych dziesięciu punktów pomiarowych aparat generuje 12 różnych odprowadzeń, korzystając z kombinacji sygnałów między elektrodami. Można to porównać trochę do matematycznych kombinacji – z tych kilku punktów zbiera się bardzo rozbudowaną informację o pracy serca z różnych stron. Takie postępowanie opisują wytyczne Polskiego Towarzystwa Kardiologicznego oraz międzynarodowe standardy, np. American Heart Association, więc dobrze się tego trzymać. Moim zdaniem warto od razu zapamiętać rozmieszczenie elektrod – nie tylko dla testów, ale w praktyce zawodowej to podstawa bezpiecznego i prawidłowego wykonania badania EKG. Z mojego doświadczenia, im więcej się ćwiczy takie układanie elektrod, tym szybciej i sprawniej idzie potem w codziennej pracy. Na marginesie: czasem spotyka się systemy z większą liczbą elektrod, np. do monitorowania Holtera albo badań bardziej zaawansowanych, ale klasyczny 12-odprowadzeniowy EKG to zawsze 10 elektrod – i tego warto się trzymać.

Pytanie 8

Jaką funkcję pełni przedstawiona na rysunku procedura BIOS?

Ilustracja do pytania
A. Przyśpiesza operacje zapisu danych na dysk SSD podczas zamykania systemu operacyjnego.
B. Umożliwia wykonanie testu poprawności działania dysku twardego podczas uruchomienia systemu operacyjnego.
C. Umożliwia odczytanie parametrów dysku twardego podczas uruchomienia systemu operacyjnego.
D. Przyśpiesza operacje odczytu danych z dysku SSD podczas uruchomienia systemu operacyjnego.
Wybrana odpowiedź jest prawidłowa, bo dokładnie takie zadanie realizuje procedura SMART Self-Test w BIOS-ie. Ten mechanizm – moim zdaniem jeden z najbardziej niedocenianych przez zwykłych użytkowników – pozwala kontrolować stan techniczny dysku twardego już podczas startu komputera. BIOS uruchamia tzw. autotest SMART, czyli Self-Monitoring, Analysis and Reporting Technology. Chodzi tu o wczesne wykrycie problemów z dyskiem, zanim jeszcze system operacyjny wystartuje na dobre. Praktyczny sens tego rozwiązania? Jeśli dysk twardy zaczyna mieć jakieś błędy mechaniczne lub logiczne, BIOS wykryje to podczas procesu POST (Power-On Self-Test) i wyświetli odpowiedni komunikat. Z mojego doświadczenia wynika, że takie ostrzeżenia często pozwalają na uratowanie danych, zanim dysk odmówi całkowicie posłuszeństwa. To jest zgodne z najlepszymi praktykami branżowymi – regularny monitoring SMART i szybka reakcja na błędy to podstawa zarządzania sprzętem w każdym poważnym środowisku IT. Warto wiedzieć, że wyniki testu SMART są analizowane na podstawie kilkudziesięciu parametrów, takich jak liczba relokowanych sektorów, czas rozruchu, czy liczba błędów odczytu. Współczesne standardy zalecają, żeby nie ignorować alertów SMART i natychmiast wykonać kopię zapasową, jeśli pojawi się jakiekolwiek ostrzeżenie. To dobra inwestycja w bezpieczeństwo danych – sam zawsze radzę, żeby mieć to ustawienie włączone, nawet jeśli trochę wydłuża start systemu.

Pytanie 9

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. permutację.
B. rekurencję.
C. iterację.
D. inkrementację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 10

Które polecenie umożliwia śledzenie drogi pakietów w sieci?

A. ifconfig
B. tracert
C. ipconfig
D. ping
Polecenie tracert (albo traceroute na systemach Linux) to jedno z podstawowych narzędzi diagnostycznych w sieciach komputerowych. Pozwala ono na śledzenie trasy, jaką pakiet IP pokonuje od komputera źródłowego do wskazanego hosta docelowego. To bardzo przydatne, gdy próbujesz zdiagnozować, gdzie na trasie pojawiają się opóźnienia czy utraty pakietów. Z technicznego punktu widzenia tracert wykorzystuje pole TTL (Time To Live) w nagłówku pakietu IP. Każdy kolejny pakiet wysyłany przez tracert ma zwiększany TTL, co powoduje, że po drodze routery odsyłają pakiety ICMP „Time Exceeded”, a my widzimy każdy kolejny przeskok (hop). To taka swoista mapa przejścia pakietu przez wszystkie routery pośrednie. Moim zdaniem umiejętność korzystania z tracert to absolutna podstawa dla każdego administratora czy nawet zwykłego technika sieciowego. W praktyce często przydaje się, gdy ktoś mówi, że 'internet nie działa' – szybko można sprawdzić, na którym etapie coś się psuje, czy problem jest lokalny czy globalny. W wielu firmach, zwłaszcza tych z rozproszoną infrastrukturą, codziennie korzysta się z takich narzędzi, żeby wykryć błędy routingu albo nieprawidłową konfigurację routerów. Dla ciekawych: w standardzie IPv6 polecenie funkcjonuje analogicznie, chociaż czasem są drobne różnice w obsłudze ICMPv6. Z mojego doświadczenia – niejedną zagadkową awarię udało mi się wytropić właśnie z pomocą tracert. Warto pamiętać, że nie wszystkie routery odpowiadają na te pakiety – czasem widać gwiazdki, ale to już inna historia związana z politykami bezpieczeństwa.

Pytanie 11

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. tar
B. raw
C. rar
D. tga
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 12

W celu rejestracji promieniowania radioizotopu nagromadzonego w narządach stosowana jest

A. lampa kwarcowa.
B. bomba kobaltowa.
C. kamera gamma.
D. lampa rentgenowska.
Kamera gamma to naprawdę kluczowe narzędzie w medycynie nuklearnej, zwłaszcza jeśli chodzi o obrazowanie narządów po podaniu pacjentowi radioizotopu. Z jej pomocą można doskonale obserwować rozkład substancji promieniotwórczej w ciele, co daje lekarzom bardzo precyzyjny obraz funkcji narządów, na przykład serca, tarczycy albo nerek. Z moich obserwacji wynika, że kamera gamma to wręcz standard w diagnostyce scyntygraficznej – bez niej nie byłoby możliwe wykonanie takich badań jak scyntygrafia kości czy perfuzyjna scyntygrafia mięśnia sercowego. Fachowo rzecz biorąc, kamera gamma rejestruje promieniowanie gamma emitowane przez izotopy (na przykład technet-99m), które zostały wprowadzone do organizmu. Pozwala to na nieinwazyjne wykrywanie zmian chorobowych, takich jak ogniska zapalne czy guzy, często dużo wcześniej niż tradycyjne metody obrazowe. Praktyka pokazuje, że to rozwiązanie jest nie tylko skuteczne, ale też stosunkowo bezpieczne dla pacjenta, bo dawki promieniowania są optymalizowane zgodnie z normami i zaleceniami międzynarodowymi (np. IAEA, EANM). Moim zdaniem, umiejętność rozpoznania sprzętu wykorzystywanego do takiej diagnostyki to absolutna podstawa dla każdego, kto chce pracować w dziedzinie technik medycznych lub biomedycznych. Nawet jeśli ktoś nie widział jeszcze takiej kamery na żywo, warto już teraz wiedzieć, jak kluczowe są jej możliwości.

Pytanie 13

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. EEG
B. KTG
C. RTG
D. EKG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 14

Podczas uruchamiania komputera procedura POST testuje poprawność działania

A. tylko karty graficznej oraz karty sieciowej.
B. dysków, napędów optycznych i kart pamięci.
C. procesora, pamięci RAM, karty graficznej oraz dysków twardych.
D. tylko pamięci RAM i kart pamięci.
Procedura POST (Power-On Self Test) to taki pierwszy etap uruchamiania komputera, który sprawdza, czy najważniejsze podzespoły działają poprawnie. Moim zdaniem to jeden z tych procesów, o których często się zapomina, a bez niego komputer nawet nie ruszy dalej! POST weryfikuje przede wszystkim, czy procesor, pamięć RAM, karta graficzna oraz dyski twarde są sprawne i prawidłowo podłączone. Bez tych elementów nie da się zainicjować systemu operacyjnego ani nawet wyświetlić komunikatów o błędach. W praktyce, jeśli np. pamięć RAM jest uszkodzona, komputer wyda sygnał dźwiękowy lub pokaże odpowiedni komunikat na ekranie (jeśli karta graficzna działa). Z mojego doświadczenia, najczęściej spotykanymi problemami podczas POST są właśnie źle włożone pamięci RAM lub brak sygnału z karty graficznej. Branżowe dobre praktyki podkreślają, żeby zawsze zacząć diagnostykę komputera od tych podstawowych komponentów, zanim przejdzie się do drobniejszych usterek. Procedura POST jest częścią standardu BIOS/UEFI i to dzięki niej użytkownik od razu wie, że coś jest nie tak, zanim system operacyjny w ogóle zacznie się ładować. Dodatkowo, POST nie sprawdza urządzeń peryferyjnych typu drukarki czy skanery, tylko skupia się na tym, bez czego komputer nie ruszy. To naprawdę ułatwia życie każdemu, kto zajmuje się serwisem komputerowym – po dźwiękach beep można od razu zorientować się, gdzie jest błąd. Taką diagnostykę można znaleźć w każdym nowoczesnym pececie i to jest absolutny standard branżowy.

Pytanie 15

Zaćma fotochemiczna jest wywoływana promieniowaniem

A. VIS
B. UV-A
C. UV-B
D. IR-C
Zaćma fotochemiczna to taki typ uszkodzenia soczewki oka, który jest wywoływany przez długotrwałe lub intensywne narażenie na promieniowanie ultrafioletowe, głównie w zakresie UV-A. To właśnie ten zakres fal elektromagnetycznych (320–400 nm) przenika najgłębiej do oka i może powodować zmiany w strukturze białek soczewki, prowadząc do jej zmętnienia. Stosunkowo mało osób zdaje sobie sprawę, że zwykłe przebywanie na słońcu bez odpowiedniej ochrony oczu przez wiele lat, nawet poza tropikami, może wywołać takie zmiany. W praktyce zawodowej, na przykład w branży spawania czy pracy w laboratoriach, stosuje się specjalne okulary ochronne, które blokują UV-A, bo właśnie to pasmo jest najbardziej podstępne – nie czujemy go, a uszkodzenia pojawiają się powoli. Zgodnie z zaleceniami BHP oraz wytycznymi międzynarodowymi (np. normy EN 166, EN 170) ochrona oczu przed UV-A jest uznawana za absolutny standard. Moim zdaniem, warto też wiedzieć, że UV-B ma bardziej powierzchniowe działanie i powoduje głównie oparzenia rogówki, natomiast UV-A dociera głębiej. Wielu okulistów zwraca uwagę, że świadomość tej zależności pozwala lepiej dbać o wzrok – dobre okulary przeciwsłoneczne powinny mieć filtr UV-A, nie tylko UV-B. Ja zawsze staram się wybierać takie, które wyraźnie mają oznaczenie 100% UV, bo to daje największe bezpieczeństwo. Warto to zapamiętać, szczególnie jeśli pracujesz dużo na zewnątrz albo wykonujesz prace w warunkach dużej ekspozycji na światło.

Pytanie 16

Zabieg diametrii krótkofalowej powoduje

A. spowolnienie procesów metabolicznych.
B. obniżenie pobudliwości nerwowo-mięśniowej.
C. spadek liczby leukocytów.
D. zwężenie naczyń krwionośnych.
Zabieg diametrii krótkofalowej to jedna z form fizykoterapii, gdzie wykorzystuje się prądy o wysokiej częstotliwości w celu uzyskania efektów terapeutycznych, głównie głębokiego przegrzania tkanek. Podczas prawidłowo przeprowadzonego zabiegu, jednym z typowych efektów jest właśnie obniżenie pobudliwości nerwowo-mięśniowej. To oznacza, że mięśnie i nerwy stają się mniej wrażliwe na bodźce, co jest wykorzystywane na przykład przy różnego rodzaju stanach bólowych, napięciach mięśniowych albo przy leczeniu nerwobóli. Z mojego doświadczenia wynika, że diametralnie poprawia to komfort pacjenta z przewlekłymi zespołami bólowymi czy po urazach, gdzie nadmierna pobudliwość mięśni przeszkadza w rehabilitacji. Branżowe standardy (np. zalecenia Polskiego Towarzystwa Fizjoterapii) zalecają stosowanie tej metody przy schorzeniach takich jak zapalenia nerwów, neuralgie czy przykurcze mięśniowe właśnie z powodu tego efektu. Praktycznie rzecz biorąc, po dobrze poprowadzonej diametrii pacjenci często odczuwają mniejsze napięcie i większą swobodę ruchów. Warto wiedzieć, że ten efekt jest też powodem, dla którego diametrii nie stosuje się np. u osób z osłabioną czynnością nerwowo-mięśniową, bo mogłoby to pogłębić problem. Przy okazji, zabiegi te poprawiają ukrwienie i działają przeciwobrzękowo, ale ich kluczowym mechanizmem w kontekście pytania jest właśnie zmniejszenie pobudliwości nerwowo-mięśniowej. Fajnie znać takie praktyczne aspekty, bo potem łatwiej dobrać odpowiednią metodę do konkretnego przypadku.

Pytanie 17

Które ustawienie należy wybrać na multimetrze w celu pomiaru napięcia 12 V w obwodzie prądu stałego?

A. ACV
B. DCA
C. ACA
D. DCV
Wybierając opcję DCV na multimetrze, od razu ustawiasz się na właściwy tor do bezpiecznego i precyzyjnego pomiaru napięcia 12 V w obwodzie prądu stałego. Skrót DCV oznacza dosłownie „Direct Current Voltage”, czyli napięcie prądu stałego. To jest dokładnie to, co spotkasz chociażby w instalacjach samochodowych, zasilaczach czy popularnych układach elektronicznych. Dobrą praktyką jest przed pomiarem ocenić spodziewaną wartość napięcia i – jeśli multimetr nie jest automatyczny – wybrać zakres minimalnie wyższy od spodziewanego. To zabezpiecza zarówno miernik, jak i wynik przed błędami. Z mojego doświadczenia wynika, że wielu początkujących myli DCV z DCA, bo oba mają „DC”, ale przy napięciu zawsze chodzi o V jak „Voltage”. W przewodnikach i instrukcjach do multimetrów zawsze podkreśla się, żeby nie mierzyć napięcia na ustawieniu do prądu, bo można spalić bezpiecznik w mierniku – niby oczywiste, ale w praktyce zdarza się często. DCV to podstawa pracy z klasycznymi bateriami, akumulatorami i wszędzie tam, gdzie nie ma zmiany kierunku przepływu prądu. W branży elektronicznej i energetycznej takie podejście jest standardem i świadczy o profesjonalizmie obsługi narzędzi.

Pytanie 18

Technologia OLED znajduje zastosowanie w

A. nagrywarkach Blu-Ray.
B. monitorach komputerowych.
C. urządzeniach sieciowych.
D. kartach pamięci Secure Digital.
OLED, czyli Organic Light Emitting Diode, to technologia wyświetlania obrazu, która naprawdę zrewolucjonizowała rynek monitorów komputerowych i telewizorów. Zamiast wykorzystywać podświetlenie LED, jak w klasycznych LCD, OLED pozwala na bezpośrednie świecenie każdego piksela. To daje rewelacyjną głębię czerni, bo piksel po prostu się wyłącza – nie świeci, nie pobiera energii, nie przepuszcza światła. Z mojego punktu widzenia największy plus to właśnie kontrast: w OLED-ach czarne jest naprawdę czarne, a kolory są mega żywe. Gracze i graficy bardzo często wybierają monitory z OLED, bo oprócz jakości obrazu mają one szybki czas reakcji – ważne przy dynamicznych grach czy montażu wideo. Często słyszy się, że OLED to też mniejsze zużycie energii, przynajmniej przy wyświetlaniu ciemnych treści. W branży panuje opinia, że OLED wyznacza standard nowoczesnych monitorów premium. Są tu też pewne wyzwania, np. wypalanie się pikseli przy statycznych obrazach, ale w praktyce, przy normalnym użytkowaniu i nowych technologiach zarządzania obrazem, nie jest to aż tak problematyczne, jak się kiedyś mówiło. Z ciekawostek: OLED stosuje się już nawet w wyświetlaczach do samochodów i najnowszych smartfonach, ale to właśnie monitory komputerowe są przykładem, gdzie ta technologia daje naprawdę zauważalną różnicę na co dzień. Szczerze mówiąc, jak ktoś raz popatrzy na monitor OLED, to potem ciężko wrócić do zwykłego LCD. Warto o tym pamiętać, szukając sprzętu do pracy z grafiką czy do gier.

Pytanie 19

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. EXT4
B. NTFS
C. FAT32
D. FAT16
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 20

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. importu rejestru.
B. podłączenia rejestru sieciowego.
C. kopii rejestru.
D. oczyszczania rejestru.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 21

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. liczbie cykli zegara.
B. milisekundach.
C. liczbie bitów do odczytu.
D. sekundach.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 22

Pojęcie „Architektura Harvardska” odnosi się do

A. komunikacji komputera z ploterem.
B. programów współpracujących z maszynami CNC.
C. topologii sieci komputerowej.
D. pracy procesora.
Architektura Harvardska to jedno z podstawowych pojęć w obszarze projektowania procesorów oraz mikroprocesorów. Generalnie chodzi w niej o to, że pamięć programu i pamięć danych są fizycznie rozdzielone — procesor ma osobne magistrale do komunikacji z każdą z nich. Z mojego doświadczenia wynika, że takie rozwiązanie daje dużą przewagę w szybkości przetwarzania. Dla przykładu, jeśli mamy mikrokontroler oparty na architekturze Harvardskiej, może on w jednym cyklu pobrać dane z jednej pamięci i instrukcję z drugiej, praktycznie równocześnie. Brzmi jak magia, ale to po prostu przemyślana inżynieria. Jest to szczególnie popularne w systemach embedded, np. w rodzinie AVR czy PIC, które często używa się chociażby w automatyce przemysłowej lub elektronice użytkowej. W odróżnieniu od architektury von Neumanna, gdzie jest jedna magistrala i pamięć, co może prowadzić do tzw. wąskiego gardła, tak zwany bottleneck. Moim zdaniem to rozdzielenie jest świetnym przykładem praktycznego wykorzystania teorii w realnych urządzeniach. Warto też wiedzieć, że w nowoczesnych procesorach hybrydowe podejście bywa stosowane, ale sama zasada architektury Harvardskiej to właśnie praca procesora, a nie topologia sieci czy komunikacja z ploterem. W praktyce często spotykam się z pomyłkami w tym zakresie, dlatego uważam, że warto dobrze rozróżniać te pojęcia.

Pytanie 23

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. GPU
B. ALU
C. FPU
D. DSP
Jednostka ALU, czyli Arithmetic Logic Unit, to absolutna podstawa każdego procesora. To właśnie tutaj odbywają się wszystkie operacje stałoprzecinkowe: dodawanie, odejmowanie, przesunięcia bitowe, porównania czy proste operacje logiczne typu AND, OR. W praktyce, jak piszemy nawet najprostszy kawałek kodu w C czy assemblerze, to praktycznie każda instrukcja arytmetyczna przechodzi przez ALU. Moim zdaniem warto pamiętać, że ALU działa na liczbach całkowitych, a nie zmiennoprzecinkowych. W komputerach PC, ale też w mikrokontrolerach typu AVR czy ARM Cortex-M, ALU obsługuje praktycznie wszystkie codzienne operacje matematyczne. W sumie to podstawa np. przy obsłudze liczników, timerów, adresacji pamięci, operacjach na portach I/O. Standardy projektowania procesorów wyraźnie rozgraniczają ALU od innych jednostek, które odpowiadają za specjalistyczne zadania, np. FPU do operacji zmiennoprzecinkowych. Praktyczna rada: jak pracujecie z niskopoziomowym kodem, warto zaglądać do dokumentacji i zobaczyć, które instrukcje korzystają z ALU. Z mojego doświadczenia, zrozumienie działania ALU bardzo przydaje się przy optymalizowaniu szybkości programów i debugowaniu problemów sprzętowych. W wielu systemach embedded, gdzie liczy się każdy cykl zegara, znajomość możliwości ALU potrafi uratować projekt.

Pytanie 24

Który sterownik odpowiada za bezpośredni dostęp do pamięci?

A. DMI
B. PIO
C. IRQ
D. DMA
Sterownik DMA (Direct Memory Access) to naprawdę kluczowy element w architekturze komputerów, jeśli chodzi o sprawne przesyłanie danych. Chodzi tu o to, że urządzenia peryferyjne, jak np. karty sieciowe, dyski twarde czy nawet nowoczesne karty dźwiękowe, mogą przekazywać lub odbierać informacje bezpośrednio do/z pamięci RAM, praktycznie z pominięciem procesora. To bardzo usprawnia pracę systemu, bo CPU nie musi zajmować się każdym bajtem przesyłu — po prostu zleca zadanie kontrolerowi DMA i wraca do swoich głównych zadań. W praktyce, zwłaszcza w systemach typu embedded albo przy intensywnych operacjach na dużych plikach czy transmisjach multimedialnych, DMA skraca czas przesyłu i odciąża procesor. W branży to wręcz standard wykorzystywania DMA, żeby uzyskać wyższą przepustowość i mniejsze opóźnienia, co jest istotne na przykład w systemach czasu rzeczywistego. Moim zdaniem, jak ktoś chce być dobrym technikiem, musi rozumieć, jak działa DMA i kiedy warto go stosować — czasem to po prostu jedyna opcja, bo bezpośredni dostęp do pamięci pozwala uzyskać dużo większą wydajność niż klasyczne rozwiązania programowe. Nawet BIOS i nowoczesne systemy operacyjne korzystają z DMA, żeby efektywnie zarządzać transferami danych. To taki trochę niewidzialny bohater każdej płyty głównej, a jak się to raz zrozumie, to już później łatwiej łapie się koncepcję działania zaawansowanych systemów komputerowych.

Pytanie 25

W jakim celu stosuje się Standard HL7 (Health Level Seven)?

A. Wskazania poziomu świadczonych usług medycznych.
B. Określenia stopnia zabezpieczeń danych osobowych w informatycznych systemach medycznych.
C. Umożliwienia elektronicznej rejestracji usług medycznych.
D. Umożliwienia elektronicznej wymiany informacji w środowiskach medycznych.
Standard HL7 (Health Level Seven) jest fundamentem, jeśli chodzi o elektroniczną wymianę informacji w środowiskach medycznych. Moim zdaniem to wręcz podstawa, zwłaszcza w dzisiejszych czasach, gdy placówki ochrony zdrowia coraz częściej korzystają z różnych systemów informatycznych. HL7 to nie jest tylko „jakiś tam” protokół – to cała rodzina standardów, które określają, jak powinny wyglądać komunikaty przesyłane między np. szpitalnym systemem informacyjnym HIS, systemem laboratoryjnym LIS czy aplikacjami wspierającymi pracę przychodni. Chodzi o to, żeby lekarz, pielęgniarka czy laborant nie musieli „przepisywać” danych z jednego komputera do drugiego – HL7 robi to za nich, zapewniając spójność i aktualność informacji. Przykład z życia: badania laboratoryjne wykonane poza głównym szpitalem automatycznie pojawiają się w karcie pacjenta, niezależnie od producenta używanego oprogramowania. HL7 to też podstawa przy wdrożeniach ogólnopolskich, jak e-recepta czy systemy raportujące do NFZ. To, co mnie zawsze zaskakuje, to fakt, że HL7 jest stosowany praktycznie na całym świecie, więc polskie placówki mogą bez większych problemów współpracować z zagranicznymi partnerami. Warto też pamiętać, że HL7 to nie tylko wymiana tekstów – są też wersje, które wykorzystują XML i FHIR do nowoczesnej, bezpiecznej wymiany danych np. przez internet. Takie rzeczy naprawdę robią różnicę w codziennej pracy medyków i informatyków.

Pytanie 26

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Procesor
B. Pamięć RAM
C. Układ I/O
D. Pamięć flash
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 27

Z elektrokardiogramu wynika, że rytm serca rejestrowany i wskazywany przez elektrokardiograf wynosi

Ilustracja do pytania
A. 60 uderzeń na minutę.
B. 96 uderzeń na minutę.
C. 84 uderzeń na minutę.
D. 75 uderzeń na minutę.
Rytm serca wynoszący 84 uderzeń na minutę, odczytany z elektrokardiogramu, to wartość mieszcząca się w granicach tzw. normy fizjologicznej dla dorosłego człowieka. W praktyce medycznej, prawidłowy rytm zatokowy serca to zwykle zakres 60–100 uderzeń na minutę według wytycznych Europejskiego Towarzystwa Kardiologicznego. Odpowiedź 84 jest więc nie tylko zgodna z odczytem z wykresu, ale też zgodna z rzeczywistością kliniczną – to ani bradykardia, ani tachykardia. Z mojego doświadczenia wynika, że umiejętność poprawnego liczenia częstości rytmu z EKG to fundament dla techników elektroradiologii, pielęgniarek i ratowników medycznych. W praktyce wygląda to tak: liczysz liczbę szczytów QRS w określonym czasie, najczęściej w 6 sekund, mnożysz przez 10 i masz wynik. Dzięki takiej metodzie błyskawicznie można ocenić, czy pacjent wymaga interwencji. Moim zdaniem, regularne ćwiczenie tej analizy bardzo pomaga w realnych sytuacjach – szczególnie na oddziale ratunkowym, gdzie czas gra ogromną rolę. Dobrą praktyką jest też porównywanie manualnych obliczeń z wynikiem wskazanym przez elektrokardiograf, bo nawet automaty potrafią się czasem mylić, zwłaszcza przy arytmiach. Warto o tym pamiętać i nie polegać ślepo na maszynie.

Pytanie 28

Aby karta sieciowa automatycznie uzyskiwała adres IP, ruter musi mieć włączony serwer

Ilustracja do pytania
A. DHCP
B. SMTP
C. TCP/IP
D. SSH
Odpowiedź DHCP jest jak najbardziej trafiona, bo to właśnie Dynamic Host Configuration Protocol odpowiada za automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Moim zdaniem, to ogromne ułatwienie, zwłaszcza gdy w sieci mamy kilkanaście czy kilkadziesiąt urządzeń – ręczne wpisywanie adresów IP byłoby uciążliwe, a przy tym łatwo o pomyłki. DHCP działa na zasadzie wynajmowania adresów IP na określony czas, czyli tzw. dzierżawy (lease). Dzięki temu urządzenia połączone z siecią „dogadują się” z serwerem DHCP – najczęściej właśnie routerem – i otrzymują wszystkie niezbędne dane: IP, maskę podsieci, bramę domyślną, a nawet adresy DNS. To jest zgodne z zaleceniami m.in. RFC 2131, gdzie znajdziesz opis standardu. W praktyce, niemal każdy nowoczesny router domowy czy firmowy ma opcję serwera DHCP włączoną domyślnie. Co ciekawe, dobrze skonfigurowany DHCP pozwala też na rezerwacje adresów IP dla określonych urządzeń, co pomaga np. w zarządzaniu drukarkami sieciowymi albo serwerami. Z mojego doświadczenia wynika, że bez DHCP w większych sieciach często dochodzi do konfliktów adresów lub zwyczajnego bałaganu. Dlatego zdecydowanie warto znać tę usługę, bo jej prawidłowa konfiguracja to podstawa pracy administratora sieci.

Pytanie 29

Niezbędna jest archiwizacja danych na płycie Blue-Ray jednokrotnego zapisu. Płyta taka ma oznaczenie

A. BD ROM
B. BD R
C. BR R
D. BR RW
Wybór oznaczenia BD-R jest w pełni uzasadniony, jeśli myślisz o archiwizacji danych na płycie Blu-ray, która ma być jednokrotnego zapisu. Skrót BD-R pochodzi od Blu-ray Disc Recordable, czyli płyta przeznaczona do jednokrotnego nagrania. Po zapisaniu danych nie da się ich ani nadpisać, ani usunąć – i to właśnie czyni ten format idealnym do archiwizacji, gdzie kluczowa jest trwałość i nienaruszalność danych po zakończeniu procesu zapisu. Branżowe standardy zalecają wykorzystywanie nośników jednokrotnego zapisu do backupów, bo wyklucza to przypadkowe nadpisanie lub modyfikację cennych informacji. Moim zdaniem dobrym przykładem z życia jest archiwizacja dokumentacji medycznej czy danych finansowych – tam, gdzie przepisy wymagają zachowania oryginalności zapisu na długie lata. Co ciekawe, płyty BD-R mają też różne pojemności – najpopularniejsze to 25 GB i 50 GB, ale są też wersje wielowarstwowe. Jeszcze taka ciekawostka: wiele firm IT stosuje je właśnie do tzw. cold storage – czyli przechowywania danych rzadko używanych, ale wymagających dużej niezawodności i niezmienności. W porównaniu z innymi nośnikami optycznymi, BD-R wypadają dość solidnie jeśli chodzi o trwałość – przy odpowiednich warunkach przechowywania, dane mogą przetrwać nawet kilkadziesiąt lat. Pracując w technikum, widziałem, że nawet duże firmy korzystają z BD-R do archiwizacji – i to jest po prostu sprawdzona praktyka.

Pytanie 30

W jakim celu stosuje się podział użytkowników na grupy w systemie operacyjnym?

A. Umożliwia zwiększenie liczby użytkowników w systemie.
B. Umożliwia prawidłowe działanie systemu.
C. Ułatwia kontrolę i przydział pamięci operacyjnej podczas pracy systemu.
D. Ułatwia zarządzanie prawami użytkowników w systemie.
Wiele osób myśli, że podział użytkowników na grupy to przede wszystkim kwestia prawidłowego działania systemu albo jakiś sposób na zwiększenie liczby użytkowników, ale to trochę mijanie się z celem. Przede wszystkim, system operacyjny sam w sobie obsługuje użytkowników bez względu na to, czy są oni podzieleni na grupy, czy nie – to raczej kwestia organizacyjna niż wymóg techniczny do działania systemu. Ktoś mógłby też pomyśleć, że chodzi o kontrolowanie i przydzielanie pamięci operacyjnej, ale to już zupełnie inna działka – za zarządzanie pamięcią odpowiadają zupełnie inne mechanizmy, a grupy użytkowników nie mają wpływu na ilość RAM przydzielaną konkretnym osobom. No i jeszcze kwestia zwiększania liczby użytkowników – tutaj też nie ma żadnej zależności, bo liczba użytkowników nie zależy od tego, czy są oni w grupach, tylko od ograniczeń samego systemu czy polityki firmy. Częsty błąd myślowy polega na upraszczaniu tematu i przypisywaniu grupom użytkowników funkcji, których nie mają. Z mojego doświadczenia wynika, że takie nieporozumienia wynikają głównie z mylenia pojęć: grupy są do zarządzania uprawnieniami i dostępem, a nie do technicznych aspektów funkcjonowania systemu czy hardware'u. W praktyce, główna rola grup to zbiorowe nadawanie określonych praw dostępu i ułatwienie administrowania, co jest zgodne z najlepszymi praktykami IT oraz standardami zarządzania bezpieczeństwem w organizacjach.

Pytanie 31

Które polecenie SQL nie modyfikuje tabeli bazy danych?

A. INSERT
B. DELETE
C. UPDATE
D. SELECT
Polecenie SELECT w języku SQL służy wyłącznie do pobierania danych z bazy, nie wpływa na strukturę ani zawartość tabeli. To takie narzędzie, które pozwala wyciągnąć konkretne informacje, np. listę wszystkich pracowników albo produkty droższe niż 100 zł – wszystko bez jakiejkolwiek ingerencji w istniejące dane. To jest zgodne z zasadą rozdzielenia operacji odczytu od zapisu, co jest szczególnie doceniane w środowiskach produkcyjnych, gdzie bezpieczeństwo i integralność danych mają pierwszorzędne znaczenie. W praktyce programista, który chce tylko sprawdzić, ile rekordów spełnia dany warunek, nie powinien polegać na UPDATE, DELETE czy INSERT – te polecenia są przeznaczone do faktycznej modyfikacji bazy. Moim zdaniem to właśnie SELECT stanowi podstawę analizy danych i raportowania – spotkałem się z tym nawet w projektach, gdzie dostęp do tabeli ograniczał się tylko do SELECT dla większości użytkowników, żeby nie dopuścić do przypadkowych zmian. Co ciekawe, w standardzie SQL bardzo wyraźnie rozdziela się instrukcje DML (Data Manipulation Language, czyli UPDATE, INSERT, DELETE) od instrukcji tylko do odczytu, takich jak SELECT. Warto też pamiętać, że SELECT sam w sobie nie blokuje rekordów na czas odczytu, co zapewnia wydajność nawet przy wielu jednoczesnych zapytaniach – to duża zaleta w dynamicznych systemach.

Pytanie 32

Które polecenie SQL służy do utworzenia bazy danych?

A. RUN DATABASE
B. MAKE DATABASE
C. DO DATABASE
D. CREATE DATABASE
Polecenie CREATE DATABASE jest uniwersalnym i oficjalnym standardem SQL do tworzenia nowych baz danych w systemach zarządzania bazami danych takich jak MySQL, PostgreSQL, czy SQL Server. Użycie tej komendy jest zalecane zawsze, gdy chcesz zainicjować nową przestrzeń do przechowywania danych – bez względu na to, czy tworzysz środowisko testowe, czy produkcyjne. W praktyce, jeśli chcesz założyć bazę o nazwie np. 'sklep', wystarczy wpisać: CREATE DATABASE sklep;. Co ciekawe, większość nowoczesnych silników baz danych wspiera dodatkowe opcje, np. określenie kodowania znaków czy lokalizacji plików, choć to już zależy od konkretnego systemu. Z mojego doświadczenia wynika, że znajomość tej komendy jest absolutną podstawą w pracy nawet początkującego administratora baz danych – praktycznie nie da się zacząć pracy z SQL bez niej. Warto też pamiętać, że CREATE DATABASE jest zgodny z normą ANSI SQL, co oznacza, że polecenie to działa w wielu różnych systemach, z niewielkimi wyjątkami. Stosowanie polecenia w formie CREATE DATABASE gwarantuje największą przenośność Twoich skryptów SQL między różnymi bazami danych. Moim zdaniem, nawet jeśli ktoś korzysta z narzędzi graficznych, dobrze znać właśnie tę składnię – w końcu każda poważniejsza automatyzacja czy migracja danych opiera się na tego typu poleceniach. Branżowe dobre praktyki zalecają, aby przed wykonaniem CREATE DATABASE mieć przygotowany plan nazw i struktur, unikając kolizji nazw oraz wdrażając odpowiednie uprawnienia dostępu.

Pytanie 33

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. copy kat_zrodlowy\dane.txt kat_docelowy
B. move kat_zrodlowy/dane.txt kat_docelowy
C. copy kat_docelowy kat_zrodlowy/dane.txt
D. move kat_docelowy kat_zrodlowy\dane.txt
Kiedy myśli się o archiwizacji danych w Windowsie, intuicja często podpowiada różne rozwiązania, jednak nie wszystkie prowadzą do osiągnięcia zamierzonego efektu, jakim jest bezpieczne skopiowanie danych z jednego miejsca do drugiego bez ich utraty. Często mylone są polecenia move i copy. Move służy do przenoszenia plików, a nie ich kopiowania, więc użycie move powoduje usunięcie pliku ze źródła, co stoi w sprzeczności z samą ideą archiwizacji. To dość częsty błąd, bo na pierwszy rzut oka oba polecenia wyglądają podobnie, ale skutki są zupełnie inne – move nie pozostawia pliku w oryginalnej lokalizacji. Z kolei zamiana kolejności parametrów lub pomylenie separatorów ścieżek (np. używanie / zamiast \ w Windowsie) prowadzi do błędów składniowych lub niezamierzonego działania polecenia. System Windows domyślnie używa odwrotnych ukośników (\), dlatego wpisanie ścieżki jak w Linuxie może powodować nieoczekiwane rezultaty. Są też osoby, które próbują kopiować katalog docelowy do pliku źródłowego, co jest logicznie niedopuszczalne i kończy się błędem już na etapie interpretacji polecenia przez system. Kluczowa różnica między poleceniami copy a move polega na tym, że tylko copy zachowuje oryginał pliku, co jest podstawą bezpiecznej archiwizacji i zgodne z politykami bezpieczeństwa IT. Moim zdaniem, warto naprawdę poćwiczyć te polecenia na własnych danych, bo dopiero praktyka pozwala zrozumieć, dlaczego tak ważna jest poprawna składnia i dobór narzędzia do zadania. Wielu początkujących administratorów polega na przyzwyczajeniach z innych systemów, co niestety często prowadzi do błędów i utraty danych.

Pytanie 34

Aby zapobiec utracie danych w programie obsługi przychodni, należy codziennie wykonywać

A. aktualizację systemu operacyjnego.
B. aktualizację programu.
C. kopię zapasową danych.
D. punkt przywracania systemu operacyjnego.
Najlepszą i najpewniejszą metodą ochrony danych przed ich utratą, szczególnie w takim środowisku jak przychodnia, jest codzienne wykonywanie kopii zapasowej danych. To podstawa bezpieczeństwa informatycznego i praktycznie każdy specjalista IT na świecie zaleca tę czynność jako absolutnie niezbędną. W razie jakiejkolwiek awarii – czy to sprzętowej, czy wynikającej z błędu ludzkiego, ataku wirusa, ransomware albo przypadkowego usunięcia pliku – tylko backup daje realną szansę na odzyskanie cennych informacji. Z mojego doświadczenia wynika, że nawet najbardziej zaawansowane zabezpieczenia nie zastąpią regularnego robienia kopii zapasowych. W środowiskach medycznych jest to wręcz wymóg prawny i wynikający z RODO obowiązek zapewnienia ciągłości dostępu do danych pacjentów. Niejednokrotnie spotkałem się z sytuacją, gdzie to właśnie backup uratował placówkę przed katastrofalną stratą – kosztów, nerwów i poważnych konsekwencji prawnych. Standard branżowy ISO 27001 jasno wskazuje konieczność wdrażania polityk backupowych. W praktyce często stosuje się rozwiązania automatyczne, które codziennie, nawet po godzinach pracy, wykonują kopie zapasowe w chmurze albo na zewnętrznych nośnikach. Tak naprawdę backup to taki swoisty parasol ochronny – bez niego każdy system jest podatny na nieprzewidziane sytuacje, a w medycynie nie ma miejsca na ryzyko. Codzienna kopia zapasowa to inwestycja w spokój i bezpieczeństwo danych.

Pytanie 35

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. zastrzeżonymi.
B. publicznymi.
C. pewnymi.
D. chronionymi.
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 36

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Przyśpiesza procesy przemiany materii.
B. Zmniejsza próg odczuwania bólu.
C. Zmniejsza przepływ krwi tętniczej.
D. Zwiększa napięcie mięśni szkieletowych.
Promieniowanie podczerwone (IR) ma dość ciekawe zastosowania zarówno w medycynie, jak i w przemyśle. Najważniejsze jest to, że IR powoduje lokalny wzrost temperatury tkanek, co bezpośrednio wpływa na przyśpieszenie procesów przemiany materii w komórkach – właśnie ta odpowiedź jest prawidłowa. Moim zdaniem, to jeden z lepszych przykładów na to, jak fizyka spotyka się z biologią w praktyce. Jeżeli pomyślimy o naświetlaniu IR w fizykoterapii, to zauważymy, że tego typu zabiegi są wykorzystywane chociażby do poprawy regeneracji po urazach, bo podniesienie temperatury miejscowej przyspiesza metabolizm i napływ substancji odżywczych oraz usuwanie produktów przemiany materii. Branżowe standardy, np. w fizjoterapii, przypisują IR właśnie takie działanie – działanie przyspieszające metabolizm, poprawiające ukrwienie i ogólnie wspierające procesy naprawcze. Nawet w codziennym życiu, kiedy korzystamy z sauny na podczerwień, odczuwamy podniesioną temperaturę skóry i przyspieszone tętno – to wszystko efekty przyspieszonej przemiany materii. Warto pamiętać, że stosowanie IR wymaga zachowania środków ostrożności, bo nadmierne nagrzewanie może prowadzić do poparzeń. Z mojego doświadczenia, te efekty są szczególnie zauważalne przy zabiegach na osoby z przewlekłymi napięciami mięśniowymi, gdzie podczerwień realnie wspiera regenerację. W literaturze branżowej często podkreśla się ten aspekt, więc zdecydowanie warto znać praktyczne zastosowania promieniowania IR.

Pytanie 37

Na zdjęciu przedstawiono

Ilustracja do pytania
A. głowicę USG.
B. lampę SOLLUX.
C. elektrodę AED.
D. sondę TOCO.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 38

Najważniejszą cechą pamięci operacyjnych serwerowych jest ich niezawodność, dlatego powinny być wyposażone w mechanizm kontroli błędów określany skrótem

A. EPP
B. RAS
C. ECC
D. CAS
Prawidłowa odpowiedź to ECC, czyli Error-Correcting Code. To jest obecnie absolutny standard w serwerowych pamięciach RAM, nie tylko dlatego, że ktoś sobie wymyślił, ale dlatego, że bez tego w dużych systemach po prostu nie ma szans na niezawodność. ECC umożliwia wykrywanie i automatyczne korygowanie pojedynczych błędów bitowych, które mogą się pojawiać podczas pracy pamięci – szczególnie ważne przy 24/7, bo w serwerach każda, nawet minimalna, utrata danych może mieć poważne konsekwencje. Moim zdaniem, jeśli ktoś myśli o budowie infrastruktury, na którą ma spaść jakakolwiek odpowiedzialność, to wybór pamięci z ECC jest podstawą. Sam kiedyś widziałem przypadki, gdzie jedna kość bez ECC potrafiła powodować bardzo dziwne, trudne do zdiagnozowania awarie systemu. ECC to nie tylko większy spokój, ale też zgodność ze standardami branżowymi – praktycznie każda poważna serwerownia, data center czy nawet mniejszy system NAS korzysta z tej technologii, bo nikt nie chce tracić danych przez pojedynczy zakłócony bit. Dodatkowo pamięci ECC są często wymagane przez producentów serwerów, żeby gwarancja czy wsparcie serwisowe w ogóle obowiązywało. W praktyce, jeśli planujesz serwery, to ECC absolutnie musi być na liście wymagań, nawet jeśli koszt jest trochę wyższy – to po prostu się opłaca w dłuższej perspektywie.

Pytanie 39

W celu przerwania działania funkcji i powrotu do miejsca jej wywołania należy użyć instrukcji

A. continue
B. break
C. return
D. pause
Instrukcja return jest podstawowym narzędziem, które pozwala zakończyć działanie funkcji w dowolnym momencie jej wykonywania i od razu powrócić do miejsca, z którego funkcja została wywołana. To właśnie dzięki return można przekazać wynik działania funkcji lub nawet całkowicie przerwać jej dalsze instrukcje, jeśli np. wykryjemy jakiś błąd. W praktyce, kiedy piszesz funkcje np. w Pythonie, C++ czy Javie, return jest absolutnym standardem i trudno sobie wyobrazić kod bez niego – to taki „wyjście awaryjne” i narzędzie do komunikacji z resztą programu naraz. Fajny przykład: definiujesz funkcję, która ma policzyć pierwiastek z liczby; jeśli podana liczba jest ujemna, od razu robisz return z komunikatem o błędzie, a jak jest OK, return zwraca wynik obliczeń. Warto wiedzieć, że return kończy funkcję natychmiast, nawet jeśli dalej byłyby jakieś linijki kodu – one już się nie wykonają! Z mojego doświadczenia, dobrym zwyczajem jest używanie return również do jasnego zaznaczania miejsca wyjścia z funkcji, co poprawia czytelność kodu. Branżowe standardy, jak ten opisany w PEP8 dla Pythona albo w dokumentacji C++, jasno wskazują na return jako profesjonalny sposób kończenia funkcji i zwracania wartości. Pamiętaj, że w funkcjach bez zwracanej wartości (np. void w C++) możesz użyć return bez podawania argumentu – i to jest w pełni ok. Takie praktyczne wykorzystanie return znacząco ułatwia zarówno tworzenie, jak i późniejsze utrzymanie kodu.

Pytanie 40

Podczas wymiany podzespołów elektronicznych czułych na wyładowania elektrostatyczne należy zastosować

A. rękawice gumowe.
B. odzież poliestrową.
C. okulary ochronne.
D. opaskę antystatyczną.
Opaska antystatyczna to taki trochę niepozorny gadżet, ale w rzeczywistości jest absolutnie kluczowa, gdy zabierasz się za wymianę podzespołów elektronicznych wrażliwych na wyładowania elektrostatyczne (ESD). Przede wszystkim – jej zadaniem jest wyrównywanie potencjału elektrostatycznego pomiędzy tobą a ziemią, dzięki czemu nie przenosisz przypadkowo ładunku elektrycznego na delikatne układy scalone czy płytki PCB. Sam nie raz widziałem, jak ktoś bez opaski uszkodził RAM czy procesor i to nawet nie czuł żadnego przeskoku. Standardy branżowe, np. IEC 61340-5-1, jasno zalecają stosowanie osobistych środków zabezpieczających przed ESD, w tym właśnie opasek antystatycznych, szczególnie w serwisach, montażowniach albo nawet, jak robisz coś w domu. W praktyce, taka opaska połączona przewodem z uziemieniem lub matą antystatyczną daje ci spokój – nie musisz się martwić, że zniszczysz drogi sprzęt. Moim zdaniem, warto wyrobić sobie taki nawyk nawet przy mniejszych naprawach, bo nie zawsze widać efekty ESD od razu – czasem uszkodzenie wychodzi dopiero po pewnym czasie. Swoją drogą, w profesjonalnych laboratoriach często używa się też mat ESD, fartuchów i specjalnego obuwia, ale opaska to takie absolutne minimum i podstawa dobrej praktyki serwisowej.