Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 5 kwietnia 2026 15:40
  • Data zakończenia: 5 kwietnia 2026 15:51

Egzamin zdany!

Wynik: 26/40 punktów (65,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakiego typu papier należy zastosować w aparacie elektrokardiograficznym?

A. Światłoczuły.
B. Termoczuły.
C. Litograficzny.
D. Samokopiujący.
Wiele osób myli pojęcia dotyczące rodzaju papieru używanego w elektrokardiografii, co jest całkiem zrozumiałe, bo nazwy brzmią podobnie albo kojarzą się z innymi dziedzinami techniki. Papier światłoczuły, choć bardzo popularny w fotografii i dawnych technikach drukarskich, kompletnie nie współgra z mechanizmem działania współczesnych aparatów EKG. Te urządzenia nie mają lamp czy źródeł światła, które mogłyby naświetlać taki papier – cały proces zapisu odbywa się poprzez grzanie selektywnych punktów. Papier litograficzny z kolei to narzędzie przemysłu graficznego, używany przy drukowaniu wielkonakładowym i w ogóle nie ma zastosowania w medycynie. Trochę kusi wybór papieru samokopiującego, bo można by sobie wyobrazić, że taki papier dałby od razu kopię badania – ale EKG nie są do tego przystosowane, a mechanizm samokopiujący opiera się na nacisku, nie na temperaturze. Co więcej, stosowanie innych niż termoczuły rodzajów papieru może prowadzić do uszkodzenia głowicy drukującej albo w ogóle braku zapisu krzywej. Widziałem już przypadki, gdy ktoś próbował oszczędzić i ładował zwykły papier, kończyło się to zawsze frustracją i koniecznością naprawy sprzętu. Często spotykam się też z przekonaniem, że jakikolwiek papier milimetrowy wystarczy – to niestety typowy błąd myślowy wynikający z zamieszania z innymi typami rejestratorów. W praktyce, tylko papier termoczuły, zgodny z normami branżowymi, zapewnia trwałość, czytelność i bezpieczeństwo badania, dlatego inne wybory są po prostu niepraktyczne i niezgodne z zaleceniami.

Pytanie 2

Które polecenie SQL nie modyfikuje tabeli bazy danych?

A. INSERT
B. DELETE
C. UPDATE
D. SELECT
Polecenie SELECT w języku SQL służy wyłącznie do pobierania danych z bazy, nie wpływa na strukturę ani zawartość tabeli. To takie narzędzie, które pozwala wyciągnąć konkretne informacje, np. listę wszystkich pracowników albo produkty droższe niż 100 zł – wszystko bez jakiejkolwiek ingerencji w istniejące dane. To jest zgodne z zasadą rozdzielenia operacji odczytu od zapisu, co jest szczególnie doceniane w środowiskach produkcyjnych, gdzie bezpieczeństwo i integralność danych mają pierwszorzędne znaczenie. W praktyce programista, który chce tylko sprawdzić, ile rekordów spełnia dany warunek, nie powinien polegać na UPDATE, DELETE czy INSERT – te polecenia są przeznaczone do faktycznej modyfikacji bazy. Moim zdaniem to właśnie SELECT stanowi podstawę analizy danych i raportowania – spotkałem się z tym nawet w projektach, gdzie dostęp do tabeli ograniczał się tylko do SELECT dla większości użytkowników, żeby nie dopuścić do przypadkowych zmian. Co ciekawe, w standardzie SQL bardzo wyraźnie rozdziela się instrukcje DML (Data Manipulation Language, czyli UPDATE, INSERT, DELETE) od instrukcji tylko do odczytu, takich jak SELECT. Warto też pamiętać, że SELECT sam w sobie nie blokuje rekordów na czas odczytu, co zapewnia wydajność nawet przy wielu jednoczesnych zapytaniach – to duża zaleta w dynamicznych systemach.

Pytanie 3

Z przedstawionego zrzutu wynika, że na dyskach zastosowano partycjonowanie

DISKPART> list disk
Disk ### Status Size Free Dyn Gpt
-------- ------------ ------- ------- --- ---
Disk 0 Online 698 GB 0 B *

DISKPART> select disk 0
Disk 0 is now the selected disk.
DISKPART> list partition
Partition ### Type Size Offset
------------- ---------- ------- -------
Partition 1 Recovery 450 MB 1024 KB
Partition 2 System 100 MB 451 MB
Partition 3 Reserved 16 MB 551 MB
Partition 4 Primary 451 GB 567 MB
Partition 5 Unknown 242 GB 452 GB
Partition 6 Unknown 3958 MB 694 GB

DISKPART>
A. NTFS
B. GPT
C. FAT
D. MBR
Wiele osób myli tablicę partycji GPT z systemem plików, takim jak FAT czy NTFS, przez co błędnie zakładają, że odpowiedź powinna odnosić się do tego, jak dane są zapisywane na partycjach. To jednak zupełnie osobne kwestie – system plików dotyczy tego, jak pliki i katalogi są organizowane na już istniejącej partycji, natomiast GPT i MBR to metody zarządzania samą strukturą partycji na dysku. FAT oraz NTFS to najpopularniejsze systemy plików w świecie Windows, ale nie mają one bezpośredniego związku z tym, jak partycje są rozmieszczane na dysku fizycznym. Nie da się tego rozpoznać po samej liście partycji ani po kolumnach w narzędziu diskpart – tam patrzymy na typ partycjonowania, a nie na system plików. Równie częstym błędem jest założenie, że skoro większość starszych komputerów używała MBR, to będzie to domyślny wybór. Jednak w tym zrzucie widać wyraźnie obecność gwiazdki przy kolumnie GPT, co świadczy o aktywnym schemacie GPT. MBR, czyli Master Boot Record, był używany przez lata, ale ma poważne ograniczenia: obsługuje maksymalnie 2 TB na jedną partycję i do czterech partycji podstawowych, przez co w nowych rozwiązaniach wypierany jest przez GPT. Moim zdaniem, patrząc na praktyczne aspekty zarządzania dyskami, znajomość tej różnicy to klucz jeśli ktoś chce unikać problemów z bootowaniem systemu czy obsługą dużych dysków. Warto też zauważyć, że typy partycji wypisane w zrzucie (recovery, reserved, system itp.) odpowiadają typowej strukturze GPT na nowoczesnych komputerach – takiej konfiguracji nie uzyskamy na partycjonowaniu MBR. Podsumowując, odpowiedź na takie pytanie wymaga rozróżnienia między tablicą partycji a systemem plików oraz zrozumienia ograniczeń i cech charakterystycznych każdego ze standardów.

Pytanie 4

Funkcja f(n) = nf(n-1) dla n>1 w przeciwnym wypadku f(n) = 1 jest przykładem

A. rekurencji.
B. obliczania n–tej potęgi liczby n.
C. obliczania wyrazu ciągu Fibonacciego.
D. iteracji.
Funkcja f(n) = n*f(n-1) dla n>1 i f(n) = 1 w przeciwnym wypadku jest klasycznym przykładem rekurencji. W informatyce, rekurencja oznacza, że dana funkcja wywołuje samą siebie, aż do uzyskania tzw. warunku bazowego (czyli sytuacji, kiedy przestaje się wywoływać rekurencyjnie). Dokładnie tak jest w tym przypadku – dla n równego 1 lub niższego, funkcja zwraca 1 i nie wywołuje się dalej, a dla n większego od 1, każdorazowo wywołuje się z argumentem mniejszym o 1. Typowym przykładem tego typu funkcji jest silnia, czyli operacja matematyczna wykorzystywana m.in. w kombinatoryce, kryptografii czy analizie algorytmów. Takie podejście, choć bardzo eleganckie i naturalne w wielu zastosowaniach matematycznych, w praktyce programistycznej wymaga ostrożności – nieumiejętne stosowanie rekurencji może prowadzić do przepełnienia stosu (stack overflow). Optymalnie, przy dużych danych warto sięgnąć po podejście iteracyjne lub tzw. rekurencję ogonową, która bywa lepiej wspierana przez niektóre kompilatory. Moim zdaniem, umiejętność rozpoznania i zrozumienia rekurencji jest jedną z kluczowych kompetencji każdego programisty – czy to w Pythonie, Javie, czy C++. Warto też zauważyć, że rekurencja, chociaż czasem wydaje się mniej wydajna, pozwala bardzo klarownie zapisać nawet złożone problemy, na przykład przy przeszukiwaniu struktur drzewiastych czy rozwiązywaniu łamigłówek typu wieże Hanoi.

Pytanie 5

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Na listwie zaciskowej.
B. Naścienny.
C. Na szynie TH-35.
D. Podtynkowy.
Na zdjęciu widzimy typowy przykład montażu urządzeń elektrycznych w rozdzielnicy przy użyciu szyny montażowej TH-35, zwanej inaczej szyną DIN. Częstym błędem jest mylenie tego systemu z montażem na listwie zaciskowej – jednak listwy zaciskowe służą do łączenia przewodów, a nie do mocowania urządzeń, więc nie zapewniają ani wygody, ani stabilności typowej dla szyny TH-35. W przypadku montażu podtynkowego mamy do czynienia z całkowicie inną techniką – urządzenia są wtedy zabudowane wewnątrz ścian, bez dostępu do szyny, co stosuje się w instalacjach domowych, ale nie w przemysłowych szafach sterowniczych. Z kolei montaż naścienny polega na bezpośrednim przymocowaniu urządzenia do ściany lub płyty, najczęściej za pomocą wkrętów – takie rozwiązanie sprawdza się w prostych instalacjach, jednak nie daje tej elastyczności i możliwości szybkiej rozbudowy, co szyna TH-35. W praktyce, nieumiejętne rozpoznanie tych systemów prowadzi do bałaganu w instalacji, utrudnia serwisowanie i często jest niezgodne z aktualnymi normami, takimi jak PN-EN 61439 czy IEC 60204-1. Z mojego doświadczenia wynika, że wybór szyny TH-35 to nie tylko kwestia wygody montażu, ale też bezpieczeństwa i porządku – urządzenia są stabilnie zamocowane, a całość wygląda profesjonalnie. W nowoczesnych instalacjach praktycznie nie spotyka się już innych rozwiązań, bo po prostu nie mają one tylu zalet – i chyba trudno się temu dziwić!

Pytanie 6

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. liczbie cykli zegara.
B. sekundach.
C. liczbie bitów do odczytu.
D. milisekundach.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 7

Do badań ultrasonograficznych struktur płytko położonych (np. tarczycy) stosuje się głowicę

A. sektorową.
B. liniową.
C. konweksową.
D. rektalną.
Wybór odpowiedniej głowicy ultrasonograficznej do badania struktur płytko położonych jest kluczowy dla jakości diagnostyki. Wielu początkujących diagnostów myli funkcje różnych typów głowic, co jest zupełnie zrozumiałe – różnią się kształtem, zakresem częstotliwości oraz przeznaczeniem klinicznym. Głowica rektalna, choć oferuje wysoki poziom szczegółowości, została zaprojektowana do badań przezodbytniczych, głównie w diagnostyce gruczołu krokowego lub narządów miednicy mniejszej. Jej konstrukcja umożliwia dotarcie do trudno dostępnych struktur, ale nie nadaje się zupełnie do obrazowania przezskórnego płytko położonych narządów, jak tarczyca, bo zakres jej ogniskowania nie jest zoptymalizowany pod kątem powierzchniowych zmian. Z kolei głowica sektorowa była kiedyś stosowana szeroko w kardiologii, gdzie jej mała powierzchnia czołowa pozwala na obrazowanie przez wąskie okienka, na przykład między żebrami. Jednak przy obrazowaniu powierzchniowych struktur, takich jak tarczyca czy nawet węzły chłonne szyi, jej rozdzielczość jest wyraźnie gorsza od liniowej, a dodatkowo pole widzenia nie pozwala na komfortową ocenę całego narządu. Głowica konweksowa natomiast to standard pracy w badaniach jamy brzusznej – jej szerokie pole widzenia i umiarkowana częstotliwość sprawdzają się doskonale przy głębiej położonych narządach, jak wątroba czy nerki. Niestety, przy powierzchniowych strukturach traci rozdzielczość i trudno jest uzyskać wyraźny obraz cienkich, powierzchownych partii. Moim zdaniem, często spotykany błąd to kierowanie się wielkością głowicy lub jej popularnością w innych badaniach, a nie rzeczywistymi wymaganiami fizycznymi dotyczącymi badanej tkanki. Wybór niewłaściwej głowicy prowadzi do nieostrego obrazu, utraty szczegółów i w praktyce może skutkować przeoczeniem istotnych patologii. W codziennej praktyce zawsze warto sprawdzić, czy używana głowica jest rekomendowana przez producenta sprzętu i spełnia wytyczne towarzystw ultrasonograficznych. W diagnostyce tarczycy głowica liniowa to już po prostu złoty standard, a jej wybór pozwala uniknąć niepotrzebnych błędów.

Pytanie 8

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.0 – 192.150.160.63
B. 192.150.160.1 – 192.150.160.62
C. 192.150.160.0 – 192.150.160.127
D. 192.150.160.1 – 192.150.160.128
Praca z adresacją podsieci bywa myląca i często wynika to z nieznajomości zasad podziału adresów na sieć, hosty oraz broadcast. Czasem można popaść w pułapkę myślenia, że cały zakres adresów od początku do końca podsieci nadaje się do przypisania urządzeniom, ale w praktyce tak nie jest. Przykładowo, adres 192.150.160.0/26 to 64 adresy, jednak pierwszy z nich (czyli .0) jest zarezerwowany jako adres samej sieci, a ostatni (.63) jako adres rozgłoszeniowy, tzw. broadcast. Próba przypisania tych adresów do urządzeń końcowych często kończy się problemami – urządzenia nie odpowiadają, pojawiają się błędy w komunikacji lub sieć zachowuje się nieprzewidywalnie. W praktyce, np. podczas konfiguracji serwera DHCP czy podsieci VLAN, bardzo ważne jest świadome wyznaczenie zakresu dostępnych adresów IP. Częstym błędem jest także przyjęcie, że zakres hostów sięga aż do .127 lub .128, czyli przekracza maskę /26. To wynika z pomylenia maski podsieci (26 bitów) z np. maską /25 czy /24, gdzie zakresy są zupełnie inne i liczba możliwych hostów rośnie dwukrotnie lub czterokrotnie. Szczególnie łatwo się pomylić, gdy nie przelicza się dokładnie wartości dziesiętnych na binarne – warto zawsze sprawdzić, ile adresów daje dana maska i gdzie wypadają granice podsieci. Z mojego doświadczenia wynika, że najlepszą metodą, żeby nie pomylić się w praktyce, jest rozpisanie sobie na kartce, gdzie wypadają adresy specjalne i dopiero wtedy planowanie urządzeń. W sieciach profesjonalnych takie błędy mogą być kosztowne – i pod względem czasu, i pod względem bezpieczeństwa. Dobrą praktyką, zalecaną np. w dokumentacji Cisco czy w RFC 950 i nowszych, jest zawsze rezerwowanie adresu sieci i broadcast oraz korzystanie wyłącznie z zakresu hostów, czyli od pierwszego wolnego do przedostatniego adresu. Pilnowanie tych zasad pozwala uniknąć wielu niepotrzebnych kłopotów.

Pytanie 9

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. raw
B. tga
C. tar
D. rar
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 10

Aby uruchomić w systemie linux program nazwa.py, należy wpisać

A. ./nazwa.py
B. nazwa.py
C. .\nazwa.py
D. ./nazwa.py
Aby uruchomić skrypt w systemie Linux bezpośrednio z terminala, należy poprzedzić nazwę pliku ./, czyli tak jak w odpowiedzi: ./nazwa.py. To jest związane z tym, jak system rozpoznaje lokalizację plików wykonywalnych. W Linuksie katalog bieżący (czyli ten, w którym aktualnie się znajdujesz) nie jest domyślnie przeszukiwany po prostu przez wpisanie nazwy pliku, więc samo 'nazwa.py' nie zadziała – system po prostu nie znajdzie takiego pliku w swoim PATH. Przedrostek ./ oznacza „ten katalog”, więc ./nazwa.py to po prostu: uruchom plik nazwa.py znajdujący się w katalogu, w którym teraz jestem. Musisz dodatkowo pamiętać o nadaniu plikowi uprawnień do wykonywania, czyli najczęściej trzeba wcześniej zrobić chmod +x nazwa.py. Moim zdaniem to super sprawa, bo dzięki temu łatwiej jest kontrolować, co tak naprawdę można uruchomić na danym systemie, a co nie. Z mojego doświadczenia wynika, że dużo osób zapomina o tej kropce i później się dziwi, że nie działa – standard Linuksa jest pod tym względem jasny i dość restrykcyjny, co chroni przed przypadkowym uruchomieniem niechcianych plików. Jeżeli w skrypcie nie masz shebanga (np. #!/usr/bin/env python3), to i tak możesz uruchomić go przez python3 nazwa.py, ale ./nazwa.py jest bardziej „linuxowe”, bo wtedy system sam rozpozna, jakiego interpretera użyć na podstawie shebanga. W praktyce, kiedy pracujesz z różnymi wersjami Pythona albo przenosisz swoje skrypty pomiędzy serwerami, takie podejście jest nie tylko wygodne, ale też zgodne z dobrymi praktykami administracyjnymi.

Pytanie 11

Zgodnie z przedstawionym opisem, gniazdo interfejsu służące do podłączenia audiometru ze stanowiskiem komputerowym przedstawione jest na rysunku

Opis:
− 125 Hz ÷ 8.000 Hz
− -10 dB do 120 dB HL na wyjściu
− połączenie z komputerem PC – interfejs RS232
− połączenie z drukarką laserową
− połączenie z drukarką atramentową
A. Gniazdo 1
Ilustracja do odpowiedzi A
B. Gniazdo 2
Ilustracja do odpowiedzi B
C. Gniazdo 3
Ilustracja do odpowiedzi C
D. Gniazdo 4
Ilustracja do odpowiedzi D
Wybrałeś gniazdo RS232, czyli tzw. port szeregowy DB9. To właśnie to złącze było i nadal jest stosowane w interfejsach komunikacyjnych wielu urządzeń medycznych, właśnie takich jak audiometry. Ten port umożliwia stabilne, przewodowe przesyłanie danych pomiędzy audiometrem a komputerem PC, zgodnie ze standardami transmisji szeregowej. Gniazdo DB9 zostało zaprojektowane jeszcze w epoce komputerów klasy PC XT/AT i z mojego doświadczenia – wciąż pojawia się w sprzęcie specjalistycznym, bo jest niezawodne i proste w obsłudze. W praktyce, jeśli chcesz wyeksportować dane z audiometru do komputera, to właśnie przez takie złącze podłączysz kabel i uruchomisz transmisję, korzystając np. z programów do akwizycji danych medycznych. Chociaż dziś coraz częściej widzi się USB, to branża medyczna mocno trzyma się rozwiązań sprawdzonych – RS232 uchodzi za coś pewnego, dobrze opisanego w normach (np. EIA-232), a po drobnych przeróbkach można nawet przesłać sygnał na spore odległości. Warto znać ten standard, bo często spotyka się go przy serwisowaniu i integracji starszych urządzeń diagnostycznych, także poza medycyną – np. w automatyce czy przemyśle. Moim zdaniem, taka wiedza daje fajne podstawy do dalszego rozwoju w elektronice użytkowej.

Pytanie 12

Jakie jest przeznaczenie drukarki, której dotyczy zamieszczony fragment specyfikacji?

Głowica drukująca24-igłowa
Średnica przewodu0,2 mm
Kierunek drukuDwukierunkowe/bezkierunkowe drukowanie
Rozdzielczość grafikiMaks. 360 (wys.) x 360 (szer.) dpi
Szybkość drukowaniaHigh Speed Draft: 607 znaków/s, tryb Utility: 485 znaków/s, tryb Near Letter Quality: 245 znaków/s, Letter Quality: 165 znaków/s
Gęstość przesunięć wierszy4,23 mm (1/6"), 3,18 mm (1/8"), n x 0,42 mm (m/60") (m=0-127), n x 0,14 mm (n/180") (n=0-255), n x 0,12 mm (n/216") (n=0-255), n x 0,07 mm (n/360") (n=0-255)
Szybkość podajnika10 cali na sekundę
Pobieranie papieruRęczne (góra), traktor pchający (góra), traktor pchający (tył), traktor pchający (dół), podajnik pojedynczych arkuszy (tył)
Gęstość znakówHigh Speed Draft: 10,0 zn./cal 18,0 zn./cal
Jakość użytkowa: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20 zn./cal
Tryb Near Letter Quality: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20,0 zn./cal
Tryb Letter Quality: 10 zn./cal 12 zn./cal 15 zn./cal 17,1 zn./cal 20 zn./cal, proporcjonalnie
Szerokość druku136 zn./linia przy ANK 10 zn./cal
A. Drukowanie dokumentów w kolorze.
B. Nadruk opisów na płytach CD/DVD.
C. Wykonywanie wydruków laserowych.
D. Drukowanie na papierze perforowanym.
Specyfikacja opisuje drukarkę igłową wyposażoną w 24-igłową głowicę, co samo w sobie jest bardzo charakterystyczne dla urządzeń przeznaczonych do pracy z papierem ciągłym i perforowanym. Takie drukarki, mimo że są już trochę staroświeckie, to wciąż mają swoje miejsce w biurach, szczególnie tam, gdzie trzeba wydrukować kopie dokumentów jednocześnie (przez kalkę) albo korzysta się z papieru składankowego z perforacją. Moim zdaniem, największą zaletą takich drukarek jest niezawodność w środowiskach, gdzie laserówki czy atramentówki zawodzą – na przykład w magazynach, na produkcji, albo do wydruków faktur i dokumentów przewozowych. 24 igły w głowicy pozwalają na całkiem niezłą jakość wydruku tekstu, a różne tryby szybkości dają wybór między jakością a wydajnością. W ogóle, obecność traktora pchającego oraz możliwość podawania papieru „z dołu” i „z tyłu” to klasyka w pracy z papierem perforowanym. Z mojego doświadczenia wynika, że właśnie tam, gdzie trzeba drukować długie zestawienia albo raporty bez ciągłego dokładania papieru, taki sprzęt wygrywa. Współczesne drukarki laserowe nie poradzą sobie z papierem ciągłym, a drukarki do nadruku na CD/DVD czy kolorowe atramentówki to zupełnie inna bajka i inne zastosowania. Jeśli ktoś myśli o pracy z dokumentami wielowarstwowymi albo wydrukami archiwalnymi, to takie igłówki są nadal bezkonkurencyjne. Po prostu, nie do zdarcia sprzęt do specyficznych, ciągłych zastosowań.

Pytanie 13

Które badanie endoskopowe należy wykorzystać do wizualizacji jamy stawu?

A. Kolonoskopię.
B. Cystoskopię.
C. Artroskopię.
D. Duodenoskopię.
Artroskopia to naprawdę świetny przykład tego, jak technologia potrafi zrewolucjonizować diagnostykę i leczenie schorzeń układu ruchu. Ten zabieg polega na wprowadzeniu do jamy stawowej specjalnego narzędzia z kamerą, czyli artroskopu. Pozwala to lekarzowi dokładnie obejrzeć wnętrze stawu – powierzchnie chrzęstne, więzadła, błonę maziową, a czasem nawet fragmenty kości. W praktyce wykorzystuje się artroskopię nie tylko do diagnostyki, gdy pacjent ma np. uporczywy ból czy obrzęk stawu, ale też w celach terapeutycznych – można podczas jednego zabiegu usunąć uszkodzoną łękotkę, zszyć więzadła czy wyłuszczyć ciała obce. W ortopedii artroskopia kolana, barku lub stawu skokowego to już właściwie standard i nikt nie wyobraża sobie współczesnej medycyny bez tej techniki. Moim zdaniem najważniejsze jest to, że artroskopia jest małoinwazyjna, więc rekonwalescencja trwa krócej i ryzyko powikłań jest mniejsze niż przy tradycyjnym otwieraniu stawu. Co ciekawe, coraz częściej wykorzystuje się ją też w medycynie sportowej – szybka diagnostyka i naprawa urazów pozwala zawodnikom wracać do formy w ekspresowym tempie. Jeśli chcesz poznać szczegóły, polecam przejrzeć zalecenia Polskiego Towarzystwa Ortopedycznego – artroskopia jest tam szeroko opisana jako metoda z wyboru przy wielu schorzeniach stawów. Takie rozwiązania to przyszłość medycyny, serio.

Pytanie 14

Wymieniając bezpiecznik w medycznym module zasilającym, wymagającym zastosowania wkładki topikowej zwłocznej, należy użyć elementu oznaczonego symbolem literowym

A. WTA-F
B. WTA-T
C. WTA
D. WTA-G
Wybór oznaczeń innych niż WTA-T pokazuje, jak łatwo się pogubić w symbolice bezpieczników, szczególnie jeśli ktoś nie miał jeszcze do czynienia ze sprzętem medycznym czy normami branżowymi. Najczęstszym błędem jest założenie, że każdy bezpiecznik pasujący mechanicznie lub prądowo będzie odpowiedni pod względem charakterystyki czasowej. WTA (bez dodatkowej litery) to zwykła wkładka, najczęściej szybka, bez żadnej zwłoki – czyli przepala się praktycznie od razu po przekroczeniu prądu znamionowego. Stosowanie takiej wkładki w module medycznym prowadzi do tego, że sprzęt niepotrzebnie się wyłącza przy każdym krótkotrwałym przeciążeniu, na przykład przy starcie zasilacza. Oznaczenie WTA-F to typ szybki (od ang. fast), który działa jeszcze szybciej niż podstawowy bezpiecznik – kompletnie się nie nadaje do ochrony urządzeń z dużymi prądami rozruchowymi, bo będzie się przepalał praktycznie non stop podczas normalnej pracy. Z kolei WTA-G to trochę mylące, bo litera G bywa stosowana w innych krajowych systemach oznaczeń i czasem oznacza ogólny bezpiecznik, ale w polskich realiach nie ma związku z charakterystyką zwłoczną, więc wybór tej opcji wynika raczej z nieporozumienia. Takie pomyłki wynikają często z braku praktyki albo ze skrótowego podejścia do dokumentacji serwisowej. Moim zdaniem zawsze warto czytać instrukcje producenta i nie sugerować się tylko samym wyglądem czy rozmiarem bezpiecznika – tu liczy się charakterystyka czasowa. Błędem jest też myślenie, że dowolna wkładka zadziała podobnie – niestety, nie zadziała, a ryzyko uszkodzenia sprzętu, albo wręcz zagrożenia dla pacjenta w warunkach szpitalnych jest niemałe. Z doświadczenia wiem, że takie drobne niedopatrzenia potrafią potem kosztować sporo nerwów i pieniędzy.

Pytanie 15

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. EKG
B. EMG
C. RTG
D. KTG
Wśród wymienionych aparatów tylko KTG, czyli kardiotokograf, wykorzystuje w swojej budowie zarówno czujnik tensometryczny, jak i sondę ultradźwiękową. EMG (elektromiograf) służy do badania czynności bioelektrycznej mięśni, wykorzystuje elektrody powierzchniowe lub igłowe. Tu nie ma ani tensometrów, ani sond ultradźwiękowych – pomiar bazuje wyłącznie na różnicach potencjałów elektrycznych i nie dotyczy monitoringów tętna płodu czy skurczów macicy. EKG (elektrokardiograf) jest jeszcze innym urządzeniem; rejestruje aktywność elektryczną serca, zwykle u dorosłych czy dzieci, ale nie służy do oceny pracy macicy ani bezpośredniego monitorowania płodu. Tam kluczowym elementem są elektrody żelowe lub klamrowe, a nie czujniki tensometryczne czy sondy ultradźwiękowe. Z kolei RTG to już zupełnie inny świat – zdjęcia rentgenowskie są wykonywane przy użyciu promieniowania jonizującego, nie wykorzystują żadnych czujników tensometrycznych ani sond ultradźwiękowych, tylko lampę rentgenowską i detektor obrazu. Często spotykam się z mylnym przekonaniem, że skoro coś dotyczy monitorowania pracy serca lub mięśni, to sprzęt musi mieć podobny zestaw czujników – a to nie do końca tak działa. Każda z tych technologii bazuje na innych zasadach fizycznych i ma inne przeznaczenie. W praktyce pomylenie ich może prowadzić do groźnych nieporozumień, zwłaszcza w pracy klinicznej czy na egzaminach zawodowych. KTG jako jedyne łączy monitoring tętna płodu (przez ultradźwięki) i aktywność skurczową macicy (przez tensometr), co jest standardem zalecanym w opiece okołoporodowej. Zawsze warto kojarzyć charakterystyczne czujniki z funkcją konkretnego urządzenia – pomaga to nie tylko w nauce, ale i w praktyce zawodowej.

Pytanie 16

Do pomiaru objętości i pojemności płuc w różnych fazach cyklu oddechowego służy

A. spirometr.
B. kapnometr.
C. respirator.
D. saturator.
Spirometr to w praktyce podstawowe narzędzie w diagnostyce funkcji układu oddechowego – bez niego ani rusz w pracowni pulmonologicznej czy na oddziale szpitalnym. Za jego pomocą można dokładnie zmierzyć objętość powietrza wdychanego i wydychanego przez płuca oraz określić pojemności w różnych fazach cyklu oddechowego, takich jak wdech spokojny, wydech maksymalny czy pojemność życiowa płuc. Moim zdaniem, jeśli ktoś myśli o pracy w ochronie zdrowia, to powinien wiedzieć, że spirometria jest jednym z najbardziej podstawowych i jednocześnie uniwersalnych badań. Sami lekarze często powtarzają, że to taki 'EKG dla płuc' – szybkie, bezpieczne i dające mnóstwo informacji o stanie układu oddechowego. Dzięki spirometrowi wychwytuje się nie tylko przewlekłą obturacyjną chorobę płuc (POChP), ale też astmę czy różne zaburzenia wentylacji. Zresztą, nawet sportowcy czy osoby pracujące w trudnych warunkach czasem muszą przejść badanie spirometryczne, żeby ocenić wydolność oddechową. Z mojego doświadczenia, korzystanie ze spirometru nie jest trudne, choć trzeba pamiętać o odpowiedniej kalibracji sprzętu i prawidłowym przygotowaniu pacjenta, bo każdy błąd może zafałszować wynik. Standardy branżowe, takie jak zalecenia Polskiego Towarzystwa Chorób Płuc czy wytyczne GOLD, jasno podkreślają, że spirometria to złoty standard w ocenie objętości płuc oraz pojemności życiowej. Fajne jest też to, że nowoczesne spirometry potrafią automatycznie analizować wyniki i wyłapywać błędy pomiarowe.

Pytanie 17

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. telewizyjnej.
B. dźwiękowej.
C. graficznej.
D. sieciowej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 18

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. szyfrowania pakietów.
B. konwersji sygnału.
C. przyspieszenia transmisji.
D. filtrowania ramek sieci Ethernet.
Patrząc na to urządzenie, łatwo pomylić jego funkcję z bardziej zaawansowanymi lub specyficznymi rozwiązaniami sieciowymi, ale kluczowe jest zrozumienie jego podstawowej roli. Szyfrowanie pakietów, choć bardzo istotne w nowoczesnych sieciach, realizowane jest przez wyspecjalizowane urządzenia, jak np. firewalle, VPN gateway’e czy dedykowane moduły bezpieczeństwa. Media konwerter nie analizuje ani nie modyfikuje danych pod względem bezpieczeństwa – jego zadaniem jest tylko przeniesienie sygnału pomiędzy różnymi nośnikami. Filtrowanie ramek Ethernet, z kolei, to domena przełączników zarządzalnych albo zapór sieciowych – takie urządzenia potrafią selekcjonować pakiety, blokować ruch czy realizować polityki QoS. Media konwerter nie analizuje nagłówków ramek, nie podejmuje decyzji o przepuszczeniu lub zablokowaniu. Jeśli chodzi o przyspieszanie transmisji – to trochę mit. Konwerter nie zwiększa przepustowości ani nie przyspiesza transmisji ponad to, co oferują używane media oraz standardy, których przestrzega. Wręcz przeciwnie, każde dodatkowe urządzenie w torze może wprowadzić minimalne opóźnienie. Typowym błędem jest mylenie funkcji konwertera z funkcjami inteligentnych switchy lub routerów, które mają już opcje zaawansowanej analizy i manipulacji ruchem. Media konwerter to bardzo proste urządzenie, zaprojektowane do specyficznego celu: zamiany sygnału z jednego typu przewodu na inny. Z mojego doświadczenia, najwięcej nieporozumień wynika z przekonania, że nowoczesne, niewielkie urządzenie zawsze musi mieć mnóstwo funkcji. Tymczasem prostota bywa atutem – i tu właśnie tak jest.

Pytanie 19

Jaką funkcję pełni przedstawiona na rysunku procedura BIOS?

Ilustracja do pytania
A. Umożliwia wykonanie testu poprawności działania dysku twardego podczas uruchomienia systemu operacyjnego.
B. Przyśpiesza operacje zapisu danych na dysk SSD podczas zamykania systemu operacyjnego.
C. Umożliwia odczytanie parametrów dysku twardego podczas uruchomienia systemu operacyjnego.
D. Przyśpiesza operacje odczytu danych z dysku SSD podczas uruchomienia systemu operacyjnego.
Wybrana odpowiedź jest prawidłowa, bo dokładnie takie zadanie realizuje procedura SMART Self-Test w BIOS-ie. Ten mechanizm – moim zdaniem jeden z najbardziej niedocenianych przez zwykłych użytkowników – pozwala kontrolować stan techniczny dysku twardego już podczas startu komputera. BIOS uruchamia tzw. autotest SMART, czyli Self-Monitoring, Analysis and Reporting Technology. Chodzi tu o wczesne wykrycie problemów z dyskiem, zanim jeszcze system operacyjny wystartuje na dobre. Praktyczny sens tego rozwiązania? Jeśli dysk twardy zaczyna mieć jakieś błędy mechaniczne lub logiczne, BIOS wykryje to podczas procesu POST (Power-On Self-Test) i wyświetli odpowiedni komunikat. Z mojego doświadczenia wynika, że takie ostrzeżenia często pozwalają na uratowanie danych, zanim dysk odmówi całkowicie posłuszeństwa. To jest zgodne z najlepszymi praktykami branżowymi – regularny monitoring SMART i szybka reakcja na błędy to podstawa zarządzania sprzętem w każdym poważnym środowisku IT. Warto wiedzieć, że wyniki testu SMART są analizowane na podstawie kilkudziesięciu parametrów, takich jak liczba relokowanych sektorów, czas rozruchu, czy liczba błędów odczytu. Współczesne standardy zalecają, żeby nie ignorować alertów SMART i natychmiast wykonać kopię zapasową, jeśli pojawi się jakiekolwiek ostrzeżenie. To dobra inwestycja w bezpieczeństwo danych – sam zawsze radzę, żeby mieć to ustawienie włączone, nawet jeśli trochę wydłuża start systemu.

Pytanie 20

Struktura anatomiczna człowieka, która jest nazywana krytyczną ze względu na szczególną wrażliwość na zewnętrzne promieniowanie jonizujące, to

A. wątroba.
B. nerka.
C. klatka piersiowa.
D. soczewka oka.
Wybór struktur takich jak klatka piersiowa, wątroba czy nerka jako najbardziej krytycznych pod kątem promieniowania jonizującego to dość częsty błąd, który wynika z przekonania, że duże narządy albo te, które mają kluczowe znaczenie dla życia, muszą być bardziej wrażliwe. Tymczasem to nie zawsze tak działa. Klatka piersiowa, choć zawiera ważne narządy jak serce i płuca, nie jest uznawana za strukturę szczególnie narażoną na trwałe uszkodzenia przy niskich dawkach – organizm potrafi do pewnego stopnia kompensować uszkodzenia tych tkanek, a skutki uboczne pojawiają się głównie przy bardzo wysokich ekspozycjach. Wątroba i nerki są narządami o dość wysokiej regeneracji oraz odporności na typowe dawki w medycynie. Promieniowanie działa na nie głównie przy radioterapii, ale w codziennej diagnostyce nie są one aż tak „krytyczne”. Największy problem stanowi zawsze soczewka oka, która niemal nie ma zdolności regeneracyjnych, a powstałe zmętnienia prowadzą do zaćmy. Z mojego doświadczenia wynika, że osoby uczące się ochrony radiologicznej często kierują się rozmiarem czy funkcją narządu, pomijając specyfikę biologiczną. Warto zapamiętać, że standardy bezpieczeństwa, takie jak zalecenia ICRP, kładą właśnie nacisk na soczewki oczu i to one są głównym „punktem zapalnym”, jeśli chodzi o konsekwencje nawet niewielkich dawek promieniowania. To właśnie dlatego w praktyce zawodowej przykłada się taką wagę do zabezpieczania oczu przed ekspozycją.

Pytanie 21

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. β
B. e
C. α
D. γ
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 22

Zapis w dokumentacji technicznej elektrokardiografu określający V1, V2, …V6 dotyczy odprowadzeń

A. Wilsona
B. Dawesa
C. Goldbergera
D. Einthovena
W praktyce elektrokardiograficznej często pojawia się zamieszanie związane z nazwami poszczególnych odprowadzeń i ich twórcami. Wybierając odprowadzenia Goldbergera, można popełnić typowy błąd, bo Goldberger rzeczywiście opracował odprowadzenia oznaczone jako aVR, aVL i aVF – są to tzw. jednobiegunowe odprowadzenia kończynowe wzmocnione, które zbierają potencjały z kończyn pacjenta, a nie z klatki piersiowej. Z kolei Einthoven jest autorem klasycznych trójkątnych odprowadzeń kończynowych, czyli I, II i III, które mierzą potencjały między poszczególnymi kończynami, ale nie mają nic wspólnego z symbolami V1–V6. Czasem myli się te grupy, bo w standardowym EKG na wydruku pojawiają się wszystkie te odprowadzenia razem, ale ich znaczenie i położenie elektrod są zupełnie inne. Nazwa Dawes akurat rzadko się pojawia w praktyce EKG, a jego odprowadzenia nie są standardowo stosowane w nowoczesnej elektrokardiografii, więc wybór tej opcji raczej wynika z nieporozumienia albo pomylenia nazwisk. Z mojego doświadczenia wynika, że największym problemem jest utożsamianie wszystkich nazwisk z dowolnym rodzajem odprowadzeń – a tymczasem każde z nich odnosi się do innego układu pomiarowego i ma osobne zastosowanie kliniczne. Warto pamiętać, że poprawna identyfikacja odprowadzeń to nie tylko teoria, ale też praktyka, bo prawidłowe rozmieszczenie elektrod przekłada się bezpośrednio na jakość i interpretację zapisu EKG. Moim zdaniem dobrze jest na spokojnie przeanalizować, gdzie i jak umieszczane są elektrody oraz jakie mają oznaczenia – to bardzo ułatwia naukę i potem pracę przy aparatach EKG.

Pytanie 23

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. return
B. yield
C. break
D. continue
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.

Pytanie 24

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. copy kat_zrodlowy\dane.txt kat_docelowy
B. move kat_zrodlowy/dane.txt kat_docelowy
C. move kat_docelowy kat_zrodlowy\dane.txt
D. copy kat_docelowy kat_zrodlowy/dane.txt
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.

Pytanie 25

Pamięć statyczna RAM ma zastosowanie jako pamięć

A. masowa.
B. trwała.
C. podręczna procesora.
D. automatyczna dysków twardych.
Wiele osób błędnie zakłada, że pamięć statyczna RAM mogłaby być stosowana jako pamięć automatyczna w dyskach twardych lub nawet jako pamięć masowa czy trwała. Może to wynikać z niepełnego zrozumienia różnych typów pamięci i ich zastosowania w komputerach. Pamięć podręczna procesora (cache) wymaga wyjątkowo szybkiego i bezpośredniego dostępu do danych, a SRAM idealnie odpowiada tym potrzebom ze względu na brak konieczności odświeżania komórek pamięci, co występuje w DRAM. Tymczasem pamięci masowe, takie jak dyski twarde czy SSD, są zoptymalizowane pod kątem pojemności i trwałości, a nie prędkości działania na poziomie nanosekund. SRAM byłaby tam kompletnie nieopłacalna, bo jej koszt i zapotrzebowanie na energię są zbyt wysokie, żeby sensownie zastępować nią np. DRAM czy technologie flash. Jeśli chodzi o trwałość, SRAM – mimo zalet szybkości – jest pamięcią ulotną, czyli po odcięciu zasilania cały zapisany stan znika. To od razu wyklucza jej użycie jako trwałej czy masowej pamięci, która ma utrzymywać dane nawet po wyłączeniu komputera. Używanie SRAM do automatyzacji pracy dysku twardego także nie ma sensu, bo tam potrzebne są zupełnie inne mechanizmy buforowania, najczęściej oparte na DRAM lub dedykowanych układach kontrolujących przepływ danych. Typowym błędem jest też myślenie, że skoro SRAM jest szybszy od DRAM, to nadaje się wszędzie – niestety, w informatyce zwykle trzeba iść na kompromis między kosztami, szybkością a pojemnością. Najlepsi inżynierowie zawsze rozdzielają te funkcje i dobierają odpowiedni typ pamięci do konkretnego zastosowania. Warto więc dobrze rozumieć, gdzie która technologia ma sens i czemu SRAM zarezerwowany jest głównie dla najszybszych, ale niewielkich pamięci cache w samym sercu procesora.

Pytanie 26

W celu rejestracji promieniowania radioizotopu nagromadzonego w narządach stosowana jest

A. kamera gamma.
B. lampa kwarcowa.
C. bomba kobaltowa.
D. lampa rentgenowska.
Kamera gamma to naprawdę kluczowe narzędzie w medycynie nuklearnej, zwłaszcza jeśli chodzi o obrazowanie narządów po podaniu pacjentowi radioizotopu. Z jej pomocą można doskonale obserwować rozkład substancji promieniotwórczej w ciele, co daje lekarzom bardzo precyzyjny obraz funkcji narządów, na przykład serca, tarczycy albo nerek. Z moich obserwacji wynika, że kamera gamma to wręcz standard w diagnostyce scyntygraficznej – bez niej nie byłoby możliwe wykonanie takich badań jak scyntygrafia kości czy perfuzyjna scyntygrafia mięśnia sercowego. Fachowo rzecz biorąc, kamera gamma rejestruje promieniowanie gamma emitowane przez izotopy (na przykład technet-99m), które zostały wprowadzone do organizmu. Pozwala to na nieinwazyjne wykrywanie zmian chorobowych, takich jak ogniska zapalne czy guzy, często dużo wcześniej niż tradycyjne metody obrazowe. Praktyka pokazuje, że to rozwiązanie jest nie tylko skuteczne, ale też stosunkowo bezpieczne dla pacjenta, bo dawki promieniowania są optymalizowane zgodnie z normami i zaleceniami międzynarodowymi (np. IAEA, EANM). Moim zdaniem, umiejętność rozpoznania sprzętu wykorzystywanego do takiej diagnostyki to absolutna podstawa dla każdego, kto chce pracować w dziedzinie technik medycznych lub biomedycznych. Nawet jeśli ktoś nie widział jeszcze takiej kamery na żywo, warto już teraz wiedzieć, jak kluczowe są jej możliwości.

Pytanie 27

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. KTG
B. UKG
C. EEG
D. EOG
Patrząc na dostępne opcje odpowiedzi, można się łatwo pomylić, bo każda z nich rzeczywiście jest związana z jakimś badaniem medycznym i brzmi dość podobnie. EOG to skrót od elektrookulografii, czyli badania, które rejestruje ruchy gałek ocznych na podstawie zmian potencjału elektrycznego wokół oczu, nie ma jednak nic wspólnego z bezpośrednią rejestracją aktywności mózgu. EOG przydaje się na przykład w badaniach snu albo w okulistyce, ale jeśli chodzi o analizę fal mózgowych, to raczej zupełnie nie ten kierunek. KTG, czyli kardiotokografia, to standardowe badanie w ginekologii i położnictwie, służące do monitorowania akcji serca płodu i skurczy macicy – nie dotyczy układu nerwowego ani mózgu, chociaż spotykam się czasem z myleniem tych skrótów przez osoby niezwiązane z branżą. UKG, natomiast, to badanie ultrasonokardiograficzne – popularne echo serca, wykorzystywane głównie do oceny budowy i pracy serca zarówno u dzieci, jak i u dorosłych. To badanie obrazowe, bazujące na ultradźwiękach, więc zupełnie inna bajka niż rejestracja potencjałów elektrycznych. Typowym błędem jest tu właśnie takie skracanie: ktoś widzi „E” (elektryczny) albo „K” (kardio) i zakłada, że chodzi o badanie mózgowe. W praktyce, jeśli chodzi o zapis aktywności elektrycznej mózgu, to jedyną poprawną i powszechnie uznawaną metodą jest EEG, co potwierdzają podręczniki neurologii oraz wytyczne Polskiego Towarzystwa Neurofizjologii Klinicznej. Warto więc rozróżniać te skróty i nie dać się złapać na pozorne podobieństwa, bo w diagnostyce precyzja naprawdę ma znaczenie.

Pytanie 28

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. oczkowym.
B. półotwartym.
C. dynamometrycznym.
D. płaskim.
Klucz dynamometryczny to narzędzie, które pozwala z bardzo dużą precyzją dokręcić śrubę z określoną siłą, czyli tzw. momentem obrotowym. W tym przypadku chodzi o 6 Nm – i to naprawdę nie jest przypadkowa wartość, tylko często podana przez producenta po to, żeby wszystkie połączenia trzymały się jak należy, ale jednocześnie nie były przeciążone. Moim zdaniem, właśnie taki klucz powinien być podstawowym wyposażeniem każdego warsztatu, niezależnie od tego, czy robisz przy rowerach, motocyklach, czy w poważniejszej mechanice. Przykładowo, w serwisie rowerowym, gdy dokręcasz śruby mostka kierownicy lub karbonowej sztycy, naprawdę nie warto ryzykować – za mocno i można uszkodzić część, za słabo i coś się może rozluźnić podczas jazdy. Z mojego doświadczenia wynika, że profesjonalne instrukcje montażowe (nie tylko w branży motoryzacyjnej czy rowerowej, ale też np. hydraulicznej) zawsze odnoszą się do ściśle określonych momentów. Właściwe użycie klucza dynamometrycznego to bezpieczeństwo i powtarzalność montażu, a także eliminacja typowych błędów związanych z "na czuja". Czasem ktoś powie, że wystarczy "dokręcić mocno", ale to bardzo złudne – stal, aluminium czy kompozyty mają swoje ograniczenia. Warto też pamiętać, że takie narzędzia mają skalę (często nawet dwie: Nm i ft-lb), a porządny warsztat zawsze je kalibruje raz na jakiś czas, bo precyzja jest tu kluczowa.

Pytanie 29

Promieniowanie IR jest wykorzystywane w

A. hydroterapii.
B. radioterapii.
C. termoterapii.
D. krioterapii.
Promieniowanie podczerwone, czyli IR, to naprawdę ciekawy temat w kontekście fizykoterapii. Termoterapia właśnie opiera się na wykorzystaniu ciepła, które pozwala na zwiększenie ukrwienia tkanek, rozluźnienie mięśni oraz przyspieszenie procesów regeneracyjnych. Promieniowanie IR wnika w głąb skóry, nawet kilka milimetrów, co wywołuje efekt cieplny. Takie zabiegi stosuje się chociażby w leczeniu przewlekłych bólów stawowych, przykurczów mięśniowych czy urazów. Moim zdaniem, jest to jedna z bardziej skutecznych i zarazem bezpiecznych metod wspomagania leczenia – praktycznie nie wywołuje skutków ubocznych, jeśli tylko przestrzega się zaleceń. W wielu gabinetach fizjoterapii można spotkać lampy Sollux, które emitują właśnie podczerwień. Co ciekawe, istnieją różne typy promieniowania IR, ale w fizjoterapii najczęściej używa się pasma IR-A i IR-B, które są dobrze pochłaniane przez skórę. Standardy branżowe zalecają, by tego typu zabiegi wykonywać pod kontrolą specjalisty, bo nie dla każdego jest to wskazane – np. osoby z aktywnym stanem zapalnym albo nowotworami powinny unikać promieniowania IR. Z mojego doświadczenia wynika, że pacjenci bardzo doceniają uczucie ciepła i często szybciej wracają do sprawności. Termoterapia z użyciem IR jest więc nie tylko praktyczna, ale też zgodna z najnowszymi wytycznymi w rehabilitacji.

Pytanie 30

Podczas tworzenia bazy danych pacjentów polem unikatowym pełniącym rolę klucza podstawowego jest pole zawierające informacje o

A. nazwisku.
B. adresie.
C. imieniu.
D. numerze PESEL.
Wybór numeru PESEL jako klucza podstawowego w bazie danych pacjentów to zdecydowanie najbardziej logiczne i profesjonalne rozwiązanie. Każdy PESEL jest unikalny, przypisany do jednej konkretnej osoby, a jego struktura nie powtarza się w obrębie całego kraju – to wręcz modelowy przykład pola, które nadaje się na klucz główny. Praktyka pokazuje, że stosowanie numeru PESEL pozwala na bardzo szybką identyfikację pacjenta, minimalizuje ryzyko pomyłek przy wyszukiwaniu danych i sprawdza się przy integracji systemów medycznych (np. eWUŚ, systemy placówek medycznych). Z doświadczenia wiem, że próby stosowania innych pól jako klucza prowadzą do masy problemów z powtarzalnością i spójnością danych, a PESEL po prostu pozwala tego uniknąć. Co ciekawe, PESEL sprawdza się nie tylko w medycynie, ale także w systemach państwowych czy nawet bankowych – wszędzie tam, gdzie potrzebna jest jednoznaczna identyfikacja obywatela. Warto pamiętać, że standardy projektowania baz danych, takie jak normy ISO/IEC dotyczące systemów informatycznych, wręcz zalecają użycie jednoznacznych identyfikatorów jako kluczy podstawowych. Gdybyśmy mieli do czynienia z bazą międzynarodową, tam rolę klucza podstawowego zwykle pełni tzw. sztuczny identyfikator (np. UUID), ale w polskich realiach PESEL jest absolutnym standardem. Dobrze, by każdy kojarzył, że to pole nie tylko jest unikalne, ale i odporne na zmiany – nazwisko czy adres można zmienić, PESEL zostaje na całe życie.

Pytanie 31

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. WLAN
B. VPN
C. LZW
D. PACS
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.

Pytanie 32

Które polecenie umożliwia śledzenie drogi pakietów w sieci?

A. ping
B. ipconfig
C. tracert
D. ifconfig
Polecenie tracert (albo traceroute na systemach Linux) to jedno z podstawowych narzędzi diagnostycznych w sieciach komputerowych. Pozwala ono na śledzenie trasy, jaką pakiet IP pokonuje od komputera źródłowego do wskazanego hosta docelowego. To bardzo przydatne, gdy próbujesz zdiagnozować, gdzie na trasie pojawiają się opóźnienia czy utraty pakietów. Z technicznego punktu widzenia tracert wykorzystuje pole TTL (Time To Live) w nagłówku pakietu IP. Każdy kolejny pakiet wysyłany przez tracert ma zwiększany TTL, co powoduje, że po drodze routery odsyłają pakiety ICMP „Time Exceeded”, a my widzimy każdy kolejny przeskok (hop). To taka swoista mapa przejścia pakietu przez wszystkie routery pośrednie. Moim zdaniem umiejętność korzystania z tracert to absolutna podstawa dla każdego administratora czy nawet zwykłego technika sieciowego. W praktyce często przydaje się, gdy ktoś mówi, że 'internet nie działa' – szybko można sprawdzić, na którym etapie coś się psuje, czy problem jest lokalny czy globalny. W wielu firmach, zwłaszcza tych z rozproszoną infrastrukturą, codziennie korzysta się z takich narzędzi, żeby wykryć błędy routingu albo nieprawidłową konfigurację routerów. Dla ciekawych: w standardzie IPv6 polecenie funkcjonuje analogicznie, chociaż czasem są drobne różnice w obsłudze ICMPv6. Z mojego doświadczenia – niejedną zagadkową awarię udało mi się wytropić właśnie z pomocą tracert. Warto pamiętać, że nie wszystkie routery odpowiadają na te pakiety – czasem widać gwiazdki, ale to już inna historia związana z politykami bezpieczeństwa.

Pytanie 33

Wymianą informacji pomiędzy układami znajdującymi się na płycie głównej komputera steruje

A. procesor GPU.
B. pamięć RAM.
C. chipset.
D. MAC.
Chipset to taki trochę niewidzialny bohater na płycie głównej – niby go nie widać, mało kto o nim mówi przy składaniu kompa, a jednak to on kieruje całym ruchem informacji pomiędzy procesorem, pamięcią RAM, kartami rozszerzeń czy nawet dyskami. Jeśli by porównać płytę główną do ruchliwego skrzyżowania, to chipset jest takim policjantem, który decyduje, kto ma pierwszeństwo, a kto musi poczekać. Chipset składa się z dwóch głównych części – dawniej nazywanych Northbridge i Southbridge, choć dzisiaj w nowoczesnych rozwiązaniach większość funkcji Northbridge’a jest już przeniesiona do procesora. W praktyce to właśnie chipset odgrywa kluczową rolę w tym, czy dany komputer obsłuży szybkie pamięci RAM, ile dysków SSD da się podłączyć, czy można zamontować najnowszą kartę graficzną, czy nie. Wybierając płytę główną, zawsze warto spojrzeć, jaki chipset jest na pokładzie, bo to od niego zależy, jakie technologie będą dostępne i jak wydajnie będą one ze sobą współpracowały. Moim zdaniem znajomość działania chipsetu to absolutna podstawa dla każdego, kto chce nie tylko składać, ale i naprawiać czy rozbudowywać komputery. Bez tej wiedzy bardzo łatwo popełnić błąd i potem się dziwić, czemu coś nie działa albo nie da się podkręcić sprzętu. Z własnego doświadczenia wiem, że zwracanie uwagi na chipset pozwala uniknąć wielu problemów z kompatybilnością i wydajnością. To taka nieoczywista, ale bardzo ważna część komputera, o której mówią wszyscy bardziej zaawansowani technicy.

Pytanie 34

Konserwacja oprogramowania nie obejmuje

A. przywracania danych.
B. poprawienia wydajności.
C. poprawy funkcjonalności.
D. skorygowania błędów.
Bardzo łatwo jest pomylić konserwację oprogramowania z innymi czynnościami związanymi z utrzymywaniem systemów komputerowych, szczególnie gdy w grę wchodzą takie pojęcia jak poprawianie błędów, optymalizacja czy rozbudowa funkcji. Konserwacja oprogramowania, według uznanych standardów takich jak ISO/IEC 14764 czy ITIL, obejmuje przede wszystkim cztery podstawowe obszary: korekcyjną (czyli usuwanie błędów), adaptacyjną (dostosowanie do zmian w środowisku), doskonalącą (poprawa wydajności i użyteczności) oraz perfekcyjną (rozszerzanie funkcjonalności). Skorygowanie błędów, poprawa wydajności czy dodawanie nowych funkcji to właśnie typowe zadania osób odpowiedzialnych za utrzymanie i rozwój oprogramowania. Z mojego doświadczenia wynika, że wielu młodych adeptów IT myli konserwację oprogramowania z czynnościami administracyjnymi, zwłaszcza gdy chodzi o odzyskiwanie lub przywracanie danych po awarii – a to już wchodzi w zakres zarządzania danymi czy backupów, nie konserwacji kodu. Myślenie, że poprawa wydajności lub funkcjonalności nie jest częścią konserwacji, może wynikać z braku znajomości specyfikacji tych zadań w praktyce – deweloperzy bardzo często pracują właśnie nad optymalizacją już istniejących systemów albo nad rozwojem funkcji wymaganych przez biznes. Upieranie się, że te działania nie należą do konserwacji, to chyba jedna z najczęstszych pułapek logicznych wśród początkujących. Praktyka pokazuje, że zarówno w małych firmach, jak i dużych korporacjach, konserwacja to nie tylko 'łatanie dziur', ale cały cykl procesów umożliwiających długowieczność, stabilność i rozwój aplikacji. Warto więc zapamiętać, że przywracanie danych to zupełnie odrębny temat, najczęściej realizowany narzędziami do backupu, nie przez zespół developerów.

Pytanie 35

Pod wpływem przegrzania organizmu dochodzi do

A. zmniejszenia wentylacji płuc.
B. zwiększenia wydzielania moczu.
C. zwężenia naczyń krwionośnych.
D. skurczy mięśniowych.
Przegrzanie organizmu, czyli tzw. hipertermia, to stan, który często można spotkać choćby na budowie latem albo podczas ciężkich treningów w wysokiej temperaturze. W takich warunkach bardzo łatwo o skurcze mięśniowe – to tzw. skurcze cieplne. Wywołane są utratą elektrolitów (przede wszystkim sodu i potasu) wraz z potem podczas intensywnego wysiłku czy pracy w upale. Moim zdaniem to jedna z najbardziej podstępnych sytuacji w pracy fizycznej, bo człowiek myśli, że wystarczy się napić wody, a tymczasem bez uzupełnienia soli skurcze mogą pojawiać się nawet przy umiarkowanym wysiłku. Dla branży BHP to jasny sygnał, by zwracać uwagę na odpowiednią ilość płynów i napojów izotonicznych dla pracowników. Zgodnie z zaleceniami Państwowej Inspekcji Pracy, zapewnienie napojów uzupełniających elektrolity w gorące dni to absolutna podstawa w każdej firmie. Dobrą praktyką jest robienie częstszych przerw i edukowanie pracowników o pierwszych objawach przegrzania. Warto pamiętać, że skurcze cieplne mogą być początkiem poważniejszych problemów, jak udar cieplny. Z doświadczenia wiem, że unikanie ciężkiego jedzenia oraz noszenie przewiewnej odzieży też pomaga ograniczyć ryzyko. Przy okazji, warto znać różnice między skurczami cieplnymi a przeciążeniowymi – te pierwsze są zawsze związane z wysoką temperaturą i utratą soli, a nie tylko z wysiłkiem.

Pytanie 36

Wybierz narzędzie służące do zamocowania przedstawionej na rysunku końcówki kompresyjnej F na kablu koncentrycznym.

Ilustracja do pytania
A. Narzędzie 3
Ilustracja do odpowiedzi A
B. Narzędzie 4
Ilustracja do odpowiedzi B
C. Narzędzie 2
Ilustracja do odpowiedzi C
D. Narzędzie 1
Ilustracja do odpowiedzi D
Zastosowanie niewłaściwego narzędzia do montażu końcówki kompresyjnej F prowadzi do szeregu problemów, których często nie zdajemy sobie sprawy na początku. Z pozoru zwykłe ściągacze izolacji czy szczypce do kabli mogą wydawać się uniwersalne i wszechstronne, ale w praktyce nie są w stanie zapewnić odpowiedniego docisku i szczelności, jakiej wymagają złącza kompresyjne. Widziałem już różne próby zaciskania końcówek F za pomocą kombinerek, szczypiec, a nawet prostych ściągaczy – efektem często jest niestabilne połączenie, przesunięcie ekranu lub naderwanie przewodu, co prowadzi do pogorszenia jakości sygnału albo nawet do całkowitej utraty łączności. Dobre praktyki branżowe podkreślają, że tylko specjalistyczna praska kompresyjna gwarantuje równomierne i trwałe zamocowanie złącza na kablu koncentrycznym, zgodnie z wymaganiami norm SCTE i zaleceniami producentów sprzętu. Niestety, częsty błąd to przekonanie, że narzędzia uniwersalne mogą zastąpić narzędzia dedykowane – niestety to tylko pozorna oszczędność, która szybko mści się awariami lub koniecznością ponownego wykonania instalacji. Kolejną pomyłką jest stosowanie narzędzi przeznaczonych wyłącznie do zdejmowania izolacji – niby kabel przygotujemy, ale końcówki nie zaciśniemy poprawnie. Dlatego warto od razu sięgać po dedykowaną praskę kompresyjną, bo to zapewnia i jakość, i zgodność ze sztuką inżynierską.

Pytanie 37

Urządzenie do rejestracji bioelektrycznych potencjałów mięśniowych to

A. elektroencefalograf.
B. kardiotokograf.
C. elektrokochleograf.
D. elektromiograf.
Elektromiograf to specjalistyczne urządzenie, które służy do rejestrowania bioelektrycznej aktywności mięśniowej. Zawsze mnie fascynowało, jak za pomocą cienkich elektrod powierzchniowych albo igłowych można „podejrzeć”, co dzieje się w mięśniach podczas ruchu czy nawet w spoczynku. Elektromiografia, czyli technika oparta o to urządzenie, pozwala ocenić działanie mięśni oraz przewodnictwo nerwowo-mięśniowe. To podstawa diagnostyki w neurologii oraz rehabilitacji – przykładowo, kiedy ktoś ma podejrzenie uszkodzenia nerwu, elektromiograf dostarcza precyzyjnych danych na temat lokalizacji i stopnia uszkodzenia. Często korzystają z tego fizjoterapeuci, lekarze sportowi, a nawet inżynierowie przy projektowaniu interfejsów do sterowania protezami bionicznych. W praktyce, prawidłowe użycie elektromiografu wymaga nie tylko znajomości zasad pomiaru, ale też analizy sygnałów EMG, które mogą być zakłócone przez szumy czy niewłaściwe ułożenie elektrod. Moim zdaniem, umiejętność obsługi tego sprzętu to absolutna podstawa w pracy z pacjentami po urazach neurologicznych. Branżowe wytyczne (np. standardy SENIAM) sugerują stosowanie odpowiednich protokołów do minimalizacji artefaktów oraz właściwej interpretacji wyników. Warto pamiętać, że sygnały EMG są bardzo czułe na ruchy, dlatego odpowiednie przygotowanie skóry i dobór elektrod mają kluczowe znaczenie dla jakości rejestracji. To naprawdę ciekawe i praktyczne narzędzie w codziennej pracy medycznej czy sportowej.

Pytanie 38

W dokumentacji testera aparatury medycznej podano następujące informacje:

  • Kompatybilny z technologiami: Lown, Edmark, trapezową, dwufazową oraz impulsową-dwufazową
  • Kompatybilny z technologią AED
  • Dokładność pomiarowa ±1% plus 0,1 J

Tester ten służy do sprawdzania parametrów pracy
A. defibrylatora.
B. elektroencefalografu.
C. manometru.
D. elektrokardiografu.
Wybór defibrylatora jako poprawnej odpowiedzi wynika bezpośrednio z opisanych cech testera. W dokumentacji wymieniono kompatybilność z różnymi technologiami defibrylacji, takimi jak Lown, Edmark, trapezowa, dwufazowa i impulsowa-dwufazowa oraz AED. To typowe określenia stosowane właśnie w technologii defibrylatorów – w praktyce nie spotyka się ich przy innych urządzeniach medycznych jak manometry czy EKG. Współczesne defibrylatory wykorzystują rozmaite przebiegi impulsów, a tester musi precyzyjnie mierzyć energię wyładowania, by zapewnić bezpieczeństwo pacjenta i skuteczność terapii. Informacja o dokładności pomiaru energii (±1% oraz 0,1 J) też jest jednoznacznie powiązana z testowaniem sprzętu do defibrylacji – zgodnie z normą PN-EN 60601-2-4, która dotyczy defibrylatorów medycznych, kalibracja i kontrola energii wyładowań to kluczowy element rutynowej obsługi technicznej. Moim zdaniem taka wiedza jest nie do przecenienia w pracy technika i serwisanta medycznego, bo od rzetelnej kontroli defibrylatorów zależy bezpieczeństwo pacjentów w nagłych sytuacjach. W zakładach opieki zdrowotnej regularność i jakość testów defibrylatorów jest przedmiotem licznych audytów i przeglądów. Co ciekawe, same testery bywają też używane podczas szkoleń dla personelu – można na nich symulować różne typy wyładowań. Z mojego doświadczenia warto zapamiętać, że prawidłowa eksploatacja i okresowa weryfikacja parametrów defibrylatora jest podstawą skutecznej resuscytacji i minimalizuje ryzyko awarii sprzętu w krytycznych momentach.

Pytanie 39

Badanie obrazujące fizyczny rozwój płodu wykonywane jest przy użyciu

A. ultrasonografu.
B. tomografii komputerowej.
C. spektroskopu.
D. rezonansu magnetycznego.
Prawidłowa odpowiedź to ultrasonograf, bo właśnie ultrasonografia jest podstawowym i najczęściej stosowanym badaniem obrazowym do oceny rozwoju płodu. Badanie USG w ciąży pozwala nie tylko na ocenę wielkości i budowy płodu, ale też na wykrycie niektórych wad wrodzonych i ocenę ilości wód płodowych czy lokalizacji łożyska. W praktyce większość kobiet w ciąży przechodzi kilka badań USG w ramach standardowej opieki, bo to metoda całkowicie bezpieczna, nieinwazyjna i bezbolesna – nie wykorzystuje promieniowania jonizującego, więc nie zagraża ani matce, ani dziecku. Moim zdaniem, to naprawdę niesamowite, że w kilka minut można zobaczyć na ekranie ruchy i serce malucha jeszcze przed narodzinami. Warto wiedzieć, że w Polsce obowiązują określone standardy prowadzenia ciąży – Polskie Towarzystwo Ginekologów i Położników rekomenduje co najmniej trzy obowiązkowe USG w trakcie ciąży. Z mojego doświadczenia ultrasonograf jest w zasadzie na wyposażeniu każdej poradni ginekologiczno-położniczej, bo to podstawa diagnostyki prenatalnej. Oczywiście, czasem lekarz może zlecić inne badania obrazowe, ale USG zawsze jest pierwszym wyborem. Ciekawostka: obecna technologia pozwala na wykonywanie tzw. USG 3D, a nawet 4D, które jeszcze lepiej obrazują rozwój dziecka. Takie obrazowanie naprawdę zmienia podejście do diagnostyki prenatalnej.

Pytanie 40

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. Firebird
B. MySQL
C. PostgreSQL
D. Oracle
Oracle faktycznie uniemożliwia bezpłatne zastosowanie w celach komercyjnych i to jest dość znany temat w branży IT. Korzystanie z tego systemu bazodanowego w firmie, która na przykład świadczy usługi dla klientów albo prowadzi własny sklep internetowy, wymaga wykupienia odpowiedniej licencji. Licencjonowanie Oracle jest trochę zagmatwane, bo są tam różne opcje: per user, per processor, no i do tego dochodzi wsparcie techniczne. Co ciekawe, do nauki czy testów jest dostępna wersja Oracle XE (Express Edition), która jednak ma sporo ograniczeń i wyraźnie nie wolno jej używać komercyjnie – producent zresztą tego pilnuje, a łamanie postanowień licencyjnych może się skończyć dość nieprzyjemnie, nawet finansowo. W praktyce wiele dużych przedsiębiorstw korzysta z Oracle, bo system oferuje niesamowite możliwości skalowania, bezpieczeństwo na bardzo wysokim poziomie i wsparcie dla zaawansowanych scenariuszy. Ale jeśli ktoś prowadzi mały start-up albo projekt open-source, to Oracle raczej odpada ze względu na koszty. Moim zdaniem warto znać ograniczenia licencyjne i czytać dokładnie dokumentację licencyjną, bo w czasach audytów software’owych to już nie jest tylko teoria – firmy faktycznie tego pilnują. Co ciekawe, takie restrykcje licencyjne są jedną z przyczyn, dla których projekty open-source tak mocno zyskały popularność – tam nie trzeba się zastanawiać, czy wolno korzystać z bazy w celach zarobkowych.