Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 13 kwietnia 2026 18:47
  • Data zakończenia: 13 kwietnia 2026 19:24

Egzamin zdany!

Wynik: 21/40 punktów (52,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W celu podłączenia monitora do systemu wizualizacji obrazów wymagany jest interfejs Display Port. Ile takich interfejsów posiada karta graficzna przedstawiona na rysunku?

Ilustracja do pytania
A. 4 interfejsy
B. 1 interfejs.
C. 3 interfejsy
D. 2 interfejsy.
Wiele osób, patrząc na tylny panel karty graficznej, łatwo może się pomylić co do liczby dostępnych interfejsów DisplayPort. Najczęstszą przyczyną pomyłek jest mylenie DisplayPort z gniazdami HDMI lub DVI. Gniazda HDMI mają bardziej prostokątny kształt i są szeroko stosowane w sprzęcie konsumenckim, natomiast DVI to dość masywny port wyposażony w liczne piny i charakterystyczny „krzyżyk” po jednej stronie. DisplayPort natomiast wyróżnia się nieco innym, asymetrycznym kształtem i nie posiada tylu pinów, co DVI. Z mojego doświadczenia widać, że sporo osób zakłada, że jeśli jest dużo portów, to większość z nich to HDMI lub DVI, a DisplayPort występuje rzadko, co nie jest zgodne z rzeczywistością w nowoczesnych układach graficznych, zwłaszcza tych przeznaczonych do zastosowań profesjonalnych. Kolejna typowa pułapka to zakładanie, że ilość portów typu DVI wpływa na sumaryczną liczbę możliwych monitorów – jednak DisplayPort pozwala na podłączenie nowoczesnych monitorów wysokiej rozdzielczości i obsługuje więcej zaawansowanych funkcji. Branżowe standardy mówią jasno: DisplayPort jest preferowanym wyborem do zastosowań wymagających wysokiej jakości sygnału i większej liczby monitorów jednocześnie. Zignorowanie tego faktu może prowadzić do nieefektywnego wykorzystania sprzętu albo problemów z kompatybilnością. W praktyce, jeśli wybierzesz niewłaściwą liczbę DisplayPortów, możesz nie być w stanie zrealizować wymaganych konfiguracji wielomonitorowych, co w środowiskach projektowych czy wizualizacyjnych jest po prostu niewygodne i nieefektywne. Dlatego tak ważna jest dokładna analiza dostępnych portów i ich rozpoznawanie na podstawie kształtu oraz oznaczeń – to umiejętność, która wyróżnia dobrych specjalistów IT.

Pytanie 2

Wysłanie obrazów z urządzenia diagnostycznego do serwera PACS odbywa się zgodnie ze standardem

A. HL7
B. ASCII
C. DICOM
D. FTP
Zaskakująco często pojawia się przekonanie, że do przesyłania obrazów medycznych do serwera PACS wystarczy zwykły protokół FTP. W rzeczywistości FTP nie jest przystosowany do wymiany danych medycznych ani nie zapewnia odpowiednich struktur czy zabezpieczeń. Nadaje się, owszem, do przesyłania zwykłych plików w sieci, ale nie obsłuży metadanych związanych z diagnostyką obrazową. Trochę rozumiem, skąd taki błąd – FTP bywa wykorzystywany w innych branżach, jednak tutaj potrzeba czegoś znacznie bardziej zaawansowanego. Z kolei HL7 to bardzo istotny standard w medycynie, ale jego głównym zadaniem jest wymiana danych administracyjnych i tekstowych, na przykład rejestracja pacjentów czy przekazywanie informacji laboratoryjnych. HL7 nie zawiera w sobie obsługi dużych plików graficznych ani szczegółowych informacji o obrazach diagnostycznych, więc nie sprawdza się w tej roli. Wreszcie ASCII to raczej sposób kodowania tekstu, nie ma nic wspólnego z przesyłaniem grafik medycznych czy integrowaniem systemów obrazowania. Często spotykam się z myśleniem, że skoro coś można przesłać jako plik tekstowy, to wystarczy ASCII – niestety, dane z tomografii czy rezonansu to tysiące parametrów i ogromne ilości informacji, których ASCII zwyczajnie nie ogarnia. Typowym błędem jest tu upraszczanie problemu i niebranie pod uwagę, jak złożone są procesy wymiany danych w środowisku medycznym. Dobrą praktyką jest korzystanie wyłącznie ze standardów dedykowanych do konkretnych zastosowań, a DICOM został właśnie stworzony do obrazowania medycznego i dzięki temu zapewnia niezawodność, interoperacyjność oraz bezpieczeństwo. Praktyka pokazuje, że ignorowanie tych standardów prowadzi do chaosu w archiwizacji i problemów z kompatybilnością sprzętu różnych producentów.

Pytanie 3

Które urządzenie medyczne wspomaga lub zastępuje mięśnie pacjenta w oddychaniu?

A. Pulsoksymetr.
B. Respirator.
C. Saturator.
D. Kapnograf.
Respirator to zdecydowanie jedno z najważniejszych urządzeń medycznych stosowanych na oddziałach intensywnej terapii, blokach operacyjnych czy nawet w transporcie medycznym. Jego główne zadanie polega na mechanicznym wspomaganiu lub wręcz zastępowaniu funkcji oddychania u pacjentów, którzy nie są w stanie samodzielnie zapewnić odpowiedniej wentylacji płuc. Moim zdaniem bez respiratora nowoczesna medycyna ratunkowa praktycznie nie mogłaby funkcjonować – szczególnie w sytuacjach takich jak niewydolność oddechowa, urazy klatki piersiowej, poważne infekcje płuc czy też znieczulenie ogólne podczas operacji. Respiratory umożliwiają precyzyjne ustawienie parametrów takich jak objętość oddechowa, częstotliwość oddechu, ciśnienie końcowo-wydechowe albo stężenie tlenu w mieszaninie oddechowej, co jest absolutnie kluczowe dla indywidualnego dostosowania terapii do stanu pacjenta. Współczesne standardy, jak np. wytyczne European Society of Intensive Care Medicine, kładą nacisk na personalizację wentylacji mechanicznej, żeby minimalizować ryzyko powikłań takich jak barotrauma czy uszkodzenie płuc. W praktyce spotkałem się z sytuacjami, kiedy odpowiednie zastosowanie respiratora dosłownie ratowało życie – np. u pacjentów po zatrzymaniu akcji serca czy z ciężkim COVID-19. Warto pamiętać, że obsługa respiratora wymaga solidnej wiedzy i regularnych szkoleń, bo nieprawidłowe ustawienia mogą pogorszyć stan chorego. Ciekawostka: nowoczesne respiratory potrafią nawet automatycznie dostosowywać parametry do zmieniających się potrzeb pacjenta.

Pytanie 4

Przedstawiony na rysunku kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. hub – ruter.
B. ruter – ruter.
C. switch – komputer.
D. switch – ruter.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Na rysunku widoczny jest schemat połączenia kabla krosowanego (ang. crossover), który służy do bezpośredniego łączenia dwóch urządzeń sieciowych tego samego typu, takich jak dwa rutery, dwa switche czy dwa komputery. Kluczowe jest tu to, że sygnały nadawcze jednego urządzenia są zamieniane miejscami z odbiorczymi drugiego – właśnie dlatego niezbędne jest skrzyżowanie przewodów w kablu. Praktycznie rzecz biorąc, jeśli próbujemy połączyć dwa rutery bez urządzenia pośredniczącego, jak switch czy hub, to właśnie kabel krosowany pozwoli nam na prawidłową komunikację. W standardzie Ethernet (norma TIA/EIA-568), wyprowadzenia przewodów 1-3 i 2-6 są zamieniane, co umożliwia przesyłanie i odbieranie danych bez zakłóceń. W moim doświadczeniu, taki kabel przydaje się często podczas konfiguracji, testów lub prac serwisowych, gdzie nie ma pod ręką switcha. Warto pamiętać, że obecnie wiele nowoczesnych urządzeń obsługuje funkcję Auto-MDI/MDIX, która automatycznie dostosowuje tryb portu, ale wciąż znajomość zastosowania kabla krosowanego jest fundamentalna. Moim zdaniem, umiejętność rozpoznania gdzie i kiedy go użyć, jest jedną z podstawowych kompetencji każdego technika sieciowego – to taka klasyka, o której ciągle się mówi na zajęciach praktycznych.

Pytanie 5

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. RTG
B. EEG
C. EKG
D. KTG
Zestaw widoczny na zdjęciu to klasyczny przykład testera aparatu KTG, czyli kardiotokografu. To takie urządzenie, które wykorzystuje się przede wszystkim na oddziałach położniczych i ginekologicznych do monitorowania czynności serca płodu oraz skurczów macicy u kobiety ciężarnej. Tego typu tester pozwala na przeprowadzenie okresowej kontroli sprawności kardiotokografów, żeby mieć pewność, że pomiary są wiarygodne i bezpieczne dla pacjentek. Sam kardiotokograf jest bardzo ważny w praktyce klinicznej, bo dzięki niemu personel medyczny może szybko wykryć ewentualne nieprawidłowości w przebiegu ciąży, co w ostateczności może ratować życie dziecka lub matki. Z mojego doświadczenia wynika, że regularna kalibracja i testowanie KTG to już podstawa w nowoczesnych szpitalach – nikt nie chce ryzykować pracy na niesprawdzonym sprzęcie. Zestawy testujące mają często wbudowane standardowe sygnały testowe zgodne z normami ISO i wymaganiami producentów urządzeń medycznych, przez co można dość łatwo potwierdzić, czy dany aparat działa poprawnie. Naprawdę, jeśli ktoś myśli o pracy w serwisie sprzętu medycznego, to musi znać takie zestawy na wylot i kojarzyć, do których typów urządzeń są przeznaczone, bo pomyłka tutaj może mieć przykre skutki praktyczne.

Pytanie 6

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. UPS
B. ATX
C. UDP
D. CTX
W branży IT bardzo często myli się pojęcia dotyczące zasilania, co prowadzi do dość powszechnych błędów przy wyborze rozwiązań do ochrony sprzętu. Przykładowo, zasilacz typu ATX to standard budowy zasilaczy komputerowych, spotykany praktycznie w większości pecetów. ATX określa jak wygląda wtyczka, rozkład napięć, zabezpieczenia, ale nie gwarantuje żadnego podtrzymania napięcia w razie zaniku zasilania sieciowego. ATX po prostu dostarcza prąd z sieci do komponentów i tyle. CTX natomiast w ogóle nie jest oficjalnym lub powszechnie stosowanym standardem ani typem zasilacza – czasami można spotkać ten skrót w kontekście starych, nieprodukowanych już płyt głównych, ale nie ma on realnego znaczenia przy podtrzymywaniu zasilania. UDP to z kolei protokół sieciowy (User Datagram Protocol), nie ma absolutnie nic wspólnego z zasilaczami czy ochroną przed zanikiem napięcia – to typowy skrót sieciowy, który łatwo pomylić, jeśli ktoś nie miał jeszcze styczności z profesjonalnym nazewnictwem sprzętu. Moim zdaniem, takie pomyłki wynikają głównie z braku praktycznego doświadczenia i opierania się wyłącznie na skrótach, które gdzieś kiedyś się przewinęły w rozmowie lub na zajęciach. Warto zawsze sprawdzić, jaką funkcję pełni dane urządzenie – przykładowo, jedynie UPS (Uninterruptible Power Supply) zapewnia rzeczywistą ochronę przez chwilowe zaniki napięcia, umożliwiając bezpieczną pracę albo wyłączenie sprzętu. Branżowe dobre praktyki wręcz nakazują korzystanie z UPS-ów wszędzie tam, gdzie utrata zasilania może mieć poważne konsekwencje, np. serwery, stanowiska kasowe, laboratoria. Wybierając inne rozwiązania, tracimy tę kluczową funkcjonalność, jaką daje nam właśnie UPS.

Pytanie 7

W dokumentacji elektrokardiografu znajduje się informacja o wyposażeniu aparatu w filtry cyfrowe 50 Hz, 35 Hz i filtr antydriftowy. Które zakłócenia eliminuje z sygnału EKG filtr 50 Hz?

A. Sieciowe.
B. Wolnozmienne.
C. Szybkozmienne.
D. Mięśniowe.
Wydaje się, że odpowiedzi inne niż „sieciowe” mogą być mylące, bo w praktyce każdy filtr w elektrokardiografie ma bardzo konkretne zadanie związane z charakterystyką zakłóceń. Filtr 35 Hz bywa wykorzystywany głównie do eliminowania wyższych częstotliwości, które często wynikają z napięcia mięśniowego pacjenta – stąd czasem mówi się o „filtrze mięśniowym”. Jednak zakłócenia te mają zupełnie inny charakter niż szumy pochodzące z instalacji elektrycznej – są bardziej zmienne, skokowe, a ich amplituda często zmienia się w czasie. Wskazanie filtra 50 Hz jako eliminującego zakłócenia mięśniowe to taki dość powszechny błąd początkujących, bo rzeczywiście oba te typy zakłóceń objawiają się na wydruku jako zakłócenia, ale ich źródło i częstotliwość są inne. Z kolei filtry antydriftowe, które czasem nazywa się także filtrami wolnozmiennymi, odpowiadają za eliminowanie dryftu i powolnych zmian napięcia – na przykład gdy elektrody tracą kontakt ze skórą lub pacjent się rusza. Takie zmiany mają bardzo niską częstotliwość, zazwyczaj rzędu poniżej 0,5 Hz, i filtr 50 Hz w żaden sposób ich nie wyeliminuje – do tego są po prostu za szybkie. Bardzo często spotykam się z myleniem pojęć: ktoś myśli, że „filtr szybkozmienny” usuwa wszystko, co jest szybkie, a 50 Hz to przecież częstotliwość, która może wydawać się wysoka, ale w praktyce sieciowa. W rzeczywistości filtry 50 Hz są projektowane tak, by tłumić bardzo wąski zakres właśnie wokół tej konkretnej częstotliwości, bo to właśnie ona jest odpowiedzialna za większość zakłóceń pochodzących z zasilania w Europie. Warto pamiętać, że błędne stosowanie filtrów albo wybór nieodpowiedniego do danego typu zakłóceń może zniekształcić sygnał EKG i wprowadzić zamieszanie w interpretacji. Moim zdaniem, znając źródła zakłóceń i funkcje filtrów, łatwiej dobrać sprzęt, ustawić parametry i uzyskać czytelne, wartościowe zapisy.

Pytanie 8

Największą zdolność pochłaniania promieniowania rentgenowskiego o energii 60–160 keV wykazuje tkanka

A. kostna.
B. nerwowa.
C. tłuszczowa.
D. mięśniowa.
Często spotykam się z przekonaniem, że tkanki miękkie jak mięśnie, tkanka nerwowa czy tłuszczowa mają znaczący wpływ na pochłanianie promieniowania rentgenowskiego, szczególnie w diagnostyce obrazowej. W rzeczywistości jednak to głównie gęstość tkanki oraz zawartość pierwiastków o wyższej liczbie atomowej, jak wapń, decydują o stopniu pochłaniania promieniowania w podanym zakresie energii. Zarówno tkanka mięśniowa, tłuszczowa, jak i nerwowa składają się głównie z pierwiastków lekkich – wodoru, węgla, tlenu i azotu – oraz mają stosunkowo niską gęstość w porównaniu z kośćmi. W efekcie przez te tkanki promieniowanie rentgenowskie w dużej mierze przechodzi, co powoduje, że na zdjęciach RTG są one mniej widoczne lub przedstawiają się w odcieniach szarości. Błędne wybieranie tego typu odpowiedzi może wynikać z mylenia funkcji biologicznych tkanki z jej właściwościami fizycznymi. Część osób sądzi, że 'ważność' lub rola tkanki w organizmie przekłada się na jej zdolność do pochłaniania promieniowania – to jednak zupełnie inne kwestie. Prawidłowa interpretacja zdjęć rentgenowskich wymaga rozumienia, że to kontrast pomiędzy tkankami o różnej absorpcji promieniowania (głównie kości i tkanki miękkie) umożliwia wykrywanie patologii. Standardy diagnostyki obrazowej, jak i praktyka techników radiologii, wskazują wyraźnie, że właściwy dobór energii promieniowania pozwala najlepiej uwidocznić struktury kostne właśnie ze względu na ich wyjątkowe właściwości absorpcyjne. Warto też wiedzieć, że nawet cienka warstwa kości potrafi pochłonąć dużo więcej promieniowania niż znacznie grubsza warstwa tkanki miękkiej. Z mojego doświadczenia, zrozumienie tych zasad bardzo pomaga w unikaniu typowych błędów podczas oceny zdjęć rentgenowskich i samego wykonywania badań.

Pytanie 9

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. telewizyjnej.
B. graficznej.
C. dźwiękowej.
D. sieciowej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 10

Prezentacja A, B, M jest charakterystyczna dla badania

A. USG
B. NMR
C. MRJ
D. RTG
Prezentacja A, B, M to coś, co chyba każdy, kto miał styczność z ultrasonografią, kiedyś widział lub choćby o tym słyszał. To są trzy zasadnicze tryby obrazowania w USG, czyli ultrasonografii – bardzo powszechnej i w sumie podstawowej techniki obrazowania w medycynie diagnostycznej. Tryb A (amplitudowy) jest dziś raczej rzadko spotykany w codziennej praktyce, ale nadal się go używa np. w okulistyce czy pomiarach głębokości tkanek. Tryb B (jasność, brightness) to ten najpopularniejszy – właściwie każde typowe badanie USG jamy brzusznej, tarczycy czy narządów miednicy jest właśnie w trybie B. To ten obraz szaro-biały, który lekarz ogląda na ekranie. Natomiast tryb M (od motion – ruch) pozwala śledzić ruchome struktury, np. pracę zastawek serca, dlatego jest wykorzystywany w echokardiografii. Co ciekawe, to właśnie te tryby stanowią podstawę do zaawansowanych badań Dopplerowskich, które często wykorzystuje się do oceny przepływu krwi. W codziennej praktyce bardzo ważne jest, żeby rozumieć, czym się różnią i kiedy się ich używa, bo czasami dobór nieodpowiedniego trybu może utrudnić prawidłową diagnostykę. Moim zdaniem, każdy technik czy lekarz powinien znać te podstawy, bo bez nich ani rusz – to taka trochę „tabliczka mnożenia” w diagnostyce obrazowej. Przykładowo, w trybie M często bada się np. frakcję wyrzutową serca. No i jak się spojrzy na standardy EFSUMB czy Polskiego Towarzystwa Ultrasonograficznego, to znajomość tych trybów to absolutna podstawa praktyki.

Pytanie 11

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. EKG
B. RTG
C. KTG
D. EMG

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.

Pytanie 12

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 10
B. 13
C. 24
D. 15
W praktyce medycznej często można się pogubić w liczbie elektrod używanych podczas badania EKG, zwłaszcza jeśli ktoś kieruje się intuicją lub wyobraża sobie, że liczba odprowadzeń zawsze równa się liczbie przyklejanych elektrod. Tak jednak nie jest. Standardowe 12-odprowadzeniowe EKG wykorzystuje dokładnie 10 elektrod – sześć przedsercowych oraz cztery kończynowe. Wybierając odpowiedzi typu 13 czy 15 elektrod, można się zasugerować tym, że skoro odprowadzeń jest aż dwanaście, to do każdego potrzeba oddzielnej elektrody, a do tego może jeszcze kilka zapasowych, ale to zupełnie mylne podejście. Taka liczba elektrod pojawia się czasem w specjalistycznych badaniach, jak np. mapowanie 15-odprowadzeniowe, kiedy dodaje się elektrody V7-V9 na plecach lub bocznie do wykrywania zmian np. niedokrwienia w innych segmentach serca. Jednak w rutynowej diagnostyce nie jest to standardem. Z kolei odpowiedzi typu 24 elektrody to już, moim zdaniem, pomylenie z monitorowaniem w oddziałach intensywnej terapii czy zaawansowanym Holterem, gdzie rzeczywiście bywa używanych o wiele więcej punktów pomiarowych. Często studenci mylą się, bo myślą, że każda „linia” na wydruku EKG to osobna elektroda, a przecież są to kombinacje sygnałów rejestrowane z tych samych punktów. Najlepszą praktyką jest zawsze wracać do podstaw i pamiętać, że technika 12-odprowadzeniowa opiera się na 10 elektrodach, a reszta to już modyfikacje specjalistyczne. Takie rozumienie oszczędza czas i pomaga uniknąć błędów podczas prawdziwych badań.

Pytanie 13

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. telewizyjnych.
B. graficznych.
C. sieciowych.
D. dźwiękowych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 14

Do kruszenia kamieni w pęcherzu moczowym stosowane są fale

A. ultradźwiękowe.
B. radiowe.
C. ultrafioletowe.
D. infradźwiękowe.
Fale ultradźwiękowe to absolutna podstawa w nowoczesnym leczeniu kamicy pęcherza moczowego. Chodzi oczywiście o tzw. litotrypsję falą uderzeniową (z ang. ESWL), czyli procedurę wykorzystującą precyzyjnie skierowane fale ultradźwiękowe o wysokim natężeniu. Ich energia pozwala dosłownie rozbijać kamienie na drobne fragmenty, które potem naturalnie są usuwane z organizmu wraz z moczem. To rozwiązanie jest nieinwazyjne, co moim zdaniem jest ogromnym plusem – pacjent nie wymaga operacji, minimalizuje się ryzyko powikłań, a rekonwalescencja jest bardzo szybka. W praktyce często widzi się, że chorzy wracają do normalnej aktywności wręcz błyskawicznie. Uważam, że to technologia, która naprawdę pokazuje, jak medycyna potrafi sprytnie wykorzystać prawa fizyki. Warto też pamiętać, że ultradźwięki są szeroko stosowane nie tylko w urologii – np. diagnostyka USG czy leczenie przewlekłych schorzeń układu mięśniowego. Branżowe standardy zalecają stosowanie tej metody w przypadkach, gdy kamienie nie są zbyt duże ani zbyt twarde i nie zalegają w miejscach trudno dostępnych dla fali. Czasami litotrypsję łączy się z innymi technikami, ale ultradźwięki to taki pierwszy wybór. Z mojej perspektywy to naprawdę przełomowa metoda i warto ją dobrze rozumieć, bo coraz częściej pojawia się w praktyce klinicznej.

Pytanie 15

Aby usunąć katalog w systemie Windows należy wykonać polecenie

A. REPLACE
B. REM
C. RMDIR
D. RENAME
Polecenia REM, RENAME czy REPLACE, choć brzmią znajomo dla osób pracujących z wierszem poleceń, nie służą do usuwania katalogów w systemie Windows. REM wykorzystywane jest wyłącznie do tworzenia komentarzy w skryptach wsadowych – nie wykonuje żadnych operacji na plikach czy folderach. Osobiście zauważyłem, że czasem początkujący mylą REM z czymś pokroju REMOVE, ale niestety Windows nie implementuje takiej komendy. RENAME, jak sama nazwa sugeruje, służy wyłącznie do zmiany nazwy pliku lub folderu, nie umożliwia jego usunięcia. Nierzadko spotkałem się z sytuacją, że ktoś próbował użyć RENAME do zamiany katalogu na pusty lub usunięcia go po zmianie nazwy, ale to kompletnie nie działa w taki sposób – system tylko zmienia nazwę, nie usuwa danych. Z kolei REPLACE to polecenie do podmieniania plików w docelowym folderze na podstawie zawartości innego katalogu, co przydaje się raczej przy aktualizacjach plików niż usuwaniu katalogów. Typowym błędem jest założenie, że z racji podobnych brzmień komend, można je stosować zamiennie do różnych operacji na plikach i folderach – w rzeczywistości każda z nich ma bardzo precyzyjnie określoną funkcję w ekosystemie Windows. Praktyka pokazuje, że niepoprawne użycie tych poleceń może prowadzić do frustracji i niepotrzebnych komplikacji w pracy z plikami. Dla bezpieczeństwa i efektywności warto pamiętać, by przed użyciem nowego polecenia dokładnie sprawdzić jego przeznaczenie i składnię, najlepiej w oficjalnej dokumentacji Microsoftu lub korzystając z polecenia help w cmd. Usuwanie katalogów to czynność, którą powinno się wykonywać świadomie i korzystając z odpowiedniego narzędzia, czyli właśnie RMDIR.

Pytanie 16

Zaćma fotochemiczna jest wywoływana promieniowaniem

A. IR-C
B. VIS
C. UV-B
D. UV-A
Zaćma fotochemiczna to taki typ uszkodzenia soczewki oka, który jest wywoływany przez długotrwałe lub intensywne narażenie na promieniowanie ultrafioletowe, głównie w zakresie UV-A. To właśnie ten zakres fal elektromagnetycznych (320–400 nm) przenika najgłębiej do oka i może powodować zmiany w strukturze białek soczewki, prowadząc do jej zmętnienia. Stosunkowo mało osób zdaje sobie sprawę, że zwykłe przebywanie na słońcu bez odpowiedniej ochrony oczu przez wiele lat, nawet poza tropikami, może wywołać takie zmiany. W praktyce zawodowej, na przykład w branży spawania czy pracy w laboratoriach, stosuje się specjalne okulary ochronne, które blokują UV-A, bo właśnie to pasmo jest najbardziej podstępne – nie czujemy go, a uszkodzenia pojawiają się powoli. Zgodnie z zaleceniami BHP oraz wytycznymi międzynarodowymi (np. normy EN 166, EN 170) ochrona oczu przed UV-A jest uznawana za absolutny standard. Moim zdaniem, warto też wiedzieć, że UV-B ma bardziej powierzchniowe działanie i powoduje głównie oparzenia rogówki, natomiast UV-A dociera głębiej. Wielu okulistów zwraca uwagę, że świadomość tej zależności pozwala lepiej dbać o wzrok – dobre okulary przeciwsłoneczne powinny mieć filtr UV-A, nie tylko UV-B. Ja zawsze staram się wybierać takie, które wyraźnie mają oznaczenie 100% UV, bo to daje największe bezpieczeństwo. Warto to zapamiętać, szczególnie jeśli pracujesz dużo na zewnątrz albo wykonujesz prace w warunkach dużej ekspozycji na światło.

Pytanie 17

Na którym rysunku przedstawiony jest interfejs zapewniający najwyższą prędkość transferu urządzeń elektroniki medycznej?

A. Rysunek 1
Ilustracja do odpowiedzi A
B. Rysunek 3
Ilustracja do odpowiedzi B
C. Rysunek 4
Ilustracja do odpowiedzi C
D. Rysunek 2
Ilustracja do odpowiedzi D
Często przy wyborze portu lub interfejsu do transferów danych w sprzęcie medycznym wiele osób skupia się na symbolach, niekoniecznie analizując, co one realnie oznaczają pod względem przepustowości. Symbol klasycznego USB, nawet w wersji z piorunem czy plusem, najczęściej sugeruje standard USB 2.0 albo nawet starszy. W praktyce oznacza to ograniczenie do prędkości maksymalnie 480 Mbit/s, co przy dużych zbiorach danych, typowych dla urządzeń diagnostycznych, jest po prostu zbyt wolne. Dodatkowe oznaczenia, jak piorun, bywają mylące – wielu użytkowników myli je z Thunderbolt, który rzeczywiście oferuje duże prędkości, ale to zupełnie inny interfejs, nie USB. Pojawiający się przy gnieździe plus z kolei odnosi się raczej do funkcji ładowania lub zwiększonego zasilania, a nie transferu danych. Typowym błędem jest też traktowanie wszystkich złącz USB jako równoważnych pod kątem transferu – a to nieprawda, bo tylko USB 3.x (oznaczone właśnie jako SuperSpeed, czyli SS) zapewnia realnie wielokrotnie wyższą przepustowość i stabilność, co jest kluczowe przy pracy w środowisku medycznym. Inżynierowie oraz serwisanci powinni zawsze kierować się nie tylko wyglądem portu, ale przede wszystkim znajomością standardów i wymagań sprzętowych. Niezrozumienie tej różnicy może prowadzić do sytuacji, gdzie sprzęt działa wolno lub niewystarczająco stabilnie, a to w medycynie potrafi być naprawdę problematyczne.

Pytanie 18

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. EOG
B. UKG
C. EEG
D. KTG
EEG, czyli elektroencefalografia, to rzeczywiście zapis elektrycznej aktywności mózgu, który wykorzystuje się w wielu dziedzinach, od neurologii po psychologię. W praktyce wygląda to tak, że na skórę głowy pacjenta nakłada się elektrody, które rejestrują zmiany potencjałów elektrycznych powstających podczas pracy neuronów w mózgu. Wynik tego badania to wykres fal mózgowych – takich jak alfa, beta, delta czy theta. Najczęściej EEG stosuje się przy diagnostyce padaczki, śpiączek, różnych zaburzeń snu albo nawet przy sprawdzaniu głębokości narkozy. Moim zdaniem to jedno z bardziej uniwersalnych narzędzi we współczesnej medycynie – nieinwazyjne, szybkie i naprawdę często ratuje skórę, gdy diagnoza jest niejasna. Fachowcy trzymają się przy tym określonych wytycznych – jak np. systemu 10-20 do rozmieszczania elektrod na głowie, żeby wyniki były powtarzalne i wiarygodne. Z mojego doświadczenia wynika też, że coraz częściej EEG łączy się z nowymi technikami analizy danych, jak machine learning, co otwiera kolejne drzwi do lepszego rozumienia pracy mózgu. No i warto dodać, że skrót EEG to już światowy standard, więc w każdym szpitalu czy laboratorium rozumieją, o co chodzi.

Pytanie 19

Rysunek przedstawia wynik działania polecenia ipconfig urządzenia w sieci LAN. Który adres rutera umożliwia dostęp tego urządzenia do sieci WAN?

Karta Ethernet Połączenie lokalne:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :

Karta bezprzewodowej sieci LAN Połączenie sieci bezprzewodowej:

Sufiks DNS konkretnego połączenia :
Adres IPv6 połączenia lokalnego . : fe80::2dd5:5602:1f17:82c8%11
Adres IPv4. . . . . . . . . . . . : 192.168.10.44
Maska podsieci. . . . . . . . . . : 255.255.255.0
Brama domyślna. . . . . . . . . . : 192.168.10.1

Karta tunelowa isatap.Home:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :
A. 255.255.255.0
B. 192.168.10.44
C. 192.168.10.1
D. fe80.2dd5.5602
Adres 192.168.10.1 został wskazany jako brama domyślna w wyniku polecenia ipconfig. To właśnie ten adres odpowiada za „wyjście” urządzenia z sieci lokalnej (LAN) do sieci zewnętrznej, czyli WAN, najczęściej Internetu. W praktyce jest to adres IP interfejsu routera w Twojej podsieci – wszystkie pakiety kierowane poza lokalny segment sieci są przesyłane właśnie do tej bramy, która dalej je przekazuje do odpowiedniego miejsca docelowego. Branżowo mówi się, że „default gateway” to taki domyślny punkt styku ze światem zewnętrznym. W standardowych konfiguracjach urządzeń sieciowych (np. Windows, routery SOHO) zawsze warto sprawdzać tę wartość, gdy pojawiają się problemy z dostępem do Internetu. Często powtarza się (i słusznie!), że zły adres bramy lub jej brak od razu uniemożliwia komunikację poza lokalną siecią, nawet jeśli IP i maska są poprawne. Co ciekawe, w większych sieciach bywa, że bram jest kilka, ale domyślna jest tylko jedna dla danego hosta. W sumie – bez bramy domyślnej nie ma szans, żeby „wyjść” z LANu. Z mojego doświadczenia zawsze najpierw sprawdzam tę wartość podczas diagnozowania awarii sieci – to podstawa każdego serwisanta albo administratora. Warto też wiedzieć, że adres bramy domyślnej zwykle kończy się na .1, choć nie jest to twarda reguła, po prostu tak przyjęło się ze względów porządkowych. W tym przykładzie wszystko wygląda książkowo.

Pytanie 20

Zapis w dokumentacji kardiotokografu „prezentacja sygnału FHR” dotyczy

A. czynności skurczowej macicy.
B. częstości uderzeń serca matki.
C. częstości uderzeń serca płodu.
D. aktywności ruchowej płodu.
Wiele osób myli zapis „prezentacja sygnału FHR” z innymi parametrami monitorowanymi podczas kardiotokografii, co jest dość częstym błędem w praktyce. FHR, czyli fetal heart rate, zawsze odnosi się do tętna płodu, a nie matki. Uderzenia serca matki są zupełnie innym wskaźnikiem i ich prezentacja nie jest celem kardiotokografii – choć czasem mogą pojawiać się artefakty lub zapis tętna matki w specjalnych sytuacjach, to nie jest to standard. Czynność skurczowa macicy również jest rejestrowana w trakcie KTG, ale zwykle jako osobny wykres lub zapis, najczęściej pod postacią krzywej tocograficznej. Sygnał FHR to wyłącznie zapis pracy serca płodu, a nie macicy. Aktywność ruchowa płodu, choć bywa oceniana subiektywnie przez matkę lub przez personel medyczny, nie jest tożsama z sygnałem FHR – czasem te dane są korelowane, ale nie są prezentowane jako jeden wspólny parametr. Wydaje mi się, że częstym nieporozumieniem jest utożsamianie FHR z ogólną aktywnością dziecka, bo faktycznie oba te wskaźniki są istotne, jednak z technicznego punktu widzenia aparatura KTG wyraźnie rozdziela te informacje. Moim zdaniem, dla poprawnej interpretacji wyników i unikania niepotrzebnych interwencji, dobrze jest pamiętać, że sygnał FHR to precyzyjna informacja o bicie serca płodu, a nie o innych funkcjach czy parametrach. To jest zgodne z aktualnymi wytycznymi i najlepszymi praktykami w położnictwie. W praktyce klinicznej niewłaściwe rozumienie tych skrótów może prowadzić do błędów diagnostycznych i niepotrzebnego stresu zarówno dla opiekunów, jak i rodziców. Dobrze, żeby każdy, kto pracuje z tym sprzętem, potrafił jasno rozróżnić te pojęcia i poprawnie je interpretować.

Pytanie 21

Na rysunku przedstawiono przyrząd, którym przeprowadza się test i kontrolę

Ilustracja do pytania
A. fotometru.
B. oscyloskopu.
C. defibrylatora.
D. aparatu EKG.
Sprzęt widoczny na zdjęciu to tzw. defibrylator analyzer, czyli urządzenie do testowania i kontroli defibrylatorów. Takie przyrządy są używane w serwisach medycznych oraz przez techników odpowiedzialnych za bezpieczeństwo sprzętu medycznego w szpitalach. Moim zdaniem, znajomość działania tego typu analizatorów jest kluczowa dla każdego, kto zajmuje się diagnostyką i konserwacją aparatury medycznej, bo defibrylatory muszą być regularnie sprawdzane pod kątem poprawności wydawanej energii, czasu ładowania czy prawidłowości wyzwolenia impulsu. To zdecydowanie nie jest temat teoretyczny, bo od jakości tych testów zależy zdrowie, a często nawet życie pacjentów. Dobre praktyki branżowe (np. IEC 60601-2-4) nakazują regularne sprawdzanie defibrylatorów właśnie takim specjalistycznym sprzętem. Analizator pozwala symulować różne scenariusze i rejestrować, czy defibrylator działa zgodnie ze specyfikacją. W praktyce testuje się nie tylko energię impulsów, ale też parametry czasowe i bezpieczeństwo wyładowania. Z mojego doświadczenia – ten przyrząd to podstawa kontroli jakości w każdej placówce medycznej.

Pytanie 22

Jaką funkcję pełni przedstawiona na rysunku procedura BIOS?

Ilustracja do pytania
A. Przyśpiesza operacje odczytu danych z dysku SSD podczas uruchomienia systemu operacyjnego.
B. Umożliwia wykonanie testu poprawności działania dysku twardego podczas uruchomienia systemu operacyjnego.
C. Umożliwia odczytanie parametrów dysku twardego podczas uruchomienia systemu operacyjnego.
D. Przyśpiesza operacje zapisu danych na dysk SSD podczas zamykania systemu operacyjnego.
Wybrana odpowiedź jest prawidłowa, bo dokładnie takie zadanie realizuje procedura SMART Self-Test w BIOS-ie. Ten mechanizm – moim zdaniem jeden z najbardziej niedocenianych przez zwykłych użytkowników – pozwala kontrolować stan techniczny dysku twardego już podczas startu komputera. BIOS uruchamia tzw. autotest SMART, czyli Self-Monitoring, Analysis and Reporting Technology. Chodzi tu o wczesne wykrycie problemów z dyskiem, zanim jeszcze system operacyjny wystartuje na dobre. Praktyczny sens tego rozwiązania? Jeśli dysk twardy zaczyna mieć jakieś błędy mechaniczne lub logiczne, BIOS wykryje to podczas procesu POST (Power-On Self-Test) i wyświetli odpowiedni komunikat. Z mojego doświadczenia wynika, że takie ostrzeżenia często pozwalają na uratowanie danych, zanim dysk odmówi całkowicie posłuszeństwa. To jest zgodne z najlepszymi praktykami branżowymi – regularny monitoring SMART i szybka reakcja na błędy to podstawa zarządzania sprzętem w każdym poważnym środowisku IT. Warto wiedzieć, że wyniki testu SMART są analizowane na podstawie kilkudziesięciu parametrów, takich jak liczba relokowanych sektorów, czas rozruchu, czy liczba błędów odczytu. Współczesne standardy zalecają, żeby nie ignorować alertów SMART i natychmiast wykonać kopię zapasową, jeśli pojawi się jakiekolwiek ostrzeżenie. To dobra inwestycja w bezpieczeństwo danych – sam zawsze radzę, żeby mieć to ustawienie włączone, nawet jeśli trochę wydłuża start systemu.

Pytanie 23

Który rozdzielacz sygnału należy zastosować w celu wykorzystania jednego przewodu U/UTP5e do podłączenia dwóch urządzeń do sieci LAN?

A. Rozdzielacz 2
Ilustracja do odpowiedzi A
B. Rozdzielacz 1
Ilustracja do odpowiedzi B
C. Rozdzielacz 4
Ilustracja do odpowiedzi C
D. Rozdzielacz 3
Ilustracja do odpowiedzi D
Rozdzielacz 2 to tzw. pasywny rozdzielacz sygnału RJ-45, który pozwala fizycznie rozdzielić przewody U/UTP5e tak, by przesłać dwa niezależne sygnały Ethernet przez jeden przewód czteroparowy. Ten trik jest wykorzystywany głównie w starszych instalacjach, gdzie urządzenia pracują w standardzie Fast Ethernet 100 Mb/s, bo wtedy używane są tylko dwie pary przewodów na jedno połączenie. Rozdzielacz 2 daje możliwość podłączenia dwóch urządzeń do sieci LAN przez jeden przewód, oczywiście pod warunkiem, że na obu końcach instalacji zastosujemy ten sam typ rozdzielacza i nie stosujemy przełącznika (switcha) po drodze – bo wtedy sygnały się nie "zmieszają". Moim zdaniem to bardzo praktyczne rozwiązanie, gdy trzeba nagle dołączyć drugie urządzenie a nie ma jak przeciągnąć kolejnego kabla – czasem ratuje to sytuację w biurach czy mieszkaniach. Warto wiedzieć, że takie rozwiązanie nie jest zgodne z najnowszymi standardami (np. dla gigabita trzeba już wszystkich czterech par), ale dla starszych sieci sprawdza się świetnie. W praktyce, jeśli ktoś zna topologię sieci, wie jakie są ograniczenia sprzętowe i nie wymaga się gigabitów, to taki rozdzielacz jest naprawdę użyteczny. Dobre praktyki branżowe mówią, żeby informować użytkownika o możliwych ograniczeniach przepustowości i nie stosować tego w nowoczesnych instalacjach, ale czasem nie ma wyjścia. Sam kiedyś musiałem ratować się takim rozwiązaniem w starej szkole – działało całkiem spoko, byle by nie oczekiwać cudów z prędkościami.

Pytanie 24

Która magistrala służy do szeregowej transmisji danych?

A. PCI E
B. PCI X
C. ATA
D. AGP
Magistrale komputerowe to temat, który potrafi wprowadzić trochę zamieszania, szczególnie jeśli nie śledzi się na bieżąco zmian w technologiach. Wiele osób myli magistrale równoległe z szeregowymi, bo przez lata standardem były rozwiązania równoległe jak PCI czy ATA. Jednak, jeśli chodzi o AGP, to był to interfejs zaprojektowany specjalnie pod karty graficzne, ale opierał się na transmisji równoległej, czyli przesyłał wiele bitów jednocześnie, a nie jeden po drugim. W praktyce AGP pozwalało na szybkie łączenie kart graficznych z płytą główną, ale dziś jest już przestarzałe i praktycznie nie spotyka się tego złącza w nowych komputerach. ATA (często spotykany jako IDE) to też klasyk dawnych komputerów, stosowany głównie do podłączania dysków twardych i napędów optycznych. Tutaj również mamy do czynienia z transmisją równoległą – szeroka taśma przesyłała równocześnie 16 bitów, co z jednej strony dawało sporą przepustowość jak na tamte czasy, ale było podatne na zakłócenia i ograniczenia długości przewodów. Z kolei PCI-X (nie mylić z PCIe) to rozwinięcie klasycznego PCI, nadal jednak bazujące na równoległej transmisji. Pomimo zwiększenia przepustowości względem PCI, wciąż nie rozwiązywał problemów typowych dla równoległych magistral – synchronizacji sygnałów czy podatności na różne interferencje. W sumie wszystkie te technologie przegrały z szeregowością PCI Express, bo to ona okazała się bardziej skalowalna i efektywna. Z mojego punktu widzenia, typowy błąd podczas nauki to utożsamianie nowych magistrali z tymi starszymi tylko dlatego, że mają podobne nazwy – a jednak różnica między PCIe a PCI lub PCI-X jest zasadnicza, bo dotyczy właśnie trybu przesyłania danych. Szeregowość to fundament nowoczesnych rozwiązań, bo lepiej radzi sobie z wysokimi częstotliwościami i minimalizuje błędy transmisji, stąd PCIe niemal całkowicie wyparło poprzedników.

Pytanie 25

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. user add rejestracja
B. net rejestracja \add user
C. net user rejestracja /add
D. add user rejestracja

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 26

Z przedstawionej dokumentacji pamięci wynika że jest ona przeznaczona do

rodzaj pamięci : SO-DIMM

standard : DDR3-1333 (PC3-10600)

pojemność pojedynczego modułu : 4 GB

A. komputerów stacjonarnych.
B. dysków przenośnych.
C. serwerów.
D. laptopów.
W tym pytaniu kluczowa sprawa to rozpoznanie typu pamięci SO-DIMM. Ten rodzaj modułu jest stosowany praktycznie wyłącznie w laptopach i urządzeniach o ograniczonej przestrzeni, takich jak niektóre mini-PC czy komputery typu all-in-one, ale głównie właśnie w notebookach. Moduły SO-DIMM (Small Outline Dual In-line Memory Module) są znacznie krótsze od standardowych DIMM-ów, które znajdziesz w zwykłych komputerach stacjonarnych. Standard DDR3-1333 (PC3-10600) to już trochę starszy typ pamięci, ale wciąż spotykany w starszych laptopach – nowe korzystają najczęściej z DDR4 lub obecnie nawet DDR5, jednak długo przez lata DDR3 był powszechnym wyborem. Moim zdaniem, jeśli pracujesz przy serwisie, zawsze warto najpierw sprawdzić właśnie ten typ złącza i format, bo to pozwala łatwo uniknąć podstawowego błędu przy zamawianiu części. Co ciekawe, serwery i komputery stacjonarne wykorzystują standardowe DIMM-y, które są większe i mają inną konstrukcję mechaniczną. W dyskach przenośnych pamięć RAM w formie SO-DIMM w ogóle nie występuje, bo tam raczej stosuje się kości NAND Flash. W praktyce – zawsze, gdy widzisz SO-DIMM, myśl o laptopach. To taka branżowa podpowiedź, która często się sprawdza w codziennej pracy technika.

Pytanie 27

Które polecenie SQL pozwoli na utworzenie tabeli pacjentów w bazie przychodnia?

A. CREATE DATABASE przychodnia TAB pacjenci.
B. CREATE DB przychodnia TABLE pacjenci.
C. CREATE przychodnia, pacjenci.
D. CREATE TABLE pacjenci.
Wiele osób, zaczynając pracę z SQL, myli konstrukcje poleceń do tworzenia baz, tabel i czasem próbuje je łączyć w jeden krok – to dość powszechna pułapka. Przyglądając się tym odpowiedziom, łatwo zauważyć brak zrozumienia, jak SQL rozdziela operacje administracyjne od operacji na strukturach danych. Na przykład zapis CREATE DB przychodnia TABLE pacjenci sugeruje, że można jednocześnie tworzyć bazę i tabelę w jednym poleceniu, jednak SQL nie przewiduje takiej składni – każda operacja musi być wykonana osobno, najpierw CREATE DATABASE, potem dopiero CREATE TABLE już po przełączeniu się na tę bazę. Użycie skrótu DB nie jest zgodne z żadnym oficjalnym standardem SQL i nie zostanie rozpoznane przez silniki bazodanowe. Z kolei CREATE przychodnia, pacjenci jest wręcz kompletnie błędne – nie ma takiego polecenia SQL, które pozwalałoby tworzyć naraz różne obiekty w jednej komendzie w takiej formie. Pomieszanie przecinków i składni przypomina raczej składnię innych języków programowania, nie SQL. CREATE DATABASE przychodnia TAB pacjenci to znowu próba skrótu lub łączenia poleceń, która nie występuje w standardzie. Schematy tego typu zwykle wynikają z chęci uproszczenia pracy lub złego zrozumienia dokumentacji. Moim zdaniem to pokazuje, jak ważne jest czytanie oficjalnych źródeł i testowanie poleceń na prawdziwych bazach. W SQL każda operacja ma jasno określoną składnię: najpierw tworzysz bazę (jeśli jej nie ma), potem przełączasz się na nią (np. komendą USE), a dopiero potem tworzysz tabelę. Brak rozdzielenia tych kroków to typowy błąd początkujących. Warto zwracać uwagę na oficjalną dokumentację każdego silnika bazodanowego, bo czasem są drobne różnice, ale podstawowa logika jest taka sama. Jeśli nie trzymać się tej hierarchii, łatwo o błędne myślenie typu: "to pewnie działa na skróty" – a SQL nie wybacza takich pomyłek.

Pytanie 28

W systemie bazodanowym wymagane jest dodatkowe sprzętowe zabezpieczenie danych przed ich utratą. Która macierz dyskowa pozwala uodpornić się na utratę danych w przypadku awarii wszystkich dysków poza jednym?

A. RAID 6
B. RAID 0
C. RAID 1
D. RAID 5

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
RAID 1 to tak naprawdę najprostszy i najczęściej spotykany sposób na zabezpieczenie danych w środowiskach, gdzie kluczowa jest niezawodność, a niekoniecznie wydajność czy oszczędność miejsca. Działanie RAID 1 opiera się na tzw. mirroringu, czyli lustrzanym zapisie – wszystkie dane są zapisywane jednocześnie na dwóch (lub więcej, jeśli kontroler pozwala) identycznych dyskach. Dzięki temu nawet jeśli jeden z dysków nagle padnie, system praktycznie bez przerwy dalej działa na kopii znajdującej się na pozostałym sprawnym dysku. Moim zdaniem to bardzo rozsądny wybór zwłaszcza dla baz danych czy systemów księgowych, gdzie utrata chociażby kilkudziesięciu minut pracy to już realna strata. Oczywiście, RAID 1 nie chroni przed wszystkimi zagrożeniami – gdyby np. zasilacz spalił wszystkie dyski naraz, nic nie pomoże – ale na typowe awarie sprzętowe to bardzo skuteczna ochrona. Dobrą praktyką IT jest łączyć RAID 1 z regularnym backupem na zewnętrzny nośnik, bo samo powielanie dysków nie zabezpiecza przed błędami użytkownika czy atakiem ransomware. Warto dodać, że RAID 1 pozwala na tzw. hot swap, czyli wymianę uszkodzonego dysku nawet bez wyłączania serwera – co w serwerowniach jest absolutnie nieocenione. Dla mnie, jeśli priorytetem jest bezpieczeństwo i prostota zarządzania, RAID 1 zawsze będzie jednym z najważniejszych rozwiązań.

Pytanie 29

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.0 – 192.150.160.127
B. 192.150.160.0 – 192.150.160.63
C. 192.150.160.1 – 192.150.160.62
D. 192.150.160.1 – 192.150.160.128
Adresacja sieciowa to coś, co potrafi naprawdę namieszać na początku, ale w praktyce to podstawa przy konfiguracji sieci – zwłaszcza jak zaczynasz bawić się maskami podsieci. W przypadku adresu 192.150.160.0/26 mamy maskę 255.255.255.192, czyli 6 bitów na hosty w ostatnim oktecie. To daje w sumie 64 adresy IP w tej podsieci (od 0 do 63). Ale tylko adresy od 192.150.160.1 do 192.150.160.62 nadają się na urządzenia, bo pierwszy (z końcówką .0) to adres sieci, a ostatni (z końcówką .63) to adres rozgłoszeniowy (broadcastowy). To standardowo przyjęte we wszystkich sieciach IPv4. Moim zdaniem dobrze to sobie rozrysować na kartce, szczególnie jeśli chcesz uniknąć wpadki przy większych projektach. W praktyce, np. jak konfigurujesz routery, serwery DHCP czy firewalle – zawsze pilnuj, żeby nie przypisać urządzeniom adresu sieci ani broadcast, bo wtedy mogą pojawić się trudne do wyłapania błędy. Często spotykam się z sytuacją, gdzie ktoś korzysta z całego zakresu, nie zwraca uwagi na te dwa specjalne adresy i potem coś nie działa. Z mojej perspektywy to taka podstawowa wiedza, którą każdy administrator czy technik IT powinien mieć w małym palcu. Warto też pamiętać, że takie podejście jest zgodne z RFC 950, gdzie określono te zasady. Praktyka pokazuje, że dobrze znać te reguły chociażby po to, żeby automatycznie wiedzieć, jaki zakres możesz wpisać np. w konfiguracji serwera DHCP, bez ryzyka, że coś przestanie działać.

Pytanie 30

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. fonokardiografii.
B. elektrokardiografii.
C. angiografii.
D. echokardiografii.
Zjawisko zmiany częstotliwości fali odbitej od poruszającego się obiektu to tzw. efekt Dopplera i to właśnie na nim w dużej mierze opiera się echokardiografia. Często się o tym nie mówi na lekcjach, ale dla praktyka medycznego albo technika to naprawdę fundamentalna sprawa – bo dzięki temu można zobaczyć nie tylko kształt i ruchy serca, ale też prędkość przepływu krwi przez jamy i zastawki. Echokardiograf, poza klasycznym obrazowaniem 2D, może mierzyć prędkości dzięki tzw. Dopplerowi kolorowemu albo spektralnemu i na tej podstawie lekarz od razu widzi gdzie są na przykład zwężenia naczyń czy cofanie się krwi (niedomykalność zastawek). W praktyce na oddziale kardiologicznym to jedno z podstawowych badań nie tylko diagnostycznych, ale też monitorujących efekty leczenia. Warto wiedzieć, że to bardzo nowoczesna technologia, która cały czas się rozwija – pojawiają się coraz lepsze algorytmy, a nawet systemy AI wspomagające ocenę przepływów. Moim zdaniem, znajomość efektu Dopplera i jego medycznych zastosowań jest bardzo ceniona, bo otwiera drzwi do pracy z nowoczesnym sprzętem i w ogóle daje poczucie, że rozumiemy jak działa współczesna diagnostyka obrazowa. Branża wymaga, żeby nie tylko wiedzieć „co” się widzi na ekranie, ale też „dlaczego” ten obraz tak wygląda – no i efekt Dopplera to podstawa w tej układance.

Pytanie 31

W jakim celu stosuje się Standard HL7 (Health Level Seven)?

A. Umożliwienia elektronicznej rejestracji usług medycznych.
B. Określenia stopnia zabezpieczeń danych osobowych w informatycznych systemach medycznych.
C. Wskazania poziomu świadczonych usług medycznych.
D. Umożliwienia elektronicznej wymiany informacji w środowiskach medycznych.
Rozumienie celu standardu HL7 bywa mylące, bo skrót i sama nazwa mogą sugerować różne rzeczy. Wiele osób zakłada, że skoro chodzi o standard w ochronie zdrowia, to dotyczy on poziomu usług medycznych albo zabezpieczeń danych. W praktyce HL7 nie służy ani ocenianiu jakości świadczonych usług, ani bezpośrednio nie definiuje metod ochrony danych osobowych. Oczywiście, bezpieczeństwo jest ważne i pojawia się przy wdrażaniu HL7, ale sam standard skupia się przede wszystkim na tym, żeby różne systemy mogły się ze sobą dogadać, czyli wymieniać dane w sposób zrozumiały i przewidywalny. Podobnie, HL7 nie jest typowym narzędziem do rejestracji usług medycznych – to raczej „język”, w jakim te informacje mogą być przekazywane. Mylenie HL7 z funkcjonalnością systemów rejestrujących usługi to dość częsty błąd, bo wydaje się, że skoro coś jest standardem, to reguluje wszystko naraz, a w rzeczywistości standardy takie jak HL7 koncentrują się na konkretnej warstwie, tutaj komunikacyjnej. Często też spotyka się przekonanie, że HL7 określa poziom zabezpieczenia danych, ale od tego są inne normy i standardy, na przykład ISO/IEC 27001 czy rozporządzenie RODO. HL7 jedynie umożliwia bezpieczną wymianę, jeśli wdrożony jest prawidłowo, ale sam nie opisuje szczegółowo technik szyfrowania czy autoryzacji. Moim zdaniem największym nieporozumieniem jest sprowadzanie HL7 do prostego narzędzia rejestracji – to zbyt uproszczone podejście, bo bez właściwej, ustandaryzowanej wymiany nie byłoby możliwe zbudowanie interoperacyjnych ekosystemów medycznych, które dzisiaj są już standardem nie tylko w szpitalach, ale i w przychodniach czy laboratoriach. Warto więc pamiętać, że HL7 to przede wszystkim narzędzie do komunikacji między systemami – nie ocenia, nie rejestruje usług samodzielnie, nie definiuje zabezpieczeń, tylko umożliwia zrozumiałą wymianę danych między różnymi platformami.

Pytanie 32

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 MW
B. 10 kW
C. 10 kₖW
D. 10 W
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 33

Stężenie którego gazu z wydychanego powietrza prezentuje kapnogram?

Ilustracja do pytania
A. O₂
B. N₂O
C. CO₂
D. H
Kapnogram to wykres, który pokazuje zmiany stężenia dwutlenku węgla (CO₂) w wydychanym powietrzu podczas oddychania. To bardzo praktyczne narzędzie, szczególnie w anestezjologii i intensywnej terapii, bo pozwala niemal natychmiast zauważyć wszelkie nieprawidłowości w wentylacji pacjenta. Moim zdaniem, właśnie kapnografia, czyli analiza gazu oddechowego pod kątem CO₂, jest jednym z najważniejszych monitorów bezpieczeństwa podczas znieczulenia – nie tylko informuje, czy pacjent oddycha, ale też podpowiada, czy intubacja się powiodła. Z kapnogramu można odczytać np. ETCO₂, czyli końcowo-wydechowe stężenie CO₂ – norma to 35-45 mmHg. Warto wiedzieć, że zmiany w kształcie kapnogramu, np. spadek wartości albo nagłe zniknięcie wykresu, mogą świadczyć o rozłączeniu układu oddechowego lub zatrzymaniu krążenia. Według wytycznych European Society of Anaesthesiology, kapnografia powinna być standardowo stosowana podczas każdej znieczulenia ogólnego. Niektórzy mylą kapnogram z wykresem O₂, ale to zupełnie inna bajka – tlen mierzy się innymi metodami. Pomiar N₂O również się wykonuje, zwłaszcza przy użyciu podtlenku azotu w znieczuleniu, ale nie przez kapnografię. W praktyce klinicznej, szybkie i precyzyjne oznaczanie CO₂ jest kluczowe dla oceny perfuzji płuc, wentylacji i metabolizmu.

Pytanie 34

Które ustawienie należy wybrać na multimetrze w celu pomiaru napięcia 12 V w obwodzie prądu stałego?

A. ACA
B. ACV
C. DCA
D. DCV
Wybierając opcję DCV na multimetrze, od razu ustawiasz się na właściwy tor do bezpiecznego i precyzyjnego pomiaru napięcia 12 V w obwodzie prądu stałego. Skrót DCV oznacza dosłownie „Direct Current Voltage”, czyli napięcie prądu stałego. To jest dokładnie to, co spotkasz chociażby w instalacjach samochodowych, zasilaczach czy popularnych układach elektronicznych. Dobrą praktyką jest przed pomiarem ocenić spodziewaną wartość napięcia i – jeśli multimetr nie jest automatyczny – wybrać zakres minimalnie wyższy od spodziewanego. To zabezpiecza zarówno miernik, jak i wynik przed błędami. Z mojego doświadczenia wynika, że wielu początkujących myli DCV z DCA, bo oba mają „DC”, ale przy napięciu zawsze chodzi o V jak „Voltage”. W przewodnikach i instrukcjach do multimetrów zawsze podkreśla się, żeby nie mierzyć napięcia na ustawieniu do prądu, bo można spalić bezpiecznik w mierniku – niby oczywiste, ale w praktyce zdarza się często. DCV to podstawa pracy z klasycznymi bateriami, akumulatorami i wszędzie tam, gdzie nie ma zmiany kierunku przepływu prądu. W branży elektronicznej i energetycznej takie podejście jest standardem i świadczy o profesjonalizmie obsługi narzędzi.

Pytanie 35

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Na szynie TH-35.
B. Na listwie zaciskowej.
C. Podtynkowy.
D. Naścienny.
Na zdjęciu widzimy typowy przykład montażu urządzeń elektrycznych w rozdzielnicy przy użyciu szyny montażowej TH-35, zwanej inaczej szyną DIN. Częstym błędem jest mylenie tego systemu z montażem na listwie zaciskowej – jednak listwy zaciskowe służą do łączenia przewodów, a nie do mocowania urządzeń, więc nie zapewniają ani wygody, ani stabilności typowej dla szyny TH-35. W przypadku montażu podtynkowego mamy do czynienia z całkowicie inną techniką – urządzenia są wtedy zabudowane wewnątrz ścian, bez dostępu do szyny, co stosuje się w instalacjach domowych, ale nie w przemysłowych szafach sterowniczych. Z kolei montaż naścienny polega na bezpośrednim przymocowaniu urządzenia do ściany lub płyty, najczęściej za pomocą wkrętów – takie rozwiązanie sprawdza się w prostych instalacjach, jednak nie daje tej elastyczności i możliwości szybkiej rozbudowy, co szyna TH-35. W praktyce, nieumiejętne rozpoznanie tych systemów prowadzi do bałaganu w instalacji, utrudnia serwisowanie i często jest niezgodne z aktualnymi normami, takimi jak PN-EN 61439 czy IEC 60204-1. Z mojego doświadczenia wynika, że wybór szyny TH-35 to nie tylko kwestia wygody montażu, ale też bezpieczeństwa i porządku – urządzenia są stabilnie zamocowane, a całość wygląda profesjonalnie. W nowoczesnych instalacjach praktycznie nie spotyka się już innych rozwiązań, bo po prostu nie mają one tylu zalet – i chyba trudno się temu dziwić!

Pytanie 36

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. plik systemowy.
B. katalog główny.
C. katalog domowy.
D. plik tymczasowy.
Wielu początkujących użytkowników systemów uniksowych myli symbol ~ z różnymi specjalnymi katalogami lub plikami, co jest dość częstą sytuacją. Wynika to zapewne z tego, że w środowisku terminalowym występuje sporo różnych znaków o szczególnym znaczeniu, takich jak / dla katalogu głównego czy . i .. jako obecny i nadrzędny katalog. Jednak ~ nie wskazuje ani na katalog główny systemu, ani na plik systemowy czy tymczasowy. Katalog główny, czyli root, zawsze występuje jako pojedynczy ukośnik / i to od niego zaczynają się pełne ścieżki absolutne w systemie plików. Pliki tymczasowe często są oznaczane przez katalog /tmp i bardzo rzadko dotyczą symbolu ~, chyba że ktoś ustawi sobie taki prefiks samodzielnie, co jest raczej niepraktyczne. Pliki systemowe z kolei znajdują się najczęściej w katalogach typu /etc, /usr czy /bin i nie są powiązane ani z ~, ani z katalogiem domowym użytkownika. Typowy błąd, który często obserwuję, polega na utożsamianiu znaku ~ z czymś uniwersalnym jak 'miejsce startowe' dla systemu lub tymczasowych danych – a tak naprawdę jest to bardzo konkretne ułatwienie dla użytkownika, który chce szybko odwołać się do własnego katalogu domowego bez wpisywania pełnej ścieżki. Standardy POSIX oraz praktyka administratorów jasno wskazują, że ~ to po prostu shortcut dla home directory, co bardzo przydaje się podczas codziennych operacji, szczególnie w pracy z terminalem i automatyzacją. Moim zdaniem warto dokładnie rozróżniać te pojęcia i nie mieszać symboli, bo to ułatwia zrozumienie struktury systemu plików oraz pozwala unikać nieporozumień podczas korzystania z konsoli.

Pytanie 37

Jakie jest przeznaczenie drukarki, której dotyczy zamieszczony fragment specyfikacji?

Głowica drukująca24-igłowa
Średnica przewodu0,2 mm
Kierunek drukuDwukierunkowe/bezkierunkowe drukowanie
Rozdzielczość grafikiMaks. 360 (wys.) x 360 (szer.) dpi
Szybkość drukowaniaHigh Speed Draft: 607 znaków/s, tryb Utility: 485 znaków/s, tryb Near Letter Quality: 245 znaków/s, Letter Quality: 165 znaków/s
Gęstość przesunięć wierszy4,23 mm (1/6"), 3,18 mm (1/8"), n x 0,42 mm (m/60") (m=0-127), n x 0,14 mm (n/180") (n=0-255), n x 0,12 mm (n/216") (n=0-255), n x 0,07 mm (n/360") (n=0-255)
Szybkość podajnika10 cali na sekundę
Pobieranie papieruRęczne (góra), traktor pchający (góra), traktor pchający (tył), traktor pchający (dół), podajnik pojedynczych arkuszy (tył)
Gęstość znakówHigh Speed Draft: 10,0 zn./cal 18,0 zn./cal
Jakość użytkowa: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20 zn./cal
Tryb Near Letter Quality: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20,0 zn./cal
Tryb Letter Quality: 10 zn./cal 12 zn./cal 15 zn./cal 17,1 zn./cal 20 zn./cal, proporcjonalnie
Szerokość druku136 zn./linia przy ANK 10 zn./cal
A. Drukowanie na papierze perforowanym.
B. Drukowanie dokumentów w kolorze.
C. Wykonywanie wydruków laserowych.
D. Nadruk opisów na płytach CD/DVD.
Specyfikacja opisuje drukarkę igłową wyposażoną w 24-igłową głowicę, co samo w sobie jest bardzo charakterystyczne dla urządzeń przeznaczonych do pracy z papierem ciągłym i perforowanym. Takie drukarki, mimo że są już trochę staroświeckie, to wciąż mają swoje miejsce w biurach, szczególnie tam, gdzie trzeba wydrukować kopie dokumentów jednocześnie (przez kalkę) albo korzysta się z papieru składankowego z perforacją. Moim zdaniem, największą zaletą takich drukarek jest niezawodność w środowiskach, gdzie laserówki czy atramentówki zawodzą – na przykład w magazynach, na produkcji, albo do wydruków faktur i dokumentów przewozowych. 24 igły w głowicy pozwalają na całkiem niezłą jakość wydruku tekstu, a różne tryby szybkości dają wybór między jakością a wydajnością. W ogóle, obecność traktora pchającego oraz możliwość podawania papieru „z dołu” i „z tyłu” to klasyka w pracy z papierem perforowanym. Z mojego doświadczenia wynika, że właśnie tam, gdzie trzeba drukować długie zestawienia albo raporty bez ciągłego dokładania papieru, taki sprzęt wygrywa. Współczesne drukarki laserowe nie poradzą sobie z papierem ciągłym, a drukarki do nadruku na CD/DVD czy kolorowe atramentówki to zupełnie inna bajka i inne zastosowania. Jeśli ktoś myśli o pracy z dokumentami wielowarstwowymi albo wydrukami archiwalnymi, to takie igłówki są nadal bezkonkurencyjne. Po prostu, nie do zdarcia sprzęt do specyficznych, ciągłych zastosowań.

Pytanie 38

Z przedstawionego zrzutu wynika, że na dyskach zastosowano partycjonowanie

DISKPART> list disk
Disk ### Status Size Free Dyn Gpt
-------- ------------ ------- ------- --- ---
Disk 0 Online 698 GB 0 B *

DISKPART> select disk 0
Disk 0 is now the selected disk.
DISKPART> list partition
Partition ### Type Size Offset
------------- ---------- ------- -------
Partition 1 Recovery 450 MB 1024 KB
Partition 2 System 100 MB 451 MB
Partition 3 Reserved 16 MB 551 MB
Partition 4 Primary 451 GB 567 MB
Partition 5 Unknown 242 GB 452 GB
Partition 6 Unknown 3958 MB 694 GB

DISKPART>
A. FAT
B. NTFS
C. GPT
D. MBR
Wiele osób myli tablicę partycji GPT z systemem plików, takim jak FAT czy NTFS, przez co błędnie zakładają, że odpowiedź powinna odnosić się do tego, jak dane są zapisywane na partycjach. To jednak zupełnie osobne kwestie – system plików dotyczy tego, jak pliki i katalogi są organizowane na już istniejącej partycji, natomiast GPT i MBR to metody zarządzania samą strukturą partycji na dysku. FAT oraz NTFS to najpopularniejsze systemy plików w świecie Windows, ale nie mają one bezpośredniego związku z tym, jak partycje są rozmieszczane na dysku fizycznym. Nie da się tego rozpoznać po samej liście partycji ani po kolumnach w narzędziu diskpart – tam patrzymy na typ partycjonowania, a nie na system plików. Równie częstym błędem jest założenie, że skoro większość starszych komputerów używała MBR, to będzie to domyślny wybór. Jednak w tym zrzucie widać wyraźnie obecność gwiazdki przy kolumnie GPT, co świadczy o aktywnym schemacie GPT. MBR, czyli Master Boot Record, był używany przez lata, ale ma poważne ograniczenia: obsługuje maksymalnie 2 TB na jedną partycję i do czterech partycji podstawowych, przez co w nowych rozwiązaniach wypierany jest przez GPT. Moim zdaniem, patrząc na praktyczne aspekty zarządzania dyskami, znajomość tej różnicy to klucz jeśli ktoś chce unikać problemów z bootowaniem systemu czy obsługą dużych dysków. Warto też zauważyć, że typy partycji wypisane w zrzucie (recovery, reserved, system itp.) odpowiadają typowej strukturze GPT na nowoczesnych komputerach – takiej konfiguracji nie uzyskamy na partycjonowaniu MBR. Podsumowując, odpowiedź na takie pytanie wymaga rozróżnienia między tablicą partycji a systemem plików oraz zrozumienia ograniczeń i cech charakterystycznych każdego ze standardów.

Pytanie 39

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. mięśniowych 35 Hz.
B. wolnozmiennych.
C. mięśniowych 25 Hz.
D. sieciowych.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 40

W urządzeniu medycznym wyznaczono charakterystykę filtru jak na rysunku. Jest to filtr

A. górnoprzepustowy o częstotliwości granicznej 25 Hz.
B. dolnoprzepustowy o częstotliwości granicznej 25 Hz.
C. górnoprzepustowy o częstotliwości granicznej 20 Hz.
D. dolnoprzepustowy o częstotliwości granicznej 20 Hz.
To jest właśnie solidna odpowiedź, która pokazuje dobre zrozumienie działania filtrów w układach elektronicznych – zwłaszcza w medycynie. Filtr dolnoprzepustowy przepuszcza sygnały o częstotliwościach niższych niż częstotliwość graniczna, tłumiąc te wyższe. W praktyce, taka konfiguracja jest często używana w aparaturze EKG, EEG czy nawet w niektórych układach monitorujących parametry życiowe, żeby odfiltrować zakłócenia z sieci czy artefakty ruchowe. Częstotliwość graniczna 20 Hz jest typowa np. dla filtracji sygnałów EKG, gdzie zależy nam na zachowaniu najważniejszych informacji o pracy serca, a jednocześnie na zredukowaniu szumów wysokoczęstotliwościowych. Z mojego doświadczenia, projektanci zawsze zwracają uwagę, by nie ustawiać tej granicy za nisko, bo wtedy zginą pewne ważne składowe sygnału. To też warto wiedzieć, że wybór częstotliwości granicznej wynika nie tylko ze specyfikacji urządzenia, ale też z norm międzynarodowych, np. PN-EN 60601-2-25 w przypadku EKG. Tego typu filtry można realizować analogowo (np. prosty filtr RC) albo cyfrowo, zależnie od konstrukcji sprzętu. Branżowym standardem jest też, by każda charakterystyka takiego filtra była udokumentowana, właśnie po to, by lekarz wiedział, jakie informacje z sygnału zostaną zachowane. Moim zdaniem, umiejętność rozpoznania typu filtra na podstawie wykresu to absolutna podstawa dla każdego technika czy inżyniera elektroniki medycznej.