Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 7 maja 2026 10:27
  • Data zakończenia: 7 maja 2026 10:41

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Które polecenia są charakterystyczne dla instrukcji iteracyjnych?

A. begin, end
B. var, set
C. if, switch
D. for, while
Instrukcje iteracyjne, takie jak for i while, to absolutny fundament programowania praktycznie w każdym języku. Pozwalają nam na wielokrotne powtarzanie fragmentu kodu aż do spełnienia określonego warunku. Moim zdaniem to jest jedna z tych rzeczy, które naprawdę trzeba opanować, bo bez tego trudno budować jakiekolwiek sensowne algorytmy. Najczęściej używa się ich do przetwarzania tablic, list czy sprawdzania warunków aż do momentu osiągnięcia oczekiwanego rezultatu. Na przykład, w pętli for bardzo wygodnie można przejść przez każdy element tablicy w języku C++ czy Python, a while pozwala na bardziej elastyczne powtarzanie, gdy nie znamy z góry ilości powtórzeń – np. dopóki użytkownik nie poda właściwego hasła. W praktyce warto pamiętać, żeby pętle dobrze kontrolować, bo bardzo łatwo stworzyć tzw. pętlę nieskończoną, która zatrzyma cały program. W standardach branżowych, jak np. w Pythonie czy Javie, składnia pętli for i while jest bardzo czytelna i zachęca do pisania zrozumiałego kodu. No i jeszcze – często w projektach spotykam się z zaleceniem, żeby nie nadużywać zagnieżdżonych pętli, bo to może prowadzić do spadku wydajności. Krótko mówiąc: for i while to podstawa, która daje ogromną kontrolę nad logiką programu.

Pytanie 2

Z elektrokardiogramu wynika, że rytm serca rejestrowany i wskazywany przez elektrokardiograf wynosi

Ilustracja do pytania
A. 96 uderzeń na minutę.
B. 60 uderzeń na minutę.
C. 75 uderzeń na minutę.
D. 84 uderzeń na minutę.
Rytm serca wynoszący 84 uderzeń na minutę, odczytany z elektrokardiogramu, to wartość mieszcząca się w granicach tzw. normy fizjologicznej dla dorosłego człowieka. W praktyce medycznej, prawidłowy rytm zatokowy serca to zwykle zakres 60–100 uderzeń na minutę według wytycznych Europejskiego Towarzystwa Kardiologicznego. Odpowiedź 84 jest więc nie tylko zgodna z odczytem z wykresu, ale też zgodna z rzeczywistością kliniczną – to ani bradykardia, ani tachykardia. Z mojego doświadczenia wynika, że umiejętność poprawnego liczenia częstości rytmu z EKG to fundament dla techników elektroradiologii, pielęgniarek i ratowników medycznych. W praktyce wygląda to tak: liczysz liczbę szczytów QRS w określonym czasie, najczęściej w 6 sekund, mnożysz przez 10 i masz wynik. Dzięki takiej metodzie błyskawicznie można ocenić, czy pacjent wymaga interwencji. Moim zdaniem, regularne ćwiczenie tej analizy bardzo pomaga w realnych sytuacjach – szczególnie na oddziale ratunkowym, gdzie czas gra ogromną rolę. Dobrą praktyką jest też porównywanie manualnych obliczeń z wynikiem wskazanym przez elektrokardiograf, bo nawet automaty potrafią się czasem mylić, zwłaszcza przy arytmiach. Warto o tym pamiętać i nie polegać ślepo na maszynie.

Pytanie 3

Którego nośnika pamięci należy użyć w komputerze, aby zapewnić najszybsze ładowanie się systemu operacyjnego podczas jego uruchamiania?

A. Dysku SSD.
B. Dysku HDD.
C. Pendrive’a podłączonego do USB 3.0.
D. Płyty BD w napędzie optycznym.
Dysk SSD, czyli Solid State Drive, to obecnie najczęściej polecany nośnik pamięci do instalacji systemu operacyjnego, jeśli zależy nam na naprawdę szybkim uruchamianiu komputera. Wynika to głównie z tego, że SSD korzysta z pamięci flash, przez co dostęp do danych jest praktycznie natychmiastowy – opóźnienia są minimalne nawet w porównaniu z najszybszymi dyskami HDD. Moim zdaniem, nie ma już sensu inwestować w tradycyjne dyski talerzowe jako główny dysk systemowy, zwłaszcza że ceny SSD mocno spadły przez ostatnie lata. Sam kiedyś miałem system na HDD i różnica po przesiadce na SSD była ogromna – bootowanie systemu zajmuje dosłownie kilkanaście sekund zamiast minuty. Producenci komputerów też coraz częściej montują SSD jako standard. Warto też wiedzieć, że SSD są mniej podatne na uszkodzenia mechaniczne, bo nie mają ruchomych części, a to istotne w laptopach czy komputerach przenośnych. Najnowocześniejsze SSD na złączu NVMe (PCIe) osiągają prędkości rzędu kilku tysięcy MB/s, co w praktyce daje bardzo szybką pracę systemu i aplikacji – żaden HDD czy pendrive nie jest w stanie tego przebić. Według standardów branżowych, instalacja systemu na SSD to już właściwie reguła w profesjonalnych zastosowaniach i domowych PC.

Pytanie 4

Pojęcie „Architektura Harvardska” odnosi się do

A. programów współpracujących z maszynami CNC.
B. topologii sieci komputerowej.
C. pracy procesora.
D. komunikacji komputera z ploterem.
Architektura Harvardska to jedno z podstawowych pojęć w obszarze projektowania procesorów oraz mikroprocesorów. Generalnie chodzi w niej o to, że pamięć programu i pamięć danych są fizycznie rozdzielone — procesor ma osobne magistrale do komunikacji z każdą z nich. Z mojego doświadczenia wynika, że takie rozwiązanie daje dużą przewagę w szybkości przetwarzania. Dla przykładu, jeśli mamy mikrokontroler oparty na architekturze Harvardskiej, może on w jednym cyklu pobrać dane z jednej pamięci i instrukcję z drugiej, praktycznie równocześnie. Brzmi jak magia, ale to po prostu przemyślana inżynieria. Jest to szczególnie popularne w systemach embedded, np. w rodzinie AVR czy PIC, które często używa się chociażby w automatyce przemysłowej lub elektronice użytkowej. W odróżnieniu od architektury von Neumanna, gdzie jest jedna magistrala i pamięć, co może prowadzić do tzw. wąskiego gardła, tak zwany bottleneck. Moim zdaniem to rozdzielenie jest świetnym przykładem praktycznego wykorzystania teorii w realnych urządzeniach. Warto też wiedzieć, że w nowoczesnych procesorach hybrydowe podejście bywa stosowane, ale sama zasada architektury Harvardskiej to właśnie praca procesora, a nie topologia sieci czy komunikacja z ploterem. W praktyce często spotykam się z pomyłkami w tym zakresie, dlatego uważam, że warto dobrze rozróżniać te pojęcia.

Pytanie 5

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. EEG.
B. EKG.
C. oddechu.
D. ciśnienia krwi.
Wydaje się, że łatwo się tu pomylić, głównie przez skojarzenie Holtera z EKG, bo to rzeczywiście najczęstsze zastosowanie tej nazwy w praktyce medycznej. Jednak analiza zapisu „metoda pomiaru – oscylometryczna” wymaga sięgnięcia do wiedzy o technikach pomiarowych. Metoda oscylometryczna dotyczy wyłącznie pomiaru ciśnienia tętniczego krwi, wykorzystując zmiany ciśnienia w mankiecie wywołane pulsacją naczyń, co nie ma żadnego związku z rejestracją sygnałów elektrycznych serca (EKG) czy mózgu (EEG), a tym bardziej z monitorowaniem oddechu. EKG, czyli elektrokardiografia, opiera się na analizie potencjałów elektrycznych generowanych przez serce przy użyciu elektrod przyklejanych do skóry – tu nie ma żadnej oscylometrii. Podobnie EEG, czyli elektroencefalografia, rejestruje aktywność bioelektryczną mózgu i wymaga zupełnie innego sprzętu i podejścia. Z kolei pomiar oddechu przy użyciu Holtera najczęściej opiera się na sensorach detekujących ruchy klatki piersiowej lub przepływ powietrza, a nie na oscylometrii. Typowym błędem jest założenie, że „oscylometria” odnosi się do każdego rodzaju sygnału fizjologicznego – moim zdaniem wynika to z braku rozróżnienia między technikami wykorzystywanymi do zapisu różnych parametrów życiowych. W rzeczywistości, każdy parametr potrzebuje dedykowanej metody rejestracji, a oscylometria jest zarezerwowana wyłącznie dla pomiarów ciśnienia tętniczego. W praktyce medycznej precyzja w rozumieniu tych pojęć jest kluczowa, żeby nie popełniać błędów diagnostycznych i właściwie interpretować dokumentację techniczną sprzętu.

Pytanie 6

Przedstawiony na rysunku kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. switch – ruter.
B. hub – ruter.
C. switch – komputer.
D. ruter – ruter.
Na rysunku widoczny jest schemat połączenia kabla krosowanego (ang. crossover), który służy do bezpośredniego łączenia dwóch urządzeń sieciowych tego samego typu, takich jak dwa rutery, dwa switche czy dwa komputery. Kluczowe jest tu to, że sygnały nadawcze jednego urządzenia są zamieniane miejscami z odbiorczymi drugiego – właśnie dlatego niezbędne jest skrzyżowanie przewodów w kablu. Praktycznie rzecz biorąc, jeśli próbujemy połączyć dwa rutery bez urządzenia pośredniczącego, jak switch czy hub, to właśnie kabel krosowany pozwoli nam na prawidłową komunikację. W standardzie Ethernet (norma TIA/EIA-568), wyprowadzenia przewodów 1-3 i 2-6 są zamieniane, co umożliwia przesyłanie i odbieranie danych bez zakłóceń. W moim doświadczeniu, taki kabel przydaje się często podczas konfiguracji, testów lub prac serwisowych, gdzie nie ma pod ręką switcha. Warto pamiętać, że obecnie wiele nowoczesnych urządzeń obsługuje funkcję Auto-MDI/MDIX, która automatycznie dostosowuje tryb portu, ale wciąż znajomość zastosowania kabla krosowanego jest fundamentalna. Moim zdaniem, umiejętność rozpoznania gdzie i kiedy go użyć, jest jedną z podstawowych kompetencji każdego technika sieciowego – to taka klasyka, o której ciągle się mówi na zajęciach praktycznych.

Pytanie 7

Które oznaczenie określa zapis elektryczny aktywności mózgu?

A. KTG
B. EOG
C. UKG
D. EEG
Patrząc na dostępne opcje odpowiedzi, można się łatwo pomylić, bo każda z nich rzeczywiście jest związana z jakimś badaniem medycznym i brzmi dość podobnie. EOG to skrót od elektrookulografii, czyli badania, które rejestruje ruchy gałek ocznych na podstawie zmian potencjału elektrycznego wokół oczu, nie ma jednak nic wspólnego z bezpośrednią rejestracją aktywności mózgu. EOG przydaje się na przykład w badaniach snu albo w okulistyce, ale jeśli chodzi o analizę fal mózgowych, to raczej zupełnie nie ten kierunek. KTG, czyli kardiotokografia, to standardowe badanie w ginekologii i położnictwie, służące do monitorowania akcji serca płodu i skurczy macicy – nie dotyczy układu nerwowego ani mózgu, chociaż spotykam się czasem z myleniem tych skrótów przez osoby niezwiązane z branżą. UKG, natomiast, to badanie ultrasonokardiograficzne – popularne echo serca, wykorzystywane głównie do oceny budowy i pracy serca zarówno u dzieci, jak i u dorosłych. To badanie obrazowe, bazujące na ultradźwiękach, więc zupełnie inna bajka niż rejestracja potencjałów elektrycznych. Typowym błędem jest tu właśnie takie skracanie: ktoś widzi „E” (elektryczny) albo „K” (kardio) i zakłada, że chodzi o badanie mózgowe. W praktyce, jeśli chodzi o zapis aktywności elektrycznej mózgu, to jedyną poprawną i powszechnie uznawaną metodą jest EEG, co potwierdzają podręczniki neurologii oraz wytyczne Polskiego Towarzystwa Neurofizjologii Klinicznej. Warto więc rozróżniać te skróty i nie dać się złapać na pozorne podobieństwa, bo w diagnostyce precyzja naprawdę ma znaczenie.

Pytanie 8

Elementem sieci komputerowej w topologii gwiazdy, pozwalającym przyłączyć wiele urządzeń sieciowych, jest

A. modem.
B. przełącznik.
C. konwerter.
D. repeater.
W topologii gwiazdy sercem sieci jest właśnie przełącznik, czyli switch. To urządzenie odpowiada za przyłączanie wielu komputerów lub innych sprzętów sieciowych w taki sposób, że każde z nich komunikuje się z przełącznikiem osobnym przewodem. Dzięki temu nie powstają niepotrzebne kolizje danych, a każdy host może przesyłać i odbierać informacje optymalnie szybko. W nowoczesnych sieciach LAN praktycznie wszędzie stosuje się przełączniki, bo są one nie tylko wydajne, ale też umożliwiają stworzenie naprawdę rozbudowanych infrastruktur – można podłączać komputery, drukarki, access pointy czy serwery, a wszystko jest administrowane centralnie. Moim zdaniem trudno sobie wyobrazić profesjonalną sieć w biurze czy szkole bez przełącznika jako centrum. Warto też wiedzieć, że przełączniki pracują głównie w warstwie drugiej modelu OSI (łącza danych), chociaż są zaawansowane modele, które obsługują nawet routowanie (L3). Dobre praktyki branżowe mówią, żeby nie mieszać przełączników z hubami, bo te drugie nie potrafią inteligentnie kierować ruchem – a przełącznik analizuje MAC adresy i przesyła ramki tylko tam, gdzie trzeba. Praktycznym przykładem jest sytuacja, gdy w pracowni komputerowej trzeba szybko przesłać duży plik – dzięki przełącznikowi transfer odbywa się bez zakłóceń na linii nadawca-odbiorca, a reszta użytkowników nie odczuwa spowolnienia. Takie rozwiązanie daje też dużą elastyczność przy rozbudowie sieci. Z mojego doświadczenia wynika, że wybór dobrego przełącznika na początek to inwestycja, która się naprawdę opłaca.

Pytanie 9

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. telewizyjnych.
B. graficznych.
C. sieciowych.
D. dźwiękowych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 10

Do kruszenia kamieni w pęcherzu moczowym stosowane są fale

A. infradźwiękowe.
B. radiowe.
C. ultradźwiękowe.
D. ultrafioletowe.
Wiele osób myśli, że jeśli chodzi o rozbijanie kamieni w pęcherzu moczowym, każda fala czy promieniowanie o odpowiedniej energii może się sprawdzić. Jednak w rzeczywistości medycyna opiera się na bardzo konkretnych właściwościach fizycznych fal ultradźwiękowych. Fale infradźwiękowe, czyli te o częstotliwości poniżej zakresu słyszalności dla człowieka, nie są wykorzystywane w urologii do kruszenia złogów, bo po prostu nie przenoszą wystarczającej ilości energii i nie mają odpowiedniej precyzji. Infradźwięki mają zastosowania raczej w pomiarach sejsmicznych czy komunikacji podwodnej, ale nie sprawdzają się w terapii medycznej, szczególnie tam, gdzie liczy się dokładność, bezpieczeństwo i selektywność działania. Niektórzy mogą też pomylić fale z promieniowaniem ultrafioletowym. Promieniowanie UV to zupełnie inny zakres widma elektromagnetycznego – ma właściwości bakteriobójcze i jest używane np. do sterylizacji narzędzi, ale absolutnie nie nadaje się do rozbijania struktur wewnątrz ciała, ponieważ nie penetruje głęboko w tkanki i mogłoby powodować uszkodzenia komórek. Fale radiowe, choć czasem wykorzystywane do zabiegów chirurgii przezskórnej, raczej służą do cięcia tkanek, koagulacji czy terapii ciepłem, a nie do precyzyjnego rozbijania kamieni. Ich energia jest rozpraszana w tkankach i nie tworzy skoncentrowanej fali uderzeniowej, która mogłaby pokruszyć złogi. Typowym błędem jest też szukanie rozwiązań w nowych, modnych technologiach, zapominając o sprawdzonych i udokumentowanych naukowo metodach. W praktyce wszelkie oficjalne wytyczne, chociażby Polskiego Towarzystwa Urologicznego czy rekomendacje europejskie, jasno wskazują na ultradźwięki jako złoty standard, a pozostałe fale nie mają tu uzasadnienia merytorycznego. Warto o tym pamiętać, bo odpowiednia znajomość mechanizmów działania takich technik pozwala uniknąć niepotrzebnego ryzyka i wybrać najskuteczniejsze leczenie.

Pytanie 11

Które polecenie umożliwia śledzenie drogi pakietów w sieci?

A. ping
B. tracert
C. ipconfig
D. ifconfig
Polecenie tracert (albo traceroute na systemach Linux) to jedno z podstawowych narzędzi diagnostycznych w sieciach komputerowych. Pozwala ono na śledzenie trasy, jaką pakiet IP pokonuje od komputera źródłowego do wskazanego hosta docelowego. To bardzo przydatne, gdy próbujesz zdiagnozować, gdzie na trasie pojawiają się opóźnienia czy utraty pakietów. Z technicznego punktu widzenia tracert wykorzystuje pole TTL (Time To Live) w nagłówku pakietu IP. Każdy kolejny pakiet wysyłany przez tracert ma zwiększany TTL, co powoduje, że po drodze routery odsyłają pakiety ICMP „Time Exceeded”, a my widzimy każdy kolejny przeskok (hop). To taka swoista mapa przejścia pakietu przez wszystkie routery pośrednie. Moim zdaniem umiejętność korzystania z tracert to absolutna podstawa dla każdego administratora czy nawet zwykłego technika sieciowego. W praktyce często przydaje się, gdy ktoś mówi, że 'internet nie działa' – szybko można sprawdzić, na którym etapie coś się psuje, czy problem jest lokalny czy globalny. W wielu firmach, zwłaszcza tych z rozproszoną infrastrukturą, codziennie korzysta się z takich narzędzi, żeby wykryć błędy routingu albo nieprawidłową konfigurację routerów. Dla ciekawych: w standardzie IPv6 polecenie funkcjonuje analogicznie, chociaż czasem są drobne różnice w obsłudze ICMPv6. Z mojego doświadczenia – niejedną zagadkową awarię udało mi się wytropić właśnie z pomocą tracert. Warto pamiętać, że nie wszystkie routery odpowiadają na te pakiety – czasem widać gwiazdki, ale to już inna historia związana z politykami bezpieczeństwa.

Pytanie 12

Który z nośników danych umożliwia wielokrotny zapis i ma największą pojemność?

A. Nośnik 1
Ilustracja do odpowiedzi A
B. Nośnik 3
Ilustracja do odpowiedzi B
C. Nośnik 2
Ilustracja do odpowiedzi C
D. Nośnik 4
Ilustracja do odpowiedzi D
Nośnik 2 to płyta DVD-RW, czyli nośnik optyczny umożliwiający wielokrotny zapis i kasowanie danych. Moim zdaniem, to dość praktyczne rozwiązanie, zwłaszcza jeśli ktoś często potrzebuje przenosić dane albo je aktualizować bez konieczności kupowania nowych płyt. Standard DVD-RW (Digital Versatile Disc ReWritable) pozwala na zapisanie do 4,7 GB danych, co w środowisku domowym i biurowym długo wystarczało na backupy, archiwizację czy kopiowanie filmów i dużych plików. W praktyce DVD-RW były polecane tam, gdzie elastyczność była ważniejsza niż np. długowieczność zapisu – branża polecała je do testowania instalek, kompilacji czy nawet do transportu projektów graficznych między stanowiskami. Warto wiedzieć, że nośniki typu RW spełniają standardy branżowe jeśli chodzi o wielokrotność zapisu, są też kompatybilne z większością napędów DVD od lat 2000. Dla porównania, tradycyjny CD-RW ma pojemność zaledwie 700 MB, a choć Blu-ray oferuje większą pojemność, to wersja BD-R pozwala wyłącznie na jednokrotny zapis. Gdybyś chciał sięgnąć po coś o większej pojemności i wielokrotnego zapisu, to w praktyce poza DVD-RW przychodzą do głowy już raczej tylko profesjonalne rozwiązania typu BD-RE, które jednak rzadko były wykorzystywane domowo – są drogie i wymagają specjalistycznych napędów. Tak więc DVD-RW to moim zdaniem sensowny kompromis między pojemnością, ceną i dostępnością urządzeń, zgodny z dobrymi praktykami branży informatycznej.

Pytanie 13

Promieniowanie IR jest wykorzystywane w

A. krioterapii.
B. radioterapii.
C. hydroterapii.
D. termoterapii.
Temat zastosowania promieniowania IR bywa mylący, bo wiele osób łączy je automatycznie z różnymi formami terapii fizycznej czy leczenia. Jednak nie wszystkie odpowiedzi mają uzasadnienie technologiczne i praktyczne. Krioterapia, wbrew pozorom, to leczenie zimnem, a nie ciepłem – tutaj wykorzystuje się bardzo niskie temperatury, na przykład ciekły azot albo zimne powietrze, by wywołać efekt przeciwzapalny i zmniejszyć obrzęki czy ból. Stosowanie promieniowania IR w takim kontekście byłoby zupełnie sprzeczne z ideą tej terapii – po prostu ciepło nie pasuje do koncepcji leczenia zimnem. Radioterapia natomiast wykorzystuje promieniowanie jonizujące, głównie promienie X (rentgenowskie) albo gamma. Tu celem jest niszczenie komórek nowotworowych, a nie przekazywanie energii cieplnej do tkanek. Promieniowanie podczerwone nie ma zdolności uszkadzania DNA komórek, więc nie ma sensu stosować go zamiast standardowych metod radioterapii. Hydroterapia to z kolei leczenie wodą – mogą to być kąpiele, bicze wodne, masaże podwodne. Oczywiście, temperatura wody może mieć znaczenie, ale nie używa się tu promieniowania IR, tylko bezpośredniego kontaktu z wodą o określonej temperaturze. Typowym błędem jest utożsamianie wszystkich terapii „na ciepło” z promieniowaniem podczerwonym – w rzeczywistości tylko termoterapia wykorzystuje właściwości IR, dzięki precyzyjnemu przenoszeniu ciepła w głąb tkanek. Jeśli myśli się o IR, to trzeba pamiętać o podstawowych zasadach fizyki i wyraźnych różnicach technologicznych pomiędzy poszczególnymi podejściami terapeutycznymi. Praktyka pokazuje, że nieznajomość tych różnic prowadzi do nieefektywnych, a czasem wręcz niebezpiecznych zabiegów, dlatego warto poświęcić chwilę na dogłębne zrozumienie tematu.

Pytanie 14

Najważniejszą cechą pamięci operacyjnych serwerowych jest ich niezawodność, dlatego powinny być wyposażone w mechanizm kontroli błędów określany skrótem

A. CAS
B. RAS
C. ECC
D. EPP
Prawidłowa odpowiedź to ECC, czyli Error-Correcting Code. To jest obecnie absolutny standard w serwerowych pamięciach RAM, nie tylko dlatego, że ktoś sobie wymyślił, ale dlatego, że bez tego w dużych systemach po prostu nie ma szans na niezawodność. ECC umożliwia wykrywanie i automatyczne korygowanie pojedynczych błędów bitowych, które mogą się pojawiać podczas pracy pamięci – szczególnie ważne przy 24/7, bo w serwerach każda, nawet minimalna, utrata danych może mieć poważne konsekwencje. Moim zdaniem, jeśli ktoś myśli o budowie infrastruktury, na którą ma spaść jakakolwiek odpowiedzialność, to wybór pamięci z ECC jest podstawą. Sam kiedyś widziałem przypadki, gdzie jedna kość bez ECC potrafiła powodować bardzo dziwne, trudne do zdiagnozowania awarie systemu. ECC to nie tylko większy spokój, ale też zgodność ze standardami branżowymi – praktycznie każda poważna serwerownia, data center czy nawet mniejszy system NAS korzysta z tej technologii, bo nikt nie chce tracić danych przez pojedynczy zakłócony bit. Dodatkowo pamięci ECC są często wymagane przez producentów serwerów, żeby gwarancja czy wsparcie serwisowe w ogóle obowiązywało. W praktyce, jeśli planujesz serwery, to ECC absolutnie musi być na liście wymagań, nawet jeśli koszt jest trochę wyższy – to po prostu się opłaca w dłuższej perspektywie.

Pytanie 15

W tabeli zestawiono parametry pamięci półprzewodnikowej i pamięci magnetycznej. Zastosowanie którego rodzaju pamięci umożliwi szybszą pracę komputera?

Ilustracja do pytania
A. Dysk SSD z uwagi na czas dostępu.
B. Dysk HDD z uwagi na czas procesora.
C. Dysk SSD ze względu na pobieraną moc.
D. Dysk HDD ze względu na pobieraną moc.
Prawidłowo wskazana odpowiedź opiera się na kluczowym parametrze, jakim jest czas dostępu do danych. W praktyce to właśnie ten czas w największym stopniu wpływa na odczuwalną szybkość pracy komputera – szczególnie przy uruchamianiu systemu, ładowaniu aplikacji czy pracy z dużą ilością plików. SSD, czyli dyski półprzewodnikowe, charakteryzują się czasem dostępu rzędu 0,1 ms, co w porównaniu z 5,5-8 ms dla dysków HDD jest wynikiem nieporównywalnie lepszym. To oznacza, że praktycznie każda operacja na plikach odbywa się prawie natychmiastowo. W realnych zastosowaniach, takich jak montaż wideo, programowanie, czy nawet zwykłe korzystanie z przeglądarki, SSD po prostu nie mają sobie równych. Z mojego doświadczenia wynika, że nawet w starszych komputerach wymiana HDD na SSD potrafi sprawić, że sprzęt dostaje drugie życie. Warto też zauważyć, że standardy branżowe, takie jak zalecenia Microsoft czy producentów serwerów, jasno wskazują SSD jako optymalne rozwiązanie wszędzie tam, gdzie liczy się szybkość dostępu do danych. Oczywiście SSD mają też inne zalety – są mniej awaryjne, mniej prądożerne, no ale to właśnie szybkość jest tu kluczowa. W sumie, jeśli komuś zależy na przyspieszeniu pracy komputera w codziennych zastosowaniach, SSD to wybór numer jeden – i tego raczej nic już nie zmieni.

Pytanie 16

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. elektrokardiogramie.
B. elektroencefalogramie.
C. scyntygramie.
D. renogramie.
Wiele osób myli elektroencefalogram z innymi badaniami, które również wykorzystują elektrody lub rejestrują sygnały z ciała, ale ich przeznaczenie jest zupełnie inne. Elektrokardiogram (EKG) służy do rejestrowania aktywności elektrycznej serca, czyli pozwala wykrywać zaburzenia rytmu, zawały czy inne choroby układu krążenia, ale absolutnie nie pokazuje pracy mózgu ani fal mózgowych – tu jest inny rodzaj sygnału, inna lokalizacja elektrod i całkiem inne parametry techniczne. Scyntygram to z kolei badanie izotopowe, w którym do organizmu wprowadza się radioznacznik, a potem kamera gamma rejestruje jego rozkład w tkankach, np. przy diagnostyce nowotworów czy chorób kości – tutaj nie chodzi o fale elektryczne, tylko promieniowanie i obrazowanie narządów. Renogram natomiast to szczególny rodzaj scyntygrafii, który koncentruje się na badaniu funkcji nerek, śledzi się jak radioznacznik jest filtrowany przez nerki, żeby ocenić ich wydolność. Każde z tych badań ma swoje miejsce w diagnostyce, ale tylko elektroencefalografia pozwala na analizę charakterystycznych fal mózgowych. Najczęstszy błąd to założenie, że skoro badanie ma w nazwie „elektro-”, to dotyczy automatycznie mózgu, a to nie jest prawda – istotny jest nie tylko sam sprzęt, ale i to, jaki narząd oraz jakie procesy rejestrujemy. Moim zdaniem warto dobrze zapamiętać te różnice, bo w praktyce zawodowej takie nieporozumienia mogą prowadzić do poważnych błędów diagnostycznych.

Pytanie 17

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. konwersji sygnału.
B. przyspieszenia transmisji.
C. filtrowania ramek sieci Ethernet.
D. szyfrowania pakietów.
To urządzenie na zdjęciu to klasyczny media konwerter – w tym przypadku służy do konwersji sygnału pomiędzy różnymi mediami transmisyjnymi, najczęściej światłowodem i skrętką miedzianą Ethernet. W praktyce oznacza to, że pozwala podłączyć segment sieci oparty na światłowodzie do infrastruktury korzystającej z tradycyjnych przewodów RJ-45. To bardzo wygodne rozwiązanie, zwłaszcza w miejscach, gdzie trzeba przesłać dane na duże odległości – światłowód ma zdecydowanie mniejsze tłumienie i jest odporny na zakłócenia elektromagnetyczne. Moim zdaniem często media konwertery ratują sytuację na starszych obiektach, gdzie nie opłaca się wymieniać całej okablowania. Warto też pamiętać, że takie konwertery zapewniają zgodność z normami, np. IEEE 802.3u dla Fast Ethernet lub IEEE 802.3z dla Gigabit Ethernet na światłowodzie. Często są spotykane w szafach rackowych i przy połączeniach między różnymi budynkami. Generalnie, konwersja sygnału to podstawowa funkcja tych urządzeń – nie szyfrują ani nie filtrują pakietów, nie przyspieszają transmisji, tylko umożliwiają współpracę sprzętu używającego różnych mediów fizycznych.

Pytanie 18

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. FAT32
B. FAT16
C. EXT4
D. NTFS
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 19

Przedstawiony zrzut ekranu prezentuje parametry

Ilustracja do pytania
A. pamięci USB typu Flash.
B. pamięci dynamicznej RAM.
C. dysku twardego.
D. BIOS.
Ten zrzut ekranu rzeczywiście dotyczy parametrów dysku twardego. Widać tutaj mnóstwo informacji, które są typowe dla tego właśnie urządzenia, jak np. obsługiwane funkcje S.M.A.R.T., Native Command Queuing (NCQ), czy też tryby UDMA. To są tematy, które non stop przewijają się w pracy technika czy administratora – nawet zwykła zmiana trybu pracy może wpłynąć na wydajność całego systemu. Bardzo ważne jest, żeby znać i rozumieć takie parametry, bo pozwalają one na szybką diagnozę ewentualnych problemów z magazynem danych. Przykładowo, S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) to standard branżowy, który stale monitoruje stan dysku i może ostrzec użytkownika, zanim nastąpi awaria. Native Command Queuing z kolei poprawia wydajność przy równoległym przesyłaniu wielu poleceń – praktyczna rzecz np. w środowiskach serwerowych. Z mojego doświadczenia, osoby, które potrafią czytać takie zestawienia parametrów, szybciej wyłapują potencjalne zagrożenia i lepiej dobierają sprzęt pod konkretne zastosowania. Najważniejsze jednak, żeby nie traktować tych danych jako czystej teorii – umiejętność praktycznego ich wykorzystania, np. podczas konfigurowania RAID czy oceny kompatybilności z systemem operacyjnym, naprawdę często ratuje sytuację. Dobrą praktyką jest regularne sprawdzanie tych parametrów, np. przy przeglądzie infrastruktury IT, bo czasem już jedna nieaktywna opcja (np. Write Cache) może znacząco wpłynąć na stabilność działania całego systemu.

Pytanie 20

Sterowniki klawiatury, magistral i przerwań są elementami

A. dysku twardego.
B. chipsetu.
C. procesora.
D. pamięci operacyjnej.
Chipset to taki trochę „mózg” płyty głównej, który zarządza komunikacją pomiędzy różnymi podzespołami komputera, jak procesor, pamięć czy urządzenia wejścia/wyjścia. Właśnie dlatego sterowniki klawiatury, magistral (np. PCI Express, USB) oraz obsługa przerwań są często sprzętowo powiązane z chipsetem. To dzięki niemu możliwa jest sprawna wymiana danych między urządzeniami a procesorem, bez konieczności angażowania CPU do każdej drobnostki. Przykładowo, gdy wciskasz klawisz na klawiaturze, sygnał najpierw trafia przez odpowiedni kontroler (zintegrowany w chipsecie), który wie, co dalej zrobić z tą informacją, jak ją przekierować i kiedy powiadomić procesor. Podobnie jest z obsługą przerwań – chipset pozwala, by urządzenia mogły zgłaszać swoje potrzeby (przerwania), a system podejmuje decyzje o ich obsłudze zgodnie z priorytetami. Z mojego doświadczenia wynika, że solidny chipset potrafi znacząco poprawić stabilność i wydajność systemu – nie bez powodu na rynku liczą się tylko wybrane marki, które dbają o zgodność ze standardami, takimi jak PCI Express czy USB. W praktyce, jeśli ktoś modernizuje komputer, to często właśnie od chipsetu zależy, jakie urządzenia będzie można podłączyć i jak będą one działały. To trochę jak szef orkiestry – on wszystko koordynuje, żeby nie było chaosu. Dobre praktyki branżowe mówią, żeby zwracać uwagę nie tylko na procesor, ale właśnie na chipset, bo to on decyduje o możliwościach rozbudowy i kompatybilności sprzętu. W sumie, bez sprawnego chipsetu nawet najlepszy procesor niewiele by zdziałał.

Pytanie 21

Technologia dual channel dotyczy pracy dwóch takich samych

A. dysków SSD.
B. pamięci RAM.
C. dysków twardych.
D. kart graficznych.
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 22

W systemie komputerowym przeznaczonym do pracy z dużymi plikami graficznymi należy zwiększyć ilość

A. napędów DVD
B. pamięci RAM
C. interfejsów PCI-Express
D. portów USB
Zwiększenie ilości pamięci RAM w komputerze przeznaczonym do pracy z dużymi plikami graficznymi to coś, co naprawdę robi różnicę. RAM to taki szybki magazyn na dane tymczasowe, z którego procesor korzysta non stop – a przy obróbce grafiki, zwłaszcza w programach typu Photoshop czy GIMP, te dane potrafią bardzo szybko zajmować gigantyczne ilości miejsca. Można powiedzieć, że im więcej RAM-u, tym płynniej wszystko działa: mniej zacięć, szybciej wczytują się pliki, łatwiej pracować na wielu warstwach czy dużych rozdzielczościach. Z doświadczenia wiem, że nawet przy mniejszych projektach zaczyna się robić ciasno na 8 GB RAM, a przy większych – 16, a nawet 32 GB to już taki sweet spot. Standardy zawodowe w branży graficznej praktycznie wymuszają dziś minimum 16 GB, bo programy te i tak korzystają z całego dostępnego RAM-u. Komputer bez odpowiedniej ilości pamięci operacyjnej będzie musiał częściej korzystać z pliku wymiany na dysku, co spowalnia całą pracę – a to jest najgorsze, bo SSD i tak jest dużo wolniejsze niż RAM. Takie zwiększenie RAM-u to jedno z tych ulepszeń, które naprawdę się czuje na co dzień. Moim zdaniem to podstawa, jeśli ktoś chce być produktywny i nie denerwować się, że sprzęt go ogranicza.

Pytanie 23

Pojedynczy zapis w medycznej bazie danych, zawierający informację na temat jednego pacjenta, nazywa się

idimięnazwiskoadres
2354KonradMarekul. Kwiatowa15 Krzywodrogi
2355JakubWarekul. Leśna 23 Krzywodrogi
2356KrzysztofJurekul. Polna 14 Krzywodrogi
A. rekordem.
B. polem.
C. kluczem.
D. atrybutem.
Wiesz co, w bazach danych – zwłaszcza takich jak medyczne czy administracyjne – to właśnie pojedynczy wpis, który opisuje jednego pacjenta (albo jakikolwiek inny obiekt), to tak zwany rekord. To jest taki wiersz w tabeli, gdzie każda kolumna odpowiada za konkretną informację, np. imię, nazwisko, adres, numer identyfikacyjny i tak dalej. Tak to się robi od lat, a standardy branżowe, jak na przykład SQL, wyraźnie nazywają to rekordem albo wierszem (row). Taki rekord to podstawa, bo pozwala od razu znaleźć wszystkie dane o jednej osobie bez przekopywania się przez całą tabelę. W praktyce – wyobraź sobie szpital, gdzie przychodzi pacjent na wizytę. Rejestrując go, wpisujesz jeden nowy rekord do bazy. A potem, jak lekarz potrzebuje sprawdzić historię tego pacjenta, to znajduje dokładnie ten wiersz i ma od razu całość pod ręką. No i, co ciekawe, w nowoczesnych systemach, takich jak elektroniczna dokumentacja medyczna (EDM), to właśnie na poziomie rekordu rozdziela się uprawnienia, archiwizuje dane albo przeprowadza audyty. Moim zdaniem, zrozumienie różnicy między rekordem a polem lub atrybutem to podstawa dla każdego, kto myśli o pracy z danymi. Bez tego, łatwo się pomylić i popełnić błąd przy projektowaniu bazy. Tak już się przyjęło, że rekord to jednostka logiczna opisu jednego obiektu. Trochę jak kartka w segregatorze – każda osobno, każda o kimś innym.

Pytanie 24

Rysunek przedstawia raport sprawdzający połączenie pomiędzy stacjami monitorującymi informatycznego systemu medycznego. Którego polecenia należy użyć aby go uzyskać?

Badanie 100.25.100.50 z 32 bajtami danych:
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128
Odpowiedź z 100.25.100.50: bajtów=32 czas<1 ms TTL=128

Statystyka badania ping dla 100.25.100.50:
Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
(0% straty),
Szacunkowy czas błądzenia pakietów w milisekundach:
Minimum = 0 ms, Maksimum = 0 ms, Czas średni = 0 ms

A. ipconfig
B. ping
C. ifconfig
D. tracert
To jest klasyczny przypadek użycia polecenia ping. W praktyce, gdy chcemy sprawdzić czy urządzenie sieciowe – na przykład serwer, drukarka czy inny komputer – odpowiada w sieci, korzystamy właśnie z polecenia ping. Wynik raportu, który tu widzisz, prezentuje odpowiedzi z określonego adresu IP, informując o liczbie wysłanych i odebranych pakietów oraz o czasie odpowiedzi i parametrze TTL. Moim zdaniem trudno wyobrazić sobie diagnostykę sieci bez tego narzędzia – proste, a zarazem bardzo skuteczne. Na co dzień administratorzy sieci na całym świecie używają polecenia ping przy pierwszych podejrzeniach problemów z połączeniem. Taki test pokazuje, czy host jest osiagalny, czy nie występują duże opóźnienia, a także czy pakiety nie giną po drodze. Z mojego doświadczenia wynika, że znajomość działania polecenia ping to podstawa w praktyce IT – to trochę jak młotek dla informatyka sieciowego. Warto pamiętać, że ping wykorzystuje protokół ICMP, a czasem w środowiskach korporacyjnych jego odpowiedzi mogą być blokowane w ramach polityki bezpieczeństwa. Mimo to, jeżeli mamy raport taki jak powyżej, na 100% został on wygenerowany z użyciem polecenia ping. Dobrą praktyką jest też testowanie połączenia do różnych urządzeń w sieci, aby szybko lokalizować ewentualne problemy z dostępnością.

Pytanie 25

Organizm człowieka ma zakłóconą zdolność do termoregulacji, gdy wartość temperatury wewnętrznej organizmu spada poniżej

A. 36,6°C
B. 37,3°C
C. 33,0°C
D. 38,7°C
Gdy temperatura wewnętrzna człowieka spada poniżej 33,0°C, mówimy już o poważnym zaburzeniu termoregulacji, czyli o głębokiej hipotermii. To nie jest taki zwykły chłód, który czujemy zimą bez czapki – to już sytuacja potencjalnie zagrażająca życiu. Organizm traci kontrolę nad produkcją i utratą ciepła, przez co zaczynają zawodzić mechanizmy obronne, jak drżenie mięśni czy rozszerzanie naczyń krwionośnych. W praktyce zawodowej (np. w ratownictwie czy na oddziałach SOR-u) uznaje się, że poniżej tej granicy człowiek może stracić przytomność, pojawia się ryzyko zaburzeń rytmu serca czy nawet zatrzymania krążenia. Moim zdaniem, bardzo ważne jest kojarzenie tej liczby z poważnymi stanami, bo normą jest temperatura ok. 36,6–37°C, więc spadek aż do 33°C to już sygnał, że organizm sobie nie radzi. W instrukcjach postępowania (np. Europejskiej Rady Resuscytacji) podkreśla się, by osoby z taką temperaturą traktować jako pacjentów w stanie zagrożenia życia i natychmiast wdrażać zaawansowane ogrzewanie. Warto o tym pamiętać nie tylko w pracy, ale i na co dzień – bo sytuacje z wychłodzeniem mogą zdarzyć się każdemu, nawet latem po dłuższym przebywaniu w zimnej wodzie. Z mojego doświadczenia wynika, że rozpoznanie granicy 33°C jest kluczowe, by nie zbagatelizować objawów i nie dopuścić do tragedii. Warto więc mieć tę liczbę z tyłu głowy, szczególnie w branżach medycznych i ratowniczych.

Pytanie 26

Rysunek przedstawia wynik działania polecenia ipconfig urządzenia w sieci LAN. Który adres rutera umożliwia dostęp tego urządzenia do sieci WAN?

Karta Ethernet Połączenie lokalne:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :

Karta bezprzewodowej sieci LAN Połączenie sieci bezprzewodowej:

Sufiks DNS konkretnego połączenia :
Adres IPv6 połączenia lokalnego . : fe80::2dd5:5602:1f17:82c8%11
Adres IPv4. . . . . . . . . . . . : 192.168.10.44
Maska podsieci. . . . . . . . . . : 255.255.255.0
Brama domyślna. . . . . . . . . . : 192.168.10.1

Karta tunelowa isatap.Home:

Stan nośnika. . . . . . . . . . . : Nośnik odłączony
Sufiks DNS konkretnego połączenia :
A. 255.255.255.0
B. fe80.2dd5.5602
C. 192.168.10.44
D. 192.168.10.1
Adres 192.168.10.1 został wskazany jako brama domyślna w wyniku polecenia ipconfig. To właśnie ten adres odpowiada za „wyjście” urządzenia z sieci lokalnej (LAN) do sieci zewnętrznej, czyli WAN, najczęściej Internetu. W praktyce jest to adres IP interfejsu routera w Twojej podsieci – wszystkie pakiety kierowane poza lokalny segment sieci są przesyłane właśnie do tej bramy, która dalej je przekazuje do odpowiedniego miejsca docelowego. Branżowo mówi się, że „default gateway” to taki domyślny punkt styku ze światem zewnętrznym. W standardowych konfiguracjach urządzeń sieciowych (np. Windows, routery SOHO) zawsze warto sprawdzać tę wartość, gdy pojawiają się problemy z dostępem do Internetu. Często powtarza się (i słusznie!), że zły adres bramy lub jej brak od razu uniemożliwia komunikację poza lokalną siecią, nawet jeśli IP i maska są poprawne. Co ciekawe, w większych sieciach bywa, że bram jest kilka, ale domyślna jest tylko jedna dla danego hosta. W sumie – bez bramy domyślnej nie ma szans, żeby „wyjść” z LANu. Z mojego doświadczenia zawsze najpierw sprawdzam tę wartość podczas diagnozowania awarii sieci – to podstawa każdego serwisanta albo administratora. Warto też wiedzieć, że adres bramy domyślnej zwykle kończy się na .1, choć nie jest to twarda reguła, po prostu tak przyjęło się ze względów porządkowych. W tym przykładzie wszystko wygląda książkowo.

Pytanie 27

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. półotwartym.
B. oczkowym.
C. płaskim.
D. dynamometrycznym.
Klucz dynamometryczny to narzędzie, które pozwala z bardzo dużą precyzją dokręcić śrubę z określoną siłą, czyli tzw. momentem obrotowym. W tym przypadku chodzi o 6 Nm – i to naprawdę nie jest przypadkowa wartość, tylko często podana przez producenta po to, żeby wszystkie połączenia trzymały się jak należy, ale jednocześnie nie były przeciążone. Moim zdaniem, właśnie taki klucz powinien być podstawowym wyposażeniem każdego warsztatu, niezależnie od tego, czy robisz przy rowerach, motocyklach, czy w poważniejszej mechanice. Przykładowo, w serwisie rowerowym, gdy dokręcasz śruby mostka kierownicy lub karbonowej sztycy, naprawdę nie warto ryzykować – za mocno i można uszkodzić część, za słabo i coś się może rozluźnić podczas jazdy. Z mojego doświadczenia wynika, że profesjonalne instrukcje montażowe (nie tylko w branży motoryzacyjnej czy rowerowej, ale też np. hydraulicznej) zawsze odnoszą się do ściśle określonych momentów. Właściwe użycie klucza dynamometrycznego to bezpieczeństwo i powtarzalność montażu, a także eliminacja typowych błędów związanych z "na czuja". Czasem ktoś powie, że wystarczy "dokręcić mocno", ale to bardzo złudne – stal, aluminium czy kompozyty mają swoje ograniczenia. Warto też pamiętać, że takie narzędzia mają skalę (często nawet dwie: Nm i ft-lb), a porządny warsztat zawsze je kalibruje raz na jakiś czas, bo precyzja jest tu kluczowa.

Pytanie 28

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. KTG
B. RTG
C. EKG
D. EEG
Analizując przedstawiony zestaw, łatwo pomylić jego przeznaczenie, zwłaszcza jeśli ktoś nie miał wcześniej styczności z serwisem sprzętu medycznego. Przede wszystkim należy zwrócić uwagę, że nie jest to zestaw do testowania aparatury EEG, która służy do rejestracji czynności bioelektrycznej mózgu. Typowe wyposażenie stanowiska EEG obejmuje zupełnie inny rodzaj elektrod – nakładanych na głowę, a nie przewodów jak w pokazanym zestawie. Z kolei EKG, czyli elektrokardiografia, monitoruje pracę serca, ale u dorosłych i dzieci, nie płodów – tutaj również wykorzystuje się inne testery i inne sygnały testowe, zgodne z normą IEC 60601-2-25. RTG natomiast to zupełnie inny świat: to diagnostyka obrazowa wykorzystująca promieniowanie rentgenowskie, a sprzęt do jej testowania to głównie fantomy, dozymetry i mierniki promieniowania, a nie zestawy elektroniczne jak pokazany na fotografii. Z mojego doświadczenia wynika, że częstym błędem jest utożsamianie podobieństwa wyglądu walizki czy przewodów z funkcją testera – tymczasem każdy rodzaj aparatury medycznej wymaga dedykowanego sprzętu kontrolnego, a testery KTG są bardzo specyficzne i przygotowane do testowania sygnałów kardiotokograficznych. W praktyce serwisowej, pomyłka w rozpoznaniu testera może prowadzić do źle przeprowadzonych procedur sprawdzenia sprzętu, a to już grozi poważnymi konsekwencjami dla bezpieczeństwa pacjentów. Dlatego tak ważne jest, żeby zawsze dokładnie analizować przeznaczenie danego zestawu i nie sugerować się tylko wyglądem zewnętrznym czy powierzchownym skojarzeniem z innym sprzętem medycznym.

Pytanie 29

Zaćma fotochemiczna jest wywołana promieniowaniem

A. VIS
B. UV-A
C. UV-B
D. IR-C
Z mojego doświadczenia wynika, że wokół tematu zaćmy fotochemicznej krąży wiele mitów, szczególnie jeśli chodzi o rodzaje promieniowania, które naprawdę są niebezpieczne dla soczewki oka. Dużo osób błędnie zakłada, że światło widzialne (VIS) jest odpowiedzialne za powstawanie zaćmy – a przecież nasz układ wzrokowy jest do niego doskonale przystosowany i nie wywołuje ono zmian fotochemicznych w soczewce nawet przy długotrwałej ekspozycji. Pewnie bierze się to z mylenia zmęczenia oczu z faktycznymi uszkodzeniami struktur oka. Z kolei promieniowanie UV-B rzeczywiście jest bardziej energetyczne niż UV-A, ale jego zakres absorbuje głównie rogówka i spojówka, więc rzadko dociera do soczewki w ilościach groźnych dla tego organu. UV-B jest bardziej kojarzone z uszkodzeniami powierzchni oka, np. tzw. ślepotą śnieżną, a nie z przewlekłymi schorzeniami soczewki. Promieniowanie podczerwone IR-C w ogóle nie wchodzi w grę – to zakres o znacznie dłuższych falach, który co najwyżej podgrzewa tkanki i może prowadzić do poparzeń lub uszkodzeń termicznych, ale nie powoduje zmian fotochemicznych typowych dla zaćmy. Często spotykam się z przekonaniem, że każde silne światło szkodzi oczom tak samo – a to nieprawda, wszystko zależy od długości fali i mechanizmu oddziaływania. Dobre praktyki BHP i normy branżowe (np. PN-EN 14255) jasno rozróżniają typy zagrożeń: UV-A odpowiada za fotochemiczne uszkodzenia soczewki, UV-B uszkadza powierzchnię oka, a IR głównie grzeje. To dlatego ochrona przed zaćmą fotochemiczną skupia się na filtrach UV-A, a nie innych zakresach promieniowania.

Pytanie 30

Na zdjęciu RTG najjaśniejsze pole stanowi tkanka kostna, przez którą promieniowanie rentgenowskie jest

Ilustracja do pytania
A. rozpraszane.
B. przenikane.
C. absorbowane.
D. odbijane.
Odpowiedź dotycząca absorpcji promieniowania rentgenowskiego przez tkankę kostną w zdjęciu RTG jest jak najbardziej trafna. W praktyce medycznej jasne pola na zdjęciu oznaczają miejsca, gdzie promieniowanie zostało silnie pochłonięte, a nie przeniknęło do kliszy czy detektora cyfrowego. Kość, ze względu na wysoką zawartość wapnia i gęstość, skutecznie blokuje przechodzenie promieniowania, co sprawia, że na obrazie RTG te obszary są wyraźnie jaśniejsze w porównaniu do tkanek miękkich czy powietrza. To właśnie absorpcja jest kluczowym zjawiskiem, które umożliwia lekarzom ocenę stanu układu kostnego, wykrywanie złamań, zmian zwyrodnieniowych czy innych patologii. Moim zdaniem, zrozumienie tego mechanizmu jest absolutnie podstawą dla każdego, kto chce pracować w radiologii – bez tej wiedzy trudno o skuteczną analizę zdjęć. Standardy światowe, jak chociażby zalecenia Polskiego Lekarskiego Towarzystwa Radiologicznego, podkreślają znaczenie interpretacji różnic pochłaniania promieniowania. Często spotyka się sytuacje, gdzie osoby początkujące mylą absorpcję z odbiciem lub rozproszeniem, co prowadzi do nieprawidłowych wniosków diagnostycznych. W praktyce każdy technik czy lekarz radiolog powinien zwracać uwagę na gęstość i strukturę danego obszaru zdjęcia, żeby uniknąć pomyłek i zapewnić pacjentowi najwyższy standard diagnostyki.

Pytanie 31

Do pomiaru częstotliwości rezonansowej generatora kwarcowego w kardiotokografii należy zastosować

A. falomierz.
B. oscyloskop.
C. amperomierz.
D. fluksometr.
W praktyce pomiaru częstotliwości rezonansowej generatora kwarcowego można spotkać się z różnymi błędnymi wyobrażeniami co do używanych narzędzi. Na przykład amperomierz mierzy natężenie prądu, więc nawet jeśli jest bardzo czuły, nie dogada się z częstotliwością – on po prostu nie widzi zmian sygnału w czasie, tylko ile elektronów przeleciało w danym momencie. To trochę jakby próbować sprawdzić szybkość samochodu, patrząc na to, ile paliwa ma w baku – zupełnie inne rzeczy. Fluksometr to narzędzie do pomiaru strumienia magnetycznego i stosuje się go głównie w elektrotechnice, np. przy badaniu transformatorów albo rdzeni magnetycznych. Tutaj, gdzie chodzi o sygnały elektryczne i ich częstotliwość, fluksometr jest zupełnie nieprzydatny, a wręcz nie da się nim uzyskać żadnej sensownej informacji. Falomierz natomiast jest przyrządem służącym do pomiaru częstotliwości, ale zazwyczaj używa się go w radiotechnice, gdzie mówimy o sygnałach wysokiej częstotliwości, np. w pasmach radiowych. W przypadku generatorów kwarcowych stosowanych w urządzeniach takich jak kardiotokografy, sygnały są najczęściej w zakresie, który najlepiej mierzyć oscyloskopem – i to nie tylko z powodu częstotliwości, ale też potrzeby analizy kształtu sygnału i ewentualnych zakłóceń. Często spotykam się z tym, że ludzie mylą funkcje tych urządzeń, bo ich nazwy brzmią podobnie lub wydają się ogólne. Niestety, takie uproszczenia prowadzą do błędnych wyborów narzędzi. Dobra praktyka w branży medycznej i elektronicznej to zawsze wybierać urządzenie, które pozwala na jak najszerszą analizę sygnału – a w tym przypadku oscyloskop sprawdza się najlepiej, zwłaszcza przy precyzyjnym sprzęcie diagnostycznym.

Pytanie 32

Która konsola MMC pozwala na zmianę ważności hasła i ustawienie blokady hasła po określonej liczbie logowań?

A. Użytkownicy i grupy lokalne.
B. Certyfikaty.
C. Zasady zabezpieczeń lokalnych.
D. Szablony zabezpieczeń.
Zasady zabezpieczeń lokalnych w Windows to narzędzie, które daje naprawdę spore możliwości w zakresie zarządzania bezpieczeństwem na pojedynczym komputerze. To właśnie w tej konsoli MMC ustawiasz takie rzeczy jak czas ważności hasła, wymuszanie zmiany hasła po określonym okresie czy blokadę konta po kilku nieudanych próbach logowania. Praktycznie, jeśli adminujesz stacją roboczą albo małym serwerem w sieci bez domeny, to właśnie tutaj ustawisz politykę dotyczącą długości, złożoności i cyklu życia hasła. Z mojego doświadczenia, korzystanie z "Zasad zabezpieczeń lokalnych" pozwala nie tylko podnieść poziom bezpieczeństwa, ale też wdrażać standardy zgodne z dobrymi praktykami, np. rekomendacjami CIS czy wytycznymi NIST. To narzędzie przydaje się zwłaszcza wtedy, gdy nie korzystasz z Active Directory i wszystkimi ustawieniami musisz zarządzać lokalnie. Co ciekawe, niektórzy administratorzy zapominają, że w tej samej konsoli można ustawić także blokadę konta po np. 5 nieudanych próbach logowania, a to przecież podstawa ochrony przed atakami typu brute-force. Generalnie, jeżeli chodzi o indywidualne stanowiska robocze, to praktycznie cała polityka haseł i blokad powinna być skonfigurowana właśnie w tej konsoli. Zasady zabezpieczeń lokalnych nie są może tak rozbudowane jak GPO w domenie, ale pozwalają na naprawdę sporo, jeśli chodzi o bezpieczeństwo pojedynczego komputera. Moim zdaniem, to absolutna podstawa wiedzy każdego, kto chce efektywnie zarządzać systemami Windows w małej skali.

Pytanie 33

Proces, w którym w bazie danych są usuwane nadmiarowe dane, jest określany jako

A. redukcja.
B. redundancja.
C. normalizacja.
D. kompresja.
Pojęcie redukcji w odniesieniu do baz danych raczej nie funkcjonuje jako konkretne narzędzie czy proces związany z eliminacją nadmiarowych danych. Redukcja to dość ogólne słowo, które może kojarzyć się z obniżaniem ilości czegoś, jednak w profesjonalnym projektowaniu baz danych właściwe pojęcie to normalizacja. Redundancja natomiast to właśnie zjawisko, które staramy się usuwać – czyli powtarzające się, zbędne dane. Mylenie redukcji z normalizacją często wynika z dosłownego tłumaczenia angielskich terminów albo z intuicyjnego podejścia. Kompresja natomiast odnosi się głównie do zmniejszania fizycznego rozmiaru danych, czyli np. plików czy bloków danych w bazie, ale nie wpływa na logiczną strukturę bazy czy powtarzalność informacji. W praktyce kompresja jest stosowana np. w hurtowniach danych albo przy optymalizacji miejsca na dysku, lecz nijak nie rozwiązuje problemu powielania tych samych wartości w wielu rekordach. Z mojego doświadczenia wynika, że głównym błędem wśród uczniów i początkujących specjalistów jest utożsamianie procesu usuwania nadmiarowych danych z ogólnymi pojęciami optymalizacji lub właśnie kompresji. W rzeczywistości, tylko normalizacja prowadzi do logicznego uporządkowania danych, poprawy spójności i łatwiejszego zarządzania bazą w dłuższej perspektywie. Stosowanie innych podejść może skutkować chaosem, trudnościami przy utrzymaniu i aktualizacji systemu oraz możliwymi sprzecznościami danych.

Pytanie 34

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. RTG
B. KTG
C. EKG
D. EMG
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.

Pytanie 35

Aby zapobiec utracie danych w programie obsługi przychodni, należy codziennie wykonywać

A. aktualizację programu.
B. kopię zapasową danych.
C. aktualizację systemu operacyjnego.
D. punkt przywracania systemu operacyjnego.
Najlepszą i najpewniejszą metodą ochrony danych przed ich utratą, szczególnie w takim środowisku jak przychodnia, jest codzienne wykonywanie kopii zapasowej danych. To podstawa bezpieczeństwa informatycznego i praktycznie każdy specjalista IT na świecie zaleca tę czynność jako absolutnie niezbędną. W razie jakiejkolwiek awarii – czy to sprzętowej, czy wynikającej z błędu ludzkiego, ataku wirusa, ransomware albo przypadkowego usunięcia pliku – tylko backup daje realną szansę na odzyskanie cennych informacji. Z mojego doświadczenia wynika, że nawet najbardziej zaawansowane zabezpieczenia nie zastąpią regularnego robienia kopii zapasowych. W środowiskach medycznych jest to wręcz wymóg prawny i wynikający z RODO obowiązek zapewnienia ciągłości dostępu do danych pacjentów. Niejednokrotnie spotkałem się z sytuacją, gdzie to właśnie backup uratował placówkę przed katastrofalną stratą – kosztów, nerwów i poważnych konsekwencji prawnych. Standard branżowy ISO 27001 jasno wskazuje konieczność wdrażania polityk backupowych. W praktyce często stosuje się rozwiązania automatyczne, które codziennie, nawet po godzinach pracy, wykonują kopie zapasowe w chmurze albo na zewnętrznych nośnikach. Tak naprawdę backup to taki swoisty parasol ochronny – bez niego każdy system jest podatny na nieprzewidziane sytuacje, a w medycynie nie ma miejsca na ryzyko. Codzienna kopia zapasowa to inwestycja w spokój i bezpieczeństwo danych.

Pytanie 36

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Przyśpiesza procesy przemiany materii.
B. Zwiększa napięcie mięśni szkieletowych.
C. Zmniejsza przepływ krwi tętniczej.
D. Zmniejsza próg odczuwania bólu.
Wokół promieniowania podczerwonego narosło sporo nieporozumień, często wynikających z mylenia efektów IR z innymi rodzajami bodźców fizycznych. Przede wszystkim promieniowanie podczerwone nie zmniejsza progu odczuwania bólu w taki sposób, jak to robią na przykład fale ultradźwiękowe czy elektroterapia. Działanie IR polega na miejscowym podniesieniu temperatury, co może co prawda pośrednio łagodzić ból przez rozluźnienie mięśni, ale bezpośredniego wpływu na próg odczuwania bodźców bólowych nie ma – to typowy błąd myślenia wynikający z przenoszenia efektów cieplnych na inne układy fizjologiczne. Kolejne błędne przekonanie to przekonanie, że IR zmniejsza przepływ krwi tętniczej. Jest wręcz odwrotnie – ogrzewanie tkanek powoduje rozszerzenie naczyń krwionośnych i przez to zwiększenie przepływu, co jest potwierdzone w praktyce fizjoterapeutycznej i opisane w branżowych standardach, np. Polskiego Towarzystwa Fizjoterapii. Jeśli chodzi o wpływ na napięcie mięśni szkieletowych, podczerwień raczej sprzyja rozluźnieniu, a nie zwiększeniu napięcia – to właśnie dlatego wykorzystuje się ją w rehabilitacji pourazowej czy przy przewlekłych bólach mięśniowych. Typowym błędem jest tu mylenie reakcji mięśni na bodźce elektryczne z reakcją na bodziec cieplny. Podsumowując, promieniowanie IR ma przede wszystkim charakter działania cieplnego i metabolicznego: przyspiesza procesy przemiany materii przez podniesienie temperatury, co z kolei wspomaga regenerację i procesy naprawcze. Prawidłowe rozumienie tych efektów jest ważne nie tylko w teorii, ale też w praktyce, zwłaszcza gdy pracuje się z urządzeniami do fizykoterapii, bo od tego zależy skuteczność i bezpieczeństwo zabiegów.

Pytanie 37

Nie uzyskamy pomocy na temat polecenia „net” w wierszu poleceń systemu Windows wpisując

A. help net
B. net /?
C. net ?
D. net help
Bardzo często użytkownicy systemu Windows próbują znaleźć pomoc dotyczącą poleceń, używając intuicyjnych zwrotów jak „help net”, co wydaje się logiczne, zwłaszcza jeśli ktoś pracował wcześniej z systemami Unix czy Linux, gdzie schemat „help [polecenie]” działa bez problemu. Jednak w wierszu poleceń Windows taka składnia po prostu nie funkcjonuje. System interpretuje „help” jako odrębne polecenie, które służy do wyświetlania pomocy dla poleceń wbudowanych, a nie dla bardziej złożonych narzędzi jak „net”. Często pojawia się też pomysł, żeby użyć „net help” lub „net /?” – i to są właśnie poprawne sposoby, akceptowane przez środowisko Windows. Obie te metody wyświetlają szczegółową instrukcję oraz listę dostępnych podpoleceń i parametry. Z kolei „net ?” to przykład składni, która nie przyniesie oczekiwanego rezultatu, bo w Windows znak zapytania nie jest traktowany jako uniwersalny wywoływacz pomocy (w przeciwieństwie do niektórych powłok Linuksa). Typowym błędem jest więc przenoszenie przyzwyczajeń z innych środowisk lub nieznajomość specyfiki poleceń systemowych Windows. Z mojego doświadczenia wynika, że najlepiej po prostu zapamiętać dwie rzeczy: jeśli chcemy listę podpoleceń, używamy „net help” lub „net /?”, a jeśli szukamy szczegółowej pomocy do konkretnego zagadnienia, wpisujemy np. „net help use”. To znacząco ułatwia codzienną pracę administratora. Warto także zwrócić uwagę, że korzystanie z pomocy wbudowanej jest zawsze zgodne z dobrymi praktykami branżowymi, bo pozwala na szybkie przypomnienie sobie nawet rzadziej używanych funkcji, bez potrzeby szukania dokumentacji zewnętrznej, co jest szczególnie ważne w środowiskach produkcyjnych.

Pytanie 38

Aby zainstalować brakujące oprogramowanie w systemie z rodziny Linux należy wykorzystać polecenie

A. apt cache
B. apt-get install
C. install
D. get install
Polecenie „apt-get install” to w zasadzie taki standard, jeśli chodzi o instalację oprogramowania w systemach Linux z rodziny Debian, Ubuntu i pochodnych. Używanie tego narzędzia jest intuicyjne, choć czasem niektórych może przerazić wiersz poleceń. Moim zdaniem, jak już ktoś choć raz spróbuje zainstalować pakiet przez „apt-get install”, to szybko zobaczy, jak bardzo to przyspiesza codzienną pracę. W praktyce wygląda to tak: wpisujesz „sudo apt-get install nazwa_pakietu” i system automatycznie pobiera oraz instaluje wybrany program wraz z wszystkimi zależnościami – nie trzeba ręcznie szukać ani ściągać żadnych plików. To ogromna wygoda i bezpieczeństwo, bo wszystko pobiera się z oficjalnych repozytoriów, no i nie narażasz się na ściągnięcie jakiegoś trefnego pliku z internetu. Z mojego doświadczenia wynika, że praktycznie każdy administrator czy nawet zwykły użytkownik Linuksa powinien znać te podstawy. Warto też pamiętać, że od kilku lat pojawiło się polecenie „apt install”, które jest uproszczoną wersją, ale „apt-get” nadal często pojawia się w dokumentacjach, skryptach i instrukcjach branżowych. Instalacja przez „apt-get install” jest po prostu najpewniejszym i najczęściej stosowanym rozwiązaniem w środowiskach produkcyjnych – lepiej to opanować na pamięć, bo prędzej czy później się przyda. Mi nieraz uratowało skórę, kiedy musiałem na szybko dorzucić brakującą bibliotekę czy narzędzie. To podstawa pracy z tymi systemami.

Pytanie 39

W dokumentacji skanera zapisano „rozdzielczość optyczna 600 x 600 [dpi]”. Skrót dpi określa liczbę punktów

A. na cal.
B. na cm.
C. szerokości dokumentu.
D. wysokości dokumentu.
Dpi to skrót od „dots per inch”, co w bezpośrednim tłumaczeniu oznacza „liczba punktów na cal”. To taki techniczny wskaźnik, który bardzo często stosuje się w grafice komputerowej, drukarkach i oczywiście skanerach. W praktyce, im większa liczba dpi, tym urządzenie potrafi uchwycić (albo wydrukować) więcej szczegółów na danym odcinku długości jednego cala. Standardowy cal to 2,54 cm, co czasami bywa mylące, bo niektórzy próbują przeliczać dpi na centymetry, ale to nie jest ta sama jednostka. Weźmy na przykład taki skaner o rozdzielczości 600x600 dpi – oznacza to, że w jednym calu w pionie i poziomie urządzenie rozróżnia aż 600 punktów. To właśnie dlatego skany są ostre, a detale dobrze widoczne. Warto pamiętać, że na rynku sprzętu biurowego i poligraficznego przyjęło się właśnie operowanie jednostką dpi, nie na centymetry czy milimetry, bo jest to uniwersalne i pozwala łatwiej porównywać różne urządzenia. Z mojego doświadczenia wynika, że sporo nieporozumień wśród początkujących wynika z pomieszania tych jednostek – a tak naprawdę dpi funkcjonuje od dekad i jest właściwie standardem branżowym. Jeśli na przyszłość będziesz miał do czynienia z drukiem albo digitalizacją dokumentów, to dpi zawsze będzie odnosiło się do ilości punktów na cal. To taki niepisany „język” technologii obrazu.

Pytanie 40

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. angiografii.
B. echokardiografii.
C. elektrokardiografii.
D. fonokardiografii.
Wiele osób myli pojęcia związane z diagnostyką kardiologiczną, bo nazwy bywają trochę podobne, a każdy z tych testów bada coś zupełnie innego i w innym zakresie wykorzystuje zjawiska fizyczne. Fonokardiografia polega na zapisie dźwięków pracy serca – wykorzystuje mikrofony i analizę akustyczną, ale nie ma tu nic wspólnego ze zmianą częstotliwości odbitej fali, czyli z efektem Dopplera. Elektrokardiografia z kolei to analiza zmian potencjałów elektrycznych wytwarzanych przez mięsień sercowy – tu mamy elektrody i rejestrację sygnałów bioelektrycznych, a nie fal ultradźwiękowych. Angiografia, choć brzmi dość technicznie, polega głównie na obrazowaniu naczyń krwionośnych po podaniu środka kontrastowego, zazwyczaj z użyciem promieniowania rentgenowskiego – nie wykorzystuje się tu ultradźwięków ani Dopplera. Typowym błędem jest utożsamianie wszystkich tych badań z jakimś „obrazowaniem serca”, a w rzeczywistości każde opiera się na zupełnie innych zasadach fizycznych. Z mojej perspektywy, najczęściej powtarzany błąd to przekonanie, że wszędzie gdzie jest „-grafia”, tam używa się fal ultradźwiękowych i efektu Dopplera, ale to nieprawda. Echokardiografia wyróżnia się tym, że daje zarówno obraz anatomiczny, jak i dynamiczny przepływów, i to właśnie dzięki zjawisku Dopplera, które jest zupełnie nieobecne w wymienionych pozostałych badaniach. Jeśli ktoś chce być pewny swojej wiedzy, dobrze jest zapamiętać, że tylko w diagnostyce ultradźwiękowej (zwłaszcza w badaniach serca i naczyń) analizuje się zmiany częstotliwości odbitej fali, bo tylko tam ma to praktyczny sens i realny wpływ na rozpoznanie chorób.