Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 19 kwietnia 2026 16:11
  • Data zakończenia: 19 kwietnia 2026 16:32

Egzamin niezdany

Wynik: 18/40 punktów (45,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Zaćma fotochemiczna jest wywoływana promieniowaniem

A. VIS
B. IR-C
C. UV-B
D. UV-A
Zaćma fotochemiczna jest bardzo konkretnego pochodzenia i jej przyczyna jest ściśle powiązana z rodzajem promieniowania, które działa na tkanki oka. Często pojawia się nieporozumienie dotyczące tego, które zakresy promieniowania są najbardziej niebezpieczne dla soczewki, bo zwykle skupiamy się na słońcu i ogólnym pojęciu promieniowania UV, nie rozróżniając poszczególnych typów. Promieniowanie UV-B jest rzeczywiście bardzo szkodliwe, ale jego główne działanie to uszkodzenia naskórka, rogówki i spojówek – to ono odpowiada za tzw. ślepotę śnieżną, czyli ostre uszkodzenia powierzchni oka po ekspozycji na intensywne słońce. IR-C natomiast to już podczerwień, która powoduje uszkodzenia głównie termiczne, a nie fotochemiczne – typowo spotykane u hutników lub osób pracujących przy bardzo wysokich temperaturach, gdzie energia cieplna przechodzi w głąb oka. Z kolei VIS, czyli promieniowanie widzialne, rzadko kiedy prowadzi do uszkodzeń na poziomie soczewki w taki sposób, by wywołać zaćmę fotochemiczną, chyba że mówimy o ekstremalnie silnym świetle (np. lasery), ale to już inny mechanizm niż typowy dla UV-A. Wiele podręczników i wytycznych BHP podkreśla, że to właśnie promieniowanie UV-A jest głównym sprawcą zaćmy fotochemicznej, bo dociera najgłębiej do wnętrza oka i wywołuje zmiany biochemiczne w białkach soczewki, czego nie robią pozostałe wymienione zakresy. W praktyce łatwo pomylić skutki działania promieniowania UV-B i UV-A, ale różnią się one zarówno objawami, jak i długofalowymi konsekwencjami. Stąd tak ważne jest dokładne rozpoznanie źródeł zagrożenia i dobór właściwej ochrony – nie każda ciemna szyba czy okulary przeciwsłoneczne zapewniają filtr przeciw UV-A, a to właśnie on powinien być traktowany priorytetowo w środowiskach zawodowych i codziennym życiu.

Pytanie 2

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. milisekundach.
B. liczbie cykli zegara.
C. sekundach.
D. liczbie bitów do odczytu.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 3

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. EKG
B. KTG
C. RTG
D. EEG
Analizując przedstawiony zestaw, łatwo pomylić jego przeznaczenie, zwłaszcza jeśli ktoś nie miał wcześniej styczności z serwisem sprzętu medycznego. Przede wszystkim należy zwrócić uwagę, że nie jest to zestaw do testowania aparatury EEG, która służy do rejestracji czynności bioelektrycznej mózgu. Typowe wyposażenie stanowiska EEG obejmuje zupełnie inny rodzaj elektrod – nakładanych na głowę, a nie przewodów jak w pokazanym zestawie. Z kolei EKG, czyli elektrokardiografia, monitoruje pracę serca, ale u dorosłych i dzieci, nie płodów – tutaj również wykorzystuje się inne testery i inne sygnały testowe, zgodne z normą IEC 60601-2-25. RTG natomiast to zupełnie inny świat: to diagnostyka obrazowa wykorzystująca promieniowanie rentgenowskie, a sprzęt do jej testowania to głównie fantomy, dozymetry i mierniki promieniowania, a nie zestawy elektroniczne jak pokazany na fotografii. Z mojego doświadczenia wynika, że częstym błędem jest utożsamianie podobieństwa wyglądu walizki czy przewodów z funkcją testera – tymczasem każdy rodzaj aparatury medycznej wymaga dedykowanego sprzętu kontrolnego, a testery KTG są bardzo specyficzne i przygotowane do testowania sygnałów kardiotokograficznych. W praktyce serwisowej, pomyłka w rozpoznaniu testera może prowadzić do źle przeprowadzonych procedur sprawdzenia sprzętu, a to już grozi poważnymi konsekwencjami dla bezpieczeństwa pacjentów. Dlatego tak ważne jest, żeby zawsze dokładnie analizować przeznaczenie danego zestawu i nie sugerować się tylko wyglądem zewnętrznym czy powierzchownym skojarzeniem z innym sprzętem medycznym.

Pytanie 4

Zapis w dokumentacji technicznej elektrokardiografu określający V1, V2, …V6 dotyczy odprowadzeń

A. Dawesa
B. Goldbergera
C. Einthovena
D. Wilsona
Oznaczenia V1, V2, …V6 w dokumentacji technicznej elektrokardiografu dotyczą tzw. odprowadzeń przedsercowych, inaczej zwanych jednobiegunowymi odprowadzeniami Wilsona. To właśnie Wilson opracował te odprowadzenia, które rejestrują potencjały elektryczne bezpośrednio z powierzchni klatki piersiowej, co pozwala na bardzo precyzyjną lokalizację zmian w mięśniu sercowym, np. podczas zawału czy niedokrwienia. W praktyce, odprowadzenia V1–V6 są obowiązkowym elementem standardowego 12-odprowadzeniowego EKG, według wytycznych Europejskiego Towarzystwa Kardiologicznego. Moim zdaniem, bez tych odprowadzeń trudno byłoby wykryć subtelne zaburzenia przewodzenia albo zidentyfikować zmiany w konkretnych segmentach mięśnia sercowego. Osobiście spotkałem się z przypadkami, gdzie tylko dzięki analizie V4 czy V5 udawało się wyłapać początkowe stadium świeżego zawału. Ciekawostką jest, że rozmieszczenie tych elektrod na klatce piersiowej jest ściśle określone – np. V1 przy prawym brzegu mostka, V4 w linii środkowo-obojczykowej. W codziennej pracy medycznej, prawidłowe podpięcie tych odprowadzeń to podstawa rzetelnej diagnostyki elektrokardiograficznej. Trochę nudne, ale taka jest praktyka. Warto zapamiętać, że ani Einthoven, ani Goldberger, ani Dawes nie są autorami tej koncepcji – ich odprowadzenia mają zupełnie inne oznaczenia i zastosowania.

Pytanie 5

Aby usunąć katalog w systemie Windows należy wykonać polecenie

A. REM
B. RENAME
C. REPLACE
D. RMDIR
Polecenie RMDIR w systemie Windows służy do usuwania katalogów, czyli folderów, z poziomu wiersza poleceń. Użycie tego polecenia pozwala na szybkie i efektywne zarządzanie strukturą plików bez konieczności korzystania z interfejsu graficznego. Moim zdaniem warto pamiętać, że komenda rmdir (albo jej skrócona forma rd) pozwala na usuwanie tylko pustych katalogów domyślnie – jeśli chcesz usunąć katalog wraz z całą jego zawartością, musisz użyć przełącznika /S, np. rmdir /S nazwa_katalogu. Z mojego doświadczenia w pracy z serwerami Windows to właśnie rmdir najczęściej wykorzystuje się do automatyzacji porządkowania zasobów czy usuwania tymczasowych folderów w skryptach batch. Warto wiedzieć, że przed usunięciem katalogu dobrze jest sprawdzić, czy nie zawiera on ważnych danych, bo cofnięcie tej operacji może być problematyczne – system nie przenosi katalogu do kosza, tylko usuwa go trwale. Standardowo, polecenie to działa w konsoli cmd, a w PowerShellu mamy Remove-Item, co pokazuje, jak różne narzędzia systemowe mogą się uzupełniać. Ogólnie rzecz biorąc, znajomość takich podstawowych komend jest absolutnie kluczowa dla każdego, kto poważnie myśli o pracy z systemami operacyjnymi na poziomie administracyjnym czy programistycznym. Dobrą praktyką jest także uruchamianie polecenia rmdir z odpowiednimi uprawnieniami, by uniknąć błędów dostępu do katalogu.

Pytanie 6

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. n^3
B. 3*(n-1)
C. 3^n
D. 3*n
Dość często przy analizowaniu rekurencji pojawia się pokusa, by myśleć o operacjach na n w sposób liniowy lub przez analogię do innych znanych wzorów, jednak rekurencja może zachowywać się zupełnie inaczej. Propozycja, że F(n) to n^3, może wynikać z mylenia mnożenia wykładniczego z potęgowaniem przez liczbę n – jednak tutaj nie podnosimy n do potęgi, tylko 3. To bardzo typowy błąd, bo wystarczy jedno przeoczenie i nagle zamiast wykładniczego wzrostu mamy wielomianowy. Natomiast odpowiedź sugerująca 3*n opiera się na założeniu, że każda kolejna wartość dokłada po prostu kolejną trójkę, co pasuje prędzej do sumy arytmetycznej, a nie do rekurencji tego typu. Z mojego doświadczenia wynika, że wielu uczniów patrzy na rekurencję i podświadomie "spłaszcza" ją do zwykłego mnożenia, co jest mylące. Opcja 3*(n-1) jest jeszcze innym uproszczeniem, które może wynikać z nieprecyzyjnego odczytania wzoru rekurencyjnego – zamiast iterować przez mnożenie przez F(n-1), ktoś próbuje zamienić to na prostą operację arytmetyczną, ale to już zupełnie gubi sens konstrukcji rekurencyjnej. W praktycznych zastosowaniach bardzo ważne jest, by jasno rozróżniać, kiedy mamy do czynienia z rosnącym wykładniczo procesem (jak tu), a kiedy z liniowym lub wielomianowym. Przy projektowaniu algorytmów i ocenie ich wydajności takie rozróżnienie ma kluczowe znaczenie, bo błędna klasyfikacja prowadzi do złych decyzji projektowych. W informatyce każdy przypadek kiedy coś rośnie jak potęga liczbowa, wymaga szczególnej uwagi, bo bardzo szybko przekracza granice praktycznej wykonalności. Kluczowym podejściem jest zawsze rozpisanie kilku pierwszych kroków rekurencji, by dokładnie zobaczyć mechanizm powstawania wyniku – to pozwala uniknąć właśnie takich nieporozumień.

Pytanie 7

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. UPDATE
B. ALTER
C. INSERT
D. SELECT
Wybór polecenia innego niż UPDATE do modyfikacji istniejącego rekordu w tabeli SQL to dość powszechne nieporozumienie, zwłaszcza u osób, które dopiero zaczynają pracę z bazami danych. SELECT służy wyłącznie do pobierania danych. Możesz za jego pomocą przefiltrować, posortować czy połączyć dane z kilku tabel, ale nigdy ich nie zmienisz – to jak czytanie informacji bez możliwości ich edycji. Z kolei INSERT przydaje się, gdy chcemy dodać całkiem nowy rekord – to taki „dodawacz”, a nie „modyfikator”. W praktyce, jeśli użyjesz INSERT do rekordu, który już istnieje (np. z tym samym kluczem głównym), baza danych najczęściej zgłosi błąd unikalności, bo nie pozwala na duplikaty. ALTER natomiast jest w ogóle inną kategorią – on zmienia strukturę tabeli, np. dodaje nowe kolumny, zmienia typy danych, a nie dotyka pojedynczych rekordów. Typowym błędem jest myślenie, że skoro chcę „zmienić coś w tabeli”, to ALTER będzie dobry – a to zupełnie coś innego, bo chodzi o strukturę, nie dane. Często spotykam się też z podejściem, że SELECT z UPDATE to prawie to samo, bo oba działają na tych samych tabelach, ale różnica jest zasadnicza: jeden tylko czyta, drugi zmienia dane. Moim zdaniem, trzeba się tego po prostu nauczyć na pamięć i trochę poćwiczyć pisanie zapytań, bo potem te polecenia SQL stają się intuicyjne i nie myli się już tych pojęć. W każdym razie, jeśli chcesz poprawić dane rekordu, musisz sięgnąć po UPDATE, bo tylko ono daje taką możliwość zgodnie ze standardami SQL i praktykami branżowymi.

Pytanie 8

Na którym rysunku przedstawiony jest interfejs zapewniający najwyższą prędkość transferu urządzeń elektroniki medycznej?

A. Rysunek 3
Ilustracja do odpowiedzi A
B. Rysunek 1
Ilustracja do odpowiedzi B
C. Rysunek 2
Ilustracja do odpowiedzi C
D. Rysunek 4
Ilustracja do odpowiedzi D
Rysunek 2 przedstawia symbol USB SuperSpeed, czyli USB 3.0 lub wyższe. Moim zdaniem to właśnie ten standard wprowadził ogromny skok technologiczny, bo umożliwił transfery rzędu nawet do 5 Gbit/s (a w nowszych wersjach jeszcze więcej). To przełom w zastosowaniach profesjonalnych, gdzie często pracuje się z dużymi plikami – na przykład w medycynie, gdzie przesył obrazów czy wyników badań musi być nie tylko szybki, ale też niezawodny. Jeżeli ktoś kiedykolwiek przenosił duże pliki MRI przez zwykłe USB 2.0, to wie, jak długo to potrafi trwać… Standard SS (SuperSpeed) został specjalnie zaprojektowany, by sprostać wymaganiom nowoczesnych urządzeń, także tych z zakresu elektroniki medycznej. Co ciekawe, coraz częściej spotyka się jeszcze szybsze wersje, jak USB 3.1 czy 3.2, ale już sam symbol SS gwarantuje wielokrotnie wyższą przepustowość niż wcześniejsze technologie USB. Dla mnie – i też według branżowych norm – to obecnie absolutna podstawa w sprzęcie wymagającym niezawodnego i szybkiego transferu danych.

Pytanie 9

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. kopii rejestru.
B. importu rejestru.
C. podłączenia rejestru sieciowego.
D. oczyszczania rejestru.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 10

Funkcja f(n) = nf(n-1) dla n>1 w przeciwnym wypadku f(n) = 1 jest przykładem

A. obliczania wyrazu ciągu Fibonacciego.
B. iteracji.
C. rekurencji.
D. obliczania n–tej potęgi liczby n.
Pytanie dotyczyło funkcji, która w swojej definicji odwołuje się do samej siebie, czyli klasycznej rekurencji. Często można się pomylić, myląc rekurencję z iteracją, bo obie pozwalają na wielokrotne wykonanie pewnych działań. Jednakże w iteracji (np. za pomocą pętli for czy while) nie ma odwołania się funkcji do siebie samej, tylko powtarzany jest blok kodu według określonych warunków. Rekurencja natomiast polega na tym, że funkcja wywołuje samą siebie z różnymi parametrami, aż do osiągnięcia warunku końcowego, zwanego bazowym. Funkcja przedstawiona w pytaniu przypomina obliczanie silni, a nie potęgi liczby n – bo w potęgowaniu bazujemy na innym mechanizmie matematycznym, gdzie n-tej potęgi liczby n nie da się uzyskać przez kolejne mnożenie przez malejące liczby (tylko przez n-krotne mnożenie liczby n przez samą siebie). Częsty błąd to także utożsamianie tej struktury z ciągiem Fibonacciego, gdzie zależności są inne: każdy wyraz to suma dwóch poprzednich, a nie iloczyn bieżącej wartości i wyniku rekurencji. Takie pomyłki wynikają z powierzchownego spojrzenia na rekurencyjne definicje – kluczem jest zrozumienie, jak wyglądają zależności w matematyce i programowaniu. W praktyce, dobrze jest prześledzić, co dokładnie robi funkcja dla kilku kolejnych wartości – wtedy łatwiej zauważyć, czy to silnia, potęgowanie, czy właśnie rekurencyjna definicja innego typu. Moim zdaniem, najlepszą praktyką jest nie tylko patrzenie na wzór, ale też rozpisywanie poszczególnych wywołań, żeby zobaczyć, dokąd prowadzi dana zależność.

Pytanie 11

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. PACS
B. WLAN
C. LZW
D. VPN
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.

Pytanie 12

Aby zapobiec utracie danych w programie obsługi przychodni, należy codziennie wykonywać

A. aktualizację programu.
B. punkt przywracania systemu operacyjnego.
C. aktualizację systemu operacyjnego.
D. kopię zapasową danych.
Najlepszą i najpewniejszą metodą ochrony danych przed ich utratą, szczególnie w takim środowisku jak przychodnia, jest codzienne wykonywanie kopii zapasowej danych. To podstawa bezpieczeństwa informatycznego i praktycznie każdy specjalista IT na świecie zaleca tę czynność jako absolutnie niezbędną. W razie jakiejkolwiek awarii – czy to sprzętowej, czy wynikającej z błędu ludzkiego, ataku wirusa, ransomware albo przypadkowego usunięcia pliku – tylko backup daje realną szansę na odzyskanie cennych informacji. Z mojego doświadczenia wynika, że nawet najbardziej zaawansowane zabezpieczenia nie zastąpią regularnego robienia kopii zapasowych. W środowiskach medycznych jest to wręcz wymóg prawny i wynikający z RODO obowiązek zapewnienia ciągłości dostępu do danych pacjentów. Niejednokrotnie spotkałem się z sytuacją, gdzie to właśnie backup uratował placówkę przed katastrofalną stratą – kosztów, nerwów i poważnych konsekwencji prawnych. Standard branżowy ISO 27001 jasno wskazuje konieczność wdrażania polityk backupowych. W praktyce często stosuje się rozwiązania automatyczne, które codziennie, nawet po godzinach pracy, wykonują kopie zapasowe w chmurze albo na zewnętrznych nośnikach. Tak naprawdę backup to taki swoisty parasol ochronny – bez niego każdy system jest podatny na nieprzewidziane sytuacje, a w medycynie nie ma miejsca na ryzyko. Codzienna kopia zapasowa to inwestycja w spokój i bezpieczeństwo danych.

Pytanie 13

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 MW
B. 10 kₖW
C. 10 W
D. 10 kW
Gdy analizujemy pomiary prądu dla różnych wartości rezystancji, bardzo łatwo wpaść w pułapkę myślenia, że niższa rezystancja daje lepszy wynik, bo prąd płynie większy i jest teoretycznie łatwiejszy do zmierzenia. Niestety, nie tędy droga w praktyce laboratoryjnej czy serwisowej. W rzeczywistości, jeśli mierzona rezystancja jest niska, udział wewnętrznej rezystancji miernika (szeregowo włączonej w obwód) staje się znaczny w stosunku do badanego elementu. To prowadzi do poważnego błędu pomiarowego, bo miernik ‘kradnie’ część napięcia, a wynik staje się zafałszowany. Często spotkałem się z przypadkami, gdy ktoś wybierał np. 10 omów czy nawet 10 kiloohmów, nie biorąc pod uwagę, że układ pomiarowy nie jest idealny i zawsze dodaje coś od siebie. Takie podejście jest błędne, bo całkowita rezystancja obwodu przestaje być reprezentatywna dla badanego elementu. Jeszcze gorzej, jeśli rezystancja miernika jest porównywalna z mierzonym rezystorem – wtedy błąd czasem przekracza kilkadziesiąt procent! Z drugiej strony, wybór bardzo dużej rezystancji (jak 10 megaomów) praktycznie eliminuje udział miernika w wyniku końcowym. Typowym błędem myślowym jest też pomijanie wpływu upływności przewodów czy wilgotności powietrza przy wysokich rezystancjach, ale to już kwestia doświadczania i praktyki. Ogólnie rzecz biorąc, im większa rezystancja badanego elementu w stosunku do rezystancji miernika, tym mniejszy wpływ układu pomiarowego i tym lepsza jakość pomiaru. To standardowa zasada, której warto się trzymać, zwłaszcza przy dokładnych pomiarach prądu i rezystancji.

Pytanie 14

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. tar
B. raw
C. rar
D. tga
Wybierając odpowiedni format do archiwizacji, kompresji i szyfrowania danych, łatwo pomylić różne typy plików widząc znajome rozszerzenia. Na przykład, tar to bardzo popularny format w środowisku linuksowym (szczególnie przy backupach czy przenoszeniu katalogów), ale sam w sobie nie kompresuje danych, to tylko kontener. Najczęściej spotyka się połączenie tar z gzip lub bzip2 (czyli .tar.gz, .tar.bz2), żeby uzyskać kompresję, ale mimo to, tar nie oferuje natywnego szyfrowania – trzeba sięgać po dodatkowe narzędzia w rodzaju GPG. Co do tga, to jest to w zasadzie format grafiki rastrowej, a nie archiwum – jego zastosowania to głównie grafika komputerowa, tekstury w grach, jakieś proste projekty graficzne, więc absolutnie nie nadaje się do archiwizacji ani tym bardziej do kompresji wielu plików czy szyfrowania. RAW natomiast to rodzaj nieskompresowanych danych, spotykany najczęściej w fotografii cyfrowej jako surowy zapis z matrycy aparatu. W praktyce raw jest duży, nieprzetworzony i nie przystosowany ani do kompresji, ani do bezpiecznego przechowywania w sensie archiwizacji. Często spotykam się z opinią, że wystarczy plik wrzucić do tar czy przechować jako raw, ale wtedy całkowicie tracimy na wygodzie, efektywności i bezpieczeństwie. W branży IT standardem stało się łączenie funkcji archiwizacji, kompresji i szyfrowania w jednym, wygodnym narzędziu – właśnie po to powstały takie formaty jak rar, zip czy 7z. To są rozwiązania wypracowane na podstawie wieloletnich doświadczeń i potrzeb profesjonalistów, którzy muszą nie tylko oszczędzać miejsce, ale też dbać o poufność danych. Dlatego wybieranie formatu graficznego lub prostego kontenera bez kompresji i szyfrowania to typowy błąd początkujących, wynikający z braku znajomości funkcji poszczególnych rozszerzeń. W praktyce zawsze warto czytać dokumentację i zapoznać się ze specyfikacją danego formatu, bo to oszczędza mnóstwo czasu i nerwów, kiedy przychodzi do odzyskiwania czy zabezpieczania danych.

Pytanie 15

Który z nośników danych umożliwia wielokrotny zapis i ma największą pojemność?

A. Nośnik 1
Ilustracja do odpowiedzi A
B. Nośnik 2
Ilustracja do odpowiedzi B
C. Nośnik 4
Ilustracja do odpowiedzi C
D. Nośnik 3
Ilustracja do odpowiedzi D
Wybór innego nośnika niż DVD-RW często wynika z pewnych typowych nieporozumień dotyczących możliwości technologicznych różnych płyt optycznych. Dla przykładu, bardzo często osoby uczące się utożsamiają większą pojemność z możliwością wielokrotnego zapisu, a to duży błąd. Na zdjęciach w zadaniu pojawia się BD-R, który faktycznie oferuje aż 25 GB miejsca, czyli o wiele więcej niż DVD-RW, ale tu warto podkreślić – płyty oznaczone symbolem 'R' (Recordable) pozwalają na jednokrotny zapis i to jest zgodne ze standardem Blu-ray Disc Association. Inaczej sprawa wygląda dla nośników z dopiskiem 'RW' lub 'RE' (ReWritable/Recordable Erasable), bo tylko one umożliwiają wielokrotne nadpisywanie danych. CD-RW również pozwala na wielokrotny zapis, ale jego pojemność to zaledwie 700 MB – i tutaj często spotykam się z mylnym przekonaniem, że 'RW' zawsze oznacza duży rozmiar, a to nieprawda. DVD+R oraz DVD-R, choć pojemnościowo są podobne do DVD-RW, również pozwalają tylko na jeden zapis. Praktyka i dobre standardy branżowe mówią jasno: jeśli zależy nam na wielokrotnym wykorzystaniu płyty oraz jak największej pojemności, wybieramy DVD-RW – wszystko inne to albo kompromis na rzecz pojemności bez możliwości kasowania (BD-R), albo bardzo ograniczona przestrzeń (CD-RW). Niestety takie pomyłki biorą się z nieuważnego zwracania uwagi na oznaczenia płyt lub sugerowania się wyłącznie jednym parametrem, np. pojemnością. Moim zdaniem warto zawsze równolegle analizować zarówno typ zapisu, jak i pojemność nośnika, bo tylko wtedy dobór sprzętu będzie zgodny z realnymi potrzebami użytkownika i praktykami branżowymi.

Pytanie 16

W dokumentacji sieci centralnego monitoringu zapisano, że sieć jest wykonana w standardzie 802.11 Do montażu takiej sieci są wymagane urządzenia wykorzystujące

A. Bluetooth.
B. WiFi.
C. Token ring.
D. Ethernet.
Standard 802.11 to podstawa techniczna dla sieci bezprzewodowych WiFi, a nie przewodowych czy innych technologii. Niestety, często można spotkać się z przekonaniem, że Ethernet to po prostu każda sieć komputerowa, bo jest absolutnie dominujący w sieciach przewodowych. Jednak Ethernet działa w standardzie IEEE 802.3 i wymaga fizycznych przewodów (skrętka, światłowód), co nie ma nic wspólnego z bezprzewodową transmisją charakterystyczną dla 802.11. Podobnie błędne jest powiązanie 802.11 z Bluetooth – to zupełnie inny standard (IEEE 802.15), przeznaczony głównie do krótkodystansowej wymiany danych, np. między telefonem a słuchawkami. Bluetooth w ogóle nie nadaje się do budowy infrastruktury monitoringu, gdzie wymagana jest duża przepustowość i możliwość obsługi wielu urządzeń na większych dystansach. Z kolei Token ring to już trochę historia – to standard IEEE 802.5, kiedyś wykorzystywany w sieciach lokalnych, dziś praktycznie nieużywany, a do tego oparty na topologii pierścienia i przewodach, więc z 802.11 nie ma nic wspólnego. W praktyce, wybierając sprzęt do sieci monitoringu zgodnej z 802.11, trzeba zwracać uwagę właśnie na obsługę WiFi. To niestety dość częsty błąd, że ktoś myli numery standardów albo nie kojarzy, które urządzenia współpracują z którym z nich. Dobrze jest wyrobić sobie nawyk sprawdzania dokumentacji technicznej sprzętu, żeby nie kupić przypadkiem access pointa Ethernet lub Bluetooth, który po prostu nie zadziała w tej sieci.

Pytanie 17

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. konwersji sygnału.
B. filtrowania ramek sieci Ethernet.
C. szyfrowania pakietów.
D. przyspieszenia transmisji.
Patrząc na to urządzenie, łatwo pomylić jego funkcję z bardziej zaawansowanymi lub specyficznymi rozwiązaniami sieciowymi, ale kluczowe jest zrozumienie jego podstawowej roli. Szyfrowanie pakietów, choć bardzo istotne w nowoczesnych sieciach, realizowane jest przez wyspecjalizowane urządzenia, jak np. firewalle, VPN gateway’e czy dedykowane moduły bezpieczeństwa. Media konwerter nie analizuje ani nie modyfikuje danych pod względem bezpieczeństwa – jego zadaniem jest tylko przeniesienie sygnału pomiędzy różnymi nośnikami. Filtrowanie ramek Ethernet, z kolei, to domena przełączników zarządzalnych albo zapór sieciowych – takie urządzenia potrafią selekcjonować pakiety, blokować ruch czy realizować polityki QoS. Media konwerter nie analizuje nagłówków ramek, nie podejmuje decyzji o przepuszczeniu lub zablokowaniu. Jeśli chodzi o przyspieszanie transmisji – to trochę mit. Konwerter nie zwiększa przepustowości ani nie przyspiesza transmisji ponad to, co oferują używane media oraz standardy, których przestrzega. Wręcz przeciwnie, każde dodatkowe urządzenie w torze może wprowadzić minimalne opóźnienie. Typowym błędem jest mylenie funkcji konwertera z funkcjami inteligentnych switchy lub routerów, które mają już opcje zaawansowanej analizy i manipulacji ruchem. Media konwerter to bardzo proste urządzenie, zaprojektowane do specyficznego celu: zamiany sygnału z jednego typu przewodu na inny. Z mojego doświadczenia, najwięcej nieporozumień wynika z przekonania, że nowoczesne, niewielkie urządzenie zawsze musi mieć mnóstwo funkcji. Tymczasem prostota bywa atutem – i tu właśnie tak jest.

Pytanie 18

W celu podłączenia monitora do systemu wizualizacji obrazów wymagany jest interfejs Display Port. Ile takich interfejsów posiada karta graficzna przedstawiona na rysunku?

Ilustracja do pytania
A. 2 interfejsy.
B. 3 interfejsy
C. 1 interfejs.
D. 4 interfejsy
Wiele osób, patrząc na tylny panel karty graficznej, łatwo może się pomylić co do liczby dostępnych interfejsów DisplayPort. Najczęstszą przyczyną pomyłek jest mylenie DisplayPort z gniazdami HDMI lub DVI. Gniazda HDMI mają bardziej prostokątny kształt i są szeroko stosowane w sprzęcie konsumenckim, natomiast DVI to dość masywny port wyposażony w liczne piny i charakterystyczny „krzyżyk” po jednej stronie. DisplayPort natomiast wyróżnia się nieco innym, asymetrycznym kształtem i nie posiada tylu pinów, co DVI. Z mojego doświadczenia widać, że sporo osób zakłada, że jeśli jest dużo portów, to większość z nich to HDMI lub DVI, a DisplayPort występuje rzadko, co nie jest zgodne z rzeczywistością w nowoczesnych układach graficznych, zwłaszcza tych przeznaczonych do zastosowań profesjonalnych. Kolejna typowa pułapka to zakładanie, że ilość portów typu DVI wpływa na sumaryczną liczbę możliwych monitorów – jednak DisplayPort pozwala na podłączenie nowoczesnych monitorów wysokiej rozdzielczości i obsługuje więcej zaawansowanych funkcji. Branżowe standardy mówią jasno: DisplayPort jest preferowanym wyborem do zastosowań wymagających wysokiej jakości sygnału i większej liczby monitorów jednocześnie. Zignorowanie tego faktu może prowadzić do nieefektywnego wykorzystania sprzętu albo problemów z kompatybilnością. W praktyce, jeśli wybierzesz niewłaściwą liczbę DisplayPortów, możesz nie być w stanie zrealizować wymaganych konfiguracji wielomonitorowych, co w środowiskach projektowych czy wizualizacyjnych jest po prostu niewygodne i nieefektywne. Dlatego tak ważna jest dokładna analiza dostępnych portów i ich rozpoznawanie na podstawie kształtu oraz oznaczeń – to umiejętność, która wyróżnia dobrych specjalistów IT.

Pytanie 19

Podstawowym elementem sztucznej nerki jest pompa do przetłaczania krwi, zwana

A. śrubową.
B. tłokową.
C. jonową.
D. perystaltyczną.
W przypadku urządzeń medycznych, takich jak sztuczna nerka, wybór właściwej technologii do przetaczania krwi to nie jest sprawa przypadku. Często można spotkać się z myśleniem, że inne typy pomp, na przykład śrubowa czy tłokowa, również się nadają, bo przecież są wykorzystywane w różnych gałęziach przemysłu. Jednak realia medycyny są zupełnie inne. Pompa śrubowa, choć ma zastosowanie w przemyśle spożywczym albo chemicznym do transportu lepkich cieczy, w praktyce klinicznej się nie sprawdzi – jej konstrukcja z metalowymi częściami stykającymi się z cieczą mogłaby prowadzić do uszkadzania elementów morfotycznych krwi lub nawet jej koagulacji. Podobnie pompa tłokowa, która działa na zasadzie cyklicznego zasysania i wypychania cieczy – generuje spore drgania i pulsacje ciśnienia, co w przypadku delikatnej struktury krwi jest po prostu zbyt ryzykowne. Pacjent mógłby odczuwać dyskomfort, a w skrajnym przypadku doszłoby do hemolizy, czyli rozpadu erytrocytów. Pompa jonowa natomiast, szczerze mówiąc, nie istnieje w praktycznym zastosowaniu medycznym, a już na pewno nie w kontekście układów do hemodializy. To raczej pojęcie spotykane w fizyce albo teorii, ale nie w sprzęcie użytkowym. Moim zdaniem takie błędne skojarzenia biorą się często z nieprecyzyjnym rozumieniem zasad działania tych urządzeń – wydaje się, że skoro coś dobrze działa w przemyśle, to będzie działać w medycynie. Tymczasem tu liczy się nie tylko skuteczność, ale przede wszystkim bezpieczeństwo i czystość procesu. Dobre praktyki branży medycznej oraz normy (np. ISO 23500) jasno mówią: pompa perystaltyczna to standard, bo zapewnia sterylność, bezpieczeństwo i nie narusza struktury krwi. Wybór innego rozwiązania nie tylko nie jest zgodny z aktualną wiedzą, ale i stwarza realne zagrożenie dla pacjenta.

Pytanie 20

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 75 mm/s
B. 25 mm/s
C. 50 mm/s
D. 10 mm/s
Wielu osobom wydaje się, że na każdym zapisie EKG prędkość przesuwu papieru to zawsze 25 mm/s, bo to taka utarta, branżowa norma i zwykle tak faktycznie jest. Jednak jeżeli na zapisie odstęp między dwoma kolejnymi załamkami R wynosi 60 mm, a częstotliwość rytmu serca to 60 uderzeń na minutę, to taki wynik można uzyskać tylko przy prędkości 50 mm/s. Wybierając odpowiedź 10 mm/s, łatwo dać się nabrać na typowy błąd, bo wtedy jedna sekunda na papierze to aż 10 mm, co zupełnie nie pasuje do realnych parametrów fizjologicznych pracy serca. Z kolei prędkość 25 mm/s jest najczęściej wybieraną opcją na automacie – wiem, sam tak miałem – ale tu niestety prowadzi do błędnych obliczeń, bo odstęp 60 mm przy tym przesuwie oznaczałby 2,4 sekundy między uderzeniami, czyli zbyt wolny rytm serca (ok. 25 uderzeń na minutę), co nie zgadza się z podanym warunkiem pytania. Prędkość 75 mm/s jest stosowana bardzo rzadko i głównie w specyficznych analizach, np. przy bardzo szybkich rytmach komorowych, więc jej wybór jest raczej nietrafiony w typowych zapisach. Dobrym nawykiem jest zawsze sprawdzać skalę i oznaczenia na wydruku – to podstawa, żeby nie wyciągać pochopnych wniosków. W praktyce technika EKG pomyłka w ocenie przesuwu może skutkować błędną interpretacją rytmu i potem całą lawiną błędów klinicznych, więc moim zdaniem warto poświęcić chwilę na dokładne przeanalizowanie każdego przypadku.

Pytanie 21

W systemie komputerowym przeznaczonym do pracy z dużymi plikami graficznymi należy zwiększyć ilość

A. napędów DVD
B. pamięci RAM
C. interfejsów PCI-Express
D. portów USB
Zwiększenie ilości pamięci RAM w komputerze przeznaczonym do pracy z dużymi plikami graficznymi to coś, co naprawdę robi różnicę. RAM to taki szybki magazyn na dane tymczasowe, z którego procesor korzysta non stop – a przy obróbce grafiki, zwłaszcza w programach typu Photoshop czy GIMP, te dane potrafią bardzo szybko zajmować gigantyczne ilości miejsca. Można powiedzieć, że im więcej RAM-u, tym płynniej wszystko działa: mniej zacięć, szybciej wczytują się pliki, łatwiej pracować na wielu warstwach czy dużych rozdzielczościach. Z doświadczenia wiem, że nawet przy mniejszych projektach zaczyna się robić ciasno na 8 GB RAM, a przy większych – 16, a nawet 32 GB to już taki sweet spot. Standardy zawodowe w branży graficznej praktycznie wymuszają dziś minimum 16 GB, bo programy te i tak korzystają z całego dostępnego RAM-u. Komputer bez odpowiedniej ilości pamięci operacyjnej będzie musiał częściej korzystać z pliku wymiany na dysku, co spowalnia całą pracę – a to jest najgorsze, bo SSD i tak jest dużo wolniejsze niż RAM. Takie zwiększenie RAM-u to jedno z tych ulepszeń, które naprawdę się czuje na co dzień. Moim zdaniem to podstawa, jeśli ktoś chce być produktywny i nie denerwować się, że sprzęt go ogranicza.

Pytanie 22

Którą metodę montażu należy zastosować w celu zakończenia przewodu zasilającego końcówkami przedstawionymi na fotografii?

Ilustracja do pytania
A. Zgrzewanie.
B. Zaciskanie.
C. Lutowanie.
D. Skręcanie.
Do zakończenia przewodu zasilającego końcówkami pokazanymi na zdjęciu najbardziej właściwa i powszechnie stosowana jest metoda zaciskania, czyli tzw. crimpowanie. Takie końcówki – popularne oczkowe tuleje kablowe – zostały zaprojektowane właśnie z myślą o zaciskaniu specjalnymi szczypcami lub praskami hydrauliczno-mechanicznymi. Dzięki temu uzyskuje się trwałe, odporne na drgania i obciążenia mechaniczne połączenie, które gwarantuje niską rezystancję styków i bezpieczeństwo nawet przy dużych prądach. Z mojego doświadczenia wynika, że solidnie zaciśnięta końcówka praktycznie eliminuje ryzyko przegrzewania się złącza czy przypadkowego wysunięcia się przewodu spod śruby. Warto wspomnieć, że zgodnie z normami – choćby PN-EN 61238-1 – metoda zaciskania jest zalecana przy pracach elektroinstalacyjnych w przemyśle oraz energetyce. Branża elektryczna jednoznacznie uznaje zaciskanie za najbezpieczniejsze rozwiązanie dla przewodów o większych przekrojach, gdzie lutowanie czy skręcanie byłyby nie tylko niepraktyczne, ale też niezgodne z zaleceniami producentów końcówek. Praktyka pokazuje, że poprawnie zaciśnięta końcówka w dużej mierze decyduje o żywotności całego układu zasilającego, a stosowanie certyfikowanych narzędzi jest po prostu inwestycją w bezpieczeństwo i niezawodność.

Pytanie 23

Które badanie endoskopowe należy wykorzystać do wizualizacji jamy stawu?

A. Duodenoskopię.
B. Cystoskopię.
C. Artroskopię.
D. Kolonoskopię.
Artroskopia to naprawdę świetny przykład tego, jak technologia potrafi zrewolucjonizować diagnostykę i leczenie schorzeń układu ruchu. Ten zabieg polega na wprowadzeniu do jamy stawowej specjalnego narzędzia z kamerą, czyli artroskopu. Pozwala to lekarzowi dokładnie obejrzeć wnętrze stawu – powierzchnie chrzęstne, więzadła, błonę maziową, a czasem nawet fragmenty kości. W praktyce wykorzystuje się artroskopię nie tylko do diagnostyki, gdy pacjent ma np. uporczywy ból czy obrzęk stawu, ale też w celach terapeutycznych – można podczas jednego zabiegu usunąć uszkodzoną łękotkę, zszyć więzadła czy wyłuszczyć ciała obce. W ortopedii artroskopia kolana, barku lub stawu skokowego to już właściwie standard i nikt nie wyobraża sobie współczesnej medycyny bez tej techniki. Moim zdaniem najważniejsze jest to, że artroskopia jest małoinwazyjna, więc rekonwalescencja trwa krócej i ryzyko powikłań jest mniejsze niż przy tradycyjnym otwieraniu stawu. Co ciekawe, coraz częściej wykorzystuje się ją też w medycynie sportowej – szybka diagnostyka i naprawa urazów pozwala zawodnikom wracać do formy w ekspresowym tempie. Jeśli chcesz poznać szczegóły, polecam przejrzeć zalecenia Polskiego Towarzystwa Ortopedycznego – artroskopia jest tam szeroko opisana jako metoda z wyboru przy wielu schorzeniach stawów. Takie rozwiązania to przyszłość medycyny, serio.

Pytanie 24

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. echokardiografii.
B. fonokardiografii.
C. angiografii.
D. elektrokardiografii.
Wiele osób myli pojęcia związane z diagnostyką kardiologiczną, bo nazwy bywają trochę podobne, a każdy z tych testów bada coś zupełnie innego i w innym zakresie wykorzystuje zjawiska fizyczne. Fonokardiografia polega na zapisie dźwięków pracy serca – wykorzystuje mikrofony i analizę akustyczną, ale nie ma tu nic wspólnego ze zmianą częstotliwości odbitej fali, czyli z efektem Dopplera. Elektrokardiografia z kolei to analiza zmian potencjałów elektrycznych wytwarzanych przez mięsień sercowy – tu mamy elektrody i rejestrację sygnałów bioelektrycznych, a nie fal ultradźwiękowych. Angiografia, choć brzmi dość technicznie, polega głównie na obrazowaniu naczyń krwionośnych po podaniu środka kontrastowego, zazwyczaj z użyciem promieniowania rentgenowskiego – nie wykorzystuje się tu ultradźwięków ani Dopplera. Typowym błędem jest utożsamianie wszystkich tych badań z jakimś „obrazowaniem serca”, a w rzeczywistości każde opiera się na zupełnie innych zasadach fizycznych. Z mojej perspektywy, najczęściej powtarzany błąd to przekonanie, że wszędzie gdzie jest „-grafia”, tam używa się fal ultradźwiękowych i efektu Dopplera, ale to nieprawda. Echokardiografia wyróżnia się tym, że daje zarówno obraz anatomiczny, jak i dynamiczny przepływów, i to właśnie dzięki zjawisku Dopplera, które jest zupełnie nieobecne w wymienionych pozostałych badaniach. Jeśli ktoś chce być pewny swojej wiedzy, dobrze jest zapamiętać, że tylko w diagnostyce ultradźwiękowej (zwłaszcza w badaniach serca i naczyń) analizuje się zmiany częstotliwości odbitej fali, bo tylko tam ma to praktyczny sens i realny wpływ na rozpoznanie chorób.

Pytanie 25

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. dynamometrycznym.
B. oczkowym.
C. płaskim.
D. półotwartym.
Wiele osób podczas dokręcania śrub polega na klasycznych kluczach – płaskich, oczkowych czy nawet półotwartych. Wydaje się, że skoro da się złapać śrubę i ją przekręcić, to sprawa załatwiona. Jednak praktyka montażowa pokazuje, że samo narzędzie to nie wszystko – liczy się dokładność i powtarzalność siły. Klucz płaski i oczkowy nadają się do większości zwykłych prac, ale niestety nie pozwalają kontrolować, z jaką siłą faktycznie dokręcamy śrubę. To jest moim zdaniem typowy błąd myślowy: "ja czuję w ręku, ile trzeba" – a potem okazuje się, że jedną śrubę dociśniesz za mocno, a inną zbyt lekko. Klucz półotwarty to z kolei wersja kompromisowa, umożliwiająca pracę tam, gdzie dostęp jest utrudniony, lecz jego dokładność jest jeszcze mniejsza i łatwo o przekoszenie łba śruby. Brak kontroli momentu obrotowego prowadzi często do zerwania gwintu lub poluzowania elementu podczas eksploatacji. Praktyka inżynierska, zwłaszcza w branży motoryzacyjnej, budowlanej czy mechatronicznej, wymaga stosowania narzędzi, które gwarantują określony moment – a tego żaden z wymienionych kluczy, poza dynamometrycznym, nie zapewnia. Warto więc od początku wyrobić w sobie nawyk sięgania po sprzęt, który daje gwarancję poprawnego montażu zgodnie z zaleceniami producenta. W codziennej pracy spotykałem się z sytuacjami, że nawet doświadczeni mechanicy zbyt mocno ufają swojej intuicji, co potem kończy się reklamacją lub awarią sprzętu. Zdecydowanie lepiej poświęcić chwilę na ustawienie klucza dynamometrycznego, niż później naprawiać konsekwencje niedokładności.

Pytanie 26

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Własność.
B. Metoda.
C. Obiekt.
D. Dziedziczenie.
W programowaniu obiektowym łatwo pomylić różne pojęcia, bo wszystko brzmi trochę jakby z jednej półki. Często spotykam się z sytuacją, że ktoś myli dziedziczenie, własności albo metody z obiektami, bo w końcu wszystkie te słowa są używane niemal w każdej rozmowie o „obiektówce”. Dziedziczenie jest mechanizmem pozwalającym jednej klasie przejąć cechy innej, czyli na przykład klasa „SamochódElektryczny” dziedziczy po klasie „Samochód” i oprócz podstawowych właściwości może mieć własne, specyficzne metody czy pola. Ale dziedziczenie to nie to samo, co instancja klasy – to raczej sposób organizacji kodu i ułatwienia sobie życia przez ponowne wykorzystanie już napisanego kodu. Z kolei własność (w języku angielskim częściej „property” lub „atrybut”) to pojedyncza cecha obiektu, na przykład kolor samochodu czy liczba drzwi – ale sama własność to jeszcze nie cały obiekt, tylko jego część. Metoda natomiast to funkcja zdefiniowana w klasie, która określa, co obiekt może zrobić, np. „przyspiesz” albo „włącz światła”. Taki sposób myślenia, w którym miesza się pojęcia typu metoda czy własność z obiektem, prowadzi do nieporozumień i błędnego rozumienia, jak działa programowanie obiektowe. Z mojego punktu widzenia, tego typu zamieszanie bierze się stąd, że na początku nauki łatwo zauważyć te pojęcia na przykładach, ale dużo trudniej zobaczyć ich relacje. Instancją klasy, czyli czymś, co powstaje na podstawie szablonu, jest zawsze obiekt – to on żyje w pamięci w czasie działania programu, ma swoje własne właściwości i korzysta z metod. Każda inna koncepcja to tylko część składowa albo mechanizm współistniejący z istnieniem obiektu, ale nigdy nie jest samodzielną instancją klasy. Rozpoznanie tej granicy to ważny krok do skutecznego programowania w paradygmacie obiektowym.

Pytanie 27

Na zdjęciu przedstawiono

Ilustracja do pytania
A. lampę SOLLUX.
B. elektrodę AED.
C. sondę TOCO.
D. głowicę USG.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 28

Z elektrokardiogramu wynika, że rytm serca rejestrowany i wskazywany przez elektrokardiograf wynosi

Ilustracja do pytania
A. 60 uderzeń na minutę.
B. 84 uderzeń na minutę.
C. 75 uderzeń na minutę.
D. 96 uderzeń na minutę.
Błędne określenie rytmu serca na podstawie EKG wynika często z nieprawidłowego liczenia załamków QRS lub mylenia jednostek czasu. Najczęściej spotykany błąd to zakładanie, że każde odstępstwo od idealnej normy oznacza już patologię, albo że różnice kilku uderzeń na minutę mają istotne znaczenie kliniczne. Przykładowo, 60 uderzeń na minutę to dolna granica normy dla dorosłych, ale jeśli patrzymy na wykres, gdzie w 5 sekundach jest 7 załamków QRS, to po przeliczeniu (7×12=84) uzyskujemy prawidłową wartość. W praktyce medycznej, zbyt pochopne przyjęcie wartości 75 czy 96 mogłoby wynikać z nieprecyzyjnego odczytu albo braku wprawy w liczeniu. Często spotykałem się z tym, że ktoś patrzy na wykres, z grubsza ocenia liczbę szczytów i wybiera najbliższą odpowiedź – to typowy błąd selekcji wzrokowej i rutyny. Praktyka pokazuje, że dokładność liczenia to podstawa. Pomyłki biorą się też z automatycznego założenia, że rytm serca powinien być zawsze „okrągły”, jak 60 lub 75, co nie pokrywa się z rzeczywistością fizjologiczną – rytm jest często nieco wyższy przez stres, wysiłek czy nawet samą obecność personelu medycznego. Z mojego punktu widzenia, kluczem jest chłodna analiza i cierpliwość przy ocenie EKG, bo nawet niewielkie pomyłki mogą prowadzić do nieprawidłowej reakcji klinicznej, a przecież chodzi o zdrowie pacjenta. Dlatego warto wyrobić sobie nawyk dokładnego liczenia i korzystania z ustandaryzowanych metod.

Pytanie 29

W dokumentacji Medycznego Systemu Informatycznego zapisano, że „przed użyciem programów instalacyjnych należy się upewnić, że niektóre porty w środowisku są dostępne do użycia z instalowanym oprogramowaniem pośrednim.” W celu sprawdzenia dostępności portu należy użyć programu narzędziowego

A. netstat
B. tracert
C. ping
D. ipconfig
Wybierając narzędzie do sprawdzania dostępności portów w systemie operacyjnym, łatwo pomylić się, bo większość popularnych poleceń sieciowych wydaje się podobna. Jednak każde z nich jest zaprojektowane do czegoś innego i nie każde pozwoli realnie ocenić, czy port jest dostępny dla nowego oprogramowania. Ipconfig to polecenie, które głównie służy do wyświetlania informacji o konfiguracji sieciowej komputera: adresy IP, maski podsieci, brama domyślna. Nie ma żadnych funkcji związanych z analizą portów czy nasłuchujących usług. Moim zdaniem, to częsty błąd – mylić konfigurację interfejsu z diagnostyką portów, ale te zagadnienia są zupełnie od siebie odseparowane. Tracert to narzędzie do śledzenia trasy pakietów w sieci IP, pokazuje przez jakie routery przechodzi pakiet do wskazanego hosta. Używa w tym celu komunikatów ICMP, nie analizuje bezpośrednio portów ani nie powie nam, czy dany port jest wolny lub zajęty przez inny proces. Ping natomiast sprawdza podstawową łączność z danym adresem IP w sieci – to taki szybki sposób, żeby sprawdzić, czy komputer „odpowiada” na ICMP Echo Request – ale nie daje żadnej informacji o stanie portów ani uruchomionych usługach. Z mojego doświadczenia wynika, że wiele osób kieruje się nazwą polecenia i wybiera ping lub tracert, bo są najbardziej znane, ale w rzeczywistości te narzędzia nie zapewnią informacji o tym, czy port jest zajęty. W praktyce, jeśli nie chcesz ryzykować konfliktów pomiędzy aplikacjami lub szukasz przyczyny problemów z połączeniami, zawsze warto sięgnąć po narzędzia, które pokazują aktywne porty, takie jak netstat. Tylko one pozwalają ustalić, czy port jest obecnie używany przez jakiś proces czy jest wolny do użycia przez instalowane oprogramowanie. Stosowanie innych poleceń do tego celu to częsty błąd i może prowadzić do niepotrzebnej frustracji podczas wdrażania systemów. Warto więc dobrze znać ich przeznaczenie i stosować zgodnie z praktyką branżową.

Pytanie 30

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. ciśnienia krwi.
B. EKG.
C. EEG.
D. oddechu.
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 31

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. α
B. e
C. β
D. γ
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 32

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. chronionymi.
B. zastrzeżonymi.
C. pewnymi.
D. publicznymi.
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 33

Jakiego typu papier należy zastosować w aparacie elektrokardiograficznym?

A. Światłoczuły.
B. Samokopiujący.
C. Litograficzny.
D. Termoczuły.
Papier termoczuły to absolutny standard w pracy z elektrokardiografem. Wynika to z samej zasady działania większości współczesnych EKG – zapis odbywa się nie na zasadzie nanoszenia tuszu, tylko przez termiczną zmianę barwy papieru pod wpływem specjalnych głowic grzewczych. W praktyce oznacza to, że użycie innego rodzaju papieru, np. zwykłego lub światłoczułego, całkowicie uniemożliwiłoby rejestrację sygnału. Na papierze termoczułym widać precyzyjne odwzorowanie krzywej EKG, a drobne szczegóły, takie jak załamki i odstępy, są zachowane zgodnie z wymaganiami diagnostycznymi. Warto też wiedzieć, że papier taki jest skalibrowany i pokryty siatką milimetrową, co ułatwia odczyt i analizę wyników. W szpitalach i przychodniach nie wyobrażam sobie stosowania innego rozwiązania, bo cała aparatura jest do tego przystosowana. Często widzę, że nowi technicy próbują używać tańszych zamienników, ale kończy się to zwykle błędami odczytu albo uszkodzeniem urządzenia. W dokumentacji każdego nowoczesnego EKG znajdziemy zalecenie stosowania papieru termicznego zgodnego z normą IEC 60601-2-25, co gwarantuje prawidłowy przebieg rejestracji i archiwizacji. Moim zdaniem, jeśli ktoś poważnie myśli o pracy z EKG, powinien przywiązywać dużą wagę nie tylko do jakości aparatu, ale i do jakości oraz zgodności papieru, bo to od tego w dużej mierze zależy czytelność i wiarygodność zapisu.

Pytanie 34

W dokumentacji skanera zapisano „rozdzielczość optyczna 600 x 600 [dpi]”. Skrót dpi określa liczbę punktów

A. na cal.
B. na cm.
C. wysokości dokumentu.
D. szerokości dokumentu.
Dpi to skrót od „dots per inch”, co w bezpośrednim tłumaczeniu oznacza „liczba punktów na cal”. To taki techniczny wskaźnik, który bardzo często stosuje się w grafice komputerowej, drukarkach i oczywiście skanerach. W praktyce, im większa liczba dpi, tym urządzenie potrafi uchwycić (albo wydrukować) więcej szczegółów na danym odcinku długości jednego cala. Standardowy cal to 2,54 cm, co czasami bywa mylące, bo niektórzy próbują przeliczać dpi na centymetry, ale to nie jest ta sama jednostka. Weźmy na przykład taki skaner o rozdzielczości 600x600 dpi – oznacza to, że w jednym calu w pionie i poziomie urządzenie rozróżnia aż 600 punktów. To właśnie dlatego skany są ostre, a detale dobrze widoczne. Warto pamiętać, że na rynku sprzętu biurowego i poligraficznego przyjęło się właśnie operowanie jednostką dpi, nie na centymetry czy milimetry, bo jest to uniwersalne i pozwala łatwiej porównywać różne urządzenia. Z mojego doświadczenia wynika, że sporo nieporozumień wśród początkujących wynika z pomieszania tych jednostek – a tak naprawdę dpi funkcjonuje od dekad i jest właściwie standardem branżowym. Jeśli na przyszłość będziesz miał do czynienia z drukiem albo digitalizacją dokumentów, to dpi zawsze będzie odnosiło się do ilości punktów na cal. To taki niepisany „język” technologii obrazu.

Pytanie 35

Technika diagnostyki obrazowej polegająca na badaniu struktur serca i dużych naczyń krwionośnych za pomocą ultradźwięków jest określana skrótem

A. EKG
B. UKG
C. ETG
D. KTG
UKG, czyli ultrasonokardiografia, to jedno z podstawowych badań obrazowych w diagnostyce chorób serca i dużych naczyń krwionośnych. Moim zdaniem to trochę niedoceniany skrót, bo przecież w praktyce klinicznej to badanie jest wykonywane bardzo często, praktycznie w każdym oddziale kardiologicznym czy nawet na SOR-ze. Ultrasonografia serca polega na wykorzystaniu fal ultradźwiękowych do tworzenia obrazu wnętrza serca – można dzięki temu ocenić anatomię, kurczliwość mięśnia, grubość ścian, działanie zastawek, a nawet przepływ krwi w poszczególnych jamach i naczyniach. Przede wszystkim UKG pozwala wykryć wady wrodzone i nabyte serca, zaburzenia funkcji zastawek, kardiomiopatie oraz niewydolność serca. To badanie jest bezpieczne, nieinwazyjne i można je powtarzać bez większego ryzyka, co jest superważne w kontroli przewlekle chorych pacjentów. Z mojego doświadczenia lekarze bardzo cenią UKG, bo pozwala podejmować szybkie decyzje kliniczne, a w standardach Polskiego Towarzystwa Kardiologicznego i międzynarodowych wytycznych UKG jest podstawą diagnostyki. Warto też wiedzieć, że inne skróty są mocno mylące – EKG to coś zupełnie innego, a UKG czasem nazywa się potocznie „echo serca”.

Pytanie 36

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. yield
B. break
C. continue
D. return
Wielu początkujących programistów myli polecenia continue, return oraz yield z break, traktując je zamiennie w kontekście sterowania przepływem pętli. To dość częsty błąd – spotkałem się z nim nie raz, zwłaszcza wśród osób, które przenoszą nawyki z jednego języka programowania na inny albo nie do końca rozumieją subtelności mechanizmu działania pętli. Continue powoduje pominięcie bieżącej iteracji, ale pętla trwa dalej – to dobre, gdy na przykład chcemy przeskoczyć niektóre przypadki bez wychodzenia z pętli. Return natomiast wychodzi nie tylko z pętli, ale z całej funkcji, co często prowadzi do nieprzewidzianych skutków, jeśli ktoś nie do końca przemyśli logikę programu. W praktyce return w pętli jest używane głównie w sytuacjach, gdy faktycznie chcemy zakończyć całą funkcję, a nie tylko pętlę. Yield z kolei ma zupełnie inne zastosowanie – dotyczy generatorów, głównie w Pythonie, i pozwala na zwracanie kolejnych wartości bez kończenia funkcji, budując tymczasowe iteratory. Z mojego doświadczenia wynika, że poprawne rozróżnienie tych instrukcji jest kluczowe dla zrozumienia, jak sterować przebiegiem programu, nie tylko w prostych, ale i bardziej zaawansowanych algorytmach. Zawsze warto pamiętać o tym, by nie stosować poleceń na ślepo, tylko dokładnie analizować, czemu służą i jaki mają wpływ na dalszy ciąg kodu. To jest ważna umiejętność, która zdecydowanie ułatwia uniknięcie trudnych do wykrycia błędów logicznych.

Pytanie 37

Która magistrala służy do szeregowej transmisji danych?

A. PCI E
B. PCI X
C. AGP
D. ATA
Magistrale komputerowe to temat, który potrafi wprowadzić trochę zamieszania, szczególnie jeśli nie śledzi się na bieżąco zmian w technologiach. Wiele osób myli magistrale równoległe z szeregowymi, bo przez lata standardem były rozwiązania równoległe jak PCI czy ATA. Jednak, jeśli chodzi o AGP, to był to interfejs zaprojektowany specjalnie pod karty graficzne, ale opierał się na transmisji równoległej, czyli przesyłał wiele bitów jednocześnie, a nie jeden po drugim. W praktyce AGP pozwalało na szybkie łączenie kart graficznych z płytą główną, ale dziś jest już przestarzałe i praktycznie nie spotyka się tego złącza w nowych komputerach. ATA (często spotykany jako IDE) to też klasyk dawnych komputerów, stosowany głównie do podłączania dysków twardych i napędów optycznych. Tutaj również mamy do czynienia z transmisją równoległą – szeroka taśma przesyłała równocześnie 16 bitów, co z jednej strony dawało sporą przepustowość jak na tamte czasy, ale było podatne na zakłócenia i ograniczenia długości przewodów. Z kolei PCI-X (nie mylić z PCIe) to rozwinięcie klasycznego PCI, nadal jednak bazujące na równoległej transmisji. Pomimo zwiększenia przepustowości względem PCI, wciąż nie rozwiązywał problemów typowych dla równoległych magistral – synchronizacji sygnałów czy podatności na różne interferencje. W sumie wszystkie te technologie przegrały z szeregowością PCI Express, bo to ona okazała się bardziej skalowalna i efektywna. Z mojego punktu widzenia, typowy błąd podczas nauki to utożsamianie nowych magistrali z tymi starszymi tylko dlatego, że mają podobne nazwy – a jednak różnica między PCIe a PCI lub PCI-X jest zasadnicza, bo dotyczy właśnie trybu przesyłania danych. Szeregowość to fundament nowoczesnych rozwiązań, bo lepiej radzi sobie z wysokimi częstotliwościami i minimalizuje błędy transmisji, stąd PCIe niemal całkowicie wyparło poprzedników.

Pytanie 38

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. EXT4
B. NTFS
C. FAT16
D. FAT32
Wybór systemu plików to temat, który potrafi namieszać, zwłaszcza jeśli ktoś myli pojęcia związane ze zgodnością między systemami operacyjnymi. FAT32 oraz FAT16 to stare systemy plików, zaprojektowane jeszcze w czasach DOS-a i pierwszych wersji Windows. Ich największą zaletą jest uniwersalność – korzystają z nich niemal wszystkie systemy operacyjne, także Linuks, Windows, a nawet niektóre sprzęty audio czy kamery. Są jednak mocno przestarzałe, mają ograniczenia rozmiaru pliku i partycji, dlatego dziś stosuje się je głównie na pendrive’ach i kartach pamięci, gdzie kompatybilność jest ważniejsza niż wydajność czy bezpieczeństwo. NTFS z kolei to format wymyślony przez Microsoft i jest domyślnym systemem plików w nowszych wersjach Windows (od XP wzwyż). Co prawda Linuks potrafi już całkiem nieźle obsługiwać NTFS (np. dzięki sterownikowi ntfs-3g), ale to wciąż „obcy” dla niego system i zdecydowanie nie jest dedykowany Linuksowi – nie wykorzystuje wszystkich możliwości tego systemu, a czasem bywają problemy z uprawnieniami czy wydajnością. Natomiast EXT4 powstał specjalnie z myślą o Linuksie i jako jedyny z wymienionych nie jest natywnie obsługiwany przez Windows. To typowy błąd, że można uznać FAT32 czy nawet NTFS za format „typowo linuksowy”, bo po prostu Linuks radzi sobie z ich obsługą, ale nie są jego domeną. Dlatego kluczowa jest świadomość, że EXT4 to system plików tworzony pod Linuksa, stosowany na serwerach, komputerach biurkowych czy nawet w urządzeniach wbudowanych, a Windows go „nie widzi” bez kombinowania. W praktyce, jeśli ktoś chce dzielić dysk między Windows a Linuksem, powinien wybierać FAT32 lub NTFS, natomiast gdy zależy mu na pełnej funkcjonalności Linuksa i bezpieczeństwie danych – EXT4 jest najlepszym wyborem.

Pytanie 39

Promieniowanie IR jest wykorzystywane w

A. termoterapii.
B. hydroterapii.
C. radioterapii.
D. krioterapii.
Temat zastosowania promieniowania IR bywa mylący, bo wiele osób łączy je automatycznie z różnymi formami terapii fizycznej czy leczenia. Jednak nie wszystkie odpowiedzi mają uzasadnienie technologiczne i praktyczne. Krioterapia, wbrew pozorom, to leczenie zimnem, a nie ciepłem – tutaj wykorzystuje się bardzo niskie temperatury, na przykład ciekły azot albo zimne powietrze, by wywołać efekt przeciwzapalny i zmniejszyć obrzęki czy ból. Stosowanie promieniowania IR w takim kontekście byłoby zupełnie sprzeczne z ideą tej terapii – po prostu ciepło nie pasuje do koncepcji leczenia zimnem. Radioterapia natomiast wykorzystuje promieniowanie jonizujące, głównie promienie X (rentgenowskie) albo gamma. Tu celem jest niszczenie komórek nowotworowych, a nie przekazywanie energii cieplnej do tkanek. Promieniowanie podczerwone nie ma zdolności uszkadzania DNA komórek, więc nie ma sensu stosować go zamiast standardowych metod radioterapii. Hydroterapia to z kolei leczenie wodą – mogą to być kąpiele, bicze wodne, masaże podwodne. Oczywiście, temperatura wody może mieć znaczenie, ale nie używa się tu promieniowania IR, tylko bezpośredniego kontaktu z wodą o określonej temperaturze. Typowym błędem jest utożsamianie wszystkich terapii „na ciepło” z promieniowaniem podczerwonym – w rzeczywistości tylko termoterapia wykorzystuje właściwości IR, dzięki precyzyjnemu przenoszeniu ciepła w głąb tkanek. Jeśli myśli się o IR, to trzeba pamiętać o podstawowych zasadach fizyki i wyraźnych różnicach technologicznych pomiędzy poszczególnymi podejściami terapeutycznymi. Praktyka pokazuje, że nieznajomość tych różnic prowadzi do nieefektywnych, a czasem wręcz niebezpiecznych zabiegów, dlatego warto poświęcić chwilę na dogłębne zrozumienie tematu.

Pytanie 40

Który zabieg wymusza naprzemienną pracę mięśni zginaczy i prostowników poprzez stymulację mięśni impulsem prądowym?

A. Jonoforeza.
B. Tonoliza.
C. Dializa.
D. Sonoforeza.
Tonoliza to bardzo specyficzny zabieg fizykalny, który wykorzystuje impulsy prądu do stymulowania pracy mięśni zginaczy oraz prostowników – dokładnie naprzemiennie. Chodzi o to, żeby pobudzać mięśnie w odpowiedniej sekwencji, co prowadzi do ich aktywizacji i poprawy koordynacji ruchowej. W praktyce najczęściej stosuje się ją przy porażeniach spastycznych, np. po udarach czy urazach, kiedy mięśnie mają tendencję do patologicznego napięcia lub osłabienia. Moim zdaniem niesamowite jest to, jak dobrze dobrany impuls może „przypomnieć” mięśniom ich naturalną funkcję. Standardy fizjoterapii mówią o takim podejściu jako bardzo korzystnym w rehabilitacji neurologicznej – bo zamiast biernego rozciągania czy masażu, tutaj mięsień ćwiczy aktywnie, nawet jeśli pacjent sam nie jest w stanie wykonać ruchu. Spotkałem się z sytuacjami, gdzie systematyczna tonoliza naprawdę przyspieszała powrót do sprawności, szczególnie u osób po udarze. Fajne jest również to, że zabieg można zindywidualizować: ustalasz parametry impulsu, czas trwania, kolejność, wszystko pod konkretnego pacjenta. Warto dodać, że w odróżnieniu od innych zabiegów prądowych, tutaj duży nacisk kładzie się właśnie na ruch naprzemienny – nie tylko pobudzanie jednego mięśnia, ale pełny cykl pracy antagonisty i agonisty. Według mnie, to świetna opcja, kiedy zależy nam na funkcjonalnej poprawie ruchu, a nie tylko na zmniejszeniu bólu czy obrzęku.