Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 29 kwietnia 2026 20:03
  • Data zakończenia: 29 kwietnia 2026 20:10

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. SELECT
B. ALTER
C. INSERT
D. UPDATE
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 2

W jakim celu stosuje się podział użytkowników na grupy w systemie operacyjnym?

A. Umożliwia prawidłowe działanie systemu.
B. Umożliwia zwiększenie liczby użytkowników w systemie.
C. Ułatwia zarządzanie prawami użytkowników w systemie.
D. Ułatwia kontrolę i przydział pamięci operacyjnej podczas pracy systemu.
Podział użytkowników na grupy w systemie operacyjnym to, szczerze mówiąc, jedno z najważniejszych narzędzi, jakie administrator ma do dyspozycji przy zarządzaniu systemem. Wyobraź sobie, że w dużej organizacji masz kilkudziesięciu albo nawet kilkuset użytkowników – każdy z innymi potrzebami i dostępem do różnych zasobów. Przypisywanie indywidualnych uprawnień każdemu z osobna byłoby koszmarem. Dzięki grupom można ustawić prawa dostępu do folderów, plików czy usług dla całych zespołów naraz – np. dział księgowości ma dostęp do faktur, a programiści do repozytoriów kodu. Z mojego doświadczenia, to nie tylko oszczędność czasu, ale też ogromne ułatwienie w utrzymaniu porządku i bezpieczeństwa. Branżowe standardy, jak chociażby model kontroli dostępu DAC czy RBAC, opierają się właśnie na takich mechanizmach grupowych – to podstawa w systemach Linux czy Windows Server. Przypisanie użytkownika do odpowiedniej grupy sprawia, że zyskuje on zestaw uprawnień przypisanych tej grupie, bez konieczności ręcznego ustawiania wszystkiego. Takie podejście ułatwia audyt, zmniejsza ryzyko błędów i zdecydowanie podnosi poziom bezpieczeństwa całego środowiska IT. Uważam, że każdy kto zarządza systemami operacyjnymi, powinien zrozumieć, jak ogromne możliwości daje właściwe zarządzanie grupami.

Pytanie 3

Jeżeli węzeł zatokowo–przedsionkowy będzie pobudzał serce generując bodźce elektryczne z częstotliwością 1 Hz, to wartość rytmu serca będzie wynosiła

A. 80 uderzeń na minutę.
B. 50 uderzeń na minutę.
C. 100 uderzeń na minutę.
D. 60 uderzeń na minutę.
Wartość 60 uderzeń na minutę wynika bezpośrednio z przeliczenia częstotliwości generowanej przez węzeł zatokowo–przedsionkowy. Jeśli ten naturalny rozrusznik serca wysyła impuls elektryczny z częstotliwością 1 Hz, oznacza to, że na każdą sekundę przypada jedno pobudzenie. W ciągu minuty jest 60 sekund, więc 1 impuls na sekundę daje dokładnie 60 impulsów na minutę, czyli 60 uderzeń serca na minutę. Takie tempo to typowy, prawidłowy rytm serca u dorosłego człowieka w spoczynku, zgodny z wytycznymi Polskiego Towarzystwa Kardiologicznego i międzynarodowych organizacji, jak AHA. W praktyce, wiedza o tej zależności jest ważna np. przy analizie EKG albo w programowaniu sztucznych rozruszników – ustawiając urządzenie na 1 Hz, uzyskujemy właśnie 60/min. Spotkałem się nie raz z sytuacją, gdzie błędne przeliczenie tej częstotliwości prowadziło do niepotrzebnych niepokojów czy nawet złych decyzji klinicznych. Jest to moim zdaniem jedna z tych podstaw, które choć wydają się proste, to bywają pomijane. Dobrze wiedzieć, że granica normy tętna w spoczynku zaczyna się właśnie od 60/min – poniżej tego mówimy już o bradykardii. W diagnostyce bardzo ważne jest rozumienie takich podstawowych przełożeń, bo pomagają uniknąć podstawowych błędów podczas interpretacji pracy serca.

Pytanie 4

W sygnale elektrokardiograficznym za repolaryzację mięśnia komór odpowiada załamek

Ilustracja do pytania
A. R
B. Q
C. T
D. P
Załamek T w zapisie EKG to sygnał repolaryzacji mięśnia komór, czyli moment, kiedy komórki mięśnia sercowego wracają do swojego spoczynkowego potencjału elektrycznego po fazie skurczu. Praktycznie patrząc – taka repolaryzacja jest absolutnie kluczowa, bo bez niej komórki nie byłyby przygotowane do kolejnego pobudzenia i cały rytm serca by się rozjechał. Na przykład w codziennej pracy ratownika medycznego szybkie rozpoznanie zaburzeń załamka T może sugerować niedokrwienie serca czy nawet świeży zawał, co zmienia zupełnie dalsze postępowanie – to nie są żarty, czasami sekundy decydują o życiu. W podręcznikach i normach – zarówno polskich, jak i międzynarodowych – podkreśla się, żeby zawsze oceniać morfologię i wielkość załamka T, bo jego zmiany bywają pierwszym objawem poważnych patologii (np. hiperkaliemii, niedokrwienia). Moim zdaniem warto nauczyć się rozróżniać te fazy, bo praktyka pokazuje, że błędy w identyfikacji załamka T prowadzą do złej interpretacji EKG, a przez to do błędów klinicznych. Zresztą, nawet w literaturze podkreślają, że repolaryzacja komór (załamek T) to ten moment, na który trzeba szczególnie uważać np. przy analizie rytmów komorowych czy monitorowaniu pacjentów po lekach wpływających na QT.

Pytanie 5

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 MW
B. 10 W
C. 10 kW
D. 10 kₖW
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 6

W sieci centralnego monitoringu zamontowane są gniazda przedstawione na rysunku. Jakiego typu wtykami muszą być zakończone kable?

Ilustracja do pytania
A. RJ45
B. DVI
C. HDMI
D. USB
Gniazdo widoczne na zdjęciu to klasyczne złącze RJ45, stosowane praktycznie we wszystkich instalacjach sieci komputerowych – zarówno w budynkach biurowych, jak i w systemach monitoringu wizyjnego. RJ45 to standardowy interfejs dla przewodów typu skrętka, wykorzystywanych w transmisji danych w sieciach Ethernet. W centralnym monitoringu właśnie te złącza stosuje się najczęściej do podłączania kamer IP oraz urządzeń sieciowych — jest to rozwiązanie stabilne, odporne na zakłócenia i umożliwiające zasilanie urządzeń przez PoE (Power over Ethernet), co znacznie upraszcza instalację. Moim zdaniem trudno wskazać lepszą alternatywę pod względem uniwersalności i niezawodności. Warto pamiętać, że RJ45 nie tylko zapewnia wysoką przepustowość (nawet do 10 Gb/s w nowoczesnych sieciach), ale również jest zgodne ze standardami TIA/EIA-568. Branżowa praktyka pokazuje, że w systemach bezpieczeństwa i telewizji przemysłowej rozwiązania na bazie RJ45 to już niemal standard de facto. Jeśli ktoś myśli o instalacjach na lata, to zdecydowanie polecam stawiać właśnie na takie okablowanie.

Pytanie 7

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Podtynkowy.
B. Naścienny.
C. Na listwie zaciskowej.
D. Na szynie TH-35.
System montażu na szynie TH-35, zwanej też często „szyną DIN”, jest absolutnym standardem w rozdzielnicach elektrycznych i automatyce przemysłowej. Na zdjęciu wyraźnie widać urządzenia zamocowane na charakterystycznej, metalowej listwie o przekroju 35 mm – to właśnie ta szyna. Pozwala ona bardzo wygodnie instalować modułowe urządzenia takie jak wyłączniki nadprądowe, przekaźniki, zasilacze czy nawet sterowniki PLC. Z mojego doświadczenia wynika, że szyna DIN znacząco przyspiesza montaż oraz ewentualną wymianę komponentów – nie trzeba tu żadnych śrub, tylko zatrzaski. W przypadku serwisowania czy rozbudowy instalacji to ogromna zaleta, bo wystarczy kilka sekund, żeby coś wymienić. W branży bardzo ceni się to rozwiązanie za uniwersalność. Co ciekawe, standard TH-35 został uregulowany normą IEC 60715, a jego stosowanie gwarantuje kompatybilność różnych producentów. Gdybyś chciał tworzyć rozdzielnice czy panele sterownicze zgodnie z aktualnymi przepisami i dobrymi praktykami, szyna TH-35 to właściwie jedyna słuszna droga. Spotkasz ją w niemal każdej szafie rozdzielczej – od prostych układów domowych po skomplikowane systemy przemysłowe. Takie podejście zapewnia nie tylko porządek, ale też bezpieczeństwo i estetykę całej instalacji.

Pytanie 8

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Dziedziczenie.
B. Metoda.
C. Obiekt.
D. Własność.
Instancja klasy w programowaniu obiektowym to właśnie obiekt. To jest taki trochę fundament całego tego podejścia – bez obiektów nie byłoby sensu mówić o programowaniu obiektowym. Kiedy tworzymy klasę, to jest ona tylko szablonem lub pewnego rodzaju przepisem na to, jak mają wyglądać nasze dane i jak mają się zachowywać. Natomiast obiekt to konkretna, działająca „realizacja” tego przepisu – coś, co faktycznie istnieje podczas działania programu. Wyobraź sobie klasę jako projekt samochodu, a obiekty jako rzeczywiste egzemplarze tego samochodu stojące na parkingu. Każdy obiekt ma swoje własne dane (czyli stan, na przykład kolor, przebieg, model) i swoje operacje (czyli metody, na przykład przyspiesz, zahamuj). Takie podejście jest powszechnie stosowane we wszystkich popularnych językach obiektowych, jak Java, C++, Python czy C#. Z mojego doświadczenia wynika, że w realnych projektach bardzo rzadko spotyka się kod, który operuje wyłącznie na klasach – właściwie wszystko kręci się wokół obiektów. Dobre praktyki sugerują nie tylko tworzenie obiektów, ale i dbanie o ich odpowiednią enkapsulację, czyli ukrywanie szczegółów implementacyjnych, co pozwala na bezpieczne i elastyczne rozwijanie kodu. No i jeszcze ciekawostka: w wielu frameworkach spotkasz się z tzw. wzorcem fabryki, który właśnie pomaga zarządzać tworzeniem obiektów na podstawie klas. To mocno ułatwia życie, szczególnie przy dużych projektach. Moim zdaniem zrozumienie tej różnicy między klasą a obiektem to absolutna podstawa, jeśli ktoś myśli o karierze programisty.

Pytanie 9

Aby zainstalować brakujące oprogramowanie w systemie z rodziny Linux należy wykorzystać polecenie

A. get install
B. apt cache
C. apt-get install
D. install
Polecenie „apt-get install” to w zasadzie taki standard, jeśli chodzi o instalację oprogramowania w systemach Linux z rodziny Debian, Ubuntu i pochodnych. Używanie tego narzędzia jest intuicyjne, choć czasem niektórych może przerazić wiersz poleceń. Moim zdaniem, jak już ktoś choć raz spróbuje zainstalować pakiet przez „apt-get install”, to szybko zobaczy, jak bardzo to przyspiesza codzienną pracę. W praktyce wygląda to tak: wpisujesz „sudo apt-get install nazwa_pakietu” i system automatycznie pobiera oraz instaluje wybrany program wraz z wszystkimi zależnościami – nie trzeba ręcznie szukać ani ściągać żadnych plików. To ogromna wygoda i bezpieczeństwo, bo wszystko pobiera się z oficjalnych repozytoriów, no i nie narażasz się na ściągnięcie jakiegoś trefnego pliku z internetu. Z mojego doświadczenia wynika, że praktycznie każdy administrator czy nawet zwykły użytkownik Linuksa powinien znać te podstawy. Warto też pamiętać, że od kilku lat pojawiło się polecenie „apt install”, które jest uproszczoną wersją, ale „apt-get” nadal często pojawia się w dokumentacjach, skryptach i instrukcjach branżowych. Instalacja przez „apt-get install” jest po prostu najpewniejszym i najczęściej stosowanym rozwiązaniem w środowiskach produkcyjnych – lepiej to opanować na pamięć, bo prędzej czy później się przyda. Mi nieraz uratowało skórę, kiedy musiałem na szybko dorzucić brakującą bibliotekę czy narzędzie. To podstawa pracy z tymi systemami.

Pytanie 10

Które systemy operacyjne mogą być zainstalowane na dysku, którego działanie obrazuje GParted?

Ilustracja do pytania
A. Linux, Mac OS
B. Windows, Mac OS
C. Linux, Windows
D. Mac, Mac OS
Na tym zrzucie z GParted dokładnie widać, jakie partycje istnieją na dysku i jakie systemy plików są na nich założone. Najważniejsze, co tu rzuca się w oczy, to obecność partycji NTFS oraz EXT4. NTFS to typowy system plików używany przez Windows, natomiast EXT4 jest domeną Linuksa. Dodatkowo jest też partycja EFI (FAT32), która jest wykorzystywana w nowoczesnych komputerach z UEFI do uruchamiania systemów operacyjnych – zarówno Windows, jak i Linux potrafią korzystać z EFI. No i jeszcze jest linux-swap, czyli przestrzeń wymiany dla Linuksa. To jednoznacznie pokazuje, że na takim układzie partycji spokojnie można zainstalować i Windowsa, i Linuksa. Moim zdaniem to bardzo praktyczne rozwiązanie, bo daje możliwość tzw. dualboota – czyli wyboru, który system chcesz uruchomić podczas startu komputera. W praktyce wiele osób w technikum czy na studiach z informatyki korzysta z takiego rozwiązania, żeby mieć dostęp do narzędzi dostępnych tylko na jednym z tych systemów. Dobrą praktyką jest zawsze wydzielać osobną partycję EFI oraz osobną partycję wymiany dla Linuksa. Dodatkowo, NTFS jest uniwersalny dla Windowsa, a EXT4 zdecydowanie lepiej działa z Linuksem pod względem wydajności i bezpieczeństwa danych. To wszystko razem powoduje, że tylko odpowiedź Linux, Windows jest poprawna w tym kontekście. Takie podejście jest zgodne z zaleceniami administratorów systemów i specjalistów ds. bezpieczeństwa IT.

Pytanie 11

Do którego interfejsu (komunikacja z komputerem odbywa się poprzez port RS 232) należy podłączyć cykloergometr przeznaczony do współpracy z systemem do badań wysiłkowych?

A. Interfejs 2
Ilustracja do odpowiedzi A
B. Interfejs 4
Ilustracja do odpowiedzi B
C. Interfejs 3
Ilustracja do odpowiedzi C
D. Interfejs 1
Ilustracja do odpowiedzi D
Wybrałeś poprawny interfejs – numer 4, czyli klasyczne złącze DE-9 (zwane też DB-9), które jest standardem dla portu RS-232 stosowanego w większości przemysłowych i medycznych urządzeń komunikujących się z komputerem. To właśnie przez taki port bardzo często podłączane są cykloergometry oraz inne urządzenia diagnostyczne, bo gwarantuje on stabilną, przewidywalną transmisję szeregową. W praktyce w wielu laboratoriach spotkasz się z sytuacją, gdzie komputer pomiarowy ma tylko ten port fizyczny pod RS-232, a reszta to USB i HDMI. Moim zdaniem warto zawsze mieć pod ręką przejściówkę USB-DB9 – to banał, ale ratuje skórę, gdy stary sprzęt trzeba podłączyć do nowoczesnego laptopa. Standard RS-232 określony przez EIA jest jednym z najstarszych i najbardziej niezawodnych sposobów komunikacji urządzeń pomiarowych. Dużo cykloergometrów, zwłaszcza tych specjalistycznych, nie dostało jeszcze złącza USB, bo RS-232 po prostu... działa bez zarzutu. Z mojego doświadczenia: jak widzisz w specyfikacji, że komunikacja ma być szeregowa, szukaj zawsze najpierw tego 9-pinowego złącza. To dobra praktyka, bo daje dużą kompatybilność i łatwość serwisowania.

Pytanie 12

Aby karta sieciowa automatycznie uzyskiwała adres IP, ruter musi mieć włączony serwer

Ilustracja do pytania
A. TCP/IP
B. SMTP
C. DHCP
D. SSH
Odpowiedź DHCP jest jak najbardziej trafiona, bo to właśnie Dynamic Host Configuration Protocol odpowiada za automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Moim zdaniem, to ogromne ułatwienie, zwłaszcza gdy w sieci mamy kilkanaście czy kilkadziesiąt urządzeń – ręczne wpisywanie adresów IP byłoby uciążliwe, a przy tym łatwo o pomyłki. DHCP działa na zasadzie wynajmowania adresów IP na określony czas, czyli tzw. dzierżawy (lease). Dzięki temu urządzenia połączone z siecią „dogadują się” z serwerem DHCP – najczęściej właśnie routerem – i otrzymują wszystkie niezbędne dane: IP, maskę podsieci, bramę domyślną, a nawet adresy DNS. To jest zgodne z zaleceniami m.in. RFC 2131, gdzie znajdziesz opis standardu. W praktyce, niemal każdy nowoczesny router domowy czy firmowy ma opcję serwera DHCP włączoną domyślnie. Co ciekawe, dobrze skonfigurowany DHCP pozwala też na rezerwacje adresów IP dla określonych urządzeń, co pomaga np. w zarządzaniu drukarkami sieciowymi albo serwerami. Z mojego doświadczenia wynika, że bez DHCP w większych sieciach często dochodzi do konfliktów adresów lub zwyczajnego bałaganu. Dlatego zdecydowanie warto znać tę usługę, bo jej prawidłowa konfiguracja to podstawa pracy administratora sieci.

Pytanie 13

Ile dysków i z jakim interfejsem zostało wykazanych na zrzucie programu GParted?

Ilustracja do pytania
A. 1 dysk z interfejsem SAS
B. 2 dyski z interfejsem SAS
C. 2 dyski z interfejsem SATA
D. 1 dysk z interfejsem SATA
Na zrzucie ekranu programu GParted widać wyraźnie tylko jeden dysk oznaczony jako /dev/sda. To jest standardowe oznaczenie dla pierwszego dysku w systemie Linux, najczęściej podłączonego przez interfejs SATA. Program GParted nie pokazuje tu żadnych innych nośników, więc nie ma mowy o dwóch dyskach czy innych interfejsach, typu SAS. W praktyce, SATA to obecnie najczęściej spotykany interfejs w komputerach osobistych i laptopach, szczególnie jeśli mówimy o dyskach HDD lub SSD 2,5 cala. Jak ktoś pracuje w serwisie komputerowym lub po prostu lubi grzebać w sprzęcie, to od razu rozpozna te oznaczenia. Z mojego doświadczenia większość domowych użytkowników nawet nie zdaje sobie sprawy, że istnieje coś takiego jak SAS – to raczej domena serwerów i stacji roboczych. Warto zwrócić uwagę, że GParted pokazuje także partycje i ich typy, ale nie sugeruje w żadnym miejscu obecności innego interfejsu niż SATA. To jest zgodne ze standardami branżowymi – Linux rozróżnia dyski po prefiksie: sda, sdb, itd., gdzie "sd" oznacza urządzenie dyskowe typu SCSI, co obecnie obejmuje również SATA, bo oba interfejsy są obsługiwane przez ten sam sterownik w jądrze systemu. Tak naprawdę dobra praktyka przy analizie dysków w systemie to zawsze sprawdzać nie tylko podział na partycje, ale i faktyczną fizyczną obecność urządzeń sprzętowych oraz ich typ. Moim zdaniem, umiejętność odróżniania takich rzeczy jest naprawdę kluczowa dla każdego informatyka.

Pytanie 14

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. raw
B. tga
C. rar
D. tar
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 15

W dokumentacji elektrokardiografu znajduje się informacja o wyposażeniu aparatu w filtry cyfrowe 50 Hz, 35 Hz i filtr antydriftowy. Które zakłócenia eliminuje z sygnału EKG filtr 50 Hz?

A. Szybkozmienne.
B. Mięśniowe.
C. Sieciowe.
D. Wolnozmienne.
Filtr 50 Hz w elektrokardiografie to jeden z tych elementów, bez których trudno sobie wyobrazić nowoczesne badanie EKG. Główne zadanie tego filtra polega na eliminowaniu zakłóceń pochodzących z sieci elektrycznej, czyli tak zwanych zakłóceń sieciowych (ang. power line interference). W Polsce, jak i w całej Europie, częstotliwość sieci wynosi właśnie 50 Hz, więc jeśli w przewodach, kablach czy nawet w pomieszczeniu pojawi się pole elektromagnetyczne o tej charakterystyce, może to mocno zakłócić przebieg rejestrowanego sygnału EKG. Z mojego doświadczenia wynika, że bez tego filtra na wydruku EKG często pojawia się charakterystyczny „szum”, który potrafi skutecznie utrudnić interpretację wyniku, zwłaszcza przy słabszych sygnałach pacjentów. Stosowanie filtra 50 Hz jest uznawane za dobrą praktykę w diagnostyce kardiologicznej — zarówno w szpitalach, jak i gabinetach prywatnych. Standardy, takie jak zalecenia European Society of Cardiology, wręcz sugerują, by włączać filtr 50 Hz podczas rejestracji sygnału, by nie dopuścić do błędnej interpretacji z powodu artefaktów sieciowych. Czasem zdarza się, że zakłócenia te są mylone z arytmiami lub innymi patologiami, szczególnie przez mniej doświadczonych użytkowników. Filtr 50 Hz nie wpływa znacząco na ważne fragmenty sygnału EKG (np. zespół QRS), dzięki czemu nie tracimy cennych informacji diagnostycznych. W praktyce, jeśli zauważysz na ekranie lub wydruku regularne zafalowania o odstępie 0,02 sekundy (czyli właśnie 50 razy na sekundę), to prawie na pewno pochodzi to od sieci i właśnie taki filtr rozwiązuje ten problem. Nie każdy filtr tak dobrze sobie z tym radzi — filtry mięśniowe czy antydriftowe mają zupełnie inne zadania.

Pytanie 16

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. UDP
B. UPS
C. ATX
D. CTX
UPS, czyli Uninterruptible Power Supply, to urządzenie, które w praktyce jest absolutnym must-have w każdej serwerowni, a nawet w domowych instalacjach, gdzie zależy nam na ciągłości pracy sprzętu komputerowego. Moim zdaniem, bardzo często niedoceniany, a to właśnie UPS zabezpiecza urządzenia w czasie zaniku napięcia sieciowego, pozwalając na bezpieczne zapisanie danych czy też kontrolowane wyłączenie komputerów. Działa to tak, że w momencie wykrycia braku napięcia w sieci zasilającej, automatycznie przełącza zasilanie na akumulatory i sprzęt działa dalej bez przerwy – nie raz uratowało mi to sporo pracy podczas burzy czy awarii w bloku. W firmach standardem jest, aby każdy ważniejszy sprzęt był podłączony do UPS-a. Są różne typy – line-interactive, off-line, on-line – to już zależy od wymagań, ale zasada działania pozostaje podobna. Czas podtrzymania zależy oczywiście od pojemności akumulatora i obciążenia, więc czasem kilka minut, czasem kilkadziesiąt – wystarczająco, żeby zareagować. Warto też wspomnieć, że profesjonalne UPS-y potrafią filtrować napięcie i chronić przed przepięciami oraz wahaniami napięcia, co z mojego doświadczenia, przy dzisiejszych niestabilnych sieciach jest dużą zaletą. Dlatego właśnie, jeśli chodzi o ochronę przed skutkami zaniku zasilania sieciowego i zapewnienie ciągłej pracy urządzeń elektronicznych, to UPS nie ma sobie równych. Według najlepszych praktyk, zaleca się nawet regularne testowanie sprawności UPS-ów, żeby nie okazało się w krytycznym momencie, że akumulator już nie trzyma. Reasumując – wybór jak najbardziej trafiony, a wiedza na ten temat zdecydowanie przydaje się w praktyce.

Pytanie 17

Wymianą informacji pomiędzy układami znajdującymi się na płycie głównej komputera steruje

A. MAC.
B. procesor GPU.
C. pamięć RAM.
D. chipset.
Chipset to taki trochę niewidzialny bohater na płycie głównej – niby go nie widać, mało kto o nim mówi przy składaniu kompa, a jednak to on kieruje całym ruchem informacji pomiędzy procesorem, pamięcią RAM, kartami rozszerzeń czy nawet dyskami. Jeśli by porównać płytę główną do ruchliwego skrzyżowania, to chipset jest takim policjantem, który decyduje, kto ma pierwszeństwo, a kto musi poczekać. Chipset składa się z dwóch głównych części – dawniej nazywanych Northbridge i Southbridge, choć dzisiaj w nowoczesnych rozwiązaniach większość funkcji Northbridge’a jest już przeniesiona do procesora. W praktyce to właśnie chipset odgrywa kluczową rolę w tym, czy dany komputer obsłuży szybkie pamięci RAM, ile dysków SSD da się podłączyć, czy można zamontować najnowszą kartę graficzną, czy nie. Wybierając płytę główną, zawsze warto spojrzeć, jaki chipset jest na pokładzie, bo to od niego zależy, jakie technologie będą dostępne i jak wydajnie będą one ze sobą współpracowały. Moim zdaniem znajomość działania chipsetu to absolutna podstawa dla każdego, kto chce nie tylko składać, ale i naprawiać czy rozbudowywać komputery. Bez tej wiedzy bardzo łatwo popełnić błąd i potem się dziwić, czemu coś nie działa albo nie da się podkręcić sprzętu. Z własnego doświadczenia wiem, że zwracanie uwagi na chipset pozwala uniknąć wielu problemów z kompatybilnością i wydajnością. To taka nieoczywista, ale bardzo ważna część komputera, o której mówią wszyscy bardziej zaawansowani technicy.

Pytanie 18

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. move kat_docelowy kat_zrodlowy\dane.txt
B. copy kat_docelowy kat_zrodlowy/dane.txt
C. copy kat_zrodlowy\dane.txt kat_docelowy
D. move kat_zrodlowy/dane.txt kat_docelowy
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.

Pytanie 19

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. net rejestracja \add user
B. user add rejestracja
C. add user rejestracja
D. net user rejestracja /add
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 20

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Zmniejsza próg odczuwania bólu.
B. Przyśpiesza procesy przemiany materii.
C. Zwiększa napięcie mięśni szkieletowych.
D. Zmniejsza przepływ krwi tętniczej.
Promieniowanie podczerwone (IR) ma dość ciekawe zastosowania zarówno w medycynie, jak i w przemyśle. Najważniejsze jest to, że IR powoduje lokalny wzrost temperatury tkanek, co bezpośrednio wpływa na przyśpieszenie procesów przemiany materii w komórkach – właśnie ta odpowiedź jest prawidłowa. Moim zdaniem, to jeden z lepszych przykładów na to, jak fizyka spotyka się z biologią w praktyce. Jeżeli pomyślimy o naświetlaniu IR w fizykoterapii, to zauważymy, że tego typu zabiegi są wykorzystywane chociażby do poprawy regeneracji po urazach, bo podniesienie temperatury miejscowej przyspiesza metabolizm i napływ substancji odżywczych oraz usuwanie produktów przemiany materii. Branżowe standardy, np. w fizjoterapii, przypisują IR właśnie takie działanie – działanie przyspieszające metabolizm, poprawiające ukrwienie i ogólnie wspierające procesy naprawcze. Nawet w codziennym życiu, kiedy korzystamy z sauny na podczerwień, odczuwamy podniesioną temperaturę skóry i przyspieszone tętno – to wszystko efekty przyspieszonej przemiany materii. Warto pamiętać, że stosowanie IR wymaga zachowania środków ostrożności, bo nadmierne nagrzewanie może prowadzić do poparzeń. Z mojego doświadczenia, te efekty są szczególnie zauważalne przy zabiegach na osoby z przewlekłymi napięciami mięśniowymi, gdzie podczerwień realnie wspiera regenerację. W literaturze branżowej często podkreśla się ten aspekt, więc zdecydowanie warto znać praktyczne zastosowania promieniowania IR.

Pytanie 21

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 75 mm/s
B. 10 mm/s
C. 50 mm/s
D. 25 mm/s
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 22

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. break
B. continue
C. yield
D. return
Wielu początkujących programistów myli polecenia continue, return oraz yield z break, traktując je zamiennie w kontekście sterowania przepływem pętli. To dość częsty błąd – spotkałem się z nim nie raz, zwłaszcza wśród osób, które przenoszą nawyki z jednego języka programowania na inny albo nie do końca rozumieją subtelności mechanizmu działania pętli. Continue powoduje pominięcie bieżącej iteracji, ale pętla trwa dalej – to dobre, gdy na przykład chcemy przeskoczyć niektóre przypadki bez wychodzenia z pętli. Return natomiast wychodzi nie tylko z pętli, ale z całej funkcji, co często prowadzi do nieprzewidzianych skutków, jeśli ktoś nie do końca przemyśli logikę programu. W praktyce return w pętli jest używane głównie w sytuacjach, gdy faktycznie chcemy zakończyć całą funkcję, a nie tylko pętlę. Yield z kolei ma zupełnie inne zastosowanie – dotyczy generatorów, głównie w Pythonie, i pozwala na zwracanie kolejnych wartości bez kończenia funkcji, budując tymczasowe iteratory. Z mojego doświadczenia wynika, że poprawne rozróżnienie tych instrukcji jest kluczowe dla zrozumienia, jak sterować przebiegiem programu, nie tylko w prostych, ale i bardziej zaawansowanych algorytmach. Zawsze warto pamiętać o tym, by nie stosować poleceń na ślepo, tylko dokładnie analizować, czemu służą i jaki mają wpływ na dalszy ciąg kodu. To jest ważna umiejętność, która zdecydowanie ułatwia uniknięcie trudnych do wykrycia błędów logicznych.

Pytanie 23

Jaki wpływ na organizm ludzki ma krioterapia?

A. Zmniejsza obrzęki.
B. Podwyższa napięcie mięśniowe.
C. Zwiększa szybkość przewodnictwa nerwowego.
D. Spowalnia procesy przemiany materii.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 24

Aby uruchomić w systemie linux program nazwa.py, należy wpisać

A. .\nazwa.py
B. ./nazwa.py
C. ./nazwa.py
D. nazwa.py
Aby uruchomić skrypt w systemie Linux bezpośrednio z terminala, należy poprzedzić nazwę pliku ./, czyli tak jak w odpowiedzi: ./nazwa.py. To jest związane z tym, jak system rozpoznaje lokalizację plików wykonywalnych. W Linuksie katalog bieżący (czyli ten, w którym aktualnie się znajdujesz) nie jest domyślnie przeszukiwany po prostu przez wpisanie nazwy pliku, więc samo 'nazwa.py' nie zadziała – system po prostu nie znajdzie takiego pliku w swoim PATH. Przedrostek ./ oznacza „ten katalog”, więc ./nazwa.py to po prostu: uruchom plik nazwa.py znajdujący się w katalogu, w którym teraz jestem. Musisz dodatkowo pamiętać o nadaniu plikowi uprawnień do wykonywania, czyli najczęściej trzeba wcześniej zrobić chmod +x nazwa.py. Moim zdaniem to super sprawa, bo dzięki temu łatwiej jest kontrolować, co tak naprawdę można uruchomić na danym systemie, a co nie. Z mojego doświadczenia wynika, że dużo osób zapomina o tej kropce i później się dziwi, że nie działa – standard Linuksa jest pod tym względem jasny i dość restrykcyjny, co chroni przed przypadkowym uruchomieniem niechcianych plików. Jeżeli w skrypcie nie masz shebanga (np. #!/usr/bin/env python3), to i tak możesz uruchomić go przez python3 nazwa.py, ale ./nazwa.py jest bardziej „linuxowe”, bo wtedy system sam rozpozna, jakiego interpretera użyć na podstawie shebanga. W praktyce, kiedy pracujesz z różnymi wersjami Pythona albo przenosisz swoje skrypty pomiędzy serwerami, takie podejście jest nie tylko wygodne, ale też zgodne z dobrymi praktykami administracyjnymi.

Pytanie 25

W celu połączenia komputera z systemem do badań wysiłkowych komunikującym się za pomocą interfejsu opisanego przedstawionym symbolem, należy w ustawieniach systemu włączyć

Ilustracja do pytania
A. wi-fi.
B. ethernet.
C. vpn.
D. bluetooth.
Ten symbol przedstawia technologię Bluetooth, czyli popularny standard komunikacji bezprzewodowej na krótkie odległości (zazwyczaj do 10 metrów, choć bywają wersje o większym zasięgu). Bluetooth to taki trochę niewidzialny kabel – pozwala na szybkie i wygodne przesyłanie danych, bez potrzeby używania przewodów. W praktyce, bardzo często wykorzystuje się go do łączenia komputerów z urządzeniami medycznymi, sportowymi, a nawet prostymi sensorami w laboratoriach czy na siłowniach. W systemach do badań wysiłkowych, Bluetooth jest w zasadzie standardem, bo nie zakłóca swobody ruchu badanego i nie wymaga skomplikowanego okablowania. Moim zdaniem, jeśli myślisz o integracji nowoczesnego sprzętu diagnostycznego, to Bluetooth jest absolutnie podstawą – nie tylko ze względu na łatwość użytkowania, ale też na szeroką kompatybilność z wieloma systemami operacyjnymi. Warto też pamiętać, że Bluetooth działa na otwartym paśmie 2,4 GHz i obsługuje różne profile komunikacyjne, dzięki czemu można korzystać z niego zarówno do transferu danych, jak i np. sterowania urządzeniem. Co ciekawe, w branży medycznej istnieją nawet specjalne wersje Bluetooth LE (Low Energy), które umożliwiają długotrwałe monitorowanie parametrów bez dużego zużycia baterii. Z mojego doświadczenia wynika, że odpowiednie skonfigurowanie ustawień Bluetooth w systemie to klucz do bezproblemowej pracy przy wielu badaniach.

Pytanie 26

Jeżeli procesor graficzny wykonuje także operacje arytmetyczne, oznacza to, że pracuje w architekturze

A. CISC
B. VLIW
C. CUDA
D. RISC
CUDA to specjalna architektura oraz platforma programistyczna zaprojektowana przez firmę NVIDIA, pozwalająca procesorom graficznym (GPU) nie tylko na renderowanie grafiki, ale także na wykonywanie złożonych operacji arytmetycznych i obliczeń ogólnego przeznaczenia (GPGPU – General Purpose computing on Graphics Processing Units). Co ciekawe, właśnie dzięki CUDA programiści mogą pisać własne algorytmy w językach takich jak C/C++ czy Python i uruchamiać je na GPU, co znacznie przyspiesza przetwarzanie danych tam, gdzie CPU po prostu by się nie wyrobił. Typowe zastosowania to uczenie maszynowe, symulacje naukowe, renderowanie 3D, czy obróbka wideo w czasie rzeczywistym. Z mojego doświadczenia wynika, że bez CUDA trudno byłoby wdrożyć algorytmy AI na masową skalę. Praktycy często doceniają wysoką równoległość GPU i to, że architektura CUDA wykorzystuje setki, a nawet tysiące rdzeni do równoczesnych obliczeń, co jest nieosiągalne dla klasycznych procesorów CPU. Moim zdaniem znajomość CUDA to już właściwie standard w branży IT, jeśli ktoś chce działać z grafiką czy przetwarzaniem dużych zbiorów danych.

Pytanie 27

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. inkrementację.
B. rekurencję.
C. iterację.
D. permutację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 28

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. telewizyjnych.
B. dźwiękowych.
C. graficznych.
D. sieciowych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 29

Na rysunku przedstawiono urządzenie z dodatkową kartą pamięci. Który rodzaj karty może zostać zastosowany w urządzeniu?

Ilustracja do pytania
A. SIM
B. Micro SD
C. Micro SIM
D. SD
Wybrałeś micro SD i to jest trafiony wybór, bo właśnie takie karty są najczęściej stosowane w urządzeniach przenośnych, jak smartfony, tablety czy aparaty cyfrowe. Z mojego doświadczenia wynika, że micro SD to taki złoty standard wśród rozszerzeń pamięci – są małe, pojemne i bardzo uniwersalne. Karty typu micro SD spełniają standardy SD Association, co gwarantuje kompatybilność z większością nowych urządzeń. W praktyce, pozwalają przechowywać zdjęcia, filmy, aplikacje czy nawet całe kopie zapasowe systemu. Warto wiedzieć, że dobre praktyki branżowe zalecają korzystanie z kart micro SD renomowanych producentów, bo podróbki potrafią sprawiać masę problemów – od utraty danych po uszkodzenie sprzętu. Współczesne karty micro SD obsługują różne klasy prędkości (np. UHS-I, UHS-II), a to ma spore znaczenie, jeśli pracujesz z nagraniami wideo w wysokiej rozdzielczości albo często przenosisz pliki. Moim zdaniem, jeśli ktoś myśli o rozbudowie pamięci, micro SD to przemyślany i elastyczny wybór, który daje sporo swobody, nie generując przy tym dużych kosztów. Niektórzy mylą pojęcia, bo sloty mogą wyglądać podobnie do slotów SIM, ale karty micro SD są dedykowane tylko do przechowywania danych, nie mają nic wspólnego z obsługą sieci GSM. Ważne też, żeby nie zapominać o bezpiecznym wyjmowaniu karty – to niby banał, ale niewłaściwe wyjmowanie może skutkować utratą plików. Takie szczegóły właśnie robią różnicę między amatorskim, a profesjonalnym podejściem do sprzętu.

Pytanie 30

System informatyczny wymaga zabezpieczenia danych poprzez tworzenie kopii zapasowych. Dysponując 2 dyskami, można je połączyć w

A. RAID2
B. RAID5
C. RAID0
D. RAID1
RAID1 to chyba jeden z najprostszych, a jednocześnie najpopularniejszych sposobów na ochronę danych przy użyciu dwóch dysków. Realnie działa to tak: oba dyski są lustrzane, czyli wszystko co zapiszesz na jednym, automatycznie kopiuje się na drugi. Jeśli jeden z nich padnie — a niestety w praktyce dyski nie są wieczne — dane są dalej dostępne z drugiego. Moim zdaniem, RAID1 to taki złoty środek dla małych serwerów albo domowych NAS-ów, gdzie bezpieczeństwo plików jest ważniejsze niż pojemność albo wydajność. Z doświadczenia wiem, że w wielu firmach to jest pierwszy wybór, zanim zacznie się inwestować w jakieś bardziej zaawansowane rozwiązania backupowe czy macierze z wieloma dyskami. Branżowe dobre praktyki wręcz zalecają stosowanie mirroringu danych dla krytycznych informacji — nawet jeśli nie chroni to przed wszystkimi typami awarii (np. usunięciem plików przez użytkownika), to daje dużą pewność przy awarii sprzętu. Warto pamiętać, że RAID1 zwiększa niezawodność, ale nie jest zamiennikiem dla prawdziwej kopii zapasowej, którą trzymasz poza macierzą. Jednak do codziennego zabezpieczenia, szczególnie przy tylko dwóch dyskach, to najlepszy wybór — łatwo skonfigurować, a obsługa praktycznie nie wymaga specjalistycznej wiedzy.

Pytanie 31

Zapis w dokumentacji kardiotokografu „prezentacja sygnału FHR” dotyczy

A. czynności skurczowej macicy.
B. aktywności ruchowej płodu.
C. częstości uderzeń serca matki.
D. częstości uderzeń serca płodu.
Zapis „prezentacja sygnału FHR” w dokumentacji kardiotokografu odnosi się wyłącznie do monitorowania częstości uderzeń serca płodu, czyli tzw. fetal heart rate (FHR). To właśnie serce dziecka jest tutaj kluczowe, bo od oceny tego sygnału zależy wykrywanie zagrożeń i podejmowanie decyzji klinicznych. Moim zdaniem znajomość tego pojęcia powinna być absolutnym minimum każdego, kto ma styczność z monitorowaniem przebiegu ciąży, zwłaszcza w sytuacjach okołoporodowych. Sygnał FHR uzyskuje się przez przyłożenie specjalnej głowicy do brzucha matki, co pozwala na stałą obserwację rytmu serca płodu – zarówno podczas ciąży, jak i przy porodzie. W praktyce, jeśli lekarz lub położna widzi zapis FHR na monitorze, od razu wie, czy dziecko nie wykazuje cech niedotlenienia albo innych nieprawidłowości. Standardy Polskiego Towarzystwa Ginekologów i Położników oraz zalecenia WHO nie pozostawiają wątpliwości: prawidłowa interpretacja sygnału FHR to podstawa skutecznego nadzoru nad dobrostanem płodu. Z mojego doświadczenia wynika, że umiejętność rozróżnienia FHR od innych parametrów (np. czynność skurczowa macicy czy puls matki) znacząco poprawia jakość opieki i minimalizuje ryzyko powikłań. Bardzo często w praktyce klinicznej spotykam się z sytuacjami, gdy szybka reakcja na niepokojący sygnał FHR pozwoliła uchronić dziecko przed poważnymi konsekwencjami.

Pytanie 32

Dla sieci o adresie 192.150.160.0/26 pula adresów IP dla urządzeń w tej sieci zawiera się w zakresie

A. 192.150.160.0 – 192.150.160.127
B. 192.150.160.1 – 192.150.160.128
C. 192.150.160.1 – 192.150.160.62
D. 192.150.160.0 – 192.150.160.63
Adresacja sieciowa to coś, co potrafi naprawdę namieszać na początku, ale w praktyce to podstawa przy konfiguracji sieci – zwłaszcza jak zaczynasz bawić się maskami podsieci. W przypadku adresu 192.150.160.0/26 mamy maskę 255.255.255.192, czyli 6 bitów na hosty w ostatnim oktecie. To daje w sumie 64 adresy IP w tej podsieci (od 0 do 63). Ale tylko adresy od 192.150.160.1 do 192.150.160.62 nadają się na urządzenia, bo pierwszy (z końcówką .0) to adres sieci, a ostatni (z końcówką .63) to adres rozgłoszeniowy (broadcastowy). To standardowo przyjęte we wszystkich sieciach IPv4. Moim zdaniem dobrze to sobie rozrysować na kartce, szczególnie jeśli chcesz uniknąć wpadki przy większych projektach. W praktyce, np. jak konfigurujesz routery, serwery DHCP czy firewalle – zawsze pilnuj, żeby nie przypisać urządzeniom adresu sieci ani broadcast, bo wtedy mogą pojawić się trudne do wyłapania błędy. Często spotykam się z sytuacją, gdzie ktoś korzysta z całego zakresu, nie zwraca uwagi na te dwa specjalne adresy i potem coś nie działa. Z mojej perspektywy to taka podstawowa wiedza, którą każdy administrator czy technik IT powinien mieć w małym palcu. Warto też pamiętać, że takie podejście jest zgodne z RFC 950, gdzie określono te zasady. Praktyka pokazuje, że dobrze znać te reguły chociażby po to, żeby automatycznie wiedzieć, jaki zakres możesz wpisać np. w konfiguracji serwera DHCP, bez ryzyka, że coś przestanie działać.

Pytanie 33

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. elektroencefalogramie.
B. renogramie.
C. elektrokardiogramie.
D. scyntygramie.
Fale mózgowe, takie jak alfa, beta, gamma, delta i theta, są zapisywane przy użyciu elektroencefalogramu, czyli EEG. To jest standardowa metoda monitorowania aktywności elektrycznej mózgu. W praktyce EEG wykorzystuje się do diagnozowania różnych schorzeń neurologicznych, np. padaczki, zaburzeń snu, czy też uszkodzeń mózgu po urazach. Osobiście uważam, że EEG jest jednym z ciekawszych narzędzi w neurofizjologii, bo pozwala zobaczyć dosłownie pracę mózgu na żywo. Z mojego doświadczenia wynika, że interpretacja fal wymaga trochę wprawy – np. fale alfa najczęściej pojawiają się u relaksujących się osób z zamkniętymi oczami, a beta dominują podczas aktywności umysłowej czy stresu. Fale theta i delta są charakterystyczne dla głębokiego snu albo niektórych zaburzeń. EEG jest też wykorzystywane w badaniach naukowych, np. przy mapowaniu funkcjonalnym kory mózgowej. W praktyce klinicznej elektroencefalografia jest absolutnym standardem, a jej wyniki pomagają lekarzom podjąć decyzje terapeutyczne. Warto pamiętać, że żadne inne badanie z listy nie zarejestruje tych fal – to taka wiedza, która serio przydaje się, jeśli pracuje się w ochronie zdrowia albo naukach o człowieku.

Pytanie 34

Jaką funkcję pełni przedstawiona na rysunku procedura BIOS?

Ilustracja do pytania
A. Umożliwia odczytanie parametrów dysku twardego podczas uruchomienia systemu operacyjnego.
B. Umożliwia wykonanie testu poprawności działania dysku twardego podczas uruchomienia systemu operacyjnego.
C. Przyśpiesza operacje odczytu danych z dysku SSD podczas uruchomienia systemu operacyjnego.
D. Przyśpiesza operacje zapisu danych na dysk SSD podczas zamykania systemu operacyjnego.
Wybrana odpowiedź jest prawidłowa, bo dokładnie takie zadanie realizuje procedura SMART Self-Test w BIOS-ie. Ten mechanizm – moim zdaniem jeden z najbardziej niedocenianych przez zwykłych użytkowników – pozwala kontrolować stan techniczny dysku twardego już podczas startu komputera. BIOS uruchamia tzw. autotest SMART, czyli Self-Monitoring, Analysis and Reporting Technology. Chodzi tu o wczesne wykrycie problemów z dyskiem, zanim jeszcze system operacyjny wystartuje na dobre. Praktyczny sens tego rozwiązania? Jeśli dysk twardy zaczyna mieć jakieś błędy mechaniczne lub logiczne, BIOS wykryje to podczas procesu POST (Power-On Self-Test) i wyświetli odpowiedni komunikat. Z mojego doświadczenia wynika, że takie ostrzeżenia często pozwalają na uratowanie danych, zanim dysk odmówi całkowicie posłuszeństwa. To jest zgodne z najlepszymi praktykami branżowymi – regularny monitoring SMART i szybka reakcja na błędy to podstawa zarządzania sprzętem w każdym poważnym środowisku IT. Warto wiedzieć, że wyniki testu SMART są analizowane na podstawie kilkudziesięciu parametrów, takich jak liczba relokowanych sektorów, czas rozruchu, czy liczba błędów odczytu. Współczesne standardy zalecają, żeby nie ignorować alertów SMART i natychmiast wykonać kopię zapasową, jeśli pojawi się jakiekolwiek ostrzeżenie. To dobra inwestycja w bezpieczeństwo danych – sam zawsze radzę, żeby mieć to ustawienie włączone, nawet jeśli trochę wydłuża start systemu.

Pytanie 35

Aby system komputerowy współpracujący z ultrasonografem mógł nagrywać na jednej płycie DVD dane z kolejnych, wykonywanych na bieżąco badań, musi być wyposażony w nagrywanie

A. wielosesyjne.
B. wielowarstwowe.
C. wielowątkowe.
D. wielostronicowe.
Prawidłowa odpowiedź to „nagrywanie wielosesyjne” i właśnie taki tryb jest wykorzystywany, gdy mamy potrzebę dogrywania kolejnych danych na jedną płytę DVD, na przykład wtedy, gdy podczas pracy z ultrasonografem wykonywane są kolejne badania w różnych momentach. Dzięki sesjom można nagrywać nowe partie danych bez konieczności zamykania płyty, co jest superpraktyczne w pracy medycznej czy diagnostycznej. Moim zdaniem w realiach szpitalnych czy w pracowniach diagnostycznych często zdarza się, że nie wszystko da się wykonać „na raz” i właśnie wtedy taka funkcjonalność okazuje się nieoceniona. Branżowe standardy, szczególnie w sprzęcie medycznym, mocno podkreślają bezpieczeństwo i możliwość archiwizacji – wielosesyjność pozwala nie tylko na dokładanie nowych badań, ale też na zachowanie porządku i oddzielenie sesji konkretnymi opisami. Daje to też większą elastyczność – możesz dograć dane pacjenta wtedy, kiedy jest to potrzebne, a nie martwić się, że trzeba będzie tworzyć zupełnie nowy nośnik. W praktyce wielu producentów sprzętu medycznego stosuje takie rozwiązania – na przykład aparaty USG czy systemy PACS (archiwizacja obrazów). Dodatkowo, jeśli masz płytę wielosesyjną, możesz ją odczytać na większości standardowych napędów, a dane pozostają dobrze zorganizowane. Taka opcja to zdecydowanie branżowy „must have” przy pracy z dużą ilością danych obrazowych, gdzie liczy się zarówno bezpieczeństwo, jak i wygoda pracy.

Pytanie 36

Na którym rysunku przedstawiony jest interfejs zapewniający najwyższą prędkość transferu urządzeń elektroniki medycznej?

A. Rysunek 4
Ilustracja do odpowiedzi A
B. Rysunek 1
Ilustracja do odpowiedzi B
C. Rysunek 3
Ilustracja do odpowiedzi C
D. Rysunek 2
Ilustracja do odpowiedzi D
Rysunek 2 przedstawia symbol USB SuperSpeed, czyli USB 3.0 lub wyższe. Moim zdaniem to właśnie ten standard wprowadził ogromny skok technologiczny, bo umożliwił transfery rzędu nawet do 5 Gbit/s (a w nowszych wersjach jeszcze więcej). To przełom w zastosowaniach profesjonalnych, gdzie często pracuje się z dużymi plikami – na przykład w medycynie, gdzie przesył obrazów czy wyników badań musi być nie tylko szybki, ale też niezawodny. Jeżeli ktoś kiedykolwiek przenosił duże pliki MRI przez zwykłe USB 2.0, to wie, jak długo to potrafi trwać… Standard SS (SuperSpeed) został specjalnie zaprojektowany, by sprostać wymaganiom nowoczesnych urządzeń, także tych z zakresu elektroniki medycznej. Co ciekawe, coraz częściej spotyka się jeszcze szybsze wersje, jak USB 3.1 czy 3.2, ale już sam symbol SS gwarantuje wielokrotnie wyższą przepustowość niż wcześniejsze technologie USB. Dla mnie – i też według branżowych norm – to obecnie absolutna podstawa w sprzęcie wymagającym niezawodnego i szybkiego transferu danych.

Pytanie 37

Podczas pracy z układami elektronicznymi CMOS na stanowisku montażowym należy stosować

A. zabezpieczenie różnicowo-prądowe.
B. uziemioną matę antystatyczną.
C. wyciąg oparów z filtrem węglowym.
D. zabezpieczenie nadprądowe.
Uziemiona mata antystatyczna to absolutna podstawa pracy z układami CMOS – i nie tylko zresztą. Wszelkie układy elektroniczne o dużej czułości, a zwłaszcza półprzewodniki typu CMOS, są potwornie wrażliwe na wyładowania elektrostatyczne (ESD). Najmniejsze, nawet niewyczuwalne dla człowieka wyładowanie, potrafi uszkodzić strukturę krzemową i to w taki sposób, że uszkodzenie może ujawnić się dopiero po jakimś czasie, co jest szczególnie irytujące w serwisie lub produkcji. Dlatego branża wymaga stosowania stanowisk ESD, czyli właśnie mat antystatycznych z dobrym uziemieniem, opasek na nadgarstek czy specjalnego obuwia. Samo zabezpieczenie nadprądowe czy różnicówka chronią urządzenia i ludzi przed zupełnie innym zagrożeniem – prądem zwarciowym albo porażeniem, a nie wyładowaniem statycznym. Ciekawostka: nawet zwykła folia plastikowa, którą czasem nieopatrznie położysz na stole, potrafi naładować się do kilku tysięcy woltów! W praktyce zawsze warto sprawdzić, czy mata jest czysta i nieuszkodzona oraz czy ma sprawne połączenie z uziemieniem – to niby banał, ale czasem maty po latach są już tylko atrapą. Z mojego doświadczenia wynika, że w dobrze prowadzonych warsztatach nigdy nie lekceważy się tematu ESD nawet przy najprostszych czynnościach serwisowych. W standardach IPC czy normach BHP stanowiska ESD to żelazny obowiązek, a nie wymysł przesadnych elektroników.

Pytanie 38

Ile operacji inkrementacji wykonano w przedstawionej liście kroków?

i=0;
Dopóki i>3 wykonaj      i=i+1;
A. Wykonano trzy operacje.
B. Wykonano zero operacji.
C. Wykonano dwie operacje.
D. Wykonano jedną operację.
Warunek dopóki i>3 sprawia, że pętla nie jest wykonywana ani razu, bo już na początku zmienna i ma wartość 0, która nie spełnia tego warunku. Takie zachowanie jest bardzo typowe w wielu językach programowania, szczególnie gdy stosujemy pętle z warunkiem wejściowym, jak while w C, C++ czy Pythonie. W tym przypadku inkrementacja i=i+1 nigdy nie zostaje uruchomiona, więc liczba operacji inkrementacji wynosi dokładnie zero. Moim zdaniem to ważna pułapka logiczna – czasem wydaje się, że pętla coś wykona, bo jest instrukcja inkrementacji i cały blok, a tymczasem wszystko rozgrywa się na poziomie warunku początkowego. W praktyce profesjonalnej programista powinien zawsze na chłodno przeanalizować, czy warunek pozwala wejść do pętli, zanim zacznie rozważać ile operacji jest wykonanych. W dokumentacjach i materiałach edukacyjnych często się to podkreśla, bo takich błędów łatwo uniknąć, jeśli dobrze rozumie się logikę pętli. Przykład bardzo przypomina popularny case, gdy błędnie ustawiony warunek pętli może całkiem zablokować jej wykonywanie – zdarza się to nawet doświadczonym osobom. Warto się upewnić, czy warunek wejścia do pętli jest spełniony dla wartości początkowych zmiennych, bo to jeden z filarów poprawnego programowania strukturalnego.

Pytanie 39

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. katalog główny.
B. katalog domowy.
C. plik systemowy.
D. plik tymczasowy.
Znak ~ na początku ścieżki w systemach uniksowych to taki trochę skrót-klucz, który odwołuje się bezpośrednio do katalogu domowego użytkownika. W praktyce, jak wpiszesz np. cd ~ w terminalu, to od razu przenosi cię do twojego katalogu domowego – czyli miejsca, gdzie masz swoje dokumenty, konfiguracje, pulpit, pliki robocze i całą resztę rzeczy, za które odpowiadasz bezpośrednio jako użytkownik w systemie. To się sprawdza genialnie, bo nie musisz pamiętać czy katalog domowy to /home/jan, /Users/ania albo coś jeszcze innego – system sam wie, o którego użytkownika chodzi. Zresztą, jeśli chcesz wejść do katalogu domowego innego użytkownika, wpisujesz np. ~marek i terminal zabierze cię do /home/marek. W skryptach Bash i innych powłokach uniksowych to rozszerzanie znaku ~ na konkretną ścieżkę jest standardem od lat i praktycznie każdy administrator korzysta z tego automatycznie. To jeden z tych drobiazgów, które mega przyspieszają pracę na konsoli. Moim zdaniem, jak ktoś często korzysta z powłoki, to nie wyobraża sobie codziennej pracy bez tego symbolu. Ciekawe jest też to, że pliki tymczasowe i systemowe mają zupełnie inne notacje – tutaj ~ jest ściśle powiązany z profilem użytkownika i nie ma nic wspólnego z katalogiem głównym systemu, czyli /. Warto to zapamiętać.

Pytanie 40

W dokumentacji Medycznego Systemu Informatycznego zapisano, że „przed użyciem programów instalacyjnych należy się upewnić, że niektóre porty w środowisku są dostępne do użycia z instalowanym oprogramowaniem pośrednim.” W celu sprawdzenia dostępności portu należy użyć programu narzędziowego

A. ping
B. netstat
C. tracert
D. ipconfig
Netstat to jedno z tych narzędzi, które naprawdę warto znać, jeśli chodzi o sprawdzanie dostępności portów w systemie operacyjnym. Moim zdaniem, bez niego ciężko byłoby szybko ogarnąć, co się dzieje na poziomie komunikacji sieciowej. Netstat pozwala zobaczyć, które porty są obecnie otwarte, jakie programy ich używają oraz na jakie adresy nasłuchują. W praktyce wygląda to tak, że jeśli masz zainstalować jakieś oprogramowanie pośrednie (np. serwer bazodanowy albo aplikację middleware), to najpierw sprawdzasz, czy wymagany port nie jest już zajęty przez inny proces. Wpisujesz „netstat -a” albo „netstat -an” w konsoli i widzisz pełną listę aktywnych portów, zarówno TCP, jak i UDP. To bardzo pomaga uniknąć konfliktów, które później mogą prowadzić do dziwnych błędów czy braku komunikacji między usługami. Branżowe dobre praktyki wyraźnie mówią, że należy się upewnić, iż porty wymagane do działania nowego oprogramowania są wolne lub odpowiednio przekonfigurowane. Z mojego doświadczenia wynika, że netstat jest też niezastąpiony podczas analizy problemów z nieautoryzowanymi połączeniami albo diagnostyki wydajności. W wielu firmach to podstawa przy wdrażaniu i utrzymaniu systemów medycznych czy innych środowisk krytycznych. Warto też wiedzieć, że netstat jest dostępny niezależnie od wersji systemu Windows, a podobne narzędzia działają na Linuxie, więc ta wiedza przydaje się praktycznie wszędzie.