Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 29 kwietnia 2026 19:54
  • Data zakończenia: 29 kwietnia 2026 20:02

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jeżeli węzeł zatokowo–przedsionkowy będzie pobudzał serce generując bodźce elektryczne z częstotliwością 1 Hz, to wartość rytmu serca będzie wynosiła

A. 50 uderzeń na minutę.
B. 60 uderzeń na minutę.
C. 100 uderzeń na minutę.
D. 80 uderzeń na minutę.
Wartość 60 uderzeń na minutę wynika bezpośrednio z przeliczenia częstotliwości generowanej przez węzeł zatokowo–przedsionkowy. Jeśli ten naturalny rozrusznik serca wysyła impuls elektryczny z częstotliwością 1 Hz, oznacza to, że na każdą sekundę przypada jedno pobudzenie. W ciągu minuty jest 60 sekund, więc 1 impuls na sekundę daje dokładnie 60 impulsów na minutę, czyli 60 uderzeń serca na minutę. Takie tempo to typowy, prawidłowy rytm serca u dorosłego człowieka w spoczynku, zgodny z wytycznymi Polskiego Towarzystwa Kardiologicznego i międzynarodowych organizacji, jak AHA. W praktyce, wiedza o tej zależności jest ważna np. przy analizie EKG albo w programowaniu sztucznych rozruszników – ustawiając urządzenie na 1 Hz, uzyskujemy właśnie 60/min. Spotkałem się nie raz z sytuacją, gdzie błędne przeliczenie tej częstotliwości prowadziło do niepotrzebnych niepokojów czy nawet złych decyzji klinicznych. Jest to moim zdaniem jedna z tych podstaw, które choć wydają się proste, to bywają pomijane. Dobrze wiedzieć, że granica normy tętna w spoczynku zaczyna się właśnie od 60/min – poniżej tego mówimy już o bradykardii. W diagnostyce bardzo ważne jest rozumienie takich podstawowych przełożeń, bo pomagają uniknąć podstawowych błędów podczas interpretacji pracy serca.

Pytanie 2

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. sieciowych.
B. mięśniowych 25 Hz.
C. wolnozmiennych.
D. mięśniowych 35 Hz.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 3

Operacja warunkowa w większości języków programowania wysokiego poziomu zaczyna się słowem

A. do
B. for
C. while
D. if
Operacja warunkowa to coś, co w programowaniu spotyka się na każdym kroku. Słowo kluczowe „if” jest takim fundamentem, bez którego trudno wyobrazić sobie jakikolwiek prosty algorytm. Można powiedzieć, że to taki podstawowy budulec logiki w większości popularnych języków, jak Python, Java, C++, C#, JavaScript – wszędzie tam „if” rozpoczyna warunkowe rozgałęzienie. Praktycznie zawsze wygląda to mniej więcej tak: if (warunek) { // kod gdy warunek prawdziwy }. Dzięki temu można sterować przepływem programu i reagować na różne sytuacje, zależnie od zmiennych lub wyniku działania funkcji. Co ciekawe, samo „if” to skrót od angielskiego „jeśli”, więc nawet osoby, które nie znają za dobrze języka angielskiego, łatwo zapamiętują jego działanie. Moim zdaniem, warto zawsze na początku nauki programowania dobrze zrozumieć, jak działa instrukcja warunkowa, bo potem przy bardziej złożonych projektach nie raz ratuje nam skórę. Dla przykładu – gdy programujemy prostą aplikację do logowania, najpierw sprawdzamy if hasło jest prawidłowe, potem if użytkownik jest aktywny, itd. To jest naprawdę uniwersalne narzędzie, a przy okazji bardzo czytelne i intuicyjne. Warto jeszcze wiedzieć, że „if” to element tzw. struktury sterowania, której znajomość jest absolutną podstawą, według praktycznie wszystkich standardów nauczania i dokumentacji języków programistycznych.

Pytanie 4

Technologia OLED znajduje zastosowanie w

A. kartach pamięci Secure Digital.
B. urządzeniach sieciowych.
C. nagrywarkach Blu-Ray.
D. monitorach komputerowych.
OLED, czyli Organic Light Emitting Diode, to technologia wyświetlania obrazu, która naprawdę zrewolucjonizowała rynek monitorów komputerowych i telewizorów. Zamiast wykorzystywać podświetlenie LED, jak w klasycznych LCD, OLED pozwala na bezpośrednie świecenie każdego piksela. To daje rewelacyjną głębię czerni, bo piksel po prostu się wyłącza – nie świeci, nie pobiera energii, nie przepuszcza światła. Z mojego punktu widzenia największy plus to właśnie kontrast: w OLED-ach czarne jest naprawdę czarne, a kolory są mega żywe. Gracze i graficy bardzo często wybierają monitory z OLED, bo oprócz jakości obrazu mają one szybki czas reakcji – ważne przy dynamicznych grach czy montażu wideo. Często słyszy się, że OLED to też mniejsze zużycie energii, przynajmniej przy wyświetlaniu ciemnych treści. W branży panuje opinia, że OLED wyznacza standard nowoczesnych monitorów premium. Są tu też pewne wyzwania, np. wypalanie się pikseli przy statycznych obrazach, ale w praktyce, przy normalnym użytkowaniu i nowych technologiach zarządzania obrazem, nie jest to aż tak problematyczne, jak się kiedyś mówiło. Z ciekawostek: OLED stosuje się już nawet w wyświetlaczach do samochodów i najnowszych smartfonach, ale to właśnie monitory komputerowe są przykładem, gdzie ta technologia daje naprawdę zauważalną różnicę na co dzień. Szczerze mówiąc, jak ktoś raz popatrzy na monitor OLED, to potem ciężko wrócić do zwykłego LCD. Warto o tym pamiętać, szukając sprzętu do pracy z grafiką czy do gier.

Pytanie 5

Promieniowanie IR jest wykorzystywane w

A. krioterapii.
B. termoterapii.
C. hydroterapii.
D. radioterapii.
Promieniowanie podczerwone, czyli IR, to naprawdę ciekawy temat w kontekście fizykoterapii. Termoterapia właśnie opiera się na wykorzystaniu ciepła, które pozwala na zwiększenie ukrwienia tkanek, rozluźnienie mięśni oraz przyspieszenie procesów regeneracyjnych. Promieniowanie IR wnika w głąb skóry, nawet kilka milimetrów, co wywołuje efekt cieplny. Takie zabiegi stosuje się chociażby w leczeniu przewlekłych bólów stawowych, przykurczów mięśniowych czy urazów. Moim zdaniem, jest to jedna z bardziej skutecznych i zarazem bezpiecznych metod wspomagania leczenia – praktycznie nie wywołuje skutków ubocznych, jeśli tylko przestrzega się zaleceń. W wielu gabinetach fizjoterapii można spotkać lampy Sollux, które emitują właśnie podczerwień. Co ciekawe, istnieją różne typy promieniowania IR, ale w fizjoterapii najczęściej używa się pasma IR-A i IR-B, które są dobrze pochłaniane przez skórę. Standardy branżowe zalecają, by tego typu zabiegi wykonywać pod kontrolą specjalisty, bo nie dla każdego jest to wskazane – np. osoby z aktywnym stanem zapalnym albo nowotworami powinny unikać promieniowania IR. Z mojego doświadczenia wynika, że pacjenci bardzo doceniają uczucie ciepła i często szybciej wracają do sprawności. Termoterapia z użyciem IR jest więc nie tylko praktyczna, ale też zgodna z najnowszymi wytycznymi w rehabilitacji.

Pytanie 6

Jaki wpływ na organizm ludzki ma krioterapia?

A. Zmniejsza obrzęki.
B. Podwyższa napięcie mięśniowe.
C. Spowalnia procesy przemiany materii.
D. Zwiększa szybkość przewodnictwa nerwowego.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 7

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. raw
B. tga
C. rar
D. tar
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 8

Ile dysków i z jakim interfejsem zostało wykazanych na zrzucie programu GParted?

Ilustracja do pytania
A. 1 dysk z interfejsem SAS
B. 1 dysk z interfejsem SATA
C. 2 dyski z interfejsem SATA
D. 2 dyski z interfejsem SAS
Na zrzucie ekranu programu GParted widać wyraźnie tylko jeden dysk oznaczony jako /dev/sda. To jest standardowe oznaczenie dla pierwszego dysku w systemie Linux, najczęściej podłączonego przez interfejs SATA. Program GParted nie pokazuje tu żadnych innych nośników, więc nie ma mowy o dwóch dyskach czy innych interfejsach, typu SAS. W praktyce, SATA to obecnie najczęściej spotykany interfejs w komputerach osobistych i laptopach, szczególnie jeśli mówimy o dyskach HDD lub SSD 2,5 cala. Jak ktoś pracuje w serwisie komputerowym lub po prostu lubi grzebać w sprzęcie, to od razu rozpozna te oznaczenia. Z mojego doświadczenia większość domowych użytkowników nawet nie zdaje sobie sprawy, że istnieje coś takiego jak SAS – to raczej domena serwerów i stacji roboczych. Warto zwrócić uwagę, że GParted pokazuje także partycje i ich typy, ale nie sugeruje w żadnym miejscu obecności innego interfejsu niż SATA. To jest zgodne ze standardami branżowymi – Linux rozróżnia dyski po prefiksie: sda, sdb, itd., gdzie "sd" oznacza urządzenie dyskowe typu SCSI, co obecnie obejmuje również SATA, bo oba interfejsy są obsługiwane przez ten sam sterownik w jądrze systemu. Tak naprawdę dobra praktyka przy analizie dysków w systemie to zawsze sprawdzać nie tylko podział na partycje, ale i faktyczną fizyczną obecność urządzeń sprzętowych oraz ich typ. Moim zdaniem, umiejętność odróżniania takich rzeczy jest naprawdę kluczowa dla każdego informatyka.

Pytanie 9

Proces, w którym w bazie danych są usuwane nadmiarowe dane, jest określany jako

A. redundancja.
B. redukcja.
C. normalizacja.
D. kompresja.
Normalizacja to jeden z najważniejszych procesów podczas projektowania baz danych – praktycznie każdy, kto pracuje przy większych systemach informatycznych, prędzej czy później się z tym spotka. Chodzi w niej o takie przekształcenie struktury tabel, żeby unikać powielania tych samych danych (czyli właśnie nadmiarowości). Dzięki normalizacji ograniczamy błędy logiczne, zwiększamy spójność i łatwiej się potem pracuje z taką bazą, zwłaszcza gdy pojawiają się zmiany w danych. Przykładowo: zamiast trzymać nazwę miasta w każdym zamówieniu, lepiej mieć osobną tabelę „Miasta” i tam tylko raz każda nazwa – a w zamówieniach odwoływać się do niej przez klucz. To taki klasyk, który w pracy programisty czy administratora bazy danych po prostu trzeba znać. Moim zdaniem normalizacja to trochę jak sprzątanie pokoju: na początku wydaje się, że jest więcej pracy, ale potem o wiele łatwiej wszystko znaleźć i utrzymać porządek. Standardy branżowe, jak model relacyjny i kolejne postacie normalne (1NF, 2NF, 3NF itd.), pokazują konkretne kroki, jak tę nadmiarowość eliminować. W praktyce zauważyłem, że dobrze znormalizowana baza zużywa mniej miejsca, szybciej się aktualizuje i nie dopuszcza do różnic w danych (np. dwie różne pisownie tego samego klienta). Choć czasem dla wydajności celowo się odchodzi od pełnej normalizacji, to jako punkt wyjścia i standard projektowy – normalizacja jest po prostu niezastąpiona.

Pytanie 10

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. półotwartym.
B. dynamometrycznym.
C. oczkowym.
D. płaskim.
Klucz dynamometryczny to narzędzie, które pozwala z bardzo dużą precyzją dokręcić śrubę z określoną siłą, czyli tzw. momentem obrotowym. W tym przypadku chodzi o 6 Nm – i to naprawdę nie jest przypadkowa wartość, tylko często podana przez producenta po to, żeby wszystkie połączenia trzymały się jak należy, ale jednocześnie nie były przeciążone. Moim zdaniem, właśnie taki klucz powinien być podstawowym wyposażeniem każdego warsztatu, niezależnie od tego, czy robisz przy rowerach, motocyklach, czy w poważniejszej mechanice. Przykładowo, w serwisie rowerowym, gdy dokręcasz śruby mostka kierownicy lub karbonowej sztycy, naprawdę nie warto ryzykować – za mocno i można uszkodzić część, za słabo i coś się może rozluźnić podczas jazdy. Z mojego doświadczenia wynika, że profesjonalne instrukcje montażowe (nie tylko w branży motoryzacyjnej czy rowerowej, ale też np. hydraulicznej) zawsze odnoszą się do ściśle określonych momentów. Właściwe użycie klucza dynamometrycznego to bezpieczeństwo i powtarzalność montażu, a także eliminacja typowych błędów związanych z "na czuja". Czasem ktoś powie, że wystarczy "dokręcić mocno", ale to bardzo złudne – stal, aluminium czy kompozyty mają swoje ograniczenia. Warto też pamiętać, że takie narzędzia mają skalę (często nawet dwie: Nm i ft-lb), a porządny warsztat zawsze je kalibruje raz na jakiś czas, bo precyzja jest tu kluczowa.

Pytanie 11

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. budowie nowych klas na podstawie już istniejących.
B. uogólnieniu pewnych cech w klasie bazowej.
C. tworzeniu nowych obiektów za pomocą konstruktorów.
D. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 12

W dokumentacji skanera zapisano „rozdzielczość optyczna 600 x 600 [dpi]”. Skrót dpi określa liczbę punktów

A. na cal.
B. szerokości dokumentu.
C. wysokości dokumentu.
D. na cm.
Dpi to skrót od „dots per inch”, co w bezpośrednim tłumaczeniu oznacza „liczba punktów na cal”. To taki techniczny wskaźnik, który bardzo często stosuje się w grafice komputerowej, drukarkach i oczywiście skanerach. W praktyce, im większa liczba dpi, tym urządzenie potrafi uchwycić (albo wydrukować) więcej szczegółów na danym odcinku długości jednego cala. Standardowy cal to 2,54 cm, co czasami bywa mylące, bo niektórzy próbują przeliczać dpi na centymetry, ale to nie jest ta sama jednostka. Weźmy na przykład taki skaner o rozdzielczości 600x600 dpi – oznacza to, że w jednym calu w pionie i poziomie urządzenie rozróżnia aż 600 punktów. To właśnie dlatego skany są ostre, a detale dobrze widoczne. Warto pamiętać, że na rynku sprzętu biurowego i poligraficznego przyjęło się właśnie operowanie jednostką dpi, nie na centymetry czy milimetry, bo jest to uniwersalne i pozwala łatwiej porównywać różne urządzenia. Z mojego doświadczenia wynika, że sporo nieporozumień wśród początkujących wynika z pomieszania tych jednostek – a tak naprawdę dpi funkcjonuje od dekad i jest właściwie standardem branżowym. Jeśli na przyszłość będziesz miał do czynienia z drukiem albo digitalizacją dokumentów, to dpi zawsze będzie odnosiło się do ilości punktów na cal. To taki niepisany „język” technologii obrazu.

Pytanie 13

Z ekranu urządzenia wynika, że pełni ono między innymi funkcję

Ilustracja do pytania
A. elektroencefalografu.
B. kardiotokografu.
C. elektromiografu.
D. kapnografu.
Odpowiedź wskazująca na kapnograf jest absolutnie prawidłowa. Kapnograf to urządzenie medyczne służące do monitorowania stężenia dwutlenku węgla (CO2) w wydychanym powietrzu pacjenta. Na ekranie bardzo wyraźnie widać charakterystyczną krzywą kapnograficzną (oznaczoną jako CO2), która odzwierciedla zmiany poziomu CO2 podczas cyklu oddechowego. W praktyce klinicznej, kapnografia jest używana przede wszystkim na oddziałach intensywnej terapii, podczas zabiegów anestezjologicznych czy nawet ratownictwie medycznym do oceny wentylacji pacjenta. Jest to standard monitorowania podczas znieczulenia ogólnego – zgodnie z wytycznymi chociażby European Society of Anaesthesiology. Moim zdaniem, znajomość działania kapnografu to ogromny atut, bo pozwala szybciej wychwycić groźne sytuacje, jak np. niedrożność dróg oddechowych albo nieprawidłową wentylację. Dla mnie osobiście to jedno z najbardziej praktycznych narzędzi codziennej pracy bloku operacyjnego. Warto też wiedzieć, że parametry takie jak EtCO2 (końcowo-wydechowe stężenie CO2) są kluczowe dla oceny jakości resuscytacji czy skuteczności intubacji.

Pytanie 14

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. kopii rejestru.
B. importu rejestru.
C. podłączenia rejestru sieciowego.
D. oczyszczania rejestru.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 15

Podczas pracy z układami elektronicznymi CMOS na stanowisku montażowym należy stosować

A. zabezpieczenie nadprądowe.
B. wyciąg oparów z filtrem węglowym.
C. zabezpieczenie różnicowo-prądowe.
D. uziemioną matę antystatyczną.
Uziemiona mata antystatyczna to absolutna podstawa pracy z układami CMOS – i nie tylko zresztą. Wszelkie układy elektroniczne o dużej czułości, a zwłaszcza półprzewodniki typu CMOS, są potwornie wrażliwe na wyładowania elektrostatyczne (ESD). Najmniejsze, nawet niewyczuwalne dla człowieka wyładowanie, potrafi uszkodzić strukturę krzemową i to w taki sposób, że uszkodzenie może ujawnić się dopiero po jakimś czasie, co jest szczególnie irytujące w serwisie lub produkcji. Dlatego branża wymaga stosowania stanowisk ESD, czyli właśnie mat antystatycznych z dobrym uziemieniem, opasek na nadgarstek czy specjalnego obuwia. Samo zabezpieczenie nadprądowe czy różnicówka chronią urządzenia i ludzi przed zupełnie innym zagrożeniem – prądem zwarciowym albo porażeniem, a nie wyładowaniem statycznym. Ciekawostka: nawet zwykła folia plastikowa, którą czasem nieopatrznie położysz na stole, potrafi naładować się do kilku tysięcy woltów! W praktyce zawsze warto sprawdzić, czy mata jest czysta i nieuszkodzona oraz czy ma sprawne połączenie z uziemieniem – to niby banał, ale czasem maty po latach są już tylko atrapą. Z mojego doświadczenia wynika, że w dobrze prowadzonych warsztatach nigdy nie lekceważy się tematu ESD nawet przy najprostszych czynnościach serwisowych. W standardach IPC czy normach BHP stanowiska ESD to żelazny obowiązek, a nie wymysł przesadnych elektroników.

Pytanie 16

Jeżeli procesor graficzny wykonuje także operacje arytmetyczne, oznacza to, że pracuje w architekturze

A. RISC
B. VLIW
C. CISC
D. CUDA
CUDA to specjalna architektura oraz platforma programistyczna zaprojektowana przez firmę NVIDIA, pozwalająca procesorom graficznym (GPU) nie tylko na renderowanie grafiki, ale także na wykonywanie złożonych operacji arytmetycznych i obliczeń ogólnego przeznaczenia (GPGPU – General Purpose computing on Graphics Processing Units). Co ciekawe, właśnie dzięki CUDA programiści mogą pisać własne algorytmy w językach takich jak C/C++ czy Python i uruchamiać je na GPU, co znacznie przyspiesza przetwarzanie danych tam, gdzie CPU po prostu by się nie wyrobił. Typowe zastosowania to uczenie maszynowe, symulacje naukowe, renderowanie 3D, czy obróbka wideo w czasie rzeczywistym. Z mojego doświadczenia wynika, że bez CUDA trudno byłoby wdrożyć algorytmy AI na masową skalę. Praktycy często doceniają wysoką równoległość GPU i to, że architektura CUDA wykorzystuje setki, a nawet tysiące rdzeni do równoczesnych obliczeń, co jest nieosiągalne dla klasycznych procesorów CPU. Moim zdaniem znajomość CUDA to już właściwie standard w branży IT, jeśli ktoś chce działać z grafiką czy przetwarzaniem dużych zbiorów danych.

Pytanie 17

Która magistrala służy do szeregowej transmisji danych?

A. ATA
B. PCI X
C. PCI E
D. AGP
PCI Express, czyli PCIe, to obecnie najpopularniejsza magistrala wykorzystywana do szeregowej transmisji danych pomiędzy płytą główną a takimi urządzeniami jak karty graficzne, karty sieciowe czy pamięci masowe NVMe. W odróżnieniu od starszych rozwiązań, takich jak klasyczne PCI czy AGP, PCIe przesyła dane szeregowo, czyli bit po bicie za pomocą tzw. linii (linii transmisyjnych), co pozwala na osiąganie bardzo wysokich przepustowości przy jednoczesnej elastyczności konfiguracji (np. x1, x4, x8, x16). Szeregowa transmisja w PCIe minimalizuje zakłócenia i poprawia integralność sygnałów, więc moim zdaniem to rozwiązanie sprawdza się nawet przy bardzo wymagających zastosowaniach, takich jak gaming czy obliczenia naukowe. W nowoczesnych komputerach praktycznie każda wydajna karta graficzna czy szybki dysk SSD NVMe komunikuje się właśnie przez PCI Express, bo to dzięki tej magistrali możliwe są transfery liczone w gigabajtach na sekundę. Warto też wiedzieć, że PCIe cały czas się rozwija – każda kolejna generacja (np. 4.0 czy 5.0) podwaja przepustowość. Z mojego doświadczenia wynika, że szeregowa transmisja to nie tylko przyszłość, ale już teraźniejszość sprzętu komputerowego – nie wyobrażam sobie dzisiaj nowoczesnej płyty głównej bez PCIe.

Pytanie 18

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. permutację.
B. rekurencję.
C. inkrementację.
D. iterację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 19

Aby zainstalować brakujące oprogramowanie w systemie z rodziny Linux należy wykorzystać polecenie

A. install
B. apt cache
C. get install
D. apt-get install
Polecenie „apt-get install” to w zasadzie taki standard, jeśli chodzi o instalację oprogramowania w systemach Linux z rodziny Debian, Ubuntu i pochodnych. Używanie tego narzędzia jest intuicyjne, choć czasem niektórych może przerazić wiersz poleceń. Moim zdaniem, jak już ktoś choć raz spróbuje zainstalować pakiet przez „apt-get install”, to szybko zobaczy, jak bardzo to przyspiesza codzienną pracę. W praktyce wygląda to tak: wpisujesz „sudo apt-get install nazwa_pakietu” i system automatycznie pobiera oraz instaluje wybrany program wraz z wszystkimi zależnościami – nie trzeba ręcznie szukać ani ściągać żadnych plików. To ogromna wygoda i bezpieczeństwo, bo wszystko pobiera się z oficjalnych repozytoriów, no i nie narażasz się na ściągnięcie jakiegoś trefnego pliku z internetu. Z mojego doświadczenia wynika, że praktycznie każdy administrator czy nawet zwykły użytkownik Linuksa powinien znać te podstawy. Warto też pamiętać, że od kilku lat pojawiło się polecenie „apt install”, które jest uproszczoną wersją, ale „apt-get” nadal często pojawia się w dokumentacjach, skryptach i instrukcjach branżowych. Instalacja przez „apt-get install” jest po prostu najpewniejszym i najczęściej stosowanym rozwiązaniem w środowiskach produkcyjnych – lepiej to opanować na pamięć, bo prędzej czy później się przyda. Mi nieraz uratowało skórę, kiedy musiałem na szybko dorzucić brakującą bibliotekę czy narzędzie. To podstawa pracy z tymi systemami.

Pytanie 20

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Podtynkowy.
B. Naścienny.
C. Na listwie zaciskowej.
D. Na szynie TH-35.
System montażu na szynie TH-35, zwanej też często „szyną DIN”, jest absolutnym standardem w rozdzielnicach elektrycznych i automatyce przemysłowej. Na zdjęciu wyraźnie widać urządzenia zamocowane na charakterystycznej, metalowej listwie o przekroju 35 mm – to właśnie ta szyna. Pozwala ona bardzo wygodnie instalować modułowe urządzenia takie jak wyłączniki nadprądowe, przekaźniki, zasilacze czy nawet sterowniki PLC. Z mojego doświadczenia wynika, że szyna DIN znacząco przyspiesza montaż oraz ewentualną wymianę komponentów – nie trzeba tu żadnych śrub, tylko zatrzaski. W przypadku serwisowania czy rozbudowy instalacji to ogromna zaleta, bo wystarczy kilka sekund, żeby coś wymienić. W branży bardzo ceni się to rozwiązanie za uniwersalność. Co ciekawe, standard TH-35 został uregulowany normą IEC 60715, a jego stosowanie gwarantuje kompatybilność różnych producentów. Gdybyś chciał tworzyć rozdzielnice czy panele sterownicze zgodnie z aktualnymi przepisami i dobrymi praktykami, szyna TH-35 to właściwie jedyna słuszna droga. Spotkasz ją w niemal każdej szafie rozdzielczej – od prostych układów domowych po skomplikowane systemy przemysłowe. Takie podejście zapewnia nie tylko porządek, ale też bezpieczeństwo i estetykę całej instalacji.

Pytanie 21

Konserwacja oprogramowania nie obejmuje

A. skorygowania błędów.
B. przywracania danych.
C. poprawy funkcjonalności.
D. poprawienia wydajności.
Przywracanie danych to zupełnie inna bajka niż konserwacja oprogramowania, choć na pierwszy rzut oka może się wydawać, że wszystko to są działania powiązane z utrzymaniem systemów IT. W praktyce konserwacja oprogramowania (ang. software maintenance) skupia się przede wszystkim na zarządzaniu samym kodem, poprawianiu błędów, ulepszaniu działania programu czy rozbudowie funkcjonalności zgodnie z potrzebami użytkowników lub zmianami w środowisku technicznym. To trochę tak, jakby mechanik nie tylko naprawiał samochód, ale czasem też wymieniał mu silnik na mocniejszy albo montował nowoczesne radio. Natomiast przywracanie danych, czyli tzw. data recovery, dotyczy już typowo zarządzania danymi, a nie kodem – chodzi tu na przykład o odzyskiwanie utraconych plików po awarii dysku czy przypadkowym ich usunięciu. W codziennej praktyce IT osoby zajmujące się konserwacją oprogramowania rzadko dotykają tematu przywracania danych – tym zazwyczaj zajmują się administratorzy systemów lub specjaliści ds. backupów. Dobre standardy branżowe, jak chociażby normy ISO/IEC 14764, jasno rozgraniczają te pojęcia. Moim zdaniem, rozumienie tej różnicy pomaga lepiej zorganizować pracę w zespole IT i nie mylić zakresów odpowiedzialności. Często spotykam się z sytuacją, gdzie ktoś oczekuje od programisty 'naprawienia' danych, a to już jest całkiem inne zadanie niż klasyczna konserwacja kodu.

Pytanie 22

Który system plików zapewnia największe bezpieczeństwo danych w systemie Windows?

A. FAT 32
B. ext4
C. FAT 16
D. NTFS
NTFS to zdecydowanie najlepszy wybór, jeśli chodzi o bezpieczeństwo danych w systemie Windows. Po pierwsze, ten system plików pozwala na zaawansowane zarządzanie uprawnieniami – można bardzo precyzyjnie ustawiać, kto ma dostęp do jakiego pliku czy folderu, a to w praktyce daje ogromne możliwości kontroli. Jedną z najważniejszych cech NTFS jest obsługa szyfrowania plików (EFS), co wrażliwych danych zabezpiecza przed dostępem niepowołanych użytkowników. No i oczywiście, NTFS ma wbudowane mechanizmy odzyskiwania po awarii – na przykład dziennikowanie operacji (tzw. journaling), dzięki czemu podczas nagłego zaniku zasilania system jest w stanie automatycznie naprawić uszkodzone struktury plików. W przedsiębiorstwach NTFS to standard, bo pozwala na stosowanie polityk bezpieczeństwa zgodnych z wymaganiami ISO/IEC 27001 czy politykami RODO. Moim zdaniem, dla każdego, kto chociaż trochę dba o integralność i bezpieczeństwo danych, inne opcje nie mają nawet podejścia. Co ciekawe, NTFS obsługuje także limity pojemności, kompresję plików czy tworzenie kopii zapasowych typu shadow copy. I jeszcze taka ciekawostka – większość zaawansowanych narzędzi Windows nawet nie pozwala korzystać z dysków FAT, jeśli trzeba ustawić uprawnienia albo szyfrować katalogi. W sumie, dziś to już absolutna podstawa w każdej firmowej sieci.

Pytanie 23

Zasilacz, który podczas normalnej pracy zasila urządzenie, jednocześnie ładując akumulator, a podczas awarii zasilania sieciowego zasila urządzenie z akumulatora, oznaczany jest skrótem

A. UDP
B. UPS
C. UTP
D. UEFI
UPS, czyli Uninterruptible Power Supply, to według mojej opinii jedno z tych urządzeń, które każdy kto poważnie myśli o bezpieczeństwie sprzętu IT powinien znać jak własną kieszeń. Główną zaletą UPS-a jest to, że działa on praktycznie niezauważalnie podczas normalnej pracy – urządzenie jest zasilane z sieci, a akumulatory doładowują się w tle. Dopiero jak zniknie napięcie – czy to z powodu awarii, czy zwykłego przepięcia, UPS przełącza się automatycznie na zasilanie z akumulatora i zapewnia ciągłość pracy. Ta funkcja to podstawa w serwerowniach, laboratoriach, ale też w domowych biurach – przecież nikt nie chce stracić niedokończonego projektu przez nagły zanik prądu. Z mojego doświadczenia, nawet najprostsze UPS-y typu offline potrafią uratować niejedną prezentację czy egzamin online. W praktyce branżowej bardzo często spotykamy różne typy UPS-ów: offline, line-interactive czy online (double conversion), każdy z nich inny pod względem czasu przełączenia czy jakości napięcia wyjściowego. Warto pamiętać, że dobór właściwego UPS-a to nie tylko kwestia mocy, ale też ilości i rodzaju podłączonych urządzeń, czasu podtrzymania i jakości filtracji. Standardy takie jak PN-EN 62040 czy wytyczne organizacji IEEE pokazują, na co zwracać uwagę przy projektowaniu zasilania awaryjnego. Szczerze mówiąc – bez UPS-a ciężko mówić o poważnym podejściu do ochrony sprzętu i danych.

Pytanie 24

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 50 mm/s
B. 25 mm/s
C. 75 mm/s
D. 10 mm/s
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 25

Które ustawienie należy wybrać na multimetrze w celu pomiaru napięcia 12 V w obwodzie prądu stałego?

A. DCV
B. ACA
C. ACV
D. DCA
Wybierając opcję DCV na multimetrze, od razu ustawiasz się na właściwy tor do bezpiecznego i precyzyjnego pomiaru napięcia 12 V w obwodzie prądu stałego. Skrót DCV oznacza dosłownie „Direct Current Voltage”, czyli napięcie prądu stałego. To jest dokładnie to, co spotkasz chociażby w instalacjach samochodowych, zasilaczach czy popularnych układach elektronicznych. Dobrą praktyką jest przed pomiarem ocenić spodziewaną wartość napięcia i – jeśli multimetr nie jest automatyczny – wybrać zakres minimalnie wyższy od spodziewanego. To zabezpiecza zarówno miernik, jak i wynik przed błędami. Z mojego doświadczenia wynika, że wielu początkujących myli DCV z DCA, bo oba mają „DC”, ale przy napięciu zawsze chodzi o V jak „Voltage”. W przewodnikach i instrukcjach do multimetrów zawsze podkreśla się, żeby nie mierzyć napięcia na ustawieniu do prądu, bo można spalić bezpiecznik w mierniku – niby oczywiste, ale w praktyce zdarza się często. DCV to podstawa pracy z klasycznymi bateriami, akumulatorami i wszędzie tam, gdzie nie ma zmiany kierunku przepływu prądu. W branży elektronicznej i energetycznej takie podejście jest standardem i świadczy o profesjonalizmie obsługi narzędzi.

Pytanie 26

W zabiegu jonoforezy leki są transportowane przez skórę do głębiej położonych warstw poprzez zastosowanie

A. prądu galwanicznego.
B. fal ultradźwiękowych.
C. pola magnetycznego.
D. fal akustycznych.
Jonoforeza to taki zabieg fizykalny, w którym wykorzystuje się prąd galwaniczny do wprowadzania leków przez skórę w głąb tkanek. To właśnie ta stała forma prądu elektrycznego sprawia, że jony substancji leczniczych są „przepychane” przez barierę naskórkową – i to dużo efektywniej niż przez zwykłe nałożenie maści czy kremu. Moim zdaniem to świetne rozwiązanie, kiedy zależy nam na działaniu miejscowym, np. w leczeniu stanów zapalnych, przewlekłego bólu czy zmian zwyrodnieniowych stawów. W praktyce fizjoterapeuci często stosują jonoforezę na takie schorzenia jak ostroga piętowa, przewlekłe zapalenie ścięgien albo przykurcze mięśni po urazach. Z mojego doświadczenia wynika, że dzięki jonoforezie leki omijają przewód pokarmowy, więc nie obciążają wątroby czy żołądka – to duży plus. Ważne, żeby dobrać odpowiedni preparat do rodzaju problemu, a także właściwie ustawić parametry prądu; wszystko zgodnie z wytycznymi branżowymi, na przykład z zaleceniami Polskiego Towarzystwa Fizjoterapii. Co ciekawe, sam prąd galwaniczny również wykazuje działanie biologiczne – poprawia ukrwienie, przyspiesza regenerację i działa przeciwbólowo, więc zabieg daje często podwójny efekt. Uczciwie mówiąc, to rozwiązanie bardzo często stosowane w gabinetach rehabilitacji i naprawdę daje widoczne rezultaty, jeśli jest dobrze przeprowadzone.

Pytanie 27

Z przedstawionej dokumentacji pamięci wynika że jest ona przeznaczona do

rodzaj pamięci : SO-DIMM

standard : DDR3-1333 (PC3-10600)

pojemność pojedynczego modułu : 4 GB

A. laptopów.
B. komputerów stacjonarnych.
C. serwerów.
D. dysków przenośnych.
W tym pytaniu kluczowa sprawa to rozpoznanie typu pamięci SO-DIMM. Ten rodzaj modułu jest stosowany praktycznie wyłącznie w laptopach i urządzeniach o ograniczonej przestrzeni, takich jak niektóre mini-PC czy komputery typu all-in-one, ale głównie właśnie w notebookach. Moduły SO-DIMM (Small Outline Dual In-line Memory Module) są znacznie krótsze od standardowych DIMM-ów, które znajdziesz w zwykłych komputerach stacjonarnych. Standard DDR3-1333 (PC3-10600) to już trochę starszy typ pamięci, ale wciąż spotykany w starszych laptopach – nowe korzystają najczęściej z DDR4 lub obecnie nawet DDR5, jednak długo przez lata DDR3 był powszechnym wyborem. Moim zdaniem, jeśli pracujesz przy serwisie, zawsze warto najpierw sprawdzić właśnie ten typ złącza i format, bo to pozwala łatwo uniknąć podstawowego błędu przy zamawianiu części. Co ciekawe, serwery i komputery stacjonarne wykorzystują standardowe DIMM-y, które są większe i mają inną konstrukcję mechaniczną. W dyskach przenośnych pamięć RAM w formie SO-DIMM w ogóle nie występuje, bo tam raczej stosuje się kości NAND Flash. W praktyce – zawsze, gdy widzisz SO-DIMM, myśl o laptopach. To taka branżowa podpowiedź, która często się sprawdza w codziennej pracy technika.

Pytanie 28

Przedstawione na rysunku i opisane w ramce narzędzie służy do ściągania izolacji

Stripper posiada trzy otwory. Pierwszy pozwala na ściągnięcie płaszcza 250 μm do 125 μm. Drugi otwór przeznaczony jest do ściągania powłoki 900 μm do płaszcza o średnicy 250 μm. Trzeci służy do ściągania powłoki z kabli o średnicy 2 mm ÷ 3 mm do ścisłej tuby o średnicy 900 μm.
Ilustracja do pytania
A. skrętki nieekranowanej.
B. skrętki ekranowanej.
C. kabli koncentrycznych.
D. kabli światłowodowych.
To narzędzie na zdjęciu to specjalny stripper do kabli światłowodowych. Moim zdaniem, to absolutna podstawa, jeżeli ktoś chce profesjonalnie przygotować włókno do spawania lub zakończeń. W praktyce chodzi o to, żeby bardzo precyzyjnie usunąć powłoki ochronne na różnych etapach: najpierw z płaszcza 250 μm do rdzenia 125 μm, potem z powłoki 900 μm, a w końcu z większej tuby 2-3 mm do tej właśnie powłoki 900 μm. Nie jest to zwykłe narzędzie do drutów czy przewodów miedzianych – tu liczy się każdy mikrometr, bo światłowód jest bardzo delikatny. Dobre standardy branżowe, np. TIA/EIA-568 czy zalecenia producentów spawarek światłowodowych, wręcz wymuszają stosowanie wyspecjalizowanych stripperów, żeby nie uszkodzić włókna i nie wprowadzić mikropęknięć. Takie narzędzie bardzo przyspiesza pracę, no i – z mojego doświadczenia – daje dużo większą powtarzalność efektów niż kombinowanie z uniwersalnymi ściągaczami. Warto pamiętać, że nawet niewidoczne gołym okiem uszkodzenia na powierzchni włókna mogą potem powodować ogromne straty sygnału czy nawet całkowite zerwanie transmisji. Dlatego inżynierowie telekomunikacji, światłowodowcy czy monterzy sieci FTTH traktują tego typu sprzęt jak podstawowe narzędzie pracy – i w sumie trudno się dziwić.

Pytanie 29

W tabeli przedstawiono fragment dokumentacji testera

Zakres±500 mm Hg 20 °C
Dokładność±1% odczytu + 0.5 mm Hg)
Zakres80, 94 bpm (synch. z EKG)
Dokładność sygnału±1%
Inwazyjne:
Statyczne ciśnienie-10, -5, 0, 20, 40, 50, 60, 80, 100, 150, 160, 200, 240, 250, 300, 320, 400 mm Hg
Dokładność±(1% zakresu ±1mm Hg)
or ±(2% nastawy + 2mm Hg)
Impedancja300 Ohm (±10% dokładności)
Czułość5 do 40 μV/V/mm Hg
A. pompy infuzyjnej.
B. defibrylatora.
C. pulsoksymetru.
D. ciśnieniomierza.
Analizując przedstawioną tabelę, widać wyraźnie, że dotyczy ona urządzenia mierzącego ciśnienie, a konkretnie ciśnieniomierza. Pojawia się tu kilka bardzo charakterystycznych wskaźników, takich jak zakres ciśnień podany w milimetrach słupa rtęci (mm Hg), dokładność pomiaru ciśnienia, wartości statycznych ciśnień oraz czułość wyrażona w μV/V/mm Hg. To są typowe parametry, które znajdziesz w technicznej dokumentacji ciśnieniomierzy – zarówno tych mechanicznych, jak i elektronicznych, zwłaszcza używanych w medycynie. Warto zwrócić uwagę na zakres – ±500 mm Hg – urządzenia te muszą być bardzo precyzyjne, bo od dokładności pomiaru ciśnienia zależy diagnostyka i terapia pacjenta (zarówno w warunkach szpitalnych, jak i domowych). Moim zdaniem, najważniejsze jest tu wskazanie inwazyjnych pomiarów, synchronizacji z EKG oraz specyfikacji dotyczącej impedancji i czułości – to typowe dla zaawansowanych ciśnieniomierzy, stosowanych np. na oddziałach intensywnej terapii. Standardy, takie jak IEC 80601-2-30, jasno określają wymagania dotyczące dokładności i bezpieczeństwa tego typu sprzętu. W codziennej praktyce technika medycznego często trzeba analizować właśnie takie tabele, żeby ocenić, czy dany ciśnieniomierz spełnia wymagania dla konkretnego zastosowania klinicznego. Warto też zauważyć, że parametry w tabeli nie mają nic wspólnego z typowymi wartościami dla pomp infuzyjnych, pulsoksymetrów czy defibrylatorów – te urządzenia mają zupełnie inne specyfikacje.

Pytanie 30

Na rysunku przedstawiono przyrząd, którym przeprowadza się test i kontrolę

Ilustracja do pytania
A. aparatu EKG.
B. fotometru.
C. defibrylatora.
D. oscyloskopu.
Sprzęt widoczny na zdjęciu to tzw. defibrylator analyzer, czyli urządzenie do testowania i kontroli defibrylatorów. Takie przyrządy są używane w serwisach medycznych oraz przez techników odpowiedzialnych za bezpieczeństwo sprzętu medycznego w szpitalach. Moim zdaniem, znajomość działania tego typu analizatorów jest kluczowa dla każdego, kto zajmuje się diagnostyką i konserwacją aparatury medycznej, bo defibrylatory muszą być regularnie sprawdzane pod kątem poprawności wydawanej energii, czasu ładowania czy prawidłowości wyzwolenia impulsu. To zdecydowanie nie jest temat teoretyczny, bo od jakości tych testów zależy zdrowie, a często nawet życie pacjentów. Dobre praktyki branżowe (np. IEC 60601-2-4) nakazują regularne sprawdzanie defibrylatorów właśnie takim specjalistycznym sprzętem. Analizator pozwala symulować różne scenariusze i rejestrować, czy defibrylator działa zgodnie ze specyfikacją. W praktyce testuje się nie tylko energię impulsów, ale też parametry czasowe i bezpieczeństwo wyładowania. Z mojego doświadczenia – ten przyrząd to podstawa kontroli jakości w każdej placówce medycznej.

Pytanie 31

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. liczbie bitów do odczytu.
B. milisekundach.
C. liczbie cykli zegara.
D. sekundach.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 32

Zapis w dokumentacji technicznej elektrokardiografu określający V1, V2, …V6 dotyczy odprowadzeń

A. Wilsona
B. Einthovena
C. Dawesa
D. Goldbergera
Oznaczenia V1, V2, …V6 w dokumentacji technicznej elektrokardiografu dotyczą tzw. odprowadzeń przedsercowych, inaczej zwanych jednobiegunowymi odprowadzeniami Wilsona. To właśnie Wilson opracował te odprowadzenia, które rejestrują potencjały elektryczne bezpośrednio z powierzchni klatki piersiowej, co pozwala na bardzo precyzyjną lokalizację zmian w mięśniu sercowym, np. podczas zawału czy niedokrwienia. W praktyce, odprowadzenia V1–V6 są obowiązkowym elementem standardowego 12-odprowadzeniowego EKG, według wytycznych Europejskiego Towarzystwa Kardiologicznego. Moim zdaniem, bez tych odprowadzeń trudno byłoby wykryć subtelne zaburzenia przewodzenia albo zidentyfikować zmiany w konkretnych segmentach mięśnia sercowego. Osobiście spotkałem się z przypadkami, gdzie tylko dzięki analizie V4 czy V5 udawało się wyłapać początkowe stadium świeżego zawału. Ciekawostką jest, że rozmieszczenie tych elektrod na klatce piersiowej jest ściśle określone – np. V1 przy prawym brzegu mostka, V4 w linii środkowo-obojczykowej. W codziennej pracy medycznej, prawidłowe podpięcie tych odprowadzeń to podstawa rzetelnej diagnostyki elektrokardiograficznej. Trochę nudne, ale taka jest praktyka. Warto zapamiętać, że ani Einthoven, ani Goldberger, ani Dawes nie są autorami tej koncepcji – ich odprowadzenia mają zupełnie inne oznaczenia i zastosowania.

Pytanie 33

Zapis w dokumentacji kardiotokografu „prezentacja sygnału FHR” dotyczy

A. częstości uderzeń serca matki.
B. aktywności ruchowej płodu.
C. czynności skurczowej macicy.
D. częstości uderzeń serca płodu.
Zapis „prezentacja sygnału FHR” w dokumentacji kardiotokografu odnosi się wyłącznie do monitorowania częstości uderzeń serca płodu, czyli tzw. fetal heart rate (FHR). To właśnie serce dziecka jest tutaj kluczowe, bo od oceny tego sygnału zależy wykrywanie zagrożeń i podejmowanie decyzji klinicznych. Moim zdaniem znajomość tego pojęcia powinna być absolutnym minimum każdego, kto ma styczność z monitorowaniem przebiegu ciąży, zwłaszcza w sytuacjach okołoporodowych. Sygnał FHR uzyskuje się przez przyłożenie specjalnej głowicy do brzucha matki, co pozwala na stałą obserwację rytmu serca płodu – zarówno podczas ciąży, jak i przy porodzie. W praktyce, jeśli lekarz lub położna widzi zapis FHR na monitorze, od razu wie, czy dziecko nie wykazuje cech niedotlenienia albo innych nieprawidłowości. Standardy Polskiego Towarzystwa Ginekologów i Położników oraz zalecenia WHO nie pozostawiają wątpliwości: prawidłowa interpretacja sygnału FHR to podstawa skutecznego nadzoru nad dobrostanem płodu. Z mojego doświadczenia wynika, że umiejętność rozróżnienia FHR od innych parametrów (np. czynność skurczowa macicy czy puls matki) znacząco poprawia jakość opieki i minimalizuje ryzyko powikłań. Bardzo często w praktyce klinicznej spotykam się z sytuacjami, gdy szybka reakcja na niepokojący sygnał FHR pozwoliła uchronić dziecko przed poważnymi konsekwencjami.

Pytanie 34

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. EXT4
B. FAT32
C. FAT16
D. NTFS
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 35

Podczas tworzenia tabeli w bazie danych klucz podstawowy określa się jako

A. PRIMERY KEY
B. UNIQUE
C. NOT NULL
D. DISTINCT
Klucz podstawowy, czyli primary key, to absolutna podstawa przy projektowaniu bazy danych. Dzięki niemu każda tabela ma gwarancję unikalności i niepowtarzalności każdego rekordu. Gdy piszesz CREATE TABLE w SQL, zawsze warto pamiętać o dodaniu PRIMARY KEY do jednej lub kilku kolumn (najczęściej jednej), żeby baza mogła szybko i jednoznacznie rozpoznawać każdy wiersz. Bez tego łatwo o bałagan, dublowanie danych i późniejsze trudności z operacjami typu UPDATE czy DELETE – szczególnie przy większych projektach, gdzie identyfikacja rekordu bez klucza podstawowego robi się naprawdę problematyczna. W praktyce, jak np. tworzysz tabele użytkowników, bardzo często pole 'id' ustawiasz właśnie jako PRIMARY KEY, najlepiej jeszcze z AUTO_INCREMENT, żeby nie martwić się o ręczne nadawanie kolejnych numerów. Warto wiedzieć, że standard SQL narzuca, by kolumny klucza podstawowego były zawsze NOT NULL, czyli nie mogą mieć pustych wartości, co jest logiczne – identyfikator ma być zawsze, bez wyjątków. Z mojego doświadczenia wynika, że ignorowanie tego wymogu źle się kończy, dlatego zawsze warto pilnować dobrych praktyk i nie kombinować z „obejściami”. PRIMARY KEY to nie tylko formalność, ale podstawa efektywnego wyszukiwania i bezpieczeństwa integralności danych. Gdyby nie primary key, nie byłoby np. relacji między tabelami czy sensownych JOIN-ów. Moim zdaniem to jedno z najważniejszych poleceń do zapamiętania przy SQL-u!

Pytanie 36

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. PACS
B. WLAN
C. LZW
D. VPN
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.

Pytanie 37

Który z przedstawionych przyrządów służy do testowania połączeń w sieci LAN?

A. Przyrząd 2
Ilustracja do odpowiedzi A
B. Przyrząd 3
Ilustracja do odpowiedzi B
C. Przyrząd 1
Ilustracja do odpowiedzi C
D. Przyrząd 4
Ilustracja do odpowiedzi D
Przyrząd numer 4 to tzw. tester kabli sieciowych, popularnie nazywany testerem LAN lub testerem RJ-45. To urządzenie jest projektowane specjalnie do sprawdzania połączeń w przewodach sieciowych typu skrętka, którymi łączone są komputery, switche czy routery w sieci lokalnej. Tester taki pozwala sprawdzić, czy każda z żył w przewodzie jest poprawnie połączona od początku do końca – czyli czy nie ma przerw, zwarć albo błędnych zamian kolorów. W praktyce, kiedy zarabiasz końcówki RJ-45, taki tester puszczasz po kablu i od razu widzisz na diodach, czy wszystko styka. Moim zdaniem nie da się dobrze robić instalacji sieciowych bez czegoś takiego – to podstawa narzędziowa każdego technika sieciowego. Branżowe standardy (np. ANSI/TIA-568) wyraźnie zalecają testowanie każdej instalacji przed oddaniem jej do użytku właśnie za pomocą testera kabli. Co ciekawe, niektóre zaawansowane testery potrafią od razu wskazać miejsce uszkodzenia albo długość kabla. Warto pamiętać, że testery tego typu nie nadają się do pomiarów napięcia czy prądu, a skupiają się wyłącznie na poprawności połączeń logicznych, co w sieciach komputerowych jest najważniejsze. Jeśli chcesz być pewien, że twoja sieć LAN jest solidnie zrobiona i pozbawiona błędów, użycie testera to absolutna konieczność.

Pytanie 38

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. UPDATE
B. INSERT
C. ALTER
D. SELECT
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 39

Aby karta sieciowa automatycznie uzyskiwała adres IP, ruter musi mieć włączony serwer

Ilustracja do pytania
A. TCP/IP
B. DHCP
C. SSH
D. SMTP
Odpowiedź DHCP jest jak najbardziej trafiona, bo to właśnie Dynamic Host Configuration Protocol odpowiada za automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Moim zdaniem, to ogromne ułatwienie, zwłaszcza gdy w sieci mamy kilkanaście czy kilkadziesiąt urządzeń – ręczne wpisywanie adresów IP byłoby uciążliwe, a przy tym łatwo o pomyłki. DHCP działa na zasadzie wynajmowania adresów IP na określony czas, czyli tzw. dzierżawy (lease). Dzięki temu urządzenia połączone z siecią „dogadują się” z serwerem DHCP – najczęściej właśnie routerem – i otrzymują wszystkie niezbędne dane: IP, maskę podsieci, bramę domyślną, a nawet adresy DNS. To jest zgodne z zaleceniami m.in. RFC 2131, gdzie znajdziesz opis standardu. W praktyce, niemal każdy nowoczesny router domowy czy firmowy ma opcję serwera DHCP włączoną domyślnie. Co ciekawe, dobrze skonfigurowany DHCP pozwala też na rezerwacje adresów IP dla określonych urządzeń, co pomaga np. w zarządzaniu drukarkami sieciowymi albo serwerami. Z mojego doświadczenia wynika, że bez DHCP w większych sieciach często dochodzi do konfliktów adresów lub zwyczajnego bałaganu. Dlatego zdecydowanie warto znać tę usługę, bo jej prawidłowa konfiguracja to podstawa pracy administratora sieci.

Pytanie 40

Na rysunku przedstawiono urządzenie z dodatkową kartą pamięci. Który rodzaj karty może zostać zastosowany w urządzeniu?

Ilustracja do pytania
A. SIM
B. SD
C. Micro SIM
D. Micro SD
Wybrałeś micro SD i to jest trafiony wybór, bo właśnie takie karty są najczęściej stosowane w urządzeniach przenośnych, jak smartfony, tablety czy aparaty cyfrowe. Z mojego doświadczenia wynika, że micro SD to taki złoty standard wśród rozszerzeń pamięci – są małe, pojemne i bardzo uniwersalne. Karty typu micro SD spełniają standardy SD Association, co gwarantuje kompatybilność z większością nowych urządzeń. W praktyce, pozwalają przechowywać zdjęcia, filmy, aplikacje czy nawet całe kopie zapasowe systemu. Warto wiedzieć, że dobre praktyki branżowe zalecają korzystanie z kart micro SD renomowanych producentów, bo podróbki potrafią sprawiać masę problemów – od utraty danych po uszkodzenie sprzętu. Współczesne karty micro SD obsługują różne klasy prędkości (np. UHS-I, UHS-II), a to ma spore znaczenie, jeśli pracujesz z nagraniami wideo w wysokiej rozdzielczości albo często przenosisz pliki. Moim zdaniem, jeśli ktoś myśli o rozbudowie pamięci, micro SD to przemyślany i elastyczny wybór, który daje sporo swobody, nie generując przy tym dużych kosztów. Niektórzy mylą pojęcia, bo sloty mogą wyglądać podobnie do slotów SIM, ale karty micro SD są dedykowane tylko do przechowywania danych, nie mają nic wspólnego z obsługą sieci GSM. Ważne też, żeby nie zapominać o bezpiecznym wyjmowaniu karty – to niby banał, ale niewłaściwe wyjmowanie może skutkować utratą plików. Takie szczegóły właśnie robią różnicę między amatorskim, a profesjonalnym podejściem do sprzętu.