Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 13 kwietnia 2026 12:14
  • Data zakończenia: 13 kwietnia 2026 12:16

Egzamin niezdany

Wynik: 2/40 punktów (5,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu— sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. renogramie.
B. elektrokardiogramie.
C. elektroencefalogramie.
D. scyntygramie.
Wiele osób myli elektroencefalogram z innymi badaniami, które również wykorzystują elektrody lub rejestrują sygnały z ciała, ale ich przeznaczenie jest zupełnie inne. Elektrokardiogram (EKG) służy do rejestrowania aktywności elektrycznej serca, czyli pozwala wykrywać zaburzenia rytmu, zawały czy inne choroby układu krążenia, ale absolutnie nie pokazuje pracy mózgu ani fal mózgowych – tu jest inny rodzaj sygnału, inna lokalizacja elektrod i całkiem inne parametry techniczne. Scyntygram to z kolei badanie izotopowe, w którym do organizmu wprowadza się radioznacznik, a potem kamera gamma rejestruje jego rozkład w tkankach, np. przy diagnostyce nowotworów czy chorób kości – tutaj nie chodzi o fale elektryczne, tylko promieniowanie i obrazowanie narządów. Renogram natomiast to szczególny rodzaj scyntygrafii, który koncentruje się na badaniu funkcji nerek, śledzi się jak radioznacznik jest filtrowany przez nerki, żeby ocenić ich wydolność. Każde z tych badań ma swoje miejsce w diagnostyce, ale tylko elektroencefalografia pozwala na analizę charakterystycznych fal mózgowych. Najczęstszy błąd to założenie, że skoro badanie ma w nazwie „elektro-”, to dotyczy automatycznie mózgu, a to nie jest prawda – istotny jest nie tylko sam sprzęt, ale i to, jaki narząd oraz jakie procesy rejestrujemy. Moim zdaniem warto dobrze zapamiętać te różnice, bo w praktyce zawodowej takie nieporozumienia mogą prowadzić do poważnych błędów diagnostycznych.

Pytanie 2

Technologia OLED znajduje zastosowanie w

A. monitorach komputerowych.
B. kartach pamięci Secure Digital.
C. urządzeniach sieciowych.
D. nagrywarkach Blu-Ray.
OLED, czyli Organic Light Emitting Diode, to technologia wyświetlania obrazu, która naprawdę zrewolucjonizowała rynek monitorów komputerowych i telewizorów. Zamiast wykorzystywać podświetlenie LED, jak w klasycznych LCD, OLED pozwala na bezpośrednie świecenie każdego piksela. To daje rewelacyjną głębię czerni, bo piksel po prostu się wyłącza – nie świeci, nie pobiera energii, nie przepuszcza światła. Z mojego punktu widzenia największy plus to właśnie kontrast: w OLED-ach czarne jest naprawdę czarne, a kolory są mega żywe. Gracze i graficy bardzo często wybierają monitory z OLED, bo oprócz jakości obrazu mają one szybki czas reakcji – ważne przy dynamicznych grach czy montażu wideo. Często słyszy się, że OLED to też mniejsze zużycie energii, przynajmniej przy wyświetlaniu ciemnych treści. W branży panuje opinia, że OLED wyznacza standard nowoczesnych monitorów premium. Są tu też pewne wyzwania, np. wypalanie się pikseli przy statycznych obrazach, ale w praktyce, przy normalnym użytkowaniu i nowych technologiach zarządzania obrazem, nie jest to aż tak problematyczne, jak się kiedyś mówiło. Z ciekawostek: OLED stosuje się już nawet w wyświetlaczach do samochodów i najnowszych smartfonach, ale to właśnie monitory komputerowe są przykładem, gdzie ta technologia daje naprawdę zauważalną różnicę na co dzień. Szczerze mówiąc, jak ktoś raz popatrzy na monitor OLED, to potem ciężko wrócić do zwykłego LCD. Warto o tym pamiętać, szukając sprzętu do pracy z grafiką czy do gier.

Pytanie 3

W sieci centralnego monitoringu zamontowane są gniazda przedstawione na rysunku. Jakiego typu wtykami muszą być zakończone kable?

Ilustracja do pytania
A. HDMI
B. DVI
C. RJ45
D. USB
Wybór innych typów złączy niż RJ45 do instalacji centralnego monitoringu jest jednym z częstszych nieporozumień wśród osób mniej doświadczonych w projektowaniu sieci niskoprądowych. Złącza USB kojarzą się z szybką transmisją danych, ale są projektowane do krótkich połączeń pomiędzy komputerem a urządzeniami peryferyjnymi, np. drukarką czy dyskiem zewnętrznym. Nie mają żadnego zastosowania w profesjonalnych instalacjach sieciowych — nie zapewniają stabilności i odległości, jakiej wymaga monitoring rozproszony w dużym obiekcie. Złącza DVI oraz HDMI to interfejsy stosowane głównie do przesyłu obrazu i dźwięku w systemach multimedialnych — świetnie sprawdzają się przy połączeniu monitora z komputerem lub telewizora z odtwarzaczem, ale kompletnie nie nadają się do budowania infrastruktury sieciowej, gdzie kluczowe są takie cechy jak niezawodność, skalowalność czy możliwość zdalnego zasilania urządzeń (PoE). Moim zdaniem, źródłem błędu jest tu pokutujące przekonanie, że każde gniazdo o prostokątnym kształcie to HDMI lub DVI, bo wygląda podobnie — a jednak różnice funkcjonalne są kolosalne. Praktyka pokazuje, że ignorowanie standardów sieciowych (np. TIA/EIA-568 dla Ethernetu) prowadzi do problemów z kompatybilnością i awariami. W branży monitoringu czy automatyki budynkowej zawsze warto stawiać na RJ45, bo to gwarancja stabilności i łatwości rozbudowy.

Pytanie 4

Zjawisko polegające na zmianie częstotliwości fali odbitej od poruszającego się obiektu jest wykorzystywane w

A. echokardiografii.
B. elektrokardiografii.
C. fonokardiografii.
D. angiografii.
Wiele osób myli pojęcia związane z diagnostyką kardiologiczną, bo nazwy bywają trochę podobne, a każdy z tych testów bada coś zupełnie innego i w innym zakresie wykorzystuje zjawiska fizyczne. Fonokardiografia polega na zapisie dźwięków pracy serca – wykorzystuje mikrofony i analizę akustyczną, ale nie ma tu nic wspólnego ze zmianą częstotliwości odbitej fali, czyli z efektem Dopplera. Elektrokardiografia z kolei to analiza zmian potencjałów elektrycznych wytwarzanych przez mięsień sercowy – tu mamy elektrody i rejestrację sygnałów bioelektrycznych, a nie fal ultradźwiękowych. Angiografia, choć brzmi dość technicznie, polega głównie na obrazowaniu naczyń krwionośnych po podaniu środka kontrastowego, zazwyczaj z użyciem promieniowania rentgenowskiego – nie wykorzystuje się tu ultradźwięków ani Dopplera. Typowym błędem jest utożsamianie wszystkich tych badań z jakimś „obrazowaniem serca”, a w rzeczywistości każde opiera się na zupełnie innych zasadach fizycznych. Z mojej perspektywy, najczęściej powtarzany błąd to przekonanie, że wszędzie gdzie jest „-grafia”, tam używa się fal ultradźwiękowych i efektu Dopplera, ale to nieprawda. Echokardiografia wyróżnia się tym, że daje zarówno obraz anatomiczny, jak i dynamiczny przepływów, i to właśnie dzięki zjawisku Dopplera, które jest zupełnie nieobecne w wymienionych pozostałych badaniach. Jeśli ktoś chce być pewny swojej wiedzy, dobrze jest zapamiętać, że tylko w diagnostyce ultradźwiękowej (zwłaszcza w badaniach serca i naczyń) analizuje się zmiany częstotliwości odbitej fali, bo tylko tam ma to praktyczny sens i realny wpływ na rozpoznanie chorób.

Pytanie 5

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Dziedziczenie.
B. Własność.
C. Metoda.
D. Obiekt.
W programowaniu obiektowym łatwo pomylić różne pojęcia, bo wszystko brzmi trochę jakby z jednej półki. Często spotykam się z sytuacją, że ktoś myli dziedziczenie, własności albo metody z obiektami, bo w końcu wszystkie te słowa są używane niemal w każdej rozmowie o „obiektówce”. Dziedziczenie jest mechanizmem pozwalającym jednej klasie przejąć cechy innej, czyli na przykład klasa „SamochódElektryczny” dziedziczy po klasie „Samochód” i oprócz podstawowych właściwości może mieć własne, specyficzne metody czy pola. Ale dziedziczenie to nie to samo, co instancja klasy – to raczej sposób organizacji kodu i ułatwienia sobie życia przez ponowne wykorzystanie już napisanego kodu. Z kolei własność (w języku angielskim częściej „property” lub „atrybut”) to pojedyncza cecha obiektu, na przykład kolor samochodu czy liczba drzwi – ale sama własność to jeszcze nie cały obiekt, tylko jego część. Metoda natomiast to funkcja zdefiniowana w klasie, która określa, co obiekt może zrobić, np. „przyspiesz” albo „włącz światła”. Taki sposób myślenia, w którym miesza się pojęcia typu metoda czy własność z obiektem, prowadzi do nieporozumień i błędnego rozumienia, jak działa programowanie obiektowe. Z mojego punktu widzenia, tego typu zamieszanie bierze się stąd, że na początku nauki łatwo zauważyć te pojęcia na przykładach, ale dużo trudniej zobaczyć ich relacje. Instancją klasy, czyli czymś, co powstaje na podstawie szablonu, jest zawsze obiekt – to on żyje w pamięci w czasie działania programu, ma swoje własne właściwości i korzysta z metod. Każda inna koncepcja to tylko część składowa albo mechanizm współistniejący z istnieniem obiektu, ale nigdy nie jest samodzielną instancją klasy. Rozpoznanie tej granicy to ważny krok do skutecznego programowania w paradygmacie obiektowym.

Pytanie 6

Moduł EKG do badań wysiłkowych został wyposażony w interfejs Bluetooth w celu przesyłania wyników badań. Aby połączyć moduł z stanowiskiem komputerowym, należy wybrać interfejs oznaczony symbolem

A. Symbol 1
Ilustracja do odpowiedzi A
B. Symbol 4
Ilustracja do odpowiedzi B
C. Symbol 3
Ilustracja do odpowiedzi C
D. Symbol 2
Ilustracja do odpowiedzi D
Symbol, który wybrałeś, to oficjalny znak Bluetooth – technologii bezprzewodowej, która umożliwia przesyłanie danych na krótkie odległości, np. między modułem EKG a komputerem. Ten symbol można spotkać praktycznie wszędzie, gdzie mamy do czynienia z łącznością Bluetooth, czyli chociażby w słuchawkach bezprzewodowych, myszkach komputerowych czy sprzęcie medycznym. W przypadku EKG, Bluetooth jest o tyle fajny, że pozwala na szybkie i wygodne przesyłanie wyników bez kabli, co według mnie bardzo ułatwia pracę w gabinecie czy laboratorium. Standard Bluetooth jest szeroko akceptowany w medycynie, bo spełnia określone normy bezpieczeństwa transmisji – oczywiście pod warunkiem odpowiedniego szyfrowania i konfiguracji urządzenia. Z doświadczenia wiem, że większość nowoczesnych systemów diagnostyki korzysta z tego standardu, bo jest po prostu praktyczny i uniwersalny. Jeżeli jeszcze nie miałeś okazji – polecam poćwiczyć parowanie urządzeń przez Bluetooth, bo w praktyce nieraz zdarza się, że trzeba szybko rozwiązać jakiś problem z łącznością. Tak na marginesie, warto wiedzieć, że Bluetooth działa na paśmie 2,4 GHz i ma różne klasy zasięgu – to czasem ma znaczenie przy rozmieszczeniu sprzętu w pracowni. Dla mnie wybór tego interfejsu to oczywista sprawa, patrząc na wygodę, szybkość i bezpieczeństwo transmisji danych.

Pytanie 7

W celu archiwizacji danych w systemie Linux wymagane jest utworzenie archiwum. Korzystając z zamieszczonej w ramce pomocy dobierz odpowiednie polecenie.

-c, --createutworzenie nowego archiwum
-z, --gzipfiltrowanie archiwum przez gzip
-v, --verbosewypisywanie szczegółów o przetwarzanych plikach
-f, --file=ARCHIWUMużycie pliku lub urządzenia ARCHIWUM
-x, --extractrozpakowanie plików z archiwum
-t, --listwypisanie zawartości archiwum
-r, --appenddołączenie plików na końcu archiwum
-u, --updatedołączenie tylko plików nowszych niż kopie w archiwum
A. tar – xvf
B. tar – cvf
C. tar – rvf
D. tar – tvf

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Polecenie tar –cvf to absolutna podstawa, jeśli chodzi o archiwizację danych w systemach Linux. Flaga -c, jak pokazuje tabela pomocy, oznacza utworzenie nowego archiwum, a -v pozwala na obserwowanie, co dokładnie jest do niego dodawane – co, moim zdaniem, bywa przydatne, zwłaszcza gdy pracujesz z większą liczbą plików i chcesz mieć szybki podgląd postępu. Opcja -f wskazuje miejsce docelowe archiwum, czyli nazwę pliku (na przykład backup.tar). Bardzo często w praktyce dodaje się też -z do kompresji przez gzip, czyli tar -czvf, co pozwala mocno zmniejszyć rozmiar archiwum. Warto przyjąć zasadę, żeby zawsze jasno nazywać pliki wynikowe i trzymać się ustalonych konwencji nazewnictwa, bo potem łatwiej znaleźć archiwum wśród setek innych plików. Z mojego doświadczenia archiwizacja przez tar to nie tylko backupy – sporo administratorów korzysta z tej metody do migracji środowisk, przenoszenia całych katalogów konfiguracyjnych czy nawet przygotowywania snapshotów aplikacji na serwerach produkcyjnych. Dobrą praktyką jest też testowanie potem archiwum przez tar -tvf, żeby sprawdzić, czy wszystko się poprawnie zapisało. Ogólnie, polecenie tar –cvf to żelazny standard i aż dziw bierze, jak często ktoś się myli, bo nie do końca rozumie, co oznacza każda flaga – choć to przecież fundamenty pracy w Linuxie.

Pytanie 8

Zaćma fotochemiczna jest wywoływana promieniowaniem

A. UV-A
B. UV-B
C. VIS
D. IR-C

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zaćma fotochemiczna to taki typ uszkodzenia soczewki oka, który jest wywoływany przez długotrwałe lub intensywne narażenie na promieniowanie ultrafioletowe, głównie w zakresie UV-A. To właśnie ten zakres fal elektromagnetycznych (320–400 nm) przenika najgłębiej do oka i może powodować zmiany w strukturze białek soczewki, prowadząc do jej zmętnienia. Stosunkowo mało osób zdaje sobie sprawę, że zwykłe przebywanie na słońcu bez odpowiedniej ochrony oczu przez wiele lat, nawet poza tropikami, może wywołać takie zmiany. W praktyce zawodowej, na przykład w branży spawania czy pracy w laboratoriach, stosuje się specjalne okulary ochronne, które blokują UV-A, bo właśnie to pasmo jest najbardziej podstępne – nie czujemy go, a uszkodzenia pojawiają się powoli. Zgodnie z zaleceniami BHP oraz wytycznymi międzynarodowymi (np. normy EN 166, EN 170) ochrona oczu przed UV-A jest uznawana za absolutny standard. Moim zdaniem, warto też wiedzieć, że UV-B ma bardziej powierzchniowe działanie i powoduje głównie oparzenia rogówki, natomiast UV-A dociera głębiej. Wielu okulistów zwraca uwagę, że świadomość tej zależności pozwala lepiej dbać o wzrok – dobre okulary przeciwsłoneczne powinny mieć filtr UV-A, nie tylko UV-B. Ja zawsze staram się wybierać takie, które wyraźnie mają oznaczenie 100% UV, bo to daje największe bezpieczeństwo. Warto to zapamiętać, szczególnie jeśli pracujesz dużo na zewnątrz albo wykonujesz prace w warunkach dużej ekspozycji na światło.

Pytanie 9

Podczas tworzenia tabeli w bazie danych klucz podstawowy określa się jako

A. DISTINCT
B. PRIMERY KEY
C. NOT NULL
D. UNIQUE

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Klucz podstawowy, czyli primary key, to absolutna podstawa przy projektowaniu bazy danych. Dzięki niemu każda tabela ma gwarancję unikalności i niepowtarzalności każdego rekordu. Gdy piszesz CREATE TABLE w SQL, zawsze warto pamiętać o dodaniu PRIMARY KEY do jednej lub kilku kolumn (najczęściej jednej), żeby baza mogła szybko i jednoznacznie rozpoznawać każdy wiersz. Bez tego łatwo o bałagan, dublowanie danych i późniejsze trudności z operacjami typu UPDATE czy DELETE – szczególnie przy większych projektach, gdzie identyfikacja rekordu bez klucza podstawowego robi się naprawdę problematyczna. W praktyce, jak np. tworzysz tabele użytkowników, bardzo często pole 'id' ustawiasz właśnie jako PRIMARY KEY, najlepiej jeszcze z AUTO_INCREMENT, żeby nie martwić się o ręczne nadawanie kolejnych numerów. Warto wiedzieć, że standard SQL narzuca, by kolumny klucza podstawowego były zawsze NOT NULL, czyli nie mogą mieć pustych wartości, co jest logiczne – identyfikator ma być zawsze, bez wyjątków. Z mojego doświadczenia wynika, że ignorowanie tego wymogu źle się kończy, dlatego zawsze warto pilnować dobrych praktyk i nie kombinować z „obejściami”. PRIMARY KEY to nie tylko formalność, ale podstawa efektywnego wyszukiwania i bezpieczeństwa integralności danych. Gdyby nie primary key, nie byłoby np. relacji między tabelami czy sensownych JOIN-ów. Moim zdaniem to jedno z najważniejszych poleceń do zapamiętania przy SQL-u!

Pytanie 10

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. półotwartym.
B. płaskim.
C. oczkowym.
D. dynamometrycznym.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Klucz dynamometryczny to narzędzie, które pozwala z bardzo dużą precyzją dokręcić śrubę z określoną siłą, czyli tzw. momentem obrotowym. W tym przypadku chodzi o 6 Nm – i to naprawdę nie jest przypadkowa wartość, tylko często podana przez producenta po to, żeby wszystkie połączenia trzymały się jak należy, ale jednocześnie nie były przeciążone. Moim zdaniem, właśnie taki klucz powinien być podstawowym wyposażeniem każdego warsztatu, niezależnie od tego, czy robisz przy rowerach, motocyklach, czy w poważniejszej mechanice. Przykładowo, w serwisie rowerowym, gdy dokręcasz śruby mostka kierownicy lub karbonowej sztycy, naprawdę nie warto ryzykować – za mocno i można uszkodzić część, za słabo i coś się może rozluźnić podczas jazdy. Z mojego doświadczenia wynika, że profesjonalne instrukcje montażowe (nie tylko w branży motoryzacyjnej czy rowerowej, ale też np. hydraulicznej) zawsze odnoszą się do ściśle określonych momentów. Właściwe użycie klucza dynamometrycznego to bezpieczeństwo i powtarzalność montażu, a także eliminacja typowych błędów związanych z "na czuja". Czasem ktoś powie, że wystarczy "dokręcić mocno", ale to bardzo złudne – stal, aluminium czy kompozyty mają swoje ograniczenia. Warto też pamiętać, że takie narzędzia mają skalę (często nawet dwie: Nm i ft-lb), a porządny warsztat zawsze je kalibruje raz na jakiś czas, bo precyzja jest tu kluczowa.

Pytanie 11

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Naścienny.
B. Na listwie zaciskowej.
C. Na szynie TH-35.
D. Podtynkowy.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
System montażu na szynie TH-35, zwanej też często „szyną DIN”, jest absolutnym standardem w rozdzielnicach elektrycznych i automatyce przemysłowej. Na zdjęciu wyraźnie widać urządzenia zamocowane na charakterystycznej, metalowej listwie o przekroju 35 mm – to właśnie ta szyna. Pozwala ona bardzo wygodnie instalować modułowe urządzenia takie jak wyłączniki nadprądowe, przekaźniki, zasilacze czy nawet sterowniki PLC. Z mojego doświadczenia wynika, że szyna DIN znacząco przyspiesza montaż oraz ewentualną wymianę komponentów – nie trzeba tu żadnych śrub, tylko zatrzaski. W przypadku serwisowania czy rozbudowy instalacji to ogromna zaleta, bo wystarczy kilka sekund, żeby coś wymienić. W branży bardzo ceni się to rozwiązanie za uniwersalność. Co ciekawe, standard TH-35 został uregulowany normą IEC 60715, a jego stosowanie gwarantuje kompatybilność różnych producentów. Gdybyś chciał tworzyć rozdzielnice czy panele sterownicze zgodnie z aktualnymi przepisami i dobrymi praktykami, szyna TH-35 to właściwie jedyna słuszna droga. Spotkasz ją w niemal każdej szafie rozdzielczej – od prostych układów domowych po skomplikowane systemy przemysłowe. Takie podejście zapewnia nie tylko porządek, ale też bezpieczeństwo i estetykę całej instalacji.

Pytanie 12

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. oddechu.
B. ciśnienia krwi.
C. EKG.
D. EEG.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Oscylometryczna metoda pomiaru to w praktyce najpowszechniejszy sposób monitorowania ciśnienia tętniczego krwi, szczególnie w nowoczesnych rejestratorach holterowskich. Działa to tak, że mankiet automatycznie napompowuje się i stopniowo spuszcza powietrze, a urządzenie rejestruje zmiany ciśnienia wywołane przepływem krwi przez tętnicę (zwykle ramienną). Algorytmy analizują te oscylacje i wyznaczają wartości skurczowego oraz rozkurczowego ciśnienia krwi. To jest mega wygodne, bo pacjent nie musi być stale pod nadzorem personelu medycznego – pomiar odbywa się automatycznie, nawet w nocy. W porównaniu ze starszymi, manualnymi metodami Korotkowa, oscylometria jest mniej zależna od operatora i daje spójniejsze wyniki przy długotrwałym monitoringu. W branży to już właściwie standard, jeśli chodzi o 24-godzinny Holter ciśnienia (ABPM). Takie zapisy są bardzo cenne np. przy potwierdzaniu nadciśnienia czy ocenie skuteczności leczenia farmakologicznego. Z mojego doświadczenia wynika, że w praktyce klinicznej zapis „metoda pomiaru – oscylometryczna” niemal zawsze oznacza, że można śledzić zmiany ciśnienia przez całą dobę – nie dotyczy to ani EKG, ani EEG, ani oddechu. Warto znać te różnice, bo czasami dokumentacja techniczna urządzenia może być trochę zagmatwana, a rozpoznanie tej metody pozwala uniknąć nieporozumień w pracy z pacjentem.

Pytanie 13

Zapis w dokumentacji technicznej elektrokardiografu określający V1, V2, …V6 dotyczy odprowadzeń

A. Goldbergera
B. Wilsona
C. Einthovena
D. Dawesa

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Oznaczenia V1, V2, …V6 w dokumentacji technicznej elektrokardiografu dotyczą tzw. odprowadzeń przedsercowych, inaczej zwanych jednobiegunowymi odprowadzeniami Wilsona. To właśnie Wilson opracował te odprowadzenia, które rejestrują potencjały elektryczne bezpośrednio z powierzchni klatki piersiowej, co pozwala na bardzo precyzyjną lokalizację zmian w mięśniu sercowym, np. podczas zawału czy niedokrwienia. W praktyce, odprowadzenia V1–V6 są obowiązkowym elementem standardowego 12-odprowadzeniowego EKG, według wytycznych Europejskiego Towarzystwa Kardiologicznego. Moim zdaniem, bez tych odprowadzeń trudno byłoby wykryć subtelne zaburzenia przewodzenia albo zidentyfikować zmiany w konkretnych segmentach mięśnia sercowego. Osobiście spotkałem się z przypadkami, gdzie tylko dzięki analizie V4 czy V5 udawało się wyłapać początkowe stadium świeżego zawału. Ciekawostką jest, że rozmieszczenie tych elektrod na klatce piersiowej jest ściśle określone – np. V1 przy prawym brzegu mostka, V4 w linii środkowo-obojczykowej. W codziennej pracy medycznej, prawidłowe podpięcie tych odprowadzeń to podstawa rzetelnej diagnostyki elektrokardiograficznej. Trochę nudne, ale taka jest praktyka. Warto zapamiętać, że ani Einthoven, ani Goldberger, ani Dawes nie są autorami tej koncepcji – ich odprowadzenia mają zupełnie inne oznaczenia i zastosowania.

Pytanie 14

Ile elektrod wykorzystuje się podczas wykonywania standardowego badania EKG przy pomocy 12 odprowadzeń?

A. 24
B. 13
C. 10
D. 15

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Standardowe badanie EKG w 12 odprowadzeniach faktycznie wymaga użycia 10 elektrod. Sześć z nich umieszcza się na klatce piersiowej (przedsercowe, czyli V1-V6), a kolejne cztery stanowią elektrody kończynowe – po jednej na każdym z kończyn: prawe ramię, lewe ramię, prawa noga i lewa noga. Co ciekawe, mimo że odprowadzeń jest dwanaście, nie oznacza to, że tyle samo musi być elektrod. To, jakby nie patrzeć, jeden z częstszych błędów na praktykach – wiele osób myśli, że liczba odprowadzeń równa się ilości elektrod. W praktyce to właśnie z tych dziesięciu punktów pomiarowych aparat generuje 12 różnych odprowadzeń, korzystając z kombinacji sygnałów między elektrodami. Można to porównać trochę do matematycznych kombinacji – z tych kilku punktów zbiera się bardzo rozbudowaną informację o pracy serca z różnych stron. Takie postępowanie opisują wytyczne Polskiego Towarzystwa Kardiologicznego oraz międzynarodowe standardy, np. American Heart Association, więc dobrze się tego trzymać. Moim zdaniem warto od razu zapamiętać rozmieszczenie elektrod – nie tylko dla testów, ale w praktyce zawodowej to podstawa bezpiecznego i prawidłowego wykonania badania EKG. Z mojego doświadczenia, im więcej się ćwiczy takie układanie elektrod, tym szybciej i sprawniej idzie potem w codziennej pracy. Na marginesie: czasem spotyka się systemy z większą liczbą elektrod, np. do monitorowania Holtera albo badań bardziej zaawansowanych, ale klasyczny 12-odprowadzeniowy EKG to zawsze 10 elektrod – i tego warto się trzymać.

Pytanie 15

Urządzenie, którego dotyczy fragment podanej specyfikacji, jest przystosowane do

■ Architektura sieci LAN:Wireless IEEE 802.11ac, Wireless IEEE 802.11a, Wireless IEEE 802.11b, Wireless IEEE 802.11g, Wireless IEEE 802.11n
■ Dodatkowe informacje:PoE, RJ-45 Serial
■ Typ urządzenia:Bezprzewodowy kontroler
■ Typ złącza anteny zewnętrznej:3x3 MIMO
A. korzystania z pojedynczego przewodu do transmisji danych i zasilania urządzenia.
B. wymiany danych z wykorzystaniem technologii Bluetooth.
C. pracy ze złączem światłowodowym.
D. parowania urządzeń przy pomocy standardu NFC.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje funkcjonalność opisanego urządzenia. W specyfikacji wyraźnie podano, że urządzenie obsługuje PoE (Power over Ethernet), a to jest właśnie technologia pozwalająca na jednoczesną transmisję danych oraz zasilanie poprzez jeden przewód Ethernetowy (RJ-45). Moim zdaniem to rozwiązanie jest bardzo praktyczne wszędzie tam, gdzie nie ma możliwości poprowadzenia osobnej instalacji elektrycznej, np. w biurach, na halach produkcyjnych czy w szkołach. W branży sieciowej PoE jest już właściwie standardem przy wdrażaniu punktów dostępowych Wi-Fi, kamer IP czy telefonów VoIP. Dzięki temu ogranicza się liczbę przewodów, zmniejsza ryzyko błędów instalacyjnych oraz obniża koszty całej infrastruktury. Warto też dodać, że PoE ma różne warianty (np. PoE, PoE+, PoE++), które różnią się mocą dostarczaną do urządzenia. Oprócz wygody, PoE daje też większą elastyczność przy modernizacjach sieci – można łatwiej zmienić lokalizację urządzenia bez konieczności przekładania instalacji elektrycznej. Z mojego doświadczenia wynika, że jeśli dostajesz urządzenie z PoE i RJ-45, to praktycznie zawsze oznacza to możliwość transmisji danych oraz zasilania przez jeden przewód – i to jest właśnie kluczowa przewaga tej technologii nad bardziej tradycyjnymi rozwiązaniami.

Pytanie 16

Największą zdolność pochłaniania promieniowania rentgenowskiego o energii 60–160 keV wykazuje tkanka

A. mięśniowa.
B. tłuszczowa.
C. nerwowa.
D. kostna.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tkanka kostna rzeczywiście wykazuje największą zdolność pochłaniania promieniowania rentgenowskiego w zakresie energii 60–160 keV. Wynika to przede wszystkim z jej dużej gęstości oraz zawartości pierwiastków o wysokiej liczbie atomowej, jak wapń i fosfor. To właśnie dzięki temu kości na zdjęciach RTG są tak wyraźnie widoczne jako białe struktury – pochłaniają bardzo dużo promieniowania, które nie przechodzi przez nie do detektora. Moim zdaniem właśnie ta cecha jest jednym z kluczowych powodów, dla których badania radiologiczne są tak pomocne w diagnostyce złamań czy zmian zwyrodnieniowych. W praktyce radiologicznej zawsze zwraca się uwagę na kontrast tkanek – im większa różnica w pochłanianiu promieniowania, tym łatwiej wykryć zmiany patologiczne. Często też podczas planowania ekspozycji ustawiamy odpowiednie parametry energii lampy rentgenowskiej właśnie pod kątem uzyskania jak najlepszego obrazu kości. Standardy branżowe, np. zalecenia Polskiego Towarzystwa Radiologicznego, wyraźnie opisują, że energia promieniowania powinna być dobrana do badanej okolicy anatomicznej. Co ciekawe, w stomatologii czy ortopedii wykorzystuje się tę właściwość, żeby dokładniej ocenić stan mineralizacji kości, a nawet wykrywać bardzo drobne urazy. Z mojego doświadczenia wynika, że zrozumienie tej zasady ułatwia większość typowych zadań praktycznych związanych z obsługą aparatu RTG.

Pytanie 17

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. ALTER
B. UPDATE
C. SELECT
D. INSERT

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 18

W programowaniu obiektowym zmienne widoczne w ramach klasy oraz poza nią nazywane są

A. zastrzeżonymi.
B. publicznymi.
C. chronionymi.
D. pewnymi.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmienne publiczne, czyli takie, które są widoczne zarówno w ramach danej klasy, jak i poza nią, są podstawową koncepcją w programowaniu obiektowym. To głównie dzięki nim obiekty mogą komunikować się ze światem zewnętrznym – na przykład inne klasy mogą bezpośrednio odczytywać i modyfikować ich wartości. W praktyce często spotyka się publiczne pola w prostych strukturach danych, modelach DTO (Data Transfer Object) czy podczas szybkiego prototypowania. Jednocześnie warto zauważyć, że z punktu widzenia dobrych praktyk branżowych, dostęp publiczny powinien być wykorzystywany z umiarem. Zazwyczaj zaleca się stosowanie enkapsulacji oraz ukrywanie szczegółów implementacyjnych poprzez modyfikatory protected czy private, a udostępnianie danych na zewnątrz realizować przez metody dostępowe (gettery i settery). Niemniej jednak, czasem publiczne zmienne są wręcz niezbędne, na przykład w konstrukcjach typu struct w językach C++ czy C#. Sam fakt, że zmienna jest publiczna oznacza, że nie ma żadnego ograniczenia co do jej widoczności – każda klasa lub funkcja w projekcie może się do niej odwołać. Moim zdaniem, warto dobrze rozumieć ten mechanizm, bo można wtedy świadomie projektować interfejsy klas i decydować, kiedy rzeczywiście opłaca się odsłaniać dane dla innych części systemu. Podsumowując: jeśli coś ma być dostępne wszędzie, powinno być publiczne – i tyle. Resztę chowamy według potrzeb.

Pytanie 19

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. EEG
B. RTG
C. EKG
D. KTG

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zestaw widoczny na zdjęciu to klasyczny przykład testera aparatu KTG, czyli kardiotokografu. To takie urządzenie, które wykorzystuje się przede wszystkim na oddziałach położniczych i ginekologicznych do monitorowania czynności serca płodu oraz skurczów macicy u kobiety ciężarnej. Tego typu tester pozwala na przeprowadzenie okresowej kontroli sprawności kardiotokografów, żeby mieć pewność, że pomiary są wiarygodne i bezpieczne dla pacjentek. Sam kardiotokograf jest bardzo ważny w praktyce klinicznej, bo dzięki niemu personel medyczny może szybko wykryć ewentualne nieprawidłowości w przebiegu ciąży, co w ostateczności może ratować życie dziecka lub matki. Z mojego doświadczenia wynika, że regularna kalibracja i testowanie KTG to już podstawa w nowoczesnych szpitalach – nikt nie chce ryzykować pracy na niesprawdzonym sprzęcie. Zestawy testujące mają często wbudowane standardowe sygnały testowe zgodne z normami ISO i wymaganiami producentów urządzeń medycznych, przez co można dość łatwo potwierdzić, czy dany aparat działa poprawnie. Naprawdę, jeśli ktoś myśli o pracy w serwisie sprzętu medycznego, to musi znać takie zestawy na wylot i kojarzyć, do których typów urządzeń są przeznaczone, bo pomyłka tutaj może mieć przykre skutki praktyczne.

Pytanie 20

Do kruszenia kamieni w pęcherzu moczowym stosowane są fale

A. infradźwiękowe.
B. ultradźwiękowe.
C. ultrafioletowe.
D. radiowe.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Fale ultradźwiękowe to absolutna podstawa w nowoczesnym leczeniu kamicy pęcherza moczowego. Chodzi oczywiście o tzw. litotrypsję falą uderzeniową (z ang. ESWL), czyli procedurę wykorzystującą precyzyjnie skierowane fale ultradźwiękowe o wysokim natężeniu. Ich energia pozwala dosłownie rozbijać kamienie na drobne fragmenty, które potem naturalnie są usuwane z organizmu wraz z moczem. To rozwiązanie jest nieinwazyjne, co moim zdaniem jest ogromnym plusem – pacjent nie wymaga operacji, minimalizuje się ryzyko powikłań, a rekonwalescencja jest bardzo szybka. W praktyce często widzi się, że chorzy wracają do normalnej aktywności wręcz błyskawicznie. Uważam, że to technologia, która naprawdę pokazuje, jak medycyna potrafi sprytnie wykorzystać prawa fizyki. Warto też pamiętać, że ultradźwięki są szeroko stosowane nie tylko w urologii – np. diagnostyka USG czy leczenie przewlekłych schorzeń układu mięśniowego. Branżowe standardy zalecają stosowanie tej metody w przypadkach, gdy kamienie nie są zbyt duże ani zbyt twarde i nie zalegają w miejscach trudno dostępnych dla fali. Czasami litotrypsję łączy się z innymi technikami, ale ultradźwięki to taki pierwszy wybór. Z mojej perspektywy to naprawdę przełomowa metoda i warto ją dobrze rozumieć, bo coraz częściej pojawia się w praktyce klinicznej.

Pytanie 21

Kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. hub – ruter.
B. ruter – ruter.
C. przełącznik – ruter.
D. przełącznik – komputer.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
No i właśnie! Kabel krosowany (czyli tzw. cross-over) to specjalny rodzaj kabla ethernetowego, w którym niektóre pary przewodów są zamienione miejscami – dokładnie jak na tym schemacie, gdzie przewody 1 i 3 oraz 2 i 6 są skrzyżowane. Dzięki temu urządzenia tego samego typu, np. dwa routery, mogą się ze sobą bezpośrednio komunikować. Normalnie, router i komputer lub router i switch używają kabla prostego (straight-through), bo urządzenia mają różne funkcje portów – nadajnik trafia na odbiornik i na odwrót. Ale gdy dwa takie same urządzenia próbują się połączyć, oba wysyłają i odbierają na tych samych pinach, więc połączenie by nie zadziałało bez crossa. W codziennej praktyce, szczególnie kiedy pracujemy ze starszym sprzętem, taki kabel jest niezastąpiony przy testowaniu połączeń lub awaryjnym łączeniu dwóch routerów, switchy, czy nawet komputerów. Nowoczesne urządzenia często mają funkcję auto-MDI/MDIX, która automatycznie wykrywa rodzaj kabla i odpowiednio przełącza piny, ale w starszych sieciach krosowanie było po prostu koniecznością. Moim zdaniem, warto pamiętać o tej różnicy – to niby drobiazg, ale na kablach sieciowych wiele osób się wykłada, szczególnie jak sprzęt nie jest z tej samej epoki. Standardy opisujące te połączenia to na przykład TIA/EIA-568A i TIA/EIA-568B. Dobrą praktyką jest więc mieć w szufladzie przynajmniej jeden taki kabelek – bo nigdy nie wiadomo, kiedy się przyda.

Pytanie 22

Pod wpływem bodźca świetlnego, dźwiękowego lub czuciowego mózg generuje elektryczne potencjały wywołane rejestrowane przez

A. EOG
B. ERG
C. EEG
D. EKG

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Podanie, że EEG rejestruje potencjały wywołane generowane przez mózg pod wpływem bodźców, to naprawdę solidna odpowiedź. Elektroencefalografia (EEG) jest podstawowym narzędziem w neurofizjologii, pozwalającym obserwować zmiany elektryczne aktywności mózgu, szczególnie w odpowiedzi na bodźce świetlne, dźwiękowe czy czuciowe. W praktyce klinicznej i badawczej EEG wykorzystuje się przy diagnostyce padaczki, zaburzeń snu, czy nawet podczas oceny funkcji mózgu u pacjentów nieprzytomnych. Z mojego doświadczenia w laboratoriach EEG najważniejszym standardem jest stosowanie międzynarodowego układu 10-20 do rozmieszczania elektrod na czaszce – to podstawa, żeby pomiary były powtarzalne i porównywalne. Potencjały wywołane (ang. evoked potentials, EP) to konkretna część sygnału EEG – wyodrębnia się je przez wielokrotne powtarzanie bodźca i uśrednianie odpowiedzi, co pozwala wyłapać subtelne zmiany elektryczne układu nerwowego. To naprawdę ciekawe, jak wyraźnie można zobaczyć reakcję mózgu np. na błysk światła czy krótki dźwięk, a takie pomiary są dziś standardem nie tylko w neurologii, ale także w psychologii eksperymentalnej i medycynie pracy. Moim zdaniem warto umieć rozróżniać te techniki – na rynku pracy to ogromny atut, bo EEG z potencjałami wywołanymi jest wręcz codziennym narzędziem w wielu laboratoriach i szpitalach.

Pytanie 23

Technologia dual channel dotyczy pracy dwóch takich samych

A. pamięci RAM.
B. dysków twardych.
C. dysków SSD.
D. kart graficznych.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 24

Jaka jest prędkość przesuwu prezentowanego elektrokardiogramu, jeżeli zmierzona częstotliwość rytmu serca wynosi 60 uderzeń na minutę?

Ilustracja do pytania
A. 50 mm/s
B. 25 mm/s
C. 75 mm/s
D. 10 mm/s

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Poprawnie wskazana prędkość przesuwu papieru w tym przypadku to 50 mm/s. To się może wydawać nieco nietypowe, bo w większości standardowych badań EKG stosuje się prędkość 25 mm/s i to jest taka branżowa klasyka. Ale jeśli zobaczysz, że na prezentowanym zapisie dwie kolejne załamki R są oddalone od siebie dokładnie o 60 mm, to przy prędkości 50 mm/s oznacza to 1 sekundę odstępu, czyli 60 uderzeń serca na minutę. Moim zdaniem znajomość takich zależności bardzo się przydaje w praktyce, bo pozwala szybko i pewnie zinterpretować rytm serca i nie pomylić się przy obliczeniach. Z mojego doświadczenia – czasami na oddziale spotkasz się z zapisem na przyspieszonym przesuwie, bo ułatwia to analizę szczegółów EKG, zwłaszcza u dzieci czy u pacjentów z bardzo szybką akcją serca. Wiedza o tym, jak przesuw papieru przekłada się na odczyt częstotliwości rytmu, jest według mnie absolutną podstawą dobrej praktyki elektrokardiograficznej. Dobrze też pamiętać, że każdy nietypowy przesuw powinien być wyraźnie zaznaczony na zapisie, żeby nie doszło do nieporozumień – taki standard potwierdzają wytyczne Polskiego Towarzystwa Kardiologicznego. W codziennej pracy technika analizowanie takich niuansów pozwala uniknąć wielu błędów i nieporozumień.

Pytanie 25

Organizm człowieka ma zakłóconą zdolność do termoregulacji, gdy wartość temperatury wewnętrznej organizmu spada poniżej

A. 38,7°C
B. 37,3°C
C. 36,6°C
D. 33,0°C

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Gdy temperatura wewnętrzna człowieka spada poniżej 33,0°C, mówimy już o poważnym zaburzeniu termoregulacji, czyli o głębokiej hipotermii. To nie jest taki zwykły chłód, który czujemy zimą bez czapki – to już sytuacja potencjalnie zagrażająca życiu. Organizm traci kontrolę nad produkcją i utratą ciepła, przez co zaczynają zawodzić mechanizmy obronne, jak drżenie mięśni czy rozszerzanie naczyń krwionośnych. W praktyce zawodowej (np. w ratownictwie czy na oddziałach SOR-u) uznaje się, że poniżej tej granicy człowiek może stracić przytomność, pojawia się ryzyko zaburzeń rytmu serca czy nawet zatrzymania krążenia. Moim zdaniem, bardzo ważne jest kojarzenie tej liczby z poważnymi stanami, bo normą jest temperatura ok. 36,6–37°C, więc spadek aż do 33°C to już sygnał, że organizm sobie nie radzi. W instrukcjach postępowania (np. Europejskiej Rady Resuscytacji) podkreśla się, by osoby z taką temperaturą traktować jako pacjentów w stanie zagrożenia życia i natychmiast wdrażać zaawansowane ogrzewanie. Warto o tym pamiętać nie tylko w pracy, ale i na co dzień – bo sytuacje z wychłodzeniem mogą zdarzyć się każdemu, nawet latem po dłuższym przebywaniu w zimnej wodzie. Z mojego doświadczenia wynika, że rozpoznanie granicy 33°C jest kluczowe, by nie zbagatelizować objawów i nie dopuścić do tragedii. Warto więc mieć tę liczbę z tyłu głowy, szczególnie w branżach medycznych i ratowniczych.

Pytanie 26

Promieniowanie IR jest wykorzystywane w

A. termoterapii.
B. radioterapii.
C. hydroterapii.
D. krioterapii.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Promieniowanie podczerwone, czyli IR, to naprawdę ciekawy temat w kontekście fizykoterapii. Termoterapia właśnie opiera się na wykorzystaniu ciepła, które pozwala na zwiększenie ukrwienia tkanek, rozluźnienie mięśni oraz przyspieszenie procesów regeneracyjnych. Promieniowanie IR wnika w głąb skóry, nawet kilka milimetrów, co wywołuje efekt cieplny. Takie zabiegi stosuje się chociażby w leczeniu przewlekłych bólów stawowych, przykurczów mięśniowych czy urazów. Moim zdaniem, jest to jedna z bardziej skutecznych i zarazem bezpiecznych metod wspomagania leczenia – praktycznie nie wywołuje skutków ubocznych, jeśli tylko przestrzega się zaleceń. W wielu gabinetach fizjoterapii można spotkać lampy Sollux, które emitują właśnie podczerwień. Co ciekawe, istnieją różne typy promieniowania IR, ale w fizjoterapii najczęściej używa się pasma IR-A i IR-B, które są dobrze pochłaniane przez skórę. Standardy branżowe zalecają, by tego typu zabiegi wykonywać pod kontrolą specjalisty, bo nie dla każdego jest to wskazane – np. osoby z aktywnym stanem zapalnym albo nowotworami powinny unikać promieniowania IR. Z mojego doświadczenia wynika, że pacjenci bardzo doceniają uczucie ciepła i często szybciej wracają do sprawności. Termoterapia z użyciem IR jest więc nie tylko praktyczna, ale też zgodna z najnowszymi wytycznymi w rehabilitacji.

Pytanie 27

Która magistrala służy do szeregowej transmisji danych?

A. AGP
B. PCI X
C. ATA
D. PCI E

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
PCI Express, czyli PCIe, to obecnie najpopularniejsza magistrala wykorzystywana do szeregowej transmisji danych pomiędzy płytą główną a takimi urządzeniami jak karty graficzne, karty sieciowe czy pamięci masowe NVMe. W odróżnieniu od starszych rozwiązań, takich jak klasyczne PCI czy AGP, PCIe przesyła dane szeregowo, czyli bit po bicie za pomocą tzw. linii (linii transmisyjnych), co pozwala na osiąganie bardzo wysokich przepustowości przy jednoczesnej elastyczności konfiguracji (np. x1, x4, x8, x16). Szeregowa transmisja w PCIe minimalizuje zakłócenia i poprawia integralność sygnałów, więc moim zdaniem to rozwiązanie sprawdza się nawet przy bardzo wymagających zastosowaniach, takich jak gaming czy obliczenia naukowe. W nowoczesnych komputerach praktycznie każda wydajna karta graficzna czy szybki dysk SSD NVMe komunikuje się właśnie przez PCI Express, bo to dzięki tej magistrali możliwe są transfery liczone w gigabajtach na sekundę. Warto też wiedzieć, że PCIe cały czas się rozwija – każda kolejna generacja (np. 4.0 czy 5.0) podwaja przepustowość. Z mojego doświadczenia wynika, że szeregowa transmisja to nie tylko przyszłość, ale już teraźniejszość sprzętu komputerowego – nie wyobrażam sobie dzisiaj nowoczesnej płyty głównej bez PCIe.

Pytanie 28

W celu wyszukania błędów w programie wykorzystuje się

A. kompilator.
B. konsolidator.
C. debuger.
D. linker.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Debuger to narzędzie absolutnie podstawowe dla każdego programisty, który chce świadomie szukać i naprawiać błędy w swoim kodzie. Z doświadczenia mogę powiedzieć, że praca bez debugera przypomina trochę szukanie igły w stogu siana – owszem, można próbować zgadywać, co się popsuło, ale skuteczność takiego podejścia jest znikoma. Debuger pozwala uruchamiać program krok po kroku, zatrzymywać wykonanie w wybranych miejscach (tzw. breakpointach), sprawdzać wartości zmiennych na każdym etapie działania oraz obserwować zmiany w pamięci operacyjnej. Współczesne IDE, jak Visual Studio, Eclipse czy nawet darmowe Code::Blocks, mają wbudowane debugery, które bardzo ułatwiają analizę działania programów. Dobrą praktyką, stosowaną w branży, jest nie tylko używanie debugera do naprawiania błędów, ale także do zrozumienia logiki działania własnego kodu – czasami wychodzą wtedy bardzo ciekawe rzeczy na jaw. Co ciekawe, debugowanie to nie tylko szukanie tzw. crashy czy błędów logicznych, ale również optymalizacja działania programu, np. wykrywanie niepotrzebnych obliczeń czy nieefektywnych algorytmów. W sumie debuger to taki „mikroskop” programisty – pozwala zobaczyć to, co normalnie ukryte. W mojej opinii, żaden poważny projekt nie powstaje bez porządnego debugowania i właśnie dlatego znajomość obsługi debugera powinna być żelaznym punktem w arsenale każdego przyszłego developera.

Pytanie 29

Przedstawiony na rysunku kolimator stanowi część

Ilustracja do pytania
A. sztucznego płuco-serca.
B. tomografu komputerowego.
C. pompy infuzyjnej.
D. sztucznej nerki.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Kolimator, który pokazano na rysunku, to kluczowy element wykorzystywany w tomografii komputerowej. Działa on jak bardzo precyzyjna przesłona, przepuszczając tylko te promienie rentgenowskie, które biegną w określonych kierunkach. Pozwala to ograniczyć rozproszenie promieniowania i poprawić ostrość uzyskiwanych obrazów. Z mojego doświadczenia wynika, że dobre ustawienie kolimatora to podstawa w codziennej pracy technika radiologii – bez tego uzyskanie wiarygodnych przekrojów ciała jest praktycznie niemożliwe. W praktyce klinicznej kolimatory pozwalają nie tylko polepszyć jakość obrazu, ale też zmniejszyć dawkę promieniowania dla pacjenta, co jest zgodne z zasadą ALARA (as low as reasonably achievable). W tomografii komputerowej stosuje się zarówno kolimatory wejściowe przy lampie, jak i wyjściowe przy detektorach. To rozwiązanie jest standardem w diagnostyce obrazowej, a odpowiednie dobranie szerokości wiązki rzutuje na jakość rekonstrukcji i możliwość wykrycia drobnych zmian chorobowych. Moim zdaniem, świadomość roli kolimatorów przydaje się nie tylko w pracy w szpitalu, ale nawet podczas rozmów z lekarzami o możliwych artefaktach na obrazie.

Pytanie 30

Do pomiaru częstotliwości rezonansowej generatora kwarcowego w kardiotokografii należy zastosować

A. oscyloskop.
B. falomierz.
C. fluksometr.
D. amperomierz.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Oscyloskop to naprawdę podstawowe i niezastąpione narzędzie w pomiarach związanych z elektroniką, zwłaszcza kiedy trzeba sprawdzić częstotliwość rezonansową generatora kwarcowego, na przykład w aparacie do kardiotokografii. Taki generator kwarcowy pracuje w określonym, bardzo stabilnym zakresie częstotliwości, co jest kluczowe dla dokładności pomiarów medycznych – serce płodu daje bardzo subtelne sygnały, więc nie można pozwolić sobie na żadne przekłamania. Oscyloskop pozwala na bezpośrednią obserwację przebiegów napięciowych oraz na dokładny pomiar okresu i amplitudy sygnału. Dzięki funkcji wyzwalania można „zamrozić” powtarzający się sygnał i spokojnie policzyć jego częstotliwość, nawet jeśli sygnał jest bardzo szybki albo o niewielkiej amplitudzie. W praktyce, jeśli podłączysz generator do oscyloskopu, wystarczy odpowiednio ustawić podstawę czasu i zobaczysz na ekranie przebieg prostokątny lub sinusoidalny, zależnie od konstrukcji generatora. Potem już tylko szybki pomiar okresu i masz gotową częstotliwość. Z mojego doświadczenia, przy pracy w serwisie sprzętu medycznego, dokładność i wygoda, jaką daje oscyloskop, biją na głowę inne metody – szczególnie że można jednocześnie ocenić czystość sygnału i ewentualne zakłócenia. W profesjonalnej diagnostyce czy kalibracji sprzętu nikt nawet nie rozważa innych narzędzi do tego celu, bo tak naprawdę tylko oscyloskop daje te wszystkie informacje na raz. Warto jeszcze pamiętać, że w nowoczesnych oscyloskopach cyfrowych masz dodatkowo możliwość automatycznego pomiaru częstotliwości, co bardzo przyspiesza pracę i eliminuje ryzyko błędu.

Pytanie 31

Podczas wymiany podzespołów elektronicznych czułych na wyładowania elektrostatyczne należy zastosować

A. okulary ochronne.
B. opaskę antystatyczną.
C. rękawice gumowe.
D. odzież poliestrową.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Opaska antystatyczna to taki trochę niepozorny gadżet, ale w rzeczywistości jest absolutnie kluczowa, gdy zabierasz się za wymianę podzespołów elektronicznych wrażliwych na wyładowania elektrostatyczne (ESD). Przede wszystkim – jej zadaniem jest wyrównywanie potencjału elektrostatycznego pomiędzy tobą a ziemią, dzięki czemu nie przenosisz przypadkowo ładunku elektrycznego na delikatne układy scalone czy płytki PCB. Sam nie raz widziałem, jak ktoś bez opaski uszkodził RAM czy procesor i to nawet nie czuł żadnego przeskoku. Standardy branżowe, np. IEC 61340-5-1, jasno zalecają stosowanie osobistych środków zabezpieczających przed ESD, w tym właśnie opasek antystatycznych, szczególnie w serwisach, montażowniach albo nawet, jak robisz coś w domu. W praktyce, taka opaska połączona przewodem z uziemieniem lub matą antystatyczną daje ci spokój – nie musisz się martwić, że zniszczysz drogi sprzęt. Moim zdaniem, warto wyrobić sobie taki nawyk nawet przy mniejszych naprawach, bo nie zawsze widać efekty ESD od razu – czasem uszkodzenie wychodzi dopiero po pewnym czasie. Swoją drogą, w profesjonalnych laboratoriach często używa się też mat ESD, fartuchów i specjalnego obuwia, ale opaska to takie absolutne minimum i podstawa dobrej praktyki serwisowej.

Pytanie 32

Zmienne definiowane w programie głównym na zewnątrz wszystkich funkcji i procedur lub innych bloków programu określamy jako zmienne

A. globalne.
B. statyczne.
C. lokalne.
D. dynamiczne.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Zmienne globalne to taki typ zmiennych, które są deklarowane poza wszystkimi funkcjami, procedurami czy innymi blokami programu – zazwyczaj na samym początku pliku źródłowego. Dzięki temu mają one zasięg obejmujący cały program, czyli mogą być używane i modyfikowane w dowolnej funkcji czy procedurze, o ile nie zostaną przesłonięte przez zmienne lokalne o tej samej nazwie. Moim zdaniem bardzo ważne jest, żeby rozumieć konsekwencje używania zmiennych globalnych. Owszem, często ułatwiają dostęp do wspólnych danych w większych projektach czy przy szybkim prototypowaniu, ale dobre praktyki branżowe (np. Clean Code, wzorce projektowe) zalecają ograniczać ich stosowanie. To dlatego, że nadmierne poleganie na globalnych zmiennych utrudnia debugowanie i testowanie kodu – szczególnie w większych projektach, gdzie kilka funkcji może jednocześnie modyfikować tę samą zmienną, przez co łatwiej o błędy trudne do znalezienia. Przykład z życia: gdy w programie potrzebujesz mieć licznik dostępny w różnych częściach kodu, możesz zadeklarować go globalnie. Jednak lepszym rozwiązaniem jest przekazywanie wartości przez argumenty funkcji lub korzystanie z struktur czy klas, jeśli język na to pozwala. To jedna z podstawowych zasad programowania – wiedzieć, kiedy stosować zmienne globalne, a kiedy lepiej ich unikać. Warto też pamiętać, że w niektórych językach (np. C/C++, Python) słowo kluczowe global lub inna składnia wyraźnie wskazuje, że dana zmienna jest dostępna wszędzie. Praktykując programowanie, dobrze jest ćwiczyć rozróżnianie zasięgu zmiennych, bo to często pojawia się na rozmowach kwalifikacyjnych i w zadaniach rekrutacyjnych.

Pytanie 33

Który sterownik odpowiada za bezpośredni dostęp do pamięci?

A. DMA
B. DMI
C. IRQ
D. PIO

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Sterownik DMA (Direct Memory Access) to naprawdę kluczowy element w architekturze komputerów, jeśli chodzi o sprawne przesyłanie danych. Chodzi tu o to, że urządzenia peryferyjne, jak np. karty sieciowe, dyski twarde czy nawet nowoczesne karty dźwiękowe, mogą przekazywać lub odbierać informacje bezpośrednio do/z pamięci RAM, praktycznie z pominięciem procesora. To bardzo usprawnia pracę systemu, bo CPU nie musi zajmować się każdym bajtem przesyłu — po prostu zleca zadanie kontrolerowi DMA i wraca do swoich głównych zadań. W praktyce, zwłaszcza w systemach typu embedded albo przy intensywnych operacjach na dużych plikach czy transmisjach multimedialnych, DMA skraca czas przesyłu i odciąża procesor. W branży to wręcz standard wykorzystywania DMA, żeby uzyskać wyższą przepustowość i mniejsze opóźnienia, co jest istotne na przykład w systemach czasu rzeczywistego. Moim zdaniem, jak ktoś chce być dobrym technikiem, musi rozumieć, jak działa DMA i kiedy warto go stosować — czasem to po prostu jedyna opcja, bo bezpośredni dostęp do pamięci pozwala uzyskać dużo większą wydajność niż klasyczne rozwiązania programowe. Nawet BIOS i nowoczesne systemy operacyjne korzystają z DMA, żeby efektywnie zarządzać transferami danych. To taki trochę niewidzialny bohater każdej płyty głównej, a jak się to raz zrozumie, to już później łatwiej łapie się koncepcję działania zaawansowanych systemów komputerowych.

Pytanie 34

W urządzeniu medycznym wyznaczono charakterystykę filtru jak na rysunku. Jest to filtr

A. górnoprzepustowy o częstotliwości granicznej 20 Hz.
B. dolnoprzepustowy o częstotliwości granicznej 20 Hz.
C. dolnoprzepustowy o częstotliwości granicznej 25 Hz.
D. górnoprzepustowy o częstotliwości granicznej 25 Hz.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To jest właśnie solidna odpowiedź, która pokazuje dobre zrozumienie działania filtrów w układach elektronicznych – zwłaszcza w medycynie. Filtr dolnoprzepustowy przepuszcza sygnały o częstotliwościach niższych niż częstotliwość graniczna, tłumiąc te wyższe. W praktyce, taka konfiguracja jest często używana w aparaturze EKG, EEG czy nawet w niektórych układach monitorujących parametry życiowe, żeby odfiltrować zakłócenia z sieci czy artefakty ruchowe. Częstotliwość graniczna 20 Hz jest typowa np. dla filtracji sygnałów EKG, gdzie zależy nam na zachowaniu najważniejszych informacji o pracy serca, a jednocześnie na zredukowaniu szumów wysokoczęstotliwościowych. Z mojego doświadczenia, projektanci zawsze zwracają uwagę, by nie ustawiać tej granicy za nisko, bo wtedy zginą pewne ważne składowe sygnału. To też warto wiedzieć, że wybór częstotliwości granicznej wynika nie tylko ze specyfikacji urządzenia, ale też z norm międzynarodowych, np. PN-EN 60601-2-25 w przypadku EKG. Tego typu filtry można realizować analogowo (np. prosty filtr RC) albo cyfrowo, zależnie od konstrukcji sprzętu. Branżowym standardem jest też, by każda charakterystyka takiego filtra była udokumentowana, właśnie po to, by lekarz wiedział, jakie informacje z sygnału zostaną zachowane. Moim zdaniem, umiejętność rozpoznania typu filtra na podstawie wykresu to absolutna podstawa dla każdego technika czy inżyniera elektroniki medycznej.

Pytanie 35

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. 3^n
B. 3*n
C. 3*(n-1)
D. n^3

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Funkcja F(n) jest przykładem rekurencji liniowej, gdzie za każdym razem dla n>1 wartość funkcji jest mnożona przez 3 w stosunku do poprzedniego wyniku. W skrócie: F(n) = 3 * F(n-1), a dla n=1 ustalamy F(1)=3. Jeśli rozwiniesz to rekurencyjnie, otrzymasz ciąg: F(2)=3*3, F(3)=3*3*3, itd., co prowadzi do wzoru ogólnego F(n)=3^n. To jest bardzo charakterystyczne dla tzw. ciągów geometrycznych. Moim zdaniem taki typ zadań świetnie pokazuje, jak działa propagacja wartości w rekurencji i jest często spotykany przy analizie algorytmów, szczególnie jeśli chodzi o złożoność obliczeniową. W praktyce informatycznej, takie wzory pojawiają się np. w algorytmach dziel i zwyciężaj, gdzie każda warstwa rekurencji mnoży się przez stałą. Warto pamiętać, że znajomość wyprowadzenia wzoru rekurencyjnego do postaci jawnej (czyli bezpośredniej) bardzo przyspiesza analizę nawet bardziej złożonych funkcji. Często podczas programowania można spotkać się z zadaniami, gdzie trzeba rozpoznać, jak szybko rośnie funkcja, a tu wzrost wykładniczy (czyli właśnie potęgowanie) jest jednym z najszybszych. Co ciekawe, takie proste rekurencje mają też znaczenie choćby w modelowaniu wzrostu populacji czy inwestycji finansowych. Generalnie zaś, wykładniczy wzrost to nie przelewki – potrafi bardzo szybko doprowadzić do dużych wartości, dlatego w praktycznych aplikacjach programistycznych trzeba uważać na przepełnienia zmiennych i ograniczenia sprzętowe.

Pytanie 36

Zasilacz, który podczas normalnej pracy zasila urządzenie, jednocześnie ładując akumulator, a podczas awarii zasilania sieciowego zasila urządzenie z akumulatora, oznaczany jest skrótem

A. UDP
B. UPS
C. UEFI
D. UTP

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
UPS, czyli Uninterruptible Power Supply, to według mojej opinii jedno z tych urządzeń, które każdy kto poważnie myśli o bezpieczeństwie sprzętu IT powinien znać jak własną kieszeń. Główną zaletą UPS-a jest to, że działa on praktycznie niezauważalnie podczas normalnej pracy – urządzenie jest zasilane z sieci, a akumulatory doładowują się w tle. Dopiero jak zniknie napięcie – czy to z powodu awarii, czy zwykłego przepięcia, UPS przełącza się automatycznie na zasilanie z akumulatora i zapewnia ciągłość pracy. Ta funkcja to podstawa w serwerowniach, laboratoriach, ale też w domowych biurach – przecież nikt nie chce stracić niedokończonego projektu przez nagły zanik prądu. Z mojego doświadczenia, nawet najprostsze UPS-y typu offline potrafią uratować niejedną prezentację czy egzamin online. W praktyce branżowej bardzo często spotykamy różne typy UPS-ów: offline, line-interactive czy online (double conversion), każdy z nich inny pod względem czasu przełączenia czy jakości napięcia wyjściowego. Warto pamiętać, że dobór właściwego UPS-a to nie tylko kwestia mocy, ale też ilości i rodzaju podłączonych urządzeń, czasu podtrzymania i jakości filtracji. Standardy takie jak PN-EN 62040 czy wytyczne organizacji IEEE pokazują, na co zwracać uwagę przy projektowaniu zasilania awaryjnego. Szczerze mówiąc – bez UPS-a ciężko mówić o poważnym podejściu do ochrony sprzętu i danych.

Pytanie 37

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. konwersji sygnału.
B. przyspieszenia transmisji.
C. filtrowania ramek sieci Ethernet.
D. szyfrowania pakietów.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
To urządzenie na zdjęciu to klasyczny media konwerter – w tym przypadku służy do konwersji sygnału pomiędzy różnymi mediami transmisyjnymi, najczęściej światłowodem i skrętką miedzianą Ethernet. W praktyce oznacza to, że pozwala podłączyć segment sieci oparty na światłowodzie do infrastruktury korzystającej z tradycyjnych przewodów RJ-45. To bardzo wygodne rozwiązanie, zwłaszcza w miejscach, gdzie trzeba przesłać dane na duże odległości – światłowód ma zdecydowanie mniejsze tłumienie i jest odporny na zakłócenia elektromagnetyczne. Moim zdaniem często media konwertery ratują sytuację na starszych obiektach, gdzie nie opłaca się wymieniać całej okablowania. Warto też pamiętać, że takie konwertery zapewniają zgodność z normami, np. IEEE 802.3u dla Fast Ethernet lub IEEE 802.3z dla Gigabit Ethernet na światłowodzie. Często są spotykane w szafach rackowych i przy połączeniach między różnymi budynkami. Generalnie, konwersja sygnału to podstawowa funkcja tych urządzeń – nie szyfrują ani nie filtrują pakietów, nie przyspieszają transmisji, tylko umożliwiają współpracę sprzętu używającego różnych mediów fizycznych.

Pytanie 38

Z ekranu urządzenia wynika, że pełni ono między innymi funkcję

Ilustracja do pytania
A. kardiotokografu.
B. elektroencefalografu.
C. kapnografu.
D. elektromiografu.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź wskazująca na kapnograf jest absolutnie prawidłowa. Kapnograf to urządzenie medyczne służące do monitorowania stężenia dwutlenku węgla (CO2) w wydychanym powietrzu pacjenta. Na ekranie bardzo wyraźnie widać charakterystyczną krzywą kapnograficzną (oznaczoną jako CO2), która odzwierciedla zmiany poziomu CO2 podczas cyklu oddechowego. W praktyce klinicznej, kapnografia jest używana przede wszystkim na oddziałach intensywnej terapii, podczas zabiegów anestezjologicznych czy nawet ratownictwie medycznym do oceny wentylacji pacjenta. Jest to standard monitorowania podczas znieczulenia ogólnego – zgodnie z wytycznymi chociażby European Society of Anaesthesiology. Moim zdaniem, znajomość działania kapnografu to ogromny atut, bo pozwala szybciej wychwycić groźne sytuacje, jak np. niedrożność dróg oddechowych albo nieprawidłową wentylację. Dla mnie osobiście to jedno z najbardziej praktycznych narzędzi codziennej pracy bloku operacyjnego. Warto też wiedzieć, że parametry takie jak EtCO2 (końcowo-wydechowe stężenie CO2) są kluczowe dla oceny jakości resuscytacji czy skuteczności intubacji.

Pytanie 39

W celu zmiany hasła użytkownika w systemie Linux należy użyć polecenia

A. finger
B. pwd
C. passwd
D. logout

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Polecenie passwd w systemie Linux to absolutna podstawa przy zarządzaniu hasłami użytkowników. Jeśli chcemy zmienić hasło – czy to swoje, czy innego użytkownika (oczywiście pod warunkiem posiadania odpowiednich uprawnień, na przykład roota) – właśnie to polecenie stosujemy. Jego działanie polega na wywołaniu procesu, podczas którego system najpierw poprosi o stare hasło (o ile nie jesteśmy rootem), potem dwukrotnie o nowe i sprawdzi, czy spełnia ono polityki bezpieczeństwa, np. długość czy złożoność. Bardzo praktyczne jest to, że passwd działa niezależnie od środowiska graficznego – wszystko wykonuje się z poziomu terminala, więc nawet na serwerach bez GUI nie ma z tym najmniejszego problemu. Z mojego doświadczenia często spotykam się z sytuacją, gdzie osoby mylą to polecenie z pwd albo nawet próbują wpisać coś pokroju 'change password', co oczywiście nie zadziała. Warto też wiedzieć, że passwd pozwala blokować konta lub wymuszać zmianę hasła przy pierwszym logowaniu – to bardzo przydatne przy pracy w większych zespołach. Ostatecznie passwd to narzędzie zgodne z politykami bezpieczeństwa znanymi z profesjonalnych wdrożeń Linuxa, co jest bardzo doceniane w branży IT. Polecam też sprawdzić wywołanie 'man passwd', żeby poznać więcej opcji – można się zdziwić, ile ciekawych rzeczy oferuje to z pozoru proste polecenie.

Pytanie 40

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. ATX
B. CTX
C. UDP
D. UPS

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
UPS, czyli Uninterruptible Power Supply, to urządzenie, które w praktyce jest absolutnym must-have w każdej serwerowni, a nawet w domowych instalacjach, gdzie zależy nam na ciągłości pracy sprzętu komputerowego. Moim zdaniem, bardzo często niedoceniany, a to właśnie UPS zabezpiecza urządzenia w czasie zaniku napięcia sieciowego, pozwalając na bezpieczne zapisanie danych czy też kontrolowane wyłączenie komputerów. Działa to tak, że w momencie wykrycia braku napięcia w sieci zasilającej, automatycznie przełącza zasilanie na akumulatory i sprzęt działa dalej bez przerwy – nie raz uratowało mi to sporo pracy podczas burzy czy awarii w bloku. W firmach standardem jest, aby każdy ważniejszy sprzęt był podłączony do UPS-a. Są różne typy – line-interactive, off-line, on-line – to już zależy od wymagań, ale zasada działania pozostaje podobna. Czas podtrzymania zależy oczywiście od pojemności akumulatora i obciążenia, więc czasem kilka minut, czasem kilkadziesiąt – wystarczająco, żeby zareagować. Warto też wspomnieć, że profesjonalne UPS-y potrafią filtrować napięcie i chronić przed przepięciami oraz wahaniami napięcia, co z mojego doświadczenia, przy dzisiejszych niestabilnych sieciach jest dużą zaletą. Dlatego właśnie, jeśli chodzi o ochronę przed skutkami zaniku zasilania sieciowego i zapewnienie ciągłej pracy urządzeń elektronicznych, to UPS nie ma sobie równych. Według najlepszych praktyk, zaleca się nawet regularne testowanie sprawności UPS-ów, żeby nie okazało się w krytycznym momencie, że akumulator już nie trzyma. Reasumując – wybór jak najbardziej trafiony, a wiedza na ten temat zdecydowanie przydaje się w praktyce.