Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 12 maja 2026 22:43
  • Data zakończenia: 12 maja 2026 22:51

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby uruchomić w systemie linux program nazwa.py, należy wpisać

A. nazwa.py
B. ./nazwa.py
C. .\nazwa.py
D. ./nazwa.py
Aby uruchomić skrypt w systemie Linux bezpośrednio z terminala, należy poprzedzić nazwę pliku ./, czyli tak jak w odpowiedzi: ./nazwa.py. To jest związane z tym, jak system rozpoznaje lokalizację plików wykonywalnych. W Linuksie katalog bieżący (czyli ten, w którym aktualnie się znajdujesz) nie jest domyślnie przeszukiwany po prostu przez wpisanie nazwy pliku, więc samo 'nazwa.py' nie zadziała – system po prostu nie znajdzie takiego pliku w swoim PATH. Przedrostek ./ oznacza „ten katalog”, więc ./nazwa.py to po prostu: uruchom plik nazwa.py znajdujący się w katalogu, w którym teraz jestem. Musisz dodatkowo pamiętać o nadaniu plikowi uprawnień do wykonywania, czyli najczęściej trzeba wcześniej zrobić chmod +x nazwa.py. Moim zdaniem to super sprawa, bo dzięki temu łatwiej jest kontrolować, co tak naprawdę można uruchomić na danym systemie, a co nie. Z mojego doświadczenia wynika, że dużo osób zapomina o tej kropce i później się dziwi, że nie działa – standard Linuksa jest pod tym względem jasny i dość restrykcyjny, co chroni przed przypadkowym uruchomieniem niechcianych plików. Jeżeli w skrypcie nie masz shebanga (np. #!/usr/bin/env python3), to i tak możesz uruchomić go przez python3 nazwa.py, ale ./nazwa.py jest bardziej „linuxowe”, bo wtedy system sam rozpozna, jakiego interpretera użyć na podstawie shebanga. W praktyce, kiedy pracujesz z różnymi wersjami Pythona albo przenosisz swoje skrypty pomiędzy serwerami, takie podejście jest nie tylko wygodne, ale też zgodne z dobrymi praktykami administracyjnymi.

Pytanie 2

Który system montażu urządzeń przedstawiono na rysunku?

Ilustracja do pytania
A. Na szynie TH-35.
B. Naścienny.
C. Na listwie zaciskowej.
D. Podtynkowy.
System montażu na szynie TH-35, zwanej też często „szyną DIN”, jest absolutnym standardem w rozdzielnicach elektrycznych i automatyce przemysłowej. Na zdjęciu wyraźnie widać urządzenia zamocowane na charakterystycznej, metalowej listwie o przekroju 35 mm – to właśnie ta szyna. Pozwala ona bardzo wygodnie instalować modułowe urządzenia takie jak wyłączniki nadprądowe, przekaźniki, zasilacze czy nawet sterowniki PLC. Z mojego doświadczenia wynika, że szyna DIN znacząco przyspiesza montaż oraz ewentualną wymianę komponentów – nie trzeba tu żadnych śrub, tylko zatrzaski. W przypadku serwisowania czy rozbudowy instalacji to ogromna zaleta, bo wystarczy kilka sekund, żeby coś wymienić. W branży bardzo ceni się to rozwiązanie za uniwersalność. Co ciekawe, standard TH-35 został uregulowany normą IEC 60715, a jego stosowanie gwarantuje kompatybilność różnych producentów. Gdybyś chciał tworzyć rozdzielnice czy panele sterownicze zgodnie z aktualnymi przepisami i dobrymi praktykami, szyna TH-35 to właściwie jedyna słuszna droga. Spotkasz ją w niemal każdej szafie rozdzielczej – od prostych układów domowych po skomplikowane systemy przemysłowe. Takie podejście zapewnia nie tylko porządek, ale też bezpieczeństwo i estetykę całej instalacji.

Pytanie 3

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. katalog główny.
B. katalog domowy.
C. plik tymczasowy.
D. plik systemowy.
Znak ~ na początku ścieżki w systemach uniksowych to taki trochę skrót-klucz, który odwołuje się bezpośrednio do katalogu domowego użytkownika. W praktyce, jak wpiszesz np. cd ~ w terminalu, to od razu przenosi cię do twojego katalogu domowego – czyli miejsca, gdzie masz swoje dokumenty, konfiguracje, pulpit, pliki robocze i całą resztę rzeczy, za które odpowiadasz bezpośrednio jako użytkownik w systemie. To się sprawdza genialnie, bo nie musisz pamiętać czy katalog domowy to /home/jan, /Users/ania albo coś jeszcze innego – system sam wie, o którego użytkownika chodzi. Zresztą, jeśli chcesz wejść do katalogu domowego innego użytkownika, wpisujesz np. ~marek i terminal zabierze cię do /home/marek. W skryptach Bash i innych powłokach uniksowych to rozszerzanie znaku ~ na konkretną ścieżkę jest standardem od lat i praktycznie każdy administrator korzysta z tego automatycznie. To jeden z tych drobiazgów, które mega przyspieszają pracę na konsoli. Moim zdaniem, jak ktoś często korzysta z powłoki, to nie wyobraża sobie codziennej pracy bez tego symbolu. Ciekawe jest też to, że pliki tymczasowe i systemowe mają zupełnie inne notacje – tutaj ~ jest ściśle powiązany z profilem użytkownika i nie ma nic wspólnego z katalogiem głównym systemu, czyli /. Warto to zapamiętać.

Pytanie 4

Jeżeli węzeł zatokowo–przedsionkowy będzie pobudzał serce generując bodźce elektryczne z częstotliwością 1 Hz, to wartość rytmu serca będzie wynosiła

A. 80 uderzeń na minutę.
B. 100 uderzeń na minutę.
C. 50 uderzeń na minutę.
D. 60 uderzeń na minutę.
Wartość 60 uderzeń na minutę wynika bezpośrednio z przeliczenia częstotliwości generowanej przez węzeł zatokowo–przedsionkowy. Jeśli ten naturalny rozrusznik serca wysyła impuls elektryczny z częstotliwością 1 Hz, oznacza to, że na każdą sekundę przypada jedno pobudzenie. W ciągu minuty jest 60 sekund, więc 1 impuls na sekundę daje dokładnie 60 impulsów na minutę, czyli 60 uderzeń serca na minutę. Takie tempo to typowy, prawidłowy rytm serca u dorosłego człowieka w spoczynku, zgodny z wytycznymi Polskiego Towarzystwa Kardiologicznego i międzynarodowych organizacji, jak AHA. W praktyce, wiedza o tej zależności jest ważna np. przy analizie EKG albo w programowaniu sztucznych rozruszników – ustawiając urządzenie na 1 Hz, uzyskujemy właśnie 60/min. Spotkałem się nie raz z sytuacją, gdzie błędne przeliczenie tej częstotliwości prowadziło do niepotrzebnych niepokojów czy nawet złych decyzji klinicznych. Jest to moim zdaniem jedna z tych podstaw, które choć wydają się proste, to bywają pomijane. Dobrze wiedzieć, że granica normy tętna w spoczynku zaczyna się właśnie od 60/min – poniżej tego mówimy już o bradykardii. W diagnostyce bardzo ważne jest rozumienie takich podstawowych przełożeń, bo pomagają uniknąć podstawowych błędów podczas interpretacji pracy serca.

Pytanie 5

Na zdjęciu RTG najjaśniejsze pole stanowi tkanka kostna, przez którą promieniowanie rentgenowskie jest

Ilustracja do pytania
A. absorbowane.
B. przenikane.
C. odbijane.
D. rozpraszane.
Odpowiedź dotycząca absorpcji promieniowania rentgenowskiego przez tkankę kostną w zdjęciu RTG jest jak najbardziej trafna. W praktyce medycznej jasne pola na zdjęciu oznaczają miejsca, gdzie promieniowanie zostało silnie pochłonięte, a nie przeniknęło do kliszy czy detektora cyfrowego. Kość, ze względu na wysoką zawartość wapnia i gęstość, skutecznie blokuje przechodzenie promieniowania, co sprawia, że na obrazie RTG te obszary są wyraźnie jaśniejsze w porównaniu do tkanek miękkich czy powietrza. To właśnie absorpcja jest kluczowym zjawiskiem, które umożliwia lekarzom ocenę stanu układu kostnego, wykrywanie złamań, zmian zwyrodnieniowych czy innych patologii. Moim zdaniem, zrozumienie tego mechanizmu jest absolutnie podstawą dla każdego, kto chce pracować w radiologii – bez tej wiedzy trudno o skuteczną analizę zdjęć. Standardy światowe, jak chociażby zalecenia Polskiego Lekarskiego Towarzystwa Radiologicznego, podkreślają znaczenie interpretacji różnic pochłaniania promieniowania. Często spotyka się sytuacje, gdzie osoby początkujące mylą absorpcję z odbiciem lub rozproszeniem, co prowadzi do nieprawidłowych wniosków diagnostycznych. W praktyce każdy technik czy lekarz radiolog powinien zwracać uwagę na gęstość i strukturę danego obszaru zdjęcia, żeby uniknąć pomyłek i zapewnić pacjentowi najwyższy standard diagnostyki.

Pytanie 6

Do badania przewodnictwa powietrznego i kostnego służy

A. adaptometr.
B. fotometr.
C. kapnometr.
D. audiometr.
Audiometr to urządzenie, które z mojego doświadczenia jest totalną podstawą w badaniach słuchu – zarówno przewodnictwa powietrznego, jak i kostnego. W praktyce używa się go w gabinetach laryngologicznych oraz w poradniach audiologicznych. Pozwala ocenić, jak dobrze dany pacjent słyszy dźwięki o różnych częstotliwościach zarówno przez słuchawki (przewodnictwo powietrzne), jak i przez specjalne wibratory kostne (przewodnictwo kostne). Bardzo często audiometr stosuje się przy podejrzeniu niedosłuchu przewodzeniowego lub odbiorczego – wyniki pozwalają określić, gdzie dokładnie leży problem w uchu. Zwraca się uwagę na to, by badanie było przeprowadzone w wyciszonym pomieszczeniu, zgodnie z wytycznymi Polskiego Towarzystwa Otolaryngologów. Z mojej perspektywy, to sprzęt niezastąpiony w profilaktyce słuchu chociażby u osób pracujących w hałasie – dzięki temu wykrywa się uszkodzenia słuchu zanim pojawią się trwałe zmiany. Audiometria tonalna i próby przewodnictwa kostnego to standard w medycynie pracy, diagnostyce dzieci, osób starszych, czy nawet przed doborem aparatów słuchowych. Przy okazji warto dodać, że są różne modele audiometrów – od prostych, przenośnych po bardzo zaawansowane, komputerowe systemy, które umożliwiają szczegółową analizę słuchu. W sumie nie wyobrażam sobie dobrej diagnostyki bez tego sprzętu – zdecydowanie jest to narzędzie pierwszego wyboru według wszelkich dobrych praktyk.

Pytanie 7

Dokręcenie śrub mocujących z wartością momentu 6 Nm, zgodnie z instrukcją montażową, należy wykonać kluczem

A. dynamometrycznym.
B. półotwartym.
C. płaskim.
D. oczkowym.
Klucz dynamometryczny to narzędzie, które pozwala z bardzo dużą precyzją dokręcić śrubę z określoną siłą, czyli tzw. momentem obrotowym. W tym przypadku chodzi o 6 Nm – i to naprawdę nie jest przypadkowa wartość, tylko często podana przez producenta po to, żeby wszystkie połączenia trzymały się jak należy, ale jednocześnie nie były przeciążone. Moim zdaniem, właśnie taki klucz powinien być podstawowym wyposażeniem każdego warsztatu, niezależnie od tego, czy robisz przy rowerach, motocyklach, czy w poważniejszej mechanice. Przykładowo, w serwisie rowerowym, gdy dokręcasz śruby mostka kierownicy lub karbonowej sztycy, naprawdę nie warto ryzykować – za mocno i można uszkodzić część, za słabo i coś się może rozluźnić podczas jazdy. Z mojego doświadczenia wynika, że profesjonalne instrukcje montażowe (nie tylko w branży motoryzacyjnej czy rowerowej, ale też np. hydraulicznej) zawsze odnoszą się do ściśle określonych momentów. Właściwe użycie klucza dynamometrycznego to bezpieczeństwo i powtarzalność montażu, a także eliminacja typowych błędów związanych z "na czuja". Czasem ktoś powie, że wystarczy "dokręcić mocno", ale to bardzo złudne – stal, aluminium czy kompozyty mają swoje ograniczenia. Warto też pamiętać, że takie narzędzia mają skalę (często nawet dwie: Nm i ft-lb), a porządny warsztat zawsze je kalibruje raz na jakiś czas, bo precyzja jest tu kluczowa.

Pytanie 8

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. NTFS
B. FAT16
C. EXT4
D. FAT32
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 9

W dokumentacji testera aparatury medycznej podano następujące informacje:

  • Kompatybilny z technologiami: Lown, Edmark, trapezową, dwufazową oraz impulsową-dwufazową
  • Kompatybilny z technologią AED
  • Dokładność pomiarowa ±1% plus 0,1 J

Tester ten służy do sprawdzania parametrów pracy
A. elektrokardiografu.
B. defibrylatora.
C. manometru.
D. elektroencefalografu.
Wybór defibrylatora jako poprawnej odpowiedzi wynika bezpośrednio z opisanych cech testera. W dokumentacji wymieniono kompatybilność z różnymi technologiami defibrylacji, takimi jak Lown, Edmark, trapezowa, dwufazowa i impulsowa-dwufazowa oraz AED. To typowe określenia stosowane właśnie w technologii defibrylatorów – w praktyce nie spotyka się ich przy innych urządzeniach medycznych jak manometry czy EKG. Współczesne defibrylatory wykorzystują rozmaite przebiegi impulsów, a tester musi precyzyjnie mierzyć energię wyładowania, by zapewnić bezpieczeństwo pacjenta i skuteczność terapii. Informacja o dokładności pomiaru energii (±1% oraz 0,1 J) też jest jednoznacznie powiązana z testowaniem sprzętu do defibrylacji – zgodnie z normą PN-EN 60601-2-4, która dotyczy defibrylatorów medycznych, kalibracja i kontrola energii wyładowań to kluczowy element rutynowej obsługi technicznej. Moim zdaniem taka wiedza jest nie do przecenienia w pracy technika i serwisanta medycznego, bo od rzetelnej kontroli defibrylatorów zależy bezpieczeństwo pacjentów w nagłych sytuacjach. W zakładach opieki zdrowotnej regularność i jakość testów defibrylatorów jest przedmiotem licznych audytów i przeglądów. Co ciekawe, same testery bywają też używane podczas szkoleń dla personelu – można na nich symulować różne typy wyładowań. Z mojego doświadczenia warto zapamiętać, że prawidłowa eksploatacja i okresowa weryfikacja parametrów defibrylatora jest podstawą skutecznej resuscytacji i minimalizuje ryzyko awarii sprzętu w krytycznych momentach.

Pytanie 10

Przedstawiony na rysunku kolimator stanowi część

Ilustracja do pytania
A. pompy infuzyjnej.
B. tomografu komputerowego.
C. sztucznego płuco-serca.
D. sztucznej nerki.
Kolimator, który pokazano na rysunku, to kluczowy element wykorzystywany w tomografii komputerowej. Działa on jak bardzo precyzyjna przesłona, przepuszczając tylko te promienie rentgenowskie, które biegną w określonych kierunkach. Pozwala to ograniczyć rozproszenie promieniowania i poprawić ostrość uzyskiwanych obrazów. Z mojego doświadczenia wynika, że dobre ustawienie kolimatora to podstawa w codziennej pracy technika radiologii – bez tego uzyskanie wiarygodnych przekrojów ciała jest praktycznie niemożliwe. W praktyce klinicznej kolimatory pozwalają nie tylko polepszyć jakość obrazu, ale też zmniejszyć dawkę promieniowania dla pacjenta, co jest zgodne z zasadą ALARA (as low as reasonably achievable). W tomografii komputerowej stosuje się zarówno kolimatory wejściowe przy lampie, jak i wyjściowe przy detektorach. To rozwiązanie jest standardem w diagnostyce obrazowej, a odpowiednie dobranie szerokości wiązki rzutuje na jakość rekonstrukcji i możliwość wykrycia drobnych zmian chorobowych. Moim zdaniem, świadomość roli kolimatorów przydaje się nie tylko w pracy w szpitalu, ale nawet podczas rozmów z lekarzami o możliwych artefaktach na obrazie.

Pytanie 11

Konserwacja oprogramowania nie obejmuje

A. poprawy funkcjonalności.
B. skorygowania błędów.
C. przywracania danych.
D. poprawienia wydajności.
Przywracanie danych to zupełnie inna bajka niż konserwacja oprogramowania, choć na pierwszy rzut oka może się wydawać, że wszystko to są działania powiązane z utrzymaniem systemów IT. W praktyce konserwacja oprogramowania (ang. software maintenance) skupia się przede wszystkim na zarządzaniu samym kodem, poprawianiu błędów, ulepszaniu działania programu czy rozbudowie funkcjonalności zgodnie z potrzebami użytkowników lub zmianami w środowisku technicznym. To trochę tak, jakby mechanik nie tylko naprawiał samochód, ale czasem też wymieniał mu silnik na mocniejszy albo montował nowoczesne radio. Natomiast przywracanie danych, czyli tzw. data recovery, dotyczy już typowo zarządzania danymi, a nie kodem – chodzi tu na przykład o odzyskiwanie utraconych plików po awarii dysku czy przypadkowym ich usunięciu. W codziennej praktyce IT osoby zajmujące się konserwacją oprogramowania rzadko dotykają tematu przywracania danych – tym zazwyczaj zajmują się administratorzy systemów lub specjaliści ds. backupów. Dobre standardy branżowe, jak chociażby normy ISO/IEC 14764, jasno rozgraniczają te pojęcia. Moim zdaniem, rozumienie tej różnicy pomaga lepiej zorganizować pracę w zespole IT i nie mylić zakresów odpowiedzialności. Często spotykam się z sytuacją, gdzie ktoś oczekuje od programisty 'naprawienia' danych, a to już jest całkiem inne zadanie niż klasyczna konserwacja kodu.

Pytanie 12

Które działanie nie odnosi się do podstawowej funkcji komputera?

A. Przetwarzanie danych.
B. Diagnostyka systemu.
C. Dekodowanie rozkazów.
D. Przechowywanie danych.
Diagnostyka systemu faktycznie nie jest podstawową funkcją komputera – to raczej dodatkowa czynność, którą wykonują specjalistyczne programy albo sam użytkownik, kiedy coś zaczyna szwankować. Komputer z założenia został stworzony do przetwarzania danych, przechowywania informacji oraz do dekodowania rozkazów, czyli po prostu do wykonywania instrukcji, jakie mu wydamy. Diagnostyka to taka „kontrola stanu technicznego” – sprzęt i systemy operacyjne mają narzędzia, które potrafią wykryć i zdiagnozować błędy, ale to nie jest ich główna rola. Moim zdaniem, patrząc na standardowe klasyfikacje – np. na to, co jest nazywane cyklem przetwarzania informacji przez komputer (ang. information processing cycle) – zawsze wymienia się: wejście danych, przetwarzanie, wyjście i przechowywanie. Diagnostyka mogłaby się pojawić jako funkcja pomocnicza, no powiedzmy – coś jak przegląd techniczny, a nie silnik, który napędza auto. W praktyce, w firmach IT czy nawet w codziennym użytkowaniu, diagnostyka przydaje się głównie wtedy, gdy występują problemy, a nie podczas typowego działania systemu. Oczywiście, istnieją specjalne narzędzia do monitoringu i diagnostyki, ale są one uruchamiane na żądanie, a nie w ramach podstawowych procesów komputerowych. Warto zapamiętać, że podstawą działania każdego komputera jest przetwarzanie, dekodowanie i przechowywanie danych – reszta to już dodatki, które mają usprawnić pracę lub rozwiązać pojawiające się trudności.

Pytanie 13

Symbole: 1U, 2U, 3U stosowane do oznaczenia modułów w szafach typu rack określają

A. miejsce montażu modułu w szafie.
B. ilość slotów zajmowanych przez moduł w szafie.
C. kolejność umieszczania modułów w slotach.
D. ilość urządzeń danego typu umieszczonych na stelażu 19-calowym.
Oznaczenia takie jak 1U, 2U czy 3U od lat są wykorzystywane w branży IT i telekomunikacyjnej do jednoznacznego określenia wielkości modułów czy urządzeń przeznaczonych do montażu w szafach rackowych. To wszystko wywodzi się ze standardu EIA-310, który definiuje „U” jako wysokość jednostkową równą dokładnie 44,45 mm. Czyli jak coś ma 1U, to zajmie jeden taki „slot” – 44,45 mm wysokości w szafie rackowej. Jak urządzenie oznaczone jest jako 2U, to po prostu potrzebuje dwa takie sloty, czyli 88,9 mm. To bardzo praktyczne, bo pozwala na łatwą kalkulację ile faktycznego miejsca potrzebujemy pod konkretne urządzenia serwerowe, przełączniki czy zasilacze awaryjne. Moim zdaniem, to jeden z tych standardów, które naprawdę ułatwiają życie – nie trzeba się domyślać czy sprzęt się zmieści, wszystko jest jasne już na etapie projektowania. Dobre praktyki mówią, żeby zawsze brać pod uwagę wysokość w U już przy planowaniu rozbudowy i zakupie nowego sprzętu, bo łatwo potem o ścisk i bałagan w szafie. Dodatkowo warto pamiętać, że samo „U” dotyczy tylko wysokości – szerokość typowo wynosi 19 cali (standard rackowy), ale są też szafy 23-calowe, chociaż te spotyka się rzadziej. Spotkanie w opisie sprzętu wartości „3U” oznacza po prostu, że będzie on wymagał trzech jednostek wysokości w standardowej szafie rack, co jest kluczowe przy zarządzaniu przestrzenią w serwerowni czy rozdzielni.

Pytanie 14

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. renogramie.
B. elektrokardiogramie.
C. elektroencefalogramie.
D. scyntygramie.
Fale mózgowe, takie jak alfa, beta, gamma, delta i theta, są zapisywane przy użyciu elektroencefalogramu, czyli EEG. To jest standardowa metoda monitorowania aktywności elektrycznej mózgu. W praktyce EEG wykorzystuje się do diagnozowania różnych schorzeń neurologicznych, np. padaczki, zaburzeń snu, czy też uszkodzeń mózgu po urazach. Osobiście uważam, że EEG jest jednym z ciekawszych narzędzi w neurofizjologii, bo pozwala zobaczyć dosłownie pracę mózgu na żywo. Z mojego doświadczenia wynika, że interpretacja fal wymaga trochę wprawy – np. fale alfa najczęściej pojawiają się u relaksujących się osób z zamkniętymi oczami, a beta dominują podczas aktywności umysłowej czy stresu. Fale theta i delta są charakterystyczne dla głębokiego snu albo niektórych zaburzeń. EEG jest też wykorzystywane w badaniach naukowych, np. przy mapowaniu funkcjonalnym kory mózgowej. W praktyce klinicznej elektroencefalografia jest absolutnym standardem, a jej wyniki pomagają lekarzom podjąć decyzje terapeutyczne. Warto pamiętać, że żadne inne badanie z listy nie zarejestruje tych fal – to taka wiedza, która serio przydaje się, jeśli pracuje się w ochronie zdrowia albo naukach o człowieku.

Pytanie 15

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. MySQL
B. Oracle
C. Firebird
D. PostgreSQL
Oracle faktycznie uniemożliwia bezpłatne zastosowanie w celach komercyjnych i to jest dość znany temat w branży IT. Korzystanie z tego systemu bazodanowego w firmie, która na przykład świadczy usługi dla klientów albo prowadzi własny sklep internetowy, wymaga wykupienia odpowiedniej licencji. Licencjonowanie Oracle jest trochę zagmatwane, bo są tam różne opcje: per user, per processor, no i do tego dochodzi wsparcie techniczne. Co ciekawe, do nauki czy testów jest dostępna wersja Oracle XE (Express Edition), która jednak ma sporo ograniczeń i wyraźnie nie wolno jej używać komercyjnie – producent zresztą tego pilnuje, a łamanie postanowień licencyjnych może się skończyć dość nieprzyjemnie, nawet finansowo. W praktyce wiele dużych przedsiębiorstw korzysta z Oracle, bo system oferuje niesamowite możliwości skalowania, bezpieczeństwo na bardzo wysokim poziomie i wsparcie dla zaawansowanych scenariuszy. Ale jeśli ktoś prowadzi mały start-up albo projekt open-source, to Oracle raczej odpada ze względu na koszty. Moim zdaniem warto znać ograniczenia licencyjne i czytać dokładnie dokumentację licencyjną, bo w czasach audytów software’owych to już nie jest tylko teoria – firmy faktycznie tego pilnują. Co ciekawe, takie restrykcje licencyjne są jedną z przyczyn, dla których projekty open-source tak mocno zyskały popularność – tam nie trzeba się zastanawiać, czy wolno korzystać z bazy w celach zarobkowych.

Pytanie 16

Które ustawienie należy wybrać na multimetrze w celu pomiaru napięcia 12 V w obwodzie prądu stałego?

A. DCA
B. DCV
C. ACV
D. ACA
Wybierając opcję DCV na multimetrze, od razu ustawiasz się na właściwy tor do bezpiecznego i precyzyjnego pomiaru napięcia 12 V w obwodzie prądu stałego. Skrót DCV oznacza dosłownie „Direct Current Voltage”, czyli napięcie prądu stałego. To jest dokładnie to, co spotkasz chociażby w instalacjach samochodowych, zasilaczach czy popularnych układach elektronicznych. Dobrą praktyką jest przed pomiarem ocenić spodziewaną wartość napięcia i – jeśli multimetr nie jest automatyczny – wybrać zakres minimalnie wyższy od spodziewanego. To zabezpiecza zarówno miernik, jak i wynik przed błędami. Z mojego doświadczenia wynika, że wielu początkujących myli DCV z DCA, bo oba mają „DC”, ale przy napięciu zawsze chodzi o V jak „Voltage”. W przewodnikach i instrukcjach do multimetrów zawsze podkreśla się, żeby nie mierzyć napięcia na ustawieniu do prądu, bo można spalić bezpiecznik w mierniku – niby oczywiste, ale w praktyce zdarza się często. DCV to podstawa pracy z klasycznymi bateriami, akumulatorami i wszędzie tam, gdzie nie ma zmiany kierunku przepływu prądu. W branży elektronicznej i energetycznej takie podejście jest standardem i świadczy o profesjonalizmie obsługi narzędzi.

Pytanie 17

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. copy kat_docelowy kat_zrodlowy/dane.txt
B. copy kat_zrodlowy\dane.txt kat_docelowy
C. move kat_zrodlowy/dane.txt kat_docelowy
D. move kat_docelowy kat_zrodlowy\dane.txt
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.

Pytanie 18

Ile dysków i z jakim interfejsem zostało wykazanych na zrzucie programu GParted?

Ilustracja do pytania
A. 1 dysk z interfejsem SATA
B. 1 dysk z interfejsem SAS
C. 2 dyski z interfejsem SAS
D. 2 dyski z interfejsem SATA
Na zrzucie ekranu programu GParted widać wyraźnie tylko jeden dysk oznaczony jako /dev/sda. To jest standardowe oznaczenie dla pierwszego dysku w systemie Linux, najczęściej podłączonego przez interfejs SATA. Program GParted nie pokazuje tu żadnych innych nośników, więc nie ma mowy o dwóch dyskach czy innych interfejsach, typu SAS. W praktyce, SATA to obecnie najczęściej spotykany interfejs w komputerach osobistych i laptopach, szczególnie jeśli mówimy o dyskach HDD lub SSD 2,5 cala. Jak ktoś pracuje w serwisie komputerowym lub po prostu lubi grzebać w sprzęcie, to od razu rozpozna te oznaczenia. Z mojego doświadczenia większość domowych użytkowników nawet nie zdaje sobie sprawy, że istnieje coś takiego jak SAS – to raczej domena serwerów i stacji roboczych. Warto zwrócić uwagę, że GParted pokazuje także partycje i ich typy, ale nie sugeruje w żadnym miejscu obecności innego interfejsu niż SATA. To jest zgodne ze standardami branżowymi – Linux rozróżnia dyski po prefiksie: sda, sdb, itd., gdzie "sd" oznacza urządzenie dyskowe typu SCSI, co obecnie obejmuje również SATA, bo oba interfejsy są obsługiwane przez ten sam sterownik w jądrze systemu. Tak naprawdę dobra praktyka przy analizie dysków w systemie to zawsze sprawdzać nie tylko podział na partycje, ale i faktyczną fizyczną obecność urządzeń sprzętowych oraz ich typ. Moim zdaniem, umiejętność odróżniania takich rzeczy jest naprawdę kluczowa dla każdego informatyka.

Pytanie 19

Zaćma fotochemiczna jest wywołana promieniowaniem

A. VIS
B. UV-A
C. UV-B
D. IR-C
Zaćma fotochemiczna to temat, który moim zdaniem warto dobrze zrozumieć, zwłaszcza jeśli myśli się o pracy w zawodach narażonych na promieniowanie optyczne. Chodzi tu o to, że soczewka oka jest wyjątkowo wrażliwa na promieniowanie ultrafioletowe, a szczególnie na zakres UV-A (czyli fale o długości 315-400 nm). To właśnie ekspozycja na UV-A, nawet w stosunkowo niskich dawkach, ale przez dłuższy czas, prowadzi do zmian fotochemicznych w białkach soczewki. W rezultacie mogą pojawiać się zmętnienia – to jest właśnie zaćma fotochemiczna. Przykładem mogą być osoby pracujące na świeżym powietrzu przez wiele lat bez odpowiednich okularów ochronnych – np. rolnicy, spawacze czy pracownicy budowlani. Sztandarowe normy BHP, takie jak PN-EN 14255 czy wytyczne Europejskiego Towarzystwa Zaćmy i Chirurgii Refrakcyjnej, podkreślają konieczność stosowania filtrów UV właśnie w zakresie UV-A. W praktyce, stosując dobre okulary przeciwsłoneczne z filtrem UV-A, można znacznie ograniczyć ryzyko zaćmy. Mało kto pamięta, że popularne lampy żarowe UV do utwardzania lakierów czy dezynfekcji również generują UV-A i tam ochrona oczu to podstawa. Ciekawostka: promieniowanie UV-B i UV-C też bywa szkodliwe, ale dla soczewki zdecydowanie najgroźniejsze w kontekście zaćmy jest UV-A, głównie przez głębokość penetracji w tkankach oka. Dlatego w branży optycznej i medycznej mówi się jasno – UV-A to wróg soczewki.

Pytanie 20

Które polecenie w systemie Windows tworzy folder Dane?

A. set Dane
B. rmdir Dane
C. ren Dane
D. mkdir Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 21

Który rodzaj promieniowania jonizującego jest całkowicie pochłaniany przez naskórek, nie docierając do głębszych warstw tkanek?

A. γ
B. e
C. α
D. β
Promieniowanie alfa, czyli promieniowanie α, to tak naprawdę cząstki zbudowane z dwóch protonów i dwóch neutronów – wygląda to po prostu jak jądro helu. Ich masa jest całkiem spora jak na świat mikro, a przez to przenikliwość w środowisku jest bardzo mała. W praktyce, te cząstki są zatrzymywane już przez naskórek człowieka, a nawet zwykłą kartkę papieru (szczerze, czasem nawet nie przebiją jej). To sprawia, że zewnętrzne promieniowanie alfa nie zagraża naszym organom wewnętrznym, bo nie przechodzi przez skórę – i to jest bardzo ważna rzecz w praktyce zawodowej, np. w laboratoriach czy przemyśle. Jednak warto wiedzieć, że jeśli materiał emitujący promieniowanie alfa dostanie się do organizmu (np. przez wdychanie czy jedzenie), staje się wyjątkowo niebezpieczny, bo wewnątrz ciała nie chroni nas już warstwa skóry. To dlatego w laboratoriach zaleca się szczególną ostrożność przy pracy z izotopami alfa – stosowanie zamkniętych układów, dygestoriów, odzieży ochronnej i przestrzeganie wszelkich procedur BHP. Z mojego doświadczenia, o promieniowaniu alfa i jego zatrzymywaniu się na naskórku zawsze się mówi podczas szkoleń radiologicznych, bo to taki typowy „wyjątek od reguły” – na zewnątrz niegroźne, wewnątrz ekstremalnie szkodliwe. Warto to zapamiętać, bo w praktyce w ochronie radiologicznej ten paradoks często decyduje o projektowaniu zabezpieczeń i standardów pracy.

Pytanie 22

Technologia dual channel dotyczy pracy dwóch takich samych

A. dysków twardych.
B. pamięci RAM.
C. dysków SSD.
D. kart graficznych.
Technologia dual channel to taki sprytny sposób, dzięki któremu płyta główna może pracować z dwoma kośćmi pamięci RAM jednocześnie, zwiększając przepustowość danych pomiędzy RAM a procesorem. W praktyce chodzi o to, że procesor może przesyłać dane do dwóch modułów w tym samym momencie, co znacznie przyspiesza ładowanie programów czy operacje na większych plikach. Najlepiej działa, gdy obie kości RAM są identyczne – zarówno pod względem pojemności, jak i częstotliwości. To dlatego w sklepach często widuje się zestawy RAM po dwie sztuki. Z mojego doświadczenia, przy pracy z aplikacjami graficznymi czy w grach, różnica między single a dual channel potrafi być naprawdę odczuwalna – wszystko szybciej się ładuje, a system nie dostaje zadyszki, nawet przy większym obciążeniu. Z punktu widzenia standardów, większość nowoczesnych płyt głównych od lat obsługuje dual channel, a niektóre nawet quad channel, choć to już wyższa liga i dotyczy raczej serwerów czy stacji roboczych. Warto pamiętać, żeby kości były wkładane w odpowiednie sloty, zazwyczaj opisane w instrukcji – wtedy mamy pewność, że wszystko śmiga jak należy. Dual channel to nie żaden marketing, tylko realny zysk wydajności i moim zdaniem warto o tym pamiętać przy składaniu nawet prostego zestawu do domu czy biura. No i taka ciekawostka – w niektórych laptopach ta technologia też działa, ale wymaga dwóch fizycznych modułów, więc dobrze o tym wiedzieć, zanim kupisz model tylko z jedną kością.

Pytanie 23

W celu archiwizacji danych w systemie Linux wymagane jest utworzenie archiwum. Korzystając z zamieszczonej w ramce pomocy dobierz odpowiednie polecenie.

-c, --createutworzenie nowego archiwum
-z, --gzipfiltrowanie archiwum przez gzip
-v, --verbosewypisywanie szczegółów o przetwarzanych plikach
-f, --file=ARCHIWUMużycie pliku lub urządzenia ARCHIWUM
-x, --extractrozpakowanie plików z archiwum
-t, --listwypisanie zawartości archiwum
-r, --appenddołączenie plików na końcu archiwum
-u, --updatedołączenie tylko plików nowszych niż kopie w archiwum
A. tar – rvf
B. tar – xvf
C. tar – cvf
D. tar – tvf
Polecenie tar –cvf to absolutna podstawa, jeśli chodzi o archiwizację danych w systemach Linux. Flaga -c, jak pokazuje tabela pomocy, oznacza utworzenie nowego archiwum, a -v pozwala na obserwowanie, co dokładnie jest do niego dodawane – co, moim zdaniem, bywa przydatne, zwłaszcza gdy pracujesz z większą liczbą plików i chcesz mieć szybki podgląd postępu. Opcja -f wskazuje miejsce docelowe archiwum, czyli nazwę pliku (na przykład backup.tar). Bardzo często w praktyce dodaje się też -z do kompresji przez gzip, czyli tar -czvf, co pozwala mocno zmniejszyć rozmiar archiwum. Warto przyjąć zasadę, żeby zawsze jasno nazywać pliki wynikowe i trzymać się ustalonych konwencji nazewnictwa, bo potem łatwiej znaleźć archiwum wśród setek innych plików. Z mojego doświadczenia archiwizacja przez tar to nie tylko backupy – sporo administratorów korzysta z tej metody do migracji środowisk, przenoszenia całych katalogów konfiguracyjnych czy nawet przygotowywania snapshotów aplikacji na serwerach produkcyjnych. Dobrą praktyką jest też testowanie potem archiwum przez tar -tvf, żeby sprawdzić, czy wszystko się poprawnie zapisało. Ogólnie, polecenie tar –cvf to żelazny standard i aż dziw bierze, jak często ktoś się myli, bo nie do końca rozumie, co oznacza każda flaga – choć to przecież fundamenty pracy w Linuxie.

Pytanie 24

Które polecenie SQL służy do utworzenia bazy danych?

A. CREATE DATABASE
B. RUN DATABASE
C. DO DATABASE
D. MAKE DATABASE
Polecenie CREATE DATABASE jest uniwersalnym i oficjalnym standardem SQL do tworzenia nowych baz danych w systemach zarządzania bazami danych takich jak MySQL, PostgreSQL, czy SQL Server. Użycie tej komendy jest zalecane zawsze, gdy chcesz zainicjować nową przestrzeń do przechowywania danych – bez względu na to, czy tworzysz środowisko testowe, czy produkcyjne. W praktyce, jeśli chcesz założyć bazę o nazwie np. 'sklep', wystarczy wpisać: CREATE DATABASE sklep;. Co ciekawe, większość nowoczesnych silników baz danych wspiera dodatkowe opcje, np. określenie kodowania znaków czy lokalizacji plików, choć to już zależy od konkretnego systemu. Z mojego doświadczenia wynika, że znajomość tej komendy jest absolutną podstawą w pracy nawet początkującego administratora baz danych – praktycznie nie da się zacząć pracy z SQL bez niej. Warto też pamiętać, że CREATE DATABASE jest zgodny z normą ANSI SQL, co oznacza, że polecenie to działa w wielu różnych systemach, z niewielkimi wyjątkami. Stosowanie polecenia w formie CREATE DATABASE gwarantuje największą przenośność Twoich skryptów SQL między różnymi bazami danych. Moim zdaniem, nawet jeśli ktoś korzysta z narzędzi graficznych, dobrze znać właśnie tę składnię – w końcu każda poważniejsza automatyzacja czy migracja danych opiera się na tego typu poleceniach. Branżowe dobre praktyki zalecają, aby przed wykonaniem CREATE DATABASE mieć przygotowany plan nazw i struktur, unikając kolizji nazw oraz wdrażając odpowiednie uprawnienia dostępu.

Pytanie 25

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Układ I/O
B. Pamięć RAM
C. Pamięć flash
D. Procesor
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 26

Ile operacji inkrementacji wykonano w przedstawionej liście kroków?

i=0;
Dopóki i>3 wykonaj      i=i+1;
A. Wykonano dwie operacje.
B. Wykonano jedną operację.
C. Wykonano trzy operacje.
D. Wykonano zero operacji.
Warunek dopóki i>3 sprawia, że pętla nie jest wykonywana ani razu, bo już na początku zmienna i ma wartość 0, która nie spełnia tego warunku. Takie zachowanie jest bardzo typowe w wielu językach programowania, szczególnie gdy stosujemy pętle z warunkiem wejściowym, jak while w C, C++ czy Pythonie. W tym przypadku inkrementacja i=i+1 nigdy nie zostaje uruchomiona, więc liczba operacji inkrementacji wynosi dokładnie zero. Moim zdaniem to ważna pułapka logiczna – czasem wydaje się, że pętla coś wykona, bo jest instrukcja inkrementacji i cały blok, a tymczasem wszystko rozgrywa się na poziomie warunku początkowego. W praktyce profesjonalnej programista powinien zawsze na chłodno przeanalizować, czy warunek pozwala wejść do pętli, zanim zacznie rozważać ile operacji jest wykonanych. W dokumentacjach i materiałach edukacyjnych często się to podkreśla, bo takich błędów łatwo uniknąć, jeśli dobrze rozumie się logikę pętli. Przykład bardzo przypomina popularny case, gdy błędnie ustawiony warunek pętli może całkiem zablokować jej wykonywanie – zdarza się to nawet doświadczonym osobom. Warto się upewnić, czy warunek wejścia do pętli jest spełniony dla wartości początkowych zmiennych, bo to jeden z filarów poprawnego programowania strukturalnego.

Pytanie 27

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Zmniejsza przepływ krwi tętniczej.
B. Przyśpiesza procesy przemiany materii.
C. Zmniejsza próg odczuwania bólu.
D. Zwiększa napięcie mięśni szkieletowych.
Promieniowanie podczerwone (IR) ma dość ciekawe zastosowania zarówno w medycynie, jak i w przemyśle. Najważniejsze jest to, że IR powoduje lokalny wzrost temperatury tkanek, co bezpośrednio wpływa na przyśpieszenie procesów przemiany materii w komórkach – właśnie ta odpowiedź jest prawidłowa. Moim zdaniem, to jeden z lepszych przykładów na to, jak fizyka spotyka się z biologią w praktyce. Jeżeli pomyślimy o naświetlaniu IR w fizykoterapii, to zauważymy, że tego typu zabiegi są wykorzystywane chociażby do poprawy regeneracji po urazach, bo podniesienie temperatury miejscowej przyspiesza metabolizm i napływ substancji odżywczych oraz usuwanie produktów przemiany materii. Branżowe standardy, np. w fizjoterapii, przypisują IR właśnie takie działanie – działanie przyspieszające metabolizm, poprawiające ukrwienie i ogólnie wspierające procesy naprawcze. Nawet w codziennym życiu, kiedy korzystamy z sauny na podczerwień, odczuwamy podniesioną temperaturę skóry i przyspieszone tętno – to wszystko efekty przyspieszonej przemiany materii. Warto pamiętać, że stosowanie IR wymaga zachowania środków ostrożności, bo nadmierne nagrzewanie może prowadzić do poparzeń. Z mojego doświadczenia, te efekty są szczególnie zauważalne przy zabiegach na osoby z przewlekłymi napięciami mięśniowymi, gdzie podczerwień realnie wspiera regenerację. W literaturze branżowej często podkreśla się ten aspekt, więc zdecydowanie warto znać praktyczne zastosowania promieniowania IR.

Pytanie 28

Technika diagnostyki obrazowej polegająca na badaniu struktur serca i dużych naczyń krwionośnych za pomocą ultradźwięków jest określana skrótem

A. EKG
B. ETG
C. UKG
D. KTG
UKG, czyli ultrasonokardiografia, to jedno z podstawowych badań obrazowych w diagnostyce chorób serca i dużych naczyń krwionośnych. Moim zdaniem to trochę niedoceniany skrót, bo przecież w praktyce klinicznej to badanie jest wykonywane bardzo często, praktycznie w każdym oddziale kardiologicznym czy nawet na SOR-ze. Ultrasonografia serca polega na wykorzystaniu fal ultradźwiękowych do tworzenia obrazu wnętrza serca – można dzięki temu ocenić anatomię, kurczliwość mięśnia, grubość ścian, działanie zastawek, a nawet przepływ krwi w poszczególnych jamach i naczyniach. Przede wszystkim UKG pozwala wykryć wady wrodzone i nabyte serca, zaburzenia funkcji zastawek, kardiomiopatie oraz niewydolność serca. To badanie jest bezpieczne, nieinwazyjne i można je powtarzać bez większego ryzyka, co jest superważne w kontroli przewlekle chorych pacjentów. Z mojego doświadczenia lekarze bardzo cenią UKG, bo pozwala podejmować szybkie decyzje kliniczne, a w standardach Polskiego Towarzystwa Kardiologicznego i międzynarodowych wytycznych UKG jest podstawą diagnostyki. Warto też wiedzieć, że inne skróty są mocno mylące – EKG to coś zupełnie innego, a UKG czasem nazywa się potocznie „echo serca”.

Pytanie 29

Do badań ultrasonograficznych struktur płytko położonych (np. tarczycy) stosuje się głowicę

A. sektorową.
B. liniową.
C. konweksową.
D. rektalną.
W badaniach ultrasonograficznych struktur płytko położonych, takich jak tarczyca, zdecydowanie najlepiej sprawdza się głowica liniowa. Wynika to przede wszystkim z jej specyficznej konstrukcji – liniowy układ piezoelektryczny umożliwia uzyskanie bardzo wysokiej rozdzielczości obrazowania w zakresie kilku centymetrów od powierzchni skóry. Moim zdaniem, to właśnie ta precyzja jest kluczowa, bo tarczyca czy naczynia powierzchowne wymagają dokładnych pomiarów i detekcji nawet drobnych zmian strukturalnych. Liniowa głowica emituje fale ultradźwiękowe pod kątem prostym do powierzchni skóry, co pozwala na uzyskanie szczegółowego obrazu przekroju poprzecznego badanej tkanki. Standardem w diagnostyce chorób tarczycy oraz w ocenie węzłów chłonnych szyi jest właśnie użycie głowicy liniowej o częstotliwości minimum 7,5 MHz, choć często stosuje się nawet wyższe, bo powyżej 10 MHz, jeśli sprzęt pozwala. Z mojego doświadczenia – jeśli tylko operator korzysta z wysokiej klasy głowicy liniowej, łatwiej mu wykryć nawet bardzo niewielkie guzki czy mikrozwapnienia. Warto też pamiętać, że ta sama głowica bywa wykorzystywana w diagnostyce zmian skórnych, naczyniowych czy nawet w ocenie mięśni i ścięgien. To taka uniwersalna głowica do płytko położonych struktur – praktycznie nieoceniona w gabinecie USG. Przykładowo, większość zaleceń Polskiego Towarzystwa Ultrasonograficznego jasno wskazuje głowicę liniową jako bazową w tych zastosowaniach. Takie rozwiązanie pozwala na uzyskanie obrazu o najwyższej dostępnej jakości powierzchniowej, co finalnie przekłada się na lepszą diagnostykę i komfort pracy.

Pytanie 30

Wymianą informacji pomiędzy układami znajdującymi się na płycie głównej komputera steruje

A. pamięć RAM.
B. chipset.
C. procesor GPU.
D. MAC.
Chipset to taki trochę niewidzialny bohater na płycie głównej – niby go nie widać, mało kto o nim mówi przy składaniu kompa, a jednak to on kieruje całym ruchem informacji pomiędzy procesorem, pamięcią RAM, kartami rozszerzeń czy nawet dyskami. Jeśli by porównać płytę główną do ruchliwego skrzyżowania, to chipset jest takim policjantem, który decyduje, kto ma pierwszeństwo, a kto musi poczekać. Chipset składa się z dwóch głównych części – dawniej nazywanych Northbridge i Southbridge, choć dzisiaj w nowoczesnych rozwiązaniach większość funkcji Northbridge’a jest już przeniesiona do procesora. W praktyce to właśnie chipset odgrywa kluczową rolę w tym, czy dany komputer obsłuży szybkie pamięci RAM, ile dysków SSD da się podłączyć, czy można zamontować najnowszą kartę graficzną, czy nie. Wybierając płytę główną, zawsze warto spojrzeć, jaki chipset jest na pokładzie, bo to od niego zależy, jakie technologie będą dostępne i jak wydajnie będą one ze sobą współpracowały. Moim zdaniem znajomość działania chipsetu to absolutna podstawa dla każdego, kto chce nie tylko składać, ale i naprawiać czy rozbudowywać komputery. Bez tej wiedzy bardzo łatwo popełnić błąd i potem się dziwić, czemu coś nie działa albo nie da się podkręcić sprzętu. Z własnego doświadczenia wiem, że zwracanie uwagi na chipset pozwala uniknąć wielu problemów z kompatybilnością i wydajnością. To taka nieoczywista, ale bardzo ważna część komputera, o której mówią wszyscy bardziej zaawansowani technicy.

Pytanie 31

W tabeli zestawiono parametry pamięci półprzewodnikowej i pamięci magnetycznej. Zastosowanie którego rodzaju pamięci umożliwi szybszą pracę komputera?

Ilustracja do pytania
A. Dysk HDD z uwagi na czas procesora.
B. Dysk SSD z uwagi na czas dostępu.
C. Dysk SSD ze względu na pobieraną moc.
D. Dysk HDD ze względu na pobieraną moc.
Prawidłowo wskazana odpowiedź opiera się na kluczowym parametrze, jakim jest czas dostępu do danych. W praktyce to właśnie ten czas w największym stopniu wpływa na odczuwalną szybkość pracy komputera – szczególnie przy uruchamianiu systemu, ładowaniu aplikacji czy pracy z dużą ilością plików. SSD, czyli dyski półprzewodnikowe, charakteryzują się czasem dostępu rzędu 0,1 ms, co w porównaniu z 5,5-8 ms dla dysków HDD jest wynikiem nieporównywalnie lepszym. To oznacza, że praktycznie każda operacja na plikach odbywa się prawie natychmiastowo. W realnych zastosowaniach, takich jak montaż wideo, programowanie, czy nawet zwykłe korzystanie z przeglądarki, SSD po prostu nie mają sobie równych. Z mojego doświadczenia wynika, że nawet w starszych komputerach wymiana HDD na SSD potrafi sprawić, że sprzęt dostaje drugie życie. Warto też zauważyć, że standardy branżowe, takie jak zalecenia Microsoft czy producentów serwerów, jasno wskazują SSD jako optymalne rozwiązanie wszędzie tam, gdzie liczy się szybkość dostępu do danych. Oczywiście SSD mają też inne zalety – są mniej awaryjne, mniej prądożerne, no ale to właśnie szybkość jest tu kluczowa. W sumie, jeśli komuś zależy na przyspieszeniu pracy komputera w codziennych zastosowaniach, SSD to wybór numer jeden – i tego raczej nic już nie zmieni.

Pytanie 32

Która magistrala służy do szeregowej transmisji danych?

A. ATA
B. AGP
C. PCI X
D. PCI E
PCI Express, czyli PCIe, to obecnie najpopularniejsza magistrala wykorzystywana do szeregowej transmisji danych pomiędzy płytą główną a takimi urządzeniami jak karty graficzne, karty sieciowe czy pamięci masowe NVMe. W odróżnieniu od starszych rozwiązań, takich jak klasyczne PCI czy AGP, PCIe przesyła dane szeregowo, czyli bit po bicie za pomocą tzw. linii (linii transmisyjnych), co pozwala na osiąganie bardzo wysokich przepustowości przy jednoczesnej elastyczności konfiguracji (np. x1, x4, x8, x16). Szeregowa transmisja w PCIe minimalizuje zakłócenia i poprawia integralność sygnałów, więc moim zdaniem to rozwiązanie sprawdza się nawet przy bardzo wymagających zastosowaniach, takich jak gaming czy obliczenia naukowe. W nowoczesnych komputerach praktycznie każda wydajna karta graficzna czy szybki dysk SSD NVMe komunikuje się właśnie przez PCI Express, bo to dzięki tej magistrali możliwe są transfery liczone w gigabajtach na sekundę. Warto też wiedzieć, że PCIe cały czas się rozwija – każda kolejna generacja (np. 4.0 czy 5.0) podwaja przepustowość. Z mojego doświadczenia wynika, że szeregowa transmisja to nie tylko przyszłość, ale już teraźniejszość sprzętu komputerowego – nie wyobrażam sobie dzisiaj nowoczesnej płyty głównej bez PCIe.

Pytanie 33

Aby system komputerowy współpracujący z ultrasonografem mógł nagrywać na jednej płycie DVD dane z kolejnych, wykonywanych na bieżąco badań, musi być wyposażony w nagrywanie

A. wielowątkowe.
B. wielostronicowe.
C. wielosesyjne.
D. wielowarstwowe.
Prawidłowa odpowiedź to „nagrywanie wielosesyjne” i właśnie taki tryb jest wykorzystywany, gdy mamy potrzebę dogrywania kolejnych danych na jedną płytę DVD, na przykład wtedy, gdy podczas pracy z ultrasonografem wykonywane są kolejne badania w różnych momentach. Dzięki sesjom można nagrywać nowe partie danych bez konieczności zamykania płyty, co jest superpraktyczne w pracy medycznej czy diagnostycznej. Moim zdaniem w realiach szpitalnych czy w pracowniach diagnostycznych często zdarza się, że nie wszystko da się wykonać „na raz” i właśnie wtedy taka funkcjonalność okazuje się nieoceniona. Branżowe standardy, szczególnie w sprzęcie medycznym, mocno podkreślają bezpieczeństwo i możliwość archiwizacji – wielosesyjność pozwala nie tylko na dokładanie nowych badań, ale też na zachowanie porządku i oddzielenie sesji konkretnymi opisami. Daje to też większą elastyczność – możesz dograć dane pacjenta wtedy, kiedy jest to potrzebne, a nie martwić się, że trzeba będzie tworzyć zupełnie nowy nośnik. W praktyce wielu producentów sprzętu medycznego stosuje takie rozwiązania – na przykład aparaty USG czy systemy PACS (archiwizacja obrazów). Dodatkowo, jeśli masz płytę wielosesyjną, możesz ją odczytać na większości standardowych napędów, a dane pozostają dobrze zorganizowane. Taka opcja to zdecydowanie branżowy „must have” przy pracy z dużą ilością danych obrazowych, gdzie liczy się zarówno bezpieczeństwo, jak i wygoda pracy.

Pytanie 34

Katalog /dev w Linuxie zawiera pliki

A. binarne narzędzi systemowych.
B. niezbędne do uruchamiania systemu.
C. do komunikacji systemu z urządzeniami.
D. konfiguracyjne, systemowe.
Katalog /dev w systemach Linux to zdecydowanie jedno z ciekawszych miejsc w strukturze plików. Moim zdaniem często bywa niedoceniany przez początkujących, a przecież to tutaj znajdziesz pliki urządzeń, które pozwalają systemowi komunikować się bezpośrednio ze sprzętem. Pliki te, nazywane plikami urządzeń (device files), nie są zwykłymi plikami z danymi – w rzeczywistości reprezentują interfejsy do fizycznych lub wirtualnych urządzeń, takich jak dyski twarde (/dev/sda), terminale (/dev/tty), czy pamięć RAM (/dev/mem). To jest genialne rozwiązanie: każde urządzenie jest dostępne jak plik – można je czytać, zapisywać, a nawet przekierowywać do nich strumienie. Z mojego doświadczenia, jeśli chcesz np. sklonować cały dysk, wystarczy użyć komendy dd na /dev/sda – żaden magiczny interfejs, po prostu plik! Standard Filesystem Hierarchy Standard (FHS) wyraźnie określa, że /dev służy właśnie do tego celu. Warto pamiętać, że pliki te są tworzone dynamicznie – często przez udev – więc na nowoczesnych systemach zawartość tego katalogu może się zmieniać wraz z podłączaniem i odłączaniem sprzętu. W praktyce, rozumienie działania /dev bardzo pomaga np. przy diagnozowaniu problemów sprzętowych, konfiguracji RAID czy nawet wirtualizacji. To taka baza wypadowa dla każdego, kto poważnie podchodzi do administracji Linuksem.

Pytanie 35

Czujnik tensometryczny i sonda ultradźwiękowa są elementami aparatu

A. EMG
B. KTG
C. EKG
D. RTG
Czujnik tensometryczny oraz sonda ultradźwiękowa to w praktyce bardzo ważne elementy aparatu KTG, czyli kardiotokografu. KTG stosuje się głównie w położnictwie, najczęściej w szpitalach na salach porodowych lub w gabinetach ginekologicznych. Sonda ultradźwiękowa w tym urządzeniu służy do monitorowania tętna płodu – działa na zasadzie Dopplera, czyli analizuje zmiany częstotliwości fali odbitej od poruszającego się serca malucha. Dzięki temu lekarz może na bieżąco śledzić kondycję płodu, co jest naprawdę kluczowe przy ocenie czy wszystko przebiega prawidłowo. Z kolei czujnik tensometryczny – czasem nazywany też mankietem tensometrycznym albo przetwornikiem ciśnienia – mierzy napięcie macicy, czyli rejestruje skurcze. Na co dzień można spotkać się z tym, że po założeniu obydwu głowic na brzuch ciężarnej mamy, na wydruku KTG pokazują się równoległe wykresy: jeden dla serca płodu, drugi dla skurczów macicy. W dobrych praktykach położniczych, na przykład zgodnie z zaleceniami Polskiego Towarzystwa Ginekologów i Położników, KTG wykonuje się zarówno profilaktycznie w końcówce ciąży, jak i w trakcie porodu. Moim zdaniem, wiedza o działaniu tych czujników przydaje się nie tylko medykom, ale też technikom medycznym, bo serwisowanie takiego sprzętu wymaga zrozumienia zarówno technologii ultradźwiękowej, jak i pomiarów tensometrycznych. Z ciekawostek: czasem w nowoczesnych KTG można spotkać czujniki bezprzewodowe, co bardzo ułatwia życie na oddziale. W praktyce ciągle jednak dominuje klasyczne rozwiązanie z dwoma przewodami.

Pytanie 36

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. tar
B. rar
C. raw
D. tga
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 37

W sieci centralnego monitoringu zamontowane są gniazda przedstawione na rysunku. Jakiego typu wtykami muszą być zakończone kable?

Ilustracja do pytania
A. DVI
B. USB
C. RJ45
D. HDMI
Gniazdo widoczne na zdjęciu to klasyczne złącze RJ45, stosowane praktycznie we wszystkich instalacjach sieci komputerowych – zarówno w budynkach biurowych, jak i w systemach monitoringu wizyjnego. RJ45 to standardowy interfejs dla przewodów typu skrętka, wykorzystywanych w transmisji danych w sieciach Ethernet. W centralnym monitoringu właśnie te złącza stosuje się najczęściej do podłączania kamer IP oraz urządzeń sieciowych — jest to rozwiązanie stabilne, odporne na zakłócenia i umożliwiające zasilanie urządzeń przez PoE (Power over Ethernet), co znacznie upraszcza instalację. Moim zdaniem trudno wskazać lepszą alternatywę pod względem uniwersalności i niezawodności. Warto pamiętać, że RJ45 nie tylko zapewnia wysoką przepustowość (nawet do 10 Gb/s w nowoczesnych sieciach), ale również jest zgodne ze standardami TIA/EIA-568. Branżowa praktyka pokazuje, że w systemach bezpieczeństwa i telewizji przemysłowej rozwiązania na bazie RJ45 to już niemal standard de facto. Jeśli ktoś myśli o instalacjach na lata, to zdecydowanie polecam stawiać właśnie na takie okablowanie.

Pytanie 38

Urządzenie, którego dotyczy fragment podanej specyfikacji, jest przystosowane do

■ Architektura sieci LAN:Wireless IEEE 802.11ac, Wireless IEEE 802.11a, Wireless IEEE 802.11b, Wireless IEEE 802.11g, Wireless IEEE 802.11n
■ Dodatkowe informacje:PoE, RJ-45 Serial
■ Typ urządzenia:Bezprzewodowy kontroler
■ Typ złącza anteny zewnętrznej:3x3 MIMO
A. wymiany danych z wykorzystaniem technologii Bluetooth.
B. pracy ze złączem światłowodowym.
C. parowania urządzeń przy pomocy standardu NFC.
D. korzystania z pojedynczego przewodu do transmisji danych i zasilania urządzenia.
Wybrałeś odpowiedź, która faktycznie najlepiej oddaje funkcjonalność opisanego urządzenia. W specyfikacji wyraźnie podano, że urządzenie obsługuje PoE (Power over Ethernet), a to jest właśnie technologia pozwalająca na jednoczesną transmisję danych oraz zasilanie poprzez jeden przewód Ethernetowy (RJ-45). Moim zdaniem to rozwiązanie jest bardzo praktyczne wszędzie tam, gdzie nie ma możliwości poprowadzenia osobnej instalacji elektrycznej, np. w biurach, na halach produkcyjnych czy w szkołach. W branży sieciowej PoE jest już właściwie standardem przy wdrażaniu punktów dostępowych Wi-Fi, kamer IP czy telefonów VoIP. Dzięki temu ogranicza się liczbę przewodów, zmniejsza ryzyko błędów instalacyjnych oraz obniża koszty całej infrastruktury. Warto też dodać, że PoE ma różne warianty (np. PoE, PoE+, PoE++), które różnią się mocą dostarczaną do urządzenia. Oprócz wygody, PoE daje też większą elastyczność przy modernizacjach sieci – można łatwiej zmienić lokalizację urządzenia bez konieczności przekładania instalacji elektrycznej. Z mojego doświadczenia wynika, że jeśli dostajesz urządzenie z PoE i RJ-45, to praktycznie zawsze oznacza to możliwość transmisji danych oraz zasilania przez jeden przewód – i to jest właśnie kluczowa przewaga tej technologii nad bardziej tradycyjnymi rozwiązaniami.

Pytanie 39

Zasilacz, który podczas normalnej pracy zasila urządzenie, jednocześnie ładując akumulator, a podczas awarii zasilania sieciowego zasila urządzenie z akumulatora, oznaczany jest skrótem

A. UTP
B. UEFI
C. UDP
D. UPS
UPS, czyli Uninterruptible Power Supply, to według mojej opinii jedno z tych urządzeń, które każdy kto poważnie myśli o bezpieczeństwie sprzętu IT powinien znać jak własną kieszeń. Główną zaletą UPS-a jest to, że działa on praktycznie niezauważalnie podczas normalnej pracy – urządzenie jest zasilane z sieci, a akumulatory doładowują się w tle. Dopiero jak zniknie napięcie – czy to z powodu awarii, czy zwykłego przepięcia, UPS przełącza się automatycznie na zasilanie z akumulatora i zapewnia ciągłość pracy. Ta funkcja to podstawa w serwerowniach, laboratoriach, ale też w domowych biurach – przecież nikt nie chce stracić niedokończonego projektu przez nagły zanik prądu. Z mojego doświadczenia, nawet najprostsze UPS-y typu offline potrafią uratować niejedną prezentację czy egzamin online. W praktyce branżowej bardzo często spotykamy różne typy UPS-ów: offline, line-interactive czy online (double conversion), każdy z nich inny pod względem czasu przełączenia czy jakości napięcia wyjściowego. Warto pamiętać, że dobór właściwego UPS-a to nie tylko kwestia mocy, ale też ilości i rodzaju podłączonych urządzeń, czasu podtrzymania i jakości filtracji. Standardy takie jak PN-EN 62040 czy wytyczne organizacji IEEE pokazują, na co zwracać uwagę przy projektowaniu zasilania awaryjnego. Szczerze mówiąc – bez UPS-a ciężko mówić o poważnym podejściu do ochrony sprzętu i danych.

Pytanie 40

Pojęcie „Architektura Harvardska” odnosi się do

A. topologii sieci komputerowej.
B. programów współpracujących z maszynami CNC.
C. pracy procesora.
D. komunikacji komputera z ploterem.
Architektura Harvardska to jedno z podstawowych pojęć w obszarze projektowania procesorów oraz mikroprocesorów. Generalnie chodzi w niej o to, że pamięć programu i pamięć danych są fizycznie rozdzielone — procesor ma osobne magistrale do komunikacji z każdą z nich. Z mojego doświadczenia wynika, że takie rozwiązanie daje dużą przewagę w szybkości przetwarzania. Dla przykładu, jeśli mamy mikrokontroler oparty na architekturze Harvardskiej, może on w jednym cyklu pobrać dane z jednej pamięci i instrukcję z drugiej, praktycznie równocześnie. Brzmi jak magia, ale to po prostu przemyślana inżynieria. Jest to szczególnie popularne w systemach embedded, np. w rodzinie AVR czy PIC, które często używa się chociażby w automatyce przemysłowej lub elektronice użytkowej. W odróżnieniu od architektury von Neumanna, gdzie jest jedna magistrala i pamięć, co może prowadzić do tzw. wąskiego gardła, tak zwany bottleneck. Moim zdaniem to rozdzielenie jest świetnym przykładem praktycznego wykorzystania teorii w realnych urządzeniach. Warto też wiedzieć, że w nowoczesnych procesorach hybrydowe podejście bywa stosowane, ale sama zasada architektury Harvardskiej to właśnie praca procesora, a nie topologia sieci czy komunikacja z ploterem. W praktyce często spotykam się z pomyłkami w tym zakresie, dlatego uważam, że warto dobrze rozróżniać te pojęcia.