Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 19 kwietnia 2026 19:49
  • Data zakończenia: 19 kwietnia 2026 20:09

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. copy kat_zrodlowy\dane.txt kat_docelowy
B. move kat_docelowy kat_zrodlowy\dane.txt
C. move kat_zrodlowy/dane.txt kat_docelowy
D. copy kat_docelowy kat_zrodlowy/dane.txt
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.

Pytanie 2

Podczas testowania elektrokardiografu otrzymano przedstawiony przebieg. Na jego podstawie stwierdzono, że nieprawidłowo działa filtr zakłóceń

Ilustracja do pytania
A. mięśniowych 35 Hz.
B. wolnozmiennych.
C. mięśniowych 25 Hz.
D. sieciowych.
Prawidłowa odpowiedź wskazuje na filtr zakłóceń wolnozmiennych, czyli tzw. filtr dolnoprzepustowy lub filtr odcinający zakłócenia typu „drift” (dryft linii izoelektrycznej). W praktyce, jeśli podczas testowania EKG widzimy przebieg, gdzie linia izoelektryczna „faluje” albo przesuwa się powoli w górę i w dół, zamiast być stabilna — to jest klasyczny objaw, że filtr wolnozmiennych nie spełnia swojej roli. Takie zakłócenia mogą pojawić się przez niestabilny kontakt elektrod ze skórą, ruchy pacjenta, oddychanie, pot czy nawet zmiany temperatury otoczenia. Z mojego doświadczenia, dobry filtr wolnozmiennych powinien skutecznie eliminować wszelkie powolne zmiany napięcia, które nie są sygnałem z serca, a tylko zakłóceniem (np. poniżej 0,5 Hz). Standardy branżowe, np. IEC 60601-2-25, jasno określają, że filtr powinien być tak zaprojektowany, by nie tłumić rzeczywistych elementów EKG (np. załamek T), a jednocześnie skutecznie niwelować dryft. W nowoczesnych elektrokardiografach często można ustawić próg takiego filtra, np. 0,05 Hz, by jak najlepiej dopasować się do potrzeb klinicznych. Dobrze zaprojektowany filtr wolnozmiennych to podstawa, bo bez niego analiza EKG potrafi być zupełnie nieprzydatna – fałszywe przesunięcia linii izoelektrycznej uniemożliwiają prawidłową interpretację rytmu czy odcinka ST. Takie detale naprawdę robią różnicę w codziennej pracy z aparaturą medyczną.

Pytanie 3

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Zwiększa napięcie mięśni szkieletowych.
B. Zmniejsza przepływ krwi tętniczej.
C. Przyśpiesza procesy przemiany materii.
D. Zmniejsza próg odczuwania bólu.
Wokół promieniowania podczerwonego narosło sporo nieporozumień, często wynikających z mylenia efektów IR z innymi rodzajami bodźców fizycznych. Przede wszystkim promieniowanie podczerwone nie zmniejsza progu odczuwania bólu w taki sposób, jak to robią na przykład fale ultradźwiękowe czy elektroterapia. Działanie IR polega na miejscowym podniesieniu temperatury, co może co prawda pośrednio łagodzić ból przez rozluźnienie mięśni, ale bezpośredniego wpływu na próg odczuwania bodźców bólowych nie ma – to typowy błąd myślenia wynikający z przenoszenia efektów cieplnych na inne układy fizjologiczne. Kolejne błędne przekonanie to przekonanie, że IR zmniejsza przepływ krwi tętniczej. Jest wręcz odwrotnie – ogrzewanie tkanek powoduje rozszerzenie naczyń krwionośnych i przez to zwiększenie przepływu, co jest potwierdzone w praktyce fizjoterapeutycznej i opisane w branżowych standardach, np. Polskiego Towarzystwa Fizjoterapii. Jeśli chodzi o wpływ na napięcie mięśni szkieletowych, podczerwień raczej sprzyja rozluźnieniu, a nie zwiększeniu napięcia – to właśnie dlatego wykorzystuje się ją w rehabilitacji pourazowej czy przy przewlekłych bólach mięśniowych. Typowym błędem jest tu mylenie reakcji mięśni na bodźce elektryczne z reakcją na bodziec cieplny. Podsumowując, promieniowanie IR ma przede wszystkim charakter działania cieplnego i metabolicznego: przyspiesza procesy przemiany materii przez podniesienie temperatury, co z kolei wspomaga regenerację i procesy naprawcze. Prawidłowe rozumienie tych efektów jest ważne nie tylko w teorii, ale też w praktyce, zwłaszcza gdy pracuje się z urządzeniami do fizykoterapii, bo od tego zależy skuteczność i bezpieczeństwo zabiegów.

Pytanie 4

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. filtrowania ramek sieci Ethernet.
B. szyfrowania pakietów.
C. przyspieszenia transmisji.
D. konwersji sygnału.
To urządzenie na zdjęciu to klasyczny media konwerter – w tym przypadku służy do konwersji sygnału pomiędzy różnymi mediami transmisyjnymi, najczęściej światłowodem i skrętką miedzianą Ethernet. W praktyce oznacza to, że pozwala podłączyć segment sieci oparty na światłowodzie do infrastruktury korzystającej z tradycyjnych przewodów RJ-45. To bardzo wygodne rozwiązanie, zwłaszcza w miejscach, gdzie trzeba przesłać dane na duże odległości – światłowód ma zdecydowanie mniejsze tłumienie i jest odporny na zakłócenia elektromagnetyczne. Moim zdaniem często media konwertery ratują sytuację na starszych obiektach, gdzie nie opłaca się wymieniać całej okablowania. Warto też pamiętać, że takie konwertery zapewniają zgodność z normami, np. IEEE 802.3u dla Fast Ethernet lub IEEE 802.3z dla Gigabit Ethernet na światłowodzie. Często są spotykane w szafach rackowych i przy połączeniach między różnymi budynkami. Generalnie, konwersja sygnału to podstawowa funkcja tych urządzeń – nie szyfrują ani nie filtrują pakietów, nie przyspieszają transmisji, tylko umożliwiają współpracę sprzętu używającego różnych mediów fizycznych.

Pytanie 5

System informatyczny wymaga zabezpieczenia danych poprzez tworzenie kopii zapasowych. Dysponując 2 dyskami, można je połączyć w

A. RAID0
B. RAID2
C. RAID5
D. RAID1
RAID1 to chyba jeden z najprostszych, a jednocześnie najpopularniejszych sposobów na ochronę danych przy użyciu dwóch dysków. Realnie działa to tak: oba dyski są lustrzane, czyli wszystko co zapiszesz na jednym, automatycznie kopiuje się na drugi. Jeśli jeden z nich padnie — a niestety w praktyce dyski nie są wieczne — dane są dalej dostępne z drugiego. Moim zdaniem, RAID1 to taki złoty środek dla małych serwerów albo domowych NAS-ów, gdzie bezpieczeństwo plików jest ważniejsze niż pojemność albo wydajność. Z doświadczenia wiem, że w wielu firmach to jest pierwszy wybór, zanim zacznie się inwestować w jakieś bardziej zaawansowane rozwiązania backupowe czy macierze z wieloma dyskami. Branżowe dobre praktyki wręcz zalecają stosowanie mirroringu danych dla krytycznych informacji — nawet jeśli nie chroni to przed wszystkimi typami awarii (np. usunięciem plików przez użytkownika), to daje dużą pewność przy awarii sprzętu. Warto pamiętać, że RAID1 zwiększa niezawodność, ale nie jest zamiennikiem dla prawdziwej kopii zapasowej, którą trzymasz poza macierzą. Jednak do codziennego zabezpieczenia, szczególnie przy tylko dwóch dyskach, to najlepszy wybór — łatwo skonfigurować, a obsługa praktycznie nie wymaga specjalistycznej wiedzy.

Pytanie 6

Urządzenie do rejestracji bioelektrycznych potencjałów mięśniowych to

A. elektrokochleograf.
B. kardiotokograf.
C. elektroencefalograf.
D. elektromiograf.
Elektromiograf to specjalistyczne urządzenie, które służy do rejestrowania bioelektrycznej aktywności mięśniowej. Zawsze mnie fascynowało, jak za pomocą cienkich elektrod powierzchniowych albo igłowych można „podejrzeć”, co dzieje się w mięśniach podczas ruchu czy nawet w spoczynku. Elektromiografia, czyli technika oparta o to urządzenie, pozwala ocenić działanie mięśni oraz przewodnictwo nerwowo-mięśniowe. To podstawa diagnostyki w neurologii oraz rehabilitacji – przykładowo, kiedy ktoś ma podejrzenie uszkodzenia nerwu, elektromiograf dostarcza precyzyjnych danych na temat lokalizacji i stopnia uszkodzenia. Często korzystają z tego fizjoterapeuci, lekarze sportowi, a nawet inżynierowie przy projektowaniu interfejsów do sterowania protezami bionicznych. W praktyce, prawidłowe użycie elektromiografu wymaga nie tylko znajomości zasad pomiaru, ale też analizy sygnałów EMG, które mogą być zakłócone przez szumy czy niewłaściwe ułożenie elektrod. Moim zdaniem, umiejętność obsługi tego sprzętu to absolutna podstawa w pracy z pacjentami po urazach neurologicznych. Branżowe wytyczne (np. standardy SENIAM) sugerują stosowanie odpowiednich protokołów do minimalizacji artefaktów oraz właściwej interpretacji wyników. Warto pamiętać, że sygnały EMG są bardzo czułe na ruchy, dlatego odpowiednie przygotowanie skóry i dobór elektrod mają kluczowe znaczenie dla jakości rejestracji. To naprawdę ciekawe i praktyczne narzędzie w codziennej pracy medycznej czy sportowej.

Pytanie 7

Operacja warunkowa w większości języków programowania wysokiego poziomu zaczyna się słowem

A. while
B. if
C. for
D. do
Operacja warunkowa to coś, co w programowaniu spotyka się na każdym kroku. Słowo kluczowe „if” jest takim fundamentem, bez którego trudno wyobrazić sobie jakikolwiek prosty algorytm. Można powiedzieć, że to taki podstawowy budulec logiki w większości popularnych języków, jak Python, Java, C++, C#, JavaScript – wszędzie tam „if” rozpoczyna warunkowe rozgałęzienie. Praktycznie zawsze wygląda to mniej więcej tak: if (warunek) { // kod gdy warunek prawdziwy }. Dzięki temu można sterować przepływem programu i reagować na różne sytuacje, zależnie od zmiennych lub wyniku działania funkcji. Co ciekawe, samo „if” to skrót od angielskiego „jeśli”, więc nawet osoby, które nie znają za dobrze języka angielskiego, łatwo zapamiętują jego działanie. Moim zdaniem, warto zawsze na początku nauki programowania dobrze zrozumieć, jak działa instrukcja warunkowa, bo potem przy bardziej złożonych projektach nie raz ratuje nam skórę. Dla przykładu – gdy programujemy prostą aplikację do logowania, najpierw sprawdzamy if hasło jest prawidłowe, potem if użytkownik jest aktywny, itd. To jest naprawdę uniwersalne narzędzie, a przy okazji bardzo czytelne i intuicyjne. Warto jeszcze wiedzieć, że „if” to element tzw. struktury sterowania, której znajomość jest absolutną podstawą, według praktycznie wszystkich standardów nauczania i dokumentacji języków programistycznych.

Pytanie 8

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. ATX
B. UPS
C. UDP
D. CTX
UPS, czyli Uninterruptible Power Supply, to urządzenie, które w praktyce jest absolutnym must-have w każdej serwerowni, a nawet w domowych instalacjach, gdzie zależy nam na ciągłości pracy sprzętu komputerowego. Moim zdaniem, bardzo często niedoceniany, a to właśnie UPS zabezpiecza urządzenia w czasie zaniku napięcia sieciowego, pozwalając na bezpieczne zapisanie danych czy też kontrolowane wyłączenie komputerów. Działa to tak, że w momencie wykrycia braku napięcia w sieci zasilającej, automatycznie przełącza zasilanie na akumulatory i sprzęt działa dalej bez przerwy – nie raz uratowało mi to sporo pracy podczas burzy czy awarii w bloku. W firmach standardem jest, aby każdy ważniejszy sprzęt był podłączony do UPS-a. Są różne typy – line-interactive, off-line, on-line – to już zależy od wymagań, ale zasada działania pozostaje podobna. Czas podtrzymania zależy oczywiście od pojemności akumulatora i obciążenia, więc czasem kilka minut, czasem kilkadziesiąt – wystarczająco, żeby zareagować. Warto też wspomnieć, że profesjonalne UPS-y potrafią filtrować napięcie i chronić przed przepięciami oraz wahaniami napięcia, co z mojego doświadczenia, przy dzisiejszych niestabilnych sieciach jest dużą zaletą. Dlatego właśnie, jeśli chodzi o ochronę przed skutkami zaniku zasilania sieciowego i zapewnienie ciągłej pracy urządzeń elektronicznych, to UPS nie ma sobie równych. Według najlepszych praktyk, zaleca się nawet regularne testowanie sprawności UPS-ów, żeby nie okazało się w krytycznym momencie, że akumulator już nie trzyma. Reasumując – wybór jak najbardziej trafiony, a wiedza na ten temat zdecydowanie przydaje się w praktyce.

Pytanie 9

Rejestr rozkazów procesora przechowuje

A. adres rozkazu, który będzie wykonywany jako następny.
B. numer rozkazu, który będzie wykonywany jako następny.
C. adres aktualnie wykonywanego rozkazu.
D. kod aktualnie wykonywanego rozkazu.
Wiele osób myli rejestr rozkazów z innymi rejestrami w procesorze, zwłaszcza z licznikiem rozkazów, czyli program counter (PC). To dość częsty błąd, bo oba są powiązane z aktualnie wykonywaną instrukcją, ale pełnią zupełnie inne funkcje. Adres aktualnie wykonywanego rozkazu, jak i adres rozkazu, który będzie wykonywany jako następny, przechowuje właśnie licznik rozkazów PC, nie rejestr rozkazów. PC wskazuje na lokalizację w pamięci, z której procesor pobierze kolejną instrukcję – a po pobraniu, automatycznie się zwiększa lub zmienia, np. przez skok warunkowy. Rejestr rozkazów natomiast dostaje nie adres, ale już sam kod instrukcji, czyli zestaw bitów, które mówią procesorowi co zrobić. Twierdzenie, że rejestr przechowuje numer rozkazu, też jest nieprecyzyjne, bo w architekturze komputerów nie operuje się numerami rozkazów w sensie kolejnym, tylko właśnie kodami rozkazów. Takie uproszczenie może wynikać z przyzwyczajeń wyniesionych z algorytmiki czy języków wysokiego poziomu, gdzie myśli się w kategoriach kolejnych instrukcji. Ale sprzęt działa inaczej – tu liczy się to, co jest faktycznie w rejestrze, a są to surowe dane odpowiadające konkretnej instrukcji. Praktyczne znaczenie rozróżnienia pomiędzy kodem, adresem, a numerem rozkazu ujawnia się nawet przy najprostszych zadaniach programistycznych na mikrokontrolerach, gdy trzeba debugować działanie programu linia po linii. Z mojego doświadczenia, osoby, które nie odróżniają tych pojęć, mają potem problem ze zrozumieniem działania przerwań czy obsługi wyjątków procesorowych. Dobre praktyki branżowe zawsze zalecają precyzyjne rozróżnianie rejestru rozkazów (Instruction Register – IR), w którym jest kod rozkazu, od licznika rozkazów (Program Counter – PC), trzymającego adres, oraz od wszelkich innych rejestrów pomocniczych. Świadome podejście do tej tematyki znacznie upraszcza dalszą naukę architektury komputerów i programowania systemowego.

Pytanie 10

W systemie komputerowym przeznaczonym do pracy z dużymi plikami graficznymi należy zwiększyć ilość

A. interfejsów PCI-Express
B. napędów DVD
C. portów USB
D. pamięci RAM
Zwiększenie ilości pamięci RAM w komputerze przeznaczonym do pracy z dużymi plikami graficznymi to coś, co naprawdę robi różnicę. RAM to taki szybki magazyn na dane tymczasowe, z którego procesor korzysta non stop – a przy obróbce grafiki, zwłaszcza w programach typu Photoshop czy GIMP, te dane potrafią bardzo szybko zajmować gigantyczne ilości miejsca. Można powiedzieć, że im więcej RAM-u, tym płynniej wszystko działa: mniej zacięć, szybciej wczytują się pliki, łatwiej pracować na wielu warstwach czy dużych rozdzielczościach. Z doświadczenia wiem, że nawet przy mniejszych projektach zaczyna się robić ciasno na 8 GB RAM, a przy większych – 16, a nawet 32 GB to już taki sweet spot. Standardy zawodowe w branży graficznej praktycznie wymuszają dziś minimum 16 GB, bo programy te i tak korzystają z całego dostępnego RAM-u. Komputer bez odpowiedniej ilości pamięci operacyjnej będzie musiał częściej korzystać z pliku wymiany na dysku, co spowalnia całą pracę – a to jest najgorsze, bo SSD i tak jest dużo wolniejsze niż RAM. Takie zwiększenie RAM-u to jedno z tych ulepszeń, które naprawdę się czuje na co dzień. Moim zdaniem to podstawa, jeśli ktoś chce być produktywny i nie denerwować się, że sprzęt go ogranicza.

Pytanie 11

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Pamięć flash
B. Pamięć RAM
C. Procesor
D. Układ I/O
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 12

Organizm człowieka ma zakłóconą zdolność do termoregulacji, gdy wartość temperatury wewnętrznej organizmu spada poniżej

A. 38,7°C
B. 33,0°C
C. 36,6°C
D. 37,3°C
Wiele osób myli pojęcia związane z prawidłową temperaturą ciała i tym, kiedy pojawiają się zaburzenia termoregulacji. Temperatura 36,6°C to uznana, typowa wartość fizjologiczna dla dorosłego człowieka, chociaż może się nieznacznie wahać w zależności od pory dnia czy indywidualnych cech organizmu. Spadek do 37,3°C czy nawet 38,7°C nie tylko nie wskazuje na zaburzenia termoregulacji, ale w przypadku 38,7°C wręcz oznacza gorączkę – a nie wychłodzenie! W praktyce zawodowej spotyka się czasem sytuację, gdy ktoś błędnie sądzi, że już niewielkie obniżenie temperatury ciała jest groźne i wymaga pilnej interwencji, podczas gdy tak naprawdę ciało ludzkie radzi sobie z niewielkimi wahaniami. Dopiero spadek do okolic 33,0°C jest uznawany za głęboką hipotermię, która zdecydowanie zaburza mechanizmy termoregulacji. Z mojego doświadczenia, niektórzy mylą też pojęcia „zimna” i „hipotermii” – a to zupełnie inne rzeczy, bo krótkotrwałe uczucie zimna nie oznacza realnych zaburzeń fizjologicznych. W branży medycznej przyjmuje się, że dopiero temperatura poniżej 35°C to hipotermia, a poniżej 33°C zaczynają się poważne problemy: niewydolność mięśni, drgawki, utrata świadomości. Należy więc nie sugerować się odczuciem chłodu ani lekkim spadkiem temperatury, tylko znać konkretne medyczne progi. Takie błędne myślenie wynika zwykle z braku praktyki lub nieprecyzyjnej wiedzy z zakresu fizjologii człowieka.

Pytanie 13

Na zdjęciu RTG najjaśniejsze pole stanowi tkanka kostna, przez którą promieniowanie rentgenowskie jest

Ilustracja do pytania
A. absorbowane.
B. odbijane.
C. rozpraszane.
D. przenikane.
Temat oddziaływania promieniowania rentgenowskiego z tkankami jest jednym z podstawowych zagadnień w radiologii, jednak bardzo często pojawiają się błędne przekonania dotyczące mechanizmów widocznych na zdjęciu RTG. Odbijanie promieniowania praktycznie nie zachodzi w przypadku zdjęć medycznych – promieniowanie X nie jest światłem, które łatwo się odbija od powierzchni tkanek, dlatego to zjawisko ma znikome znaczenie w praktyce diagnostycznej. Przenikanie, choć brzmi logicznie, nie tłumaczy pojawienia się jasnych pól – tkanki, które są ciemniejsze na zdjęciu, to te, przez które promieniowanie przeszło niemal bez przeszkód, jak np. powietrze w płucach lub tkanki miękkie. Kluczowym mechanizmem jest tutaj różnica w pochłanianiu (czyli absorpcji) promieniowania przez różne struktury organizmu. Kości mają dużą gęstość oraz sporo pierwiastków o wyższym liczbie atomowej, co powoduje, że pochłaniają dużo promieniowania, skutkiem czego mniej promieni dociera do detektora i właśnie dlatego kości są jasne na zdjęciu. Zjawisko rozpraszania promieniowania również ma miejsce, ale jego efekt w obrazie końcowym jest marginalny i bardziej przeszkadza niż pomaga, bo obniża kontrast zdjęcia. Typowym błędem jest mylenie tego rozpraszania z obrazowaniem struktur, jednak specjaliści zawsze dążą do ograniczenia rozpraszania poprzez zastosowanie siatek przeciwrozproszeniowych czy odpowiedniego ustawienia parametrów aparatu. Dobrym nawykiem w praktyce radiologicznej jest zawsze pytać siebie: czy dana struktura jest widoczna dlatego, że zatrzymała (zaabsorbowała) promieniowanie, czy dlatego, że go przepuściła? Zrozumienie tej różnicy jest fundamentalne i bez niej trudno o profesjonalną interpretację zdjęć.

Pytanie 14

Parametr dysku twardego określany skrótem MTBF oznacza średni czas

A. formatowania dysku.
B. bezawaryjnej pracy.
C. zapisu danych.
D. odczytu danych.
Wiele osób, szczególnie zaczynających przygodę z informatyką, często myli pojęcie MTBF z innymi parametrami związanymi z wydajnością lub obsługą dysków twardych. MTBF – Mean Time Between Failures – nie dotyczy w żaden sposób ani szybkości zapisu, ani odczytu danych, choć na pierwszy rzut oka mógłby się z tym kojarzyć, bo przecież od tych operacji zależy codzienna efektywność dysku. W praktyce jednak parametry takie jak prędkość zapisu i odczytu są określane przez zupełnie inne wskaźniki, jak np. transfer danych (MB/s), czas dostępu czy IOPS. MTBF koncentruje się na niezawodności, nie wydajności. Jeśli chodzi o formatowanie dysku – to jeszcze inna sprawa, bo jest to operacja przygotowująca nośnik do pracy z systemem plików, zupełnie niezwiązana z wytrzymałością sprzętu na awarie. Często spotykam się z błędnym założeniem, że im wyższy MTBF, tym szybciej będzie działał dysk – nic bardziej mylnego. To pojęcie jest typowe dla inżynierii niezawodności, a nie dla codziennego użytkowania. W branży IT, szczególnie w środowiskach serwerowych i profesjonalnych, MTBF służy do szacowania ryzyka utraty danych i planowania wymiany sprzętu, a nie do porównań wydajności. Z mojego doświadczenia wynika, że takie pomyłki biorą się z mylenia pojęć i skupiania się głównie na wydajności, a nie na bezpieczeństwie danych, które jest przecież równie istotne. Warto więc pamiętać – MTBF to przewidywany czas bezawaryjnej pracy, liczony statystycznie, mający znaczenie głównie w kontekście niezawodności, a nie szybkości czy funkcjonalności dysku.

Pytanie 15

Podczas tworzenia bazy danych pacjentów polem unikatowym pełniącym rolę klucza podstawowego jest pole zawierające informacje o

A. adresie.
B. numerze PESEL.
C. imieniu.
D. nazwisku.
Wybór numeru PESEL jako klucza podstawowego w bazie danych pacjentów to zdecydowanie najbardziej logiczne i profesjonalne rozwiązanie. Każdy PESEL jest unikalny, przypisany do jednej konkretnej osoby, a jego struktura nie powtarza się w obrębie całego kraju – to wręcz modelowy przykład pola, które nadaje się na klucz główny. Praktyka pokazuje, że stosowanie numeru PESEL pozwala na bardzo szybką identyfikację pacjenta, minimalizuje ryzyko pomyłek przy wyszukiwaniu danych i sprawdza się przy integracji systemów medycznych (np. eWUŚ, systemy placówek medycznych). Z doświadczenia wiem, że próby stosowania innych pól jako klucza prowadzą do masy problemów z powtarzalnością i spójnością danych, a PESEL po prostu pozwala tego uniknąć. Co ciekawe, PESEL sprawdza się nie tylko w medycynie, ale także w systemach państwowych czy nawet bankowych – wszędzie tam, gdzie potrzebna jest jednoznaczna identyfikacja obywatela. Warto pamiętać, że standardy projektowania baz danych, takie jak normy ISO/IEC dotyczące systemów informatycznych, wręcz zalecają użycie jednoznacznych identyfikatorów jako kluczy podstawowych. Gdybyśmy mieli do czynienia z bazą międzynarodową, tam rolę klucza podstawowego zwykle pełni tzw. sztuczny identyfikator (np. UUID), ale w polskich realiach PESEL jest absolutnym standardem. Dobrze, by każdy kojarzył, że to pole nie tylko jest unikalne, ale i odporne na zmiany – nazwisko czy adres można zmienić, PESEL zostaje na całe życie.

Pytanie 16

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. net user rejestracja /add
B. user add rejestracja
C. net rejestracja \add user
D. add user rejestracja
Polecenie „net user rejestracja /add” to oficjalny i najlepiej udokumentowany sposób dodawania nowego konta użytkownika w systemach Windows z poziomu wiersza polecenia. Składnia tego polecenia opiera się na narzędziu systemowym „net”, które pozwala zarządzać użytkownikami i grupami bez korzystania z graficznego interfejsu. Dzięki temu można szybko i automatycznie tworzyć konta użytkowników, co jest bardzo przydatne np. w pracowniach szkolnych czy podczas wdrożeń większej liczby komputerów. Z mojego doświadczenia, administratorzy cenią sobie właśnie to polecenie, bo daje ono sporą kontrolę i można je wykorzystać w skryptach batch lub PowerShell. Dobrą praktyką jest od razu po utworzeniu konta nadać mu odpowiednie uprawnienia i ustawić silne hasło, żeby użytkownik nie miał domyślnego słabego zabezpieczenia. Co ciekawe, ta metoda działa już od czasów Windows NT i praktycznie się nie zmienia, więc można na niej polegać. Polecenie pozwala też na inne operacje, np. resetowanie hasła czy blokowanie konta, wystarczy odpowiednio zmodyfikować składnię. To narzędzie jest moim zdaniem podstawą pracy każdego technika administrującego komputerami z Windows.

Pytanie 17

Aby system komputerowy współpracujący z ultrasonografem mógł nagrywać na jednej płycie DVD dane z kolejnych, wykonywanych na bieżąco badań, musi być wyposażony w nagrywanie

A. wielostronicowe.
B. wielosesyjne.
C. wielowarstwowe.
D. wielowątkowe.
Prawidłowa odpowiedź to „nagrywanie wielosesyjne” i właśnie taki tryb jest wykorzystywany, gdy mamy potrzebę dogrywania kolejnych danych na jedną płytę DVD, na przykład wtedy, gdy podczas pracy z ultrasonografem wykonywane są kolejne badania w różnych momentach. Dzięki sesjom można nagrywać nowe partie danych bez konieczności zamykania płyty, co jest superpraktyczne w pracy medycznej czy diagnostycznej. Moim zdaniem w realiach szpitalnych czy w pracowniach diagnostycznych często zdarza się, że nie wszystko da się wykonać „na raz” i właśnie wtedy taka funkcjonalność okazuje się nieoceniona. Branżowe standardy, szczególnie w sprzęcie medycznym, mocno podkreślają bezpieczeństwo i możliwość archiwizacji – wielosesyjność pozwala nie tylko na dokładanie nowych badań, ale też na zachowanie porządku i oddzielenie sesji konkretnymi opisami. Daje to też większą elastyczność – możesz dograć dane pacjenta wtedy, kiedy jest to potrzebne, a nie martwić się, że trzeba będzie tworzyć zupełnie nowy nośnik. W praktyce wielu producentów sprzętu medycznego stosuje takie rozwiązania – na przykład aparaty USG czy systemy PACS (archiwizacja obrazów). Dodatkowo, jeśli masz płytę wielosesyjną, możesz ją odczytać na większości standardowych napędów, a dane pozostają dobrze zorganizowane. Taka opcja to zdecydowanie branżowy „must have” przy pracy z dużą ilością danych obrazowych, gdzie liczy się zarówno bezpieczeństwo, jak i wygoda pracy.

Pytanie 18

Do zaktualizowania rekordu tabeli należy zastosować polecenie

A. UPDATE
B. SELECT
C. INSERT
D. ALTER
Polecenie UPDATE w języku SQL służy właśnie do modyfikowania danych już istniejących w tabeli bazy danych. To taki podstawowy, codzienny „chleb powszedni” każdego, kto zarządza bazami relacyjnymi. Za jego pomocą możesz zmienić dowolne pole w pojedynczym rekordzie lub nawet zaktualizować wiele rekordów jednocześnie, oczywiście jeśli przemyślisz dobrze klauzulę WHERE. Przykład z życia: chcesz zmienić adres e-mail użytkownika albo zaktualizować cenę produktu po podwyżce w hurtowni. Polecenie UPDATE pozwala na to bez konieczności kasowania i ponownego dodawania rekordu. Z mojego doświadczenia bardzo ważne jest, żeby nigdy nie pomijać warunku WHERE, bo wtedy zaktualizujesz wszystkie rekordy w tabeli i możesz nieźle namieszać – sam się kiedyś na tym przejechałem. W środowiskach produkcyjnych stosuje się dodatkowo transakcje i backupy przed większymi aktualizacjami, żeby uniknąć chaosu. No i, co istotne, UPDATE jest częścią standardu SQL (ANSI SQL), więc działa podobnie w większości popularnych systemów, np. MySQL, PostgreSQL czy MS SQL Server. Moim zdaniem, dobra znajomość tego polecenia to podstawa dla każdego przyszłego administratora czy developera baz danych. Warto pamiętać, że poprzez UPDATE można nie tylko zmieniać zwykłe pola, ale też pracować z bardziej złożonymi wyrażeniami, np. inkrementować wartości liczników czy korzystać z podzapytań.

Pytanie 19

W celu rejestracji promieniowania radioizotopu nagromadzonego w narządach stosowana jest

A. lampa rentgenowska.
B. bomba kobaltowa.
C. kamera gamma.
D. lampa kwarcowa.
Wybierając inne urządzenia niż kamera gamma, łatwo wpaść w pułapkę myślenia, że każde źródło promieniowania nadaje się do diagnostyki izotopowej – a to zupełnie nie tak. Lampa kwarcowa, mimo że wykorzystywana bywa w fizjoterapii czy dermatologii, emituje głównie promieniowanie UV, które nie służy ani do wykrywania, ani do rejestracji promieniowania z radioizotopów. To zupełnie inny zakres fal, nie mający zastosowania przy obrazowaniu narządów podanych substancją promieniotwórczą. Jeszcze łatwiej pomylić się, widząc nazwę 'bomba kobaltowa' – kojarzy się ona z promieniowaniem, i rzeczywiście, wykorzystywana jest w radioterapii (do leczenia nowotworów), ale jej zadaniem jest niszczenie komórek rakowych poprzez silne promieniowanie gamma, a nie rejestracja czy obrazowanie tego promieniowania. Jest to więc sprzęt terapeutyczny, a nie diagnostyczny. Lampa rentgenowska natomiast generuje promieniowanie X wykorzystywane w klasycznej radiografii, ale jej mechanizm działania polega na przepuszczaniu promieni przez ciało i rejestracji ich osłabienia, a nie na wykrywaniu już obecnego promieniowania gamma z wnętrza pacjenta. Moim zdaniem jednym z najczęstszych błędów jest mylenie narzędzi służących do wytwarzania promieniowania z tymi, które je wykrywają i analizują. W diagnostyce radioizotopowej kluczowa jest właśnie ta druga grupa – a tu kamera gamma nie ma sobie równych i to ona powinna od razu przychodzić do głowy, gdy mowa o rejestracji promieniowania z izotopów nagromadzonych w narządach. Standardy światowe i krajowe jednoznacznie określają jej zastosowanie w medycynie nuklearnej i nie polegają na przypadkowym użyciu innych źródeł promieniowania.

Pytanie 20

Jak nazywa się w programowaniu obiektowym instancję klasy?

A. Obiekt.
B. Dziedziczenie.
C. Metoda.
D. Własność.
Instancja klasy w programowaniu obiektowym to właśnie obiekt. To jest taki trochę fundament całego tego podejścia – bez obiektów nie byłoby sensu mówić o programowaniu obiektowym. Kiedy tworzymy klasę, to jest ona tylko szablonem lub pewnego rodzaju przepisem na to, jak mają wyglądać nasze dane i jak mają się zachowywać. Natomiast obiekt to konkretna, działająca „realizacja” tego przepisu – coś, co faktycznie istnieje podczas działania programu. Wyobraź sobie klasę jako projekt samochodu, a obiekty jako rzeczywiste egzemplarze tego samochodu stojące na parkingu. Każdy obiekt ma swoje własne dane (czyli stan, na przykład kolor, przebieg, model) i swoje operacje (czyli metody, na przykład przyspiesz, zahamuj). Takie podejście jest powszechnie stosowane we wszystkich popularnych językach obiektowych, jak Java, C++, Python czy C#. Z mojego doświadczenia wynika, że w realnych projektach bardzo rzadko spotyka się kod, który operuje wyłącznie na klasach – właściwie wszystko kręci się wokół obiektów. Dobre praktyki sugerują nie tylko tworzenie obiektów, ale i dbanie o ich odpowiednią enkapsulację, czyli ukrywanie szczegółów implementacyjnych, co pozwala na bezpieczne i elastyczne rozwijanie kodu. No i jeszcze ciekawostka: w wielu frameworkach spotkasz się z tzw. wzorcem fabryki, który właśnie pomaga zarządzać tworzeniem obiektów na podstawie klas. To mocno ułatwia życie, szczególnie przy dużych projektach. Moim zdaniem zrozumienie tej różnicy między klasą a obiektem to absolutna podstawa, jeśli ktoś myśli o karierze programisty.

Pytanie 21

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. PostgreSQL
B. MySQL
C. Oracle
D. Firebird
Często wśród osób zaczynających przygodę z bazami danych pojawia się przekonanie, że MySQL czy PostgreSQL są w jakiś sposób ograniczone, jeśli chodzi o komercyjne użycie. Tymczasem to nie do końca tak działa. Zarówno MySQL, Firebird, jak i PostgreSQL są dostępne na otwartych licencjach, które umożliwiają ich wykorzystywanie również w projektach komercyjnych – bez konieczności płacenia za licencję podstawową. Licencja PostgreSQL jest wyjątkowo liberalna i pozwala na praktycznie dowolne użycie, także zarobkowe, nawet bez konieczności podawania źródła czy publikowania własnych modyfikacji. MySQL, choć jest obecnie rozwijany przez Oracle, to jego silnik jest dostępny na licencji GPL, co również daje swobodę komercyjnego zastosowania, pod warunkiem respektowania warunków tej licencji (choć jeśli ktoś chce zbudować zamknięte, nieopen-source’owe oprogramowanie na MySQL, to tutaj mogą pojawić się drobne niuanse licencyjne, ale nie jest to zakaz komercyjnego użycia jako takiego). Firebird to projekt open-source i jego licencja także umożliwia wykorzystywanie w firmach bez opłat. Typowym błędem bywa wrzucanie wszystkich systemów bazodanowych do jednego worka i zakładanie, że „duża firma = płatna baza”, co wcale nie musi być prawdą. W rzeczywistości wybór bazy powinien zależeć nie tylko od kosztów licencyjnych, ale też od dostępności wsparcia, ekosystemu narzędzi czy wydajności przy konkretnych scenariuszach. Z mojego doświadczenia – jeśli ma się ograniczony budżet, open-source’owe systemy bazodanowe są bardzo sensowną opcją i nie trzeba się obawiać o legalność ich komercyjnego użycia, oczywiście przy zachowaniu zgodności z konkretnymi licencjami. Warto zawsze dokładnie przeczytać warunki licencji i nie zakładać, że każda profesjonalna baza danych musi być automatycznie płatna w środowisku komercyjnym.

Pytanie 22

Niezbędna jest archiwizacja danych na płycie Blue-Ray jednokrotnego zapisu. Płyta taka ma oznaczenie

A. BR R
B. BD ROM
C. BR RW
D. BD R
Wybór innego oznaczenia niż BD-R często wynika z mylnego kojarzenia skrótów Blu-ray lub niezrozumienia standardów zapisu. Oznaczenie BD-ROM na przykład dotyczy wyłącznie płyt tłoczonych fabrycznie, które są tylko do odczytu – nie da się na nich zapisać żadnych danych, więc w kontekście archiwizacji własnych plików ten wybór nie ma sensu. Z kolei BD-RE (czasem mylnie wpisywane jako BR RW) to płyty wielokrotnego zapisu, gdzie można dane kasować i nagrywać ponownie (ang. Rewriteable). Takie rozwiązania sprawdzają się bardziej przy testowaniu lub przenoszeniu plików, ale do archiwizacji są ryzykowne, bo zawsze istnieje ryzyko przypadkowego usunięcia lub nadpisania danych – moim zdaniem zbyt duża pokusa, by coś poprawić, a potem znikają oryginały. Odpowiedź BR RW czy BR R to błędne skróty, niezgodne z oficjalnymi terminami konsorcjum Blu-ray Disc Association – nie istnieją takie oznaczenia, więc ich używanie może prowadzić do nieporozumień w branży. W praktyce najgorszym błędem jest łączenie pojęć z technologiami DVD, gdzie RW oznaczało płyty wielokrotnie nagrywane, ale w Blu-ray już stosuje się skróty BD-R (jednorazowy) i BD-RE (wielokrotny). Moim zdaniem sporo osób gubi się, bo nie zwraca uwagi na różnicę między 'R' a 'RE', a przecież to podstawa, jeśli chodzi o bezpieczeństwo danych. W archiwizacji zawsze stawia się na niezmienność nośnika – a tylko BD-R spełnia ten warunek. Z doświadczenia wiem, że firmy, które wybrały BD-RE do backupu, często potem miały problemy z integralnością archiwów – i stąd profesjonalne standardy jasno tego zabraniają. Skrótowce w IT potrafią być zdradliwe, dlatego najlepiej po prostu znać podstawowe oznaczenia i wiedzieć, do czego służą.

Pytanie 23

Przedstawione na rysunku i opisane w ramce narzędzie służy do ściągania izolacji

Stripper posiada trzy otwory. Pierwszy pozwala na ściągnięcie płaszcza 250 μm do 125 μm. Drugi otwór przeznaczony jest do ściągania powłoki 900 μm do płaszcza o średnicy 250 μm. Trzeci służy do ściągania powłoki z kabli o średnicy 2 mm ÷ 3 mm do ścisłej tuby o średnicy 900 μm.
Ilustracja do pytania
A. skrętki ekranowanej.
B. kabli koncentrycznych.
C. skrętki nieekranowanej.
D. kabli światłowodowych.
To narzędzie na zdjęciu to specjalny stripper do kabli światłowodowych. Moim zdaniem, to absolutna podstawa, jeżeli ktoś chce profesjonalnie przygotować włókno do spawania lub zakończeń. W praktyce chodzi o to, żeby bardzo precyzyjnie usunąć powłoki ochronne na różnych etapach: najpierw z płaszcza 250 μm do rdzenia 125 μm, potem z powłoki 900 μm, a w końcu z większej tuby 2-3 mm do tej właśnie powłoki 900 μm. Nie jest to zwykłe narzędzie do drutów czy przewodów miedzianych – tu liczy się każdy mikrometr, bo światłowód jest bardzo delikatny. Dobre standardy branżowe, np. TIA/EIA-568 czy zalecenia producentów spawarek światłowodowych, wręcz wymuszają stosowanie wyspecjalizowanych stripperów, żeby nie uszkodzić włókna i nie wprowadzić mikropęknięć. Takie narzędzie bardzo przyspiesza pracę, no i – z mojego doświadczenia – daje dużo większą powtarzalność efektów niż kombinowanie z uniwersalnymi ściągaczami. Warto pamiętać, że nawet niewidoczne gołym okiem uszkodzenia na powierzchni włókna mogą potem powodować ogromne straty sygnału czy nawet całkowite zerwanie transmisji. Dlatego inżynierowie telekomunikacji, światłowodowcy czy monterzy sieci FTTH traktują tego typu sprzęt jak podstawowe narzędzie pracy – i w sumie trudno się dziwić.

Pytanie 24

Pojęcie „Architektura Harvardska” odnosi się do

A. topologii sieci komputerowej.
B. programów współpracujących z maszynami CNC.
C. komunikacji komputera z ploterem.
D. pracy procesora.
Architektura Harvardska to jedno z podstawowych pojęć w obszarze projektowania procesorów oraz mikroprocesorów. Generalnie chodzi w niej o to, że pamięć programu i pamięć danych są fizycznie rozdzielone — procesor ma osobne magistrale do komunikacji z każdą z nich. Z mojego doświadczenia wynika, że takie rozwiązanie daje dużą przewagę w szybkości przetwarzania. Dla przykładu, jeśli mamy mikrokontroler oparty na architekturze Harvardskiej, może on w jednym cyklu pobrać dane z jednej pamięci i instrukcję z drugiej, praktycznie równocześnie. Brzmi jak magia, ale to po prostu przemyślana inżynieria. Jest to szczególnie popularne w systemach embedded, np. w rodzinie AVR czy PIC, które często używa się chociażby w automatyce przemysłowej lub elektronice użytkowej. W odróżnieniu od architektury von Neumanna, gdzie jest jedna magistrala i pamięć, co może prowadzić do tzw. wąskiego gardła, tak zwany bottleneck. Moim zdaniem to rozdzielenie jest świetnym przykładem praktycznego wykorzystania teorii w realnych urządzeniach. Warto też wiedzieć, że w nowoczesnych procesorach hybrydowe podejście bywa stosowane, ale sama zasada architektury Harvardskiej to właśnie praca procesora, a nie topologia sieci czy komunikacja z ploterem. W praktyce często spotykam się z pomyłkami w tym zakresie, dlatego uważam, że warto dobrze rozróżniać te pojęcia.

Pytanie 25

Technologia dual channel dotyczy pracy dwóch takich samych

A. kart graficznych.
B. dysków SSD.
C. dysków twardych.
D. pamięci RAM.
Niektórzy błędnie kojarzą technologię dual channel z dyskami twardymi lub SSD, być może ze względu na podobne brzmienie funkcji RAID, gdzie łączy się kilka dysków dla większej wydajności lub bezpieczeństwa danych. Jednak to zupełnie inne zagadnienie – RAID nie ma bezpośredniego wpływu na sposób komunikacji pamięci RAM z procesorem. Jeśli chodzi o karty graficzne, popularne niegdyś rozwiązania typu SLI czy CrossFire pozwalały na łączenie dwóch GPU w jednym komputerze, ale to również zupełnie inny mechanizm, niezwiązany z magistralą pamięci operacyjnej. Często spotykam się z opinią, że każdy podzespół może pracować w jakimś "dual channel", bo przecież im więcej, tym szybciej – niestety, tak to nie działa. Dual channel dotyczy wyłącznie pamięci RAM, bo to one komunikują się bezpośrednio z kontrolerem pamięci w procesorze lub mostku północnym płyty głównej, a nie pozostałe podzespoły. Inny typowy błąd myślowy to utożsamianie tej technologii z samym zwiększeniem ilości RAM – tymczasem chodzi tutaj o wykorzystanie dwóch kanałów jednocześnie, co skutkuje podwojeniem teoretycznej przepustowości. Z mojego doświadczenia widzę, że wiele osób pomija instrukcje montażu RAM, przez co nawet przy dwóch kościach nie osiągają trybu dual channel – czasem przez zwykłe pomylenie slotów. Ostatecznie, jeśli chcesz zoptymalizować pracę komputera, to skup się na odpowiednim doborze i montażu pamięci RAM, bo dual channel realnie zwiększa jej wydajność, a nie dotyczy bezpośrednio dysków czy kart graficznych.

Pytanie 26

W celu zmiany hasła użytkownika w systemie Linux należy użyć polecenia

A. passwd
B. logout
C. pwd
D. finger
Polecenie passwd w systemie Linux to absolutna podstawa przy zarządzaniu hasłami użytkowników. Jeśli chcemy zmienić hasło – czy to swoje, czy innego użytkownika (oczywiście pod warunkiem posiadania odpowiednich uprawnień, na przykład roota) – właśnie to polecenie stosujemy. Jego działanie polega na wywołaniu procesu, podczas którego system najpierw poprosi o stare hasło (o ile nie jesteśmy rootem), potem dwukrotnie o nowe i sprawdzi, czy spełnia ono polityki bezpieczeństwa, np. długość czy złożoność. Bardzo praktyczne jest to, że passwd działa niezależnie od środowiska graficznego – wszystko wykonuje się z poziomu terminala, więc nawet na serwerach bez GUI nie ma z tym najmniejszego problemu. Z mojego doświadczenia często spotykam się z sytuacją, gdzie osoby mylą to polecenie z pwd albo nawet próbują wpisać coś pokroju 'change password', co oczywiście nie zadziała. Warto też wiedzieć, że passwd pozwala blokować konta lub wymuszać zmianę hasła przy pierwszym logowaniu – to bardzo przydatne przy pracy w większych zespołach. Ostatecznie passwd to narzędzie zgodne z politykami bezpieczeństwa znanymi z profesjonalnych wdrożeń Linuxa, co jest bardzo doceniane w branży IT. Polecam też sprawdzić wywołanie 'man passwd', żeby poznać więcej opcji – można się zdziwić, ile ciekawych rzeczy oferuje to z pozoru proste polecenie.

Pytanie 27

Konserwacja oprogramowania nie obejmuje

A. skorygowania błędów.
B. przywracania danych.
C. poprawy funkcjonalności.
D. poprawienia wydajności.
Bardzo łatwo jest pomylić konserwację oprogramowania z innymi czynnościami związanymi z utrzymywaniem systemów komputerowych, szczególnie gdy w grę wchodzą takie pojęcia jak poprawianie błędów, optymalizacja czy rozbudowa funkcji. Konserwacja oprogramowania, według uznanych standardów takich jak ISO/IEC 14764 czy ITIL, obejmuje przede wszystkim cztery podstawowe obszary: korekcyjną (czyli usuwanie błędów), adaptacyjną (dostosowanie do zmian w środowisku), doskonalącą (poprawa wydajności i użyteczności) oraz perfekcyjną (rozszerzanie funkcjonalności). Skorygowanie błędów, poprawa wydajności czy dodawanie nowych funkcji to właśnie typowe zadania osób odpowiedzialnych za utrzymanie i rozwój oprogramowania. Z mojego doświadczenia wynika, że wielu młodych adeptów IT myli konserwację oprogramowania z czynnościami administracyjnymi, zwłaszcza gdy chodzi o odzyskiwanie lub przywracanie danych po awarii – a to już wchodzi w zakres zarządzania danymi czy backupów, nie konserwacji kodu. Myślenie, że poprawa wydajności lub funkcjonalności nie jest częścią konserwacji, może wynikać z braku znajomości specyfikacji tych zadań w praktyce – deweloperzy bardzo często pracują właśnie nad optymalizacją już istniejących systemów albo nad rozwojem funkcji wymaganych przez biznes. Upieranie się, że te działania nie należą do konserwacji, to chyba jedna z najczęstszych pułapek logicznych wśród początkujących. Praktyka pokazuje, że zarówno w małych firmach, jak i dużych korporacjach, konserwacja to nie tylko 'łatanie dziur', ale cały cykl procesów umożliwiających długowieczność, stabilność i rozwój aplikacji. Warto więc zapamiętać, że przywracanie danych to zupełnie odrębny temat, najczęściej realizowany narzędziami do backupu, nie przez zespół developerów.

Pytanie 28

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. ALU
B. DSP
C. FPU
D. GPU
Odpowiedź na to pytanie bywa myląca, bo skróty typu FPU, DSP czy GPU przewijają się non stop w świecie IT i elektroniki. Często można się pomylić, bo każda z tych jednostek odpowiada za specyficzny rodzaj obliczeń, ale nie za operacje stałoprzecinkowe w ogólnym sensie. FPU, czyli Floating Point Unit, to jednostka przeznaczona do operacji na liczbach zmiennoprzecinkowych – czyli tam, gdzie mamy przecinki, bardzo duże zakresy czy precyzję naukową. Stąd FPU nie wykonuje prostych działań typu dodawanie liczb całkowitych; tym zajmuje się właśnie ALU. Z kolei DSP, czyli Digital Signal Processor, to osobny rodzaj procesorów specjalizowanych, bardzo często stosowanych w przetwarzaniu sygnału audio czy obrazu. One też mają swoje własne jednostki operacyjne, często zoptymalizowane pod szybkie mnożenie i MAC (multiply-accumulate), ale to nie jest ogólna jednostka procesora wykonująca podstawowe operacje arytmetyczne na liczbach całkowitych. GPU, procesor graficzny, można spotkać głównie w kartach graficznych czy układach mobilnych – jego architektura jest zoptymalizowana pod równoległe przetwarzanie ogromnych ilości danych graficznych, ale nie pod klasyczne operacje arytmetyczne typowe dla CPU. Często spotykam się z przekonaniem, że jak coś brzmi 'bardziej zaawansowanie', to pewnie wykonuje podstawowe operacje – stąd te pomyłki. Jednak to właśnie ALU jest tym sercem, które wewnątrz CPU wykonuje najprostsze, ale i najczęściej potrzebne obliczenia na liczbach całkowitych. Warto o tym pamiętać, bo mylenie tych jednostek może prowadzić do sporych nieporozumień, szczególnie przy analizie architektury procesora czy przy pisaniu kodu obejmującego różne typy danych.

Pytanie 29

Montaż przewodów w sieciowym gniazdku natynkowym, przedstawionym na rysunku, wykonuje się

Ilustracja do pytania
A. nożem monterskim.
B. szczypcami uniwersalnymi.
C. narzędziem uderzeniowym.
D. śrubokrętem płaskim.
Właściwie, do montażu przewodów w sieciowym gniazdku natynkowym, takim jak to widoczne na zdjęciu, używa się narzędzia uderzeniowego, czyli tzw. impact toola. To rozwiązanie jest moim zdaniem najlepsze, bo pozwala wykonać połączenie przewodu z pinem złącza typu LSA (lub IDC) w sposób pewny, szybki i stabilny. Narzędzie uderzeniowe nie tylko wciska żyłę przewodu w szczelinę kontaktową, ale jednocześnie odcina nadmiar izolacji i przewodu, co znacznie przyspiesza pracę i ogranicza ryzyko uszkodzenia gniazda. W praktyce, przy montażu sieci strukturalnych w biurach, szkołach czy nawet w domach, korzystanie z impact toola to już absolutny standard. Takie podejście jest zgodne z zaleceniami producentów osprzętu sieciowego oraz normami np. PN-EN 50173 czy TIA/EIA-568 i naprawdę trudno sobie wyobrazić profesjonalną instalację bez tego narzędzia. Z mojego doświadczenia, użycie innych narzędzi może prowadzić do problemów ze stykiem, a w dłuższej perspektywie do awarii lub niestabilności połączenia. Lepiej od razu nauczyć się prawidłowej techniki i postawić na precyzję – narzędzie uderzeniowe po prostu robi robotę.

Pytanie 30

Przedstawiony na rysunku kabel krosowany jest wykorzystany do połączenia

Ilustracja do pytania
A. ruter – ruter.
B. hub – ruter.
C. switch – ruter.
D. switch – komputer.
Na rysunku widoczny jest schemat połączenia kabla krosowanego (ang. crossover), który służy do bezpośredniego łączenia dwóch urządzeń sieciowych tego samego typu, takich jak dwa rutery, dwa switche czy dwa komputery. Kluczowe jest tu to, że sygnały nadawcze jednego urządzenia są zamieniane miejscami z odbiorczymi drugiego – właśnie dlatego niezbędne jest skrzyżowanie przewodów w kablu. Praktycznie rzecz biorąc, jeśli próbujemy połączyć dwa rutery bez urządzenia pośredniczącego, jak switch czy hub, to właśnie kabel krosowany pozwoli nam na prawidłową komunikację. W standardzie Ethernet (norma TIA/EIA-568), wyprowadzenia przewodów 1-3 i 2-6 są zamieniane, co umożliwia przesyłanie i odbieranie danych bez zakłóceń. W moim doświadczeniu, taki kabel przydaje się często podczas konfiguracji, testów lub prac serwisowych, gdzie nie ma pod ręką switcha. Warto pamiętać, że obecnie wiele nowoczesnych urządzeń obsługuje funkcję Auto-MDI/MDIX, która automatycznie dostosowuje tryb portu, ale wciąż znajomość zastosowania kabla krosowanego jest fundamentalna. Moim zdaniem, umiejętność rozpoznania gdzie i kiedy go użyć, jest jedną z podstawowych kompetencji każdego technika sieciowego – to taka klasyka, o której ciągle się mówi na zajęciach praktycznych.

Pytanie 31

Nie uzyskamy pomocy na temat polecenia „net” w wierszu poleceń systemu Windows wpisując

A. net help
B. net ?
C. help net
D. net /?
Bardzo często użytkownicy systemu Windows próbują znaleźć pomoc dotyczącą poleceń, używając intuicyjnych zwrotów jak „help net”, co wydaje się logiczne, zwłaszcza jeśli ktoś pracował wcześniej z systemami Unix czy Linux, gdzie schemat „help [polecenie]” działa bez problemu. Jednak w wierszu poleceń Windows taka składnia po prostu nie funkcjonuje. System interpretuje „help” jako odrębne polecenie, które służy do wyświetlania pomocy dla poleceń wbudowanych, a nie dla bardziej złożonych narzędzi jak „net”. Często pojawia się też pomysł, żeby użyć „net help” lub „net /?” – i to są właśnie poprawne sposoby, akceptowane przez środowisko Windows. Obie te metody wyświetlają szczegółową instrukcję oraz listę dostępnych podpoleceń i parametry. Z kolei „net ?” to przykład składni, która nie przyniesie oczekiwanego rezultatu, bo w Windows znak zapytania nie jest traktowany jako uniwersalny wywoływacz pomocy (w przeciwieństwie do niektórych powłok Linuksa). Typowym błędem jest więc przenoszenie przyzwyczajeń z innych środowisk lub nieznajomość specyfiki poleceń systemowych Windows. Z mojego doświadczenia wynika, że najlepiej po prostu zapamiętać dwie rzeczy: jeśli chcemy listę podpoleceń, używamy „net help” lub „net /?”, a jeśli szukamy szczegółowej pomocy do konkretnego zagadnienia, wpisujemy np. „net help use”. To znacząco ułatwia codzienną pracę administratora. Warto także zwrócić uwagę, że korzystanie z pomocy wbudowanej jest zawsze zgodne z dobrymi praktykami branżowymi, bo pozwala na szybkie przypomnienie sobie nawet rzadziej używanych funkcji, bez potrzeby szukania dokumentacji zewnętrznej, co jest szczególnie ważne w środowiskach produkcyjnych.

Pytanie 32

Ilość jodu-131 podana pacjentowi w terapii tarczycy zmniejszy się o połowę po

A. 12 miesiącach.
B. 8 dniach.
C. 30 minutach.
D. 17 godzinach.
Izotop jodu-131 (I-131) to radioizotop stosowany najczęściej w leczeniu chorób tarczycy, zwłaszcza w terapii nadczynności tarczycy czy raka tarczycy. Jego kluczową cechą, która decyduje o wykorzystaniu w medycynie, jest stosunkowo krótki czas połowicznego rozpadu – wynosi około 8 dni. To oznacza, że po upływie 8 dni od podania pacjentowi połowa dawki I-131 ulegnie rozpadowi, a więc przestanie być aktywna biologicznie. W praktyce klinicznej precyzyjne wyliczenie czasu połowicznego rozpadu jest niezwykle ważne, bo pozwala lekarzom określić, jak długo pacjent pozostaje źródłem promieniowania i kiedy można bezpiecznie wrócić do codziennej aktywności. Moim zdaniem, odpowiednie zarządzanie czasem kontaktu pacjenta z innymi osobami po podaniu jodu-131 to taka podstawa bezpieczeństwa radiologicznego. Zwraca się też uwagę na fakt, że właściwe planowanie dawek i okresów karencji pozwala maksymalizować skuteczność leczenia, a zarazem minimalizować narażenie osób trzecich. W radiologii medycznej takie dane podaje się w każdej charakterystyce produktu, bo stanowią one podstawę do wyliczania dawek kumulacyjnych i planowania powtórnej terapii. Dość istotne jest też to, że czas połowicznego rozpadu wpływa bezpośrednio na okres przechowywania materiałów radioaktywnych – odpady z terapii jodem-131 muszą być przechowywane aż do momentu, gdy ich aktywność spadnie do poziomu uznawanego za bezpieczny. Warto wiedzieć, że inne radioizotopy mają zupełnie inne czasy połowicznego rozpadu i właśnie dlatego I-131 jest tak popularny w leczeniu tarczycy – jego czas jest optymalny, żeby skutecznie działać, ale nie kumulować się nadmiernie w organizmie. Z mojego doświadczenia wynika, że wielu ludzi myli czas połowicznego rozpadu z całkowitym zanikiem radioaktywności, a to przecież nie to samo. Właśnie z tego powodu odpowiedź „8 dni” jest najbardziej trafna i zgodna z praktyką kliniczną.

Pytanie 33

Do badań ultrasonograficznych struktur płytko położonych (np. tarczycy) stosuje się głowicę

A. rektalną.
B. liniową.
C. sektorową.
D. konweksową.
W badaniach ultrasonograficznych struktur płytko położonych, takich jak tarczyca, zdecydowanie najlepiej sprawdza się głowica liniowa. Wynika to przede wszystkim z jej specyficznej konstrukcji – liniowy układ piezoelektryczny umożliwia uzyskanie bardzo wysokiej rozdzielczości obrazowania w zakresie kilku centymetrów od powierzchni skóry. Moim zdaniem, to właśnie ta precyzja jest kluczowa, bo tarczyca czy naczynia powierzchowne wymagają dokładnych pomiarów i detekcji nawet drobnych zmian strukturalnych. Liniowa głowica emituje fale ultradźwiękowe pod kątem prostym do powierzchni skóry, co pozwala na uzyskanie szczegółowego obrazu przekroju poprzecznego badanej tkanki. Standardem w diagnostyce chorób tarczycy oraz w ocenie węzłów chłonnych szyi jest właśnie użycie głowicy liniowej o częstotliwości minimum 7,5 MHz, choć często stosuje się nawet wyższe, bo powyżej 10 MHz, jeśli sprzęt pozwala. Z mojego doświadczenia – jeśli tylko operator korzysta z wysokiej klasy głowicy liniowej, łatwiej mu wykryć nawet bardzo niewielkie guzki czy mikrozwapnienia. Warto też pamiętać, że ta sama głowica bywa wykorzystywana w diagnostyce zmian skórnych, naczyniowych czy nawet w ocenie mięśni i ścięgien. To taka uniwersalna głowica do płytko położonych struktur – praktycznie nieoceniona w gabinecie USG. Przykładowo, większość zaleceń Polskiego Towarzystwa Ultrasonograficznego jasno wskazuje głowicę liniową jako bazową w tych zastosowaniach. Takie rozwiązanie pozwala na uzyskanie obrazu o najwyższej dostępnej jakości powierzchniowej, co finalnie przekłada się na lepszą diagnostykę i komfort pracy.

Pytanie 34

Urządzenie, które w specyfikacji technicznej posiada zapis: „Urządzenie współpracuje z komputerem klasy PC poprzez złącze USB”, należy podłączyć do złącza oznaczonego piktogramem

A. Złącze 3
Ilustracja do odpowiedzi A
B. Złącze 1
Ilustracja do odpowiedzi B
C. Złącze 4
Ilustracja do odpowiedzi C
D. Złącze 2
Ilustracja do odpowiedzi D
W praktyce bardzo często można się pomylić, kiedy przy komputerze widzimy kilka różnych złącz i każde ma swój piktogram. Jednak zapis w specyfikacji technicznej, który mówi o współpracy z komputerem klasy PC poprzez złącze USB, daje jasną wskazówkę – chodzi właśnie o port oznaczony symbolem z trzema odnogami oraz charakterystyczną strzałką. Pozostałe oznaczenia nierzadko wprowadzają w błąd: piktogram z cyframi i zerami (10101) często występuje przy złączach sygnałowych, czasem to porty szeregowe/komunikacyjne, zupełnie nie związane ze standardem USB. Symbol przedstawiający rozgałęzienie z trzema prostokątami to klasyczne oznaczenie złącza sieciowego Ethernet, które służy do komunikacji w sieciach komputerowych, a nie do podłączania urządzeń peryferyjnych. Ostatni symbol, przypominający stylizowane M w prostokącie, jest używany jako oznaczenie portu LPT, czyli złącza równoległego, wykorzystywanego dawniej głównie do podłączania drukarek – dziś coraz rzadziej spotykany. Z mojego doświadczenia wynika, że sporo osób myli się, sugerując się znajomością ogólnych symboli cyfrowych albo uznając, że każde nowsze urządzenie można podłączyć do dowolnego portu sygnałowego. Takie założenie jest błędne, bo tylko zgodność standardów zapewnia poprawne działanie sprzętu i bezpieczeństwo danych. Branżowe dobre praktyki podkreślają też, że wybierając odpowiedni port, nie tylko zapewniamy sobie wygodę Plug & Play, ale minimalizujemy ryzyko uszkodzenia sprzętu – choć wydaje się to oczywiste, to w pośpiechu czy stresie takie pomyłki zdarzają się nawet doświadczonym użytkownikom. Warto więc kierować się nie tylko intuicją, ale też znajomością tych podstawowych symboli, bo to realnie usprawnia codzienną pracę i eliminuje kłopoty techniczne.

Pytanie 35

Który system plików zapewnia największe bezpieczeństwo danych w systemie Windows?

A. ext4
B. NTFS
C. FAT 32
D. FAT 16
Wiele osób z rozpędu wybiera FAT16 albo FAT32 – w końcu kiedyś to były domyślne systemy plików w Windows, szczególnie na starszych komputerach czy pendrive’ach. Jednak patrząc z perspektywy bezpieczeństwa danych, mają one sporo braków. Najbardziej rzuca się w oczy brak zarządzania uprawnieniami: każdy, kto ma dostęp do dysku FAT, może czytać, kasować i modyfikować praktycznie wszystko. To ogromna luka, szczególnie w środowiskach wieloużytkownikowych. FAT16 i FAT32 nie obsługują też żadnych narzędzi do szyfrowania ani mechanizmów naprawy po awarii – jeśli coś pójdzie nie tak, np. padnie zasilanie czy zawiesi się system, bardzo łatwo o utratę danych i czasem trzeba korzystać z zewnętrznych programów do odzyskiwania plików. Z mojego doświadczenia wynika, że nadal sporo osób wybiera FAT32, bo jest kompatybilny z wieloma urządzeniami, ale to raczej kwestia wygody, nie bezpieczeństwa. Często pojawia się też ext4 jako propozycja, bo to solidny system plików… tylko że on jest przeznaczony głównie dla Linuksa i Windows nie obsługuje go natywnie. Stosowanie ext4 pod Windows wymaga dodatkowych sterowników lub programów, ale nawet wtedy nie dostaniemy pełnego wsparcia wszystkich funkcji bezpieczeństwa. Takie pomyłki wynikają z nieznajomości różnic między systemami plików. Najlepszą praktyką zgodnie ze standardami IT i wymaganiami prawnymi (np. RODO) jest korzystanie z NTFS, bo tylko on daje kompleksowe mechanizmy ochrony danych i odzyskiwania po awarii, które są niezbędne w nowoczesnych środowiskach Windows.

Pytanie 36

Który endoskop pozwala na badanie wnętrza tchawicy i oskrzeli?

A. Laryngoskop.
B. Artroskop.
C. Duodenoskop.
D. Bronchoskop.
Wybór narzędzia endoskopowego do badania konkretnego narządu wymaga dobrej znajomości zarówno anatomii, jak i zastosowań klinicznych. Artroskop, choć jest precyzyjnym narzędziem, został stworzony z myślą o badaniu wnętrza stawów, takich jak kolano czy bark. Umożliwia on ocenę chrząstek, więzadeł i innych struktur stawowych, ale nie ma żadnego zastosowania w diagnostyce układu oddechowego. Laryngoskop natomiast przydaje się głównie w ocenie gardła, krtani czy przy intubacji – pozwala na wgląd do górnych dróg oddechowych, lecz jego konstrukcja nie umożliwia dotarcia głębiej, do tchawicy i oskrzeli. Z mojej perspektywy, sporo osób myli laryngoskop z bronchoskopem, bo oba dotyczą dróg oddechowych, ale zakres ich użycia jest zupełnie inny. Duodenoskop służy do badania dwunastnicy, czyli części przewodu pokarmowego, i w ogóle nie nadaje się do penetracji układu oddechowego – jego długość, średnica i konstrukcja kanałów są przystosowane do żołądka i jelit. Typowym błędem jest też sądzenie, że wszystkie endoskopy są uniwersalne, podczas gdy każdy model jest ściśle zaprojektowany z myślą o swojej funkcji. Właściwy dobór sprzętu zawsze wpływa na skuteczność diagnostyki i bezpieczeństwo pacjenta. Z mojego punktu widzenia, opieranie się na nazwie czy ogólnych skojarzeniach bez znajomości zastosowań praktycznych prowadzi do niepotrzebnych pomyłek. Powtarzając – tylko bronchoskop umożliwia rzeczywiste, bezpieczne i skuteczne badanie tchawicy oraz oskrzeli zgodnie z aktualnymi wytycznymi branżowymi.

Pytanie 37

Struktura anatomiczna człowieka, która jest nazywana krytyczną ze względu na szczególną wrażliwość na zewnętrzne promieniowanie jonizujące, to

A. nerka.
B. soczewka oka.
C. wątroba.
D. klatka piersiowa.
Soczewka oka to taka dość specyficzna struktura w ciele człowieka, która jest wyjątkowo wrażliwa na promieniowanie jonizujące, nawet przy bardzo niskich dawkach. Z mojej perspektywy praktyka – czy to w diagnostyce obrazowej, czy w radiologii czy nawet w ochronie radiologicznej – zawsze kładzie się ogromny nacisk na ochronę oczu. Soczewka nie ma własnych naczyń krwionośnych i nie jest w stanie samodzielnie naprawić uszkodzeń wywołanych przez promieniowanie. Efektem zbyt dużej dawki może być rozwój zaćmy popromiennej, często nieodwracalnej. Co ciekawe, jeszcze kilka lat temu uznawano, że dopuszczalna dawka dla soczewki może być stosunkowo wysoka, ale teraz – zgodnie z zaleceniami Międzynarodowej Komisji Ochrony Radiologicznej (ICRP) – te wartości znacznie obniżono (obecnie wynosi to 20 mSv/rok dla osób zawodowo narażonych). W praktyce lekarze i technicy wszędzie tam, gdzie istnieje ryzyko ekspozycji, stosują ołowiane okulary ochronne, bo to naprawdę się opłaca. Warto też pamiętać, że nawet podczas krótkotrwałej ekspozycji oko jest dużo bardziej podatne na skutki promieniowania niż większość innych narządów. Ochrona soczewki to taki elementarz w każdej pracowni rentgenowskiej czy tomografii komputerowej. O tym się mówi na każdym szkoleniu BHP związanym z promieniowaniem.

Pytanie 38

Do którego interfejsu (komunikacja z komputerem odbywa się poprzez port RS 232) należy podłączyć cykloergometr przeznaczony do współpracy z systemem do badań wysiłkowych?

A. Interfejs 4
Ilustracja do odpowiedzi A
B. Interfejs 3
Ilustracja do odpowiedzi B
C. Interfejs 2
Ilustracja do odpowiedzi C
D. Interfejs 1
Ilustracja do odpowiedzi D
Wielu początkujących ma problem z rozpoznaniem właściwego złącza RS-232, bo na pierwszy rzut oka porty D-Sub są do siebie bardzo podobne, różnią się tylko liczbą pinów i rozmiarem. W praktyce błędne utożsamianie większych lub mniejszych złącz – jak DB-25 czy DE-15 – z interfejsem RS-232 wynika często z mylenia ich z portami drukarki (LPT) albo VGA. To dość powszechna pułapka – porty te mają podobną ramkę i mocowania, lecz ich funkcje są zupełnie inne. Standard RS-232 wykorzystuje najczęściej 9-pinowe złącze DB-9 (DE-9), które pozwala na prostą, stabilną komunikację szeregową z urządzeniem pomiarowym, jak cykloergometr. Stosowanie innych portów, takich jak DB-25, było popularne dawniej, ale obecnie praktycznie nie spotyka się już takich połączeń w sprzęcie medycznym, bo są one mało wygodne i niepotrzebnie zajmują miejsce na panelu. Złącze DE-15 z kolei to typowy port VGA, który służy do przesyłania obrazu, a nie danych pomiarowych – często można się nabrać przez podobną konstrukcję, ale funkcjonalnie nie mają ze sobą nic wspólnego. Podobnie DB-25, choć kiedyś używany do RS-232, dziś prawie zawsze kojarzony jest z wyjściem drukarkowym (LPT), a nie transmisją szeregową. Praktyka branżowa i dobre standardy wymagają więc, by do komunikacji przez RS-232 wybierać DE-9, bo zapewnia to największą kompatybilność ze sprzętem i oprogramowaniem pomiarowym. Moim zdaniem warto się nauczyć odróżniać typy portów nie tylko po liczbie pinów, ale też po zastosowaniu, bo dzięki temu uniknie się wielu nieporozumień i błędów podczas konfiguracji sprzętu.

Pytanie 39

Prezentacja A, B, M jest charakterystyczna dla badania

A. NMR
B. USG
C. MRJ
D. RTG
W tej sytuacji warto się na moment zatrzymać i przeanalizować, dlaczego pozostałe techniki obrazowania nie mają nic wspólnego z prezentacją A, B, M. Zacznijmy od RTG, czyli klasycznego rentgena – tu mamy do czynienia z obrazowaniem opartym na promieniowaniu jonizującym, gdzie powstaje dwuwymiarowy obraz cieniowy, np. klatki piersiowej czy kości. Nie ma tu żadnych trybów typu A, B czy M – cała koncepcja bazuje na różnicach pochłaniania promieniowania przez tkanki, więc prezentacje A, B czy M zwyczajnie nie występują. Przechodząc do MRJ – zakładam, że chodzi o rezonans magnetyczny (MRI), tu z kolei korzystamy z właściwości magnetycznych jąder wodoru. MRI generuje obrazy na podstawie sygnałów z tkanek pod wpływem silnego pola magnetycznego i impulsów radiowych, a nie ultradźwięków. Tryby obrazowania w MRI to zupełnie inna bajka – stosuje się np. sekwencje T1, T2, FLAIR, DWI, a nie prezentacje typu A, B, M. Podobnie sprawa ma się z NMR – to jest dawny skrót dla rezonansu magnetycznego, obecnie właściwie nie używany w diagnostyce medycznej poza nazwą historyczną. Często tu pojawia się nieporozumienie, bo niektórzy mylą NMR z MRI, ale zasada działania i nomenklatura są takie same – nie znajdziemy tam prezentacji A/B/M. Typowym błędem jest założenie, że każda technika obrazowania ma swoje 'tryby', a to wcale nie jest takie proste. Prezentacje A, B, M to unikatowe rozwiązania dla ultrasonografii i są wpisane w standardy pracy z USG. W innych metodach, jak RTG czy MRI, myślimy raczej o innych parametrach i sposobach prezentacji obrazu, więc warto zawsze pamiętać, by nie mieszać tych pojęć.

Pytanie 40

Aby zapobiec utracie danych w programie obsługi przychodni, należy codziennie wykonywać

A. punkt przywracania systemu operacyjnego.
B. aktualizację systemu operacyjnego.
C. kopię zapasową danych.
D. aktualizację programu.
Najlepszą i najpewniejszą metodą ochrony danych przed ich utratą, szczególnie w takim środowisku jak przychodnia, jest codzienne wykonywanie kopii zapasowej danych. To podstawa bezpieczeństwa informatycznego i praktycznie każdy specjalista IT na świecie zaleca tę czynność jako absolutnie niezbędną. W razie jakiejkolwiek awarii – czy to sprzętowej, czy wynikającej z błędu ludzkiego, ataku wirusa, ransomware albo przypadkowego usunięcia pliku – tylko backup daje realną szansę na odzyskanie cennych informacji. Z mojego doświadczenia wynika, że nawet najbardziej zaawansowane zabezpieczenia nie zastąpią regularnego robienia kopii zapasowych. W środowiskach medycznych jest to wręcz wymóg prawny i wynikający z RODO obowiązek zapewnienia ciągłości dostępu do danych pacjentów. Niejednokrotnie spotkałem się z sytuacją, gdzie to właśnie backup uratował placówkę przed katastrofalną stratą – kosztów, nerwów i poważnych konsekwencji prawnych. Standard branżowy ISO 27001 jasno wskazuje konieczność wdrażania polityk backupowych. W praktyce często stosuje się rozwiązania automatyczne, które codziennie, nawet po godzinach pracy, wykonują kopie zapasowe w chmurze albo na zewnętrznych nośnikach. Tak naprawdę backup to taki swoisty parasol ochronny – bez niego każdy system jest podatny na nieprzewidziane sytuacje, a w medycynie nie ma miejsca na ryzyko. Codzienna kopia zapasowa to inwestycja w spokój i bezpieczeństwo danych.