Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 6 kwietnia 2026 14:07
  • Data zakończenia: 6 kwietnia 2026 15:06

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na zdjęciu przedstawiono

Ilustracja do pytania
A. elektrodę AED.
B. lampę SOLLUX.
C. głowicę USG.
D. sondę TOCO.
To, co widzisz na zdjęciu, to właśnie głowica USG, fachowo zwana też sondą ultrasonograficzną. Jest to jeden z podstawowych elementów każdego aparatu do ultrasonografii – bez niej nie byłoby możliwe wykonanie badania USG, które dziś jest właściwie standardem w diagnostyce obrazowej. Głowice mają różne kształty i częstotliwości – ta na zdjęciu wygląda mi na typową głowicę konweksową, używaną np. w badaniach jamy brzusznej. Działa to tak, że głowica wysyła fale ultradźwiękowe, które odbijają się od tkanek, a potem na tej podstawie komputer tworzy obraz narządów. W praktyce spotkasz się z tym urządzeniem niemal w każdym szpitalu, przychodni czy gabinecie ginekologicznym. Zgodnie z dobrymi praktykami zawsze używa się do głowicy specjalnego żelu, żeby fale ultradźwiękowe lepiej przechodziły przez skórę – czasem ludzie zapominają o tym, a to kluczowy krok. Moim zdaniem, umiejętność rozpoznawania różnych typów głowic i dobrania ich do konkretnego badania to podstawa pracy z ultrasonografem. Warto pamiętać, że nowoczesne głowice są bardzo czułe, więc trzeba się z nimi obchodzić delikatnie – upadek potrafi je rozstroić i już nie będą dawały wiarygodnych obrazów.

Pytanie 2

Które systemy operacyjne mogą być zainstalowane na dysku, którego działanie obrazuje GParted?

Ilustracja do pytania
A. Linux, Windows
B. Windows, Mac OS
C. Linux, Mac OS
D. Mac, Mac OS
Analizując typowe schematy partycjonowania, łatwo się pomylić, patrząc na oznaczenia partycji czy typy systemów plików. Wielu osobom może się wydawać, że obecność partycji EFI czy NTFS od razu oznacza kompatybilność z systemem Mac OS, ale to nie jest takie proste. Mac OS korzysta przede wszystkim z systemu plików APFS lub starszego HFS+, których tutaj całkowicie brakuje. Fat32 daje pewną podstawę do współpracy między różnymi systemami, ale jest wykorzystywany głównie do partycji rozruchowej EFI, a nie jako główny system plików dla Mac OS czy nawet Windows. NTFS jest natywnym systemem dla Windowsa, a EXT4 dla Linuksa – Mac OS nie zainstaluje się na żadnej z tych partycji bez silnej modyfikacji i obejścia ograniczeń, czego Apple oficjalnie nie wspiera. Typowym błędem jest utożsamianie EFI z systemami Apple – to prawda, że EFI pojawiło się początkowo w komputerach Mac, ale obecnie jest standardem w PC i nie świadczy o możliwości instalacji Mac OS. Mac OS wymaga specjalnego sprzętu oraz własnego schematu partycjonowania dysku. Z mojego doświadczenia, wiele osób zbyt pochopnie zakłada, że da się zainstalować Mac OS na dowolnym dysku z EFI (szczególnie pod wpływem tematów typu Hackintosh), ale w praktyce wymaga to bardzo specyficznej konfiguracji i często modyfikacji firmware. Brak partycji APFS czy HFS+ oznacza, że Mac OS nie będzie tu działał natywnie. Dlatego odpowiedzi wskazujące Mac OS jako możliwy do instalacji na tym dysku są błędne. Dobrym nawykiem jest nie tylko patrzeć na obecność partycji, ale też zwracać uwagę na ich typ i zgodność z wymaganiami systemów operacyjnych. To pozwala uniknąć wielu rozczarowań podczas instalacji czy migracji systemów.

Pytanie 3

W celu przerwania działania funkcji i powrotu do miejsca jej wywołania należy użyć instrukcji

A. pause
B. break
C. continue
D. return
Wiele osób, szczególnie na początku nauki programowania, myli instrukcje sterujące przepływem zadań w kodzie. Często wydaje się, że break albo continue mogą przerwać działanie funkcji, bo rzeczywiście te słowa kluczowe zatrzymują lub zmieniają przebieg pętli. Instrukcja break służy jednak wyłącznie do natychmiastowego zakończenia działania pętli (for, while) lub przejścia poza blok switch w niektórych językach. W funkcji, która nie jest w żadnej pętli, break spowoduje błąd składniowy – program po prostu nie pozwoli jej użyć w tym miejscu. Continue natomiast nie kończy funkcji, ale przerywa aktualną iterację pętli i powoduje przejście do kolejnej – również działa tylko w kontekście pętli. Co do pause, to taki słowo kluczowe nie istnieje w większości języków programowania – czasem ktoś wyobraża sobie, że to coś jak zatrzymanie działania funkcji, ale to raczej myślenie życzeniowe. Problem polega na tym, że zamienne używanie tych instrukcji wynika zwykle z niezrozumienia, gdzie kończy się zakres działania konkretnego słowa kluczowego. W profesjonalnym kodzie dobre praktyki wyraźnie rozdzielają zakończenie funkcji (return) od sterowania pętlami (break, continue), co wynika zarówno z przejrzystości, jak i bezpieczeństwa kodu. Jeśli będziesz próbować zastąpić return innymi instrukcjami, możesz łatwo uzyskać błędy logiczne lub bardzo trudne do zdiagnozowania anomalie w działaniu programu. Moim zdaniem najważniejsze jest tutaj zrozumienie, że tylko return pozwala opuścić funkcję i ew. przekazać wartość do miejsca jej wywołania, a inne instrukcje mają zupełnie inne przeznaczenie. Przemyślane stosowanie tych mechanizmów to podstawa każdego solidnego programisty – nie warto tego lekceważyć, bo potem naprawianie takich drobnych pomyłek potrafi zająć masę czasu.

Pytanie 4

Do badania przewodnictwa powietrznego i kostnego służy

A. fotometr.
B. kapnometr.
C. adaptometr.
D. audiometr.
Audiometr to urządzenie, które z mojego doświadczenia jest totalną podstawą w badaniach słuchu – zarówno przewodnictwa powietrznego, jak i kostnego. W praktyce używa się go w gabinetach laryngologicznych oraz w poradniach audiologicznych. Pozwala ocenić, jak dobrze dany pacjent słyszy dźwięki o różnych częstotliwościach zarówno przez słuchawki (przewodnictwo powietrzne), jak i przez specjalne wibratory kostne (przewodnictwo kostne). Bardzo często audiometr stosuje się przy podejrzeniu niedosłuchu przewodzeniowego lub odbiorczego – wyniki pozwalają określić, gdzie dokładnie leży problem w uchu. Zwraca się uwagę na to, by badanie było przeprowadzone w wyciszonym pomieszczeniu, zgodnie z wytycznymi Polskiego Towarzystwa Otolaryngologów. Z mojej perspektywy, to sprzęt niezastąpiony w profilaktyce słuchu chociażby u osób pracujących w hałasie – dzięki temu wykrywa się uszkodzenia słuchu zanim pojawią się trwałe zmiany. Audiometria tonalna i próby przewodnictwa kostnego to standard w medycynie pracy, diagnostyce dzieci, osób starszych, czy nawet przed doborem aparatów słuchowych. Przy okazji warto dodać, że są różne modele audiometrów – od prostych, przenośnych po bardzo zaawansowane, komputerowe systemy, które umożliwiają szczegółową analizę słuchu. W sumie nie wyobrażam sobie dobrej diagnostyki bez tego sprzętu – zdecydowanie jest to narzędzie pierwszego wyboru według wszelkich dobrych praktyk.

Pytanie 5

Jakie jest przeznaczenie drukarki, której dotyczy zamieszczony fragment specyfikacji?

Głowica drukująca24-igłowa
Średnica przewodu0,2 mm
Kierunek drukuDwukierunkowe/bezkierunkowe drukowanie
Rozdzielczość grafikiMaks. 360 (wys.) x 360 (szer.) dpi
Szybkość drukowaniaHigh Speed Draft: 607 znaków/s, tryb Utility: 485 znaków/s, tryb Near Letter Quality: 245 znaków/s, Letter Quality: 165 znaków/s
Gęstość przesunięć wierszy4,23 mm (1/6"), 3,18 mm (1/8"), n x 0,42 mm (m/60") (m=0-127), n x 0,14 mm (n/180") (n=0-255), n x 0,12 mm (n/216") (n=0-255), n x 0,07 mm (n/360") (n=0-255)
Szybkość podajnika10 cali na sekundę
Pobieranie papieruRęczne (góra), traktor pchający (góra), traktor pchający (tył), traktor pchający (dół), podajnik pojedynczych arkuszy (tył)
Gęstość znakówHigh Speed Draft: 10,0 zn./cal 18,0 zn./cal
Jakość użytkowa: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20 zn./cal
Tryb Near Letter Quality: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20,0 zn./cal
Tryb Letter Quality: 10 zn./cal 12 zn./cal 15 zn./cal 17,1 zn./cal 20 zn./cal, proporcjonalnie
Szerokość druku136 zn./linia przy ANK 10 zn./cal
A. Wykonywanie wydruków laserowych.
B. Nadruk opisów na płytach CD/DVD.
C. Drukowanie na papierze perforowanym.
D. Drukowanie dokumentów w kolorze.
W przypadku tej specyfikacji łatwo się pomylić, bo na pierwszy rzut oka niektóre parametry mogą kojarzyć się z bardziej zaawansowanymi technologiami. Jednak drukarka opisana w pytaniu nie jest przeznaczona do wydruków laserowych – brak wzmianki o technologii laserowej, tonerze, ani wysokiej rozdzielczości typowej dla laserówek (zwykle powyżej 600 dpi). Zamiast tego mamy 24-igłową głowicę, a to ewidentnie wskazuje na druk igłowy, a nie laserowy. Podobnie, nie jest to urządzenie koloru – nigdzie nie wspomniano o kolorowych tuszach, multipleksowaniu kolorów czy głowicach CMYK. Drukarki igłowe zazwyczaj pracują tylko w trybie monochromatycznym (czarny tusz/taśma barwiąca), więc drukowanie dokumentów w kolorze odpada. Pomysł z nadrukiem na płytach CD/DVD też tutaj nie pasuje – do tego wykorzystuje się zupełnie inne mechanizmy, bardziej precyzyjne podajniki i głowice, często atramentowe, a zresztą średnica przewodu i obecność traktora pchającego są niepotrzebne w takich zastosowaniach. Typowym błędem jest utożsamianie wysokiej szybkości druku lub szerokiej rozdzielczości z drukowaniem laserowym lub kolorowym, ale tu kluczowa jest budowa głowicy. Papier perforowany, wymagający traktora do przesuwu, jest głównym zastosowaniem drukarek igłowych. Praktyka pokazuje, że te urządzenia są nieocenione tam, gdzie chodzi o wydruki ciągłe, dokumenty wielokopii czy pracę w trudnych warunkach środowiskowych. Z mojego doświadczenia wynika, że nie każda drukarka nadaje się do wszystkiego – tu wyraźnie mamy do czynienia ze sprzętem stworzonym do zadań specjalnych z papierem perforowanym, a nie do nowoczesnych, kolorowych czy specjalistycznych wydruków na płytach optycznych.

Pytanie 6

W aparacie holterowskim sygnał jest archiwizowany na karcie SD. Który rysunek przedstawia wymieniony nośnik pamięci?

Ilustracja do pytania
A. 1
B. 3
C. 4
D. 2
Karta SD, czyli Secure Digital, to obecnie jeden z najczęściej używanych nośników pamięci w urządzeniach medycznych, takich jak aparaty holterowskie. Na rysunku numer 2 oznacza właśnie kartę SD – cechuje się ona stosunkowo niewielkimi wymiarami i charakterystycznym ściętym narożnikiem. Moim zdaniem nie ma obecnie bardziej praktycznego i dostępnego rozwiązania do zapisywania dużych ilości danych w małym urządzeniu. Typowo używa się tych kart, bo są bardzo odporne na uszkodzenia mechaniczne, mają niski pobór energii i łatwo je przełożyć do komputera lub stacji odczytującej, co jest ogromnym plusem w pracy diagnostycznej – zwłaszcza kiedy trzeba szybko przeanalizować wyniki zapisu EKG z Holtera. Praktyka szpitalna pokazuje, że szybka wymienność i prostota obsługi kart SD to standard, do którego wszyscy już się przyzwyczaili. Często spotykam się z sytuacją, że starsi pacjenci także potrafią samodzielnie przełożyć kartę SD z urządzenia do czytnika, co tylko pokazuje, jak uniwersalne i wygodne jest to rozwiązanie. Dobrym zwyczajem jest też regularne sprawdzanie stanu karty przed założeniem holtera, bo uszkodzona karta SD potrafi zepsuć całą rejestrację. Tak więc wybór odpowiedzi nr 2 jest zgodny nie tylko z teorią, ale i praktyką na rynku medycznym.

Pytanie 7

Proces, w którym w bazie danych są usuwane nadmiarowe dane, jest określany jako

A. normalizacja.
B. kompresja.
C. redukcja.
D. redundancja.
Normalizacja to jeden z najważniejszych procesów podczas projektowania baz danych – praktycznie każdy, kto pracuje przy większych systemach informatycznych, prędzej czy później się z tym spotka. Chodzi w niej o takie przekształcenie struktury tabel, żeby unikać powielania tych samych danych (czyli właśnie nadmiarowości). Dzięki normalizacji ograniczamy błędy logiczne, zwiększamy spójność i łatwiej się potem pracuje z taką bazą, zwłaszcza gdy pojawiają się zmiany w danych. Przykładowo: zamiast trzymać nazwę miasta w każdym zamówieniu, lepiej mieć osobną tabelę „Miasta” i tam tylko raz każda nazwa – a w zamówieniach odwoływać się do niej przez klucz. To taki klasyk, który w pracy programisty czy administratora bazy danych po prostu trzeba znać. Moim zdaniem normalizacja to trochę jak sprzątanie pokoju: na początku wydaje się, że jest więcej pracy, ale potem o wiele łatwiej wszystko znaleźć i utrzymać porządek. Standardy branżowe, jak model relacyjny i kolejne postacie normalne (1NF, 2NF, 3NF itd.), pokazują konkretne kroki, jak tę nadmiarowość eliminować. W praktyce zauważyłem, że dobrze znormalizowana baza zużywa mniej miejsca, szybciej się aktualizuje i nie dopuszcza do różnic w danych (np. dwie różne pisownie tego samego klienta). Choć czasem dla wydajności celowo się odchodzi od pełnej normalizacji, to jako punkt wyjścia i standard projektowy – normalizacja jest po prostu niezastąpiona.

Pytanie 8

Które badanie endoskopowe należy wykorzystać do wizualizacji jamy stawu?

A. Kolonoskopię.
B. Cystoskopię.
C. Artroskopię.
D. Duodenoskopię.
Artroskopia to naprawdę świetny przykład tego, jak technologia potrafi zrewolucjonizować diagnostykę i leczenie schorzeń układu ruchu. Ten zabieg polega na wprowadzeniu do jamy stawowej specjalnego narzędzia z kamerą, czyli artroskopu. Pozwala to lekarzowi dokładnie obejrzeć wnętrze stawu – powierzchnie chrzęstne, więzadła, błonę maziową, a czasem nawet fragmenty kości. W praktyce wykorzystuje się artroskopię nie tylko do diagnostyki, gdy pacjent ma np. uporczywy ból czy obrzęk stawu, ale też w celach terapeutycznych – można podczas jednego zabiegu usunąć uszkodzoną łękotkę, zszyć więzadła czy wyłuszczyć ciała obce. W ortopedii artroskopia kolana, barku lub stawu skokowego to już właściwie standard i nikt nie wyobraża sobie współczesnej medycyny bez tej techniki. Moim zdaniem najważniejsze jest to, że artroskopia jest małoinwazyjna, więc rekonwalescencja trwa krócej i ryzyko powikłań jest mniejsze niż przy tradycyjnym otwieraniu stawu. Co ciekawe, coraz częściej wykorzystuje się ją też w medycynie sportowej – szybka diagnostyka i naprawa urazów pozwala zawodnikom wracać do formy w ekspresowym tempie. Jeśli chcesz poznać szczegóły, polecam przejrzeć zalecenia Polskiego Towarzystwa Ortopedycznego – artroskopia jest tam szeroko opisana jako metoda z wyboru przy wielu schorzeniach stawów. Takie rozwiązania to przyszłość medycyny, serio.

Pytanie 9

Rejestr rozkazów procesora przechowuje

A. kod aktualnie wykonywanego rozkazu.
B. numer rozkazu, który będzie wykonywany jako następny.
C. adres rozkazu, który będzie wykonywany jako następny.
D. adres aktualnie wykonywanego rozkazu.
Rejestr rozkazów procesora, znany też jako rejestr IR (Instruction Register), odgrywa kluczową rolę w cyklu wykonywania instrukcji. To właśnie tutaj ładowany jest kod rozkazu, który procesor ma aktualnie wykonać – nie mylić z adresem tej instrukcji! W praktyce, kiedy procesor pobiera instrukcję z pamięci operacyjnej (RAM), jej kod jest wczytywany właśnie do rejestru rozkazów. Dzięki temu układ dekodera instrukcji może dokładnie zinterpretować, co należy zrobić: czy wykonać operację arytmetyczną, przesłać dane, albo przeskoczyć do innego miejsca w programie. Moim zdaniem, rozumienie działania tego rejestru bardzo pomaga później przy analizie działania programów na poziomie asemblera czy podczas debugowania na sprzęcie niskiego poziomu. Standardy architektur takich jak x86 czy ARM jasno opisują ten mechanizm – przykładowo, w dokumentacji Intela dla procesorów x86 rejestr IR jest kluczowym elementem tzw. cyklu fetch-decode-execute. Warto zauważyć, że poprawna interpretacja zawartości rejestru rozkazów to podstawa dla każdego projektanta systemów embedded czy kogokolwiek, kto zamierza pisać programy blisko sprzętu. Nawet w nowoczesnych procesorach superskalarnych, choć budowa jest bardziej zaawansowana, idea przechowywania kodu aktualnie wykonywanej instrukcji pozostaje niezmienna. Dobrą praktyką jest też zawsze odróżnianie tego rejestru od licznika rozkazów (PC), który trzyma adres, a nie sam kod.

Pytanie 10

Która część narządu wzroku rejestruje światło widzialne?

A. Soczewka.
B. Spojówka.
C. Rogówka.
D. Siatkówka.
Siatkówka to taka część oka, która pełni kluczową rolę w procesie widzenia – można powiedzieć, że bez niej nie ma mowy o jakimkolwiek odbiorze obrazu. Zbudowana jest z warstw komórek światłoczułych, czyli pręcików i czopków. Pręciki odpowiadają za widzenie przy słabym świetle (np. nocą), a czopki za widzenie barwne i ostrość w ciągu dnia. Światło, które przechodzi przez rogówkę, soczewkę i ciało szkliste, dociera właśnie do siatkówki, gdzie zachodzą pierwsze reakcje biochemiczne uruchamiające cały proces widzenia. Rejestrowanie światła widzialnego przez siatkówkę to podstawa działania narządu wzroku – w praktyce, to dzięki niej różne urządzenia diagnostyczne, np. oftalmoskopy czy kamery do obrazowania dna oka, są w stanie wykrywać uszkodzenia lub choroby wczesnym etapie. W medycynie okulistycznej bardzo często podkreśla się, że stan siatkówki decyduje o jakości widzenia – nawet idealnie przejrzysta rogówka czy soczewka nic nie dadzą, jeśli siatkówka nie funkcjonuje prawidłowo. Moim zdaniem warto zauważyć, jak duże znaczenie ma profilaktyka schorzeń siatkówki, zwłaszcza w kontekście pracy przy komputerze albo ekspozycji na niebieskie światło. No i taka ciekawostka – w nowoczesnych badaniach nad sztuczną inteligencją często inspiruje się budową siatkówki przy projektowaniu kamer czy systemów rozpoznawania obrazu.

Pytanie 11

Pierwszym krokiem podczas prac serwisowych wymagających modyfikowania rejestru w systemie Windows jest wykonanie

A. importu rejestru.
B. podłączenia rejestru sieciowego.
C. kopii rejestru.
D. oczyszczania rejestru.
Modyfikowanie rejestru w systemie Windows to jeden z tych tematów, które przez wielu są pomijane, a to błąd, bo potrafi narobić sporo zamieszania. Zawsze, zanim zaczniesz jakiekolwiek zmiany w rejestrze – nawet te wydające się banalne – najpierw wykonaj kopię rejestru. To praktyka, której trzymają się doświadczeni administratorzy oraz serwisanci sprzętu komputerowego. Chodzi o to, że rejestr przechowuje fundamentalne ustawienia systemu i aplikacji, i każda nieprawidłowa edycja może po prostu unieruchomić system albo wygenerować trudne do rozwiązania błędy. Moim zdaniem lepiej poświęcić te dwie minuty więcej na backup, niż później spędzić godziny na przywracaniu systemu. Kopię rejestru możesz zrobić przez eksport wybranego klucza lub całości z poziomu edytora regedit – jest to bardzo przydatne, bo w razie problemów możesz wrócić do poprzedniego stanu. Microsoft także w swoich oficjalnych dokumentacjach podkreśla ten krok jako obowiązkowy przed jakimikolwiek pracami serwisowymi. Warto pamiętać, że kopiowanie rejestru chroni nie tylko przed własnymi błędami, ale też przed skutkami nieprzewidzianych awarii, np. wyłączenia zasilania podczas edycji. Z mojego doświadczenia, każda poważniejsza awaria po zmianach w rejestrze u osób pomijających backup kończyła się reinstalacją systemu, a tego raczej nikt nie lubi. Podsumowując, kopiowanie rejestru to po prostu zdrowy rozsądek i minimum profesjonalizmu w informatyce.

Pytanie 12

Zapis w dokumentacji układu holterowskiego „metoda pomiaru – oscylometryczna” świadczy o możliwości monitorowania

A. EKG.
B. oddechu.
C. ciśnienia krwi.
D. EEG.
Wydaje się, że łatwo się tu pomylić, głównie przez skojarzenie Holtera z EKG, bo to rzeczywiście najczęstsze zastosowanie tej nazwy w praktyce medycznej. Jednak analiza zapisu „metoda pomiaru – oscylometryczna” wymaga sięgnięcia do wiedzy o technikach pomiarowych. Metoda oscylometryczna dotyczy wyłącznie pomiaru ciśnienia tętniczego krwi, wykorzystując zmiany ciśnienia w mankiecie wywołane pulsacją naczyń, co nie ma żadnego związku z rejestracją sygnałów elektrycznych serca (EKG) czy mózgu (EEG), a tym bardziej z monitorowaniem oddechu. EKG, czyli elektrokardiografia, opiera się na analizie potencjałów elektrycznych generowanych przez serce przy użyciu elektrod przyklejanych do skóry – tu nie ma żadnej oscylometrii. Podobnie EEG, czyli elektroencefalografia, rejestruje aktywność bioelektryczną mózgu i wymaga zupełnie innego sprzętu i podejścia. Z kolei pomiar oddechu przy użyciu Holtera najczęściej opiera się na sensorach detekujących ruchy klatki piersiowej lub przepływ powietrza, a nie na oscylometrii. Typowym błędem jest założenie, że „oscylometria” odnosi się do każdego rodzaju sygnału fizjologicznego – moim zdaniem wynika to z braku rozróżnienia między technikami wykorzystywanymi do zapisu różnych parametrów życiowych. W rzeczywistości, każdy parametr potrzebuje dedykowanej metody rejestracji, a oscylometria jest zarezerwowana wyłącznie dla pomiarów ciśnienia tętniczego. W praktyce medycznej precyzja w rozumieniu tych pojęć jest kluczowa, żeby nie popełniać błędów diagnostycznych i właściwie interpretować dokumentację techniczną sprzętu.

Pytanie 13

Stężenie którego gazu z wydychanego powietrza prezentuje kapnogram?

Ilustracja do pytania
A. CO₂
B. N₂O
C. H
D. O₂
Kapnogram to wykres, który pokazuje zmiany stężenia dwutlenku węgla (CO₂) w wydychanym powietrzu podczas oddychania. To bardzo praktyczne narzędzie, szczególnie w anestezjologii i intensywnej terapii, bo pozwala niemal natychmiast zauważyć wszelkie nieprawidłowości w wentylacji pacjenta. Moim zdaniem, właśnie kapnografia, czyli analiza gazu oddechowego pod kątem CO₂, jest jednym z najważniejszych monitorów bezpieczeństwa podczas znieczulenia – nie tylko informuje, czy pacjent oddycha, ale też podpowiada, czy intubacja się powiodła. Z kapnogramu można odczytać np. ETCO₂, czyli końcowo-wydechowe stężenie CO₂ – norma to 35-45 mmHg. Warto wiedzieć, że zmiany w kształcie kapnogramu, np. spadek wartości albo nagłe zniknięcie wykresu, mogą świadczyć o rozłączeniu układu oddechowego lub zatrzymaniu krążenia. Według wytycznych European Society of Anaesthesiology, kapnografia powinna być standardowo stosowana podczas każdej znieczulenia ogólnego. Niektórzy mylą kapnogram z wykresem O₂, ale to zupełnie inna bajka – tlen mierzy się innymi metodami. Pomiar N₂O również się wykonuje, zwłaszcza przy użyciu podtlenku azotu w znieczuleniu, ale nie przez kapnografię. W praktyce klinicznej, szybkie i precyzyjne oznaczanie CO₂ jest kluczowe dla oceny perfuzji płuc, wentylacji i metabolizmu.

Pytanie 14

Aby dodać nowe konto „rejestracja” w systemie Windows, należy wykorzystać polecenie

A. user add rejestracja
B. net user rejestracja /add
C. net rejestracja \add user
D. add user rejestracja
Wiele osób błędnie sądzi, że polecenia do zarządzania kontami w Windows przypominają te znane z systemów Linux, co niestety prowadzi do nieporozumień. Próby użycia polecenia „add user rejestracja” czy „user add rejestracja” wyglądają znajomo na pierwszy rzut oka, bo w systemach takich jak Ubuntu czy CentOS wykorzystuje się „adduser” lub „useradd”. Jednak w Windows to zupełnie inna historia – tam do zarządzania użytkownikami stosuje się narzędzie „net” o zupełnie innej składni. Pomieszanie kolejności słów lub używanie niewłaściwych przełączników jest jednym z najczęstszych błędów popełnianych przez początkujących administratorów, zwłaszcza jeśli mają doświadczenie bardziej z systemami Unixowymi. Spotkałem się z sytuacjami, że ktoś próbował „net rejestracja \add user”, co jest zupełnie niezgodne z tym, jak Windows rozumie polecenia – nie tylko pomylona jest kolejność, ale też składnia przełączników jest błędna (w Windows przełączniki oznacza się przez ukośnik „/”, nie odwrotny „\”, i są umieszczane na końcu). Moim zdaniem, zrozumienie tych niuansów systemowych jest kluczowe, by uniknąć frustracji podczas pracy z wierszem polecenia. Warto zawsze sprawdzać oficjalną dokumentację Microsoftu, bo bardzo precyzyjnie opisuje ona, jak powinno wyglądać użycie poszczególnych komend. To pozwala unikać typowych błędów i uczy dobrych nawyków pracy z administrowaniem systemem.

Pytanie 15

W celu podłączenia monitora do systemu wizualizacji obrazów wymagany jest interfejs Display Port. Ile takich interfejsów posiada karta graficzna przedstawiona na rysunku?

Ilustracja do pytania
A. 3 interfejsy
B. 1 interfejs.
C. 2 interfejsy.
D. 4 interfejsy
Wiele osób, patrząc na tylny panel karty graficznej, łatwo może się pomylić co do liczby dostępnych interfejsów DisplayPort. Najczęstszą przyczyną pomyłek jest mylenie DisplayPort z gniazdami HDMI lub DVI. Gniazda HDMI mają bardziej prostokątny kształt i są szeroko stosowane w sprzęcie konsumenckim, natomiast DVI to dość masywny port wyposażony w liczne piny i charakterystyczny „krzyżyk” po jednej stronie. DisplayPort natomiast wyróżnia się nieco innym, asymetrycznym kształtem i nie posiada tylu pinów, co DVI. Z mojego doświadczenia widać, że sporo osób zakłada, że jeśli jest dużo portów, to większość z nich to HDMI lub DVI, a DisplayPort występuje rzadko, co nie jest zgodne z rzeczywistością w nowoczesnych układach graficznych, zwłaszcza tych przeznaczonych do zastosowań profesjonalnych. Kolejna typowa pułapka to zakładanie, że ilość portów typu DVI wpływa na sumaryczną liczbę możliwych monitorów – jednak DisplayPort pozwala na podłączenie nowoczesnych monitorów wysokiej rozdzielczości i obsługuje więcej zaawansowanych funkcji. Branżowe standardy mówią jasno: DisplayPort jest preferowanym wyborem do zastosowań wymagających wysokiej jakości sygnału i większej liczby monitorów jednocześnie. Zignorowanie tego faktu może prowadzić do nieefektywnego wykorzystania sprzętu albo problemów z kompatybilnością. W praktyce, jeśli wybierzesz niewłaściwą liczbę DisplayPortów, możesz nie być w stanie zrealizować wymaganych konfiguracji wielomonitorowych, co w środowiskach projektowych czy wizualizacyjnych jest po prostu niewygodne i nieefektywne. Dlatego tak ważna jest dokładna analiza dostępnych portów i ich rozpoznawanie na podstawie kształtu oraz oznaczeń – to umiejętność, która wyróżnia dobrych specjalistów IT.

Pytanie 16

Symbole: 1U, 2U, 3U stosowane do oznaczenia modułów w szafach typu rack określają

A. ilość urządzeń danego typu umieszczonych na stelażu 19-calowym.
B. kolejność umieszczania modułów w slotach.
C. miejsce montażu modułu w szafie.
D. ilość slotów zajmowanych przez moduł w szafie.
Spotyka się czasem mylne przekonanie, że symbole typu 1U, 2U czy 3U mają związek z miejscem montażu albo kolejnością ustawiania urządzeń w szafie rackowej. W rzeczywistości te oznaczenia odnoszą się wyłącznie do fizycznej wysokości sprzętu mierzonej w jednostkach U (rack units), gdzie 1U to dokładnie 44,45 mm. One zupełnie nie określają ani pozycji urządzenia w stelażu, ani kolejności jego instalacji. To, gdzie konkretnie zamontujemy dane urządzenie, zależy po prostu od naszej decyzji czy projektu szafy. Często pojawia się też przeświadczenie, że liczba U informuje o liczbie urządzeń tego samego typu, jakie można upchnąć w stelażu 19-calowym. To podejście prowadzi do błędnego rozumienia tematu, bo liczba U mówi wyłącznie o tym, ile jednostek wysokości potrzebuje jedno urządzenie, a nie ile ich się zmieści. Często spotykam się też ze źle rozumianym pojęciem „slotu” jako gniazda czy konkretnej lokalizacji – tutaj slot to po prostu przestrzeń odpowiadająca jednej jednostce U, a nie jakieś fizyczne gniazdo. Z mojego punktu widzenia, takie uproszczenia prowadzą potem do chaosu przy planowaniu instalacji czy zakupie sprzętu, bo ktoś nagle zostaje z serwerem, który się zwyczajnie nie mieści. Branżowe standardy, np. EIA-310, zostały stworzone właśnie po to, by uniknąć takich pomyłek. W praktyce najlepsi administratorzy zawsze patrzą na oznaczenie w U, dobierają sprzęt pod kątem faktycznej dostępnej przestrzeni i nigdy nie mylą tego z miejscem montażu czy liczbą urządzeń. Jeśli ktoś nie zwróci na to uwagi, szybko okaże się, że szafa jest przepełniona albo nie da się jej poprawnie zamknąć. To taki podstawowy detal, który często decyduje o sprawności całej infrastruktury.

Pytanie 17

Membrana półprzepuszczalna jest podstawowym elementem

A. pompy infuzyjnej.
B. dializatora krwi.
C. respiratorów.
D. nebulizatorów.
Patrząc na odpowiedzi, łatwo się pomylić, bo membrana półprzepuszczalna brzmi jak coś, co można by spotkać w różnych urządzeniach medycznych. W rzeczywistości jednak np. pompa infuzyjna nie wykorzystuje membrany półprzepuszczalnej – jej zadaniem jest precyzyjne dawkowanie leków i płynów, najczęściej przy użyciu tłoka, silnika krokowego czy specjalnej kasety. To wszystko opiera się na mechanice i elektronice, a nie na selektywnym przenikaniu substancji przez barierę. Nebulizatory z kolei to urządzenia, które zamieniają ciecz w aerozol, czyli drobniutką mgiełkę, którą pacjent może wdychać. Tutaj cała magia dzieje się dzięki ultradźwiękom albo sprężonemu powietrzu, a membrany półprzepuszczalne nie mają żadnego istotnego znaczenia technologicznego. Respiratory natomiast służą do wspomagania lub zastępowania oddechu – działają głównie na zasadzie regulowania ciśnienia i objętości gazów w układzie oddechowym pacjenta. Owszem, w niektórych zaawansowanych układach mogą być jakieś filtry, ale to zupełnie coś innego niż membrana półprzepuszczalna, która jest stricte związana z procesem wymiany substancji, jak w dializie. Typowym błędem jest mylenie pojęcia 'półprzepuszczalność' z ogólną filtracją czy separacją, ale tylko dializator krwi wykorzystuje tę zasadę do selektywnego przenikania małych cząsteczek i zatrzymywania większych w oparciu o mechanizmy dyfuzji i osmozy. W innych urządzeniach medycznych, choć mogą się pojawiać rozmaite bariery czy przesłony, nie ma tej precyzyjnej kontroli nad transportem substancji, która jest kluczowa w dializie. Dlatego tak ważne jest rozróżnienie na czym dokładnie polega rola membrany w konkretnym sprzęcie – to pozwala uniknąć nieporozumień w praktyce medycznej.

Pytanie 18

Na zdjęciu RTG najjaśniejsze pole stanowi tkanka kostna, przez którą promieniowanie rentgenowskie jest

Ilustracja do pytania
A. absorbowane.
B. przenikane.
C. odbijane.
D. rozpraszane.
Temat oddziaływania promieniowania rentgenowskiego z tkankami jest jednym z podstawowych zagadnień w radiologii, jednak bardzo często pojawiają się błędne przekonania dotyczące mechanizmów widocznych na zdjęciu RTG. Odbijanie promieniowania praktycznie nie zachodzi w przypadku zdjęć medycznych – promieniowanie X nie jest światłem, które łatwo się odbija od powierzchni tkanek, dlatego to zjawisko ma znikome znaczenie w praktyce diagnostycznej. Przenikanie, choć brzmi logicznie, nie tłumaczy pojawienia się jasnych pól – tkanki, które są ciemniejsze na zdjęciu, to te, przez które promieniowanie przeszło niemal bez przeszkód, jak np. powietrze w płucach lub tkanki miękkie. Kluczowym mechanizmem jest tutaj różnica w pochłanianiu (czyli absorpcji) promieniowania przez różne struktury organizmu. Kości mają dużą gęstość oraz sporo pierwiastków o wyższym liczbie atomowej, co powoduje, że pochłaniają dużo promieniowania, skutkiem czego mniej promieni dociera do detektora i właśnie dlatego kości są jasne na zdjęciu. Zjawisko rozpraszania promieniowania również ma miejsce, ale jego efekt w obrazie końcowym jest marginalny i bardziej przeszkadza niż pomaga, bo obniża kontrast zdjęcia. Typowym błędem jest mylenie tego rozpraszania z obrazowaniem struktur, jednak specjaliści zawsze dążą do ograniczenia rozpraszania poprzez zastosowanie siatek przeciwrozproszeniowych czy odpowiedniego ustawienia parametrów aparatu. Dobrym nawykiem w praktyce radiologicznej jest zawsze pytać siebie: czy dana struktura jest widoczna dlatego, że zatrzymała (zaabsorbowała) promieniowanie, czy dlatego, że go przepuściła? Zrozumienie tej różnicy jest fundamentalne i bez niej trudno o profesjonalną interpretację zdjęć.

Pytanie 19

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. uogólnieniu pewnych cech w klasie bazowej.
B. budowie nowych klas na podstawie już istniejących.
C. tworzeniu nowych obiektów za pomocą konstruktorów.
D. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 20

Przedstawiony fragment dokumentacji dotyczy

Częstotliwość: 2.0-10.0MHz;

Tryb obrazowania: B, B/B, B/M, M, 4B;

Dynamiczne 4-stopniowe ogniskowanie;

A. renografu.
B. tomografu.
C. scyntygrafu.
D. ultrasonografu.
Opisany fragment dokumentacji wyraźnie należy do aparatu ultradźwiękowego, a nie do renografu, tomografu czy scyntygrafu. W tych trzech urządzeniach podstawowa fizyka działania jest zupełnie inna niż w ultrasonografii. Typowym błędem jest kojarzenie każdego sprzętu diagnostycznego z „jakimś obrazem” i wrzucanie ich do jednego worka, bez zwracania uwagi na takie szczegóły jak częstotliwość pracy, sposób obrazowania czy nazwy trybów. Renograf to urządzenie wykorzystywane w medycynie nuklearnej do oceny czynności nerek. W praktyce często jest to funkcja aparatury scyntygraficznej lub gamma-kamery, gdzie bada się rozkład radioznacznika w czasie. W renografii nie operuje się zakresem częstotliwości w megahercach dla fal ultradźwiękowych ani trybami B, M itp., tylko czasowo-aktywnymi krzywymi wychwytu i wydalania znacznika. Nie ma tam „dynamicznego ogniskowania” wiązki ultradźwiękowej, bo źródłem sygnału jest promieniowanie gamma, a nie ultradźwięki. Tomograf (zazwyczaj chodzi o tomograf komputerowy CT) tworzy obrazy na podstawie osłabienia promieniowania rentgenowskiego przechodzącego przez ciało. Dokumentacja tomografu zawiera parametry takie jak napięcie lampy rentgenowskiej (kV), prąd (mA), czas ekspozycji, grubość warstwy (slice thickness), pitch, rodzaj detektorów. Nie pojawiają się tam typowe dla USG częstotliwości rzędu kilku MHz ani nazwy trybów B/B, B/M czy M-mode, bo obrazowanie CT polega na rekonstrukcji komputerowej, a nie na echach ultradźwiękowych. Scyntygraf z kolei to urządzenie do obrazowania rozkładu radiofarmaceutyków w organizmie, używa się w nim detektorów promieniowania gamma (np. kryształ NaI(Tl)) i kolimatorów. W specyfikacji takiego sprzętu znajdziesz informacje o rodzaju kolimatora, rozdzielczości przestrzennej w mm, czułości detekcji, zakresie energii fotonów (w keV), polu widzenia głowicy. Nie występuje tam zakres 2–10 MHz, bo nie pracuje się na falach ultradźwiękowych, lecz na fotonach gamma. Wspólnym mianownikiem tych błędnych skojarzeń jest pomijanie, z jakim rodzajem fali lub promieniowania mamy do czynienia i jakie parametry są z tym fizycznie związane. Jeżeli w opisie widzisz: częstotliwość w MHz, tryb B, M, B/M, informację o ogniskowaniu wiązki – to są bardzo silne wskazówki na ultrasonograf. Dobra praktyka w technice medycznej to zawsze najpierw zidentyfikować, czy urządzenie wykorzystuje promieniowanie jonizujące (RTG, CT, scyntygrafia), fale ultradźwiękowe (USG), czy np. pola magnetyczne i fale radiowe (MRI). To automatycznie eliminuje część błędnych odpowiedzi i pozwala logicznie powiązać parametry z konkretną aparaturą.

Pytanie 21

Który z nośników danych umożliwia wielokrotny zapis i ma największą pojemność?

A. Nośnik 3
Ilustracja do odpowiedzi A
B. Nośnik 4
Ilustracja do odpowiedzi B
C. Nośnik 1
Ilustracja do odpowiedzi C
D. Nośnik 2
Ilustracja do odpowiedzi D
Nośnik 2 to płyta DVD-RW, czyli nośnik optyczny umożliwiający wielokrotny zapis i kasowanie danych. Moim zdaniem, to dość praktyczne rozwiązanie, zwłaszcza jeśli ktoś często potrzebuje przenosić dane albo je aktualizować bez konieczności kupowania nowych płyt. Standard DVD-RW (Digital Versatile Disc ReWritable) pozwala na zapisanie do 4,7 GB danych, co w środowisku domowym i biurowym długo wystarczało na backupy, archiwizację czy kopiowanie filmów i dużych plików. W praktyce DVD-RW były polecane tam, gdzie elastyczność była ważniejsza niż np. długowieczność zapisu – branża polecała je do testowania instalek, kompilacji czy nawet do transportu projektów graficznych między stanowiskami. Warto wiedzieć, że nośniki typu RW spełniają standardy branżowe jeśli chodzi o wielokrotność zapisu, są też kompatybilne z większością napędów DVD od lat 2000. Dla porównania, tradycyjny CD-RW ma pojemność zaledwie 700 MB, a choć Blu-ray oferuje większą pojemność, to wersja BD-R pozwala wyłącznie na jednokrotny zapis. Gdybyś chciał sięgnąć po coś o większej pojemności i wielokrotnego zapisu, to w praktyce poza DVD-RW przychodzą do głowy już raczej tylko profesjonalne rozwiązania typu BD-RE, które jednak rzadko były wykorzystywane domowo – są drogie i wymagają specjalistycznych napędów. Tak więc DVD-RW to moim zdaniem sensowny kompromis między pojemnością, ceną i dostępnością urządzeń, zgodny z dobrymi praktykami branży informatycznej.

Pytanie 22

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. GPU
B. ALU
C. FPU
D. DSP
Odpowiedź na to pytanie bywa myląca, bo skróty typu FPU, DSP czy GPU przewijają się non stop w świecie IT i elektroniki. Często można się pomylić, bo każda z tych jednostek odpowiada za specyficzny rodzaj obliczeń, ale nie za operacje stałoprzecinkowe w ogólnym sensie. FPU, czyli Floating Point Unit, to jednostka przeznaczona do operacji na liczbach zmiennoprzecinkowych – czyli tam, gdzie mamy przecinki, bardzo duże zakresy czy precyzję naukową. Stąd FPU nie wykonuje prostych działań typu dodawanie liczb całkowitych; tym zajmuje się właśnie ALU. Z kolei DSP, czyli Digital Signal Processor, to osobny rodzaj procesorów specjalizowanych, bardzo często stosowanych w przetwarzaniu sygnału audio czy obrazu. One też mają swoje własne jednostki operacyjne, często zoptymalizowane pod szybkie mnożenie i MAC (multiply-accumulate), ale to nie jest ogólna jednostka procesora wykonująca podstawowe operacje arytmetyczne na liczbach całkowitych. GPU, procesor graficzny, można spotkać głównie w kartach graficznych czy układach mobilnych – jego architektura jest zoptymalizowana pod równoległe przetwarzanie ogromnych ilości danych graficznych, ale nie pod klasyczne operacje arytmetyczne typowe dla CPU. Często spotykam się z przekonaniem, że jak coś brzmi 'bardziej zaawansowanie', to pewnie wykonuje podstawowe operacje – stąd te pomyłki. Jednak to właśnie ALU jest tym sercem, które wewnątrz CPU wykonuje najprostsze, ale i najczęściej potrzebne obliczenia na liczbach całkowitych. Warto o tym pamiętać, bo mylenie tych jednostek może prowadzić do sporych nieporozumień, szczególnie przy analizie architektury procesora czy przy pisaniu kodu obejmującego różne typy danych.

Pytanie 23

W celu wyszukania błędów w programie wykorzystuje się

A. konsolidator.
B. kompilator.
C. debuger.
D. linker.
Patrząc na pozostałe odpowiedzi, łatwo zauważyć, że kuszą one podobieństwem nazw do narzędzi programistycznych, ale ich faktyczne zastosowanie jest zupełnie inne niż debugowanie. Konsolidator to tak naprawdę archaiczne określenie na linker, czyli program który odpowiada za łączenie różnych części kodu – plików obiektowych czy bibliotek – w jeden wynikowy plik wykonywalny lub bibliotekę. Z mojego doświadczenia wynika, że wielu uczniów myli linkera z narzędziami do wyszukiwania błędów, bo linker faktycznie potrafi wyświetlić komunikaty o błędach, ale są to błędy związane z etapem łączenia kodu (np. brak definicji funkcji), nie z samym działaniem programu. Kompilator natomiast tłumaczy kod źródłowy na język maszynowy lub pośredni, jednocześnie wykrywając błędy składniowe i semantyczne. To, moim zdaniem, najczęściej powtarzany błąd myślowy: utożsamianie błędów kompilacji z błędami działania programu. Kompilator nie radzi sobie z błędami logicznymi czy tzw. bugami w działającym programie – do tego właśnie jest debuger. Linker, jak wspomniałem, to kolejny etap po kompilacji i służy zupełnie innemu celowi niż analizowanie wykonania programu. Moim zdaniem, najlepszym sposobem na wyrobienie sobie właściwego rozumienia tych pojęć jest praktyka – dopiero podczas realnej pracy nad kodem widać, jak różne narzędzia współpracują ze sobą i jak istotne jest rozróżnianie ich funkcji. Dobre praktyki branżowe mówią wprost: kompilator i linker odpowiadają za poprawność techniczną kodu i jego złożenie, ale tylko debuger pozwala zrozumieć, co się dzieje podczas działania programu i znaleźć ukryte błędy, które nie wyjdą podczas kompilacji. Warto to sobie zapamiętać, bo w profesjonalnych projektach pomylenie tych narzędzi skutkuje stratą czasu i niepotrzebnymi frustracjami.

Pytanie 24

Podczas wymiany podzespołów elektronicznych czułych na wyładowania elektrostatyczne należy zastosować

A. okulary ochronne.
B. rękawice gumowe.
C. odzież poliestrową.
D. opaskę antystatyczną.
Opaska antystatyczna to taki trochę niepozorny gadżet, ale w rzeczywistości jest absolutnie kluczowa, gdy zabierasz się za wymianę podzespołów elektronicznych wrażliwych na wyładowania elektrostatyczne (ESD). Przede wszystkim – jej zadaniem jest wyrównywanie potencjału elektrostatycznego pomiędzy tobą a ziemią, dzięki czemu nie przenosisz przypadkowo ładunku elektrycznego na delikatne układy scalone czy płytki PCB. Sam nie raz widziałem, jak ktoś bez opaski uszkodził RAM czy procesor i to nawet nie czuł żadnego przeskoku. Standardy branżowe, np. IEC 61340-5-1, jasno zalecają stosowanie osobistych środków zabezpieczających przed ESD, w tym właśnie opasek antystatycznych, szczególnie w serwisach, montażowniach albo nawet, jak robisz coś w domu. W praktyce, taka opaska połączona przewodem z uziemieniem lub matą antystatyczną daje ci spokój – nie musisz się martwić, że zniszczysz drogi sprzęt. Moim zdaniem, warto wyrobić sobie taki nawyk nawet przy mniejszych naprawach, bo nie zawsze widać efekty ESD od razu – czasem uszkodzenie wychodzi dopiero po pewnym czasie. Swoją drogą, w profesjonalnych laboratoriach często używa się też mat ESD, fartuchów i specjalnego obuwia, ale opaska to takie absolutne minimum i podstawa dobrej praktyki serwisowej.

Pytanie 25

Który zasilacz pozwala na tymczasowe utrzymanie zasilania akumulatorowego w razie braku zasilania sieciowego?

A. ATX
B. CTX
C. UPS
D. UDP
UPS, czyli Uninterruptible Power Supply, to urządzenie, które w praktyce jest absolutnym must-have w każdej serwerowni, a nawet w domowych instalacjach, gdzie zależy nam na ciągłości pracy sprzętu komputerowego. Moim zdaniem, bardzo często niedoceniany, a to właśnie UPS zabezpiecza urządzenia w czasie zaniku napięcia sieciowego, pozwalając na bezpieczne zapisanie danych czy też kontrolowane wyłączenie komputerów. Działa to tak, że w momencie wykrycia braku napięcia w sieci zasilającej, automatycznie przełącza zasilanie na akumulatory i sprzęt działa dalej bez przerwy – nie raz uratowało mi to sporo pracy podczas burzy czy awarii w bloku. W firmach standardem jest, aby każdy ważniejszy sprzęt był podłączony do UPS-a. Są różne typy – line-interactive, off-line, on-line – to już zależy od wymagań, ale zasada działania pozostaje podobna. Czas podtrzymania zależy oczywiście od pojemności akumulatora i obciążenia, więc czasem kilka minut, czasem kilkadziesiąt – wystarczająco, żeby zareagować. Warto też wspomnieć, że profesjonalne UPS-y potrafią filtrować napięcie i chronić przed przepięciami oraz wahaniami napięcia, co z mojego doświadczenia, przy dzisiejszych niestabilnych sieciach jest dużą zaletą. Dlatego właśnie, jeśli chodzi o ochronę przed skutkami zaniku zasilania sieciowego i zapewnienie ciągłej pracy urządzeń elektronicznych, to UPS nie ma sobie równych. Według najlepszych praktyk, zaleca się nawet regularne testowanie sprawności UPS-ów, żeby nie okazało się w krytycznym momencie, że akumulator już nie trzyma. Reasumując – wybór jak najbardziej trafiony, a wiedza na ten temat zdecydowanie przydaje się w praktyce.

Pytanie 26

Operacja warunkowa w większości języków programowania wysokiego poziomu zaczyna się słowem

A. if
B. for
C. while
D. do
Operacja warunkowa to coś, co w programowaniu spotyka się na każdym kroku. Słowo kluczowe „if” jest takim fundamentem, bez którego trudno wyobrazić sobie jakikolwiek prosty algorytm. Można powiedzieć, że to taki podstawowy budulec logiki w większości popularnych języków, jak Python, Java, C++, C#, JavaScript – wszędzie tam „if” rozpoczyna warunkowe rozgałęzienie. Praktycznie zawsze wygląda to mniej więcej tak: if (warunek) { // kod gdy warunek prawdziwy }. Dzięki temu można sterować przepływem programu i reagować na różne sytuacje, zależnie od zmiennych lub wyniku działania funkcji. Co ciekawe, samo „if” to skrót od angielskiego „jeśli”, więc nawet osoby, które nie znają za dobrze języka angielskiego, łatwo zapamiętują jego działanie. Moim zdaniem, warto zawsze na początku nauki programowania dobrze zrozumieć, jak działa instrukcja warunkowa, bo potem przy bardziej złożonych projektach nie raz ratuje nam skórę. Dla przykładu – gdy programujemy prostą aplikację do logowania, najpierw sprawdzamy if hasło jest prawidłowe, potem if użytkownik jest aktywny, itd. To jest naprawdę uniwersalne narzędzie, a przy okazji bardzo czytelne i intuicyjne. Warto jeszcze wiedzieć, że „if” to element tzw. struktury sterowania, której znajomość jest absolutną podstawą, według praktycznie wszystkich standardów nauczania i dokumentacji języków programistycznych.

Pytanie 27

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. telewizyjnej.
B. graficznej.
C. sieciowej.
D. dźwiękowej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 28

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Procesor
B. Pamięć RAM
C. Układ I/O
D. Pamięć flash
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 29

Sterowniki klawiatury, magistral i przerwań są elementami

A. dysku twardego.
B. pamięci operacyjnej.
C. chipsetu.
D. procesora.
Chipset to taki trochę „mózg” płyty głównej, który zarządza komunikacją pomiędzy różnymi podzespołami komputera, jak procesor, pamięć czy urządzenia wejścia/wyjścia. Właśnie dlatego sterowniki klawiatury, magistral (np. PCI Express, USB) oraz obsługa przerwań są często sprzętowo powiązane z chipsetem. To dzięki niemu możliwa jest sprawna wymiana danych między urządzeniami a procesorem, bez konieczności angażowania CPU do każdej drobnostki. Przykładowo, gdy wciskasz klawisz na klawiaturze, sygnał najpierw trafia przez odpowiedni kontroler (zintegrowany w chipsecie), który wie, co dalej zrobić z tą informacją, jak ją przekierować i kiedy powiadomić procesor. Podobnie jest z obsługą przerwań – chipset pozwala, by urządzenia mogły zgłaszać swoje potrzeby (przerwania), a system podejmuje decyzje o ich obsłudze zgodnie z priorytetami. Z mojego doświadczenia wynika, że solidny chipset potrafi znacząco poprawić stabilność i wydajność systemu – nie bez powodu na rynku liczą się tylko wybrane marki, które dbają o zgodność ze standardami, takimi jak PCI Express czy USB. W praktyce, jeśli ktoś modernizuje komputer, to często właśnie od chipsetu zależy, jakie urządzenia będzie można podłączyć i jak będą one działały. To trochę jak szef orkiestry – on wszystko koordynuje, żeby nie było chaosu. Dobre praktyki branżowe mówią, żeby zwracać uwagę nie tylko na procesor, ale właśnie na chipset, bo to on decyduje o możliwościach rozbudowy i kompatybilności sprzętu. W sumie, bez sprawnego chipsetu nawet najlepszy procesor niewiele by zdziałał.

Pytanie 30

Aby zainstalować brakujące oprogramowanie w systemie z rodziny Linux należy wykorzystać polecenie

A. apt cache
B. get install
C. apt-get install
D. install
Wiele osób myli polecenia używane do zarządzania oprogramowaniem w systemach Linux, zwłaszcza na początku nauki, bo faktycznie brzmią podobnie i łatwo się w tym pogubić. Warto jednak zrozumieć, co każde z proponowanych poleceń tak naprawdę znaczy i do czego służy. Zacznijmy od „apt cache” – tutaj intuicja może podpowiadać, że skoro jest „cache”, to coś się instaluje albo zarządza pakietami. W rzeczywistości takie polecenie w ogóle nie istnieje w standardowych narzędziach Debiana czy Ubuntu, więc jego użycie skończy się po prostu błędem. „get install” wygląda przekonująco, bo w końcu instalujemy, ale brakuje najważniejszego członu – „apt” lub „apt-get”. To właśnie te narzędzia odpowiadają za komunikację z repozytoriami i zarządzanie pakietami, więc polecenie bez nich nie zadziała. Zdarzyło mi się, że ktoś wpisywał samo „get install” i dziwił się, że nie działa – klasyczny błąd wynikający z nieznajomości składni. Z kolei „install” samo w sobie to nie jest polecenie systemowe w powłoce bash ani żaden popularny skrypt. System nie wie, co ma zrobić, gdy wpiszesz po prostu „install” – kończy się to komunikatem, że nie znaleziono polecenia. To częsty błąd początkujących, bo w innych systemach, np. Windows, często wywołuje się instalatory jednym słowem. Jednak w Linuksie opieramy się na menedżerach pakietów, które nie tylko instalują, ale także dbają o zależności, aktualizacje i spójność systemu. Moim zdaniem warto poświęcić chwilę na naukę poprawnej składni, bo to fundament bezpiecznej pracy z systemem. Pominięcie odpowiedniej komendy lub używanie nieistniejących poleceń najczęściej kończy się frustracją i stratą czasu. Najlepsza praktyka to korzystanie z dokumentacji i sprawdzonej wiedzy, bo internet pełen jest błędnych porad – szczególnie, jeśli chodzi o administrację Linuksem.

Pytanie 31

Ilość jodu-131 podana pacjentowi w terapii tarczycy zmniejszy się o połowę po

A. 12 miesiącach.
B. 30 minutach.
C. 8 dniach.
D. 17 godzinach.
Izotop jodu-131 (I-131) to radioizotop stosowany najczęściej w leczeniu chorób tarczycy, zwłaszcza w terapii nadczynności tarczycy czy raka tarczycy. Jego kluczową cechą, która decyduje o wykorzystaniu w medycynie, jest stosunkowo krótki czas połowicznego rozpadu – wynosi około 8 dni. To oznacza, że po upływie 8 dni od podania pacjentowi połowa dawki I-131 ulegnie rozpadowi, a więc przestanie być aktywna biologicznie. W praktyce klinicznej precyzyjne wyliczenie czasu połowicznego rozpadu jest niezwykle ważne, bo pozwala lekarzom określić, jak długo pacjent pozostaje źródłem promieniowania i kiedy można bezpiecznie wrócić do codziennej aktywności. Moim zdaniem, odpowiednie zarządzanie czasem kontaktu pacjenta z innymi osobami po podaniu jodu-131 to taka podstawa bezpieczeństwa radiologicznego. Zwraca się też uwagę na fakt, że właściwe planowanie dawek i okresów karencji pozwala maksymalizować skuteczność leczenia, a zarazem minimalizować narażenie osób trzecich. W radiologii medycznej takie dane podaje się w każdej charakterystyce produktu, bo stanowią one podstawę do wyliczania dawek kumulacyjnych i planowania powtórnej terapii. Dość istotne jest też to, że czas połowicznego rozpadu wpływa bezpośrednio na okres przechowywania materiałów radioaktywnych – odpady z terapii jodem-131 muszą być przechowywane aż do momentu, gdy ich aktywność spadnie do poziomu uznawanego za bezpieczny. Warto wiedzieć, że inne radioizotopy mają zupełnie inne czasy połowicznego rozpadu i właśnie dlatego I-131 jest tak popularny w leczeniu tarczycy – jego czas jest optymalny, żeby skutecznie działać, ale nie kumulować się nadmiernie w organizmie. Z mojego doświadczenia wynika, że wielu ludzi myli czas połowicznego rozpadu z całkowitym zanikiem radioaktywności, a to przecież nie to samo. Właśnie z tego powodu odpowiedź „8 dni” jest najbardziej trafna i zgodna z praktyką kliniczną.

Pytanie 32

Jakiego typu papier należy zastosować w aparacie elektrokardiograficznym?

A. Termoczuły.
B. Litograficzny.
C. Samokopiujący.
D. Światłoczuły.
Papier termoczuły to absolutny standard w pracy z elektrokardiografem. Wynika to z samej zasady działania większości współczesnych EKG – zapis odbywa się nie na zasadzie nanoszenia tuszu, tylko przez termiczną zmianę barwy papieru pod wpływem specjalnych głowic grzewczych. W praktyce oznacza to, że użycie innego rodzaju papieru, np. zwykłego lub światłoczułego, całkowicie uniemożliwiłoby rejestrację sygnału. Na papierze termoczułym widać precyzyjne odwzorowanie krzywej EKG, a drobne szczegóły, takie jak załamki i odstępy, są zachowane zgodnie z wymaganiami diagnostycznymi. Warto też wiedzieć, że papier taki jest skalibrowany i pokryty siatką milimetrową, co ułatwia odczyt i analizę wyników. W szpitalach i przychodniach nie wyobrażam sobie stosowania innego rozwiązania, bo cała aparatura jest do tego przystosowana. Często widzę, że nowi technicy próbują używać tańszych zamienników, ale kończy się to zwykle błędami odczytu albo uszkodzeniem urządzenia. W dokumentacji każdego nowoczesnego EKG znajdziemy zalecenie stosowania papieru termicznego zgodnego z normą IEC 60601-2-25, co gwarantuje prawidłowy przebieg rejestracji i archiwizacji. Moim zdaniem, jeśli ktoś poważnie myśli o pracy z EKG, powinien przywiązywać dużą wagę nie tylko do jakości aparatu, ale i do jakości oraz zgodności papieru, bo to od tego w dużej mierze zależy czytelność i wiarygodność zapisu.

Pytanie 33

Jak nazywa się terapia stosowana w przypadku niewydolności nerek, polegająca na oczyszczaniu krwi ze zbędnych składników przemiany materii?

A. Elektroliza.
B. Nefrologia.
C. Hemodializa.
D. Destylacja.
Hemodializa to naprawdę kluczowa metoda leczenia pacjentów z zaawansowaną niewydolnością nerek, szczególnie kiedy nerki przestają spełniać swoją podstawową funkcję filtrowania krwi. Polega na tym, że specjalna maszyna pozaustrojowo oczyszcza krew z toksyn, nadmiaru wody i produktów przemiany materii, które normalnie byłyby usuwane przez zdrowe nerki. Co ciekawe, ten proces przypomina trochę pracę sztucznej nerki, a sama hemodializa odbywa się w specjalistycznych stacjach dializ i trwa zwykle kilka godzin, parę razy w tygodniu. Z mojego doświadczenia wynika, że dla wielu chorych to dosłownie ratunek – można dzięki temu uniknąć powikłań takich jak zatrucie organizmu. W praktyce, standardy medyczne (np. zalecenia Polskiego Towarzystwa Nefrologicznego oraz międzynarodowe wytyczne KDIGO) jasno wskazują, że hemodializa jest złotym standardem leczenia schyłkowej niewydolności nerek, jeśli przeszczep nie jest możliwy lub trzeba poczekać na dawcę. Sporo też zależy od jakości obsługi maszyn, odpowiedniego przygotowania pacjenta, a także dbałości o dostęp naczyniowy, co jest często sporym wyzwaniem w praktyce. Ciekawostką jest też, że istnieją inne formy dializy, np. dializa otrzewnowa, ale hemodializa jest najczęściej stosowana u dorosłych. Fajnie wiedzieć, że ta metoda ma już ponad 70 lat historii i stale jest udoskonalana. Bez przesady można powiedzieć, że uratowała życie milionom osób na całym świecie.

Pytanie 34

Pod wpływem bodźca świetlnego, dźwiękowego lub czuciowego mózg generuje elektryczne potencjały wywołane rejestrowane przez

A. ERG
B. EEG
C. EOG
D. EKG
Podanie, że EEG rejestruje potencjały wywołane generowane przez mózg pod wpływem bodźców, to naprawdę solidna odpowiedź. Elektroencefalografia (EEG) jest podstawowym narzędziem w neurofizjologii, pozwalającym obserwować zmiany elektryczne aktywności mózgu, szczególnie w odpowiedzi na bodźce świetlne, dźwiękowe czy czuciowe. W praktyce klinicznej i badawczej EEG wykorzystuje się przy diagnostyce padaczki, zaburzeń snu, czy nawet podczas oceny funkcji mózgu u pacjentów nieprzytomnych. Z mojego doświadczenia w laboratoriach EEG najważniejszym standardem jest stosowanie międzynarodowego układu 10-20 do rozmieszczania elektrod na czaszce – to podstawa, żeby pomiary były powtarzalne i porównywalne. Potencjały wywołane (ang. evoked potentials, EP) to konkretna część sygnału EEG – wyodrębnia się je przez wielokrotne powtarzanie bodźca i uśrednianie odpowiedzi, co pozwala wyłapać subtelne zmiany elektryczne układu nerwowego. To naprawdę ciekawe, jak wyraźnie można zobaczyć reakcję mózgu np. na błysk światła czy krótki dźwięk, a takie pomiary są dziś standardem nie tylko w neurologii, ale także w psychologii eksperymentalnej i medycynie pracy. Moim zdaniem warto umieć rozróżniać te techniki – na rynku pracy to ogromny atut, bo EEG z potencjałami wywołanymi jest wręcz codziennym narzędziem w wielu laboratoriach i szpitalach.

Pytanie 35

Podczas pracy z układami elektronicznymi CMOS na stanowisku montażowym należy stosować

A. uziemioną matę antystatyczną.
B. zabezpieczenie nadprądowe.
C. zabezpieczenie różnicowo-prądowe.
D. wyciąg oparów z filtrem węglowym.
Uziemiona mata antystatyczna to absolutna podstawa pracy z układami CMOS – i nie tylko zresztą. Wszelkie układy elektroniczne o dużej czułości, a zwłaszcza półprzewodniki typu CMOS, są potwornie wrażliwe na wyładowania elektrostatyczne (ESD). Najmniejsze, nawet niewyczuwalne dla człowieka wyładowanie, potrafi uszkodzić strukturę krzemową i to w taki sposób, że uszkodzenie może ujawnić się dopiero po jakimś czasie, co jest szczególnie irytujące w serwisie lub produkcji. Dlatego branża wymaga stosowania stanowisk ESD, czyli właśnie mat antystatycznych z dobrym uziemieniem, opasek na nadgarstek czy specjalnego obuwia. Samo zabezpieczenie nadprądowe czy różnicówka chronią urządzenia i ludzi przed zupełnie innym zagrożeniem – prądem zwarciowym albo porażeniem, a nie wyładowaniem statycznym. Ciekawostka: nawet zwykła folia plastikowa, którą czasem nieopatrznie położysz na stole, potrafi naładować się do kilku tysięcy woltów! W praktyce zawsze warto sprawdzić, czy mata jest czysta i nieuszkodzona oraz czy ma sprawne połączenie z uziemieniem – to niby banał, ale czasem maty po latach są już tylko atrapą. Z mojego doświadczenia wynika, że w dobrze prowadzonych warsztatach nigdy nie lekceważy się tematu ESD nawet przy najprostszych czynnościach serwisowych. W standardach IPC czy normach BHP stanowiska ESD to żelazny obowiązek, a nie wymysł przesadnych elektroników.

Pytanie 36

W dokumentacji sieci centralnego monitoringu zapisano, że sieć jest wykonana w standardzie 802.11 Do montażu takiej sieci są wymagane urządzenia wykorzystujące

A. Ethernet.
B. Bluetooth.
C. Token ring.
D. WiFi.
Standard 802.11 to nic innego jak specyfikacja techniczna dla sieci bezprzewodowych, znanych powszechnie jako WiFi. W praktyce oznacza to, że jeśli ktoś w dokumentacji wspomina o sieci wykonanej zgodnie z 802.11, to od razu można założyć, że mowa o połączeniach bezprzewodowych, gdzie transmisja danych odbywa się za pomocą fal radiowych. Z mojego doświadczenia wynika, że w centralnym monitoringu – czy to szpitalnym, czy przemysłowym – właśnie WiFi jest bardzo często wykorzystywane, bo eliminuje konieczność prowadzenia kabli, a to ogromne ułatwienie przy rozległych instalacjach albo modernizacjach. WiFi, jako rodzina standardów 802.11 (np. 802.11n, 802.11ac), zapewnia odpowiednią wydajność, elastyczność i bezpieczeństwo, o ile odpowiednio skonfiguruje się zabezpieczenia sieci. Warto tu dodać, że urządzenia kompatybilne z tym standardem, np. access pointy, kamery IP, laptopy czy czujniki monitoringu, bez problemu nawiążą komunikację w tej samej sieci WiFi. Moim zdaniem nie ma obecnie prostszego sposobu na wdrożenie szybkiego monitoringu na dużym obszarze niż właśnie wykorzystanie WiFi. To też rozwiązanie zgodne z aktualnymi trendami branżowymi – wszędzie tam, gdzie liczy się elastyczność, łatwość rozbudowy i szybki serwis.

Pytanie 37

Technologia dual channel dotyczy pracy dwóch takich samych

A. dysków twardych.
B. dysków SSD.
C. pamięci RAM.
D. kart graficznych.
Niektórzy błędnie kojarzą technologię dual channel z dyskami twardymi lub SSD, być może ze względu na podobne brzmienie funkcji RAID, gdzie łączy się kilka dysków dla większej wydajności lub bezpieczeństwa danych. Jednak to zupełnie inne zagadnienie – RAID nie ma bezpośredniego wpływu na sposób komunikacji pamięci RAM z procesorem. Jeśli chodzi o karty graficzne, popularne niegdyś rozwiązania typu SLI czy CrossFire pozwalały na łączenie dwóch GPU w jednym komputerze, ale to również zupełnie inny mechanizm, niezwiązany z magistralą pamięci operacyjnej. Często spotykam się z opinią, że każdy podzespół może pracować w jakimś "dual channel", bo przecież im więcej, tym szybciej – niestety, tak to nie działa. Dual channel dotyczy wyłącznie pamięci RAM, bo to one komunikują się bezpośrednio z kontrolerem pamięci w procesorze lub mostku północnym płyty głównej, a nie pozostałe podzespoły. Inny typowy błąd myślowy to utożsamianie tej technologii z samym zwiększeniem ilości RAM – tymczasem chodzi tutaj o wykorzystanie dwóch kanałów jednocześnie, co skutkuje podwojeniem teoretycznej przepustowości. Z mojego doświadczenia widzę, że wiele osób pomija instrukcje montażu RAM, przez co nawet przy dwóch kościach nie osiągają trybu dual channel – czasem przez zwykłe pomylenie slotów. Ostatecznie, jeśli chcesz zoptymalizować pracę komputera, to skup się na odpowiednim doborze i montażu pamięci RAM, bo dual channel realnie zwiększa jej wydajność, a nie dotyczy bezpośrednio dysków czy kart graficznych.

Pytanie 38

Jaką funkcję pełni przedstawiona na rysunku procedura BIOS?

Ilustracja do pytania
A. Przyśpiesza operacje zapisu danych na dysk SSD podczas zamykania systemu operacyjnego.
B. Umożliwia odczytanie parametrów dysku twardego podczas uruchomienia systemu operacyjnego.
C. Umożliwia wykonanie testu poprawności działania dysku twardego podczas uruchomienia systemu operacyjnego.
D. Przyśpiesza operacje odczytu danych z dysku SSD podczas uruchomienia systemu operacyjnego.
Wybrana odpowiedź jest prawidłowa, bo dokładnie takie zadanie realizuje procedura SMART Self-Test w BIOS-ie. Ten mechanizm – moim zdaniem jeden z najbardziej niedocenianych przez zwykłych użytkowników – pozwala kontrolować stan techniczny dysku twardego już podczas startu komputera. BIOS uruchamia tzw. autotest SMART, czyli Self-Monitoring, Analysis and Reporting Technology. Chodzi tu o wczesne wykrycie problemów z dyskiem, zanim jeszcze system operacyjny wystartuje na dobre. Praktyczny sens tego rozwiązania? Jeśli dysk twardy zaczyna mieć jakieś błędy mechaniczne lub logiczne, BIOS wykryje to podczas procesu POST (Power-On Self-Test) i wyświetli odpowiedni komunikat. Z mojego doświadczenia wynika, że takie ostrzeżenia często pozwalają na uratowanie danych, zanim dysk odmówi całkowicie posłuszeństwa. To jest zgodne z najlepszymi praktykami branżowymi – regularny monitoring SMART i szybka reakcja na błędy to podstawa zarządzania sprzętem w każdym poważnym środowisku IT. Warto wiedzieć, że wyniki testu SMART są analizowane na podstawie kilkudziesięciu parametrów, takich jak liczba relokowanych sektorów, czas rozruchu, czy liczba błędów odczytu. Współczesne standardy zalecają, żeby nie ignorować alertów SMART i natychmiast wykonać kopię zapasową, jeśli pojawi się jakiekolwiek ostrzeżenie. To dobra inwestycja w bezpieczeństwo danych – sam zawsze radzę, żeby mieć to ustawienie włączone, nawet jeśli trochę wydłuża start systemu.

Pytanie 39

Przedstawiony zrzut ekranu prezentuje parametry

Ilustracja do pytania
A. pamięci dynamicznej RAM.
B. pamięci USB typu Flash.
C. BIOS.
D. dysku twardego.
Ten zrzut ekranu rzeczywiście dotyczy parametrów dysku twardego. Widać tutaj mnóstwo informacji, które są typowe dla tego właśnie urządzenia, jak np. obsługiwane funkcje S.M.A.R.T., Native Command Queuing (NCQ), czy też tryby UDMA. To są tematy, które non stop przewijają się w pracy technika czy administratora – nawet zwykła zmiana trybu pracy może wpłynąć na wydajność całego systemu. Bardzo ważne jest, żeby znać i rozumieć takie parametry, bo pozwalają one na szybką diagnozę ewentualnych problemów z magazynem danych. Przykładowo, S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) to standard branżowy, który stale monitoruje stan dysku i może ostrzec użytkownika, zanim nastąpi awaria. Native Command Queuing z kolei poprawia wydajność przy równoległym przesyłaniu wielu poleceń – praktyczna rzecz np. w środowiskach serwerowych. Z mojego doświadczenia, osoby, które potrafią czytać takie zestawienia parametrów, szybciej wyłapują potencjalne zagrożenia i lepiej dobierają sprzęt pod konkretne zastosowania. Najważniejsze jednak, żeby nie traktować tych danych jako czystej teorii – umiejętność praktycznego ich wykorzystania, np. podczas konfigurowania RAID czy oceny kompatybilności z systemem operacyjnym, naprawdę często ratuje sytuację. Dobrą praktyką jest regularne sprawdzanie tych parametrów, np. przy przeglądzie infrastruktury IT, bo czasem już jedna nieaktywna opcja (np. Write Cache) może znacząco wpłynąć na stabilność działania całego systemu.

Pytanie 40

Pod wpływem zwiększenia natężenia promieniowania widzialnego (bodźca świetlnego) źrenica zdrowego oka ludzkiego

A. ciemnieje.
B. rozszerza się.
C. zwęża się.
D. jaśnieje.
Często zdarza się, że mylimy reakcję źrenicy na światło, co prowadzi do nieprawidłowych wniosków. Przykładowo, ktoś może pomyśleć, że przy mocnym świetle źrenica się rozszerza, bo kojarzy się to z szerszym widzeniem – ale jest dokładnie odwrotnie. Rozszerzenie źrenicy zachodzi przy słabym oświetleniu, kiedy organizm chce wpuścić jak najwięcej światła, żeby poprawić widoczność. Określenia takie jak „ciemnieje” lub „jaśnieje” odnoszą się do barwy, a nie do rzeczywistej fizjologii oka – tak naprawdę źrenica zawsze jest czarna, bo światło prawie całkowicie pochłania się w oku, więc te odpowiedzi nie mają odzwierciedlenia w rzeczywistości fizjologicznej. W praktyce medycznej czy optycznej założenie, że źrenica jaśnieje lub ciemnieje, byłoby sporym błędem poznawczym. Źrenica nie zmienia barwy – zmienia swoją średnicę, reagując na zmiany natężenia światła, zgodnie ze standardami badań okulistycznych i neurologicznych. Z mojego doświadczenia wynika, że błędne wyobrażenie o działaniu źrenicy często bierze się z filmów lub potocznych skojarzeń, gdzie źrenica „rozszerza się ze strachu” albo „zwęża od światła”. Warto nauczyć się prawidłowego rozumienia tej reakcji, bo jej znajomość przydaje się nie tylko na lekcjach biologii, ale też w praktyce – np. w ratownictwie, diagnostyce urazów głowy czy nawet podczas pracy z aparatami optycznymi.