Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 9 maja 2026 18:34
  • Data zakończenia: 9 maja 2026 18:40

Egzamin zdany!

Wynik: 40/40 punktów (100,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Operacje stałoprzecinkowe w procesorze wykonuje jednostka oznaczona jako

A. GPU
B. DSP
C. FPU
D. ALU
Jednostka ALU, czyli Arithmetic Logic Unit, to absolutna podstawa każdego procesora. To właśnie tutaj odbywają się wszystkie operacje stałoprzecinkowe: dodawanie, odejmowanie, przesunięcia bitowe, porównania czy proste operacje logiczne typu AND, OR. W praktyce, jak piszemy nawet najprostszy kawałek kodu w C czy assemblerze, to praktycznie każda instrukcja arytmetyczna przechodzi przez ALU. Moim zdaniem warto pamiętać, że ALU działa na liczbach całkowitych, a nie zmiennoprzecinkowych. W komputerach PC, ale też w mikrokontrolerach typu AVR czy ARM Cortex-M, ALU obsługuje praktycznie wszystkie codzienne operacje matematyczne. W sumie to podstawa np. przy obsłudze liczników, timerów, adresacji pamięci, operacjach na portach I/O. Standardy projektowania procesorów wyraźnie rozgraniczają ALU od innych jednostek, które odpowiadają za specjalistyczne zadania, np. FPU do operacji zmiennoprzecinkowych. Praktyczna rada: jak pracujecie z niskopoziomowym kodem, warto zaglądać do dokumentacji i zobaczyć, które instrukcje korzystają z ALU. Z mojego doświadczenia, zrozumienie działania ALU bardzo przydaje się przy optymalizowaniu szybkości programów i debugowaniu problemów sprzętowych. W wielu systemach embedded, gdzie liczy się każdy cykl zegara, znajomość możliwości ALU potrafi uratować projekt.

Pytanie 2

Technologie SLI i CrossFire pozwalają na podłączenie dwóch kart

A. graficznych.
B. telewizyjnych.
C. sieciowych.
D. dźwiękowych.
Technologie SLI (Scalable Link Interface) od NVIDII oraz CrossFire od AMD zostały stworzone specjalnie do łączenia dwóch lub nawet więcej kart graficznych w jednym komputerze. Ich głównym celem jest zwiększenie wydajności wyświetlania grafiki, szczególnie w grach komputerowych i zaawansowanych zastosowaniach graficznych. To rozwiązanie przydaje się, gdy pojedyncza karta nie daje sobie rady z wymagającymi tytułami lub gdy ktoś pracuje z renderowaniem 3D czy obróbką wideo na wysokim poziomie. SLI i CrossFire synchronizują pracę GPU tak, by wspólnie renderowały klatki lub dzieliły się zadaniami – czasem robią to na zasadzie naprzemiennego generowania klatek (Alternate Frame Rendering), a czasem dzielą obraz na fragmenty (Split Frame Rendering). Moim zdaniem, chociaż dziś technologia SLI i CrossFire jest trochę mniej popularna niż jeszcze parę lat temu (bo pojedyncze karty zrobiły się turbo wydajne), to nadal warto wiedzieć, jak to działa, bo w niektórych stacjach roboczych czy komputerach entuzjastów te rozwiązania wciąż mają sens. Warto dodać, że takie połączenia wymagają specjalnych płyt głównych, odpowiednich mostków i kompatybilnych sterowników – bez tego nie da się tego sensownie uruchomić. Branżowe dobre praktyki zalecają stosowanie identycznych modeli kart i dbanie o odpowiednie chłodzenie, bo dwie grafiki potrafią nieźle nagrzać komputer. SLI i CrossFire nigdy nie dotyczyły kart sieciowych, dźwiękowych czy telewizyjnych – zawsze chodziło o grafikę i wydajność wyświetlania obrazu.

Pytanie 3

Z przedstawionej dokumentacji pamięci wynika że jest ona przeznaczona do

rodzaj pamięci : SO-DIMM

standard : DDR3-1333 (PC3-10600)

pojemność pojedynczego modułu : 4 GB

A. laptopów.
B. serwerów.
C. dysków przenośnych.
D. komputerów stacjonarnych.
W tym pytaniu kluczowa sprawa to rozpoznanie typu pamięci SO-DIMM. Ten rodzaj modułu jest stosowany praktycznie wyłącznie w laptopach i urządzeniach o ograniczonej przestrzeni, takich jak niektóre mini-PC czy komputery typu all-in-one, ale głównie właśnie w notebookach. Moduły SO-DIMM (Small Outline Dual In-line Memory Module) są znacznie krótsze od standardowych DIMM-ów, które znajdziesz w zwykłych komputerach stacjonarnych. Standard DDR3-1333 (PC3-10600) to już trochę starszy typ pamięci, ale wciąż spotykany w starszych laptopach – nowe korzystają najczęściej z DDR4 lub obecnie nawet DDR5, jednak długo przez lata DDR3 był powszechnym wyborem. Moim zdaniem, jeśli pracujesz przy serwisie, zawsze warto najpierw sprawdzić właśnie ten typ złącza i format, bo to pozwala łatwo uniknąć podstawowego błędu przy zamawianiu części. Co ciekawe, serwery i komputery stacjonarne wykorzystują standardowe DIMM-y, które są większe i mają inną konstrukcję mechaniczną. W dyskach przenośnych pamięć RAM w formie SO-DIMM w ogóle nie występuje, bo tam raczej stosuje się kości NAND Flash. W praktyce – zawsze, gdy widzisz SO-DIMM, myśl o laptopach. To taka branżowa podpowiedź, która często się sprawdza w codziennej pracy technika.

Pytanie 4

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. renogramie.
B. scyntygramie.
C. elektrokardiogramie.
D. elektroencefalogramie.
Fale mózgowe, takie jak alfa, beta, gamma, delta i theta, są zapisywane przy użyciu elektroencefalogramu, czyli EEG. To jest standardowa metoda monitorowania aktywności elektrycznej mózgu. W praktyce EEG wykorzystuje się do diagnozowania różnych schorzeń neurologicznych, np. padaczki, zaburzeń snu, czy też uszkodzeń mózgu po urazach. Osobiście uważam, że EEG jest jednym z ciekawszych narzędzi w neurofizjologii, bo pozwala zobaczyć dosłownie pracę mózgu na żywo. Z mojego doświadczenia wynika, że interpretacja fal wymaga trochę wprawy – np. fale alfa najczęściej pojawiają się u relaksujących się osób z zamkniętymi oczami, a beta dominują podczas aktywności umysłowej czy stresu. Fale theta i delta są charakterystyczne dla głębokiego snu albo niektórych zaburzeń. EEG jest też wykorzystywane w badaniach naukowych, np. przy mapowaniu funkcjonalnym kory mózgowej. W praktyce klinicznej elektroencefalografia jest absolutnym standardem, a jej wyniki pomagają lekarzom podjąć decyzje terapeutyczne. Warto pamiętać, że żadne inne badanie z listy nie zarejestruje tych fal – to taka wiedza, która serio przydaje się, jeśli pracuje się w ochronie zdrowia albo naukach o człowieku.

Pytanie 5

Podczas wymiany podzespołów elektronicznych czułych na wyładowania elektrostatyczne należy zastosować

A. okulary ochronne.
B. odzież poliestrową.
C. opaskę antystatyczną.
D. rękawice gumowe.
Opaska antystatyczna to taki trochę niepozorny gadżet, ale w rzeczywistości jest absolutnie kluczowa, gdy zabierasz się za wymianę podzespołów elektronicznych wrażliwych na wyładowania elektrostatyczne (ESD). Przede wszystkim – jej zadaniem jest wyrównywanie potencjału elektrostatycznego pomiędzy tobą a ziemią, dzięki czemu nie przenosisz przypadkowo ładunku elektrycznego na delikatne układy scalone czy płytki PCB. Sam nie raz widziałem, jak ktoś bez opaski uszkodził RAM czy procesor i to nawet nie czuł żadnego przeskoku. Standardy branżowe, np. IEC 61340-5-1, jasno zalecają stosowanie osobistych środków zabezpieczających przed ESD, w tym właśnie opasek antystatycznych, szczególnie w serwisach, montażowniach albo nawet, jak robisz coś w domu. W praktyce, taka opaska połączona przewodem z uziemieniem lub matą antystatyczną daje ci spokój – nie musisz się martwić, że zniszczysz drogi sprzęt. Moim zdaniem, warto wyrobić sobie taki nawyk nawet przy mniejszych naprawach, bo nie zawsze widać efekty ESD od razu – czasem uszkodzenie wychodzi dopiero po pewnym czasie. Swoją drogą, w profesjonalnych laboratoriach często używa się też mat ESD, fartuchów i specjalnego obuwia, ale opaska to takie absolutne minimum i podstawa dobrej praktyki serwisowej.

Pytanie 6

W opisanym programie zostaną wykonane 4

for (i=0;i<=3;i++)
suma=suma+i;
A. rekursje.
B. iteracje.
C. dekrementacje.
D. rekurencje.
W tym przypadku mamy klasyczną pętlę for, czyli typową konstrukcję służącą do wykonywania iteracji w programowaniu. Program zaczyna od wartości i=0 i zwiększa ją do i=3, wykonując blok kodu suma=suma+i za każdym razem. To powoduje, że cała ta konstrukcja wykona się dokładnie 4 razy, bo pętla działa, dopóki i<=3, czyli dla wartości 0, 1, 2 oraz 3. W praktyce właśnie takie iteracje pozwalają nam zautomatyzować powtarzanie operacji bez konieczności ręcznego kopiowania kodu. Moim zdaniem to jedna z najbardziej fundamentalnych rzeczy, jaką warto opanować na początku nauki programowania. Bez iteracji trudno sobie wyobrazić np. sumowanie elementów tablicy, przetwarzanie zbioru danych czy nawet proste generowanie raportów. W codziennej pracy z kodem iteracje spotyka się praktycznie wszędzie – od prostych algorytmów po bardziej zaawansowane pętle obsługujące np. zdarzenia w aplikacjach. Warto też pamiętać, że dobre praktyki nakazują pisanie takich pętli w sposób czytelny i optymalny, zarówno pod względem wydajności, jak i zrozumiałości dla innych członków zespołu. Pętle for są standardem w wielu językach, m.in. C, C++, Java, Python (choć tam składnia wygląda trochę inaczej).

Pytanie 7

Narzędzie przedstawione na rysunku służy do

Ilustracja do pytania
A. wykonywania połączeń nitowanych.
B. zaciskania wtyków na przewodach.
C. sprawdzania grubości izolacji.
D. znakowania przewodów.
To narzędzie, które widzisz na zdjęciu, to klasyczna zaciskarka do wtyków, często nazywana też crimperem. Służy ona głównie do zaciskania końcówek na przewodach, najczęściej używa się jej do złączy typu RJ-45 czy RJ-11 – czyli przy tworzeniu przewodów sieciowych lub telefonicznych. Moim zdaniem to jest taki must-have każdego, kto na poważnie podchodzi do okablowania sieciowego czy drobnych napraw w domu, bo pozwala zrobić profesjonalne połączenie bez kombinowania i ryzyka, że kabel będzie się rozłączał. Co ważne, prawidłowo zaciśnięty wtyk to nie tylko stabilność mechaniczna, ale też pewność dobrego kontaktu elektrycznego, a to ma kolosalne znaczenie przy transmisji danych. Dobre praktyki branżowe, np. wg standardów EIA/TIA, zalecają właśnie korzystanie z zaciskarek, bo tylko one gwarantują powtarzalną jakość połączeń, której nie osiągnie się np. śrubokrętem czy kombinerkami. Z mojego doświadczenia wynika też, że warto regularnie sprawdzać stan zaciskarki, bo zużyte szczęki mogą uszkodzić przewód. Podsumowując, narzędzie to jest dedykowane do zaciskania wtyków na przewodach i to właśnie dzięki niemu przewody sieciowe czy telefoniczne działają niezawodnie przez lata.

Pytanie 8

Zapisana w ramce funkcja zawiera

Funkcja oblicz(n)
    Jeżeli n=0
        oblicz=1
    W przeciwnym wypadku oblicz=(n-1)*oblicz(n-1)
A. inkrementację.
B. rekurencję.
C. permutację.
D. iterację.
Funkcja pokazana w ramce to klasyczny przykład rekurencji, bo sama siebie wywołuje wewnątrz własnej definicji. Właśnie to jest istotą rekurencji – funkcja wykonuje część pracy, a potem przekazuje dalsze wykonywanie sobie samej, tylko z innym (najczęściej mniejszym) argumentem. W praktyce takie podejście jest szeroko wykorzystywane przy rozwiązywaniu problemów, które mają powtarzającą się strukturę, np. obliczanie silni, przeszukiwanie struktur drzewiastych czy rozwiązywanie problemów typu „dziel i zwyciężaj”. Co ciekawe, rekurencja jest bardzo elegancka i pozwala pisać bardzo zwięzły kod, ale trzeba uważać na warunek stopu, żeby funkcja się nie zapętliła (tutaj to jest przypadek n=0). Sam spotkałem się już z sytuacjami, gdzie bez rekurencji rozwiązanie byłoby dużo trudniejsze do napisania, np. przy sortowaniu szybkim (quicksort) czy wyszukiwaniu binarnym w drzewie BST. Według standardów branżowych (np. Clean Code czy wzorce projektowe), rekurencji warto używać tam, gdzie naturalnie odwzorowuje strukturę problemu. Z mojego doświadczenia wynika, że początkujący czasem boją się rekurencji, ale kiedy już ją „załapią”, bardzo często wracają do niej w bardziej złożonych zadaniach. Ta funkcja to bardzo fajny wzorzec do nauki!

Pytanie 9

Urządzenie, które w specyfikacji technicznej posiada zapis: „Urządzenie współpracuje z komputerem klasy PC poprzez złącze USB”, należy podłączyć do złącza oznaczonego piktogramem

A. Złącze 3
Ilustracja do odpowiedzi A
B. Złącze 2
Ilustracja do odpowiedzi B
C. Złącze 1
Ilustracja do odpowiedzi C
D. Złącze 4
Ilustracja do odpowiedzi D
Prawidłowe wskazanie złącza USB wynika z jednoznacznego, międzynarodowego oznaczenia tego interfejsu. Ten charakterystyczny symbol z trzema odnogami (jedna strzałka, jedno kółko oraz jeden kwadrat na końcach linii) jest stosowany globalnie do oznaczania portów obsługujących standard Universal Serial Bus, czyli właśnie USB. Z mojego doświadczenia wynika, że urządzenia takie jak drukarki, myszki, klawiatury, pendrive’y czy nawet zewnętrzne dyski twarde zawsze mają w instrukcji informację o konieczności podłączenia ich do portu USB. Co ciekawe, zgodnie z normami ISO/IEC 18004 i zaleceniami producentów sprzętu komputerowego, stosowanie tego konkretnego piktogramu minimalizuje ryzyko pomyłek przy instalacji sprzętu, nawet dla osób mniej doświadczonych. Praktycznie każdy komputer osobisty – czy to stacjonarny, czy laptop – ma kilka takich portów, a ich obecność pozwala na szybkie i bezpieczne podłączanie oraz odłączanie urządzeń peryferyjnych bez konieczności wyłączania komputera. To ułatwia i przyspiesza codzienną pracę. Moim zdaniem rozpoznanie tego symbolu jest podstawową umiejętnością każdego, kto chce swobodnie korzystać z nowych technologii w domu lub w pracy. Dodatkowo, USB jest interfejsem typu Plug & Play, co oznacza, że system operacyjny automatycznie wykryje i zainstaluje większość podłączonych urządzeń. To duże ułatwienie. Warto pamiętać, że inne piktogramy widoczne na komputerze mogą oznaczać zupełnie inne funkcje – dlatego warto znać ten symbol na pamięć.

Pytanie 10

Jaki wpływ na organizm ludzki ma krioterapia?

A. Zwiększa szybkość przewodnictwa nerwowego.
B. Zmniejsza obrzęki.
C. Podwyższa napięcie mięśniowe.
D. Spowalnia procesy przemiany materii.
Krioterapia to metoda leczenia zimnem, która w praktyce fizjoterapeutycznej ma naprawdę szerokie zastosowanie, szczególnie przy urazach i stanach zapalnych. Zimno, gdy jest odpowiednio stosowane, powoduje zwężenie naczyń krwionośnych, co w efekcie skutkuje zmniejszeniem przepływu krwi w miejscu poddanym terapii. Dzięki temu obserwuje się wyraźne ograniczenie obrzęków – i to właśnie dlatego ta odpowiedź jest prawidłowa. W gabinetach fizjoterapeutycznych często spotyka się pacjentów po skręceniach, stłuczeniach czy nawet zabiegach operacyjnych, którzy zmagają się z obrzękiem. Moim zdaniem właśnie wtedy krioterapia jest nieoceniona, bo szybkie schłodzenie okolicy urazu przyspiesza regenerację i pozwala szybciej wrócić do aktywności. Warto wiedzieć, że stosowanie krioterapii zgodnie z zaleceniami Polskiego Towarzystwa Fizjoterapii czy standardami medycznymi minimalizuje ryzyko powikłań i daje najlepsze efekty. Oprócz tego, zmniejszenie obrzęku przekłada się na mniejszy ból i poprawę ruchomości stawów. Często w praktyce spotyka się różne techniki krioterapii, od zimnych okładów po kąpiele w komorach kriogenicznych. Każda z nich ma za zadanie ograniczyć stan zapalny i obrzęk, więc moim zdaniem warto o tym pamiętać, szczególnie pracując z osobami aktywnymi fizycznie.

Pytanie 11

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. RTG
B. EEG
C. EKG
D. KTG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 12

Jaki wpływ na organizm ludzki ma promieniowanie podczerwone IR?

A. Przyśpiesza procesy przemiany materii.
B. Zwiększa napięcie mięśni szkieletowych.
C. Zmniejsza przepływ krwi tętniczej.
D. Zmniejsza próg odczuwania bólu.
Promieniowanie podczerwone (IR) ma dość ciekawe zastosowania zarówno w medycynie, jak i w przemyśle. Najważniejsze jest to, że IR powoduje lokalny wzrost temperatury tkanek, co bezpośrednio wpływa na przyśpieszenie procesów przemiany materii w komórkach – właśnie ta odpowiedź jest prawidłowa. Moim zdaniem, to jeden z lepszych przykładów na to, jak fizyka spotyka się z biologią w praktyce. Jeżeli pomyślimy o naświetlaniu IR w fizykoterapii, to zauważymy, że tego typu zabiegi są wykorzystywane chociażby do poprawy regeneracji po urazach, bo podniesienie temperatury miejscowej przyspiesza metabolizm i napływ substancji odżywczych oraz usuwanie produktów przemiany materii. Branżowe standardy, np. w fizjoterapii, przypisują IR właśnie takie działanie – działanie przyspieszające metabolizm, poprawiające ukrwienie i ogólnie wspierające procesy naprawcze. Nawet w codziennym życiu, kiedy korzystamy z sauny na podczerwień, odczuwamy podniesioną temperaturę skóry i przyspieszone tętno – to wszystko efekty przyspieszonej przemiany materii. Warto pamiętać, że stosowanie IR wymaga zachowania środków ostrożności, bo nadmierne nagrzewanie może prowadzić do poparzeń. Z mojego doświadczenia, te efekty są szczególnie zauważalne przy zabiegach na osoby z przewlekłymi napięciami mięśniowymi, gdzie podczerwień realnie wspiera regenerację. W literaturze branżowej często podkreśla się ten aspekt, więc zdecydowanie warto znać praktyczne zastosowania promieniowania IR.

Pytanie 13

W systemie bazodanowym wymagane jest dodatkowe sprzętowe zabezpieczenie danych przed ich utratą. Która macierz dyskowa pozwala uodpornić się na utratę danych w przypadku awarii wszystkich dysków poza jednym?

A. RAID 5
B. RAID 0
C. RAID 1
D. RAID 6
RAID 1 to tak naprawdę najprostszy i najczęściej spotykany sposób na zabezpieczenie danych w środowiskach, gdzie kluczowa jest niezawodność, a niekoniecznie wydajność czy oszczędność miejsca. Działanie RAID 1 opiera się na tzw. mirroringu, czyli lustrzanym zapisie – wszystkie dane są zapisywane jednocześnie na dwóch (lub więcej, jeśli kontroler pozwala) identycznych dyskach. Dzięki temu nawet jeśli jeden z dysków nagle padnie, system praktycznie bez przerwy dalej działa na kopii znajdującej się na pozostałym sprawnym dysku. Moim zdaniem to bardzo rozsądny wybór zwłaszcza dla baz danych czy systemów księgowych, gdzie utrata chociażby kilkudziesięciu minut pracy to już realna strata. Oczywiście, RAID 1 nie chroni przed wszystkimi zagrożeniami – gdyby np. zasilacz spalił wszystkie dyski naraz, nic nie pomoże – ale na typowe awarie sprzętowe to bardzo skuteczna ochrona. Dobrą praktyką IT jest łączyć RAID 1 z regularnym backupem na zewnętrzny nośnik, bo samo powielanie dysków nie zabezpiecza przed błędami użytkownika czy atakiem ransomware. Warto dodać, że RAID 1 pozwala na tzw. hot swap, czyli wymianę uszkodzonego dysku nawet bez wyłączania serwera – co w serwerowniach jest absolutnie nieocenione. Dla mnie, jeśli priorytetem jest bezpieczeństwo i prostota zarządzania, RAID 1 zawsze będzie jednym z najważniejszych rozwiązań.

Pytanie 14

Który przyrząd należy wybrać celem sprawdzenia poprawnej prędkości transmisji danych na łączu RS232 urządzenia elektroniki medycznej?

A. Multimetr.
B. Woltomierz.
C. Amperomierz.
D. Oscyloskop.
Oscyloskop to chyba jeden z tych przyrządów, których nie da się niczym zastąpić, jeśli chodzi o analizę sygnałów cyfrowych na łączach takich jak RS232. Dlaczego właśnie on? Bo tylko oscyloskop pokaże nam rzeczywisty przebieg sygnału na linii: zobaczysz na żywo impulsy, czasy trwania bitów, a nawet zakłócenia czy odbicia na przewodach. To jest mega przydatne, bo sama deklarowana prędkość transmisji (np. 9600 bps) nie zawsze zgadza się z faktycznym sygnałem – zdarzają się uszkodzenia linii lub źle skonfigurowany sprzęt. Moim zdaniem, w branży medycznej, gdzie dokładność i niezawodność transmisji danych jest kluczowa, oscyloskop daje pewność, że wszystko działa jak trzeba. Często nawet na szkoleniach technicznych podkreśla się, żeby nie ufać tylko ustawieniom software’owym czy deklaracjom producenta, tylko faktycznie mierzyć sygnał na wyjściu. Spotkałem się z sytuacjami, gdzie urządzenie deklarowało 115200 bps, a na oscyloskopie widać było, że długości bitów „pływają” – komputer gubił komunikaty i nikt nie wiedział dlaczego, dopóki nie podpięliśmy oscyloskopu. Oprócz tego, oscyloskop pozwala na szybkie wykrycie zakłóceń, które potrafią być zgubne dla transmisji – szczególnie w środowisku szpitalnym pełnym różnych zakłócaczy elektromagnetycznych. Dodatkowo, zgodnie ze standardem RS232, poziomy napięć i czas trwania impulsów muszą być w określonych granicach. Oscyloskop pozwala to wszystko zweryfikować dosłownie w kilka minut, czego nie da się zrobić innym sprzętem pomiarowym. Z mojego doświadczenia, dobra praktyka to zawsze sprawdzić przebieg przed pierwszym uruchomieniem systemu lub po naprawach.

Pytanie 15

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 W
B. 10 kW
C. 10 MW
D. 10 kₖW
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 16

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. Firebird
B. Oracle
C. PostgreSQL
D. MySQL
Oracle faktycznie uniemożliwia bezpłatne zastosowanie w celach komercyjnych i to jest dość znany temat w branży IT. Korzystanie z tego systemu bazodanowego w firmie, która na przykład świadczy usługi dla klientów albo prowadzi własny sklep internetowy, wymaga wykupienia odpowiedniej licencji. Licencjonowanie Oracle jest trochę zagmatwane, bo są tam różne opcje: per user, per processor, no i do tego dochodzi wsparcie techniczne. Co ciekawe, do nauki czy testów jest dostępna wersja Oracle XE (Express Edition), która jednak ma sporo ograniczeń i wyraźnie nie wolno jej używać komercyjnie – producent zresztą tego pilnuje, a łamanie postanowień licencyjnych może się skończyć dość nieprzyjemnie, nawet finansowo. W praktyce wiele dużych przedsiębiorstw korzysta z Oracle, bo system oferuje niesamowite możliwości skalowania, bezpieczeństwo na bardzo wysokim poziomie i wsparcie dla zaawansowanych scenariuszy. Ale jeśli ktoś prowadzi mały start-up albo projekt open-source, to Oracle raczej odpada ze względu na koszty. Moim zdaniem warto znać ograniczenia licencyjne i czytać dokładnie dokumentację licencyjną, bo w czasach audytów software’owych to już nie jest tylko teoria – firmy faktycznie tego pilnują. Co ciekawe, takie restrykcje licencyjne są jedną z przyczyn, dla których projekty open-source tak mocno zyskały popularność – tam nie trzeba się zastanawiać, czy wolno korzystać z bazy w celach zarobkowych.

Pytanie 17

Który z przedstawionych przyrządów służy do testowania połączeń w sieci LAN?

A. Przyrząd 1
Ilustracja do odpowiedzi A
B. Przyrząd 2
Ilustracja do odpowiedzi B
C. Przyrząd 3
Ilustracja do odpowiedzi C
D. Przyrząd 4
Ilustracja do odpowiedzi D
Przyrząd numer 4 to tzw. tester kabli sieciowych, popularnie nazywany testerem LAN lub testerem RJ-45. To urządzenie jest projektowane specjalnie do sprawdzania połączeń w przewodach sieciowych typu skrętka, którymi łączone są komputery, switche czy routery w sieci lokalnej. Tester taki pozwala sprawdzić, czy każda z żył w przewodzie jest poprawnie połączona od początku do końca – czyli czy nie ma przerw, zwarć albo błędnych zamian kolorów. W praktyce, kiedy zarabiasz końcówki RJ-45, taki tester puszczasz po kablu i od razu widzisz na diodach, czy wszystko styka. Moim zdaniem nie da się dobrze robić instalacji sieciowych bez czegoś takiego – to podstawa narzędziowa każdego technika sieciowego. Branżowe standardy (np. ANSI/TIA-568) wyraźnie zalecają testowanie każdej instalacji przed oddaniem jej do użytku właśnie za pomocą testera kabli. Co ciekawe, niektóre zaawansowane testery potrafią od razu wskazać miejsce uszkodzenia albo długość kabla. Warto pamiętać, że testery tego typu nie nadają się do pomiarów napięcia czy prądu, a skupiają się wyłącznie na poprawności połączeń logicznych, co w sieciach komputerowych jest najważniejsze. Jeśli chcesz być pewien, że twoja sieć LAN jest solidnie zrobiona i pozbawiona błędów, użycie testera to absolutna konieczność.

Pytanie 18

Urządzenie do rejestracji bioelektrycznych potencjałów mięśniowych to

A. kardiotokograf.
B. elektromiograf.
C. elektrokochleograf.
D. elektroencefalograf.
Elektromiograf to specjalistyczne urządzenie, które służy do rejestrowania bioelektrycznej aktywności mięśniowej. Zawsze mnie fascynowało, jak za pomocą cienkich elektrod powierzchniowych albo igłowych można „podejrzeć”, co dzieje się w mięśniach podczas ruchu czy nawet w spoczynku. Elektromiografia, czyli technika oparta o to urządzenie, pozwala ocenić działanie mięśni oraz przewodnictwo nerwowo-mięśniowe. To podstawa diagnostyki w neurologii oraz rehabilitacji – przykładowo, kiedy ktoś ma podejrzenie uszkodzenia nerwu, elektromiograf dostarcza precyzyjnych danych na temat lokalizacji i stopnia uszkodzenia. Często korzystają z tego fizjoterapeuci, lekarze sportowi, a nawet inżynierowie przy projektowaniu interfejsów do sterowania protezami bionicznych. W praktyce, prawidłowe użycie elektromiografu wymaga nie tylko znajomości zasad pomiaru, ale też analizy sygnałów EMG, które mogą być zakłócone przez szumy czy niewłaściwe ułożenie elektrod. Moim zdaniem, umiejętność obsługi tego sprzętu to absolutna podstawa w pracy z pacjentami po urazach neurologicznych. Branżowe wytyczne (np. standardy SENIAM) sugerują stosowanie odpowiednich protokołów do minimalizacji artefaktów oraz właściwej interpretacji wyników. Warto pamiętać, że sygnały EMG są bardzo czułe na ruchy, dlatego odpowiednie przygotowanie skóry i dobór elektrod mają kluczowe znaczenie dla jakości rejestracji. To naprawdę ciekawe i praktyczne narzędzie w codziennej pracy medycznej czy sportowej.

Pytanie 19

Urządzenie przedstawione na rysunku jest przeznaczone do

Ilustracja do pytania
A. szyfrowania pakietów.
B. przyspieszenia transmisji.
C. konwersji sygnału.
D. filtrowania ramek sieci Ethernet.
To urządzenie na zdjęciu to klasyczny media konwerter – w tym przypadku służy do konwersji sygnału pomiędzy różnymi mediami transmisyjnymi, najczęściej światłowodem i skrętką miedzianą Ethernet. W praktyce oznacza to, że pozwala podłączyć segment sieci oparty na światłowodzie do infrastruktury korzystającej z tradycyjnych przewodów RJ-45. To bardzo wygodne rozwiązanie, zwłaszcza w miejscach, gdzie trzeba przesłać dane na duże odległości – światłowód ma zdecydowanie mniejsze tłumienie i jest odporny na zakłócenia elektromagnetyczne. Moim zdaniem często media konwertery ratują sytuację na starszych obiektach, gdzie nie opłaca się wymieniać całej okablowania. Warto też pamiętać, że takie konwertery zapewniają zgodność z normami, np. IEEE 802.3u dla Fast Ethernet lub IEEE 802.3z dla Gigabit Ethernet na światłowodzie. Często są spotykane w szafach rackowych i przy połączeniach między różnymi budynkami. Generalnie, konwersja sygnału to podstawowa funkcja tych urządzeń – nie szyfrują ani nie filtrują pakietów, nie przyspieszają transmisji, tylko umożliwiają współpracę sprzętu używającego różnych mediów fizycznych.

Pytanie 20

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. katalog domowy.
B. plik systemowy.
C. katalog główny.
D. plik tymczasowy.
Znak ~ na początku ścieżki w systemach uniksowych to taki trochę skrót-klucz, który odwołuje się bezpośrednio do katalogu domowego użytkownika. W praktyce, jak wpiszesz np. cd ~ w terminalu, to od razu przenosi cię do twojego katalogu domowego – czyli miejsca, gdzie masz swoje dokumenty, konfiguracje, pulpit, pliki robocze i całą resztę rzeczy, za które odpowiadasz bezpośrednio jako użytkownik w systemie. To się sprawdza genialnie, bo nie musisz pamiętać czy katalog domowy to /home/jan, /Users/ania albo coś jeszcze innego – system sam wie, o którego użytkownika chodzi. Zresztą, jeśli chcesz wejść do katalogu domowego innego użytkownika, wpisujesz np. ~marek i terminal zabierze cię do /home/marek. W skryptach Bash i innych powłokach uniksowych to rozszerzanie znaku ~ na konkretną ścieżkę jest standardem od lat i praktycznie każdy administrator korzysta z tego automatycznie. To jeden z tych drobiazgów, które mega przyspieszają pracę na konsoli. Moim zdaniem, jak ktoś często korzysta z powłoki, to nie wyobraża sobie codziennej pracy bez tego symbolu. Ciekawe jest też to, że pliki tymczasowe i systemowe mają zupełnie inne notacje – tutaj ~ jest ściśle powiązany z profilem użytkownika i nie ma nic wspólnego z katalogiem głównym systemu, czyli /. Warto to zapamiętać.

Pytanie 21

W celu podłączenia monitora do systemu wizualizacji obrazów wymagany jest interfejs Display Port. Ile takich interfejsów posiada karta graficzna przedstawiona na rysunku?

Ilustracja do pytania
A. 3 interfejsy
B. 2 interfejsy.
C. 4 interfejsy
D. 1 interfejs.
Odpowiedź jest jak najbardziej zgodna z rzeczywistością – ta karta graficzna posiada dokładnie trzy interfejsy DisplayPort. Rozpoznasz je po charakterystycznym, nieco ściętym z jednej strony kształcie gniazda. DisplayPort to obecnie jeden z najważniejszych standardów do przesyłania obrazu w jakości cyfrowej, zwłaszcza w zastosowaniach profesjonalnych, gdzie liczy się wsparcie dla wysokich rozdzielczości i częstotliwości odświeżania. Moim zdaniem wybór kart z większą liczbą DisplayPortów to świetna decyzja do stanowisk wielomonitorowych – np. w biurach projektowych, w pracowniach graficznych, czy tam, gdzie stosuje się zaawansowane systemy wizualizacji. W praktyce, mając trzy takie porty, można podłączyć jednocześnie trzy monitory 4K lub nawet monitory ultrapanoramiczne, bez kombinacji z adapterami. Według dobrych praktyk branżowych zawsze warto stawiać na DisplayPort, bo pozwala nie tylko na wysoką jakość obrazu, ale wspiera też technologie takie jak daisy-chaining (czyli łańcuchowe podłączanie monitorów). Warto pamiętać, że HDMI i DVI też są przydatne, ale to właśnie DisplayPort daje największą elastyczność i niezawodność przy pracy z profesjonalnym sprzętem. Takie rozwiązania są standardem w branżach, gdzie liczy się precyzja i wydajność wyświetlania obrazu.

Pytanie 22

Który podzespół komputerowy posiada obudowę o zamieszczonej specyfikacji?

Specyfikacja obudowy
Obsługiwane gniazdaLGA775
TCASE71,4°C
Wymiary obudowy37,5 mm x 37,5 mm
Rozmiar płytki półprzewodnikowej214 mm²
Liczba tranzystorów płytki półprzewodnikowej820 milion
Dostępne opcje obniżonej zawartości halogenkówPatrz MDDS
A. Układ I/O
B. Pamięć RAM
C. Pamięć flash
D. Procesor
Specyfikacja przedstawiona w pytaniu jasno wskazuje na procesor. Przede wszystkim obsługiwane gniazdo LGA775 to popularny socket używany właśnie dla procesorów Intela z serii Core 2 Duo, Core 2 Quad i kilku innych. W ogóle żaden inny podzespół komputerowy nie jest montowany bezpośrednio w to gniazdo – większość pamięci RAM ma własne sloty DIMM, a układy I/O czy pamięci flash są integrowane w innych miejscach. Charakterystyczny parametr TCASE, czyli temperatura obudowy procesora, to kolejny sygnał. Inżynierowie i technicy często zwracają uwagę właśnie na TCASE przy projektowaniu chłodzenia CPU, co jest bardzo istotne, jeśli chodzi o stabilność pracy i bezpieczeństwo sprzętu w dłuższym okresie. Wymiary 37,5 × 37,5 mm idealnie pasują do standardowych procesorów desktopowych z tego okresu, a liczba tranzystorów na poziomie 820 milionów oraz powierzchnia płytki półprzewodnikowej 214 mm2 to typowe wartości dla architektury procesorów Core 2. Moim zdaniem, rozpoznawanie tych szczegółowych parametrów to podstawa w serwisowaniu lub składaniu komputerów – pomaga to np. dobrać kompatybilną płytę główną czy system chłodzenia. W praktyce zawsze warto analizować takie dane, bo niejednokrotnie spotkałem się ze źle dobranym chłodzeniem albo próbą montażu niepasującego procesora, tylko dlatego, że nie sprawdzono gniazda lub parametrów obudowy. Fachowiec powinien mieć takie rzeczy w małym palcu.

Pytanie 23

Zabieg diametrii krótkofalowej powoduje

A. zwężenie naczyń krwionośnych.
B. spadek liczby leukocytów.
C. spowolnienie procesów metabolicznych.
D. obniżenie pobudliwości nerwowo-mięśniowej.
Zabieg diametrii krótkofalowej to jedna z form fizykoterapii, gdzie wykorzystuje się prądy o wysokiej częstotliwości w celu uzyskania efektów terapeutycznych, głównie głębokiego przegrzania tkanek. Podczas prawidłowo przeprowadzonego zabiegu, jednym z typowych efektów jest właśnie obniżenie pobudliwości nerwowo-mięśniowej. To oznacza, że mięśnie i nerwy stają się mniej wrażliwe na bodźce, co jest wykorzystywane na przykład przy różnego rodzaju stanach bólowych, napięciach mięśniowych albo przy leczeniu nerwobóli. Z mojego doświadczenia wynika, że diametralnie poprawia to komfort pacjenta z przewlekłymi zespołami bólowymi czy po urazach, gdzie nadmierna pobudliwość mięśni przeszkadza w rehabilitacji. Branżowe standardy (np. zalecenia Polskiego Towarzystwa Fizjoterapii) zalecają stosowanie tej metody przy schorzeniach takich jak zapalenia nerwów, neuralgie czy przykurcze mięśniowe właśnie z powodu tego efektu. Praktycznie rzecz biorąc, po dobrze poprowadzonej diametrii pacjenci często odczuwają mniejsze napięcie i większą swobodę ruchów. Warto wiedzieć, że ten efekt jest też powodem, dla którego diametrii nie stosuje się np. u osób z osłabioną czynnością nerwowo-mięśniową, bo mogłoby to pogłębić problem. Przy okazji, zabiegi te poprawiają ukrwienie i działają przeciwobrzękowo, ale ich kluczowym mechanizmem w kontekście pytania jest właśnie zmniejszenie pobudliwości nerwowo-mięśniowej. Fajnie znać takie praktyczne aspekty, bo potem łatwiej dobrać odpowiednią metodę do konkretnego przypadku.

Pytanie 24

Który rozdzielacz sygnału należy zastosować w celu wykorzystania jednego przewodu U/UTP5e do podłączenia dwóch urządzeń do sieci LAN?

A. Rozdzielacz 2
Ilustracja do odpowiedzi A
B. Rozdzielacz 3
Ilustracja do odpowiedzi B
C. Rozdzielacz 1
Ilustracja do odpowiedzi C
D. Rozdzielacz 4
Ilustracja do odpowiedzi D
Rozdzielacz 2 to tzw. pasywny rozdzielacz sygnału RJ-45, który pozwala fizycznie rozdzielić przewody U/UTP5e tak, by przesłać dwa niezależne sygnały Ethernet przez jeden przewód czteroparowy. Ten trik jest wykorzystywany głównie w starszych instalacjach, gdzie urządzenia pracują w standardzie Fast Ethernet 100 Mb/s, bo wtedy używane są tylko dwie pary przewodów na jedno połączenie. Rozdzielacz 2 daje możliwość podłączenia dwóch urządzeń do sieci LAN przez jeden przewód, oczywiście pod warunkiem, że na obu końcach instalacji zastosujemy ten sam typ rozdzielacza i nie stosujemy przełącznika (switcha) po drodze – bo wtedy sygnały się nie "zmieszają". Moim zdaniem to bardzo praktyczne rozwiązanie, gdy trzeba nagle dołączyć drugie urządzenie a nie ma jak przeciągnąć kolejnego kabla – czasem ratuje to sytuację w biurach czy mieszkaniach. Warto wiedzieć, że takie rozwiązanie nie jest zgodne z najnowszymi standardami (np. dla gigabita trzeba już wszystkich czterech par), ale dla starszych sieci sprawdza się świetnie. W praktyce, jeśli ktoś zna topologię sieci, wie jakie są ograniczenia sprzętowe i nie wymaga się gigabitów, to taki rozdzielacz jest naprawdę użyteczny. Dobre praktyki branżowe mówią, żeby informować użytkownika o możliwych ograniczeniach przepustowości i nie stosować tego w nowoczesnych instalacjach, ale czasem nie ma wyjścia. Sam kiedyś musiałem ratować się takim rozwiązaniem w starej szkole – działało całkiem spoko, byle by nie oczekiwać cudów z prędkościami.

Pytanie 25

Na rysunku przedstawiono kartę rozszerzeń umożliwiającą

Ilustracja do pytania
A. odczytanie kodów POST.
B. sprawdzenie czasu systemowego.
C. sprawdzenie temperatury pamięci RAM.
D. określenie użycia procesora.
Karta rozszerzeń widoczna na zdjęciu to tzw. karta diagnostyczna POST, zwana też kartą debugującą. Służy głównie do odczytywania kodów POST (Power-On Self-Test), które są generowane podczas inicjalizacji komputera, zanim jeszcze system operacyjny zacznie się ładować. Kody te pojawiają się na wyświetlaczu LED i pozwalają technikowi od razu rozpoznać, na którym etapie startu sprzętu wystąpił problem, nawet jeśli komputer nie wyświetla obrazu na monitorze. Moim zdaniem taka karta to absolutny must-have dla każdego serwisanta, bo pozwala na szybkie diagnozowanie usterek płyty głównej, pamięci RAM czy procesora. Standardy branżowe, na przykład wytyczne ATX, przewidują stosowanie procedur POST i związanych z nimi kodów do wykrywania problemów sprzętowych. Kartę wystarczy wpiąć w slot PCI lub ISA (zależnie od wersji), a podczas uruchamiania komputera na jej wyświetlaczu pojawi się kod szesnastkowy – później wystarczy sprawdzić w dokumentacji, co oznacza dany kod. Z mojego doświadczenia wynika, że taka karta potrafi skrócić czas diagnozy nawet o połowę. Pozwala to unikać żmudnego sprawdzania każdego podzespołu osobno, więc to naprawdę praktyczne narzędzie w każdej pracowni serwisowej.

Pytanie 26

Które systemy operacyjne mogą być zainstalowane na dysku, którego działanie obrazuje GParted?

Ilustracja do pytania
A. Linux, Windows
B. Mac, Mac OS
C. Linux, Mac OS
D. Windows, Mac OS
Na tym zrzucie z GParted dokładnie widać, jakie partycje istnieją na dysku i jakie systemy plików są na nich założone. Najważniejsze, co tu rzuca się w oczy, to obecność partycji NTFS oraz EXT4. NTFS to typowy system plików używany przez Windows, natomiast EXT4 jest domeną Linuksa. Dodatkowo jest też partycja EFI (FAT32), która jest wykorzystywana w nowoczesnych komputerach z UEFI do uruchamiania systemów operacyjnych – zarówno Windows, jak i Linux potrafią korzystać z EFI. No i jeszcze jest linux-swap, czyli przestrzeń wymiany dla Linuksa. To jednoznacznie pokazuje, że na takim układzie partycji spokojnie można zainstalować i Windowsa, i Linuksa. Moim zdaniem to bardzo praktyczne rozwiązanie, bo daje możliwość tzw. dualboota – czyli wyboru, który system chcesz uruchomić podczas startu komputera. W praktyce wiele osób w technikum czy na studiach z informatyki korzysta z takiego rozwiązania, żeby mieć dostęp do narzędzi dostępnych tylko na jednym z tych systemów. Dobrą praktyką jest zawsze wydzielać osobną partycję EFI oraz osobną partycję wymiany dla Linuksa. Dodatkowo, NTFS jest uniwersalny dla Windowsa, a EXT4 zdecydowanie lepiej działa z Linuksem pod względem wydajności i bezpieczeństwa danych. To wszystko razem powoduje, że tylko odpowiedź Linux, Windows jest poprawna w tym kontekście. Takie podejście jest zgodne z zaleceniami administratorów systemów i specjalistów ds. bezpieczeństwa IT.

Pytanie 27

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. budowie nowych klas na podstawie już istniejących.
B. uogólnieniu pewnych cech w klasie bazowej.
C. tworzeniu nowych obiektów za pomocą konstruktorów.
D. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 28

W tabeli przedstawiono fragment dokumentacji testera

Zakres±500 mm Hg 20 °C
Dokładność±1% odczytu + 0.5 mm Hg)
Zakres80, 94 bpm (synch. z EKG)
Dokładność sygnału±1%
Inwazyjne:
Statyczne ciśnienie-10, -5, 0, 20, 40, 50, 60, 80, 100, 150, 160, 200, 240, 250, 300, 320, 400 mm Hg
Dokładność±(1% zakresu ±1mm Hg)
or ±(2% nastawy + 2mm Hg)
Impedancja300 Ohm (±10% dokładności)
Czułość5 do 40 μV/V/mm Hg
A. pompy infuzyjnej.
B. ciśnieniomierza.
C. pulsoksymetru.
D. defibrylatora.
Analizując przedstawioną tabelę, widać wyraźnie, że dotyczy ona urządzenia mierzącego ciśnienie, a konkretnie ciśnieniomierza. Pojawia się tu kilka bardzo charakterystycznych wskaźników, takich jak zakres ciśnień podany w milimetrach słupa rtęci (mm Hg), dokładność pomiaru ciśnienia, wartości statycznych ciśnień oraz czułość wyrażona w μV/V/mm Hg. To są typowe parametry, które znajdziesz w technicznej dokumentacji ciśnieniomierzy – zarówno tych mechanicznych, jak i elektronicznych, zwłaszcza używanych w medycynie. Warto zwrócić uwagę na zakres – ±500 mm Hg – urządzenia te muszą być bardzo precyzyjne, bo od dokładności pomiaru ciśnienia zależy diagnostyka i terapia pacjenta (zarówno w warunkach szpitalnych, jak i domowych). Moim zdaniem, najważniejsze jest tu wskazanie inwazyjnych pomiarów, synchronizacji z EKG oraz specyfikacji dotyczącej impedancji i czułości – to typowe dla zaawansowanych ciśnieniomierzy, stosowanych np. na oddziałach intensywnej terapii. Standardy, takie jak IEC 80601-2-30, jasno określają wymagania dotyczące dokładności i bezpieczeństwa tego typu sprzętu. W codziennej praktyce technika medycznego często trzeba analizować właśnie takie tabele, żeby ocenić, czy dany ciśnieniomierz spełnia wymagania dla konkretnego zastosowania klinicznego. Warto też zauważyć, że parametry w tabeli nie mają nic wspólnego z typowymi wartościami dla pomp infuzyjnych, pulsoksymetrów czy defibrylatorów – te urządzenia mają zupełnie inne specyfikacje.

Pytanie 29

W instrukcji systemu do skanowania dokumentacji medycznej zapisano, że umożliwia wykorzystanie systemu OCR, który służy do

A. pomijania białych stron.
B. skanowania wprost do systemu HIS.
C. skanowania obu stron w jednym przelocie.
D. rozpoznawania tekstu w pliku graficznym.
Systemy OCR, czyli Optical Character Recognition, są mega przydatne wszędzie tam, gdzie mamy do czynienia z papierową dokumentacją, a chcemy coś z nią potem zrobić cyfrowo. Moim zdaniem, to taka podstawa w nowoczesnej administracji medycznej – wyobraź sobie, że masz skan wypisu ze szpitala jako plik JPG albo PDF, a musisz wrzucić dane do systemu HIS czy prowadzić elektroniczną kartę pacjenta. OCR pozwala zamienić zdjęcie tekstu na prawdziwy, edytowalny tekst, który można przeszukiwać, kopiować czy analizować algorytmicznie. To od razu przyśpiesza obieg dokumentów i pozwala uniknąć ręcznego przepisywania danych, co z mojego doświadczenia wprowadza mniej błędów i jest dużo szybsze. W branży medycznej często korzysta się z rozwiązań zgodnych ze standardami, np. HL7 czy DICOM, i OCR świetnie się w to wpisuje, bo umożliwia integrację skanów z elektronicznym obiegiem dokumentacji. W praktyce, dobrze skonfigurowany system potrafi sam rozpoznać tekst z różnych rodzajów formularzy, a potem automatycznie dodać go do odpowiednich rejestrów czy systemu szpitalnego. To już nie tylko oszczędność czasu – takie rozwiązania pozwalają na pełną cyfryzację archiwów medycznych, co jest obecnie zalecane przez Ministerstwo Zdrowia i zgodne z europejskimi standardami prowadzenia dokumentacji. Używanie OCR to po prostu cywilizacyjny krok naprzód w pracy z dokumentami.

Pytanie 30

Zgodnie z przedstawionym opisem, gniazdo interfejsu służące do podłączenia audiometru ze stanowiskiem komputerowym przedstawione jest na rysunku

Opis:
− 125 Hz ÷ 8.000 Hz
− -10 dB do 120 dB HL na wyjściu
− połączenie z komputerem PC – interfejs RS232
− połączenie z drukarką laserową
− połączenie z drukarką atramentową
A. Gniazdo 1
Ilustracja do odpowiedzi A
B. Gniazdo 4
Ilustracja do odpowiedzi B
C. Gniazdo 3
Ilustracja do odpowiedzi C
D. Gniazdo 2
Ilustracja do odpowiedzi D
Wybrałeś gniazdo RS232, czyli tzw. port szeregowy DB9. To właśnie to złącze było i nadal jest stosowane w interfejsach komunikacyjnych wielu urządzeń medycznych, właśnie takich jak audiometry. Ten port umożliwia stabilne, przewodowe przesyłanie danych pomiędzy audiometrem a komputerem PC, zgodnie ze standardami transmisji szeregowej. Gniazdo DB9 zostało zaprojektowane jeszcze w epoce komputerów klasy PC XT/AT i z mojego doświadczenia – wciąż pojawia się w sprzęcie specjalistycznym, bo jest niezawodne i proste w obsłudze. W praktyce, jeśli chcesz wyeksportować dane z audiometru do komputera, to właśnie przez takie złącze podłączysz kabel i uruchomisz transmisję, korzystając np. z programów do akwizycji danych medycznych. Chociaż dziś coraz częściej widzi się USB, to branża medyczna mocno trzyma się rozwiązań sprawdzonych – RS232 uchodzi za coś pewnego, dobrze opisanego w normach (np. EIA-232), a po drobnych przeróbkach można nawet przesłać sygnał na spore odległości. Warto znać ten standard, bo często spotyka się go przy serwisowaniu i integracji starszych urządzeń diagnostycznych, także poza medycyną – np. w automatyce czy przemyśle. Moim zdaniem, taka wiedza daje fajne podstawy do dalszego rozwoju w elektronice użytkowej.

Pytanie 31

Elementem sieci komputerowej w topologii gwiazdy, pozwalającym przyłączyć wiele urządzeń sieciowych, jest

A. repeater.
B. modem.
C. przełącznik.
D. konwerter.
W topologii gwiazdy sercem sieci jest właśnie przełącznik, czyli switch. To urządzenie odpowiada za przyłączanie wielu komputerów lub innych sprzętów sieciowych w taki sposób, że każde z nich komunikuje się z przełącznikiem osobnym przewodem. Dzięki temu nie powstają niepotrzebne kolizje danych, a każdy host może przesyłać i odbierać informacje optymalnie szybko. W nowoczesnych sieciach LAN praktycznie wszędzie stosuje się przełączniki, bo są one nie tylko wydajne, ale też umożliwiają stworzenie naprawdę rozbudowanych infrastruktur – można podłączać komputery, drukarki, access pointy czy serwery, a wszystko jest administrowane centralnie. Moim zdaniem trudno sobie wyobrazić profesjonalną sieć w biurze czy szkole bez przełącznika jako centrum. Warto też wiedzieć, że przełączniki pracują głównie w warstwie drugiej modelu OSI (łącza danych), chociaż są zaawansowane modele, które obsługują nawet routowanie (L3). Dobre praktyki branżowe mówią, żeby nie mieszać przełączników z hubami, bo te drugie nie potrafią inteligentnie kierować ruchem – a przełącznik analizuje MAC adresy i przesyła ramki tylko tam, gdzie trzeba. Praktycznym przykładem jest sytuacja, gdy w pracowni komputerowej trzeba szybko przesłać duży plik – dzięki przełącznikowi transfer odbywa się bez zakłóceń na linii nadawca-odbiorca, a reszta użytkowników nie odczuwa spowolnienia. Takie rozwiązanie daje też dużą elastyczność przy rozbudowie sieci. Z mojego doświadczenia wynika, że wybór dobrego przełącznika na początek to inwestycja, która się naprawdę opłaca.

Pytanie 32

Która magistrala służy do szeregowej transmisji danych?

A. PCI X
B. PCI E
C. AGP
D. ATA
PCI Express, czyli PCIe, to obecnie najpopularniejsza magistrala wykorzystywana do szeregowej transmisji danych pomiędzy płytą główną a takimi urządzeniami jak karty graficzne, karty sieciowe czy pamięci masowe NVMe. W odróżnieniu od starszych rozwiązań, takich jak klasyczne PCI czy AGP, PCIe przesyła dane szeregowo, czyli bit po bicie za pomocą tzw. linii (linii transmisyjnych), co pozwala na osiąganie bardzo wysokich przepustowości przy jednoczesnej elastyczności konfiguracji (np. x1, x4, x8, x16). Szeregowa transmisja w PCIe minimalizuje zakłócenia i poprawia integralność sygnałów, więc moim zdaniem to rozwiązanie sprawdza się nawet przy bardzo wymagających zastosowaniach, takich jak gaming czy obliczenia naukowe. W nowoczesnych komputerach praktycznie każda wydajna karta graficzna czy szybki dysk SSD NVMe komunikuje się właśnie przez PCI Express, bo to dzięki tej magistrali możliwe są transfery liczone w gigabajtach na sekundę. Warto też wiedzieć, że PCIe cały czas się rozwija – każda kolejna generacja (np. 4.0 czy 5.0) podwaja przepustowość. Z mojego doświadczenia wynika, że szeregowa transmisja to nie tylko przyszłość, ale już teraźniejszość sprzętu komputerowego – nie wyobrażam sobie dzisiaj nowoczesnej płyty głównej bez PCIe.

Pytanie 33

Przepływ przez organizm człowieka prądów o wysokiej częstotliwości, mających zastosowanie w elektrochirurgii, może powodować

A. skurcz mięśni.
B. cięcie lub koagulację tkanki.
C. zaburzenia przewodnictwa w nerwach.
D. zaburzenie pracy serca.
Prawidłowa odpowiedź, bo właśnie prądy o wysokiej częstotliwości w elektrochirurgii zostały stworzone głównie po to, by ciąć i koagulować tkanki, nie powodując przy tym bezpośrednich, groźnych efektów pobudzenia mięśni czy zakłóceń pracy serca. To jest dość sprytne rozwiązanie, bo dzięki temu lekarze mogą bezpiecznie przecinać albo zespalać naczynia i inne struktury podczas zabiegów. Prąd HF (czyli high frequency, powyżej 300 kHz) nie wywołuje klasycznych efektów elektrofizjologicznych jak np. skurcze mięśni, bo komórki nerwowe i mięśniowe nie nadążają reagować na tak szybkie zmiany. Zamiast tego energia zamienia się miejscowo w ciepło, co pozwala uzyskać efekt cięcia (przy dużej mocy i krótkim czasie) lub koagulacji (przy mniejszej mocy i dłużej trwającym impulsie). Moim zdaniem to jedna z ciekawszych technologii w praktyce medycznej, bo pozwala ograniczyć krwawienie i przyspieszyć zabiegi – niejednokrotnie widziałem, jak chirurg dzięki elektrokauterowi szybciej zamyka naczynia. Z punktu widzenia bezpieczeństwa, większość urządzeń spełnia normy PN-EN 60601-2-2, które określają właśnie zasady użytkowania sprzętu HF w chirurgii. Warto też pamiętać, że zastosowanie tych prądów wymaga szczególnej ostrożności przy pracy w pobliżu implantów czy urządzeń elektronicznych u pacjenta.

Pytanie 34

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. tar
B. raw
C. rar
D. tga
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 35

Które polecenie w systemie Windows tworzy folder Dane?

A. set Dane
B. ren Dane
C. mkdir Dane
D. rmdir Dane
Polecenie 'mkdir Dane' jest dokładnie tym, czego potrzebujesz, gdy chcesz stworzyć nowy folder o nazwie 'Dane' w systemie Windows. Skrót 'mkdir' pochodzi od angielskiego 'make directory', co wprost oznacza utworzenie katalogu. Z mojego doświadczenia, w pracy z wierszem poleceń Windows (czyli cmd.exe), to jedno z najczęściej wykorzystywanych narzędzi do zarządzania strukturą katalogów — szczególnie gdy automatyzujemy zadania albo przygotowujemy środowisko pracy. Przydaje się chociażby wtedy, gdy musisz szybko stworzyć kilka podfolderów na dane projektowe, bez klikania myszką po Eksploratorze. Warto zapamiętać, że mkdir pozwala od razu utworzyć nawet całą ścieżkę katalogów, np. 'mkdir Dane\Archiwum\2024', a system sam zadba o stworzenie brakujących katalogów po drodze. Co ciekawe, polecenie to jest standardem nie tylko w Windows, ale i w systemach Linux czy macOS, więc jego znajomość jest przydatna niezależnie od platformy. Dobrą praktyką jest też korzystanie z parametrów, np. '/p', jeśli chcemy mieć pewność, że stworzymy całą strukturę katalogów na raz. No i jeszcze jedna rzeczywistość — bez odpowiednich uprawnień (np. na dysku systemowym), mkdir nie zadziała, więc warto pamiętać o prawach użytkownika. Moim zdaniem, to takie podstawowe narzędzie, które każdy informatyk powinien znać na pamięć, bo znacznie przyspiesza codzienną pracę.

Pytanie 36

Podczas uruchamiania komputera procedura POST testuje poprawność działania

A. procesora, pamięci RAM, karty graficznej oraz dysków twardych.
B. dysków, napędów optycznych i kart pamięci.
C. tylko pamięci RAM i kart pamięci.
D. tylko karty graficznej oraz karty sieciowej.
Procedura POST (Power-On Self Test) to taki pierwszy etap uruchamiania komputera, który sprawdza, czy najważniejsze podzespoły działają poprawnie. Moim zdaniem to jeden z tych procesów, o których często się zapomina, a bez niego komputer nawet nie ruszy dalej! POST weryfikuje przede wszystkim, czy procesor, pamięć RAM, karta graficzna oraz dyski twarde są sprawne i prawidłowo podłączone. Bez tych elementów nie da się zainicjować systemu operacyjnego ani nawet wyświetlić komunikatów o błędach. W praktyce, jeśli np. pamięć RAM jest uszkodzona, komputer wyda sygnał dźwiękowy lub pokaże odpowiedni komunikat na ekranie (jeśli karta graficzna działa). Z mojego doświadczenia, najczęściej spotykanymi problemami podczas POST są właśnie źle włożone pamięci RAM lub brak sygnału z karty graficznej. Branżowe dobre praktyki podkreślają, żeby zawsze zacząć diagnostykę komputera od tych podstawowych komponentów, zanim przejdzie się do drobniejszych usterek. Procedura POST jest częścią standardu BIOS/UEFI i to dzięki niej użytkownik od razu wie, że coś jest nie tak, zanim system operacyjny w ogóle zacznie się ładować. Dodatkowo, POST nie sprawdza urządzeń peryferyjnych typu drukarki czy skanery, tylko skupia się na tym, bez czego komputer nie ruszy. To naprawdę ułatwia życie każdemu, kto zajmuje się serwisem komputerowym – po dźwiękach beep można od razu zorientować się, gdzie jest błąd. Taką diagnostykę można znaleźć w każdym nowoczesnym pececie i to jest absolutny standard branżowy.

Pytanie 37

Ile operacji inkrementacji wykonano w przedstawionej liście kroków?

i=0;
Dopóki i>3 wykonaj      i=i+1;
A. Wykonano dwie operacje.
B. Wykonano zero operacji.
C. Wykonano jedną operację.
D. Wykonano trzy operacje.
Warunek dopóki i>3 sprawia, że pętla nie jest wykonywana ani razu, bo już na początku zmienna i ma wartość 0, która nie spełnia tego warunku. Takie zachowanie jest bardzo typowe w wielu językach programowania, szczególnie gdy stosujemy pętle z warunkiem wejściowym, jak while w C, C++ czy Pythonie. W tym przypadku inkrementacja i=i+1 nigdy nie zostaje uruchomiona, więc liczba operacji inkrementacji wynosi dokładnie zero. Moim zdaniem to ważna pułapka logiczna – czasem wydaje się, że pętla coś wykona, bo jest instrukcja inkrementacji i cały blok, a tymczasem wszystko rozgrywa się na poziomie warunku początkowego. W praktyce profesjonalnej programista powinien zawsze na chłodno przeanalizować, czy warunek pozwala wejść do pętli, zanim zacznie rozważać ile operacji jest wykonanych. W dokumentacjach i materiałach edukacyjnych często się to podkreśla, bo takich błędów łatwo uniknąć, jeśli dobrze rozumie się logikę pętli. Przykład bardzo przypomina popularny case, gdy błędnie ustawiony warunek pętli może całkiem zablokować jej wykonywanie – zdarza się to nawet doświadczonym osobom. Warto się upewnić, czy warunek wejścia do pętli jest spełniony dla wartości początkowych zmiennych, bo to jeden z filarów poprawnego programowania strukturalnego.

Pytanie 38

W celu zmiany hasła użytkownika w systemie Linux należy użyć polecenia

A. finger
B. logout
C. passwd
D. pwd
Polecenie passwd w systemie Linux to absolutna podstawa przy zarządzaniu hasłami użytkowników. Jeśli chcemy zmienić hasło – czy to swoje, czy innego użytkownika (oczywiście pod warunkiem posiadania odpowiednich uprawnień, na przykład roota) – właśnie to polecenie stosujemy. Jego działanie polega na wywołaniu procesu, podczas którego system najpierw poprosi o stare hasło (o ile nie jesteśmy rootem), potem dwukrotnie o nowe i sprawdzi, czy spełnia ono polityki bezpieczeństwa, np. długość czy złożoność. Bardzo praktyczne jest to, że passwd działa niezależnie od środowiska graficznego – wszystko wykonuje się z poziomu terminala, więc nawet na serwerach bez GUI nie ma z tym najmniejszego problemu. Z mojego doświadczenia często spotykam się z sytuacją, gdzie osoby mylą to polecenie z pwd albo nawet próbują wpisać coś pokroju 'change password', co oczywiście nie zadziała. Warto też wiedzieć, że passwd pozwala blokować konta lub wymuszać zmianę hasła przy pierwszym logowaniu – to bardzo przydatne przy pracy w większych zespołach. Ostatecznie passwd to narzędzie zgodne z politykami bezpieczeństwa znanymi z profesjonalnych wdrożeń Linuxa, co jest bardzo doceniane w branży IT. Polecam też sprawdzić wywołanie 'man passwd', żeby poznać więcej opcji – można się zdziwić, ile ciekawych rzeczy oferuje to z pozoru proste polecenie.

Pytanie 39

Moduł EKG do badań wysiłkowych został wyposażony w interfejs Bluetooth w celu przesyłania wyników badań. Aby połączyć moduł z stanowiskiem komputerowym, należy wybrać interfejs oznaczony symbolem

A. Symbol 2
Ilustracja do odpowiedzi A
B. Symbol 4
Ilustracja do odpowiedzi B
C. Symbol 1
Ilustracja do odpowiedzi C
D. Symbol 3
Ilustracja do odpowiedzi D
Symbol, który wybrałeś, to oficjalny znak Bluetooth – technologii bezprzewodowej, która umożliwia przesyłanie danych na krótkie odległości, np. między modułem EKG a komputerem. Ten symbol można spotkać praktycznie wszędzie, gdzie mamy do czynienia z łącznością Bluetooth, czyli chociażby w słuchawkach bezprzewodowych, myszkach komputerowych czy sprzęcie medycznym. W przypadku EKG, Bluetooth jest o tyle fajny, że pozwala na szybkie i wygodne przesyłanie wyników bez kabli, co według mnie bardzo ułatwia pracę w gabinecie czy laboratorium. Standard Bluetooth jest szeroko akceptowany w medycynie, bo spełnia określone normy bezpieczeństwa transmisji – oczywiście pod warunkiem odpowiedniego szyfrowania i konfiguracji urządzenia. Z doświadczenia wiem, że większość nowoczesnych systemów diagnostyki korzysta z tego standardu, bo jest po prostu praktyczny i uniwersalny. Jeżeli jeszcze nie miałeś okazji – polecam poćwiczyć parowanie urządzeń przez Bluetooth, bo w praktyce nieraz zdarza się, że trzeba szybko rozwiązać jakiś problem z łącznością. Tak na marginesie, warto wiedzieć, że Bluetooth działa na paśmie 2,4 GHz i ma różne klasy zasięgu – to czasem ma znaczenie przy rozmieszczeniu sprzętu w pracowni. Dla mnie wybór tego interfejsu to oczywista sprawa, patrząc na wygodę, szybkość i bezpieczeństwo transmisji danych.

Pytanie 40

Który system informatyki medycznej umożliwia archiwizację obrazów?

A. LZW
B. VPN
C. PACS
D. WLAN
System PACS (Picture Archiving and Communication System) to już właściwie standard w każdej nowoczesnej placówce medycznej, zwłaszcza tam, gdzie wykonuje się dużo badań obrazowych, jak tomografia komputerowa czy rezonans magnetyczny. Moim zdaniem nikt dziś już nie wyobraża sobie funkcjonowania szpitala bez takiego rozwiązania. PACS umożliwia nie tylko archiwizację obrazów medycznych (np. RTG, USG, CT), ale też ich szybkie udostępnianie pomiędzy różnymi stanowiskami czy nawet oddziałami szpitala. Dzięki temu lekarze mogą oglądać wyniki niemal od razu po badaniu, bez konieczności drukowania klisz czy transportowania nośników. Co ważne, PACS opiera się na międzynarodowym standardzie DICOM, który umożliwia interoperacyjność między urządzeniami medycznymi różnych producentów. W praktyce wygląda to tak, że technik robi badanie, obraz trafia od razu do serwera PACS i lekarz na drugim końcu szpitala może go przeglądać na swoim komputerze, opisując wynik. Z mojego doświadczenia wynika, że takie rozwiązanie znacząco skraca czas diagnostyki i poprawia jakość opieki nad pacjentem. Warto też wspomnieć, że PACS pozwala na bezpieczne przechowywanie obrazów przez wiele lat, co jest wymagane przez wytyczne prawne dotyczące dokumentacji medycznej. Generalnie, PACS to kluczowy element informatyki medycznej – bez niego trudno sobie wyobrazić sprawny obieg informacji w szpitalu.