Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik elektroniki i informatyki medycznej
  • Kwalifikacja: MED.07 - Montaż i eksploatacja urządzeń elektronicznych i systemów informatyki medycznej
  • Data rozpoczęcia: 17 kwietnia 2026 01:19
  • Data zakończenia: 17 kwietnia 2026 01:26

Egzamin zdany!

Wynik: 39/40 punktów (97,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Zapis w dokumentacji kardiotokografu „prezentacja sygnału FHR” dotyczy

A. aktywności ruchowej płodu.
B. czynności skurczowej macicy.
C. częstości uderzeń serca płodu.
D. częstości uderzeń serca matki.
Zapis „prezentacja sygnału FHR” w dokumentacji kardiotokografu odnosi się wyłącznie do monitorowania częstości uderzeń serca płodu, czyli tzw. fetal heart rate (FHR). To właśnie serce dziecka jest tutaj kluczowe, bo od oceny tego sygnału zależy wykrywanie zagrożeń i podejmowanie decyzji klinicznych. Moim zdaniem znajomość tego pojęcia powinna być absolutnym minimum każdego, kto ma styczność z monitorowaniem przebiegu ciąży, zwłaszcza w sytuacjach okołoporodowych. Sygnał FHR uzyskuje się przez przyłożenie specjalnej głowicy do brzucha matki, co pozwala na stałą obserwację rytmu serca płodu – zarówno podczas ciąży, jak i przy porodzie. W praktyce, jeśli lekarz lub położna widzi zapis FHR na monitorze, od razu wie, czy dziecko nie wykazuje cech niedotlenienia albo innych nieprawidłowości. Standardy Polskiego Towarzystwa Ginekologów i Położników oraz zalecenia WHO nie pozostawiają wątpliwości: prawidłowa interpretacja sygnału FHR to podstawa skutecznego nadzoru nad dobrostanem płodu. Z mojego doświadczenia wynika, że umiejętność rozróżnienia FHR od innych parametrów (np. czynność skurczowa macicy czy puls matki) znacząco poprawia jakość opieki i minimalizuje ryzyko powikłań. Bardzo często w praktyce klinicznej spotykam się z sytuacjami, gdy szybka reakcja na niepokojący sygnał FHR pozwoliła uchronić dziecko przed poważnymi konsekwencjami.

Pytanie 2

Metoda diagnostyczna, w której rejestruje się rozpad radioizotopu wprowadzonego do organizmu, to

A. tomografia.
B. termografia.
C. scyntygrafia.
D. spektroskopia.
Scyntygrafia to metoda diagnostyczna, która moim zdaniem zasługuje na szczególne wyróżnienie wśród badań obrazowych, zwłaszcza gdy chodzi o ocenę funkcji narządów. Polega na podaniu pacjentowi radioaktywnego izotopu – często są to związki technetu czy jodu – które potem gromadzą się w określonych tkankach. W praktyce oznacza to, że dzięki detekcji promieniowania gamma można zobaczyć, jak rozkłada się substancja w organizmie i wyłapać np. zmiany nowotworowe, przerzuty albo zaburzenia krążenia. To badanie jest stosowane m.in. w kardiologii do oceny ukrwienia mięśnia sercowego, w endokrynologii do badania tarczycy, albo w onkologii do szukania ognisk raka. Wielu lekarzy chwali scyntygrafię za jej czułość i możliwość wykrycia problemów na bardzo wczesnym etapie – zdecydowanie warto znać tę metodę, bo nie ma chyba bardziej efektywnego sposobu monitorowania funkcji narządów przy użyciu izotopów. Oczywiście trzeba pamiętać o ścisłym przestrzeganiu zasad bezpieczeństwa i minimalizowaniu dawki promieniowania, zgodnie z dobrymi praktykami ALARA. Z mojego punktu widzenia, scyntygrafia to podstawa w nowoczesnej medycynie nuklearnej i nie da się jej zastąpić samą klasyczną diagnostyką obrazową.

Pytanie 3

Symbole: 1U, 2U, 3U stosowane do oznaczenia modułów w szafach typu rack określają

A. kolejność umieszczania modułów w slotach.
B. miejsce montażu modułu w szafie.
C. ilość urządzeń danego typu umieszczonych na stelażu 19-calowym.
D. ilość slotów zajmowanych przez moduł w szafie.
Oznaczenia takie jak 1U, 2U czy 3U od lat są wykorzystywane w branży IT i telekomunikacyjnej do jednoznacznego określenia wielkości modułów czy urządzeń przeznaczonych do montażu w szafach rackowych. To wszystko wywodzi się ze standardu EIA-310, który definiuje „U” jako wysokość jednostkową równą dokładnie 44,45 mm. Czyli jak coś ma 1U, to zajmie jeden taki „slot” – 44,45 mm wysokości w szafie rackowej. Jak urządzenie oznaczone jest jako 2U, to po prostu potrzebuje dwa takie sloty, czyli 88,9 mm. To bardzo praktyczne, bo pozwala na łatwą kalkulację ile faktycznego miejsca potrzebujemy pod konkretne urządzenia serwerowe, przełączniki czy zasilacze awaryjne. Moim zdaniem, to jeden z tych standardów, które naprawdę ułatwiają życie – nie trzeba się domyślać czy sprzęt się zmieści, wszystko jest jasne już na etapie projektowania. Dobre praktyki mówią, żeby zawsze brać pod uwagę wysokość w U już przy planowaniu rozbudowy i zakupie nowego sprzętu, bo łatwo potem o ścisk i bałagan w szafie. Dodatkowo warto pamiętać, że samo „U” dotyczy tylko wysokości – szerokość typowo wynosi 19 cali (standard rackowy), ale są też szafy 23-calowe, chociaż te spotyka się rzadziej. Spotkanie w opisie sprzętu wartości „3U” oznacza po prostu, że będzie on wymagał trzech jednostek wysokości w standardowej szafie rack, co jest kluczowe przy zarządzaniu przestrzenią w serwerowni czy rozdzielni.

Pytanie 4

Aby system komputerowy współpracujący z ultrasonografem mógł nagrywać na jednej płycie DVD dane z kolejnych, wykonywanych na bieżąco badań, musi być wyposażony w nagrywanie

A. wielostronicowe.
B. wielowarstwowe.
C. wielosesyjne.
D. wielowątkowe.
Prawidłowa odpowiedź to „nagrywanie wielosesyjne” i właśnie taki tryb jest wykorzystywany, gdy mamy potrzebę dogrywania kolejnych danych na jedną płytę DVD, na przykład wtedy, gdy podczas pracy z ultrasonografem wykonywane są kolejne badania w różnych momentach. Dzięki sesjom można nagrywać nowe partie danych bez konieczności zamykania płyty, co jest superpraktyczne w pracy medycznej czy diagnostycznej. Moim zdaniem w realiach szpitalnych czy w pracowniach diagnostycznych często zdarza się, że nie wszystko da się wykonać „na raz” i właśnie wtedy taka funkcjonalność okazuje się nieoceniona. Branżowe standardy, szczególnie w sprzęcie medycznym, mocno podkreślają bezpieczeństwo i możliwość archiwizacji – wielosesyjność pozwala nie tylko na dokładanie nowych badań, ale też na zachowanie porządku i oddzielenie sesji konkretnymi opisami. Daje to też większą elastyczność – możesz dograć dane pacjenta wtedy, kiedy jest to potrzebne, a nie martwić się, że trzeba będzie tworzyć zupełnie nowy nośnik. W praktyce wielu producentów sprzętu medycznego stosuje takie rozwiązania – na przykład aparaty USG czy systemy PACS (archiwizacja obrazów). Dodatkowo, jeśli masz płytę wielosesyjną, możesz ją odczytać na większości standardowych napędów, a dane pozostają dobrze zorganizowane. Taka opcja to zdecydowanie branżowy „must have” przy pracy z dużą ilością danych obrazowych, gdzie liczy się zarówno bezpieczeństwo, jak i wygoda pracy.

Pytanie 5

Programowanie obiektowe wykorzystuje dziedziczenie, które polega na

A. tworzeniu nowych obiektów za pomocą konstruktorów.
B. budowie nowych klas na podstawie już istniejących.
C. uogólnieniu pewnych cech w klasie bazowej.
D. ochronie danych w klasie przed bezpośrednim dostępem spoza klasy.
Dziedziczenie w programowaniu obiektowym to naprawdę mocny mechanizm – moim zdaniem jeden z najważniejszych, jakie daje OOP. Pozwala na tworzenie nowych klas (czyli tzw. klas pochodnych) na bazie już istniejących (klas bazowych). W praktyce wygląda to tak, że klasa dziedzicząca przejmuje pola i metody po klasie bazowej, ale może je też rozszerzyć lub zmienić według potrzeb. To jest bardzo wygodne, gdy chcemy uniknąć powielania kodu – raz zdefiniowane cechy, np. w klasie 'Pojazd', mogą być potem wykorzystane przez klasy takie jak 'Samochód' czy 'Motocykl'. Co ciekawe, różne języki programowania podchodzą do tego trochę inaczej – na przykład w Javie nie ma wielodziedziczenia klas, ale są interfejsy, a w C++ już można dziedziczyć po wielu klasach naraz, choć to bywa ryzykowne. Branżowe praktyki zalecają, żeby nie przesadzać z głębokością dziedziczenia, bo to może zaciemniać kod i utrudnić jego utrzymanie. Lepiej wykorzystywać kompozycję, gdy tylko się da, ale dziedziczenie świetnie się sprawdza do modelowania hierarchii i wspólnych zachowań. W realnych projektach bardzo często widać, jak dziedziczenie oszczędza czas i pozwala programistom skupić się na nowych cechach, a nie przepisywaniu tego samego od zera.

Pytanie 6

Które działanie nie odnosi się do podstawowej funkcji komputera?

A. Przetwarzanie danych.
B. Dekodowanie rozkazów.
C. Przechowywanie danych.
D. Diagnostyka systemu.
Diagnostyka systemu faktycznie nie jest podstawową funkcją komputera – to raczej dodatkowa czynność, którą wykonują specjalistyczne programy albo sam użytkownik, kiedy coś zaczyna szwankować. Komputer z założenia został stworzony do przetwarzania danych, przechowywania informacji oraz do dekodowania rozkazów, czyli po prostu do wykonywania instrukcji, jakie mu wydamy. Diagnostyka to taka „kontrola stanu technicznego” – sprzęt i systemy operacyjne mają narzędzia, które potrafią wykryć i zdiagnozować błędy, ale to nie jest ich główna rola. Moim zdaniem, patrząc na standardowe klasyfikacje – np. na to, co jest nazywane cyklem przetwarzania informacji przez komputer (ang. information processing cycle) – zawsze wymienia się: wejście danych, przetwarzanie, wyjście i przechowywanie. Diagnostyka mogłaby się pojawić jako funkcja pomocnicza, no powiedzmy – coś jak przegląd techniczny, a nie silnik, który napędza auto. W praktyce, w firmach IT czy nawet w codziennym użytkowaniu, diagnostyka przydaje się głównie wtedy, gdy występują problemy, a nie podczas typowego działania systemu. Oczywiście, istnieją specjalne narzędzia do monitoringu i diagnostyki, ale są one uruchamiane na żądanie, a nie w ramach podstawowych procesów komputerowych. Warto zapamiętać, że podstawą działania każdego komputera jest przetwarzanie, dekodowanie i przechowywanie danych – reszta to już dodatki, które mają usprawnić pracę lub rozwiązać pojawiające się trudności.

Pytanie 7

W dokumentacji Medycznego Systemu Informatycznego zapisano, że „przed użyciem programów instalacyjnych należy się upewnić, że niektóre porty w środowisku są dostępne do użycia z instalowanym oprogramowaniem pośrednim.” W celu sprawdzenia dostępności portu należy użyć programu narzędziowego

A. tracert
B. ping
C. ipconfig
D. netstat
Netstat to jedno z tych narzędzi, które naprawdę warto znać, jeśli chodzi o sprawdzanie dostępności portów w systemie operacyjnym. Moim zdaniem, bez niego ciężko byłoby szybko ogarnąć, co się dzieje na poziomie komunikacji sieciowej. Netstat pozwala zobaczyć, które porty są obecnie otwarte, jakie programy ich używają oraz na jakie adresy nasłuchują. W praktyce wygląda to tak, że jeśli masz zainstalować jakieś oprogramowanie pośrednie (np. serwer bazodanowy albo aplikację middleware), to najpierw sprawdzasz, czy wymagany port nie jest już zajęty przez inny proces. Wpisujesz „netstat -a” albo „netstat -an” w konsoli i widzisz pełną listę aktywnych portów, zarówno TCP, jak i UDP. To bardzo pomaga uniknąć konfliktów, które później mogą prowadzić do dziwnych błędów czy braku komunikacji między usługami. Branżowe dobre praktyki wyraźnie mówią, że należy się upewnić, iż porty wymagane do działania nowego oprogramowania są wolne lub odpowiednio przekonfigurowane. Z mojego doświadczenia wynika, że netstat jest też niezastąpiony podczas analizy problemów z nieautoryzowanymi połączeniami albo diagnostyki wydajności. W wielu firmach to podstawa przy wdrażaniu i utrzymaniu systemów medycznych czy innych środowisk krytycznych. Warto też wiedzieć, że netstat jest dostępny niezależnie od wersji systemu Windows, a podobne narzędzia działają na Linuxie, więc ta wiedza przydaje się praktycznie wszędzie.

Pytanie 8

Jaki format danych należy zastosować do archiwizacji, kompresji i szyfrowania danych?

A. tga
B. tar
C. raw
D. rar
Format RAR to naprawdę dobry wybór, gdy zależy nam jednocześnie na archiwizacji, kompresji i szyfrowaniu danych. Moim zdaniem, jest to narzędzie bardzo wszechstronne, bo pozwala na tworzenie pojedynczych archiwów, które łatwo przesłać czy zarchiwizować, a przy okazji można je bardzo mocno skompresować. Co ciekawe, RAR umożliwia ustawienie solidnego hasła oraz szyfrowanie nie tylko samych plików, ale też nazw plików i struktury katalogów, co podnosi poziom bezpieczeństwa – to dość ważna sprawa choćby w firmach. Z mojego doświadczenia wynika, że RAR jest popularny nawet poza systemami Windows – sporo administratorów korzysta z narzędzia unrar na Linuksach. Warto też wspomnieć, że RAR przez lata zdobył uznanie dzięki stabilności, dobremu wsparciu dla dużych plików i obsłudze wieloczęściowych archiwów. Oczywiście, w użytku profesjonalnym stosuje się też ZIP czy 7z, ale RAR ciągle trzyma wysoki poziom jeśli chodzi o bezpieczeństwo oraz wygodę. W praktyce, kiedy mam do przesłania poufne dane, to właśnie ten format jest moim pierwszym wyborem – szczególnie tam, gdzie ważne jest zabezpieczenie przed nieautoryzowanym dostępem oraz ograniczenie rozmiaru plików. Warto pamiętać, że licencja na RAR nie jest open-source, ale w zastosowaniach komercyjnych i profesjonalnych to raczej nie jest przeszkoda, bo liczy się funkcjonalność i skuteczność zabezpieczeń.

Pytanie 9

W celu rejestracji promieniowania radioizotopu nagromadzonego w narządach stosowana jest

A. lampa kwarcowa.
B. lampa rentgenowska.
C. kamera gamma.
D. bomba kobaltowa.
Kamera gamma to naprawdę kluczowe narzędzie w medycynie nuklearnej, zwłaszcza jeśli chodzi o obrazowanie narządów po podaniu pacjentowi radioizotopu. Z jej pomocą można doskonale obserwować rozkład substancji promieniotwórczej w ciele, co daje lekarzom bardzo precyzyjny obraz funkcji narządów, na przykład serca, tarczycy albo nerek. Z moich obserwacji wynika, że kamera gamma to wręcz standard w diagnostyce scyntygraficznej – bez niej nie byłoby możliwe wykonanie takich badań jak scyntygrafia kości czy perfuzyjna scyntygrafia mięśnia sercowego. Fachowo rzecz biorąc, kamera gamma rejestruje promieniowanie gamma emitowane przez izotopy (na przykład technet-99m), które zostały wprowadzone do organizmu. Pozwala to na nieinwazyjne wykrywanie zmian chorobowych, takich jak ogniska zapalne czy guzy, często dużo wcześniej niż tradycyjne metody obrazowe. Praktyka pokazuje, że to rozwiązanie jest nie tylko skuteczne, ale też stosunkowo bezpieczne dla pacjenta, bo dawki promieniowania są optymalizowane zgodnie z normami i zaleceniami międzynarodowymi (np. IAEA, EANM). Moim zdaniem, umiejętność rozpoznania sprzętu wykorzystywanego do takiej diagnostyki to absolutna podstawa dla każdego, kto chce pracować w dziedzinie technik medycznych lub biomedycznych. Nawet jeśli ktoś nie widział jeszcze takiej kamery na żywo, warto już teraz wiedzieć, jak kluczowe są jej możliwości.

Pytanie 10

Moduł EKG do badań wysiłkowych został wyposażony w interfejs Bluetooth w celu przesyłania wyników badań. Aby połączyć moduł z stanowiskiem komputerowym, należy wybrać interfejs oznaczony symbolem

A. Symbol 3
Ilustracja do odpowiedzi A
B. Symbol 1
Ilustracja do odpowiedzi B
C. Symbol 4
Ilustracja do odpowiedzi C
D. Symbol 2
Ilustracja do odpowiedzi D
Symbol, który wybrałeś, to oficjalny znak Bluetooth – technologii bezprzewodowej, która umożliwia przesyłanie danych na krótkie odległości, np. między modułem EKG a komputerem. Ten symbol można spotkać praktycznie wszędzie, gdzie mamy do czynienia z łącznością Bluetooth, czyli chociażby w słuchawkach bezprzewodowych, myszkach komputerowych czy sprzęcie medycznym. W przypadku EKG, Bluetooth jest o tyle fajny, że pozwala na szybkie i wygodne przesyłanie wyników bez kabli, co według mnie bardzo ułatwia pracę w gabinecie czy laboratorium. Standard Bluetooth jest szeroko akceptowany w medycynie, bo spełnia określone normy bezpieczeństwa transmisji – oczywiście pod warunkiem odpowiedniego szyfrowania i konfiguracji urządzenia. Z doświadczenia wiem, że większość nowoczesnych systemów diagnostyki korzysta z tego standardu, bo jest po prostu praktyczny i uniwersalny. Jeżeli jeszcze nie miałeś okazji – polecam poćwiczyć parowanie urządzeń przez Bluetooth, bo w praktyce nieraz zdarza się, że trzeba szybko rozwiązać jakiś problem z łącznością. Tak na marginesie, warto wiedzieć, że Bluetooth działa na paśmie 2,4 GHz i ma różne klasy zasięgu – to czasem ma znaczenie przy rozmieszczeniu sprzętu w pracowni. Dla mnie wybór tego interfejsu to oczywista sprawa, patrząc na wygodę, szybkość i bezpieczeństwo transmisji danych.

Pytanie 11

Zabieg diametrii krótkofalowej powoduje

A. obniżenie pobudliwości nerwowo-mięśniowej.
B. zwężenie naczyń krwionośnych.
C. spowolnienie procesów metabolicznych.
D. spadek liczby leukocytów.
Zabieg diametrii krótkofalowej to jedna z form fizykoterapii, gdzie wykorzystuje się prądy o wysokiej częstotliwości w celu uzyskania efektów terapeutycznych, głównie głębokiego przegrzania tkanek. Podczas prawidłowo przeprowadzonego zabiegu, jednym z typowych efektów jest właśnie obniżenie pobudliwości nerwowo-mięśniowej. To oznacza, że mięśnie i nerwy stają się mniej wrażliwe na bodźce, co jest wykorzystywane na przykład przy różnego rodzaju stanach bólowych, napięciach mięśniowych albo przy leczeniu nerwobóli. Z mojego doświadczenia wynika, że diametralnie poprawia to komfort pacjenta z przewlekłymi zespołami bólowymi czy po urazach, gdzie nadmierna pobudliwość mięśni przeszkadza w rehabilitacji. Branżowe standardy (np. zalecenia Polskiego Towarzystwa Fizjoterapii) zalecają stosowanie tej metody przy schorzeniach takich jak zapalenia nerwów, neuralgie czy przykurcze mięśniowe właśnie z powodu tego efektu. Praktycznie rzecz biorąc, po dobrze poprowadzonej diametrii pacjenci często odczuwają mniejsze napięcie i większą swobodę ruchów. Warto wiedzieć, że ten efekt jest też powodem, dla którego diametrii nie stosuje się np. u osób z osłabioną czynnością nerwowo-mięśniową, bo mogłoby to pogłębić problem. Przy okazji, zabiegi te poprawiają ukrwienie i działają przeciwobrzękowo, ale ich kluczowym mechanizmem w kontekście pytania jest właśnie zmniejszenie pobudliwości nerwowo-mięśniowej. Fajnie znać takie praktyczne aspekty, bo potem łatwiej dobrać odpowiednią metodę do konkretnego przypadku.

Pytanie 12

Znak ~ na początku ciągu znaków w systemach uniksowych oznacza

A. plik tymczasowy.
B. katalog główny.
C. plik systemowy.
D. katalog domowy.
Znak ~ na początku ścieżki w systemach uniksowych to taki trochę skrót-klucz, który odwołuje się bezpośrednio do katalogu domowego użytkownika. W praktyce, jak wpiszesz np. cd ~ w terminalu, to od razu przenosi cię do twojego katalogu domowego – czyli miejsca, gdzie masz swoje dokumenty, konfiguracje, pulpit, pliki robocze i całą resztę rzeczy, za które odpowiadasz bezpośrednio jako użytkownik w systemie. To się sprawdza genialnie, bo nie musisz pamiętać czy katalog domowy to /home/jan, /Users/ania albo coś jeszcze innego – system sam wie, o którego użytkownika chodzi. Zresztą, jeśli chcesz wejść do katalogu domowego innego użytkownika, wpisujesz np. ~marek i terminal zabierze cię do /home/marek. W skryptach Bash i innych powłokach uniksowych to rozszerzanie znaku ~ na konkretną ścieżkę jest standardem od lat i praktycznie każdy administrator korzysta z tego automatycznie. To jeden z tych drobiazgów, które mega przyspieszają pracę na konsoli. Moim zdaniem, jak ktoś często korzysta z powłoki, to nie wyobraża sobie codziennej pracy bez tego symbolu. Ciekawe jest też to, że pliki tymczasowe i systemowe mają zupełnie inne notacje – tutaj ~ jest ściśle powiązany z profilem użytkownika i nie ma nic wspólnego z katalogiem głównym systemu, czyli /. Warto to zapamiętać.

Pytanie 13

Zestaw przedstawiony na rysunku przeznaczony jest do przeprowadzania testu aparatu

Ilustracja do pytania
A. RTG
B. KTG
C. EKG
D. EEG
Zestaw widoczny na zdjęciu to klasyczny przykład testera aparatu KTG, czyli kardiotokografu. To takie urządzenie, które wykorzystuje się przede wszystkim na oddziałach położniczych i ginekologicznych do monitorowania czynności serca płodu oraz skurczów macicy u kobiety ciężarnej. Tego typu tester pozwala na przeprowadzenie okresowej kontroli sprawności kardiotokografów, żeby mieć pewność, że pomiary są wiarygodne i bezpieczne dla pacjentek. Sam kardiotokograf jest bardzo ważny w praktyce klinicznej, bo dzięki niemu personel medyczny może szybko wykryć ewentualne nieprawidłowości w przebiegu ciąży, co w ostateczności może ratować życie dziecka lub matki. Z mojego doświadczenia wynika, że regularna kalibracja i testowanie KTG to już podstawa w nowoczesnych szpitalach – nikt nie chce ryzykować pracy na niesprawdzonym sprzęcie. Zestawy testujące mają często wbudowane standardowe sygnały testowe zgodne z normami ISO i wymaganiami producentów urządzeń medycznych, przez co można dość łatwo potwierdzić, czy dany aparat działa poprawnie. Naprawdę, jeśli ktoś myśli o pracy w serwisie sprzętu medycznego, to musi znać takie zestawy na wylot i kojarzyć, do których typów urządzeń są przeznaczone, bo pomyłka tutaj może mieć przykre skutki praktyczne.

Pytanie 14

Które polecenie SQL nie modyfikuje tabeli bazy danych?

A. INSERT
B. DELETE
C. SELECT
D. UPDATE
Polecenie SELECT w języku SQL służy wyłącznie do pobierania danych z bazy, nie wpływa na strukturę ani zawartość tabeli. To takie narzędzie, które pozwala wyciągnąć konkretne informacje, np. listę wszystkich pracowników albo produkty droższe niż 100 zł – wszystko bez jakiejkolwiek ingerencji w istniejące dane. To jest zgodne z zasadą rozdzielenia operacji odczytu od zapisu, co jest szczególnie doceniane w środowiskach produkcyjnych, gdzie bezpieczeństwo i integralność danych mają pierwszorzędne znaczenie. W praktyce programista, który chce tylko sprawdzić, ile rekordów spełnia dany warunek, nie powinien polegać na UPDATE, DELETE czy INSERT – te polecenia są przeznaczone do faktycznej modyfikacji bazy. Moim zdaniem to właśnie SELECT stanowi podstawę analizy danych i raportowania – spotkałem się z tym nawet w projektach, gdzie dostęp do tabeli ograniczał się tylko do SELECT dla większości użytkowników, żeby nie dopuścić do przypadkowych zmian. Co ciekawe, w standardzie SQL bardzo wyraźnie rozdziela się instrukcje DML (Data Manipulation Language, czyli UPDATE, INSERT, DELETE) od instrukcji tylko do odczytu, takich jak SELECT. Warto też pamiętać, że SELECT sam w sobie nie blokuje rekordów na czas odczytu, co zapewnia wydajność nawet przy wielu jednoczesnych zapytaniach – to duża zaleta w dynamicznych systemach.

Pytanie 15

Technologia OLED znajduje zastosowanie w

A. monitorach komputerowych.
B. nagrywarkach Blu-Ray.
C. kartach pamięci Secure Digital.
D. urządzeniach sieciowych.
OLED, czyli Organic Light Emitting Diode, to technologia wyświetlania obrazu, która naprawdę zrewolucjonizowała rynek monitorów komputerowych i telewizorów. Zamiast wykorzystywać podświetlenie LED, jak w klasycznych LCD, OLED pozwala na bezpośrednie świecenie każdego piksela. To daje rewelacyjną głębię czerni, bo piksel po prostu się wyłącza – nie świeci, nie pobiera energii, nie przepuszcza światła. Z mojego punktu widzenia największy plus to właśnie kontrast: w OLED-ach czarne jest naprawdę czarne, a kolory są mega żywe. Gracze i graficy bardzo często wybierają monitory z OLED, bo oprócz jakości obrazu mają one szybki czas reakcji – ważne przy dynamicznych grach czy montażu wideo. Często słyszy się, że OLED to też mniejsze zużycie energii, przynajmniej przy wyświetlaniu ciemnych treści. W branży panuje opinia, że OLED wyznacza standard nowoczesnych monitorów premium. Są tu też pewne wyzwania, np. wypalanie się pikseli przy statycznych obrazach, ale w praktyce, przy normalnym użytkowaniu i nowych technologiach zarządzania obrazem, nie jest to aż tak problematyczne, jak się kiedyś mówiło. Z ciekawostek: OLED stosuje się już nawet w wyświetlaczach do samochodów i najnowszych smartfonach, ale to właśnie monitory komputerowe są przykładem, gdzie ta technologia daje naprawdę zauważalną różnicę na co dzień. Szczerze mówiąc, jak ktoś raz popatrzy na monitor OLED, to potem ciężko wrócić do zwykłego LCD. Warto o tym pamiętać, szukając sprzętu do pracy z grafiką czy do gier.

Pytanie 16

Z przedstawionej dokumentacji pamięci wynika że jest ona przeznaczona do

rodzaj pamięci : SO-DIMM

standard : DDR3-1333 (PC3-10600)

pojemność pojedynczego modułu : 4 GB

A. komputerów stacjonarnych.
B. serwerów.
C. dysków przenośnych.
D. laptopów.
W tym pytaniu kluczowa sprawa to rozpoznanie typu pamięci SO-DIMM. Ten rodzaj modułu jest stosowany praktycznie wyłącznie w laptopach i urządzeniach o ograniczonej przestrzeni, takich jak niektóre mini-PC czy komputery typu all-in-one, ale głównie właśnie w notebookach. Moduły SO-DIMM (Small Outline Dual In-line Memory Module) są znacznie krótsze od standardowych DIMM-ów, które znajdziesz w zwykłych komputerach stacjonarnych. Standard DDR3-1333 (PC3-10600) to już trochę starszy typ pamięci, ale wciąż spotykany w starszych laptopach – nowe korzystają najczęściej z DDR4 lub obecnie nawet DDR5, jednak długo przez lata DDR3 był powszechnym wyborem. Moim zdaniem, jeśli pracujesz przy serwisie, zawsze warto najpierw sprawdzić właśnie ten typ złącza i format, bo to pozwala łatwo uniknąć podstawowego błędu przy zamawianiu części. Co ciekawe, serwery i komputery stacjonarne wykorzystują standardowe DIMM-y, które są większe i mają inną konstrukcję mechaniczną. W dyskach przenośnych pamięć RAM w formie SO-DIMM w ogóle nie występuje, bo tam raczej stosuje się kości NAND Flash. W praktyce – zawsze, gdy widzisz SO-DIMM, myśl o laptopach. To taka branżowa podpowiedź, która często się sprawdza w codziennej pracy technika.

Pytanie 17

Parametr CL (czas opóźnienia, jaki upływa między wysłaniem przez kontroler RAM żądania dostępu do kolumny pamięci a otrzymaniem danych z tej kolumny) jest wyrażany w

A. milisekundach.
B. liczbie bitów do odczytu.
C. sekundach.
D. liczbie cykli zegara.
Parametr CL, czyli tzw. CAS Latency, to jeden z ważniejszych parametrów opisujących wydajność pamięci RAM typu DRAM – zwłaszcza DDR. Określa on czas, jaki musi upłynąć od momentu wysłania przez kontroler pamięci polecenia odczytu danych z określonej kolumny do chwili, gdy dane pojawią się na wyjściu modułu RAM. Co ważne, nie wyraża się tego w sekundach czy milisekundach, tylko właśnie w liczbie cykli zegarowych. W praktyce im niższa wartość CL, tym szybszy dostęp do danych i lepsza responsywność komputera przy zadaniach wymagających szybkiej komunikacji z pamięcią operacyjną. Na przykład, jeśli pamięć RAM ma zapisane CL16, to oznacza, że potrzeba dokładnie 16 cykli zegara, aby dane zostały odczytane po wysłaniu żądania. Taką formę podawania parametrów znajdziesz nie tylko w dokumentacji technicznej, ale i na etykietach kości RAM, co bardzo ułatwia porównywanie wydajności różnych modułów. Z mojego doświadczenia, przy podkręcaniu RAM i przy budowie wydajnych stacji roboczych, to właśnie liczbę cykli zegara bierzemy pod uwagę – a nie absolutny czas w sekundach czy milisekundach, bo i tak wszystko kręci się wokół synchronizacji sygnałów zegarowych na płycie głównej. Warto też wiedzieć, że standardy JEDEC dla pamięci DDR jasno określają sposób prezentacji tych parametrów, a wszelkie narzędzia diagnostyczne (np. CPU-Z) także pokazują CL zawsze jako liczbę cykli. Także praktyka i teoria idą tutaj ręka w rękę.

Pytanie 18

Jakie jest przeznaczenie drukarki, której dotyczy zamieszczony fragment specyfikacji?

Głowica drukująca24-igłowa
Średnica przewodu0,2 mm
Kierunek drukuDwukierunkowe/bezkierunkowe drukowanie
Rozdzielczość grafikiMaks. 360 (wys.) x 360 (szer.) dpi
Szybkość drukowaniaHigh Speed Draft: 607 znaków/s, tryb Utility: 485 znaków/s, tryb Near Letter Quality: 245 znaków/s, Letter Quality: 165 znaków/s
Gęstość przesunięć wierszy4,23 mm (1/6"), 3,18 mm (1/8"), n x 0,42 mm (m/60") (m=0-127), n x 0,14 mm (n/180") (n=0-255), n x 0,12 mm (n/216") (n=0-255), n x 0,07 mm (n/360") (n=0-255)
Szybkość podajnika10 cali na sekundę
Pobieranie papieruRęczne (góra), traktor pchający (góra), traktor pchający (tył), traktor pchający (dół), podajnik pojedynczych arkuszy (tył)
Gęstość znakówHigh Speed Draft: 10,0 zn./cal 18,0 zn./cal
Jakość użytkowa: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20 zn./cal
Tryb Near Letter Quality: 10,0 zn./cal 12,0 zn./cal 15,0 zn./cal 17,1 zn./cal 20,0 zn./cal
Tryb Letter Quality: 10 zn./cal 12 zn./cal 15 zn./cal 17,1 zn./cal 20 zn./cal, proporcjonalnie
Szerokość druku136 zn./linia przy ANK 10 zn./cal
A. Drukowanie dokumentów w kolorze.
B. Drukowanie na papierze perforowanym.
C. Wykonywanie wydruków laserowych.
D. Nadruk opisów na płytach CD/DVD.
Specyfikacja opisuje drukarkę igłową wyposażoną w 24-igłową głowicę, co samo w sobie jest bardzo charakterystyczne dla urządzeń przeznaczonych do pracy z papierem ciągłym i perforowanym. Takie drukarki, mimo że są już trochę staroświeckie, to wciąż mają swoje miejsce w biurach, szczególnie tam, gdzie trzeba wydrukować kopie dokumentów jednocześnie (przez kalkę) albo korzysta się z papieru składankowego z perforacją. Moim zdaniem, największą zaletą takich drukarek jest niezawodność w środowiskach, gdzie laserówki czy atramentówki zawodzą – na przykład w magazynach, na produkcji, albo do wydruków faktur i dokumentów przewozowych. 24 igły w głowicy pozwalają na całkiem niezłą jakość wydruku tekstu, a różne tryby szybkości dają wybór między jakością a wydajnością. W ogóle, obecność traktora pchającego oraz możliwość podawania papieru „z dołu” i „z tyłu” to klasyka w pracy z papierem perforowanym. Z mojego doświadczenia wynika, że właśnie tam, gdzie trzeba drukować długie zestawienia albo raporty bez ciągłego dokładania papieru, taki sprzęt wygrywa. Współczesne drukarki laserowe nie poradzą sobie z papierem ciągłym, a drukarki do nadruku na CD/DVD czy kolorowe atramentówki to zupełnie inna bajka i inne zastosowania. Jeśli ktoś myśli o pracy z dokumentami wielowarstwowymi albo wydrukami archiwalnymi, to takie igłówki są nadal bezkonkurencyjne. Po prostu, nie do zdarcia sprzęt do specyficznych, ciągłych zastosowań.

Pytanie 19

Elementem sieci komputerowej w topologii gwiazdy, pozwalającym przyłączyć wiele urządzeń sieciowych, jest

A. konwerter.
B. repeater.
C. przełącznik.
D. modem.
W topologii gwiazdy sercem sieci jest właśnie przełącznik, czyli switch. To urządzenie odpowiada za przyłączanie wielu komputerów lub innych sprzętów sieciowych w taki sposób, że każde z nich komunikuje się z przełącznikiem osobnym przewodem. Dzięki temu nie powstają niepotrzebne kolizje danych, a każdy host może przesyłać i odbierać informacje optymalnie szybko. W nowoczesnych sieciach LAN praktycznie wszędzie stosuje się przełączniki, bo są one nie tylko wydajne, ale też umożliwiają stworzenie naprawdę rozbudowanych infrastruktur – można podłączać komputery, drukarki, access pointy czy serwery, a wszystko jest administrowane centralnie. Moim zdaniem trudno sobie wyobrazić profesjonalną sieć w biurze czy szkole bez przełącznika jako centrum. Warto też wiedzieć, że przełączniki pracują głównie w warstwie drugiej modelu OSI (łącza danych), chociaż są zaawansowane modele, które obsługują nawet routowanie (L3). Dobre praktyki branżowe mówią, żeby nie mieszać przełączników z hubami, bo te drugie nie potrafią inteligentnie kierować ruchem – a przełącznik analizuje MAC adresy i przesyła ramki tylko tam, gdzie trzeba. Praktycznym przykładem jest sytuacja, gdy w pracowni komputerowej trzeba szybko przesłać duży plik – dzięki przełącznikowi transfer odbywa się bez zakłóceń na linii nadawca-odbiorca, a reszta użytkowników nie odczuwa spowolnienia. Takie rozwiązanie daje też dużą elastyczność przy rozbudowie sieci. Z mojego doświadczenia wynika, że wybór dobrego przełącznika na początek to inwestycja, która się naprawdę opłaca.

Pytanie 20

W którym standardzie jest wykonane zakończenie przewodu sieciowego przedstawione na rysunku?

1. White Orange5. White Blue
2. Orange6. Green
3. White Green7. White Brown
4. Blue8. Brown
Ilustracja do pytania
A. T568B
B. T56D
C. T568A
D. T56C
Zakończenie przewodu sieciowego pokazane na rysunku odpowiada standardowi T568B, który jest jednym z dwóch najpowszechniej stosowanych schematów kablowania dla przewodów typu skrętka kategorii 5e czy 6, czyli popularnych kabli ethernetowych. W T568B kolejność żył od lewej to: biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony, biało-brązowy, brązowy. To dokładnie zgadza się z przedstawionym schematem. Co ciekawe, standard T568B jest szczególnie popularny w sieciach komercyjnych i biurowych w Polsce i na świecie, bo historycznie lepiej pasował do starszych instalacji telefonicznych w USA. W praktyce, jeśli montujesz nowe gniazda czy patchpanele, bardzo często spotkasz się właśnie z tym standardem – łatwiej wtedy uniknąć zamieszania i błędów przy łączeniu infrastruktury. Moim zdaniem warto zapamiętać ten układ, bo odwrócenie choćby jednej pary może skutkować brakiem połączenia albo niestabilnością sieci. Warto też wiedzieć, że zarówno T568A, jak i T568B są równoważne pod względem parametrów transmisyjnych, ale nie wolno ich mieszać po dwóch stronach jednego kabla, jeśli nie chcemy wykonać tzw. kabla krosowanego (cross-over), który służy do bezpośredniego łączenia dwóch komputerów bez switcha czy routera. Ten temat często pojawia się też na egzaminach zawodowych, więc dobrze znać rozkład kolorów na pamięć!

Pytanie 21

Dla której wartości z wymienionych rezystancji, zastosowanie układu poprawnie mierzonego prądu zapewnia najmniejszy błąd pomiaru?

A. 10 MW
B. 10 kW
C. 10 kₖW
D. 10 W
Wybór rezystancji o wartości 10 megaomów (10 MW) to zdecydowanie najlepsza opcja, jeśli chodzi o minimalizowanie błędu pomiaru prądu w układzie. Chodzi o to, że dla tak dużej rezystancji wpływ bocznika ampera (czyli wewnętrznej rezystancji miernika) na wynik staje się praktycznie pomijalny. Im wyższa rezystancja badanego elementu, tym mniejszy prąd płynie przez obwód – a to oznacza, że współudział miernika w całości układu jest minimalny. W praktyce stosuje się to m.in. podczas testowania bardzo czułych podzespołów elektronicznych, na przykład rezystorów precyzyjnych czy izolatorów. Przypadki z wysokimi rezystancjami pojawiają się też przy pomiarach upływności kabli, w testach izolacji lub w pomiarach na wejściach urządzeń pomiarowych o bardzo dużej impedancji wejściowej. Z mojego doświadczenia wynika, że przy wysokich rezystancjach zawsze warto zadbać o odpowiednią klasę miernika – najlepiej, gdy ma on niską upływność własną i solidne ekranowanie. To bardzo ważne, bo przy takich wartościach nawet drobne błędy pomiarowe czy zakłócenia mogą mieć spory wpływ na wiarygodność wyniku. Dobrą praktyką jest też stosowanie przewodów o wysokiej rezystancji izolacji, a miernik najlepiej kalibrować przed każdym ważniejszym pomiarem. Standardy branżowe, np. IEC 61010, jasno mówią o konieczności minimalizowania wpływu układu pomiarowego na badany obiekt – i właśnie dlatego wybór 10 MW jest tutaj optymalny.

Pytanie 22

W programowaniu, aby przerwać wykonywanie pętli i wyjść z niej, należy użyć polecenia

A. return
B. break
C. yield
D. continue
Polecenie break w programowaniu służy do natychmiastowego przerwania działania pętli, niezależnie od tego, czy warunek pętli został już spełniony. Gdy interpreter lub kompilator natrafi na break wewnątrz pętli (czy to for, while albo do-while), od razu wychodzi z danej pętli i wykonuje dalszy kod za nią. To narzędzie jest bardzo przydatne, gdy chcemy np. przerwać przeszukiwanie tablicy po odnalezieniu pierwszego pasującego elementu albo gdy pojawia się błąd, który wymaga opuszczenia pętli. W językach takich jak C, C++, Java czy Python break jest powszechnie używany i uznawany za standardowe rozwiązanie w takich sytuacjach. Moim zdaniem, umiejętność rozpoznania kiedy zastosować break a kiedy wystarczy naturalne zakończenie pętli, to ważny element pisania czytelnego i efektywnego kodu. Dobrą praktyką jest jednak korzystanie z break z umiarem, by nie robić z pętli „spaghetti code”, bo łatwo wtedy zgubić logikę programu. Osobiście często spotkałem się z przypadkami, gdzie break pozwala znacząco uprościć kod i zwiększyć jego czytelność, zwłaszcza w przypadku bardziej złożonych warunków zatrzymania.

Pytanie 23

W dokumencie urządzenia elektroniki medycznej podano następujące informacje:

Interfejs obrazu DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s. • Szybkość przesyłania obrazów: 2 MB/s.

Interfejs RIS/CIS zgodny z DICOM • Maksymalna szybkość przesyłania wg standardu Ethernet: 100 Mb/s.


Wymienione interfejsy dotyczą aparatu
A. EEG
B. KTG
C. EKG
D. RTG
W tym pytaniu chodzi głównie o rozumienie, jakie urządzenia medyczne korzystają ze standardu DICOM i zaawansowanych interfejsów przesyłania obrazów. Standard DICOM (Digital Imaging and Communications in Medicine) to podstawa w radiologii — zapewnia bezpieczną i szybką wymianę obrazów medycznych, szczególnie z takich urządzeń jak aparaty RTG, tomografy komputerowe czy rezonanse magnetyczne. Prędkość przesyłu 2 MB/s oraz obsługa sieci Ethernet 100 Mb/s wskazują, że mamy do czynienia z urządzeniem generującym duże pliki graficzne, czyli właśnie aparatem RTG. W praktyce w szpitalach i pracowniach diagnostycznych cała komunikacja między sprzętem diagnostycznym i systemami archiwizacji (PACS) odbywa się przez DICOM. To jest branżowy standard, bo gwarantuje kompatybilność i bezpieczeństwo przesyłania danych. Moim zdaniem, jeśli ktoś miał okazję zobaczyć, jak wygląda przesyłanie zdjęć RTG w realnych warunkach, to doceni, jak ważna jest tu wydajność sieci. Dla kontrastu — EKG, KTG czy EEG generują głównie dane tekstowe lub proste wykresy, gdzie niepotrzebna jest aż taka przepustowość i zaawansowane standardy wymiany obrazów. Warto wiedzieć, że RIS/CIS (czyli systemy informatyczne obsługujące pracę placówek medycznych) często integrują się z DICOM, żeby automatycznie podłączać opisy badań do obrazów. To jest właśnie przykład praktycznego wykorzystania tej technologii na co dzień, nie tylko na papierze.

Pytanie 24

Fale mózgowe alfa, beta, gamma, delta i theta są rejestrowane w

A. scyntygramie.
B. renogramie.
C. elektroencefalogramie.
D. elektrokardiogramie.
Fale mózgowe, takie jak alfa, beta, gamma, delta i theta, są zapisywane przy użyciu elektroencefalogramu, czyli EEG. To jest standardowa metoda monitorowania aktywności elektrycznej mózgu. W praktyce EEG wykorzystuje się do diagnozowania różnych schorzeń neurologicznych, np. padaczki, zaburzeń snu, czy też uszkodzeń mózgu po urazach. Osobiście uważam, że EEG jest jednym z ciekawszych narzędzi w neurofizjologii, bo pozwala zobaczyć dosłownie pracę mózgu na żywo. Z mojego doświadczenia wynika, że interpretacja fal wymaga trochę wprawy – np. fale alfa najczęściej pojawiają się u relaksujących się osób z zamkniętymi oczami, a beta dominują podczas aktywności umysłowej czy stresu. Fale theta i delta są charakterystyczne dla głębokiego snu albo niektórych zaburzeń. EEG jest też wykorzystywane w badaniach naukowych, np. przy mapowaniu funkcjonalnym kory mózgowej. W praktyce klinicznej elektroencefalografia jest absolutnym standardem, a jej wyniki pomagają lekarzom podjąć decyzje terapeutyczne. Warto pamiętać, że żadne inne badanie z listy nie zarejestruje tych fal – to taka wiedza, która serio przydaje się, jeśli pracuje się w ochronie zdrowia albo naukach o człowieku.

Pytanie 25

Którą metodę montażu należy zastosować w celu zakończenia przewodu zasilającego końcówkami przedstawionymi na fotografii?

Ilustracja do pytania
A. Skręcanie.
B. Lutowanie.
C. Zaciskanie.
D. Zgrzewanie.
Do zakończenia przewodu zasilającego końcówkami pokazanymi na zdjęciu najbardziej właściwa i powszechnie stosowana jest metoda zaciskania, czyli tzw. crimpowanie. Takie końcówki – popularne oczkowe tuleje kablowe – zostały zaprojektowane właśnie z myślą o zaciskaniu specjalnymi szczypcami lub praskami hydrauliczno-mechanicznymi. Dzięki temu uzyskuje się trwałe, odporne na drgania i obciążenia mechaniczne połączenie, które gwarantuje niską rezystancję styków i bezpieczeństwo nawet przy dużych prądach. Z mojego doświadczenia wynika, że solidnie zaciśnięta końcówka praktycznie eliminuje ryzyko przegrzewania się złącza czy przypadkowego wysunięcia się przewodu spod śruby. Warto wspomnieć, że zgodnie z normami – choćby PN-EN 61238-1 – metoda zaciskania jest zalecana przy pracach elektroinstalacyjnych w przemyśle oraz energetyce. Branża elektryczna jednoznacznie uznaje zaciskanie za najbezpieczniejsze rozwiązanie dla przewodów o większych przekrojach, gdzie lutowanie czy skręcanie byłyby nie tylko niepraktyczne, ale też niezgodne z zaleceniami producentów końcówek. Praktyka pokazuje, że poprawnie zaciśnięta końcówka w dużej mierze decyduje o żywotności całego układu zasilającego, a stosowanie certyfikowanych narzędzi jest po prostu inwestycją w bezpieczeństwo i niezawodność.

Pytanie 26

Narzędzie przedstawione na rysunku służy do

Ilustracja do pytania
A. znakowania przewodów.
B. wykonywania połączeń nitowanych.
C. sprawdzania grubości izolacji.
D. zaciskania wtyków na przewodach.
To narzędzie, które widzisz na zdjęciu, to klasyczna zaciskarka do wtyków, często nazywana też crimperem. Służy ona głównie do zaciskania końcówek na przewodach, najczęściej używa się jej do złączy typu RJ-45 czy RJ-11 – czyli przy tworzeniu przewodów sieciowych lub telefonicznych. Moim zdaniem to jest taki must-have każdego, kto na poważnie podchodzi do okablowania sieciowego czy drobnych napraw w domu, bo pozwala zrobić profesjonalne połączenie bez kombinowania i ryzyka, że kabel będzie się rozłączał. Co ważne, prawidłowo zaciśnięty wtyk to nie tylko stabilność mechaniczna, ale też pewność dobrego kontaktu elektrycznego, a to ma kolosalne znaczenie przy transmisji danych. Dobre praktyki branżowe, np. wg standardów EIA/TIA, zalecają właśnie korzystanie z zaciskarek, bo tylko one gwarantują powtarzalną jakość połączeń, której nie osiągnie się np. śrubokrętem czy kombinerkami. Z mojego doświadczenia wynika też, że warto regularnie sprawdzać stan zaciskarki, bo zużyte szczęki mogą uszkodzić przewód. Podsumowując, narzędzie to jest dedykowane do zaciskania wtyków na przewodach i to właśnie dzięki niemu przewody sieciowe czy telefoniczne działają niezawodnie przez lata.

Pytanie 27

W sieci centralnego monitoringu zamontowane są gniazda przedstawione na rysunku. Jakiego typu wtykami muszą być zakończone kable?

Ilustracja do pytania
A. USB
B. DVI
C. HDMI
D. RJ45
Gniazdo widoczne na zdjęciu to klasyczne złącze RJ45, stosowane praktycznie we wszystkich instalacjach sieci komputerowych – zarówno w budynkach biurowych, jak i w systemach monitoringu wizyjnego. RJ45 to standardowy interfejs dla przewodów typu skrętka, wykorzystywanych w transmisji danych w sieciach Ethernet. W centralnym monitoringu właśnie te złącza stosuje się najczęściej do podłączania kamer IP oraz urządzeń sieciowych — jest to rozwiązanie stabilne, odporne na zakłócenia i umożliwiające zasilanie urządzeń przez PoE (Power over Ethernet), co znacznie upraszcza instalację. Moim zdaniem trudno wskazać lepszą alternatywę pod względem uniwersalności i niezawodności. Warto pamiętać, że RJ45 nie tylko zapewnia wysoką przepustowość (nawet do 10 Gb/s w nowoczesnych sieciach), ale również jest zgodne ze standardami TIA/EIA-568. Branżowa praktyka pokazuje, że w systemach bezpieczeństwa i telewizji przemysłowej rozwiązania na bazie RJ45 to już niemal standard de facto. Jeśli ktoś myśli o instalacjach na lata, to zdecydowanie polecam stawiać właśnie na takie okablowanie.

Pytanie 28

Aby karta sieciowa automatycznie uzyskiwała adres IP, ruter musi mieć włączony serwer

Ilustracja do pytania
A. TCP/IP
B. SSH
C. SMTP
D. DHCP
Odpowiedź DHCP jest jak najbardziej trafiona, bo to właśnie Dynamic Host Configuration Protocol odpowiada za automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Moim zdaniem, to ogromne ułatwienie, zwłaszcza gdy w sieci mamy kilkanaście czy kilkadziesiąt urządzeń – ręczne wpisywanie adresów IP byłoby uciążliwe, a przy tym łatwo o pomyłki. DHCP działa na zasadzie wynajmowania adresów IP na określony czas, czyli tzw. dzierżawy (lease). Dzięki temu urządzenia połączone z siecią „dogadują się” z serwerem DHCP – najczęściej właśnie routerem – i otrzymują wszystkie niezbędne dane: IP, maskę podsieci, bramę domyślną, a nawet adresy DNS. To jest zgodne z zaleceniami m.in. RFC 2131, gdzie znajdziesz opis standardu. W praktyce, niemal każdy nowoczesny router domowy czy firmowy ma opcję serwera DHCP włączoną domyślnie. Co ciekawe, dobrze skonfigurowany DHCP pozwala też na rezerwacje adresów IP dla określonych urządzeń, co pomaga np. w zarządzaniu drukarkami sieciowymi albo serwerami. Z mojego doświadczenia wynika, że bez DHCP w większych sieciach często dochodzi do konfliktów adresów lub zwyczajnego bałaganu. Dlatego zdecydowanie warto znać tę usługę, bo jej prawidłowa konfiguracja to podstawa pracy administratora sieci.

Pytanie 29

Procesor GPU jest odpowiedzialny za wykonywanie operacji obliczeniowych w karcie

A. graficznej.
B. sieciowej.
C. dźwiękowej.
D. telewizyjnej.
GPU, czyli procesor graficzny, to kluczowy element każdej karty graficznej. Jego głównym zadaniem jest wykonywanie bardzo złożonych obliczeń związanych z generowaniem obrazu, przetwarzaniem grafiki 2D i 3D oraz obsługą efektów wizualnych. W praktyce to właśnie GPU odpowiada za płynność animacji w grach komputerowych, renderowanie grafiki w profesjonalnych programach typu CAD czy Adobe Premiere, a także za przyspieszenie obliczeń w zastosowaniach naukowych jak uczenie maszynowe czy symulacje fizyczne. Moim zdaniem, to jeden z najbardziej fascynujących układów, bo jego wydajność bezpośrednio przekłada się na komfort pracy z multimediami i aplikacjami inżynierskimi. Standardem branżowym jest dziś stosowanie dedykowanych kart graficznych w komputerach przeznaczonych do gier czy pracy kreatywnej, ale nawet w laptopach czy smartfonach znajdziesz zintegrowane GPU. Ciekawostką jest, że architektura procesorów graficznych pozwala na równoległe wykonywanie tysięcy operacji, co znacząco odróżnia je od klasycznych CPU. GPU mają własne standardy, np. OpenGL czy DirectX, które definiują sposoby komunikacji z oprogramowaniem. Z mojego doświadczenia, znajomość działania GPU bardzo się przydaje przy optymalizacji grafiki i rozwiązywaniu problemów z wydajnością komputera.

Pytanie 30

Który system plików jest dedykowany systemowi Linux oraz nie jest używany w systemie Windows?

A. FAT16
B. FAT32
C. EXT4
D. NTFS
EXT4 to system plików stworzony specjalnie z myślą o Linuksie i na dziś chyba najczęściej wybierany podczas instalacji większości dystrybucji, przynajmniej z tych bardziej popularnych. EXT4, czyli Fourth Extended File System, jest uznawany za stabilny, bardzo wydajny i bezpieczny – w codziennym użytkowaniu trudno go czymś zaskoczyć. Z mojego doświadczenia wynika, że jeśli ktoś instaluje Ubuntu, Debiana, czy nawet Arch Linux, to niemal na pewno decyduje się właśnie na EXT4, bo to taka złota reguła w świecie Linuksa. Co ciekawe, EXT4 nie jest obsługiwany natywnie przez Windows – nawet najnowsze wersje tego systemu nie potrafią w prosty sposób odczytać czy zapisać danych na partycji EXT4 bez specjalnych narzędzi zewnętrznych, które na dodatek bywają zawodne. Praktyka pokazuje, że do backupów, serwerów czy laptopów z Linuksem EXT4 po prostu się sprawdza – nie ma problemów z fragmentacją, obsługuje bardzo duże pliki, a dziennikowanie gwarantuje bezpieczeństwo danych. Tak naprawdę, EXT4 to niejako branżowy standard pod Linuksa. Dobrą praktyką jest korzystanie z tego systemu plików przy instalacji Linuksa, jeśli nie planujesz współdzielić partycji z Windowsem. Trochę szkoda, że Microsoft nie zaimplementował obsługi EXT4 na stałe, ale może to się zmieni w przyszłości – na razie EXT4 jest domeną Linuksa i to chyba się nie zmieni szybko.

Pytanie 31

Które badanie endoskopowe należy wykorzystać do wizualizacji jamy stawu?

A. Duodenoskopię.
B. Cystoskopię.
C. Artroskopię.
D. Kolonoskopię.
Artroskopia to naprawdę świetny przykład tego, jak technologia potrafi zrewolucjonizować diagnostykę i leczenie schorzeń układu ruchu. Ten zabieg polega na wprowadzeniu do jamy stawowej specjalnego narzędzia z kamerą, czyli artroskopu. Pozwala to lekarzowi dokładnie obejrzeć wnętrze stawu – powierzchnie chrzęstne, więzadła, błonę maziową, a czasem nawet fragmenty kości. W praktyce wykorzystuje się artroskopię nie tylko do diagnostyki, gdy pacjent ma np. uporczywy ból czy obrzęk stawu, ale też w celach terapeutycznych – można podczas jednego zabiegu usunąć uszkodzoną łękotkę, zszyć więzadła czy wyłuszczyć ciała obce. W ortopedii artroskopia kolana, barku lub stawu skokowego to już właściwie standard i nikt nie wyobraża sobie współczesnej medycyny bez tej techniki. Moim zdaniem najważniejsze jest to, że artroskopia jest małoinwazyjna, więc rekonwalescencja trwa krócej i ryzyko powikłań jest mniejsze niż przy tradycyjnym otwieraniu stawu. Co ciekawe, coraz częściej wykorzystuje się ją też w medycynie sportowej – szybka diagnostyka i naprawa urazów pozwala zawodnikom wracać do formy w ekspresowym tempie. Jeśli chcesz poznać szczegóły, polecam przejrzeć zalecenia Polskiego Towarzystwa Ortopedycznego – artroskopia jest tam szeroko opisana jako metoda z wyboru przy wielu schorzeniach stawów. Takie rozwiązania to przyszłość medycyny, serio.

Pytanie 32

Pod wpływem zwiększenia natężenia promieniowania widzialnego (bodźca świetlnego) źrenica zdrowego oka ludzkiego

A. rozszerza się.
B. zwęża się.
C. ciemnieje.
D. jaśnieje.
Źrenica ludzkiego oka reaguje na natężenie światła poprzez odruch źreniczny. Im więcej światła dostaje się do oka, tym mocniej zwęża się źrenica – to taki naturalny „automat” organizmu, dzięki któremu nie dochodzi do uszkodzenia siatkówki przez zbyt silne światło. Za to zwężenie odpowiada zwieracz źrenicy, czyli mięsień okrężny sterowany przez układ przywspółczulny. To bardzo ważny mechanizm ochronny, często wykorzystywany w praktyce np. podczas badania odruchów neurologicznych (tzw. test światła latarką). Moim zdaniem warto pamiętać, że to nie tylko czysta biologia, ale też podstawa działania wszelkich systemów optycznych, gdzie trzeba kontrolować ilość światła – podobnie jak w aparatach fotograficznych regulujemy przesłonę. Bez tej regulacji ludzkie oko bardzo szybko by się męczyło, a czasem nawet ulegało trwałym uszkodzeniom. Warto zauważyć, że w praktyce diagnostycznej zwężenie źrenicy po naświetleniu jest jednym z najważniejszych testów przy ocenie stanu neurologicznego pacjenta zgodnie z dobrymi praktykami medycznymi i standardami ratownictwa medycznego.

Pytanie 33

Który system bazodanowy uniemożliwia bezpłatne zastosowanie komercyjne?

A. PostgreSQL
B. Oracle
C. Firebird
D. MySQL
Oracle faktycznie uniemożliwia bezpłatne zastosowanie w celach komercyjnych i to jest dość znany temat w branży IT. Korzystanie z tego systemu bazodanowego w firmie, która na przykład świadczy usługi dla klientów albo prowadzi własny sklep internetowy, wymaga wykupienia odpowiedniej licencji. Licencjonowanie Oracle jest trochę zagmatwane, bo są tam różne opcje: per user, per processor, no i do tego dochodzi wsparcie techniczne. Co ciekawe, do nauki czy testów jest dostępna wersja Oracle XE (Express Edition), która jednak ma sporo ograniczeń i wyraźnie nie wolno jej używać komercyjnie – producent zresztą tego pilnuje, a łamanie postanowień licencyjnych może się skończyć dość nieprzyjemnie, nawet finansowo. W praktyce wiele dużych przedsiębiorstw korzysta z Oracle, bo system oferuje niesamowite możliwości skalowania, bezpieczeństwo na bardzo wysokim poziomie i wsparcie dla zaawansowanych scenariuszy. Ale jeśli ktoś prowadzi mały start-up albo projekt open-source, to Oracle raczej odpada ze względu na koszty. Moim zdaniem warto znać ograniczenia licencyjne i czytać dokładnie dokumentację licencyjną, bo w czasach audytów software’owych to już nie jest tylko teoria – firmy faktycznie tego pilnują. Co ciekawe, takie restrykcje licencyjne są jedną z przyczyn, dla których projekty open-source tak mocno zyskały popularność – tam nie trzeba się zastanawiać, czy wolno korzystać z bazy w celach zarobkowych.

Pytanie 34

Na rysunku przedstawiono urządzenie z dodatkową kartą pamięci. Który rodzaj karty może zostać zastosowany w urządzeniu?

Ilustracja do pytania
A. SIM
B. Micro SIM
C. SD
D. Micro SD
Wybrałeś micro SD i to jest trafiony wybór, bo właśnie takie karty są najczęściej stosowane w urządzeniach przenośnych, jak smartfony, tablety czy aparaty cyfrowe. Z mojego doświadczenia wynika, że micro SD to taki złoty standard wśród rozszerzeń pamięci – są małe, pojemne i bardzo uniwersalne. Karty typu micro SD spełniają standardy SD Association, co gwarantuje kompatybilność z większością nowych urządzeń. W praktyce, pozwalają przechowywać zdjęcia, filmy, aplikacje czy nawet całe kopie zapasowe systemu. Warto wiedzieć, że dobre praktyki branżowe zalecają korzystanie z kart micro SD renomowanych producentów, bo podróbki potrafią sprawiać masę problemów – od utraty danych po uszkodzenie sprzętu. Współczesne karty micro SD obsługują różne klasy prędkości (np. UHS-I, UHS-II), a to ma spore znaczenie, jeśli pracujesz z nagraniami wideo w wysokiej rozdzielczości albo często przenosisz pliki. Moim zdaniem, jeśli ktoś myśli o rozbudowie pamięci, micro SD to przemyślany i elastyczny wybór, który daje sporo swobody, nie generując przy tym dużych kosztów. Niektórzy mylą pojęcia, bo sloty mogą wyglądać podobnie do slotów SIM, ale karty micro SD są dedykowane tylko do przechowywania danych, nie mają nic wspólnego z obsługą sieci GSM. Ważne też, żeby nie zapominać o bezpiecznym wyjmowaniu karty – to niby banał, ale niewłaściwe wyjmowanie może skutkować utratą plików. Takie szczegóły właśnie robią różnicę między amatorskim, a profesjonalnym podejściem do sprzętu.

Pytanie 35

Która usługa serwera przydziela adresy IP komputerom w sieci LAN?

A. FTP
B. DHCP
C. DNS
D. OPC
DHCP to zupełnie podstawowa usługa w każdej, nawet średnio zaawansowanej sieci lokalnej. Działa ona na zasadzie automatycznego przydzielania adresów IP, masek podsieci, bram domyślnych czy adresów serwerów DNS klientom w sieci lokalnej (LAN). Dzięki temu nie trzeba ręcznie konfigurować adresów na każdym komputerze – wystarczy, że urządzenie zostanie podłączone do sieci, a serwer DHCP rozpozna je i „poda” mu właściwe ustawienia sieciowe. To strasznie wygodne, szczególnie w dużych firmach, szkołach czy nawet domach, gdzie czasem jest mnóstwo urządzeń. Poza tym DHCP ułatwia zarządzanie, bo jeśli trzeba coś zmienić (np. bramę domyślną), wystarczy edytować ustawienia na serwerze, a klienci pobiorą je automatycznie. W praktyce to już standard – nawet tanie routery domowe mają wbudowany serwer DHCP. Protokół ten opisuje RFC 2131, a jego wdrożenie zgodne z najlepszymi praktykami pozwala uniknąć konfliktów adresów IP i usprawnia zarządzanie całym środowiskiem sieciowym. Moim zdaniem, bez DHCP sieci stają się dużo bardziej kłopotliwe w utrzymaniu, zwłaszcza jak ktoś często zmienia sprzęt lub go dodaje. Warto znać zasady jego działania oraz podstawowe ustawienia, bo spotkasz się z tym praktycznie wszędzie tam, gdzie jest więcej niż jeden komputer podłączony do sieci.

Pytanie 36

Aby uruchomić w systemie linux program nazwa.py, należy wpisać

A. ./nazwa.py
B. nazwa.py
C. ./nazwa.py
D. .\nazwa.py
Wielu początkujących użytkowników systemów uniksowych zakłada, że do uruchomienia programu wystarczy wpisać po prostu jego nazwę, jak np. 'nazwa.py'. Jednak w systemach takich jak Linux, katalog bieżący (czyli „.”) nie jest automatycznie przeszukiwany w poszukiwaniu plików wykonywalnych – wynika to z zasad bezpieczeństwa, które uniemożliwiają przypadkowe uruchomienie nieznanych plików. Próba wpisania 'nazwa.py' bez żadnego przedrostka kończy się więc zwykle komunikatem o braku polecenia, ponieważ powłoka szuka tego pliku jedynie w katalogach wpisanych w zmiennej PATH. Z kolei zapis '.\nazwa.py' jest charakterystyczny raczej dla systemu Windows niż dla Linuksa – w Linuksie ukośnik odwrotny (backslash) nie pełni takiej roli jak w Windowsie i taka ścieżka nie zadziała. Często spotykam się z tym, że ludzie próbują przenosić nawyki z Windowsa do Linuksa i wpisują ścieżki w nieodpowiednim formacie, co prowadzi tylko do frustracji. W praktyce, jeżeli nie dodasz ./ przed nazwą pliku, shell nie będzie wiedział, że chodzi o plik w bieżącym katalogu. Dobrą praktyką jest też zawsze sprawdzić, czy plik ma uprawnienia do wykonywania (chmod +x), bo bez tego nawet poprawna ścieżka nie pomoże. Trzeba pamiętać, że Linux rozróżnia wielkość liter i jest bardzo konsekwentny w kwestii ścieżek – taki drobny błąd jak pomylenie ukośników czy zapomnienie o ./ potrafi skutecznie zablokować uruchomienie programu. Warto też od razu wyrobić sobie nawyk sprawdzania shebanga w skryptach, bo to on definiuje, czym powinien być uruchamiany dany plik. Jeżeli jednak uruchamiasz skrypt przez interpreter, np. python3 nazwa.py, to nie musisz dodawać ./ przed nazwą, bo wtedy interpreter sam sobie radzi z wyszukaniem pliku. Ale jeśli chcesz uruchamiać bezpośrednio, to tylko ./nazwa.py jest poprawne w Linuksie, zgodnie z tym jak działa shell i standardy systemów uniksowych.

Pytanie 37

Usterka programowa uniemożliwia uruchomienie systemu Windows. W celu diagnozy i usunięcia usterki wskazane jest

A. uruchomienie programu do defragmentacji dysku HDD.
B. uruchomienie komputera w trybie awaryjnym.
C. przeprowadzenie diagnostyki podzespołów.
D. przeinstalowanie systemu Windows.
Uruchomienie komputera w trybie awaryjnym to zdecydowanie najbardziej sensowny krok przy diagnozowaniu usterki programowej, która uniemożliwia start systemu Windows. Tryb awaryjny to specjalny tryb pracy systemu, który ładuje tylko podstawowe sterowniki i minimalny zestaw usług niezbędnych do funkcjonowania Windowsa. Z mojego doświadczenia wynika, że właśnie w ten sposób najłatwiej jest zidentyfikować, czy problem powoduje na przykład wadliwy sterownik, konflikt oprogramowania czy może uszkodzony plik systemowy. W trybie awaryjnym użytkownik może przeprowadzić naprawę systemu poprzez narzędzia typu Przywracanie systemu, usunąć niedawno zainstalowane oprogramowanie lub nawet wycofać aktualizacje, które mogły spowodować awarię. W praktyce, bardzo często to właśnie ten tryb pozwala dotrzeć do przyczyny problemu bez ryzyka dalszego uszkodzenia systemu. Branżowe standardy IT jednoznacznie wskazują, że rozpoczęcie od trybu awaryjnego to najlepsza praktyka – pozwala uniknąć niepotrzebnych, kosztownych działań, takich jak reinstalacja Windows. Moim zdaniem, każdy kto choć raz rozwiązywał problem z uruchomieniem Windowsa, doceni możliwości tego trybu – zapewnia on naprawdę szerokie pole manewru. Niektórzy nawet mówią, że to ostatnia deska ratunku przed poważniejszą ingerencją. Dlatego warto znać i korzystać z tej opcji, zanim sięgnie się po bardziej radykalne środki.

Pytanie 38

Wynikiem działania funkcji F(n) będzie

funkcja F(n)
jeżeli n>1
F(n)=3*F(n-1)
w przeciwnym wypadku
F(n)=3
A. n^3
B. 3^n
C. 3*(n-1)
D. 3*n
Funkcja F(n) jest przykładem rekurencji liniowej, gdzie za każdym razem dla n>1 wartość funkcji jest mnożona przez 3 w stosunku do poprzedniego wyniku. W skrócie: F(n) = 3 * F(n-1), a dla n=1 ustalamy F(1)=3. Jeśli rozwiniesz to rekurencyjnie, otrzymasz ciąg: F(2)=3*3, F(3)=3*3*3, itd., co prowadzi do wzoru ogólnego F(n)=3^n. To jest bardzo charakterystyczne dla tzw. ciągów geometrycznych. Moim zdaniem taki typ zadań świetnie pokazuje, jak działa propagacja wartości w rekurencji i jest często spotykany przy analizie algorytmów, szczególnie jeśli chodzi o złożoność obliczeniową. W praktyce informatycznej, takie wzory pojawiają się np. w algorytmach dziel i zwyciężaj, gdzie każda warstwa rekurencji mnoży się przez stałą. Warto pamiętać, że znajomość wyprowadzenia wzoru rekurencyjnego do postaci jawnej (czyli bezpośredniej) bardzo przyspiesza analizę nawet bardziej złożonych funkcji. Często podczas programowania można spotkać się z zadaniami, gdzie trzeba rozpoznać, jak szybko rośnie funkcja, a tu wzrost wykładniczy (czyli właśnie potęgowanie) jest jednym z najszybszych. Co ciekawe, takie proste rekurencje mają też znaczenie choćby w modelowaniu wzrostu populacji czy inwestycji finansowych. Generalnie zaś, wykładniczy wzrost to nie przelewki – potrafi bardzo szybko doprowadzić do dużych wartości, dlatego w praktycznych aplikacjach programistycznych trzeba uważać na przepełnienia zmiennych i ograniczenia sprzętowe.

Pytanie 39

Podczas tworzenia bazy danych pacjentów polem unikatowym pełniącym rolę klucza podstawowego jest pole zawierające informacje o

A. adresie.
B. numerze PESEL.
C. nazwisku.
D. imieniu.
Wybór numeru PESEL jako klucza podstawowego w bazie danych pacjentów to zdecydowanie najbardziej logiczne i profesjonalne rozwiązanie. Każdy PESEL jest unikalny, przypisany do jednej konkretnej osoby, a jego struktura nie powtarza się w obrębie całego kraju – to wręcz modelowy przykład pola, które nadaje się na klucz główny. Praktyka pokazuje, że stosowanie numeru PESEL pozwala na bardzo szybką identyfikację pacjenta, minimalizuje ryzyko pomyłek przy wyszukiwaniu danych i sprawdza się przy integracji systemów medycznych (np. eWUŚ, systemy placówek medycznych). Z doświadczenia wiem, że próby stosowania innych pól jako klucza prowadzą do masy problemów z powtarzalnością i spójnością danych, a PESEL po prostu pozwala tego uniknąć. Co ciekawe, PESEL sprawdza się nie tylko w medycynie, ale także w systemach państwowych czy nawet bankowych – wszędzie tam, gdzie potrzebna jest jednoznaczna identyfikacja obywatela. Warto pamiętać, że standardy projektowania baz danych, takie jak normy ISO/IEC dotyczące systemów informatycznych, wręcz zalecają użycie jednoznacznych identyfikatorów jako kluczy podstawowych. Gdybyśmy mieli do czynienia z bazą międzynarodową, tam rolę klucza podstawowego zwykle pełni tzw. sztuczny identyfikator (np. UUID), ale w polskich realiach PESEL jest absolutnym standardem. Dobrze, by każdy kojarzył, że to pole nie tylko jest unikalne, ale i odporne na zmiany – nazwisko czy adres można zmienić, PESEL zostaje na całe życie.

Pytanie 40

W celu archiwizacji danych w systemie Windows, jest wymagane kopiowanie z katalogu źródłowego (kat_zrodlowy) do katalogu docelowego (kat_docelowy). Do kopiowania danych należy użyć polecenia

A. copy kat_docelowy kat_zrodlowy/dane.txt
B. move kat_zrodlowy/dane.txt kat_docelowy
C. move kat_docelowy kat_zrodlowy\dane.txt
D. copy kat_zrodlowy\dane.txt kat_docelowy
Polecenie copy kat_zrodlowy\dane.txt kat_docelowy jest najbardziej właściwe w kontekście archiwizacji danych w systemie Windows, bo wykorzystuje ono wbudowaną w system komendę copy. Ta komenda służy właśnie do kopiowania plików z jednego miejsca do drugiego — nie przenosi ich, tylko zostawia oryginał w katalogu źródłowym, co jest kluczowe, gdy chodzi o robienie kopii zapasowej czy archiwizacji. Warto też zwrócić uwagę na składnię ścieżek — w Windowsie standardem są ukośniki w lewą stronę (\), co bywa mylące dla osób przyzwyczajonych do systemów linuksowych, gdzie stosuje się /. Dzięki temu poleceniu można zautomatyzować proces backupu, np. w skryptach wsadowych, które regularnie kopiują ważne dane do określonego katalogu docelowego. W praktyce — gdybyśmy chcieli zarchiwizować plik dane.txt, zachowując jego oryginał, zawsze powinniśmy sięgać po copy. To też zgodne z polityką bezpieczeństwa danych: najpierw robimy kopię, potem ewentualnie usuwamy oryginał, jeśli zachodzi taka potrzeba. Warto pamiętać, że copy umożliwia kopiowanie zarówno pojedynczych plików, jak i całych folderów (przy użyciu odpowiednich przełączników), co czyni ją narzędziem uniwersalnym w środowisku Windows. Moim zdaniem, znajomość tej komendy to podstawa dla każdego, kto chce poważnie podchodzić do pracy z danymi i ich zabezpieczaniem w systemach Microsoftu.