Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 16 kwietnia 2026 14:05
  • Data zakończenia: 16 kwietnia 2026 14:17

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Element drukujący, składający się z wielu dysz połączonych z mechanizmem drukującym, znajduje zastosowanie w drukarce

A. głównej
B. atramentowej
C. termosublimacyjnej
D. laserowej
Odpowiedź atramentowa jest poprawna, ponieważ głowica drukująca w drukarkach atramentowych składa się z wielu dysz, które precyzyjnie aplikują atrament na papier. Każda z tych dysz jest odpowiedzialna za wydobywanie kropel atramentu w odpowiednich kolorach, co pozwala na uzyskanie wysokiej jakości druku. W praktyce, technologie takie jak piezoelektryczne lub termiczne systemy wstrzykiwania atramentu są wykorzystywane do kontrolowania wielkości i czasu wypuszczania kropel. Drukarki atramentowe są powszechnie stosowane w biurach i domach, głównie ze względu na ich zdolność do druku w kolorze oraz na stosunkowo niskie koszty początkowe. Ponadto, nowoczesne drukarki atramentowe są zgodne z różnymi standardami branżowymi, co zapewnia ich kompatybilność z różnorodnym oprogramowaniem graficznym i dokumentowym. Warto również zwrócić uwagę, że rozwój technologii atramentowych, takich jak drukowanie bezpośrednio na tkaninach czy materiałach 3D, znacząco poszerza ich zastosowanie w różnych branżach.

Pytanie 2

Aby zainicjować w systemie Windows oprogramowanie do monitorowania wydajności komputera przedstawione na ilustracji, należy otworzyć

Ilustracja do pytania
A. gpedit.msc
B. taskschd.msc
C. perfmon.msc
D. devmgmt.msc
Odpowiedź perfmon.msc jest poprawna, ponieważ polecenie to uruchamia narzędzie Monitor wydajności w systemie Windows. Jest to zaawansowane narzędzie systemowe, które pozwala użytkownikom monitorować i rejestrować wydajność systemu w czasie rzeczywistym. Umożliwia śledzenie różnych wskaźników wydajności, takich jak zużycie CPU, pamięci, dysku i sieci. Dzięki temu administratorzy IT mogą diagnozować problemy z wydajnością, analizować wzorce użytkowania zasobów oraz planować przyszłe potrzeby sprzętowe. Monitor wydajności może również generować raporty oraz alerty, co jest kluczowe dla zapewnienia stabilnej pracy systemów w środowiskach produkcyjnych. Narzędzie to jest zgodne z najlepszymi praktykami branżowymi dla zarządzania wydajnością, umożliwiając proaktywne podejście do utrzymania infrastruktury IT. Polecenie perfmon.msc jest często wykorzystywane w zarządzaniu serwerami oraz w środowiskach testowych, gdzie monitorowanie zasobów jest kluczowe dla optymalizacji i przygotowania do wdrożenia. Zrozumienie jak korzystać z Monitora wydajności jest niezbędne dla specjalistów IT, którzy chcą efektywnie zarządzać i optymalizować infrastrukturę komputerową.

Pytanie 3

Na ilustracji widoczny jest symbol graficzny

Ilustracja do pytania
A. koncentratora
B. regeneratora
C. rutera
D. mostu
Symbol graficzny przedstawiony na rysunku to ikona rutera. Ruter jest urządzeniem sieciowym, które kieruje ruch danych w sieci komputerowej. Działa na warstwie trzeciej modelu OSI, co oznacza, że obsługuje adresowanie IP i trasowanie pakietów między różnymi sieciami. Ruter analizuje adresy IP w nagłówkach pakietów i używa tablic trasowania do określenia najlepszej ścieżki dla przesyłanego ruchu. Dzięki temu może łączyć różne sieci lokalne (LAN) i rozległe (WAN), umożliwiając efektywną transmisję danych. Praktyczne zastosowania ruterów obejmują zarówno sieci domowe, gdzie zarządzają ruchem między urządzeniami, jak i duże sieci korporacyjne, gdzie zapewniają redundancję i równoważenie obciążenia. Standardowe praktyki obejmują zabezpieczanie ruterów przed nieautoryzowanym dostępem poprzez użycie silnych haseł i szyfrowania. Ruter odgrywa kluczową rolę w zapewnieniu stabilności i bezpieczeństwa sieci, co czyni go integralnym elementem infrastruktury IT w każdej nowoczesnej firmie.

Pytanie 4

Przy zgrywaniu filmu kamera cyfrowa przesyła na dysk 220 MB na minutę. Wybierz z diagramu interfejs o najniższej prędkości transferu, który umożliwia taką transmisję

Ilustracja do pytania
A. USB 1
B. 1394a
C. USB 2
D. 1394b
Interfejs 1394a, znany również jako FireWire 400, oferuje prędkość transferu do 400 megabitów na sekundę (Mbps), co przekłada się na około 50 megabajtów na sekundę (MB/s). Zgrywanie filmu, które wymaga 220 MB na minutę, oznacza zapotrzebowanie na prędkość około 3,67 MB/s. Interfejs 1394a z prędkością 50 MB/s zdecydowanie spełnia te wymagania, zapewniając stabilne przesyłanie danych. W praktyce FireWire 400 był popularnym wyborem w branży wideo i audio, oferując niezawodność i wysoką jakość transferu danych, co jest kluczowe podczas edycji materiałów multimedialnych. W porównaniu do alternatyw, takich jak USB 1, które oferuje zaledwie 1,5 Mbps, 1394a jest bardziej efektywnym rozwiązaniem. Wybór odpowiedniego interfejsu w oparciu o jego przepustowość jest krytyczny w zapewnieniu płynnej pracy urządzeń cyfrowych, co jest dobrą praktyką zawodową, szczególnie w produkcji wideo.

Pytanie 5

Adware to program komputerowy

A. płatny na zasadzie dobrowolnych wpłat
B. bezpłatny bez żadnych ograniczeń
C. płatny po upływie określonego okresu próbnego
D. bezpłatny z wbudowanymi reklamami
Adware, czyli to oprogramowanie, które wyświetla reklamy, często jest dostępne za darmo. No, ale trzeba pamiętać, że to właśnie te reklamy sprawiają, że programiści mogą na tym zarabiać. Często spotkać można różne aplikacje na telefonach, które w ten sposób działają. Wiadomo, że jak korzystasz z adware, to możesz trafić na mnóstwo irytujących reklam. Z drugiej strony, część z nich zbiera też dane o tym, jak korzystasz z aplikacji, żeby pokazywać Ci reklamy, które mogą Cię bardziej interesować. To może być i fajne, i dziwne, zależnie od tego, jak na to patrzysz. Jak używasz takich aplikacji, to warto rzucić okiem na ich zasady i być świadomym, na co się zgadzasz. Fajnie też mieć jakieś oprogramowanie zabezpieczające, które nieco ochroni Cię przed tymi niechcianymi reklamami.

Pytanie 6

Złocenie styków złącz HDMI ma na celu

A. poprawę przewodności oraz żywotności złącza.
B. zwiększenie przepustowości powyżej wartości określonych standardem.
C. stworzenie produktu o charakterze ekskluzywnym, aby uzyskać większe wpływy ze sprzedaży.
D. umożliwienie przesyłu obrazu w jakości 4K.
Wokół złocenia styków HDMI narosło sporo mitów, które są utrwalane przez producentów akcesoriów i marketingowe opisy. Wiele osób uważa, że złoto na stykach istotnie podnosi jakość przesyłu sygnału, co jest nieporozumieniem. Złocenie nie umożliwia transferu obrazu w jakości 4K, bo za to odpowiadają przede wszystkim parametry kabla zgodne ze standardem HDMI (np. wersja 2.0 lub nowsza – dla 4K przy 60Hz, odpowiednia przepustowość, ekranowanie itd.). Jakość przesyłanego obrazu i dźwięku nie zależy od materiału pokrywającego styki, o ile połączenie jest wolne od uszkodzeń i korozji. Podobnie, przewodność elektryczna oraz wydłużenie żywotności złącza dzięki złotemu pokryciu są w praktyce pomijalne – styki HDMI w warunkach domowych praktycznie nie są narażone na utlenianie czy ścieranie, a różnica w przewodności pomiędzy złotem a miedzią nie ma tu realnego znaczenia. To nie jest sprzęt przemysłowy, gdzie warunki są ekstremalne i częstość rozłączeń bardzo duża. Często można spotkać się z przekonaniem, że złocenie zwiększa przepustowość powyżej wartości określonych przez standard – to niestety nieprawda, bo fizyczne ograniczenia interfejsu i zastosowanej elektroniki są niezależne od złotych powłok. Standard HDMI zawiera ścisłe wymagania dotyczące parametrów transmisji, które muszą być spełnione niezależnie od materiału styków. W rzeczywistości, złocenie jest stosowane głównie w celach marketingowych, żeby produkt wyglądał na „lepszy” i można go było sprzedać drożej. Takie podejście opiera się na typowym błędzie myślowym, że jeśli coś jest droższe lub „złote”, to musi być lepsze technicznie. Tymczasem w codziennym użytkowaniu nie zauważysz różnicy – ważniejsze jest po prostu, żeby kabel był zgodny ze standardem HDMI i sprawny mechanicznie.

Pytanie 7

Okno narzędzia przedstawionego na ilustracji można uzyskać poprzez wykonanie polecenia

Ilustracja do pytania
A. control admintools
B. mmc
C. perfmon.msc
D. sysdm.cpl
Na zrzucie ekranu widoczne jest rozbudowane okno konsoli administracyjnej z drzewem po lewej stronie i wieloma różnymi narzędziami w jednym miejscu: Zapora systemu Windows z zabezpieczeniami, Podgląd zdarzeń, Monitor zabezpieczeń IP, Harmonogram zadań, Szablony zabezpieczeń itd. To nie jest pojedynczy moduł konfiguracji systemu, tylko kontener dla przystawek administracyjnych, czyli właśnie Microsoft Management Console, uruchamiana komendą „mmc”. Częsty błąd polega na myleniu konkretnych paneli sterowania albo pojedynczych przystawek z samą konsolą MMC. Polecenie „sysdm.cpl” otwiera klasyczne okno Właściwości systemu (m.in. nazwa komputera, wydajność, zdalny dostęp, zmienna PATH), ale to ma zupełnie inny wygląd – kilka zakładek, brak drzewa po lewej i żadnych dodatkowych przystawek. Jest to pojedynczy aplet Panelu sterowania, a nie środowisko do hostowania wielu narzędzi. Z kolei „perfmon.msc” uruchamia konkretną przystawkę Monitor wydajności, czyli tylko jeden element widoczny na prezentowanej konsoli. Owszem, ten moduł również działa wewnątrz MMC, ale komenda wskazuje na gotowy plik .msc, a nie na ogólne środowisko, w którym można dodawać kolejne przystawki. To subtelna, ale istotna różnica, szczególnie z punktu widzenia administracji większą liczbą komputerów. Komenda „control admintools” otwiera folder Narzędzia administracyjne w Panelu sterowania, czyli listę skrótów do różnych plików .msc i innych narzędzi, a nie jedną wspólną konsolę taką, jak na obrazku. Typowy błąd myślowy polega tutaj na tym, że użytkownik kojarzy nazwę konkretnego narzędzia (np. Monitor wydajności) albo ogólnie „narzędzia administracyjne” i automatycznie przypisuje je do widocznego okna, nie zwracając uwagi, że to jest nadrzędny kontener MMC, a nie pojedyncza funkcja. Świadome rozróżnianie: środowisko MMC, przystawki .msc i aplety Panelu sterowania to ważna umiejętność przy pracy z systemami Windows i przy rozwiązywaniu zadań egzaminacyjnych.

Pytanie 8

Niskopoziomowe formatowanie dysku IDE HDD polega na

A. umieszczaniu programu rozruchowego w MBR
B. przeprowadzaniu przez producenta dysku
C. tworzeniu partycji podstawowej
D. tworzeniu partycji rozszerzonej
Wybór odpowiedzi o partycjach rozszerzonych i podstawowych nie jest trafny, bo te sprawy są całkiem inne niż niskopoziomowe formatowanie. Partycje tworzy się na poziomie wysokopoziomowym, a to następuje dopiero po niskopoziomowym formatowaniu. I warto wiedzieć, że partycja rozszerzona ma na celu umożliwienie utworzenia większej liczby partycji logicznych na dysku, co jest ważne, jeśli system nie obsługuje więcej niż czterech podstawowych partycji. Więc tworzenie partycji nie dotyczy niskopoziomowego formatowania. To robi użytkownik albo administrator po tym, jak dysk został niskopoziomowo sformatowany, a on wtedy gotowy na dalsze zarządzanie. No i druga niepoprawna odpowiedź dotyczy umieszczania programu rozruchowego w MBR. MBR jest załatwiane podczas instalacji systemu operacyjnego, a nie w trakcie niskopoziomowego formatowania. Wysokopoziomowe formatowanie, które następuje po niskopoziomowym, jest tym, co przygotowuje system plików i zapisuje informacje o bootloaderze. Dlatego brak zrozumienia różnicy między tymi procesami może prowadzić do mylnych wniosków na temat niskopoziomowego formatowania w kontekście zarządzania dyskami.

Pytanie 9

Aby zatuszować identyfikator sieci bezprzewodowej, należy zmodyfikować jego ustawienia w ruterze w polu oznaczonym numerem

Ilustracja do pytania
A. 3
B. 4
C. 2
D. 1
Podstawowym błędem przy konfigurowaniu sieci bezprzewodowej jest mylne postrzeganie funkcji poszczególnych ustawień routera. Częstym nieporozumieniem jest przekonanie że opcja zmieniająca pasmo kanału numer 3 lub metoda szyfrowania WEP numer 4 wpływa na widoczność SSID sieci. Kanały oraz pasma odnoszą się do zakresu częstotliwości na jakich operuje sieć i mają na celu optymalizację połączenia poprzez minimalizację zakłóceń co nie jest związane z ukrywaniem sieci. Szyfrowanie z kolei dotyczy ochrony danych przesyłanych przez sieć a nie samej widoczności identyfikatora sieci. Skupienie się na szyfrowaniu WEP może być błędne ponieważ jest ono uznawane za przestarzałe i mało bezpieczne. Współczesne standardy zalecają stosowanie WPA2 lub WPA3 dla lepszej ochrony. Popularnym błędem jest również założenie że zmiana nazwy SSID w polu oznaczonym numerem 1 prowadzi do jego ukrycia. W rzeczywistości nazwa SSID jest nadal widoczna chyba że w ustawieniach routera zaznaczymy opcję ukrycia SSID co jak pokazuje obraz jest dostępne w polu numer 2. W przypadku ukrycia SSID urządzenia nadal mogą się łączyć z siecią jednak jej nazwa nie będzie widoczna w standardowej liście dostępnych sieci co może stanowić dodatkową barierę dla nieuprawnionych użytkowników choć nie zastąpi solidnych zabezpieczeń sieciowych.

Pytanie 10

Aby chronić sieć WiFi przed nieautoryzowanym dostępem, należy między innymi

A. korzystać tylko z kanałów wykorzystywanych przez inne sieci WiFi
B. wybrać nazwę identyfikatora sieci SSID o długości co najmniej 16 znaków
C. dezaktywować szyfrowanie informacji
D. włączyć filtrowanie adresów MAC
Włączenie filtrowania adresów MAC jest skuteczną metodą zabezpieczania sieci bezprzewodowej przed nieautoryzowanym dostępem. Filtrowanie adresów MAC polega na zezwalaniu na dostęp do sieci wyłącznie urządzeniom, których unikalne adresy fizyczne (MAC) zostały wcześniej zapisane w urządzeniu routera lub punktu dostępowego. Dzięki temu, nawet jeśli potencjalny intruz zna nazwę SSID i hasło do sieci, nie będzie mógł uzyskać dostępu, jeśli jego adres MAC nie znajduje się na liście dozwolonych. Praktyczne zastosowanie tej metody polega na regularnej aktualizacji listy dozwolonych adresów, szczególnie po dodaniu nowych urządzeń. Warto jednak pamiętać, że filtrowanie adresów MAC nie jest niezawodną metodą, ponieważ adresy MAC mogą być fałszowane przez bardziej zaawansowanych hakerów. Dlatego zaleca się stosowanie tej techniki w połączeniu z innymi metodami zabezpieczania, takimi jak silne szyfrowanie WPA3, które oferuje lepszą ochronę danych przesyłanych przez sieć. Filtrowanie adresów MAC jest zgodne z dobrymi praktykami bezpieczeństwa w sieciach lokalnych i jest szeroko stosowane w środowiskach zarówno domowych, jak i biznesowych.

Pytanie 11

Sprzętem, który umożliwia wycinanie wzorów oraz grawerowanie w różnych materiałach, takich jak drewno, szkło i metal, jest ploter

A. tnący
B. bębnowy
C. laserowy
D. solwentowy
Wybór plotera tnącego, bębnowego czy solwentowego jako alternatywy dla plotera laserowego wiąże się z pewnymi fundamentalnymi nieporozumieniami w zakresie technologii cięcia i grawerowania. Ploter tnący, na przykład, opiera się na mechanicznej metodzie wycinania, co ogranicza jego precyzję oraz możliwości w zakresie skomplikowanych wzorów. Takie maszyny zazwyczaj używane są do cięcia prostych kształtów w cienkich materiałach, jak papier czy folia, co sprawia, że nie nadają się do bardziej wymagających zadań, takich jak grawerowanie w metalu czy szkle. Ploter bębnowy, z kolei, jest przeznaczony głównie do druku oraz skanowania, a nie do wycinania, co czyni go mało użytecznym w kontekście tego pytania. Ploter solwentowy, zbudowany z myślą o drukowaniu grafik na różnorodnych podłożach, również nie spełnia funkcji wycinania czy grawerowania, co podkreśla, że jego zastosowanie jest ograniczone do produkcji reklam i banerów. Kluczowe jest zrozumienie, że technologia laserowa oferuje nieporównywalne możliwości w zakresie precyzji oraz wszechstronności, a wybór nieodpowiedniego urządzenia może prowadzić do znaczących ograniczeń w realizacji projektów oraz niezadowolenia z uzyskanych rezultatów.

Pytanie 12

Zamieszczone atrybuty opisują rodzaj pamięci

Maksymalne taktowanie1600 MHz
PrzepustowośćPC12800 1600MHz
OpóźnienieCycle Latency CL 9,0
KorekcjaNie
Dual/QuadDual Channel
RadiatorTak
A. SWAP
B. flash
C. RAM
D. SD
Pamięć RAM jest kluczowym elementem komputera, odpowiadającym za tymczasowe przechowywanie danych, które są aktualnie używane przez procesor. Parametry takie jak maksymalne taktowanie 1600 MHz, przepustowość PC12800, opóźnienie CL 9,0 oraz obsługa trybu Dual Channel odnoszą się do typowych cech nowoczesnych modułów RAM. Taktowanie 1600 MHz oznacza częstotliwość pracy pamięci, co wpływa na szybkość przetwarzania danych. Przepustowość PC12800 pokazuje maksymalną ilość danych, jakie mogą być przesyłane w jednostce czasu, co jest istotne w przypadku zadań wymagających dużej ilości operacji na danych. Opóźnienie CL 9,0 określa czas potrzebny do rozpoczęcia dostępu do danych, co wpływa na ogólną wydajność systemu. Obsługa Dual Channel oznacza możliwość używania dwóch modułów pamięci jednocześnie, co podwaja efektywną przepustowość. Pamięć RAM nie przechowuje danych po wyłączeniu zasilania, co odróżnia ją od pamięci masowej. Radiator zapewnia efektywne odprowadzanie ciepła, co jest istotne dla stabilnej pracy przy wyższych częstotliwościach. Wybór odpowiedniej pamięci RAM zgodnie z tymi parametrami może znacząco poprawić wydajność i responsywność systemu komputerowego

Pytanie 13

Jaka liczba hostów może być zaadresowana w podsieci z adresem 192.168.10.0/25?

A. 126
B. 128
C. 64
D. 62
Adresacja podsieci to kluczowy element zarządzania sieciami komputerowymi. W przypadku adresu 192.168.10.0/25, maska /25 oznacza, że pierwsze 25 bitów jest zarezerwowanych dla części sieciowej adresu, co pozostawia 7 bitów dla części hostowej. Możemy obliczyć liczbę dostępnych adresów hostów w tej podsieci zgodnie z wzorem 2^n - 2, gdzie n to liczba bitów przeznaczonych na hosty. W tym przypadku n wynosi 7, więc mamy 2^7 - 2 = 128 - 2 = 126. Te dwa odejmowane adresy to adres sieci (192.168.10.0) i adres rozgłoszeniowy (192.168.10.127), które nie mogą być przypisane do urządzeń. W praktyce, znajomość liczby dostępnych adresów w podsieci jest niezbędna podczas projektowania sieci i alokacji adresów IP, co pomaga w zarządzaniu zasobami i unikaniu konfliktów adresowych, zgodnie z najlepszymi praktykami w zakresie inżynierii sieciowej.

Pytanie 14

Cena wydruku jednej strony tekstu wynosi 95 gr, a koszt wykonania jednej płyty CD to 1,54 zł. Jakie wydatki poniesie firma, tworząc płytę z prezentacjami oraz poradnik liczący 120 stron?

A. 115,54 zł
B. 145,54 zł
C. 120,95 zł
D. 154,95 zł
Koszt przygotowania płyty CD oraz wydrukowania poradnika można łatwo obliczyć. Koszt przygotowania jednej płyty to 1,54 zł. Wydruk 120 stron przy kosztach 95 gr za stronę to 120 * 0,95 zł, co daje 114 zł. Sumując te dwie wartości, otrzymujemy 1,54 zł + 114 zł = 115,54 zł. Taki sposób kalkulacji kosztów jest typowy w branży wydawniczej i audiowizualnej, gdzie dokładne określenie wydatków jest kluczowe dla planowania budżetu. Przykładowo, firmy zajmujące się produkcją materiałów edukacyjnych muszą brać pod uwagę koszty druku oraz dystrybucji, co pozwala na lepsze zarządzanie zasobami i optymalizację kosztów. Warto również zauważyć, że umiejętność precyzyjnego obliczania kosztów jest niezbędna w każdym projekcie, aby uniknąć nieprzewidzianych wydatków i zwiększyć efektywność operacyjną.

Pytanie 15

Jaka usługa, opracowana przez firmę Microsoft, pozwala na konwersję nazw komputerów na adresy URL?

A. DHCP
B. IMAP
C. WINS
D. ARP
WINS, czyli Windows Internet Name Service, to usługa stworzona przez firmę Microsoft, która umożliwia tłumaczenie nazw komputerów na adresy IP w sieciach lokalnych. WINS jest szczególnie istotny w środowiskach, w których wykorzystywane są protokoły NetBIOS, ponieważ umożliwia współpracę różnych urządzeń w sieci, odwołując się do ich nazw, zamiast do adresów IP. Przykładowo, gdy użytkownik wpisuje nazwę komputera, WINS przeszukuje swoją bazę danych, aby znaleźć odpowiedni adres IP, co upraszcza dostęp do zasobów sieciowych. W praktyce, WINS jest często wykorzystywany w dużych sieciach korporacyjnych, które muszą zarządzać wieloma komputerami i serwerami. W kontekście dobrych praktyk sieciowych, WINS bywa łączony z innymi protokołami, takimi jak DNS, co pozwala na lepszą integrację i zarządzanie siecią. Warto również zaznaczyć, że WINS jest zazwyczaj używany w środowiskach, które są wciąż oparte na systemach Windows, mimo że z biegiem lat popularność tej usługi spadła na rzecz bardziej nowoczesnych rozwiązań, takich jak DNS.

Pytanie 16

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. dodaniem drugiego dysku twardego.
B. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
C. wybraniem pliku z obrazem dysku.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 17

Jakie urządzenie służy do pomiaru wartości mocy zużywanej przez komputerowy zestaw?

A. dozymetr
B. watomierz
C. anemometr
D. omomierz
Wybór watomierza jako urządzenia do pomiaru mocy pobieranej przez zestaw komputerowy jest jak najbardziej prawidłowy. Watomierz jest narzędziem, które umożliwia pomiar mocy elektrycznej, wyrażanej w watach (W). To bardzo istotne podczas oceny wydajności energetycznej sprzętu komputerowego, szczególnie w kontekście optymalizacji zużycia energii oraz w analizie kosztów eksploatacyjnych. Przykładowo, podczas testów porównawczych różnych komponentów komputerowych, takich jak karty graficzne czy procesory, watomierz pozwala na monitorowanie rzeczywistego poboru mocy w trakcie obciążenia, co jest kluczowe dla oceny ich efektywności. W obiektach komercyjnych i przemysłowych stosowanie watomierzy do analizy poboru mocy urządzeń komputerowych jest zgodne z zasadami zrównoważonego rozwoju i optymalizacji kosztów. Takie pomiary mogą pomóc w identyfikacji sprzętu, który zużywa nadmierną ilość energii, co pozwala na podjęcie działań mających na celu zwiększenie efektywności energetycznej. Warto również zauważyć, że nowoczesne watomierze często oferują funkcje monitorowania zdalnego oraz analizy danych, co dodatkowo zwiększa ich użyteczność w kontekście zarządzania zasobami energetycznymi.

Pytanie 18

W czterech różnych sklepach ten sam model komputera oferowany jest w różnych cenach. Gdzie można go kupić najtaniej?

A. Cena netto Podatek Informacje dodatkowe 1650 zł 23% Rabat 20%
B. Cena netto Podatek Informacje dodatkowe 1800 zł 23% Rabat 25%
C. Cena netto Podatek Informacje dodatkowe 1500 zł 23% Rabat 5%
D. Cena netto Podatek Informacje dodatkowe 1600 zł 23% Rabat 15%
Analizując pozostałe oferty, można zauważyć, że wyniki mogą prowadzić do fałszywych wniosków. Przykładowo, oferta z ceną 1500 zł z 5% rabatem, po obliczeniu, daje finalną kwotę wynoszącą 1425 zł, jednak to nie uwzględnia podatku VAT, który następnie zostanie dodany. Po uwzględnieniu 23% VAT, cenę końcową trzeba obliczyć jako 1425 zł + 23% = 1754,75 zł, co prowadzi do wyższej kwoty zakupu. Podobnie w ofercie 1600 zł z 15% rabatem, po odjęciu rabatu, otrzymujemy 1360 zł, a po naliczeniu podatku, 1673,60 zł, co również jest wyższą ceną niż w poprawnej odpowiedzi. Oferta 1650 zł z 20% rabatem choć na pierwszy rzut oka wydaje się droższa, w rzeczywistości daje najniższą finalną kwotę po uwzględnieniu VAT. W przypadku 1800 zł z 25% rabatem, finalna cena wynosi 1350 zł, co po dodaniu VAT daje kwotę 1665 zł. W ocenie cenowej ważne jest, aby dokładnie przeliczać wszystkie dostępne rabaty, podatki oraz inne możliwe zniżki. Niezrozumienie tego procesu może prowadzić do błędnych decyzji zakupowych, dlatego kluczowe jest zwracanie uwagi na szczegóły, a nie tylko na ceny netto.

Pytanie 19

Kluczowy sposób zabezpieczenia danych w sieci komputerowej przed nieautoryzowanym dostępem to

A. użycie macierzy dyskowych
B. tworzenie sum kontrolnych plików
C. autoryzacja dostępu do zasobów serwera
D. realizacja kopii danych
Autoryzacja dostępu do zasobów serwera jest kluczowym mechanizmem ochrony danych w sieci komputerowej, ponieważ zapewnia, że tylko uprawnione osoby mogą uzyskać dostęp do wrażliwych informacji i systemów. Proces ten polega na weryfikacji tożsamości użytkowników oraz przypisywaniu im odpowiednich uprawnień do korzystania z zasobów. W praktyce, autoryzacja często wykorzystuje różne metody, takie jak hasła, kody PIN, tokeny czy biometrię. Na przykład, w wielu organizacjach stosuje się systemy zarządzania tożsamością (IAM), które centralizują proces autoryzacji, umożliwiając kontrolę nad dostępem do różnych systemów i aplikacji. Dobre praktyki branżowe, takie jak stosowanie minimalnych uprawnień (principle of least privilege), pomagają ograniczyć ryzyko nieautoryzowanego dostępu oraz naruszenia danych. Standardy, takie jak ISO/IEC 27001, podkreślają znaczenie zarządzania dostępem w kontekście ogólnej strategii ochrony information security.

Pytanie 20

Jakim protokołem komunikacyjnym w warstwie transportowej, który zapewnia niezawodność przesyłania pakietów, jest protokół

A. UDP (User Datagram Protocol)
B. ARP (Address Resolution Protocol)
C. TCP (Transmission Control Protocol)
D. IP (Internet Protocol)
TCP (Transmission Control Protocol) jest protokołem warstwy transportowej, który zapewnia niezawodność w dostarczaniu danych poprzez zastosowanie mechanizmów potwierdzania odbioru, retransmisji pakietów oraz kontrolowania przepływu. Dzięki temu, TCP jest szeroko stosowany w aplikacjach wymagających wysokiej niezawodności, takich jak przeglądarki internetowe, poczta elektroniczna czy protokoły transferu plików (FTP). W odróżnieniu od UDP (User Datagram Protocol), który jest protokołem bezpołączeniowym i nie zapewnia gwarancji dostarczenia pakietów, TCP wykorzystuje połączenia oparte na sesji, co umożliwia osiągnięcie pełnej integralności danych. Mechanizmy takie jak 3-way handshake oraz numeracja sekwencyjna gwarantują, że dane są przesyłane w odpowiedniej kolejności i bez utraty. Dobrze zaprojektowane aplikacje sieciowe powinny wybierać TCP w sytuacjach, gdzie niezawodność i kolejność dostarczania informacji są kluczowe, co czyni go standardem w wielu rozwiązaniach stosowanych w Internecie.

Pytanie 21

Który model pamięci RAM, można umieścić na płycie, której fragment specyfikacji przedstawiono na ilustracji?

Pamięć
Obsługiwana pamięćDDR4
Rodzaj obsługiwanej pamięciDIMM (do PC)
Typ obsługiwanej pamięciDDR4-2133 (PC4-17000)
DDR4-2400 (PC4-19200)
DDR4-2666 (PC4-21300)
DDR4-2800 (PC4-22400)
DDR4-3200 (PC4-25600)
Typ obsługiwanej pamięci OCDDR4-3466 (PC4-27700)
DDR4-3600 (PC4-28800)
DDR4-3866 (PC4-30900)
DDR4-4000 (PC4-32000)
DDR4-4133 (PC4-33000)
DDR4-4400 (PC4-35200)
DDR4-4600 (PC4-36800)
Dwukanałowa obsługa pamięcitak
Ilość gniazd pamięci4 szt.
Maks. pojemność pamięci128 GB
A. 2x16GB 3200MHz DDR4 CL16 DIMM
B. 1x16GB 5200MHz DDR5 CL40 DIMM
C. 2x16GB 3200MHz DDR4 CL16 SODIMM
D. 1x16GB 1600MHz DDR3 CL11 SODIMM
W tym zadaniu kluczowe jest zrozumienie trzech podstawowych parametrów pamięci RAM: generacji (DDR3/DDR4/DDR5), rodzaju modułu (DIMM vs SODIMM) oraz taktowania i zgodności z płytą. Bardzo częsty błąd polega na skupieniu się tylko na częstotliwości w MHz, a pomijaniu typu pamięci i fizycznej zgodności ze slotem. Pojawia się na przykład pokusa, żeby wybrać bardzo szybki moduł DDR5, bo 5200 MHz wygląda imponująco. Problem w tym, że płyta w specyfikacji jasno ma wpisane tylko DDR4. Kontroler pamięci i gniazda są zaprojektowane pod konkretną generację. DDR5 pracuje na innym napięciu, ma inne rozmieszczenie pinów i inne wycięcie w złączu. Takiej kości nie da się poprawnie zamontować w slocie DDR4, a nawet gdyby jakimś cudem weszła, to i tak nie będzie działać. To jest twardy standard, tu nie ma miejsca na „może jakoś pójdzie”. Podobnie złudne jest patrzenie tylko na pojemność i taktowanie przy modułach SODIMM. Nazwa wygląda podobnie, parametry typu 3200 MHz DDR4 też się zgadzają, ale SODIMM to format fizyczny przeznaczony głównie do laptopów i małych komputerów. Jest krótszy, ma inne rozstawienie pinów. Płyta w specyfikacji ma wyraźnie: DIMM (do PC), więc moduły SODIMM nie są kompatybilne mechanicznie. To nie jest kwestia sterowników czy BIOS‑u, tylko zwykłej fizyki – kość nie pasuje do slotu. Starsze moduły DDR3, nawet jeśli wyglądają podobnie i mają zbliżoną pojemność, też odpadają. DDR3 ma inne napięcie zasilania, inną architekturę sygnałów i inne wycięcie w złączu. Płyta zaprojektowana pod DDR4 po prostu nie obsługuje DDR3, niezależnie od tego, czy to jest SODIMM, czy DIMM. Dodatkowo 1600 MHz (dla DDR3) to zupełnie inny standard niż częstotliwości podane w specyfikacji DDR4-2133 i wyżej. Typowym błędem myślowym jest założenie, że „jak to też jest RAM i ma podobną pojemność, to będzie działać”. W praktyce przy doborze pamięci zawsze sprawdza się: generację (DDR4 w tym przypadku), format modułu (DIMM dla desktopa), listę obsługiwanych częstotliwości oraz maksymalną pojemność i liczbę slotów. Dopiero spełnienie wszystkich tych warunków gwarantuje, że komputer się uruchomi stabilnie, a pamięć będzie pracowała z parametrami zgodnymi z projektem producenta płyty głównej.

Pytanie 22

Zidentyfikuj powód pojawienia się komunikatu, który został pokazany na ilustracji

Ilustracja do pytania
A. Wyłączona zapora sieciowa
B. Problem z weryfikacją certyfikatu bezpieczeństwa
C. Niewłaściwy program do przeglądania
D. Brak zainstalowanego oprogramowania antywirusowego
Komunikat o problemach z weryfikacją certyfikatu bezpieczeństwa jest typowym ostrzeżeniem wyświetlanym przez przeglądarki internetowe w przypadku, gdy certyfikat SSL/TLS nie jest prawidłowy lub nie można go zweryfikować. Certyfikaty SSL/TLS służą do szyfrowania danych przesyłanych między użytkownikiem a serwerem oraz do potwierdzenia tożsamości serwera. Problemy z certyfikatem mogą wynikać z jego wygaśnięcia, niepoprawnego wystawienia przez urząd certyfikacji (CA) lub braku zaufania do CA. W praktyce użytkownik powinien sprawdzić szczegóły certyfikatu klikając na ikonę kłódki obok adresu URL aby ustalić przyczynę problemu. Standardy branżowe, takie jak TLS 1.3 oraz rekomendacje organizacji takich jak IETF, kładą duży nacisk na korzystanie z aktualnych i zaufanych certyfikatów. Ważne jest również, aby administratorzy regularnie monitorowali stan certyfikatów i odnawiali je przed wygaśnięciem. W kontekście bezpieczeństwa danych ignorowanie takich ostrzeżeń może prowadzić do ataków typu Man-in-the-Middle, gdzie atakujący przechwytuje i potencjalnie modyfikuje dane przesyłane między użytkownikiem a serwerem. W związku z tym prawidłowe zarządzanie certyfikatami jest kluczowym elementem ochrony danych w sieci.

Pytanie 23

W jakiej technologii produkcji projektorów stosowany jest system mikroskopijnych luster, przy czym każde z nich odpowiada jednemu pikselowi wyświetlanego obrazu?

A. DLP
B. LCD
C. LED
D. LCOS
Technologie LCD, LED oraz LCOS różnią się zasadniczo od DLP w sposobie wyświetlania obrazów, co może prowadzić do mylnych wniosków na temat ich zastosowania. LCD (Liquid Crystal Display) wykorzystuje ciekłe kryształy do modulacji światła, które jest podświetlane z tyłu przez źródło światła. W przypadku tej technologii, nie ma mikroskopijnych luster odpowiadających za wyświetlanie poszczególnych pikseli, co skutkuje innym podejściem do tworzenia obrazu. Z kolei technologia LED, będąca połączeniem podświetlenia LED i LCD, również nie korzysta z mikroluster. LED odnosi się głównie do źródła światła, które może być stosowane w różnych projektorach, ale nie definiuje samej technologii wyświetlania. Natomiast LCOS (Liquid Crystal on Silicon) polega na umieszczeniu ciekłych kryształów na podłożu silikonowym, co również nie wykorzystuje mikroskopijnych luster. Każda z tych technologii ma swoje unikalne właściwości, jednak kluczowe jest zrozumienie, że DLP wyróżnia się właśnie zastosowaniem mikroskopijnych luster do zarządzania obrazem. Mylenie tych technologii może prowadzić do nieprawidłowych wyborów przy zakupie sprzętu, w szczególności jeśli celem jest osiągnięcie wysokiej jakości obrazu w konkretnych zastosowaniach, takich jak prezentacje czy kino domowe.

Pytanie 24

Płyta główna z gniazdem G2 będzie kompatybilna z procesorem

A. Intel Pentium 4 EE
B. AMD Opteron
C. Intel Core i7
D. AMD Trinity
Gniazdo G2, znane również jako LGA 1156, zostało zaprojektowane z myślą o wspieraniu procesorów Intel, a szczególnie serii Core i7. Procesory te charakteryzują się architekturą Nehalem lub Westmere, co zapewnia ich wysoką wydajność oraz wsparcie dla technologii Hyper-Threading i Turbo Boost. Płyta główna z gniazdem G2 może obsługiwać procesory o wysokiej wydajności, co czyni ją idealnym wyborem dla użytkowników wymagających mocy obliczeniowej, na przykład do gier, obróbki wideo czy aplikacji inżynieryjnych. Dzięki tej architekturze, system może jednocześnie obsługiwać wiele wątków, co przyspiesza wykonywanie skomplikowanych zadań. W praktyce, wybierając płytę główną z gniazdem G2 i procesor Intel Core i7, użytkownik może liczyć na stabilność i doskonałą wydajność, co jest zgodne z najlepszymi praktykami w budowie komputerów osobistych.

Pytanie 25

Który z systemów operacyjnych przeznaczonych do sieci jest dostępny na zasadach licencji GNU?

A. Linux
B. Windows Server 2012
C. Unix
D. OS X Server
Linux jest systemem operacyjnym, który jest udostępniony na licencji GNU General Public License (GPL), co oznacza, że jego kod źródłowy jest publicznie dostępny i może być modyfikowany oraz rozpowszechniany. Licencja ta umożliwia każdemu użytkownikowi na używanie, modyfikowanie oraz dystrybucję oprogramowania, co sprzyja innowacjom i rozwojowi technologii. Dzięki temu Linux stał się podstawą dla wielu dystrybucji, takich jak Ubuntu, Fedora czy Debian, które są szeroko stosowane w różnych środowiskach, od komputerów osobistych, przez serwery, aż po urządzenia wbudowane. Przykładem zastosowania Linuxa w praktyce jest jego dominacja w środowiskach serwerowych, gdzie zapewnia stabilność, bezpieczeństwo oraz elastyczność. Wiele dużych firm oraz organizacji wybiera Linux ze względu na niski koszt licencji i możliwość dostosowania systemu do swoich specyficznych potrzeb, co czyni go idealnym wyborem w kontekście rozwoju technologii open-source.

Pytanie 26

Liczba 5110 w zapisie binarnym wygląda jak

A. 110011
B. 110111
C. 101011
D. 101001
W przypadku błędnych odpowiedzi, takich jak 101001, 110111 i 101011, należy zwrócić uwagę na proces konwersji liczb między systemami liczbowymi. Odpowiedź 101001 to binarna reprezentacja liczby 41 w systemie dziesiętnym. Z kolei 110111 odpowiada liczbie 55, a 101011 reprezentuje liczbę 43. Wybór tych odpowiedzi może wynikać z nieporozumień związanych z zasadami konwersji. Często popełnianym błędem jest brak precyzyjnego zapisywania reszt z dzielenia, co prowadzi do błędnych konkluzji. Niektórzy mogą niepoprawnie interpretować wartości binarne podczas analizy lub obliczeń, co skutkuje mylnym przekonaniem o ich poprawności. Zrozumienie, jak każda cyfra w systemie binarnym odpowiada potędze liczby 2, jest kluczowe. Na przykład, w liczbie 110011, każda cyfra ma swoją wagę: najmniej znacząca cyfra to 2^0, następnie 2^1, 2^2 itd. Zsumowanie tych wartości, gdzie cyfra jest równa 1, prowadzi do uzyskania poprawnej wartości dziesiętnej. Dobre praktyki w konwersji liczb obejmują staranne śledzenie procesu oraz weryfikację wyników na różnych etapach, co pozwala uniknąć typowych błędów i zapewnia dokładność obliczeń.

Pytanie 27

W jakiej topologii fizycznej sieci każde urządzenie ma dokładnie dwa połączenia, jedno z najbliższymi sąsiadami, a dane są przesyłane z jednego komputera do kolejnego w formie pętli?

A. Pierścień
B. Drzewo
C. Siatka
D. Gwiazda
Topologia pierścienia charakteryzuje się tym, że każde urządzenie w sieci jest połączone z dwoma sąsiadami, co tworzy zamkniętą pętlę. Dane są przesyłane w jednym kierunku od jednego urządzenia do następnego, co minimalizuje ryzyko kolizji i pozwala na stosunkowo prostą konfigurację. W przypadku tej topologii, dodawanie lub usuwanie urządzeń może wpływać na cały system, co wymaga staranności w zarządzaniu siecią. Praktycznym zastosowaniem topologii pierścienia jest sieć Token Ring, która była popularna w latach 80. i 90. XX wieku. W standardzie IEEE 802.5 wykorzystywano specjalny token, aby kontrolować dostęp do mediów, co znacznie zwiększało wydajność przesyłania danych. Warto również zauważyć, że w przypadku awarii jednego z urządzeń, cały pierścień może zostać przerwany, co stanowi potencjalny problem w kontekście niezawodności sieci. Dlatego w nowoczesnych rozwiązaniach stosuje się różne mechanizmy redundancji oraz monitorowania stanu sieci, aby zwiększyć odporność na awarie.

Pytanie 28

Graficzny symbol pokazany na ilustracji oznacza

Ilustracja do pytania
A. bramę
B. koncentrator
C. most
D. przełącznik
Przełącznik, znany również jako switch, jest kluczowym elementem infrastruktury sieciowej stosowanym do zarządzania ruchem danych między różnymi urządzeniami w sieci lokalnej (LAN). Jego główną funkcją jest przekazywanie pakietów danych tylko do docelowych urządzeń, co zwiększa efektywność i bezpieczeństwo sieci. Przełącznik analizuje adresy MAC urządzeń podłączonych do jego portów, co pozwala na inteligentne przesyłanie danych tylko tam, gdzie są potrzebne. Przełączniki mogą działać w różnych warstwach modelu OSI, ale najczęściej funkcjonują na warstwie drugiej. W nowoczesnych sieciach stosuje się przełączniki zarządzalne, które oferują zaawansowane funkcje, takie jak VLAN, QoS czy możliwość zdalnego konfigurowania. Dzięki temu możliwa jest bardziej precyzyjna kontrola i optymalizacja ruchu sieciowego. W praktyce przełączniki są stosowane w wielu środowiskach, od małych sieci biurowych po duże centra danych, gdzie odpowiadają za skalowalne i efektywne zarządzanie zasobami sieciowymi. Zgodnie z dobrymi praktykami branżowymi, wybór odpowiedniego przełącznika powinien uwzględniać zarówno aktualne potrzeby sieci, jak i przyszłe możliwości jej rozbudowy.

Pytanie 29

Narzędziem do zarządzania usługami katalogowymi w systemach Windows Server, które umożliwia przeniesienie komputerów do jednostki organizacyjnej wskazanej przez administratora, jest polecenie

A. redirusr
B. dsrm
C. dcdiag
D. redircmp
Wybór dcdiag, dsrm lub redirusr jako narzędzi do przekierowywania komputerów do jednostek organizacyjnych w Active Directory jest błędny z kilku powodów. Narzędzie dcdiag służy do diagnostyki i analizowania stanu kontrolerów domeny, a nie do zarządzania jednostkami organizacyjnymi. Jego funkcjonalność koncentruje się na sprawdzaniu zdrowia systemu Active Directory oraz identyfikacji problemów, co czyni je użytecznym, ale nie w kontekście przekierowywania komputerów. Z kolei dsrm, które jest używane do usuwania obiektów z Active Directory, również nie ma funkcji związanych z automatycznym przypisywaniem komputerów do OU. Użycie tego polecenia do tego celu byłoby nie tylko niewłaściwe, ale także mogłoby prowadzić do utraty ważnych danych. Redirusr, z drugiej strony, służy do przekierowywania kont użytkowników do odpowiednich jednostek organizacyjnych, co pokazuje jego ograniczenie w kontekście komputerów. Typowym błędem w myśleniu, który prowadzi do wyboru tych opcji, jest mylne utożsamienie różnych funkcji narzędzi Active Directory. Kluczowe jest zrozumienie, że organizacja zasobów w Active Directory wymaga precyzyjnego i dobrze zrozumiałego zastosowania odpowiednich narzędzi i poleceń, aby zachować porządek i bezpieczeństwo w infrastrukturze IT.

Pytanie 30

Standardowo, w systemie Linux, twardy dysk w standardzie SATA jest oznaczany jako

A. ida
B. ide
C. fda
D. sda
Odpowiedź 'sda' jest poprawna, ponieważ w systemie Linux, twarde dyski SATA są domyślnie oznaczane jako 'sdX', gdzie 'X' to litera zaczynająca się od 'a' dla pierwszego dysku, 'b' dla drugiego itd. Oznaczenie to jest zgodne z zasadami Linuxa, które używają prefiksu 'sd' dla dysków SCSI oraz ich odpowiedników, takich jak SATA. Przykładem praktycznego zastosowania jest sytuacja, gdy administrator systemu przeszukuje urządzenia blokowe w systemie za pomocą komendy 'lsblk', aby uzyskać informacje o podłączonych dyskach. Zrozumienie tej konwencji jest kluczowe dla zarządzania dyskami, partycjami i systemami plików w Linuxie, co ma istotne znaczenie w kontekście administracji serwerami i komputerami stacjonarnymi. Ponadto, zapoznanie się z dokumentacją systemową, taką jak 'man' dla komend związanych z zarządzaniem dyskami, może pomóc w głębszym zrozumieniu tych oznaczeń.

Pytanie 31

Notacja #102816 oznacza zapis w systemie liczbowym

A. dziesiętnym
B. szesnastkowym
C. ósemkowym
D. dwójkowym
Notacja #102816 oznacza zapis w systemie szesnastkowym, który jest szeroko stosowany w informatyce, szczególnie w kontekście programowania i systemów komputerowych. System szesnastkowy, zwany również heksadecymalnym, wykorzystuje 16 różnych znaków: cyfry od 0 do 9 oraz litery od A do F. Zapis taki jest szczególnie przydatny, gdyż pozwala na bardziej zwięzłe przedstawienie dużych wartości binarnych, które w systemie dwójkowym byłyby znacznie dłuższe. Na przykład liczba binarna 1111111111111111 (16 bitów) może być zapisana jako FF w systemie szesnastkowym, co ułatwia jej interpretację przez programistów i zmniejsza ryzyko błędów. Szesnastkowy system notacji jest także wykorzystywany w kodowaniu kolorów w grafice komputerowej, gdzie każdy kolor jest reprezentowany przez trzy pary znaków szesnastkowych, co odpowiada wartościom RGB. W praktyce, umiejętność konwersji między systemami liczbowymi jest kluczowa dla każdego programisty, a szesnastkowy system notacji jest fundamentalnym narzędziem w tej dziedzinie.

Pytanie 32

Jak na diagramach sieciowych LAN oznaczane są punkty dystrybucyjne znajdujące się na różnych kondygnacjach budynku, zgodnie z normą PN-EN 50173?

A. BD (BuildingDistributor)
B. MDF (Main Distribution Frame)
C. CD (Campus Distribution)
D. FD (Floor Distribution)
Odpowiedź FD (Floor Distribution) jest prawidłowa, ponieważ oznacza ona punkty rozdzielcze (dystrybucyjne) znajdujące się na poszczególnych piętrach budynku, co jest zgodne z normą PN-EN 50173. Norma ta klasyfikuje różne poziomy dystrybucji w sieciach LAN, aby zapewnić odpowiednią organizację i efektywność instalacji. Punkty dystrybucyjne na piętrach są kluczowym elementem infrastruktury sieciowej, ponieważ umożliwiają one podłączenie urządzeń końcowych, takich jak komputery, drukarki czy telefony. Przykładowo, w biurowcach, gdzie na każdym piętrze znajduje się wiele stanowisk pracy, odpowiednie oznaczenie FD pozwala na łatwe lokalizowanie rozdzielni, co ułatwia zarządzanie siecią oraz wykonywanie prac konserwacyjnych. Dobrze zaplanowana dystrybucja na każdym piętrze wprowadza porządek w instalacji, co jest szczególnie istotne w przypadku modernizacji lub rozbudowy infrastruktury sieciowej. W praktyce, stosowanie jednolitych oznaczeń, takich jak FD, zwiększa efektywność komunikacji między specjalistami zajmującymi się siecią oraz ułatwia przyszłe prace serwisowe.

Pytanie 33

W sieciach bezprzewodowych Ad-Hoc (Independent Basic Service Set) wykorzystywana jest fizyczna struktura

A. siatki
B. magistrali
C. gwiazdy
D. pierścienia
W analizie sieci bezprzewodowych Ad-Hoc, ważne jest zrozumienie, jak różne topologie wpływają na działanie sieci. Topologia pierścienia, choć interesująca w kontekście tradycyjnych sieci przewodowych, nie jest efektywna w przypadku sieci bezprzewodowych Ad-Hoc. W topologii pierścienia każde urządzenie jest połączone z dwoma sąsiadami, co w sytuacjach zaników sygnału lub awarii jednego z węzłów, prowadzi do problemów z komunikacją w całej sieci. Podobnie, topologia magistrali, gdzie wszystkie urządzenia są podłączone do jednego kabla, nie jest odpowiednia dla sieci Ad-Hoc. Tego rodzaju architektura nie wspiera elastyczności i mobilności, które są kluczowe dla takich rozwiązań. Topologia gwiazdy, z kolei, wymaga centralnego punktu dostępowego, co stoi w sprzeczności z ideą Ad-Hoc, która opiera się na bezpośredniej komunikacji między urządzeniami. Użytkownicy mogą mylić dostępność w takich sieciach z ich strukturą, co prowadzi do błędnych wniosków. Kluczowym błędem jest założenie, że tradycyjne modele topologii mogą być bezpośrednio stosowane w dynamicznych sieciach bezprzewodowych, co prowadzi do nieefektywności w projektowaniu i implementacji systemów sieciowych.

Pytanie 34

Protokół, który zajmuje się identyfikowaniem i usuwaniem kolizji w sieciach Ethernet, to

A. NetBEUI
B. CSMA/CD
C. WINS
D. IPX/SPX
CSMA/CD, czyli Carrier Sense Multiple Access with Collision Detection, to protokół stosowany w sieciach Ethernet, którego głównym celem jest zarządzanie dostępem do medium transmisyjnego oraz wykrywanie i eliminowanie kolizji. Protokół ten działa na zasadzie detekcji, co oznacza, że urządzenia nasłuchują medium, zanim rozpoczną transmisję danych. W przypadku stwierdzenia kolizji, urządzenia przerywają wysyłanie danych, a następnie implementują algorytm backoff, który losowo opóźnia ponowną próbę wysłania danych. Taki mechanizm pozwala na efektywniejsze wykorzystanie medium i minimalizację utraty danych. Przykładem zastosowania CSMA/CD są tradycyjne sieci Ethernet, w których kilka urządzeń współdzieli ten sam kanał komunikacyjny. Zgodność z tym protokołem jest jedną z fundamentalnych zasad standardów IEEE 802.3, co podkreśla jego znaczenie w branży. Pomimo że CSMA/CD zostało w dużej mierze zastąpione przez przełączniki Ethernet, które eliminują problem kolizji, znajomość tego protokołu jest istotna dla zrozumienia ewolucji technologii sieciowej i podstaw działania sieci lokalnych.

Pytanie 35

Narzędzie chroniące przed nieautoryzowanym dostępem do lokalnej sieci, to

A. analizator sieciowy
B. zapora sieciowa
C. analizator pakietów
D. oprogramowanie antywirusowe
Zapora sieciowa, znana również jako firewall, to kluczowe narzędzie zabezpieczające, które kontroluje ruch sieciowy między zewnętrznym światem a lokalną siecią. Działa poprzez definiowanie reguł, które decydują, które pakiety danych mają być zablokowane, a które przepuszczone. Zapory sieciowe mogą być sprzętowe lub programowe, a ich zastosowanie jest szerokie, od ochrony małych sieci domowych po zabezpieczenie dużych infrastruktur korporacyjnych. Na przykład, w przypadku organizacji, zapora sieciowa może chronić wrażliwe dane przed nieautoryzowanym dostępem, blokując połączenia z nieznanych adresów IP lub ograniczając dostęp do określonych portów. Dobrze skonfigurowana zapora jest zgodna ze standardami branżowymi, takimi jak ISO/IEC 27001, które podkreślają znaczenie zarządzania bezpieczeństwem informacji. Współczesne zapory często wykorzystują technologie takie jak inspekcja głębokich pakietów (DPI) oraz analitykę behawioralną, co zwiększa ich efektywność w wykrywaniu i zapobieganiu zagrożeniom.

Pytanie 36

Aby uniknąć uszkodzenia sprzętu podczas modernizacji komputera przenośnego polegającej na wymianie modułów pamięci RAM należy

A. przewietrzyć pomieszczenie oraz założyć okulary wyposażone w powłokę antyrefleksyjną.
B. rozłożyć i uziemić matę antystatyczną oraz założyć na nadgarstek opaskę antystatyczną.
C. przygotować pastę przewodzącą oraz nałożyć ją równomiernie na obudowę gniazd pamięci RAM.
D. podłączyć laptop do zasilacza awaryjnego, a następnie rozkręcić jego obudowę i przejść do montażu.
Wybrałeś najbezpieczniejsze i najbardziej profesjonalne podejście do wymiany pamięci RAM w laptopie. W praktyce branżowej, zwłaszcza na serwisach czy w laboratoriach, stosuje się maty antystatyczne i opaski ESD (Electrostatic Discharge), które chronią wrażliwe układy elektroniczne przed wyładowaniami elektrostatycznymi. Taka iskra potrafi być zupełnie niewidoczna dla oka, a mimo to uszkodzić lub osłabić działanie modułu RAM. Sam miałem kiedyś sytuację, że kolega wymieniał RAM bez zabezpieczeń – komputer raz działał poprawnie, raz nie, a potem wyszła mikrousterka. Uziemienie maty oraz założenie opaski na nadgarstek to standard, który spotyka się wszędzie tam, gdzie sprzęt IT traktuje się poważnie. To nie jest przesada, tylko praktyka potwierdzona przez lata i wpisana nawet do instrukcji producentów. Warto pamiętać, że matę należy podłączyć do uziemienia – np. gniazdka z bolcem albo specjalnego punktu w serwisie. Dzięki temu nawet jeśli masz na sobie ładunki elektrostatyczne, nie przeniosą się one na elektronikę. Z mojego doświadczenia wynika, że lepiej poświęcić minutę na przygotowanie stanowiska, niż potem żałować uszkodzonych podzespołów. No i zawsze lepiej mieć nawyk profesjonalisty, nawet w domowych warunkach – przecież sprzęt tani nie jest. Dodatkowo, takie działania uczą odpowiedzialności i szacunku do pracy z elektroniką. Takie właśnie zabezpieczenie stanowiska to podstawa – zgodnie z normami branżowymi ESD i ISO.

Pytanie 37

Protokół kontrolny z rodziny TCP/IP, który odpowiada między innymi za identyfikację usterek w urządzeniach sieciowych, to

A. IMAP
B. SMTP
C. ICMP
D. FDDI
Odpowiedzi takie jak SMTP, IMAP czy FDDI nie są związane z funkcją wykrywania awarii urządzeń sieciowych, co prowadzi do nieporozumień co do ich rzeczywistego zastosowania. SMTP, czyli Simple Mail Transfer Protocol, jest protokołem służącym do przesyłania wiadomości e-mail i nie ma zastosowania w kontekście diagnostyki sieci. Jego główną rolą jest przesyłanie wiadomości między serwerami pocztowymi oraz między klientami a serwerami, co oznacza, że ​​jest to protokół aplikacyjny, a nie kontrolny. IMAP (Internet Message Access Protocol) również jest protokołem aplikacyjnym, który umożliwia dostęp do wiadomości e-mail przechowywanych na serwerze. Jego funkcjonalność koncentruje się na zarządzaniu wiadomościami, a nie na monitorowaniu stanu sieci. FDDI (Fiber Distributed Data Interface) to natomiast standard dla sieci lokalnych opartych na włóknach optycznych, który zajmuje się przesyłem danych, ale nie jest związany z komunikacją kontrolną. Wybór nieodpowiednich protokołów może prowadzić do błędnych wniosków co do ich przeznaczenia oraz funkcji, co jest częstym błędem w rozumieniu architektury sieci. Ważne jest, aby rozróżniać protokoły kontrolne od aplikacyjnych oraz zrozumieć ich specyfikę, aby skutecznie zarządzać sieciami i diagnozować problemy.

Pytanie 38

Do jakiego portu należy podłączyć kabel sieciowy zewnętrzny, aby uzyskać pośredni dostęp do sieci Internet?

Ilustracja do pytania
A. PWR
B. LAN
C. USB
D. WAN
Port PWR jest używany do zasilania urządzenia i nie przenosi danych sieciowych. Choć istotny dla działania sprzętu, nie ma żadnego związku z transmisją danych do internetu. Port USB w routerach często służy do podłączania urządzeń peryferyjnych, takich jak drukarki lub zewnętrzne pamięci masowe. Nie jest przeznaczony do przesyłania danych internetowych, a jego funkcjonalność zależy od specyfikacji urządzenia. Port LAN (Local Area Network) jest używany do łączenia urządzeń w sieci lokalnej, takich jak komputery, serwery i inne urządzenia sieciowe. Porty LAN umożliwiają komunikację w obrębie jednej sieci, ale nie zapewniają bezpośredniego dostępu do internetu. Błędne spojrzenie na funkcje tych portów wynika z nieznajomości ich specjalistycznych zastosowań. Poprawne zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania siecią i zapewnienia jej bezpieczeństwa. Każdy port ma swoje określone przeznaczenie, które wpływa na sposób, w jaki urządzenia komunikują się ze sobą i z siecią zewnętrzną. Zrozumienie roli każdego portu jest fundamentalne dla projektowania i zarządzania siecią komputerową, umożliwiając właściwe konfigurowanie i skalowanie infrastruktury sieciowej w celu maksymalizacji jej wydajności i bezpieczeństwa. Wybór odpowiedniego portu do określonych zadań jest istotnym aspektem administrowania siecią, umożliwiającym poprawne działanie całego systemu.

Pytanie 39

Karta sieciowa przedstawiona na ilustracji jest w stanie przesyłać dane z maksymalną szybkością

Ilustracja do pytania
A. 54 Mb/s
B. 11 Mb/s
C. 108 Mb/s
D. 300 Mb/s
Odpowiedź 54 Mb/s jest poprawna, ponieważ karta sieciowa widoczna na rysunku obsługuje standard IEEE 802.11g. Standard ten, wprowadzony w 2003 roku, został zaprojektowany, aby zapewnić maksymalną przepustowość wynoszącą właśnie 54 Mb/s. To znaczne usprawnienie w stosunku do wcześniejszego standardu 802.11b, który oferował prędkość do 11 Mb/s. Standard 802.11g działa na częstotliwości 2.4 GHz, co umożliwia kompatybilność wsteczną z urządzeniami 802.11b. Dzięki temu starsze urządzenia mogą nadal komunikować się w sieci, choć z niższą prędkością. Karty sieciowe 802.11g były popularne w wielu gospodarstwach domowych i biurach, umożliwiając szybkie surfowanie po internecie, przesyłanie plików oraz korzystanie z multimediów strumieniowych. Mimo że współczesne technologie, takie jak 802.11n czy 802.11ac, oferują dużo wyższe prędkości, standard 802.11g był ważnym krokiem w ewolucji sieci bezprzewodowych. Znajomość tego standardu jest istotna dla zrozumienia rozwoju technologii Wi-Fi i zarządzania starszymi urządzeniami w sieciach mieszanych.

Pytanie 40

Które dwa urządzenia sieciowe CISCO wyposażone w moduły z portami smart serial można połączyć przy użyciu kabla szeregowego?

A. Ruter - ruter.
B. Przełącznik - ruter.
C. Przełącznik - przełącznik.
D. Ruter - komputer.
Poprawna odpowiedź to połączenie ruter – ruter, ponieważ moduły z portami smart serial w urządzeniach CISCO są przeznaczone właśnie do realizacji łączy szeregowych pomiędzy dwoma urządzeniami warstwy 3, czyli najczęściej dwoma ruterami. Port smart serial to fizyczne złącze na karcie interfejsu szeregowego (WIC/HWIC), do którego podłącza się odpowiedni kabel – zwykle jeden koniec ma wtyk smart serial (do rutera), a drugi koniec jest zakończony złączem typu V.35, X.21, EIA-530 lub podobnym, w zależności od standardu łącza. W praktyce takie połączenie wykorzystuje się do symulowania lub realizowania łączy WAN: np. w pracowni sieciowej łączysz dwa rutery CISCO szeregowo, żeby zasymulować połączenie między dwoma oddalonymi lokalizacjami. Na jednym ruterze konfigurujesz interfejs jako DCE (z podaniem clock rate), a na drugim jako DTE. To jest klasyczny scenariusz z kursów Cisco CCNA, gdzie testuje się protokoły routingu (RIP, OSPF, EIGRP), listy ACL, QoS itp. Moim zdaniem warto pamiętać, że komputer nie ma interfejsu smart serial, a przełączniki w ogóle nie są wyposażane w takie moduły – pracują głównie na portach Ethernet (miedzianych lub światłowodowych) i nie obsługują typowych łączy WAN w warstwie fizycznej. Dobra praktyka w projektowaniu sieci mówi, że łącza szeregowe WAN kończy się na ruterach, bo to one odpowiedzialne są za routing między sieciami LAN, translację adresów, tunelowanie VPN itd. W laboratoriach szkolnych używa się specjalnych kabli DCE/DTE smart serial do łączenia ruterów bez udziału operatora telekomunikacyjnego, co pozwala w pełni kontrolować parametry łącza i uczyć się konfiguracji od warstwy fizycznej po warstwę sieciową.