Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 29 kwietnia 2026 07:51
  • Data zakończenia: 29 kwietnia 2026 08:10

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W trakcie użytkowania przewodowej myszy optycznej wskaźnik nie reaguje na ruch urządzenia po podkładce, a kursor zmienia swoje położenie dopiero po właściwym ustawieniu myszy. Te symptomy sugerują uszkodzenie

A. ślizgaczy
B. przycisków
C. kabla
D. baterii
Baterie są elementem, który jest typowy dla urządzeń bezprzewodowych, a nie dla przewodowych myszy optycznych. Użytkownicy często mylą te dwa typy urządzeń, co prowadzi do błędnych wniosków dotyczących przyczyny problemu. W przypadku bezprzewodowych myszy, to faktycznie uszkodzona bateria mogłaby uniemożliwić działanie urządzenia, jednak w sytuacji, gdy mysz jest przewodowa, bateria nie odgrywa żadnej roli w komunikacji z komputerem. Ślizgacze natomiast odpowiadają za gładkie przesuwanie myszy po powierzchni, ale ich uszkodzenie nie wpływa na reakcję kursora na ruch. Ślizgacze są odpowiedzialne za mechaniczną część ruchu, a nie za przesyłanie danych. Uszkodzenie przycisków mogłoby wpłynąć na ich funkcjonalność, ale nie zakłóciłoby sygnału do komputera dotyczącego ruchu. Typowe błędy myślowe prowadzące do takich niepoprawnych wniosków to brak zrozumienia różnicy między elementami sprzętowymi odpowiedzialnymi za komunikację a tymi, które wpływają na fizyczne użytkowanie urządzenia. Użytkownicy powinni mieć świadomość, że w przypadku przewodowych myszy, kluczową rolę odgrywa kabel, który jest bezpośrednim łącznikiem z komputerem.

Pytanie 2

Do zarządzania przydziałami przestrzeni dyskowej w systemach Windows 7 oraz Windows 8 wykorzystywane jest narzędzie

A. dcpromo
B. perfmon
C. fsutil
D. query
Query to narzędzie, które jest używane do uzyskiwania informacji na temat systemu, ale nie jest odpowiednie do zarządzania przydziałami dyskowymi. Zostało zaprojektowane głównie do monitorowania i analizowania wydajności, a jego funkcjonalność koncentruje się na raportowaniu stanu systemu oraz podzespołów. W związku z tym, korzystanie z query w kontekście zarządzania dyskami prowadzi do nieporozumień, ponieważ narzędzie to nie oferuje funkcji potrzebnych do tworzenia lub modyfikacji przydziałów dyskowych. Perfmon to z kolei narzędzie do monitorowania wydajności, które zbiera dane z różnych składników systemu, takich jak CPU, pamięć, czy dyski, jednak również nie jest przeznaczone do zarządzania przydziałami. Skupia się na analizie i raportowaniu, co czyni je nieodpowiednim narzędziem w kontekście modyfikacji przydziałów dyskowych. Dcpromo jest narzędziem używanym do promowania serwera do roli kontrolera domeny, co jest zupełnie inną funkcjonalnością niż zarządzanie dyskami. Nieprawidłowe wybory mogą wynikać z mylnego przekonania, że różne narzędzia monitorujące i raportujące mogą pełnić funkcję zarządzania dyskami, podczas gdy każde z nich ma swoje specyficzne zastosowania. Właściwe zrozumienie ról i funkcji tych narzędzi jest kluczowe dla efektywnego zarządzania systemem operacyjnym.

Pytanie 3

W systemie Windows XP, aby zmienić typ systemu plików z FAT32 na NTFS, należy użyć programu

A. replace.exe
B. subst.exe
C. attrib.exe
D. convert.exe
Odpowiedź 'convert.exe' jest prawidłowa, ponieważ jest to narzędzie wbudowane w system Windows, które umożliwia konwersję systemu plików z FAT32 na NTFS bez utraty danych. Program 'convert.exe' działa w wierszu poleceń i jest stosunkowo prosty w użyciu, co czyni go odpowiednim rozwiązaniem dla administratorów systemu oraz użytkowników domowych. Aby użyć tego narzędzia, wystarczy otworzyć wiersz poleceń z uprawnieniami administratora i wpisać polecenie 'convert D: /FS:NTFS', gdzie 'D:' to litera napędu, który chcemy skonwertować. Przed wykonaniem konwersji zaleca się wykonanie kopii zapasowej danych, aby zminimalizować ryzyko ich utraty. Konwersja z FAT32 do NTFS przynosi wiele korzyści, takich jak zwiększona wydajność, obsługa większych plików oraz lepsze zarządzanie uprawnieniami i bezpieczeństwem. Warto zaznaczyć, że NTFS jest bardziej stabilnym i elastycznym systemem plików, co czyni go bardziej odpowiednim do zastosowań w środowiskach, gdzie wymagana jest większa niezawodność i możliwość przydzielania różnych poziomów dostępu do plików.

Pytanie 4

DB-25 służy jako złącze

A. VGA, SVGA i XGA
B. portu RS-422A
C. portu równoległego LPT
D. GamePort
DB-25 to standardowe złącze o 25 pinach, które jest często wykorzystywane jako port równoległy LPT (Line Printer Terminal). Port LPT był powszechnie stosowany w komputerach osobistych lat 80. i 90. do podłączania drukarek i innych urządzeń peryferyjnych. Dzięki swojemu protemjawiającemu się, pozwalał na przesyłanie danych równolegle, co zwiększało szybkość transmisji w porównaniu do portów szeregowych. Oprócz zastosowania w drukarkach, porty LPT były wykorzystywane do podłączania skanerów oraz innych urządzeń, które wymagały dużej przepustowości. W kontekście standardów, LPT opiera się na specyfikacji IEEE 1284, która definiuje mechanizmy komunikacji oraz tryby pracy portu. Dzięki temu port równoległy może być używany w różnych trybach, takich jak nibble mode, byte mode i ECP (Enhanced Capabilities Port). Współczesne technologie zdominowały interfejsy USB i sieciowe, ale złącza DB-25 pozostają ważnym elementem historii technologii komputerowej oraz wciąż są spotykane w niektórych zastosowaniach przemysłowych.

Pytanie 5

Zgodnie z aktualnymi przepisami BHP, odległość oczu od ekranu monitora powinna wynosić

A. 39 - 49 cm
B. 20 - 39 cm
C. 40 - 75 cm
D. 75 - 110
Odległość oczu od ekranu monitora wynosząca od 40 do 75 cm jest zgodna z zaleceniami ergonomii oraz przepisami BHP, które mają na celu zminimalizowanie zmęczenia wzroku oraz dyskomfortu podczas pracy przy komputerze. Utrzymanie właściwej odległości pozwala na lepsze skupienie wzroku na ekranie, co z kolei wpływa na wydajność i komfort pracy. Przykładowo, w przypadku osób pracujących w biurach, które spędzają długie godziny przed komputerem, zachowanie tej odległości może znacznie zmniejszyć ryzyko wystąpienia zespołu suchego oka oraz innych problemów z widzeniem. Warto również pamiętać o regularnych przerwach oraz stosowaniu zasady 20-20-20, czyli co 20 minut patrzeć przez 20 sekund na obiekt oddalony o 20 stóp (około 6 metrów), aby zredukować napięcie mięśni oczu. Przy odpowiedniej odległości i zachowaniu zasady ergonomii, użytkownicy mogą znacznie poprawić swoje doznania podczas użytkowania sprzętu komputerowego, co jest kluczowe w dzisiejszym środowisku pracy.

Pytanie 6

W którym typie macierzy, wszystkie fizyczne dyski są postrzegane jako jeden dysk logiczny?

A. RAID 2
B. RAID 1
C. RAID 5
D. RAID 0
Chociaż RAID 1, RAID 2 i RAID 5 są popularnymi typami rozwiązań dla macierzy dyskowych, różnią się one zasadniczo od RAID 0 w sposobie organizacji i zarządzania danymi. RAID 1 zakłada mirroring, co oznacza, że dane są duplikowane na dwóch lub więcej dyskach. Ta konfiguracja zapewnia wysoką redundancję, więc w razie awarii jednego z dysków, dane pozostają dostępne na pozostałych. W praktyce jest to rozwiązanie stosowane w serwerach, gdzie kluczowe jest bezpieczeństwo danych, ale niekoniecznie ich szybkość. RAID 2, który polega na użyciu wielu dysków do zapisywania danych oraz dodatkowych dysków do przechowywania informacji o błędach, jest teraz rzadkością ze względu na swoją złożoność oraz niewielkie korzyści w porównaniu do nowszych rozwiązań. RAID 5 natomiast łączy striping z parzystością, co zapewnia zarówno wydajność, jak i pewien poziom ochrony danych. W przypadku utraty jednego dysku, dane mogą być odtworzone z informacji parzystości przechowywanych na pozostałych dyskach. W kontekście RAID 0, kluczowym błędem myślowym jest założenie, że wszystkie typy RAID oferują analogiczne korzyści, podczas gdy każdy typ ma swoje specyficzne zastosowania i ograniczenia. Wybór odpowiedniego typu macierzy powinien opierać się na analizie wymagań dotyczących wydajności, redundancji oraz bezpieczeństwa danych.

Pytanie 7

Adres IP (ang. Internet Protocol Address) to

A. adres logiczny komputera
B. adres fizyczny komputera
C. unikalna nazwa symboliczna dla urządzenia
D. indywidualny numer seryjny urządzenia
Adres IP (Internet Protocol Address) to unikatowy adres logiczny przypisywany urządzeniom w sieci komputerowej, pozwalający na ich identyfikację oraz komunikację. Adresy IP są kluczowe w architekturze Internetu, ponieważ umożliwiają przesyłanie danych pomiędzy różnymi urządzeniami. W praktyce, każdy komputer, serwer czy router w sieci posiada swój własny adres IP, co pozwala na zróżnicowanie ich w globalnej sieci. Adresy IP dzielą się na dwie wersje: IPv4, które składają się z czterech liczb oddzielonych kropkami (np. 192.168.1.1), oraz nowsze IPv6, które mają znacznie większą liczbę kombinacji i składają się z ośmiu grup szesnastkowych. Dobrą praktyką jest stosowanie statycznych adresów IP dla serwerów, aby zapewnić ich stałą dostępność, podczas gdy dynamiczne adresy IP są często przypisywane urządzeniom mobilnym. Zrozumienie struktury i funkcji adresów IP jest kluczowe dla specjalistów zajmujących się sieciami oraz IT, co potwierdzają liczne standardy, takie jak RFC 791 dla IPv4 oraz RFC 8200 dla IPv6.

Pytanie 8

Zestaw narzędzi do instalacji okablowania miedzianego typu "skrętka" w sieci komputerowej powinien obejmować:

A. narzędzie uderzeniowe, nóż monterski, spawarkę światłowodową, tester okablowania
B. ściągacz izolacji, zaciskarkę złączy modularnych, nóż monterski, miernik uniwersalny
C. zaciskarkę złączy modularnych, ściągacz izolacji, narzędzie uderzeniowe, tester okablowania
D. komplet wkrętaków, narzędzie uderzeniowe, tester okablowania, lutownicę
Zestaw narzędzi do montażu okablowania miedzianego typu "skrętka" w sieci lokalnej powinien obowiązkowo zawierać zaciskarkę złączy modularnych, ściągacz izolacji, narzędzie uderzeniowe oraz tester okablowania. Zaciskarka służy do precyzyjnego zakładania złączy RJ-45 na końcach przewodów, co jest kluczowe dla prawidłowego działania sieci. Użycie ściągacza izolacji pozwala na bezpieczne usunięcie izolacji z przewodów bez ich uszkodzenia, co jest niezbędne przed ich zaciśnięciem. Narzędzie uderzeniowe jest używane do zakończenia przewodów w panelach krosowych lub gniazdkach, co jest częścią standardowego procesu instalacji. Tester okablowania umożliwia sprawdzenie poprawności połączeń, co zapewnia, że sieć działa zgodnie z wymaganiami technicznymi. Stosowanie tych narzędzi jest zgodne z najlepszymi praktykami branżowymi, co podkreśla ich znaczenie w każdym projekcie związanym z montażem sieci lokalnych. Na przykład, w przypadku sieci biurowej, prawidłowe zakończenie przewodów może zapobiec problemom z transmisją danych i zakłóceniami sygnału.

Pytanie 9

Jakie polecenie trzeba wydać w systemie Windows, aby zweryfikować tabelę mapowania adresów IP na adresy MAC wykorzystywane przez protokół ARP?

A. arp -a
B. netstat -r
C. ipconfig
D. route print
Odpowiedzi 'ipconfig', 'netstat -r' oraz 'route print' są często mylone z poleceniem 'arp -a', jednak każde z nich ma swoje specyficzne zastosowanie i nie służy do sprawdzenia tabeli ARP. 'Ipconfig' jest narzędziem, które pozwala na wyświetlenie konfiguracji interfejsów sieciowych w systemie Windows, w tym adresu IP, maski podsieci oraz bramy domyślnej. Choć 'ipconfig' dostarcza istotnych informacji o połączeniach sieciowych, nie pokazuje mapowania adresów IP na adresy MAC. Z kolei 'netstat -r' wyświetla tablicę routingu, która zawiera informacje o trasach, jakie pakiety mogą zająć w sieci, ale również nie dostarcza danych o adresach fizycznych. 'Route print' z kolei jest podobne do 'netstat -r' i służy do analizy tras routingu w systemie, co jest przydatne w diagnostyce problemów z łącznością, ale nie ma związku z ARP. Powszechnym błędem jest zakładanie, że te polecenia mają podobny zakres działania, co 'arp -a', przez co można popełnić pomyłkę w diagnostyce problemów w sieci. Kluczowe jest zrozumienie, które narzędzia powinny być używane w konkretnych sytuacjach, aby efektywnie zarządzać siecią i diagnozować problemy.

Pytanie 10

Określenie najlepszej trasy dla połączenia w sieci to

A. sniffing
B. tracking
C. routing
D. conntrack
Routing to kluczowy proces w sieciach komputerowych, który polega na wyznaczaniu optymalnej trasy dla przesyłanych danych między różnymi punktami w sieci. Umożliwia to efektywne przesyłanie informacji, minimalizując opóźnienia i maksymalizując wydajność. W praktyce routing jest realizowany przez urządzenia takie jak routery, które analizują przychodzące pakiety danych i decydują, gdzie je przekierować na podstawie zdefiniowanych tras w tablicach routingu. Standardy takie jak RIP (Routing Information Protocol) czy OSPF (Open Shortest Path First) są powszechnie stosowane w branży do zarządzania trasami. W kontekście praktycznych zastosowań, routing jest niezbędny w każdej infrastrukturze sieciowej, od małych biur po rozległe sieci korporacyjne, zapewniając, że dane są dostarczane w najefektywniejszy sposób. Na przykład, w sieci WAN routing pozwala na łączenie wielu lokalizacji geograficznych, co jest kluczowe dla globalnych firm. Wiedza na temat routing jest fundamentalna dla administratorów sieci i inżynierów IT, pozwala im na optymalizację i troubleshootowanie problemów związanych z przesyłem danych.

Pytanie 11

W topologii gwiazdy każde urządzenie działające w sieci jest

A. skonfigurowane z dwoma sąsiadującymi komputerami
B. spojone ze sobą przewodami, tworząc zamknięty pierścień.
C. podłączone do węzła sieci.
D. połączone z jedną magistralą.
Topologia sieci nie polega na podłączeniu urządzeń do jednej magistrali, co jest typowe dla topologii magistrali. W takim układzie wszystkie urządzenia są połączone do wspólnego przewodu, co może prowadzić do problemów z kolizjami i ograniczoną wydajnością, zwłaszcza w większych sieciach. W przypadku awarii magistrali cała sieć przestaje działać. Z kolei połączenia pomiędzy dwoma sąsiadującymi komputerami sugerują strukturę sieci w formie łańcucha, co jest charakterystyczne dla topologii pierścienia lub łańcucha. W takim układzie awaria jednego urządzenia może zakłócić komunikację w całej sieci. Natomiast połączenie urządzeń w zamknięty pierścień implikuje topologię pierścienia, w której każde urządzenie jest połączone z dwoma innymi, tworząc cykl. Taki system również niesie ryzyko, ponieważ awaria jednego połączenia może sparaliżować cały układ. Niezrozumienie różnic między tymi topologiami prowadzi do błędnych wniosków odnośnie do efektywności i bezpieczeństwa sieci, co w praktyce objawia się problemami z wydajnością i zarządzaniem siecią.

Pytanie 12

W jakiej topologii fizycznej sieci każde urządzenie w sieci posiada dokładnie dwa połączenia, jedno z każdym z sąsiadów, a dane są przesyłane z jednego komputera do drugiego w formie pętli?

A. Siatki
B. Gwiazdy
C. Pierścienia
D. Drzewa
Topologia pierścieniowa jest charakterystyczna dla sieci, w której każde urządzenie ma dokładnie dwa połączenia, tworząc zamkniętą pętlę. W tej konfiguracji dane są przesyłane w określonym kierunku od jednego komputera do następnego, co pozwala na prostą i efektywną transmisję. Zaletą tej topologii jest możliwość łatwego dodawania nowych urządzeń do sieci bez zakłócania pracy pozostałych. W praktycznych zastosowaniach, topologia pierścieniowa może być używana w lokalnych sieciach komputerowych, takich jak sieci Token Ring, gdzie dane są przesyłane w formie tokenów, co minimalizuje ryzyko kolizji. Przykładowo, w biurach lub instytucjach edukacyjnych, gdzie wymagana jest stabilna transmisja danych, stosowanie topologii pierścieniowej może zapewnić efektywność i niezawodność. Zgodnie ze standardami branżowymi, ta topologia jest również stosunkowo łatwa do diagnostyki, ponieważ awaria jednego z urządzeń wpływa na całą pętlę, co ułatwia lokalizację problemu.

Pytanie 13

Który z protokołów powinien być zastosowany do pobierania wiadomości e-mail z własnego serwera?

A. FTP
B. POP3
C. SMTP
D. SNMP
POP3, czyli Post Office Protocol 3, to jeden z najpopularniejszych protokołów używanych do odbierania poczty elektronicznej. Działa on na zasadzie pobierania wiadomości z serwera pocztowego na lokalne urządzenie użytkownika. Umożliwia to dostęp do e-maili z różnych lokalizacji, co jest istotne w dzisiejszym mobilnym świecie. POP3 pobiera wiadomości na stałe, co oznacza, że po ich pobraniu z serwera, nie pozostają one na nim, co różni go od innych protokołów, takich jak IMAP. Z perspektywy praktycznej, POP3 jest idealny dla użytkowników, którzy korzystają z jednego urządzenia do zarządzania swoją pocztą i preferują, aby wiadomości były dostępne lokalnie. Warto zauważyć, że POP3 wspiera również szyfrowane połączenia, co zwiększa bezpieczeństwo przesyłanych danych. Dodatkowo, ważne jest, aby przy konfigurowaniu klienta pocztowego zwrócić uwagę na ustawienia dotyczące przechowywania wiadomości, co jest kluczowe dla efektywnego zarządzania pocztą elektroniczną.

Pytanie 14

Który z poniższych adresów IP należy do grupy C?

A. 198.26.152.10
B. 129.175.11.15
C. 190.15.30.201
D. 125.12.15.138
Adres IP 198.26.152.10 należy do klasy C, co oznacza, że jego pierwsza oktet (198) mieści się w przedziale od 192 do 223. Klasa C jest wykorzystywana głównie w sieciach, które wymagają wielu podsieci i mają stosunkowo niewielką liczbę hostów. W przypadku adresów klasy C, maksymalna liczba hostów na jedną podsieć wynosi 254, co czyni je idealnym rozwiązaniem dla małych i średnich organizacji. Klasa C ma również określoną maskę podsieci (255.255.255.0), co umożliwia łatwe zarządzanie i segmentację sieci. Znajomość klas adresów IP jest kluczowa przy projektowaniu i wdrażaniu sieci komputerowych, aby odpowiednio dostosować konfigurację do potrzeb organizacji. Dzięki zastosowaniu odpowiednich klas adresów można efektywnie zarządzać ruchem sieciowym i zapewnić lepsze bezpieczeństwo oraz wydajność sieci. Przykładem zastosowania klasy C może być mała firma, która potrzebuje łączności dla swoich komputerów biurowych oraz urządzeń peryferyjnych, gdzie klasa C pozwala na łatwą ekspansję w przypadku wzrostu liczby pracowników.

Pytanie 15

Sieci lokalne o architekturze klient-serwer cechują się tym, że

A. wszystkie komputery klienckie mogą korzystać z zasobów innych komputerów.
B. żaden z komputerów nie pełni funkcji dominującej w stosunku do innych.
C. wszystkie komputery w sieci mają równorzędny status.
D. istnieje jeden dedykowany komputer, który udostępnia zasoby w sieci.
Sieci lokalne typu klient-serwer są zorganizowane wokół centralnego komputera, który pełni rolę serwera, udostępniając zasoby, takie jak pliki, aplikacje i usługi. Klienci, czyli pozostałe komputery w sieci, korzystają z tych zasobów. Taki model jest korzystny, gdyż umożliwia efektywne zarządzanie zasobami oraz centralizację kontroli dostępu. Przykładem zastosowania tego modelu są firmy, które wdrażają serwery plików, pozwalające pracownikom na wspólny dostęp do dokumentów oraz aplikacji. Dodatkowo, w kontekście standardów branżowych, model klient-serwer wspiera takie rozwiązania jak Active Directory w systemach Windows, które zarządzają tożsamościami użytkowników i autoryzacją dostępu. Przy założeniu pełnej funkcjonalności, serwer może obsługiwać wiele jednoczesnych połączeń, co jest kluczowe w środowiskach o dużym natężeniu ruchu. Właściwe wdrożenie tego modelu zwiększa bezpieczeństwo, wydajność oraz ułatwia administrację siecią.

Pytanie 16

Na urządzeniu zasilanym prądem stałym znajduje się wskazane oznaczenie. Co można z niego wywnioskować o pobieranej mocy urządzenia, która wynosi około

Ilustracja do pytania
A. 18,75 W
B. 7,5 W
C. 2,5 W
D. 11 W
Błędne odpowiedzi wynikają z nieprawidłowego zastosowania wzoru na moc dla prądu stałego, który brzmi P=U×I. Niepoprawne jest założenie, że moc jest równa innym wartościom niż iloczyn napięcia i natężenia. Przykładowo wybór odpowiedzi 2,5 W mógłby wynikać z błędnego założenia, że moc jest równa tylko jednemu z podanych parametrów, co jest niezgodne z zasadami obliczania mocy. Natomiast 7,5 W mogło być wynikiem błędnego pomnożenia napięcia przez natężenie z błędnym zaokrągleniem lub wyborem jednej z wartości. Takie pomyłki mogą wynikać z nieznajomości podstawowych zasad matematyki stosowanej w elektrotechnice, a także z braku uwagi przy dokładnym stosowaniu wzorów. Z kolei 11 W mogło być wynikiem niedokładnego pomnożenia 7,5 przez 2,5, co często zdarza się, gdy nie zwraca się uwagi na precyzję obliczeń. W branży elektrotechnicznej niezbędna jest dokładność i zrozumienie jak obliczać moc z uwzględnieniem wszystkich czynników, co ma kluczowe znaczenie dla bezpieczeństwa i sprawności działania urządzeń. Pomyłki w tym zakresie mogą prowadzić do niewłaściwego doboru komponentów i potencjalnych awarii sprzętu, dlatego tak istotne jest opanowanie tych umiejętności obliczeniowych. Właściwe zrozumienie i stosowanie wzorów na moc jest fundamentalne dla pracy w dziedzinie elektroniki i elektrotechniki oraz dla zapewnienia bezpiecznych i efektywnych projektów energetycznych.

Pytanie 17

Jak skonfigurować dziennik w systemie Windows Server, aby rejestrować zarówno udane, jak i nieudane próby logowania użytkowników oraz działania na zasobach dyskowych?

A. zabezpieczeń.
B. aplikacji i usług.
C. systemu.
D. ustawień.
Odpowiedź "zabezpieczeń" jest prawidłowa, ponieważ dziennik zabezpieczeń w systemie Windows Server jest miejscem, w którym rejestrowane są wszelkie zdarzenia związane z bezpieczeństwem, w tym próby logowania użytkowników oraz operacje na zasobach dyskowych. Dziennik ten umożliwia administratorom systemów monitorowanie i analizowanie aktywności użytkowników oraz identyfikowanie potencjalnych zagrożeń. Na przykład, udane i nieudane próby logowania mogą dostarczyć informacji o nieautoryzowanym dostępie, a analiza zmian na poziomie zasobów dyskowych może pomóc w wykryciu nadużyć, takich jak nieautoryzowane modyfikacje plików. Dobre praktyki w zakresie bezpieczeństwa informacji, takie jak te określone w normach ISO/IEC 27001, zalecają regularne przeglądanie dzienników zabezpieczeń w celu oceny skuteczności kontroli zabezpieczeń oraz reagowania na incydenty. Właściwe konfigurowanie i monitorowanie dziennika zabezpieczeń to kluczowy element zarządzania bezpieczeństwem w organizacji.

Pytanie 18

Na ilustracji przedstawiono diagram blokowy karty

Ilustracja do pytania
A. telewizyjnej
B. graficznej
C. sieciowej
D. dźwiękowej
Karta telewizyjna to urządzenie pozwalające na odbiór sygnału telewizyjnego i jego przetwarzanie na komputerze. Na przedstawionym schemacie widać elementy charakterystyczne dla karty telewizyjnej takie jak tuner, który odbiera sygnał RF (Radio Frequency) z anteny. Zastosowanie tunera jest kluczowe w kontekście odbioru sygnału telewizyjnego, ponieważ pozwala na dekodowanie i dostrajanie odbieranych fal radiowych do konkretnych kanałów telewizyjnych. Przetwornik analogowo-cyfrowy (A/C) jest używany do konwersji analogowego sygnału wideo na cyfrowy, co jest niezbędne do dalszego przetwarzania przez komputer. Ważnym elementem jest także dekoder wideo oraz sprzętowa kompresja MPEG-2, które umożliwiają kompresję strumienia wideo, co jest standardem w transmisji telewizji cyfrowej. EEPROM i DRAM służą do przechowywania niezbędnych danych oraz do buforowania strumienia danych. Tego typu karty są szeroko stosowane w systemach komputerowych, gdzie istnieje potrzeba integracji funkcji telewizyjnej, np. w centrach medialnych. Stosowanie kart telewizyjnych jest zgodne ze standardami transmisji wideo i audio, co zapewnia ich kompatybilność z różnymi formatami sygnału. Przykładem praktycznego zastosowania są systemy do nagrywania programów telewizyjnych i ich późniejszego odtwarzania na komputerze.

Pytanie 19

Aby zasilić najbardziej wydajne karty graficzne, konieczne jest dodatkowe 6-pinowe gniazdo zasilacza PCI-E, które dostarcza napięcia

A. +5 V na 3 liniach
B. +3,3 V oraz +5 V
C. +12 V na 3 liniach
D. +3,3 V, +5 V, +12 V
Odpowiedź +12 V na 3 liniach jest prawidłowa, ponieważ standardowe 6-pinowe złącze PCI-E, używane do zasilania kart graficznych, dostarcza trzy linie z napięciem +12 V. W przypadku nowoczesnych kart graficznych, które mają wysokie wymagania energetyczne, zasilanie z tego złącza jest kluczowe dla zapewnienia stabilnej pracy. Przykładem zastosowania tego złącza może być zasilanie kart graficznych w komputerach do gier, stacjach roboczych oraz serwerach, gdzie wydajność graficzna jest kluczowa. Dobre praktyki sugerują, aby użytkownicy upewnili się, że ich zasilacze są certyfikowane i potrafią dostarczyć niezbędną moc oraz, co ważne, zapewniają odpowiednią wentylację oraz zarządzanie ciepłem, aby uniknąć przegrzania komponentów. Zgodność z normami ATX w kwestii zasilania oraz odpowiednie przewody o właściwej średnicy zwiększają bezpieczeństwo i stabilność działania systemu.

Pytanie 20

Ile portów USB może być dostępnych w komputerze wyposażonym w tę płytę główną, jeśli nie używa się huba USB ani dodatkowych kart?

Ilustracja do pytania
A. 4 porty
B. 5 portów
C. 12 portów
D. 3 porty
Płyta główna przedstawiona na schemacie to ASUS M5A78L-M/USB3, która w standardzie wyposażona jest w wiele portów USB. Na panelu tylnym widzimy cztery porty USB 2.0 oraz dwa porty USB 3.0, co daje razem sześć portów. Dodatkowo płyta posiada cztery wewnętrzne złącza USB na płycie, które mogą obsłużyć kolejne sześć portów USB 2.0. Suma ta daje nam możliwość podłączenia do dwunastu portów USB bez potrzeby stosowania huba USB czy dodatkowych kart rozszerzeń. Takie rozwiązanie jest zgodne z dzisiejszymi standardami, gdzie wiele urządzeń peryferyjnych korzysta z połączenia USB. Posiadanie większej liczby portów jest korzystne w przypadku jednoczesnego korzystania z różnych urządzeń jak drukarki, zewnętrzne dyski, czy kamery internetowe. Dodatkowo, w przypadku nowoczesnych urządzeń, porty USB 3.0 zapewniają szybszą transmisję danych, co jest istotne przy przesyłaniu dużych plików. Ważne jest także, aby zawsze zapewniać odpowiednie chłodzenie i zasilanie, co wpływa na stabilność pracy urządzeń podłączonych do portów USB.

Pytanie 21

Jakie urządzenie służy do pomiaru wartości mocy zużywanej przez komputerowy zestaw?

A. watomierz
B. omomierz
C. anemometr
D. dozymetr
Wybór watomierza jako urządzenia do pomiaru mocy pobieranej przez zestaw komputerowy jest jak najbardziej prawidłowy. Watomierz jest narzędziem, które umożliwia pomiar mocy elektrycznej, wyrażanej w watach (W). To bardzo istotne podczas oceny wydajności energetycznej sprzętu komputerowego, szczególnie w kontekście optymalizacji zużycia energii oraz w analizie kosztów eksploatacyjnych. Przykładowo, podczas testów porównawczych różnych komponentów komputerowych, takich jak karty graficzne czy procesory, watomierz pozwala na monitorowanie rzeczywistego poboru mocy w trakcie obciążenia, co jest kluczowe dla oceny ich efektywności. W obiektach komercyjnych i przemysłowych stosowanie watomierzy do analizy poboru mocy urządzeń komputerowych jest zgodne z zasadami zrównoważonego rozwoju i optymalizacji kosztów. Takie pomiary mogą pomóc w identyfikacji sprzętu, który zużywa nadmierną ilość energii, co pozwala na podjęcie działań mających na celu zwiększenie efektywności energetycznej. Warto również zauważyć, że nowoczesne watomierze często oferują funkcje monitorowania zdalnego oraz analizy danych, co dodatkowo zwiększa ich użyteczność w kontekście zarządzania zasobami energetycznymi.

Pytanie 22

Najskuteczniejszym sposobem na wykonanie codziennego archiwizowania pojedynczego pliku o wielkości 4,8 GB, na jednym komputerze bez dostępu do Internetu jest

A. korzystanie z pamięci USB z systemem plików FAT32
B. zapisanie na płycie DVD-5 w formacie ISO
C. korzystanie z pamięci USB z systemem plików NTFS
D. skompresowanie i zapisanie w lokalizacji sieciowej
Użycie pamięci USB z systemem plików NTFS jest najbardziej efektywnym sposobem archiwizacji pliku o rozmiarze 4,8 GB na pojedynczym stanowisku komputerowym bez dostępu do sieci. System plików NTFS (New Technology File System) obsługuje pliki o rozmiarze większym niż 4 GB, co jest kluczowe w przypadku archiwizacji dużych plików, jak ten o wielkości 4,8 GB. NTFS zapewnia również lepszą efektywność zarządzania przestrzenią dyskową, co jest istotne przy długoterminowym przechowywaniu danych. Oferuje dodatkowe funkcje, takie jak kompresja plików, szyfrowanie oraz możliwość przydzielania uprawnień do plików, co zwiększa zabezpieczenia danych. W praktyce, pamięci USB formatowane w NTFS są powszechnie używane do przenoszenia dużych plików lub ich archiwizacji, dzięki czemu można uniknąć problemów związanych z ograniczeniami rozmiaru, które występują w innych systemach plików, jak FAT32. Zastosowanie NTFS stanowi więc najlepszy wybór, zwłaszcza w kontekście profesjonalnego przechowywania i archiwizacji danych.

Pytanie 23

Jakie narzędzie służy do delikatnego wyginania blachy obudowy komputera oraz przykręcania śruby montażowej w miejscach trudno dostępnych?

Ilustracja do pytania
A. B
B. A
C. D
D. C
Odpowiedź D jest prawidłowa ponieważ przedstawia kombinerki płaskie które są narzędziem doskonale nadającym się do lekkiego odgięcia blachy obudowy komputera oraz zamocowania śruby montażowej w trudno dostępnych miejscach. Kombinerki płaskie posiadają wąskie szczęki co pozwala na precyzyjne operowanie w ciasnych przestrzeniach. W przypadku obudów komputerowych takie narzędzie jest przydatne gdy konieczne jest dostosowanie kształtu blachy bez ryzyka jej uszkodzenia. Dobrą praktyką w branży IT jest stosowanie narzędzi które nie tylko ułatwiają pracę ale również minimalizują ryzyko uszkodzenia komponentów. Kombinerki płaskie często wykonane są ze stali nierdzewnej co zapewnia ich trwałość oraz odporność na korozję. Przy montażu i demontażu komponentów komputerowych konieczna jest delikatność i precyzja dlatego kombinerki płaskie są popularnym wyborem wśród specjalistów. Ich zastosowanie obejmuje nie tylko branżę informatyczną ale również szeroki zakres innych dziedzin w których precyzyjne manipulacje są kluczowe.

Pytanie 24

Włączenie systemu Windows w trybie debugowania umożliwia

A. zapobieganie automatycznemu ponownemu uruchamianiu systemu w razie wystąpienia błędu
B. eliminację błędów w działaniu systemu
C. start systemu z ostatnią poprawną konfiguracją
D. generowanie pliku dziennika LogWin.txt podczas uruchamiania systemu
Przyjrzyjmy się bliżej pozostałym odpowiedziom i wyjaśnijmy, dlaczego są one nieprawidłowe. Pierwsza z nich sugeruje, że tryb debugowania zapobiega ponownemu automatycznemu uruchamianiu systemu w przypadku wystąpienia błędu. W rzeczywistości, aktywacja tego trybu nie wpływa na mechanizmy odzyskiwania systemu po awarii; jego głównym celem jest umożliwienie analizy błędów. W sytuacjach krytycznych, takich jak BSOD (Blue Screen of Death), system może uruchomić się ponownie, aby spróbować naprawić problem, co nie jest kontrolowane przez tryb debugowania. Kolejna odpowiedź dotyczy tworzenia pliku dziennika LogWin.txt podczas startu systemu. Choć logi systemowe są istotne dla analizy, to tryb debugowania nie generuje takiego pliku automatycznie. Logi są zbierane przez system operacyjny, a ich analiza może być przeprowadzona po fakcie, a nie w czasie rzeczywistym podczas uruchamiania. Inna propozycja mówi o uruchamianiu systemu z ostatnią poprawną konfiguracją, co jest funkcją dostępną w menu zaawansowanych opcji uruchamiania, a nie cechą trybu debugowania. To podejście ma na celu przywrócenie stabilności systemu po błędnych zmianach konfiguracyjnych, a nie analizę jego działania. W każdej z tych sytuacji kluczowe jest zrozumienie, że tryb debugowania jest narzędziem diagnostycznym, a nie mechanizmem naprawczym czy ochronnym. Zrozumienie tych różnic jest kluczowe dla skutecznego rozwiązywania problemów w systemie operacyjnym.

Pytanie 25

Aby zablokować oraz usunąć złośliwe oprogramowanie, takie jak exploity, robaki i trojany, konieczne jest zainstalowanie oprogramowania

A. antyspam
B. adblock
C. antyspyware
D. antymalware
Odpowiedzi takie jak "antyspyware", "antyspam" oraz "adblock" wydają się być związane z bezpieczeństwem w sieci, jednak nie są one odpowiednie w kontekście blokowania i usuwania szkodliwego oprogramowania typu exploit, robaki oraz trojany. Antyspyware koncentruje się głównie na zwalczaniu programów szpiegujących, które zbierają dane użytkownika bez jego zgody, ale nie jest zaprojektowane do radzenia sobie z bardziej złożonymi zagrożeniami, takimi jak trojany czy robaki, które mogą wprowadzać złośliwy kod do systemu. Antyspam natomiast dotyczy ochrony przed niechcianymi wiadomościami e-mail, a jego funkcjonalność nie obejmuje zagrożeń związanych z aplikacjami czy plikami na komputerze. Adblock to narzędzie mające na celu blokowanie reklam w przeglądarkach internetowych, co choć może poprawić komfort przeglądania, nie ma żadnej mocy w zwalczaniu złośliwego oprogramowania. Użytkownicy często popełniają błąd, myśląc, że programy te mogą zastąpić kompleksowe rozwiązania antywirusowe lub antymalware. W rzeczywistości skuteczna ochrona wymaga zastosowania specjalistycznego oprogramowania, które jest w stanie radzić sobie z różnorodnymi zagrożeniami, co jest zgodne z najlepszymi praktykami w zakresie bezpieczeństwa IT. Właściwe podejście do zabezpieczeń komputerowych uwzględnia użycie dedykowanych narzędzi, które są w stanie skutecznie identyfikować i eliminować złośliwe oprogramowanie przed wyrządzeniem szkód w systemie.

Pytanie 26

Jakie urządzenie umożliwia zwiększenie zasięgu sieci bezprzewodowej?

A. Konwerter mediów
B. Modem VDSL
C. Przełącznik zarządzalny
D. Wzmacniacz sygnału
Wzmacniacz sygnału to urządzenie, które działa na zasadzie odbierania i retransmisji sygnału bezprzewodowego, co pozwala na zwiększenie zasięgu sieci Wi-Fi. Działa to w praktyce poprzez wzmocnienie sygnału, który w przeciwnym razie mógłby być zbyt słaby, aby dotrzeć do odległych miejsc w budynku lub na zewnątrz. Stosowanie wzmacniaczy sygnału jest szczególnie przydatne w dużych domach, biurach czy obiektach przemysłowych, gdzie występują przeszkody, takie jak ściany czy meble, które mogą tłumić sygnał. Zgodnie z dobrymi praktykami branżowymi, przed zakupem wzmacniacza warto przeprowadzić pomiar zasięgu istniejącej sieci, aby odpowiednio dobrać lokalizację wzmacniacza, co zapewni maksymalną efektywność. Wzmacniacze sygnału są również często wykorzystywane w sytuacjach, gdy istnieje potrzeba pokrycia zasięgiem rozległych terenów, takich jak parki, ogrody czy kompleksy sportowe.

Pytanie 27

Na ilustracji zaprezentowano zrzut ekranu z ustawień DMZ na routerze. Aktywacja opcji "Enable DMZ" spowoduje, że komputer o adresie IP 192.168.0.106

Ilustracja do pytania
A. zostanie schowany w sieci lokalnej
B. utraci możliwość dostępu do internetu
C. będzie widoczny publicznie w Internecie
D. będzie zabezpieczony przez firewalla
Stwierdzenie, że komputer w DMZ zostanie ukryty w sieci lokalnej, jest błędne, ponieważ DMZ to strefa zaprojektowana do umożliwienia zdalnego dostępu z Internetu. Komputery w DMZ są celowo widoczne i dostępne, aby umożliwić zdalne połączenia do usług, które hostują, takich jak serwery WWW czy aplikacje obsługujące klientów zewnętrznych. Koncepcja utraty dostępu do internetu przez umieszczenie w DMZ również jest niepoprawna. W rzeczywistości, komputer w DMZ pozostaje w pełni zdolny do komunikacji z Internetem, z tą różnicą, że jest bezpośrednio narażony na dostęp zewnętrzny, co może wiązać się z zagrożeniami bezpieczeństwa. Ostatnią błędną koncepcją jest myślenie, że DMZ zapewnia ochronę firewalla. W praktyce jest odwrotnie, ponieważ urządzenia w DMZ są często mniej chronione przez główny firewall sieciowy, co czyni je bardziej podatnymi na ataki. To dlatego umieszczanie komputerów w DMZ powinno być ograniczone do sytuacji, gdy jest to absolutnie konieczne, a urządzenia powinny być odpowiednio zabezpieczone innymi środkami ochrony, takimi jak własne firewalle czy regularne aktualizacje zabezpieczeń. W efekcie, DMZ jest narzędziem używanym w specyficznych przypadkach, gdzie dostępność usług zewnętrznych jest priorytetem, a nie metodą zabezpieczenia samego urządzenia.

Pytanie 28

Urządzenie używane do zestawienia 6 komputerów w sieci lokalnej to:

A. serwer
B. przełącznik
C. transceiver
D. most
Przełącznik to naprawdę ważne urządzenie w sieciach lokalnych. Dzięki niemu komputery mogą się ze sobą komunikować w obrębie tej samej sieci. Działa na drugiej warstwie modelu OSI, co oznacza, że używa adresów MAC, a jego głównym zadaniem jest przesyłanie danych tylko tam, gdzie są one potrzebne. Takie podejście sprawia, że przesył danych jest efektywniejszy, a opóźnienia są mniejsze. Kiedy podłączasz kilka komputerów do przełącznika, to każdy z nich może ze sobą rozmawiać bez zakłócania pracy innych. Oprócz tego, nowoczesne przełączniki oferują różne fajne funkcje, jak VLANy, które pomagają w dzieleniu sieci na mniejsze segmenty, oraz QoS – co pozwala lepiej zarządzać ruchem w sieci. Przełączniki są zgodne z różnymi standardami, np. IEEE 802.3, co ułatwia ich współpracę z różnymi urządzeniami. Warto pamiętać, że stosowanie przełączników w projektowaniu sieci lokalnych to dobra praktyka, bo naprawdę poprawia wydajność i zarządzanie ruchem.

Pytanie 29

Oblicz całkowity koszt kabla UTP Cat 6, który będzie użyty do połączenia 5 punktów abonenckich z punktem dystrybucji, mając na uwadze, że średnia odległość pomiędzy każdym punktem abonenckim a punktem dystrybucji wynosi 8 m oraz że cena za 1 m kabla wynosi 1 zł. W obliczeniach uwzględnij zapas 2 m kabla na każdy punkt abonencki.

A. 50 zł
B. 45 zł
C. 32 zł
D. 40 zł
Aby obliczyć koszt brutto kabla UTP Cat 6 potrzebnego do połączenia 5 punktów abonenckich z punktem dystrybucyjnym, należy uwzględnić zarówno średnią długość kabla, jak i zapas na każdy punkt abonencki. Średnia długość pomiędzy punktem abonenckim a punktem dystrybucyjnym wynosi 8 m, co oznacza, że na każdy z 5 punktów potrzebujemy 8 m kabla. Dodatkowo, dla każdego punktu abonenckiego uwzględniamy zapas 2 m, co daje łącznie 10 m na punkt. Zatem dla 5 punktów abonenckich potrzebujemy 5 * 10 m = 50 m kabla. Koszt 1 m kabla wynosi 1 zł, więc całkowity koszt brutto wynosi 50 m * 1 zł = 50 zł. W praktyce, przy projektowaniu sieci komputerowych, zawsze warto uwzględniać zapasy na kable, aby zminimalizować ryzyko wystąpienia problemów związanych z niewystarczającą ilością materiałów. Taka praktyka jest zgodna z dobrymi praktykami inżynieryjnymi w zakresie instalacji sieciowych.

Pytanie 30

Gdy użytkownik wpisuje w przeglądarkę internetową adres www.egzamin.pl, nie ma możliwości otwarcia strony WWW, natomiast wprowadzenie adresu 211.0.12.41 umożliwia dostęp do niej. Problem ten spowodowany jest brakiem skonfigurowanego serwera

A. DNS
B. WWW
C. DHCP
D. SQL
Odpowiedź "DNS" jest poprawna, ponieważ DNS, czyli Domain Name System, jest kluczowym elementem infrastruktury internetowej, który odpowiada za tłumaczenie nazw domenowych na adresy IP. W przypadku, gdy użytkownik wpisuje adres www.egzamin.pl, przeglądarka wysyła zapytanie do serwera DNS, który powinien zwrócić odpowiedni adres IP. Jeśli ten proces zawiedzie, użytkownik nie uzyska dostępu do strony. Taki problem może wystąpić w wyniku braku odpowiedniej konfiguracji serwera DNS, co może być spowodowane niepoprawnym wpisem w strefie DNS lub brakiem wpisu dla danej domeny. Aby poprawnie skonfigurować DNS, należy upewnić się, że rekordy A (adresowe) są prawidłowo ustawione i wskazują na właściwy adres IP serwera. Dobrą praktyką jest także regularne monitorowanie i aktualizacja stref DNS w miarę zachodzących zmian oraz stosowanie narzędzi do diagnostyki, takich jak nslookup czy dig, aby zweryfikować, czy domena prawidłowo wskazuje na pożądany adres IP.

Pytanie 31

CommView oraz WireShark to aplikacje wykorzystywane do

A. badania zasięgu sieci bezprzewodowej
B. określania wartości tłumienia w kanale transmisyjnym
C. analizowania pakietów przesyłanych w sieci
D. ochrony przesyłania danych w sieci
Choć wydaje się, że narzędzia takie jak CommView i WireShark mogą mieć zastosowanie w zabezpieczeniu transmisji danych, to jednak ich główną funkcją jest analiza pakietów sieciowych, a nie bezpośrednie zabezpieczanie danych. Zabezpieczanie transmisji polega na stosowaniu różnych protokołów bezpieczeństwa, takich jak SSL/TLS, które szyfrują dane podczas przesyłania. Zastosowanie CommView czy WireShark w tym kontekście mogłoby prowadzić do błędnych wniosków, ponieważ te programy nie oferują mechanizmów szyfrowania ani uwierzytelniania, lecz jedynie umożliwiają analizę już przesyłanych danych. Kiedy myślimy o określaniu wielkości tłumienia w torze transmisyjnym, wkraczamy w dziedzinę pomiarów fizycznych sygnałów, co jest zupełnie inną specyfiką niż analiza pakietów. Tłumienie dotyczy głównie jakości sygnału w kablach lub falach radiowych, a nie monitorowania i analizy danych. Z kolei zasięg sieci bezprzewodowej określa się przy użyciu narzędzi do mapowania zasięgu, a nie aplikacji zajmujących się analizą ruchu sieciowego. Typowym błędem jest mylenie funkcji różnych narzędzi oraz przyjmowanie, że każde narzędzie do analizy pakietów służy również innym celom, co jest dalekie od rzeczywistości. Zrozumienie właściwych zastosowań technologii sieciowych jest kluczowe dla efektywnego zarządzania infrastrukturą IT.

Pytanie 32

Na którym z zewnętrznych nośników danych nie dojdzie do przeniknięcia wirusa podczas przeglądania jego zawartości?

A. na kartę SD
B. na płytę DVD-ROM
C. na dysk zewnętrzny
D. na pamięć Flash
Płyta DVD-ROM jest nośnikiem danych, który jest zapisywany raz i odczytywany wielokrotnie. W odróżnieniu od pamięci Flash, dysków zewnętrznych i kart SD, które są aktywnymi nośnikami danych, płyty DVD-ROM działają w oparciu o technologię optyczną. Oznacza to, że podczas odczytu danych, nie ma możliwości zapisania nowych danych ani modyfikacji istniejących, co ogranicza ryzyko przeniesienia wirusa. Wirusy komputerowe zazwyczaj wymagają środowiska, w którym mogą się zainstalować, co w przypadku DVD-ROM jest niemożliwe. W praktyce, korzystając z płyt DVD-ROM do przechowywania danych, możemy zminimalizować ryzyko infekcji, co jest zgodne z zaleceniami w zakresie bezpieczeństwa informatycznego. Dobrym przykładem użycia DVD-ROM może być archiwizacja ważnych dokumentów lub danych, które nie wymagają częstych aktualizacji, co zwiększa bezpieczeństwo ich przechowywania.

Pytanie 33

Wskaż symbol, który znajduje się na urządzeniach elektrycznych przeznaczonych do handlu w Unii Europejskiej?

Ilustracja do pytania
A. D
B. C
C. B
D. A
Znak CE jest symbolem potwierdzającym, że produkt spełnia wymagania unijnych dyrektyw związanych z bezpieczeństwem zdrowiem i ochroną środowiska. Jest to obligatoryjne oznakowanie dla wielu produktów sprzedawanych na rynku EOG co obejmuje Unię Europejską oraz Islandię Norwegię i Liechtenstein. Umieszczenie znaku CE na produkcie wskazuje na to że producent przeprowadził ocenę zgodności i produkt spełnia wszystkie istotne wymogi prawne dotyczące oznakowania CE. Praktycznie oznacza to że produkty takie jak urządzenia elektryczne muszą być zgodne z dyrektywami takimi jak LVD Dyrektywa Niskonapięciowa czy EMC Dyrektywa kompatybilności elektromagnetycznej. Dzięki temu konsumenci i użytkownicy mają pewność że produkt spełnia określone standardy bezpieczeństwa i jakości. Producent zobowiązany jest do przechowywania dokumentacji technicznej potwierdzającej zgodność z dyrektywami na wypadek kontroli. Znak CE nie jest znakiem jakości czy pochodzenia ale zapewnia swobodny przepływ towarów na terenie EOG co jest kluczowe dla jednolitego rynku.

Pytanie 34

W przypadku awarii którego urządzenia w sieci lokalnej, cała sieć przestaje działać w topologii magistrali?

A. Dowolny komputer kliencki
B. Kabel magistrali
C. Router
D. Serwer DHCP
W topologii magistrali, uszkodzenie kabla magistrali skutkuje całkowitym zanikiem komunikacji w sieci, ponieważ wszystkie urządzenia korzystają z tego samego medium do przesyłania danych. Uszkodzenie dowolnego komputera klienckiego nie wpłynie na działanie całej sieci, ponieważ inne urządzenia nadal będą mogły komunikować się przez magistralę. Chociaż awaria routera lub serwera DHCP może wpłynąć na funkcjonalność sieci, to nie doprowadzi do całkowitego zaniku komunikacji w topologii magistrali. Router jest zazwyczaj używany do łączenia różnych sieci, a jego awaria może uniemożliwić połączenie z siecią zewnętrzną, ale nie wpłynie na komunikację w ramach samej magistrali. Z kolei serwer DHCP jest odpowiedzialny za dynamiczne przydzielanie adresów IP, a jego awaria mogłaby uniemożliwić nowym urządzeniom dołączenie do sieci, ale nie zablokuje komunikacji między już podłączonymi urządzeniami. W topologii magistrali to właśnie kabel magistrali pełni kluczową rolę i jego uszkodzenie wpływa na całą sieć, podczas gdy inne elementy mogą mieć wpływ jedynie na pewne aspekty funkcjonalności sieci.

Pytanie 35

Technologia procesorów serii Intel Core stosowana w modelach i5, i7 oraz i9, pozwalająca na zwiększenie taktowania w przypadku gdy komputer potrzebuje wyższej mocy obliczeniowej, to

A. Turbo Boost
B. CrossFire
C. BitLocker
D. Hyper Threading
Turbo Boost to technologia opracowana przez Intela, która pozwala procesorom automatycznie zwiększać częstotliwość taktowania ponad bazowe wartości, jeśli tylko warunki termiczne oraz pobór energii na to pozwalają. Dzięki temu, gdy komputer potrzebuje większej mocy, np. podczas renderowania grafiki, gier albo kompilowania kodu, procesor dynamicznie przyspiesza, dostarczając dodatkową wydajność bez konieczności ręcznego podkręcania. W praktyce to przekłada się na płynniejsze działanie systemu, szczególnie w sytuacjach, gdzie pojedynczy wątek wymaga dużych zasobów. Moim zdaniem Turbo Boost to jedna z takich funkcji, które nie rzucają się w oczy na co dzień, ale bardzo poprawiają komfort pracy – nie trzeba w ogóle o niej myśleć, a różnica bywa naprawdę odczuwalna, zwłaszcza na laptopach, gdzie procesor musi balansować między mocą a zużyciem baterii. Warto też wiedzieć, że Turbo Boost działa automatycznie i nie wymaga żadnej konfiguracji ze strony użytkownika. Współcześnie praktycznie każdy nowoczesny procesor Intela z serii Core i5, i7 czy i9 korzysta z tej technologii i to wpisuje się w dobre praktyki projektowania sprzętu, gdzie wydajność jest skalowana dynamicznie. Często w dokumentacji Intela można znaleźć szczegółowe informacje o maksymalnych częstotliwościach Turbo dla poszczególnych modeli, bo dla profesjonalistów to czasem kluczowa sprawa.

Pytanie 36

Jakiego narzędzia wraz z parametrami, należy użyć w systemie Windows, aby wyświetlić przedstawione informacje o dysku twardym?

ST950420AS
Identyfikator dysku: A67B7C06
Typ: ATA
Stan: Online
Ścieżka: 0
Element docelowy: 0
Identyfikator jednostki LUN: 0
Ścieżka lokalizacji: PCIROOT(0)#ATA(C00T00L00)
Bieżący stan tylko do odczytu: Nie
Tylko do odczytu: Nie
Rozruchowy: Tak
Dysk plików stronicowania: Tak
Dysk plików hibernacji: Nie
Dysk zrzutów awaryjnych: Tak
Dysk klastrowany: Nie
Wolumin ###LitEtykietaFsTypRozmiarStanInfo
Wolumin 1SYSTEMNTFSPartycja300 MBZdrowySystem
Wolumin 2CNTFSPartycja445 GBZdrowyRozruch
Wolumin 3DHP_RECOVERYNTFSPartycja15 GBZdrowy
Wolumin 4EHP_TOOLSFAT32Partycja5122 MBZdrowy
A. ScanDisc
B. diskpart
C. DiskUtility
D. hdparm
Diskpart to narzędzie wiersza poleceń dostępne w systemach Windows, które pozwala na szczegółowe zarządzanie dyskami i partycjami. To, co jest tu ważne, to fakt, że diskpart umożliwia nie tylko tworzenie, usuwanie lub modyfikowanie partycji, ale też wyświetlanie bardzo szczegółowych informacji o dyskach fizycznych, takich jak identyfikator dysku, typ interfejsu (np. ATA), status online/offline, czy szczegółowa lista woluminów na danym dysku razem z ich literami, systemem plików, rozmiarem i typem. Moim zdaniem, to jedno z najbardziej uniwersalnych narzędzi administracyjnych dostępnych „od ręki” w każdym Windowsie – nie wymaga dodatkowego oprogramowania. W praktyce, żeby uzyskać takie dane, wpisuje się po prostu w konsoli: diskpart, potem komendę 'list disk' wybiera się dysk poleceniem 'select disk X' i dalej 'detail disk'. Wtedy właśnie pojawiają się tak szczegółowe informacje jak w tabeli. To narzędzie jest stosowane zarówno przez profesjonalistów przy pracy z serwerami, jak i przez domowych użytkowników przy problemach z dyskiem czy partycjami. Z mojego doświadczenia, warto pamiętać, że diskpart wymaga uprawnień administratora – to też element bezpieczeństwa, bo pozwala ingerować bezpośrednio w strukturę dysku. Wielu administratorów poleca korzystanie z diskpart, bo daje dużo większe możliwości niż graficzne narzędzia do zarządzania dyskami. Dodatkowo, polecenia diskpart są bardzo logiczne, a wyniki czytelne, co ułatwia diagnostykę i codzienną pracę.

Pytanie 37

Użytkownik chce zabezpieczyć mechanicznie dane na karcie pamięci przed przypadkowym skasowaniem. Takie zabezpieczenie umożliwia karta

A. CF
B. SD
C. MMC
D. MS
Karta SD (Secure Digital) jest jedynym spośród wymienionych rozwiązań, które posiada fizyczny przełącznik blokady zapisu, zwany często „mechanicznym suwakiem write-protect”. To taki malutki przesuwak z boku karty, którym można manualnie zablokować możliwość zapisu lub kasowania danych na karcie. Moim zdaniem to bardzo praktyczne, zwłaszcza jeśli ktoś przenosi ważne zdjęcia lub dokumenty i boi się przypadkowego skasowania – wystarczy przesunąć suwak i system operacyjny powinien zablokować zapis. Takie zabezpieczenie jest zgodne z branżowymi standardami i często wykorzystywane w aparatach fotograficznych, rejestratorach dźwięku, a nawet niektórych drukarkach. Z mojego doświadczenia wynika, że profesjonaliści często korzystają z tej opcji podczas pracy w terenie czy na ważnych wydarzeniach, żeby mieć 100% pewności, że dane nie zostaną usunięte przez przypadek. Warto wiedzieć, że chociaż przełącznik na samej karcie nie daje absolutnej ochrony (bo niektóre czytniki mogą go ignorować), to jednak jest to jedna z najprostszych i najczęściej spotykanych metod mechanicznej ochrony przed zapisem. Takiego rozwiązania nie mają karty CF, MS ani MMC – tam nie znajdziemy żadnego fizycznego przełącznika blokującego zapis danych. To jest właśnie ten drobny detal, który w praktyce potrafi uratować dużo nerwów i pracy. Jeśli zależy Ci na bezpieczeństwie danych na kartach pamięci, wybór SD z blokadą write-protect zdecydowanie ułatwia życie.

Pytanie 38

Na ilustracji przedstawiono opcje karty sieciowej w oprogramowaniu VirtualBox. Ustawienie na wartość sieć wewnętrzna, spowoduje, że

Ilustracja do pytania
A. karta sieciowa maszyny wirtualnej będzie pracować w sieci wirtualnej.
B. karta sieciowa maszyny wirtualnej będzie zmostkowana z kartą maszyny fizycznej.
C. system wirtualny będzie zachowywać się tak, jakby był podłączony do rutera udostępniającego połączenie sieciowe.
D. system wirtualny nie będzie miał zainstalowanej karty sieciowej.
Ustawienie karty sieciowej w VirtualBox na „Sieć wewnętrzna” oznacza, że interfejs tej maszyny wirtualnej będzie pracował w całkowicie wirtualnej, odizolowanej sieci, tworzonej wyłącznie wewnątrz hypervisora. Moim zdaniem to jedno z fajniejszych ustawień do ćwiczeń, bo pozwala zbudować sobie małe, laboratoryjne środowisko sieciowe bez ryzyka, że coś „wypłynie” do prawdziwej sieci firmowej czy domowej. Maszyny z tą samą nazwą sieci wewnętrznej (np. „lab1”) widzą się nawzajem, mogą się pingować, można na nich skonfigurować własny serwer DHCP, DNS, router programowy, firewalla itp., ale nie mają domyślnie dostępu ani do hosta, ani do Internetu. Z punktu widzenia systemu gościa karta sieciowa jest normalną kartą, widoczną w menedżerze urządzeń czy w `ipconfig`/`ip a`, tylko jej „kabel” jest podłączony do wirtualnego przełącznika, a nie do fizycznej infrastruktury. W praktyce wykorzystuje się to np. do testowania serwerów, usług domenowych, ćwiczeń z routingu czy konfiguracji zapór – zgodnie z dobrymi praktykami bezpieczeństwa takie środowiska testowe powinny być odseparowane od produkcji. Warto też pamiętać, że w odróżnieniu od NAT czy mostkowania, tryb sieci wewnętrznej nie tworzy żadnego automatycznego wyjścia na Internet, więc jeśli chcemy, żeby taki segment miał dostęp na zewnątrz, trzeba świadomie skonfigurować dodatkową maszynę pełniącą rolę routera lub bramy. To dokładnie odpowiada idei segmentacji i izolacji sieci, którą promują standardy bezpieczeństwa w IT.

Pytanie 39

Które dwa urządzenia sieciowe CISCO wyposażone w moduły z portami smart serial można połączyć przy użyciu kabla szeregowego?

A. Przełącznik - ruter.
B. Przełącznik - przełącznik.
C. Ruter - komputer.
D. Ruter - ruter.
W tym zadaniu łatwo wpaść w pułapkę skojarzeń, że skoro mówimy o kablu i porcie, to prawie każde urządzenie da się jakoś podłączyć do komputera albo przełącznika. W sieciach CISCO tak to jednak nie działa. Port smart serial to specjalistyczne złącze stosowane w modułach interfejsów szeregowych routerów, przeznaczone do realizacji połączeń WAN. Nie jest to uniwersalne złącze typu USB czy RJ-45, tylko element stricte sieciowy, związany z konkretnymi standardami transmisji szeregowej (V.35, EIA-530, X.21). Połączenie ruter – komputer kablem szeregowym smart serial nie ma sensu, bo typowy komputer PC nie ma interfejsu smart serial ani karty WAN tego typu. Do podłączenia komputera do rutera używa się standardowo Ethernetu (skrętka z wtykiem RJ-45) lub ewentualnie konsoli szeregowej (RS-232/USB–RJ-45) do zarządzania, ale to zupełnie inna klasa połączeń niż łącza WAN między routerami. Z mojego doświadczenia wielu uczniów myli też pojęcie „kabel szeregowy” z „kablem konsolowym”, a to są dwa różne światy. Przełączniki CISCO z kolei pracują głównie w warstwie 2 modelu OSI i wyposażone są w porty Ethernet (FastEthernet, GigabitEthernet, SFP dla światłowodów). Nie montuje się w nich modułów smart serial, bo ich rolą nie jest zakończanie łączy WAN, tylko przełączanie ramek w sieci lokalnej. Dlatego połączenia przełącznik – ruter czy przełącznik – przełącznik realizuje się zazwyczaj za pomocą Ethernetu, trunków 802.1Q, agregacji łączy itp., a nie za pomocą kabli szeregowych smart serial. Typowym błędem myślowym jest tu wrzucanie wszystkich kabli „do jednego worka” i założenie, że skoro przełącznik i ruter są urządzeniami sieciowymi, to każde specjalistyczne złącze będzie działało między nimi. W praktyce dobrym nawykiem jest zawsze sprawdzanie, do jakiej warstwy OSI należy interfejs, jaki standard fizyczny obsługuje i jakie urządzenia producent przewidział do jego wykorzystania. W przypadku smart serial odpowiedź jest jednoznaczna: służy do łączenia urządzeń klasy router–router w ramach łączy szeregowych WAN lub ich symulacji w laboratorium.

Pytanie 40

Usługa RRAS serwera Windows 2019 jest przeznaczona do

A. tworzenia restrykcji logowania użytkowników.
B. szyfrowania plików na serwerze.
C. automatycznego wykonywania kopii plików i jej transferu pomiędzy serwerem a klientem.
D. połączenia użytkowników zdalnych za pomocą VPN.
Usługa RRAS w Windows Server 2019 bywa często mylona z innymi mechanizmami systemu, bo jej nazwa brzmi dosyć ogólnie: „Routing and Remote Access Service”. W rzeczywistości jej głównym zadaniem jest realizacja routingu oraz zapewnienie zdalnego dostępu, przede wszystkim poprzez połączenia VPN i dial-up, a nie wykonywanie kopii zapasowych, zarządzanie logowaniem czy szyfrowanie plików. To typowy błąd, że jak coś jest „zdalne”, to od razu kojarzy się ludziom z wszelkimi operacjami na danych, w tym kopiami plików. Kopie zapasowe i ich transfer między serwerem a klientem obsługują zupełnie inne rozwiązania: narzędzia backupowe (np. Windows Server Backup, Veeam, Bacula), usługi typu File Server, czy systemy DPM. RRAS może co najwyżej zapewnić kanał komunikacyjny (VPN), przez który backup będzie przesyłany, ale sam nie planuje, nie wykonuje ani nie zarządza kopiami zapasowymi. Podobnie sprawa wygląda z tworzeniem restrykcji logowania użytkowników. Kontrola logowania, uprawnień, polityk haseł czy godzin logowania to domena usług katalogowych, głównie Active Directory Domain Services oraz zasad grup (Group Policy). RRAS może współpracować z NPS/RADIUS i AD, żeby autoryzować połączenia zdalne, ale nie jest narzędziem do ogólnego zarządzania logowaniem użytkowników w domenie. Często miesza się też RRAS z funkcjami bezpieczeństwa plików. Szyfrowanie danych na serwerze realizują takie mechanizmy jak EFS (Encrypting File System) czy BitLocker, ewentualnie zewnętrzne systemy DLP lub szyfrowanie na poziomie aplikacji. RRAS nie szyfruje plików na dysku; on szyfruje ruch sieciowy w tunelu VPN, co jest zupełnie innym poziomem ochrony. Typowy błąd myślowy polega na wrzuceniu „wszystkiego co bezpieczne i zdalne” do jednego worka. Dobra praktyka administracyjna jest taka, żeby rozróżniać warstwę sieciową (VPN, routing – RRAS) od warstwy danych (backup, szyfrowanie plików) i od warstwy tożsamości (logowanie, uprawnienia – AD, GPO). Zrozumienie tej separacji ról bardzo pomaga przy projektowaniu poprawnej i bezpiecznej infrastruktury.