Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik teleinformatyk
  • Kwalifikacja: INF.07 - Montaż i konfiguracja lokalnych sieci komputerowych oraz administrowanie systemami operacyjnymi
  • Data rozpoczęcia: 16 lutego 2026 15:41
  • Data zakończenia: 16 lutego 2026 15:55

Egzamin zdany!

Wynik: 33/40 punktów (82,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Protokół stworzony do nadzorowania oraz zarządzania urządzeniami w sieci, oparty na architekturze klient-serwer, w którym jeden menedżer kontroluje od kilku do kilkuset agentów to

A. FTP (File Transfer Protocol)
B. SMTP (Simple Mail Transfer Protocol)
C. SNMP (Simple Network Management Protocol)
D. HTTP (Hypertext Transfer Protocol)
SNMP, czyli Simple Network Management Protocol, to standardowy protokół sieciowy, który umożliwia monitorowanie i zarządzanie urządzeniami w sieci IP. Opiera się na architekturze klient-serwer, gdzie agent (urządzenie zarządzane) przekazuje dane do menedżera (systemu zarządzającego). Dzięki SNMP administratorzy sieci mogą zbierać dane o stanie urządzeń, takich jak routery, przełączniki czy serwery, co pozwala na szybką identyfikację problemów, optymalizację wydajności oraz planowanie zasobów. Protokół SNMP jest szeroko stosowany w branży IT, będąc częścią standardów IETF. Przykładem zastosowania może być monitorowanie obciążenia serwera w czasie rzeczywistym, co pozwala na podejmowanie decyzji na podstawie zebranych danych. Ponadto, SNMP wspiera różne poziomy bezpieczeństwa i wersje, co pozwala na dostosowanie go do specyficznych potrzeb organizacji. Standardy SNMP są zgodne z najlepszymi praktykami, co daje pewność, że system zarządzania siecią będzie działał w sposób efektywny i bezpieczny.

Pytanie 2

Jaką maksymalną liczbę komputerów można zaadresować adresami IP w klasie C?

A. 254 komputery
B. 252 komputery
C. 256 komputerów
D. 255 komputerów
Wybór 256 komputerów jako maksymalnej liczby hostów w sieci klasy C jest błędny z kilku istotnych powodów. Liczba ta wynika z niepełnego zrozumienia struktury adresu IP. Klasa C, zgodnie z definicją, przeznacza 8 bitów na identyfikację hostów, co teoretycznie rzeczywiście daje 256 adresów. Jednak w praktyce dwa z tych adresów są zarezerwowane. Adres sieci, który jest używany do identyfikacji samej sieci, oraz adres rozgłoszeniowy, który służy do komunikacji z wszystkimi hostami w sieci, nie mogą być przydzielane do urządzeń. To fundamentalna zasada w projektowaniu sieci, która często bywa pomijana przez osoby nieposiadające doświadczenia w tej dziedzinie. Wybierając 255 komputerów, również można popełnić błąd w myśleniu, gdyż znów nie uwzględnia to rezerwacji adresu rozgłoszeniowego, a zatem wciąż nie jest to prawidłowa liczba. Podobnie, 252 komputery mogą wydawać się logicznym wyborem, ale nie uwzględnia to pełnej możliwości wykorzystania adresów zarezerwowanych wyłącznie dla hostów. W praktyce, skuteczne zarządzanie adresacją IP wymaga zrozumienia tych zasad oraz ich konsekwencji dla projektowania i operacyjności sieci. Brak tej wiedzy może prowadzić do problemów z komunikacją i zarządzaniem siecią, co jest krytyczne w każdym środowisku IT.

Pytanie 3

Która z grup w systemie Windows Serwer ma najniższe uprawnienia?

A. Operatorzy kont.
B. Administratorzy.
C. Użytkownicy.
D. Wszyscy
Odpowiedź "Wszyscy" jest jak najbardziej na miejscu. Ta grupa użytkowników w Windows Serwer ma najniższe uprawnienia. W praktyce oznacza to, że ci użytkownicy nie mogą robić rzeczy administracyjnych, jak chociażby zmieniać ustawień systemowych, instalować programy czy zarządzać innymi kontami. Ograniczenie ich uprawnień do grupy "Wszyscy" to kluczowy ruch w kontekście bezpieczeństwa, bo zmniejsza ryzyko nieautoryzowanego dostępu. W firmach, które działają według zasady minimalnych uprawnień, użytkownicy mają dostęp tylko do tego, co jest im potrzebne do pracy. Dzięki temu, w przypadku ataku czy błędu, możliwe szkody są ograniczone. To podejście jest zgodne z tym, co mówią normy jak NIST czy ISO 27001, które akcentują znaczenie dobrego zarządzania uprawnieniami dla ochrony danych.

Pytanie 4

Funkcja roli Serwera Windows 2012, która umożliwia obsługę ruterów NAT oraz ruterów BGP w sieciach lokalnych, to

A. serwer proxy aplikacji sieci Web
B. Direct Access oraz VPN (RAS)
C. przekierowanie HTTP
D. routing
Routing w Windows Server 2012 to kluczowa usługa, która umożliwia zarządzanie trasami przesyłania danych między różnymi sieciami. Jej główną funkcjonalnością jest obsługa ruterów translacji adresów sieciowych (NAT), co pozwala na ukrywanie prywatnych adresów IP w sieci lokalnej za pomocą jednego publicznego adresu IP. Dzięki temu organizacje mogą oszczędzać adresy IPv4, a także zwiększać bezpieczeństwo swojej infrastruktury sieciowej. Dodatkowo, routing wspiera protokoły takie jak BGP (Border Gateway Protocol), stosowane w większych, złożonych sieciach, gdzie zarządzanie trasami między różnymi systemami autonomicznymi jest kluczowe. Przykładem wykorzystania routingu może być konfiguracja zaawansowanych sieci korporacyjnych, gdzie różne oddziały firmy muszą komunikować się ze sobą oraz z internetem, a także zarządzanie dostępem użytkowników do zasobów sieciowych. Dobre praktyki w zakresie routingu obejmują regularne aktualizacje tras, monitorowanie wydajności oraz wdrożenie odpowiednich polityk bezpieczeństwa.

Pytanie 5

Wykonanie komendy ```net use Z:\M92.168.20.2\data /delete``` spowoduje

A. odłączenie zasobów z hosta 192.168.20.2 od dysku Z
B. przyłączenie zasobów z hosta 192.168.20.2 do dysku Z:
C. przyłączenie folderu data do dysku Z.
D. odłączenie folderu data od dysku Z:
Często pojawiającym się błędem w interpretacji polecenia 'net use' jest mylenie jego funkcji z innymi operacjami, takimi jak przyłączanie lub tworzenie nowych połączeń z zasobami sieciowymi. W przypadku odpowiedzi, które sugerują przyłączenie katalogu 'data' do dysku Z:, należy zrozumieć, że polecenie '/delete' wyraźnie wskazuje na zamiar zakończenia istniejącego połączenia, a nie jego nawiązania. Przyłączenie zasobów hosta do litery dysku oznaczałoby użycie polecenia 'net use Z: \\192.168.20.2\data', co jest całkowicie inną operacją. Również stwierdzenie, że polecenie dotyczy zasobów hosta bezpośrednio, jest mylące, ponieważ takim działaniem jest jedynie przydzielanie litery dysku do zdalnego katalogu. Usunięcie połączenia z dyskiem w żaden sposób nie powoduje jego przyłączenia, co jest kluczowe w rozumieniu działania tego narzędzia. Kiedy użytkownicy nie rozumieją różnicy między tymi operacjami, mogą niepotrzebnie komplikować zarządzanie zasobami w sieci, co grozi utratą danych lub dostępem do ważnych informacji w niewłaściwy sposób. Dlatego tak ważne jest, aby zrozumieć zarówno kontekst zastosowania polecenia, jak i jego syntaktykę.

Pytanie 6

Zadaniem serwera jest rozgłaszanie drukarek w obrębie sieci, kolejka zadań do wydruku oraz przydzielanie uprawnień do korzystania z drukarek?

A. FTP
B. plików
C. DHCP
D. wydruku
Odpowiedź 'wydruku' jest poprawna, ponieważ serwer wydruku pełni kluczową rolę w zarządzaniu drukowaniem w sieci. Serwer ten koordynuje dostęp do drukarek, zarządza kolejkami zadań wydruku oraz przydziela prawa dostępu użytkownikom. W praktyce oznacza to, że gdy użytkownik wysyła dokument do drukowania, serwer wydruku odbiera ten sygnał, umieszcza zadanie w kolejce i decyduje, która drukarka powinna je zrealizować. Dzięki temu użytkownicy mogą współdzielić zasoby drukarskie w sposób efektywny i zorganizowany. W standardach branżowych, takich jak IPP (Internet Printing Protocol), serwery drukujące wykorzystują nowoczesne podejścia do zarządzania drukowaniem, co umożliwia zdalne drukowanie oraz monitorowanie stanu urządzeń. Dodatkowo, serwery te mogą integrować się z systemami zarządzania dokumentami, co pozwala na pełniejsze wykorzystanie funkcji takich jak skanowanie i archiwizacja. Prawidłowe skonfigurowanie serwera wydruku jest zatem kluczowe dla efektywności operacji biurowych i oszczędności kosztów.

Pytanie 7

Po zainstalowaniu roli usług domenowych Active Directory na serwerze Windows, możliwe jest

A. współdzielenie plików znajdujących się na serwerze
B. centralne zarządzanie użytkownikami oraz komputerami
C. automatyczne przypisywanie adresów IP komputerom w sieci
D. udostępnienie użytkownikom witryny internetowej
Centralne zarządzanie użytkownikami i komputerami jest kluczową funkcjonalnością roli usług domenowych Active Directory (AD DS) na serwerach Windows. Dzięki tej roli administratorzy mogą tworzyć, modyfikować i usuwać konta użytkowników oraz urządzeń w zorganizowany sposób, co znacząco ułatwia zarządzanie dużymi środowiskami IT. W praktyce, AD DS pozwala na wdrażanie polityk bezpieczeństwa i grupowych, co umożliwia określenie, jakie zasoby i aplikacje są dostępne dla poszczególnych użytkowników oraz grup. Na przykład, administrator może przydzielić dostęp do określonej aplikacji tylko pracownikom działu finansowego. Dodatkowo, dzięki integracji z innymi usługami Microsoft, takimi jak Exchange czy SharePoint, AD DS wspiera efektywne zarządzanie infrastrukturą IT w organizacji, umożliwiając centralizację procesów uwierzytelniania i autoryzacji. To podejście jest zgodne z najlepszymi praktykami w zakresie zarządzania tożsamością i dostępem, co przyczynia się do zwiększenia bezpieczeństwa i efektywności operacyjnej w środowiskach korporacyjnych.

Pytanie 8

W Active Directory, zbiór składający się z jednej lub wielu domen, które dzielą wspólny schemat oraz globalny katalog, określa się mianem

A. liściem
B. gwiazdą
C. siatką
D. lasem
Odpowiedź 'lasem' jest poprawna, ponieważ w architekturze Active Directory (AD) termin 'las' odnosi się do zbioru jednej lub większej liczby domen, które mają wspólny schemat (Schema) oraz globalny wykaz (Global Catalog). Las jest kluczowym elementem organizacji wewnętrznej Active Directory, który pozwala na zarządzanie grupami domen i ich zasobami w skoordynowany sposób. W praktyce, las umożliwia administratorom IT zarządzanie wieloma domenami w ramach jednej struktury, co jest szczególnie istotne w dużych organizacjach z rozproszoną infrastrukturą IT. Dla przykładu, jeśli firma ma różne oddziały w różnych lokalizacjach, może stworzyć las, który obejmie wszystkie te oddziały jako osobne domeny, ale z możliwością współdzielenia zasobów i informacji. Dzięki temu organizacja może zachować elastyczność i łatwość w zarządzaniu, a także zapewnić spójność w politykach bezpieczeństwa i dostępu. Dodatkowo, w kontekście dobrych praktyk, zarządzanie lasami w AD wspiera zasady segregacji obowiązków oraz ułatwia nadzorowanie polityk grupowych.

Pytanie 9

Ile domen rozgłoszeniowych istnieje w sieci o schemacie przedstawionym na rysunku, jeżeli przełączniki pracują w drugiej warstwie modelu ISO/OSI z konfiguracją domyślną?

Ilustracja do pytania
A. 11
B. 9
C. 7
D. 5
Wybór błędnej odpowiedzi może wynikać z nieporozumienia dotyczącego roli przełączników w sieci. Często myli się liczbę domen rozgłoszeniowych z innymi parametrami sieci, takimi jak liczba urządzeń czy liczba portów w przełącznikach. Użytkownicy mogą przyjąć założenie, że przełączniki w sieci tworzą mniej domen, ponieważ nie uwzględniają pełnego zrozumienia, jak działają ramki rozgłoszeniowe w warstwie drugiej. Przełączniki te są skonstruowane tak, aby każda ramka trafiała do wszystkich urządzeń w danej domenie, co oznacza, że ​​każdy dodatkowy przełącznik tworzy nową, osobną domenę. Jeśli ktoś zatem zidentyfikuje tylko 5, 9 lub 11 domen jako odpowiedź, może to sugerować, że nie dostrzega on wpływu wszystkich przełączników dostępnych w schemacie. Prawidłowa analiza schematów sieciowych wymaga zrozumienia, że liczba domen rozgłoszeniowych zależy bezpośrednio od liczby przełączników, a nie od ich konfiguracji czy liczby dołączonych urządzeń. To podejście jest zgodne z najlepszymi praktykami w zakresie projektowania sieci, które zakładają, że każda zmiana w topologii sieci powinna być dokładnie przemyślana pod kątem jej wpływu na segmentację ruchu i efektywność operacyjną całego systemu.

Pytanie 10

Aby funkcja rutingu mogła prawidłowo funkcjonować na serwerze, musi być on wyposażony

A. w drugą kartę sieciową
B. w dodatkowy dysk twardy
C. w szybszy procesor
D. w dodatkową pamięć RAM
Fajnie, że zauważyłeś, że żeby funkcja rutingu działała jak należy na serwerze, potrzebujesz drugiej karty sieciowej. Ta karta to taki kluczowy element, jeśli chodzi o komunikację z innymi urządzeniami w sieci. Kiedy masz dwie karty, zwiększasz przepustowość i redundancję, co jest mega ważne, gdy jedna z kart przestaje działać. W praktyce, to rozwiązanie działa świetnie w różnych konfiguracjach, na przykład przy równoważeniu obciążenia czy w systemach wysokiej dostępności. Może być tak, że jedna karta przejmuje funkcję drugiej, gdy ta pierwsza już nie chce działać. Dodatkowo, z dodatkową kartą da się skonfigurować różne sieci, co pomaga w separacji ruchu lokalnego oraz administracyjnego, a także wspiera wirtualizację, gdzie wirtualne maszyny korzystają z dedykowanych interfejsów. No i nie zapominaj, że według dobrych praktyk w IT, ważne jest, żeby serwer miał odpowiednie karty sieciowe – to klucz do bezproblemowego działania usług sieciowych.

Pytanie 11

Jakie polecenie powinno być użyte w systemie Windows, aby uzyskać informacje o adresach wszystkich kolejnych ruterów przekazujących dane z komputera do celu?

A. arp
B. tracert
C. ipconfig
D. ping
Polecenie tracert (trace route) jest narzędziem diagnostycznym używanym w systemie Windows do śledzenia trasy pakietów IP do docelowego adresu. Działa poprzez wysyłanie pakietów ICMP Echo Request z różnymi czasami życia (TTL - Time To Live), co pozwala na identyfikację każdego ruter, przez który przechodzą pakiety. Każdy ruter zmniejsza wartość TTL o 1, a gdy TTL osiąga 0, ruter wysyła z powrotem komunikat ICMP Time Exceeded, co umożliwia identyfikację jego adresu IP. Tracert jest szczególnie przydatnym narzędziem w diagnostyce sieciowej, umożliwiającym administratorom zrozumienie, gdzie mogą występować opóźnienia lub problemy w trasie pakietów. Przykładowo, używając komendy tracert www.example.com, możemy zobaczyć, przez jakie urządzenia przeszły pakiety, co może pomóc w lokalizacji problemów z łącznością lub identyfikacji nieprawidłowości w sieci. Dobrą praktyką jest regularne korzystanie z tracert w celu monitorowania wydajności sieci oraz analizy jej struktury.

Pytanie 12

Jakie urządzenie pozwala na podłączenie drukarki bez karty sieciowej do sieci lokalnej komputerów?

A. Punkt dostępu
B. Regenerator
C. Koncentrator
D. Serwer wydruku
Serwer wydruku to specjalistyczne urządzenie, które umożliwia podłączenie drukarek nieposiadających wbudowanej karty sieciowej do lokalnej sieci komputerowej. Działa on jako pomost pomiędzy drukarką a siecią, zatem umożliwia użytkownikom zdalne drukowanie z różnych urządzeń w tej samej sieci. Użytkownik podłącza drukarkę do serwera wydruku za pomocą interfejsu USB lub równoległego, a następnie serwer łączy się z siecią lokalną. Zastosowanie serwera wydruku jest szczególnie przydatne w biurach oraz środowiskach, gdzie wiele osób korzysta z jednej drukarki. W praktyce, standardowe serwery wydruku, takie jak te oparte na protokole TCP/IP, umożliwiają również zarządzanie zadaniami drukowania oraz monitorowanie stanu drukarki, co jest zgodne z dobrymi praktykami w obszarze zarządzania zasobami drukującymi.

Pytanie 13

W biurze rachunkowym potrzebne jest skonfigurowanie punktu dostępu oraz przygotowanie i podłączenie do sieci bezprzewodowej trzech komputerów oraz drukarki z WiFi. Koszt usługi konfiguracji poszczególnych elementów sieci wynosi 50 zł za każdy komputer, 50 zł za drukarkę i 100 zł za punkt dostępu. Jaki będzie całkowity wydatek związany z tymi pracami serwisowymi?

A. 200 zł
B. 100 zł
C. 300 zł
D. 250 zł
Cały koszt serwisu wynosi 300 zł. To wynik dodania kosztów za konfigurację trzech komputerów, drukarki i punktu dostępu. Koszt skonfigurowania jednego komputera to 50 zł, więc jeśli mamy trzy, to wychodzi 150 zł (50 zł razy 3). Do tego jeszcze 50 zł za drukarkę i 100 zł za punkt dostępu. Jak to zsumujesz, to dostaniesz 150 zł + 50 zł + 100 zł, co daje 300 zł. To jest ważne, bo pokazuje, jak kluczowe jest dobre planowanie budżetu w usługach IT. Z mojego doświadczenia, firmy często muszą uważnie oceniać koszty przy wprowadzaniu nowych technologii, bo inaczej mogą się zdziwić. Dlatego dobrze jest przeanalizować wszystko dokładnie przed startem projektu, żeby lepiej nią zarządzać i nie mieć niespodzianek z wydatkami w przyszłości.

Pytanie 14

Urządzenie sieciowe typu most (ang. Bridge) działa w:

A. pierwszej warstwie modelu OSI
B. osiemnej warstwie modelu OSI
C. jest urządzeniem klasy store and forward
D. nie ocenia ramki pod względem adresu MAC
Most (ang. Bridge) jest urządzeniem sieciowym, które działa w drugiej warstwie modelu OSI, znanej jako warstwa łącza danych. Jego głównym zadaniem jest segmentacja ruchu sieciowego oraz poprawa wydajności i bezpieczeństwa komunikacji. Pracując w trybie 'store and forward', most odbiera ramki danych, buforuje je, a następnie analizuje ich nagłówki, aby określić, czy wysłać je do danego segmentu sieci. To podejście pozwala na eliminację ewentualnych błędów w danych, ponieważ most może zignorować ramki, które są uszkodzone. Mosty są często wykorzystywane w architekturach LAN (Local Area Network), gdzie pozwalają na łączenie różnych segmentów sieci, co z kolei umożliwia lepsze zarządzanie ruchem i zwiększa dostępność sieci. W kontekście standardów, mosty są zgodne z protokołem IEEE 802.1D, który definiuje standardy dla mostowania oraz zarządzania ruchami w sieciach Ethernet. Dobre praktyki w projektowaniu sieci zalecają stosowanie mostów w sytuacjach, gdzie istnieje potrzeba podziału ruchu lub zwiększenia przepustowości bez konieczności inwestowania w droższe przełączniki.

Pytanie 15

Urządzenia spełniające standard 802.11 g mogą osiągnąć maksymalną prędkość transmisji danych wynoszącą

A. 54 Mb/s
B. 108 Mb/s
C. 150 Mb/s
D. 11 Mb/s
Odpowiedź 54 Mb/s to strzał w dziesiątkę. Standard 802.11g, który wszedł w życie w 2003 roku, właśnie taką prędkość oferuje. To spory postęp w porównaniu do wcześniejszego 802.11b, które radziło sobie tylko z 11 Mb/s. Prędkość 54 Mb/s osiąga się dzięki technologii OFDM, która lepiej wykorzystuje pasmo. W praktyce, ten standard jest naprawdę przydatny w domowych sieciach i małych biurach, gdzie szybkość i stabilność są ważne, na przykład do oglądania filmów czy grania online. Co ciekawe, 802.11g współpracuje też z urządzeniami 802.11b, co ułatwia korzystanie ze starszych sprzętów w nowych sieciach. Z mojej perspektywy, warto jednak pamiętać, że realna prędkość może być niższa z powodu różnych zakłóceń, odległości od routera i liczby podłączonych urządzeń.

Pytanie 16

W strukturze hierarchicznej sieci komputery należące do użytkowników znajdują się w warstwie

A. szkieletowej
B. dostępu
C. dystrybucji
D. rdzenia
Warstwa dostępu w modelu hierarchicznym sieci komputerowych jest kluczowym elementem, który odpowiedzialny jest za bezpośrednie łączenie użytkowników i urządzeń końcowych z siecią. To w tej warstwie odbywa się fizyczne podłączenie do sieci oraz zarządzanie dostępem do zasobów, co czyni ją istotnym komponentem w architekturze sieci. W praktyce, urządzenia takie jak switche, punkty dostępowe oraz routery operują w tej warstwie, umożliwiając użytkownikom dostęp do zasobów sieciowych oraz internetowych. Przykładem zastosowania tej warstwy może być biuro, w którym pracownicy korzystają z laptopów i smartfonów, które łączą się z siecią lokalną za pomocą switchy i punktów dostępowych. Właściwe zaprojektowanie warstwy dostępu, zgodnie z zasadami best practices, ma kluczowe znaczenie dla zapewnienia wydajności oraz bezpieczeństwa sieci. Ważne jest również, aby uwzględnić kwestie takie jak VLAN-y do segregacji ruchu i bezpieczeństwa, co jest standardową praktyką w nowoczesnych sieciach lokalnych.

Pytanie 17

Jakie miejsce nie powinno być używane do przechowywania kopii zapasowych danych z dysku twardego komputera?

A. Pamięć USB
B. Zewnętrzny dysk
C. Inna partycja dysku tego komputera
D. Płyta CD/DVD
Inna partycja dysku tego komputera nie powinna być miejscem przechowywania kopii bezpieczeństwa danych, ponieważ w przypadku awarii systemu operacyjnego lub problemów z dyskiem twardym, zarówno oryginalne dane, jak i kopie zapasowe mogą zostać utracone. Zgodnie z zasadą 3-2-1, która jest powszechnie stosowana w zarządzaniu danymi, zaleca się posiadanie trzech kopii danych na dwóch różnych nośnikach, z jedną kopią przechowywaną w innym miejscu. Przykładowo, jeśli wszystkie kopie zapasowe znajdują się na tej samej partycji, usunięcie systemu operacyjnego lub uszkodzenie sektora dysku prowadzi do utraty zarówno danych, jak i ich kopii. W praktyce, właściwym podejściem jest przechowywanie kopii na zewnętrznym dysku twardym lub w chmurze, co zapewnia większe bezpieczeństwo. Takie działanie zabezpiecza przed jednoczesnym usunięciem danych i kopii zapasowych, co jest kluczowe w kontekście zachowania integralności danych.

Pytanie 18

Jakie ograniczenie funkcjonalne występuje w wersji Standard systemu Windows Server 2019?

A. Wirtualizacja maksymalnie dla dwóch instancji
B. Obsługuje najwyżej dwa procesory
C. Licencjonowanie na maksymalnie 50 urządzeń
D. Brak interfejsu graficznego
Nieprawidłowe odpowiedzi wskazują na powszechne nieporozumienia dotyczące możliwości i ograniczeń Windows Server 2019 w wersji Standard. Na przykład, licencjonowanie na maksymalnie 50 urządzeń nie jest prawdziwe, ponieważ wersja Standard pozwala na licencjonowanie serwerów w oparciu o liczbę rdzeni procesora, a nie na określoną liczbę urządzeń. Ograniczenie do dwóch procesorów jest również mylące; w rzeczywistości edycja Standard wspiera maksymalnie dwa procesory fizyczne, ale liczba rdzeni, które mogą być wykorzystane na każdym z procesorów, nie jest ograniczona, co może prowadzić do nieprawidłowych wniosków o całkowitej mocy obliczeniowej. Co więcej, twierdzenie dotyczące braku środowiska graficznego jest błędne, ponieważ Windows Server 2019 może być zainstalowany z interfejsem graficznym, chociaż istnieje opcja instalacji w trybie core, który ogranicza interfejs graficzny i zwiększa bezpieczeństwo. To podejście jest zgodne z najlepszymi praktykami w zakresie zarządzania serwerami, ale nie oznacza, że graficzny interfejs nie jest dostępny. Właściwe zrozumienie architektury Windows Server 2019 i jej edycji jest niezbędne do prawidłowego planowania i wdrażania rozwiązań serwerowych, a także do uniknięcia błędów związanych z licencjonowaniem i konfiguracją.

Pytanie 19

Która z poniższych właściwości kabla koncentrycznego RG-58 sprawia, że nie jest on obecnie stosowany w budowie lokalnych sieci komputerowych?

A. Maksymalna prędkość przesyłania danych wynosząca 10 Mb/s
B. Koszt narzędzi potrzebnych do montażu i łączenia kabli
C. Brak opcji nabycia dodatkowych urządzeń sieciowych
D. Maksymalna odległość między stacjami wynosząca 185 m
Podane cechy, takie jak maksymalna odległość pomiędzy stacjami wynosząca 185 m, cena narzędzi do montażu oraz brak możliwości zakupu dodatkowych urządzeń sieciowych, mogą na pierwszy rzut oka wydawać się istotne w kontekście wyboru kabla do lokalnych sieci komputerowych. Jednakże, kluczowym czynnikiem, który decyduje o niewłaściwości kabla RG-58 w tej roli, jest jego niska maksymalna prędkość transmisji danych, wynosząca 10 Mb/s. W sieciach komputerowych, wydajność i przepustowość są zdecydowanie bardziej krytyczne niż inne aspekty, takie jak koszt narzędzi czy odległość. W praktyce, kable koncentryczne, takie jak RG-58, mogą być stosowane w określonych, mniej wymagających aplikacjach, ale ich ograniczenia w zakresie prędkości sprawiają, że są one nieodpowiednie dla nowoczesnych rozwiązań, które wymagają szybkiej wymiany danych. Zdecydując się na budowę lokalnej sieci komputerowej, inżynierowie i projektanci sieci powinni kierować się aktualnymi standardami branżowymi, które jasno określają minimalne wymagania dotyczące prędkości transmisji oraz odległości. Dlatego błędem jest ocena kabla koncentrycznego na podstawie jego maksymalnej odległości czy kosztów montażu, gdyż kluczowym czynnikiem powinny być jego właściwości transmisyjne.

Pytanie 20

Jakie urządzenie należy wykorzystać, aby połączyć lokalną sieć z Internetem dostarczanym przez operatora telekomunikacyjnego?

A. Konwerter mediów
B. Punkt dostępu
C. Ruter ADSL
D. Przełącznik warstwy 3
Ruter ADSL jest urządzeniem, które łączy lokalną sieć komputerową z Internetem dostarczanym przez operatora telekomunikacyjnego. Działa on na zasadzie modulacji sygnału ADSL, co pozwala na jednoczesne przesyłanie danych przez linię telefoniczną, bez zakłócania połączeń głosowych. Ruter ADSL pełni funkcję bramy do sieci, umożliwiając podłączenie wielu urządzeń w sieci lokalnej do jednego połączenia internetowego. Zazwyczaj wyposażony jest w porty LAN, przez które można podłączyć komputery, drukarki oraz inne urządzenia. Przykładem zastosowania może być domowa sieć, gdzie ruter ADSL łączy się z modemem telefonicznym, a następnie rozdziela sygnał na różne urządzenia w sieci. Dodatkowo, rutery ADSL często zawierają funkcje zarządzania jakością usług (QoS) oraz zabezpieczenia, takie jak firewall, co jest zgodne z najlepszymi praktykami w zakresie bezpieczeństwa sieci. Warto również zauważyć, że rutery ADSL są standardowym rozwiązaniem w przypadku lokalnych sieci, które korzystają z technologii xDSL i są szeroko stosowane w domach oraz małych biurach.

Pytanie 21

Wskaż protokół, którego wiadomości są używane przez polecenie ping?

A. ICMP
B. ARP
C. TCP
D. DNS
Protokół ICMP (Internet Control Message Protocol) jest kluczowym elementem w komunikacji sieciowej, wykorzystywanym do przesyłania komunikatów kontrolnych oraz diagnostycznych. Komenda ping opiera się właśnie na ICMP, wysyłając pakiety Echo Request i oczekując na odpowiedzi w postaci pakietów Echo Reply. Dzięki temu, użytkownicy i administratorzy mogą diagnozować dostępność urządzeń w sieci oraz mierzyć czas potrzebny na przesył danych. ICMP jest integralną częścią protokołu IP, co sprawia, że jego użycie jest zgodne z międzynarodowymi standardami, takimi jak RFC 792. W praktyce, polecenie ping pozwala na identyfikację problemów z łącznością, monitorowanie stanu sieci oraz umożliwia przeprowadzanie testów wydajności. Na przykład, w przypadku awarii serwera, administratorzy mogą użyć polecenia ping, aby sprawdzić, czy serwer jest osiągalny, co jest pierwszym krokiem w diagnostyce problemów sieciowych. Dobrą praktyką jest regularne używanie narzędzi diagnostycznych opartych na ICMP w celu utrzymania zdrowia sieci.

Pytanie 22

Komputery K1 i K2 nie mogą się komunikować. Adresacja urządzeń jest podana w tabeli. Co należy zmienić, aby przywrócić komunikację w sieci?

UrządzenieAdresMaskaBrama
K110.0.0.2255.255.255.12810.0.0.1
K210.0.0.102255.255.255.19210.0.0.1
R1 (F1)10.0.0.1255.255.255.128
R1 (F2)10.0.0.101255.255.255.192
Ilustracja do pytania
A. Adres bramy dla K1.
B. Adres bramy dla K2.
C. Maskę w adresie dla K2.
D. Maskę w adresie dla K1.
Adres bramy dla K2 jest kluczowym elementem w zapewnieniu, że urządzenia K1 i K2 mogą się komunikować. K1, posiadający adres 10.0.0.2 z maską 255.255.255.128, znajduje się w podsieci 10.0.0.0/25, co oznacza, że jego adresy IP w tej podsieci mieszczą się w zakresie od 10.0.0.1 do 10.0.0.126. Z kolei K2 ma adres 10.0.0.102 z maską 255.255.255.192, co wskazuje na podsieć 10.0.0.64/26, obejmującą adresy od 10.0.0.65 do 10.0.0.126. Aby zapewnić komunikację między tymi urządzeniami, muszą one być w tej samej podsieci lub muszą mieć odpowiednio skonfigurowane bramy. W przypadku K2, adres bramy 10.0.0.1 nie jest poprawny, ponieważ znajduje się w innej podsieci. K2 powinno mieć bramę w swojej podsieci, na przykład 10.0.0.65. Takie podejście jest zgodne z dobrymi praktykami projektowania sieci, które zalecają, aby urządzenia komunikujące się ze sobą miały wspólny adres bramy lub znajdowały się w tej samej podsieci. W praktyce, niewłaściwa konfiguracja adresów bramy i submask często prowadzi do problemów z komunikacją w sieciach, co podkreśla znaczenie dokładnej analizy adresacji IP.

Pytanie 23

Z jakiego powodu adres 192.168.100.127 nie może zostać przypisany jako adres komputera w sieci 192.168.100.0/25?

A. Nie wchodzi w skład zakresu adresów tej sieci
B. To adres rozgłoszeniowy w tej sieci
C. Nie jest to adres prywatny dla tej sieci
D. To adres pętli zwrotnej danego komputera
Adres 192.168.100.127 jest adresem rozgłoszeniowym dla sieci 192.168.100.0/25, co oznacza, że nie może być przydzielony żadnemu z komputerów w tej sieci. Przy analizie adresów IP, istotne jest zrozumienie, że dla każdej podsieci istnieje jeden adres przeznaczony na rozgłoszenie, który jest zarezerwowany do komunikacji z wszystkimi urządzeniami w danej sieci. W przypadku podsieci 192.168.100.0/25, zakres adresów wynosi od 192.168.100.1 do 192.168.100.126, z 192.168.100.0 jako adresem sieci i 192.168.100.127 jako adresem rozgłoszeniowym. W praktyce, adres rozgłoszeniowy jest wykorzystywany do wysyłania pakietów, które mają dotrzeć do wszystkich urządzeń w lokalnej sieci, co jest zgodne z dobrymi praktykami w zarządzaniu adresacją IP. Zrozumienie roli adresów rozgłoszeniowych jest kluczowe dla efektywnego projektowania i zarządzania sieciami komputerowymi, co umożliwia optymalizację komunikacji oraz efektywne wykorzystanie zasobów sieciowych.

Pytanie 24

Który z protokołów nie jest wykorzystywany do ustawiania wirtualnej sieci prywatnej?

A. L2TP
B. PPTP
C. SNMP
D. SSTP
Protokół SNMP (Simple Network Management Protocol) jest standardowym protokołem używanym do zarządzania urządzeniami w sieciach IP. Jego głównym celem jest monitorowanie stanu urządzeń sieciowych, takich jak routery, przełączniki i serwery, a także zbieranie i organizowanie informacji o ich statusie. SNMP nie jest jednak protokołem stosowanym do konfiguracji wirtualnej sieci prywatnej (VPN). W kontekście VPN, inne protokoły, takie jak PPTP, L2TP i SSTP, są dedykowane do tworzenia bezpiecznych tuneli komunikacyjnych, które umożliwiają zdalnym użytkownikom dostęp do zasobów sieciowych. SNMP znajduje zastosowanie w zarządzaniu i monitorowaniu infrastruktury sieciowej, co jest kluczowe dla administratorów IT, natomiast protokoły VPN koncentrują się na bezpieczeństwie i prywatności danych w przesyłach sieciowych. W praktyce, SNMP może być używane razem z VPN, ale nie jest samodzielnym rozwiązaniem do ich konfiguracji.

Pytanie 25

Oblicz koszt brutto materiałów niezbędnych do połączenia w sieć, w topologii gwiazdy, 3 komputerów wyposażonych w karty sieciowe, wykorzystując przewody o długości 2 m. Ceny materiałów podano w tabeli.

Nazwa elementuCena jednostkowa brutto
przełącznik80 zł
wtyk RJ-451 zł
przewód typu „skrętka"1 zł za 1 metr
A. 92 zł
B. 252 zł
C. 89 zł
D. 249 zł
Aby obliczyć koszt brutto materiałów do stworzenia sieci w topologii gwiazdy dla trzech komputerów, kluczowe jest zrozumienie, jakie elementy są potrzebne do prawidłowego połączenia. W tym przypadku, do połączenia komputerów niezbędne są: przełącznik, przewody o długości 2 m oraz wtyki RJ-45. Koszt przełącznika jest stały, a koszt przewodów i wtyków można obliczyć na podstawie ich liczby. Każdy komputer wymaga jednego przewodu, co w przypadku trzech komputerów oznacza 3 przewody, czyli 6 m w sumie. Do tego dodajemy koszt przełącznika i wtyków. Po zsumowaniu wszystkich kosztów dochodzimy do kwoty 92 zł, która jest poprawna. Warto pamiętać, że w praktyce, przy projektowaniu sieci, właściwy dobór sprzętu i materiałów ma ogromne znaczenie dla wydajności i stabilności sieci. Wytyczne branżowe zalecają, aby przy budowie sieci lokalnych zwracać uwagę na jakość komponentów oraz ich zgodność z obowiązującymi standardami, co może zapobiec problemom z komunikacją i stabilnością w przyszłości.

Pytanie 26

Administrator zamierza udostępnić folder C:\instrukcje w sieci trzem użytkownikom należącym do grupy Serwisanci. Jakie rozwiązanie powinien wybrać?

A. Udostępnić grupie Wszyscy folder C:\instrukcje i ustalić limit równoczesnych połączeń na 3
B. Udostępnić dysk C: grupie Serwisanci i nie ograniczać liczby równoczesnych połączeń
C. Udostępnić grupie Wszyscy dysk C: i ograniczyć liczbę równoczesnych połączeń do 3
D. Udostępnić folder C:\instrukcje grupie Serwisanci bez ograniczeń co do liczby równoczesnych połączeń
Udostępnienie folderu C:\instrukcje grupie Serwisanci jest najlepszym rozwiązaniem, ponieważ pozwala na skoncentrowanie kontroli dostępu na niewielkiej grupie użytkowników, co jest zgodne z zasadą minimalnych uprawnień. Taka praktyka zapewnia, że tylko upoważnieni użytkownicy mają dostęp do niezbędnych zasobów, co zmniejsza ryzyko nieautoryzowanego dostępu. Ograniczenie dostępu do konkretnego folderu zamiast całego dysku C: minimalizuje potencjalne zagrożenia związane z bezpieczeństwem danych, umożliwiając jednocześnie łatwe zarządzanie uprawnieniami. W kontekście zarządzania systemem, unikanie ograniczeń w liczbie równoczesnych połączeń może przyspieszyć dostęp do folderu, co jest korzystne w przypadku, gdy trzech użytkowników jednocześnie potrzebuje dostępu do tych samych instrukcji. Takie podejście jest zgodne z najlepszymi praktykami w zakresie zarządzania zasobami w sieci, gdzie kluczowe znaczenie ma efektywne zarządzanie dostępem i bezpieczeństwem.

Pytanie 27

Kabel skręcany o czterech parach, w którym każdy z przewodów jest otoczony ekranem foliowym, a ponadto wszystkie pary są dodatkowo zabezpieczone siatką, to kabel

A. SF/UTP
B. F/UTP
C. S/FTP
D. U/UTP
Każda z pozostałych odpowiedzi ma swoje specyficzne cechy, które nie odpowiadają dokładnie opisanej specyfikacji kabla. Odpowiedź SF/UTP oznacza kabel, w którym zewnętrzny ekran jest wspólny dla wszystkich par, ale nie ma osobnych ekranów dla każdej z par. To sprawia, że jego odporność na zakłócenia jest niższa w porównaniu do S/FTP. F/UTP, z kolei, oznacza kabel z ekranem folii dla całego układu par, a brak ekranowania dla poszczególnych par może prowadzić do większego ryzyka zakłóceń, zwłaszcza w gęsto zabudowanych środowiskach. U/UTP to najprostsza konstrukcja bez ekranowania w ogóle, co czyni go najmniej odpornym na zakłócenia elektromagnetyczne. Stosowanie kabli U/UTP w środowiskach o wysokim poziomie zakłóceń może prowadzić do degradacji jakości sygnału i zwiększonej liczby błędów przy transmisji danych. Typowe błędy myślowe, które mogą prowadzić do wyboru nieodpowiednich kabli, obejmują niedocenienie wpływu zakłóceń elektromagnetycznych oraz nieznajomość wymagań dotyczących konkretnego zastosowania. Warto zatem zapoznać się z wymaganiami sieci, aby dobrać odpowiedni kabel, który zapewni stabilne połączenie i wysoką wydajność transmisji danych.

Pytanie 28

Ustanawianie zaszyfrowanych połączeń pomiędzy hostami w publicznej sieci Internet, wykorzystywane w sieciach VPN (Virtual Private Network), to

A. mapowanie
B. mostkowanie
C. trasowanie
D. tunelowanie
Tunelowanie to technika, która umożliwia tworzenie zaszyfrowanych połączeń między hostami w publicznej sieci Internet, co jest kluczowe w kontekście Virtual Private Network (VPN). Proces ten polega na enkapsulacji danych w dodatkowych nagłówkach, co pozwala na przesyłanie informacji przez niezabezpieczone sieci w sposób bezpieczny i prywatny. Przykładem zastosowania tunelowania są protokoły takie jak PPTP, L2TP oraz OpenVPN, które implementują różne metody szyfrowania i autoryzacji, zapewniając tym samym poufność i integralność przesyłanych danych. W praktyce tunelowanie pozwala użytkownikom na bezpieczne połączenia zdalne do sieci lokalnych, co jest niezbędne dla pracowników zdalnych oraz dla firm, które pragną chronić swoje zasoby przed nieautoryzowanym dostępem. Dobre praktyki w zakresie konfiguracji VPN obejmują stosowanie silnych algorytmów szyfrowania oraz regularne aktualizacje oprogramowania, aby upewnić się, że systemy są odporne na znane zagrożenia.

Pytanie 29

Czy po zainstalowaniu roli Hyper-V na serwerze Windows można

A. centralne zarządzanie oraz wsparcie dla rozproszonych aplikacji biznesowych
B. upraszczanie i automatyzowanie zarządzania kluczami licencji zbiorczych
C. szybkie zdalne wdrażanie systemów operacyjnych Windows na komputerach w sieci
D. tworzenie maszyn wirtualnych oraz ich zasobów i zarządzanie nimi
Odpowiedź wskazuje na kluczową funkcjonalność Hyper-V, która polega na tworzeniu i zarządzaniu maszynami wirtualnymi (VM). Hyper-V to wirtualizacyjna platforma oferowana przez Microsoft, która pozwala na uruchamianie wielu instancji systemów operacyjnych na tym samym fizycznym serwerze. Użytkownicy mogą tworzyć maszyny wirtualne z różnymi konfiguracjami sprzętowymi, co umożliwia testowanie aplikacji, uruchamianie serwerów plików, baz danych czy aplikacji webowych w izolowanym środowisku. Przykładem zastosowania może być wykorzystanie Hyper-V do symulacji środowiska produkcyjnego w celu przeprowadzenia testów przed wdrożeniem nowych rozwiązań. Dodatkowo, wirtualizacja za pomocą Hyper-V pozwala na lepsze wykorzystanie zasobów fizycznych, zmniejszenie kosztów operacyjnych i zapewnienie elastyczności w zarządzaniu infrastrukturą IT. W kontekście dobrych praktyk branżowych, używanie Hyper-V jest zgodne z podejściem do wirtualizacji zasobów, które zwiększa skalowalność i redukuje czas przestojów serwerów.

Pytanie 30

Aby zmierzyć tłumienie łącza światłowodowego w dwóch zakresach długości fali 1310 nm oraz 1550 nm, powinno się wykorzystać

A. tester UTP
B. miernik mocy optycznej
C. rejestrator cyfrowy
D. reflektometr TDR
Miernik mocy optycznej jest urządzeniem wykorzystywanym do pomiarów intensywności światła w systemach światłowodowych, co czyni go idealnym narzędziem do oceny tłumienia łącza. Tłumienie to strata sygnału, która może wystąpić w wyniku absorpcji, dyspersji czy odbić na złączach. Dla oceny wydajności łącza światłowodowego w standardowych oknach transmisyjnych 1310 nm i 1550 nm, miernik mocy optycznej umożliwia precyzyjne określenie poziomu mocy optycznej, co jest kluczowe dla identyfikacji ewentualnych problemów w infrastrukturze. W praktyce, pomiar mocy na obu długościach fal pozwala na weryfikację zgodności z normami branżowymi, takimi jak ISO/IEC 11801, które określają maksymalne poziomy tłumienia dla różnych zastosowań. Regularne pomiary z użyciem miernika mocy optycznej są niezbędne dla zapewnienia optymalnej wydajności sieci światłowodowych, co przekłada się na stabilność i jakość przesyłanego sygnału.

Pytanie 31

W lokalnej sieci stosowane są adresy prywatne. Aby nawiązać połączenie z serwerem dostępnym przez Internet, trzeba

A. dodać drugą kartę sieciową z adresem publicznym do każdego hosta
B. skonfigurować translację NAT na ruterze brzegowym lub serwerze
C. ustawić sieci wirtualne w obrębie sieci lokalnej
D. przypisać adres publiczny jako dodatkowy adres karty sieciowej na każdym hoście
Odpowiedź jest prawidłowa, ponieważ translacja adresów sieciowych (NAT) jest kluczowym procesem umożliwiającym komunikację między prywatnymi adresami IP w sieci lokalnej a publicznymi adresami IP w Internecie. NAT działa na routerach brzegowych, które przekształcają adresy prywatne hostów w adresy publiczne, co pozwala na nawiązywanie połączeń z serwerami dostępnymi w sieci globalnej. Przykładem może być sytuacja, gdy użytkownik w domowej sieci lokalnej, korzystając z routera z włączonym NAT, chce uzyskać dostęp do strony internetowej. Router zmienia adres prywatny urządzenia na swój adres publiczny, a odpowiedzi z serwera są następnie kierowane z powrotem do właściwego urządzenia dzięki przechowywaniu informacji o sesji. NAT jest zgodny z protkokłami takimi jak TCP/IP i jest uznawany za standardową praktykę w zarządzaniu adresacją IP, co zwiększa bezpieczeństwo sieci lokalnych poprzez ukrycie rzeczywistych adresów IP. Dodatkowo, NAT umożliwia oszczędność adresów IP, ponieważ wiele urządzeń może korzystać z jednego adresu publicznego.

Pytanie 32

Jaką prędkość transmisji określa standard Ethernet IEEE 802.3z?

A. 100 GB
B. 1 Gb
C. 100 Mb
D. 10 Mb
Standard sieci Ethernet IEEE 802.3z definiuje przepływność 1 Gb/s, co odpowiada technologii Gigabit Ethernet. Ta technologia, wprowadzona w latach 90. XX wieku, stała się standardem w sieciach lokalnych, umożliwiając szybki transfer danych na odległość do 100 metrów przy użyciu standardowego okablowania kategorii 5. Zastosowanie Gigabit Ethernet w biurach, centrach danych oraz w sieciach rozległych znacznie zwiększyło efektywność przesyłania danych, co jest kluczowe w dzisiejszych wymagających aplikacjach, takich jak wirtualizacja, przesyłanie strumieniowe wideo oraz szerokopasmowe usługi internetowe. Warto również zauważyć, że standard ten jest kompatybilny z wcześniejszymi wersjami Ethernet, co pozwala na łatwą migrację oraz integrację z istniejącą infrastrukturą sieciową. Dodatkowo, Gigabit Ethernet oferuje zaawansowane funkcje, takie jak QoS (Quality of Service) oraz możliwość wielodostępu. W kontekście rozwoju technologii, standard IEEE 802.3z otworzył drzwi do dalszych innowacji, takich jak 10GbE i 100GbE.

Pytanie 33

Atak mający na celu zablokowanie dostępu do usług dla uprawnionych użytkowników, co skutkuje zakłóceniem normalnego działania komputerów oraz komunikacji w sieci, to

A. Brute force
B. Denial of Service
C. Man-in-the-Middle
D. Ping sweeps
Atak typu Denial of Service (DoS) polega na uniemożliwieniu dostępu do usług i zasobów sieciowych dla legalnych użytkowników poprzez przeciążenie systemu, co prowadzi do jego awarii lub spowolnienia. Tego rodzaju atak może być realizowany na różne sposoby, na przykład poprzez wysyłanie ogromnej liczby żądań do serwera, co skutkuje jego zablokowaniem. W praktyce, ataki DoS są szczególnie niebezpieczne dla organizacji, które polegają na ciągłej dostępności swoich usług, takich jak bankowość internetowa, e-commerce czy usługi chmurowe. Aby chronić się przed takimi atakami, organizacje powinny stosować różnorodne strategie, takie jak filtry ruchu, mechanizmy wykrywania intruzów oraz odpowiednie konfiguracje zapór sieciowych. Dobrą praktyką jest także implementacja systemów przeciwdziałania atakom DDoS (Distributed Denial of Service), które są bardziej skomplikowane i wymagają współpracy wielu urządzeń. Standardy branżowe, takie jak ISO/IEC 27001, podkreślają znaczenie zarządzania ryzykiem i wdrażania polityk bezpieczeństwa, aby zminimalizować skutki ataków DoS.

Pytanie 34

Aplikacja, która pozwala na przechwytywanie pakietów oraz analizowanie aktywności w sieci, to

A. skaner sieci
B. firewall
C. oprogramowanie antywirusowe
D. skaner Wifi
Skaner sieci to narzędzie, które umożliwia przechwytywanie pakietów i monitorowanie ruchu w sieci, co czyni je niezwykle przydatnym w zarządzaniu bezpieczeństwem i diagnostyką sieci. Działa na zasadzie analizy transmisji danych, co pozwala na identyfikację potencjalnych zagrożeń, wykrywanie nieautoryzowanych urządzeń w sieci oraz monitorowanie wydajności. Przykładem zastosowania skanera sieci jest analiza ruchu w celu identyfikacji ataków DDoS, co pozwala na szybką reakcję i wdrożenie środków zaradczych. Dobre praktyki w branży rekomendują regularne korzystanie z takich narzędzi w celu zapewnienia integralności i bezpieczeństwa infrastruktury sieciowej. Skanery sieci są również kluczowe w procesie audytu bezpieczeństwa, gdzie umożliwiają ocenę podatności systemów oraz działanie zgodnie z normami takimi jak ISO 27001, które wskazują na potrzebę skutecznego monitorowania i zarządzania ryzykiem. Znalezienie odpowiedniego skanera sieciowego, który spełnia wymogi organizacyjne i techniczne, jest istotne dla efektywnej ochrony przed zagrożeniami.

Pytanie 35

Aby uzyskać odpowiedź jak na poniższym zrzucie ekranu, należy wydać polecenie:

Server:  Unknown
Address:  192.168.0.1

Non-authoritative answer:
Name:    microsoft.com
Addresses:  104.215.148.63
          13.77.161.179
          40.76.4.15
          40.112.72.205
          40.113.200.201
A. tracert microsoft.com
B. ipconfig /displaydns
C. nslookup microsoft.com
D. netstat -f
Wybór nslookup microsoft.com jest jak najbardziej trafny, bo to narzędzie jest przeznaczone do robienia zapytań DNS. Dzięki temu uzyskujesz informacje o rekordach DNS dotyczących danej domeny. W zrzucie ekranu widać, że odpowiedź pochodzi z serwera DNS, który nie jest autorytatywny dla domeny microsoft.com. Oznacza to, że to info pochodzi od serwera pośredniczącego, a nie bezpośrednio od źródła. Administratrorzy sieci często korzystają z nslookup, żeby diagnozować problemy z DNS i sprawdzać, czy rekordy są poprawnie ustawione. W praktyce, używając tego narzędzia, możesz szybko zobaczyć, jaki adres IP odpowiada na zapytanie dla danej domeny, co jest mega ważne, zwłaszcza gdy masz problemy z dostępnością stron czy z konfiguracją serwerów. Fajnie jest też znać różne opcje nslookup, jak na przykład zmianę serwera DNS, co może się przydać w bardziej skomplikowanych zadaniach administracyjnych.

Pytanie 36

Mechanizm limitów dyskowych, pozwalający zarządzać wykorzystaniem przez użytkowników zasobów dyskowych, jest określany jako

A. management
B. quota
C. spool
D. release
Odpowiedź quota jest poprawna, ponieważ termin quota (limit dyskowy) oznacza mechanizm systemowy służący do kontrolowania i ograniczania ilości przestrzeni dyskowej, jaką mogą wykorzystywać poszczególni użytkownicy lub grupy użytkowników. Mechanizm ten jest powszechnie stosowany w systemach operacyjnych, zwłaszcza w środowiskach wieloużytkownikowych, takich jak serwery plików czy systemy akademickie, gdzie konieczne jest sprawiedliwe i bezpieczne zarządzanie zasobami dyskowymi. Dzięki zastosowaniu limitów dyskowych administrator może określić maksymalny rozmiar danych zapisywanych przez użytkownika, a także liczbę plików, które mogą być przechowywane na danym systemie plików. Pozwala to zapobiegać sytuacjom, w których jeden użytkownik zajmuje całą dostępną przestrzeń dyskową, co mogłoby prowadzić do problemów z działaniem systemu lub utraty danych innych użytkowników. Pozostałe pojęcia nie odnoszą się do mechanizmu limitowania przestrzeni dyskowej. Spool dotyczy kolejkowania zadań (np. wydruków), release nie jest mechanizmem zarządzania zasobami dysku, a management jest pojęciem ogólnym, nieoznaczającym konkretnej funkcji systemowej. Dlatego właśnie odpowiedź quota najlepiej opisuje mechanizm limitów dyskowych.

Pytanie 37

Aby zabezpieczyć system Windows przed nieautoryzowanym dostępem poprzez ograniczenie liczby nieudanych prób logowania, należy ustawić

A. Zasady grup, Zasady konta
B. Panel Sterowania, Konta użytkowników
C. Zasady grup, Opcje zabezpieczeń
D. Panel Sterowania, Zaporę systemu Windows
Zasady grup oraz Zasady konta stanowią kluczowe narzędzia w zabezpieczaniu systemu Windows przed włamaniami poprzez ograniczenie liczby nieudanych prób logowania. Poprawna odpowiedź na pytanie o zabezpieczenia systemowe skupia się na implementacji polityk dotyczących kont użytkowników i ich uprawnień. Zasady konta pozwalają administratorom określić, ile razy użytkownik może wprowadzić błędne hasło przed zablokowaniem konta. Przykładowo, w organizacji można ustalić, że po trzech nieudanych próbach logowania konto użytkownika zostaje zablokowane na 15 minut, co znacząco utrudnia próby przeprowadzenia ataków typu brute force. W praktyce, wdrożenie takich zasad nie tylko zwiększa bezpieczeństwo, ale również przyczynia się do zgodności z różnymi standardami zarządzania bezpieczeństwem informacji, takimi jak ISO/IEC 27001, które zalecają implementację odpowiednich środków ochrony dla systemów informatycznych. Warto również pamiętać, że efektywne zarządzanie dostępem do zasobów systemowych, w tym tworzenie odpowiednich zasad grup, powinno być częścią ogólnej strategii zabezpieczeń organizacji.

Pytanie 38

Który standard protokołu IEEE 802.3 powinien być użyty w środowisku z zakłóceniami elektromagnetycznymi, gdy dystans między punktem dystrybucji a punktem abonenckim wynosi 200 m?

A. 10Base2
B. 1000Base–TX
C. 100Base–T
D. 100Base–FX
Wybór 1000Base-TX, 100Base-T oraz 10Base2 jako standardów do zastosowania w środowisku z silnymi zakłóceniami elektromagnetycznymi jest niewłaściwy z kilku kluczowych powodów. 1000Base-TX, mimo że obsługuje prędkości do 1 Gb/s, korzysta z miedzi, co czyni go podatnym na zakłócenia elektromagnetyczne, szczególnie na dłuższych dystansach. W przypadku instalacji na 200 m w otoczeniu o dużych zakłóceniach, jakość sygnału może ulec pogorszeniu, co prowadzi do problemów z niezawodnością połączenia. 100Base-T również oparty jest na skrętce miedzianej i oferuje jedynie prędkość do 100 Mb/s, co w obliczu zakłóceń nie jest wystarczające do efektywnego przesyłania danych. 10Base2, z kolei, jest technologią opartą na koncentrycznej, cienkiej miedzi, która ma ograniczony zasięg do 200 m i nie jest w stanie wykrywać i eliminować zakłóceń, co czyni ją nieodpowiednią dla nowoczesnych aplikacji sieciowych. Warto zauważyć, że wybierając standardy sieciowe, należy kierować się nie tylko prędkością, ale także odpornością na zakłócenia oraz możliwościami transmisyjnymi, co pojawia się w przypadku światłowodów. Niezrozumienie tych zasad może prowadzić do wyboru niewłaściwych technologii, a tym samym do nieefektywnego funkcjonowania sieci.

Pytanie 39

Jakim skrótem nazywana jest sieć, która korzystając z technologii warstwy 1 i 2 modelu OSI, łączy urządzenia rozmieszczone na dużych terenach geograficznych?

A. VLAN
B. WAN
C. VPN
D. LAN
WAN, czyli Wide Area Network, odnosi się do sieci, która łączy urządzenia rozmieszczone na dużych obszarach geograficznych, wykorzystując technologie warstwy 1 i 2 modelu OSI. W przeciwieństwie do LAN (Local Area Network), która obejmuje mniejsze obszary, takie jak biura czy budynki, WAN może rozciągać się na całe miasta, kraje a nawet kontynenty. Przykładami zastosowania WAN są sieci rozległe wykorzystywane przez przedsiębiorstwa do łączenia oddziałów w różnych lokalizacjach, a także infrastruktura internetowa, która łączy miliony użytkowników na całym świecie. Standardy takie jak MPLS (Multiprotocol Label Switching) czy frame relay są często wykorzystywane w sieciach WAN, co pozwala na efektywne zarządzanie ruchem danych oraz zapewnia odpowiednią jakość usług. Znajomość technologii WAN jest kluczowa dla specjalistów IT, szczególnie w kontekście projektowania i zarządzania infrastrukturą sieciową w dużych organizacjach.

Pytanie 40

Zrzut ekranowy przedstawia wynik wykonania w systemie z rodziny Windows Server polecenia

Server:  livebox.home
Address:  192.168.1.1

Non-authoritative answer:
dns2.tpsa.pl    AAAA IPv6 address = 2a01:1700:3:ffff::9822
dns2.tpsa.pl    internet address = 194.204.152.34
A. tracert
B. ping
C. nslookup
D. whois
Odpowiedź 'nslookup' jest poprawna, ponieważ polecenie to służy do wykonywania zapytań do systemu DNS, co jest kluczowe w zarządzaniu sieciami komputerowymi. Zrzut ekranu pokazuje wyniki, które zawierają zarówno adres IPv4, jak i IPv6 dla domeny dns2.tpsa.pl. W praktyce, nslookup jest używane do diagnozowania problemów z DNS, umożliwiając administratorom sieci weryfikację, czy dany rekord DNS jest prawidłowo skonfigurowany i dostępny. Przykładem zastosowania nslookup może być sytuacja, gdy użytkownik napotyka problemy z dostępem do określonej strony internetowej – wówczas administrator może użyć tego polecenia, aby sprawdzić, czy DNS poprawnie tłumaczy nazwę domeny na adres IP. Co więcej, nslookup pozwala na testowanie różnych serwerów DNS, co jest zgodne z dobrymi praktykami w zakresie zarządzania ruchem sieciowym i zapewnienia wysokiej dostępności usług. Warto również zaznaczyć, że narzędzie to jest częścią standardowego zestawu narzędzi administratora systemu i znacznie ułatwia pracę w środowisku sieciowym.