Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik teleinformatyk
  • Kwalifikacja: INF.07 - Montaż i konfiguracja lokalnych sieci komputerowych oraz administrowanie systemami operacyjnymi
  • Data rozpoczęcia: 11 maja 2026 11:21
  • Data zakończenia: 11 maja 2026 11:37

Egzamin niezdany

Wynik: 14/40 punktów (35,0%)

Wymagane minimum: 20 punktów (50%)

Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Urządzenie sieciowe typu most (ang. Bridge) działa w:

A. pierwszej warstwie modelu OSI
B. jest urządzeniem klasy store and forward
C. nie ocenia ramki pod względem adresu MAC
D. osiemnej warstwie modelu OSI
Most (ang. Bridge) jest urządzeniem sieciowym, które działa w drugiej warstwie modelu OSI, znanej jako warstwa łącza danych. Jego głównym zadaniem jest segmentacja ruchu sieciowego oraz poprawa wydajności i bezpieczeństwa komunikacji. Pracując w trybie 'store and forward', most odbiera ramki danych, buforuje je, a następnie analizuje ich nagłówki, aby określić, czy wysłać je do danego segmentu sieci. To podejście pozwala na eliminację ewentualnych błędów w danych, ponieważ most może zignorować ramki, które są uszkodzone. Mosty są często wykorzystywane w architekturach LAN (Local Area Network), gdzie pozwalają na łączenie różnych segmentów sieci, co z kolei umożliwia lepsze zarządzanie ruchem i zwiększa dostępność sieci. W kontekście standardów, mosty są zgodne z protokołem IEEE 802.1D, który definiuje standardy dla mostowania oraz zarządzania ruchami w sieciach Ethernet. Dobre praktyki w projektowaniu sieci zalecają stosowanie mostów w sytuacjach, gdzie istnieje potrzeba podziału ruchu lub zwiększenia przepustowości bez konieczności inwestowania w droższe przełączniki.

Pytanie 2

Polecenie dsadd służy do

A. modyfikacji właściwości obiektów w katalogu
B. przenoszenia obiektów w ramach jednej domeny
C. dodawania użytkowników, grup, komputerów, kontaktów oraz jednostek organizacyjnych do usług Active Directory
D. usuwania użytkowników, grup, komputerów, kontaktów oraz jednostek organizacyjnych z usług Active Directory
W kontekście zarządzania Active Directory, odpowiedzi sugerujące przenoszenie obiektów, usuwanie ich lub zmianę właściwości mogą prowadzić do nieporozumień dotyczących funkcji polecenia dsadd. Przenoszenie obiektów w obrębie jednej domeny wymaga zastosowania innych poleceń, takich jak dsmove, które dedykowane są do zmiany lokalizacji obiektów w hierarchii Active Directory. Usuwanie obiektów, z kolei, jest realizowane za pomocą polecenia dsrm, które ma na celu usunięcie istniejących obiektów zamiast ich tworzenia. Zmiana właściwości obiektów wymaga wykorzystania polecenia dsmod, które umożliwia edytowanie atrybutów już istniejących obiektów. Te różnice w funkcjonalności podkreślają znaczenie precyzji w zarządzaniu Active Directory, gdyż błędne użycie poleceń może prowadzić do utraty danych lub naruszenia struktury organizacyjnej. Kluczowe jest zrozumienie, że każde z wymienionych poleceń pełni swoją specyficzną rolę w zarządzaniu zasobami w Active Directory, co wymaga od administratorów wiedzy na temat ich zastosowania oraz odpowiedzialności za utrzymanie bezpieczeństwa i integralności systemu. Zrozumienie tych różnic oraz umiejętność właściwego wyboru polecenia w zależności od zadania jest niezbędne w codziennej pracy administratora systemów sieciowych.

Pytanie 3

Jaką prędkość transmisji określa standard Ethernet IEEE 802.3z?

A. 10 Mb
B. 100 Mb
C. 1 Gb
D. 100 GB
Wybór błędnych odpowiedzi, takich jak 10 Mb, 100 Mb lub 100 GB, wynika z mylnych przekonań na temat standardów Ethernet. Przepływność 10 Mb/s odnosi się do starszej wersji Ethernet, znanej jako 10BASE-T, która była popularna w latach 80. XX wieku. W dzisiejszych czasach jest to zbyt wolne i nieodpowiednie dla nowoczesnych aplikacji, które wymagają znacznie wyższych prędkości transmisji. Przepływność 100 Mb/s, związana z technologią Fast Ethernet, jest również niewystarczająca w kontekście rosnących potrzeb sieciowych, zwłaszcza w środowiskach, gdzie wiele urządzeń jest podłączonych jednocześnie. Wreszcie, 100 GB/s to parametr, który odnosi się do znacznie bardziej zaawansowanej technologii, takiej jak 100 Gigabit Ethernet (100GbE), która została wprowadzona dużo później i jest używana głównie w centrach danych oraz w infrastrukturze szkieletowej. Niezrozumienie różnic między tymi standardami oraz ich zastosowaniem w praktyce prowadzi do błędnych wniosków. Kluczowe jest zrozumienie, że rozwój technologii Ethernet następuje w miarę rosnącego zapotrzebowania na szybsze i bardziej efektywne sieci, a każdy standard ma swoje specyficzne zastosowania i ograniczenia.

Pytanie 4

Do jakiej warstwy modelu ISO/OSI odnosi się segmentacja danych, komunikacja w trybie połączeniowym z użyciem protokołu TCP oraz komunikacja w trybie bezpołączeniowym z zastosowaniem protokołu UDP?

A. Fizycznej
B. Sieciowej
C. Transportowej
D. Łącza danych
Wybór warstwy sieciowej jako odpowiedzi na pytanie o segmentowanie danych oraz komunikację w trybie połączeniowym i bezpołączeniowym wskazuje na nieporozumienie dotyczące ról poszczególnych warstw modelu ISO/OSI. Warstwa sieciowa koncentruje się głównie na trasowaniu pakietów danych oraz adresowaniu logicznym, co oznacza, że jest odpowiedzialna za przesyłanie danych pomiędzy różnymi sieciami, a nie za ich segmentację. Protokół IP, który działa na poziomie warstwy sieciowej, zajmuje się kierowaniem pakietów, ale nie zapewnia mechanizmów kontroli błędów ani segmentacji danych, co jest kluczowe w warstwie transportowej. Wybór fizycznej warstwy również nie ma uzasadnienia, ponieważ ta warstwa dotyczy przesyłania sygnałów przez medium fizyczne, a nie zarządzania komunikacją pomiędzy aplikacjami. Z kolei warstwa łącza danych odpowiada za niezawodne przesyłanie ramek danych na lokalnych sieciach, ale nie obejmuje aspektów segmentowania danych ani protokołów TCP i UDP. Typowe błędy myślowe, które prowadzą do takich niepoprawnych odpowiedzi, to mylenie funkcji zarządzania połączeniami i segmentacji danych z funkcjami routingowymi i adresowymi, co może być wynikiem braku zrozumienia pełnej struktury modelu ISO/OSI oraz zasad jego działania.

Pytanie 5

Powyżej przedstawiono fragment pliku konfiguracyjnego usługi serwerowej w systemie Linux. Jest to usługa

authoritative;
ddns-update-style ad-hoc;
subnet 192.168.1.0 netmask 255.255.255.0 {
    range 192.168.1.2 192.168.1.100;
    option domain-name "egzamin.edu.pl";
    option netbios-name-servers 192.168.1.1;
    option domain-name-servers 194.204.159.1, 194.204.152.34;
    default-lease-time 90000;
    option routers 192.168.1.1;
    option subnet-mask 255.255.255.0;
    option broadcast-address 192.168.1.255;
}
A. DDNS
B. TFTP
C. SSH2
D. DHCP
Odpowiedź DHCP jest poprawna, ponieważ fragment pliku konfiguracyjnego pokazuje kluczowe opcje typowe dla usługi Dynamic Host Configuration Protocol. DHCP jest protokołem sieciowym, który automatycznie przypisuje adresy IP oraz inne parametry konfiguracyjne (takie jak maska podsieci czy adres bramy) urządzeniom w sieci, co znacznie upraszcza zarządzanie dużymi sieciami. W praktyce, w środowisku biurowym lub w dużych sieciach lokalnych, DHCP pozwala administratorom na efektywne zarządzanie adresacją IP. Dzięki zastosowaniu opcji takich jak zakres adresów (range) oraz czas dzierżawy (default-lease-time), serwer DHCP może dynamicznie przydzielać dostępne adresy IP w sposób, który minimalizuje ryzyko konfliktów oraz zapewnia optymalną wydajność sieci. Warto również zauważyć, że zgodnie z najlepszymi praktykami, serwer DHCP powinien być odpowiednio zabezpieczony, aby zapobiec nieautoryzowanemu dostępowi i atakom na sieć.

Pytanie 6

Symbol graficzny przedstawiony na rysunku oznacza

Ilustracja do pytania
A. główny punkt dystrybucyjny.
B. gniazdo telekomunikacyjne.
C. zamknięty kanał kablowy.
D. otwarty kanał kablowy.
Ten symbol, który widzisz na rysunku, oznacza gniazdo telekomunikacyjne. To taki ważny element w całej sieci telekomunikacyjnej. W praktyce to gniazda są wykorzystywane do podłączania różnych urządzeń, jak telefony czy modemy. Z tego co wiem, według norm PN-EN 50173, powinny być one dobrze oznaczone, żeby łatwo było je zidentyfikować. To naprawdę ułatwia zarządzanie kablami i urządzeniami. Używanie standardowych symboli w dokumentacji i projektach jest kluczowe, bo poprawia komunikację między specjalistami i pozwala szybko znaleźć punkty dostępowe. Poza tym, ważne też, żeby stosować odpowiednie kable, jak Cat 5e czy Cat 6, bo to wpływa na jakość przesyłu danych. No i przy projektowaniu sieci nigdy nie można zapominać o tych standardach, bo to klucz do niezawodności i wydajności systemu.

Pytanie 7

Który ze wskaźników okablowania strukturalnego definiuje stosunek mocy testowego sygnału w jednej parze do mocy sygnału wyindukowanego w sąsiedniej parze na tym samym końcu przewodu?

A. Suma przeników zbliżnych i zdalnych
B. Przenik zbliżny
C. Przenik zdalny
D. Suma przeników zdalnych
Zrozumienie pojęć związanych z przenikami w okablowaniu strukturalnym jest kluczowe dla efektywnej analizy jakości sygnału. Odpowiedzi takie jak przenik zdalny i suma przeników zdalnych nie odpowiadają na postawione pytanie dotyczące wpływu sygnału w sąsiednich parach na tym samym końcu kabla. Przenik zdalny odnosi się do zakłóceń, które mogą być generowane przez sygnały w innej parze przewodów, ale nie bierze pod uwagę bezpośredniego wpływu sąsiednich par. Z kolei suma przeników zdalnych i zbliżnych może sugerować, że oba te parametry są równoważne, co jest mylne, ponieważ każdy z nich mierzy inny aspekt zakłóceń. Typowym błędem myślowym jest mylenie przeników, co prowadzi do nieprawidłowych wniosków dotyczących jakości i wydajności okablowania. Podczas projektowania i instalacji systemów telekomunikacyjnych, kluczowe jest przestrzeganie standardów, które jasno definiują pomiar i wpływ przeników na funkcjonowanie sieci. Dlatego zrozumienie różnicy między przenikiem zdalnym a zbliżnym jest niezbędne dla inżynierów zajmujących się okablowaniem strukturalnym oraz dla uzyskania optymalnych parametrów sieci.

Pytanie 8

Jaką funkcję punkt dostępu wykorzystuje do zabezpieczenia sieci bezprzewodowej, aby jedynie urządzenia z określonymi adresami fizycznymi mogły się z nią połączyć?

A. Nadanie SSID
B. Uwierzytelnianie
C. Radius (Remote Authentication Dial In User Service)
D. Filtrowanie adresów MAC
Uwierzytelnianie jest procesem, który ma na celu potwierdzenie tożsamości użytkownika lub urządzenia przed przyznaniem mu dostępu do sieci. Choć jest to kluczowy element zabezpieczeń, samo uwierzytelnianie nie gwarantuje, że tylko wybrane urządzenia będą mogły się połączyć z siecią. Może ono przybierać różne formy, takie jak hasła, certyfikaty lub systemy biometryczne, ale wymaga one zaufania do danych identyfikacyjnych, co nie jest wystarczające, aby w pełni zabezpieczyć sieć bezprzewodową przed nieautoryzowanym dostępem. Radius, jako usługa uwierzytelniania, również nie zapewnia selektywnego dostępu na podstawie adresów MAC, lecz zarządza dostępem na podstawie centralnie przechowywanych informacji o użytkownikach. Ponadto, nadanie SSID (Service Set Identifier) jest jedynie nadaniem nazwy sieci bezprzewodowej i nie wpływa na wybór urządzeń, które mogą się z nią łączyć. Użytkownicy często mylą te pojęcia, zakładając, że nazywanie sieci czy stosowanie różnych metod uwierzytelniania wystarcza do zabezpieczenia dostępu. W rzeczywistości, aby skutecznie chronić sieć przed nieautoryzowanym dostępem, należy uwzględnić filtrowanie MAC w połączeniu z solidnymi metodami szyfrowania oraz innymi warstwami zabezpieczeń, co zapewni lepszą ochronę przed zagrożeniami.

Pytanie 9

Jakie urządzenie pozwala na podłączenie drukarki bez karty sieciowej do sieci lokalnej komputerów?

A. Serwer wydruku
B. Koncentrator
C. Punkt dostępu
D. Regenerator
Podłączenie drukarki nieposiadającej karty sieciowej do lokalnej sieci komputerowej za pomocą koncentratora jest nieefektywne i nieodpowiednie. Koncentrator, znany również jako hub, to podstawowe urządzenie sieciowe, które jedynie rozdziela sygnały pomiędzy podłączone urządzenia, ale nie zapewnia im inteligentnego zarządzania ani kontroli dostępu. Nie ma możliwości, aby koncentrator umożliwił komunikację drukarki z siecią, jeśli nie ma w niej wbudowanej karty sieciowej. Z kolei regenerator, który służy do wzmacniania sygnałów w długich liniach komunikacyjnych, nie ma żadnego wpływu na połączenie drukarki do sieci, gdyż jego zadaniem jest jedynie poprawa jakości przesyłanego sygnału. Punkt dostępu jest urządzeniem, które łączy urządzenia bezprzewodowe z siecią, ale również nie zapewnia wsparcia dla drukarek, które nie mają wbudowanej funkcji sieciowej. W praktyce, błędne przekonanie o możliwości wykorzystania tych urządzeń do podłączenia drukarki nieposiadającej karty sieciowej może prowadzić do frustracji użytkowników oraz marnotrawienia zasobów. W kontekście standardów branżowych, kluczowym zagadnieniem jest wybór odpowiednich rozwiązań, które rzeczywiście odpowiadają na potrzeby użytkowników i umożliwiają prawidłowe funkcjonowanie urządzeń w sieci.

Pytanie 10

Jakie polecenie służy do analizy statystyk protokołów TCP/IP oraz bieżących połączeń sieciowych w systemach operacyjnych rodziny Windows?

A. tracert
B. route
C. ping
D. netstat
Użycie poleceń takich jak 'tracert', 'route' czy 'ping' w kontekście sprawdzania statystyk protokołów TCP/IP oraz aktualnych połączeń sieciowych może prowadzić do mylnych wniosków. 'Tracert' służy do śledzenia trasy pakietów do określonego hosta, co pozwala zidentyfikować punkty w sieci, przez które przechodzi ruch. Choć przydatne w diagnostyce trasowania, nie dostarcza informacji o stanie bieżących połączeń lub ich statystykach. Z kolei polecenie 'route' jest używane do zarządzania tablicą routingu w systemie, co także nie odnosi się do bezpośredniego monitorowania aktywnych połączeń. Pomocne w określaniu, jak pakiety są kierowane w sieci, ale nie dostarcza informacji o ich bieżącym stanie ani o tym, które aplikacje korzystają z tych połączeń. 'Ping' to narzędzie diagnostyczne, które sprawdza dostępność hosta w sieci, mierząc czas odpowiedzi, ale nie dostarcza informacji o aktywnych połączeniach ani o szczegółach protokołów. Błędne wybory mogą wynikać z niepełnego zrozumienia funkcjonalności każdego z tych poleceń, co skutkuje mylnym przekonaniem, że oferują one podobne możliwości do 'netstat'. Zrozumienie różnic pomiędzy tymi narzędziami jest kluczowe dla skutecznego zarządzania i monitorowania sieci.

Pytanie 11

Protokół SNMP (Simple Network Management Protocol) służy do

A. konfiguracji urządzeń sieciowych oraz zbierania danych na ich temat
B. przydzielania adresów IP oraz adresu bramy i serwera DNS
C. szyfrowania połączeń terminalowych z zdalnymi komputerami
D. odbierania wiadomości e-mail
Wypowiedzi sugerujące użycie szyfrowania przy połączeniach z komputerami zdalnymi, czy przydzielanie adresów IP to tak naprawdę tematy związane z innymi protokołami i technologiami, które mają zupełnie różne funkcje. Szyfrowanie połączeń zdalnych zazwyczaj robi się przez protokoły jak SSH (Secure Shell) lub TLS (Transport Layer Security), które zapewniają bezpieczeństwo, ale to nie jest zarządzanie siecią. Jeśli chodzi o IP, to przypisuje je protokół DHCP (Dynamic Host Configuration Protocol), więc SNMP tym się nie zajmuje. Podobnie, odbiór maili to zadanie dla protokołów takich jak POP3 (Post Office Protocol) czy IMAP (Internet Message Access Protocol). Typowym błędem w takich odpowiedziach jest właśnie mylenie funkcji różnych protokołów i nie rozumienie ich ról w zarządzaniu siecią. Aby dobrze zarządzać sieciami, trzeba naprawdę ogarnąć, jakie narzędzia są potrzebne i jak je wykorzystać w praktyce, co może ułatwić rozwiązywanie problemów w IT.

Pytanie 12

Jaką funkcję pełni protokół ARP (Address Resolution Protocol)?

A. Określa adres MAC na podstawie adresu IP
B. Wysyła informacje zwrotne dotyczące problemów w sieci
C. Nadzoruje przepływ pakietów w obrębie systemów autonomicznych
D. Zarządza grupami multicastowymi w sieciach działających na protokole IP
Odpowiedzi 2, 3 i 4 wskazują na pewne nieporozumienia dotyczące funkcji protokołu ARP oraz jego roli w sieciach komputerowych. Pierwsza z nich sugeruje, że ARP przesyła informacje zwrotne o problemach z siecią, co jest związane bardziej z protokołami diagnostycznymi, jak ICMP (Internet Control Message Protocol). Protokół ARP nie jest zaprojektowany do monitorowania stanu sieci ani przesyłania informacji o błędach. Kolejna odpowiedź, dotycząca zarządzania grupami multicastowymi, odnosi się do protokołów takich jak IGMP (Internet Group Management Protocol), które mają zupełnie inną funkcję w kontekście zarządzania transmisją multicastową, a nie ustalania adresów MAC. Z kolei kontrola przepływu pakietów w systemach autonomicznych odnosi się do protokołów routingu, jak BGP (Border Gateway Protocol), które są odpowiedzialne za wymianę informacji o trasach między różnymi sieciami, a nie do lokalizacji adresów MAC. Odpowiedzi te mogą być mylące, ponieważ łączą różne aspekty działania sieci, ale nie rozumieją podstawowej funkcji ARP. Protokół ten pełni kluczową rolę w komunikacji lokalnej, ale nie ma związku z zarządzaniem błędami, multicastem czy routingiem autonomicznym. Zrozumienie, że ARP jest dedykowany do rozwiązywania problemów związanych z adresami MAC w kontekście lokalnej wymiany danych, jest fundamentalne dla efektywnego projektowania sieci.

Pytanie 13

Podczas konfigurowania oraz instalacji serwera DHCP w systemach z rodziny Windows Server można wprowadzać zastrzeżenia dotyczące adresów, które określą

A. adresy MAC, które nie będą przydzielane w obrębie zakresu DHCP
B. adresy początkowy i końcowy zakresu serwera DHCP
C. konkretne adresy IP przydzielane urządzeniom na podstawie ich adresu MAC
D. adresy IP, które będą przydzielane w ramach zakresu DHCP dopiero po ich autoryzacji
Odpowiedzi wskazujące na adresy początkowy i końcowy zakresu serwera DHCP oraz adresy MAC, które nie będą przydzielane, są mylące, ponieważ nie odnoszą się do głównej funkcji zastrzeżeń adresów. Zakres serwera DHCP definiuje pulę adresów IP, które mogą być przydzielane urządzeniom w sieci. Jednak sama definicja tego zakresu nie wystarcza, gdyż nie zapewnia stałości adresów dla kluczowych urządzeń. Z kolei wskazywanie adresów MAC, które nie będą przydzielane, dotyczy blokady niektórych urządzeń, ale nie odpowiada na pytanie o przypisanie konkretnych adresów IP. Takie podejście może prowadzić do nieporozumień, ponieważ zastrzeżenia adresów IP nie oznaczają, że pewne adresy są wyłączone z puli, ale że konkretne adresy są zarezerwowane dla wybranych urządzeń. W kontekście autoryzacji adresów IP, to również nie jest praktyka związana z zastrzeżeniem, ale raczej dotyczy procedur bezpieczeństwa, które mogą być stosowane w bardziej skomplikowanych sieciach. W praktyce, brak zrozumienia tych zagadnień może prowadzić do niesprawności w zarządzaniu siecią oraz problemów z dostępnością usług, co jest szczególnie istotne w środowiskach o wysokich wymaganiach dostępności.

Pytanie 14

NAT64 (Network Address Translation 64) to proces, który przekształca adresy

A. adresy IPv4 na adresy IPv6
B. adresy MAC na adresy IPv4
C. prywatne na publiczne adresy
D. adresy IPv4 na adresy MAC
Pierwsza odpowiedź sugeruje, że NAT64 mapuje adresy prywatne na publiczne, co jest mylnym założeniem. NAT64 nie jest stworzony do konwersji adresów prywatnych (np. z zakresu 192.168.x.x) na publiczne, ale do transformacji adresów IPv4 na adresy IPv6. Proces translacji adresów, jakim jest NAT, ma na celu umożliwienie komunikacji między różnymi rodzajami adresacji, a nie ich zamiany w kontekście prywatności czy publiczności. Z kolei odpowiedź dotycząca translacji adresów IPv4 na adresy MAC jest również niepoprawna. Adresy MAC są przypisane do interfejsów sieciowych na poziomie warstwy 2 (łącza danych) w modelu OSI, podczas gdy NAT64 operuje na warstwie 3, czyli warstwie sieciowej. Oznacza to, że NAT64 nie ma bezpośredniej interakcji z adresami MAC, a jego funkcjonalność koncentruje się wokół translacji między protokołami adresowymi, a nie adresami sprzętowymi. Ostatnia odpowiedź dotycząca translacji adresów MAC na IPv4 również zawiera błędne zrozumienie tego procesu. Adresy MAC nie są mapowane na adresy IPv4, ponieważ pełnią zupełnie inną rolę w architekturze sieciowej. Adresy MAC są wykorzystywane do komunikacji lokalnej w sieci Ethernet, podczas gdy adresy IPv4 są używane do komunikacji w większych sieciach, w tym Internecie. Kluczowym błędem w tych odpowiedziach jest nieodróżnienie różnych warstw modelu OSI i niewłaściwe powiązanie funkcji NAT64 z innymi procesami sieciowymi.

Pytanie 15

Jakie jest odpowiednik maski 255.255.252.0 w postaci prefiksu?

A. /22
B. /24
C. /23
D. /25
Maska podsieci 255.255.252.0 to nic innego jak prefiks /22. To znaczy, że 22 bity używamy do określenia identyfikatora podsieci w adresie IPv4. Mówiąc prosto, te dwa ostatnie bity dają nam możliwość utworzenia 4 podsieci i 1022 hostów w każdej (liczy się 2^10 - 2, bo trzeba odjąć adres sieci i rozgłoszeniowy). Ta maska jest całkiem przydatna w większych sieciach, gdzie chcemy dobrze zarządzać adresami IP. Na przykład w firmach można ją zastosować do podziału dużych zakresów adresów na mniejsze, lepiej zorganizowane podsieci, co potem pomaga w zarządzaniu ruchem i bezpieczeństwem. Używanie odpowiednich masek podsieci to ważny aspekt w projektowaniu sieci, bo to jedna z tych najlepszych praktyk w branży. A jeśli chodzi o IPv6, to już nie jest tak krytyczne, ale wciąż dobrze wiedzieć, jak to wszystko działa w kontekście routingu i adresowania.

Pytanie 16

Zgodnie z normą EN-50173, klasa D skrętki komputerowej obejmuje zastosowania wykorzystujące zakres częstotliwości

A. do 1 MHz
B. do 100 kHz
C. do 16 MHz
D. do 100 MHZ
Klasa D skrętki komputerowej, zgodnie z normą EN-50173, obejmuje aplikacje korzystające z pasma częstotliwości do 100 MHz. Oznacza to, że kabel kategorii 5e i wyższe, takie jak kategoria 6 i 6A, są zaprojektowane, aby wspierać transmisję danych w sieciach Ethernet o dużej przepustowości, w tym Gigabit Ethernet oraz 10 Gigabit Ethernet na krótkich dystansach. Standardy te uwzględniają poprawne ekranowanie i konstrukcję przewodów, co minimalizuje zakłócenia elektromagnetyczne oraz zapewnia odpowiednią jakość sygnału. Przykładowo, w biurach oraz centrach danych często wykorzystuje się skrętki kategorii 6, które obsługują aplikacje wymagające wysokiej wydajności, takie jak przesyłanie multimediów, wideokonferencje czy intensywne transfery danych. Wiedza na temat klas kabli i odpowiadających im pasm częstotliwości jest kluczowa dla inżynierów i techników zajmujących się projektowaniem oraz wdrażaniem nowoczesnych sieci komputerowych, co wpływa na efektywność komunikacji i wydajność całych systemów sieciowych.

Pytanie 17

Komputer w sieci lokalnej ma adres IP 172.16.0.0/18. Jaka jest maska sieci wyrażona w postaci dziesiętnej?

A. 255.255.255.192
B. 255.255.255.128
C. 255.255.192.0
D. 255.255.128.0
Wybór błędnej odpowiedzi może wynikać z niepełnego rozumienia koncepcji adresacji IP oraz maski podsieci. Na przykład, 255.255.255.192 to maska odpowiadająca prefiksowi /26, co oznacza, że 26 bitów jest używanych do identyfikacji sieci. Taka maska umożliwia 64 adresy IP w danej podsieci, z czego 62 mogą być używane przez hosty. W przypadku sieci 172.16.0.0/18, jednak potrzebujemy więcej adresów, ponieważ ta podsieć pozwala na 16382 hostów. Podobnie, 255.255.128.0 odpowiada masce /17, co znowu zmniejsza liczbę dostępnych adresów w porównaniu do /18. Wykorzystanie 255.255.255.128, która odpowiada /25, ogranicza nas do 126 hostów w podsieci. Istotne jest zrozumienie, że wybór odpowiedniej maski jest kluczowy w kontekście zarówno zarządzania adresacją IP, jak i planowania sieci. Typowym błędem jest niewłaściwe przeliczenie bitów maski lub zrozumienie, jak te bity wpływają na dostępność adresów. Z tego powodu, dla sieci o adresie IP 172.16.0.0/18 najlepszym rozwiązaniem jest maska 255.255.192.0, co wskazuje na umiejętność prawidłowego planowania oraz organizacji sieci.

Pytanie 18

Aby zabezpieczyć system Windows przed nieautoryzowanym dostępem poprzez ograniczenie liczby nieudanych prób logowania, należy ustawić

A. Panel Sterowania, Zaporę systemu Windows
B. Zasady grup, Opcje zabezpieczeń
C. Panel Sterowania, Konta użytkowników
D. Zasady grup, Zasady konta
Zasady grup oraz Zasady konta stanowią kluczowe narzędzia w zabezpieczaniu systemu Windows przed włamaniami poprzez ograniczenie liczby nieudanych prób logowania. Poprawna odpowiedź na pytanie o zabezpieczenia systemowe skupia się na implementacji polityk dotyczących kont użytkowników i ich uprawnień. Zasady konta pozwalają administratorom określić, ile razy użytkownik może wprowadzić błędne hasło przed zablokowaniem konta. Przykładowo, w organizacji można ustalić, że po trzech nieudanych próbach logowania konto użytkownika zostaje zablokowane na 15 minut, co znacząco utrudnia próby przeprowadzenia ataków typu brute force. W praktyce, wdrożenie takich zasad nie tylko zwiększa bezpieczeństwo, ale również przyczynia się do zgodności z różnymi standardami zarządzania bezpieczeństwem informacji, takimi jak ISO/IEC 27001, które zalecają implementację odpowiednich środków ochrony dla systemów informatycznych. Warto również pamiętać, że efektywne zarządzanie dostępem do zasobów systemowych, w tym tworzenie odpowiednich zasad grup, powinno być częścią ogólnej strategii zabezpieczeń organizacji.

Pytanie 19

Który standard protokołu IEEE 802.3 powinien być użyty w środowisku z zakłóceniami elektromagnetycznymi, gdy dystans między punktem dystrybucji a punktem abonenckim wynosi 200 m?

A. 10Base2
B. 100Base–T
C. 100Base–FX
D. 1000Base–TX
Wybór 1000Base-TX, 100Base-T oraz 10Base2 jako standardów do zastosowania w środowisku z silnymi zakłóceniami elektromagnetycznymi jest niewłaściwy z kilku kluczowych powodów. 1000Base-TX, mimo że obsługuje prędkości do 1 Gb/s, korzysta z miedzi, co czyni go podatnym na zakłócenia elektromagnetyczne, szczególnie na dłuższych dystansach. W przypadku instalacji na 200 m w otoczeniu o dużych zakłóceniach, jakość sygnału może ulec pogorszeniu, co prowadzi do problemów z niezawodnością połączenia. 100Base-T również oparty jest na skrętce miedzianej i oferuje jedynie prędkość do 100 Mb/s, co w obliczu zakłóceń nie jest wystarczające do efektywnego przesyłania danych. 10Base2, z kolei, jest technologią opartą na koncentrycznej, cienkiej miedzi, która ma ograniczony zasięg do 200 m i nie jest w stanie wykrywać i eliminować zakłóceń, co czyni ją nieodpowiednią dla nowoczesnych aplikacji sieciowych. Warto zauważyć, że wybierając standardy sieciowe, należy kierować się nie tylko prędkością, ale także odpornością na zakłócenia oraz możliwościami transmisyjnymi, co pojawia się w przypadku światłowodów. Niezrozumienie tych zasad może prowadzić do wyboru niewłaściwych technologii, a tym samym do nieefektywnego funkcjonowania sieci.

Pytanie 20

Administrator zamierza zorganizować adresację IP w przedsiębiorstwie. Dysponuje pulą adresów 172.16.0.0/16, którą powinien podzielić na 10 podsieci z równą liczbą hostów. Jaką maskę powinien zastosować?

A. 255.255.128.0
B. 255.255.192.0
C. 255.255.240.0
D. 255.255.224.0
Wybór innej maski, takiej jak 255.255.192.0, 255.255.224.0 lub 255.255.128.0, prowadzi do nieefektywnego podziału dostępnych adresów IP. Maska 255.255.192.0 (czyli /18) umożliwia stworzenie 4 podsieci z 16384 adresami w każdej. To jest zbyt wiele, gdyż potrzebujemy jedynie 10. Z kolei maska 255.255.224.0 (czyli /19) tworzy 8 podsieci, co również nie spełnia wymagań. Zmniejszenie liczby podsieci poprzez użycie maski 255.255.128.0 (czyli /17) dostarcza jedynie 2 podsieci, co jest całkowicie niewystarczające. Właściwe zrozumienie podziału adresów IP i stosowanie właściwych masek jest kluczowe w projektowaniu efektywnych sieci. W praktyce, błędy w wyborze maski mogą prowadzić do ich przyszłej rozbudowy, co wiąże się z dodatkowymi kosztami i czasem. Każda z tych masek prowadzi do nieodpowiedniego podziału, co skutkuje marnotrawieniem cennych adresów IP i ograniczeniem elastyczności sieci. Dlatego kluczowe jest, aby przed podjęciem decyzji o adresowaniu IP dokładnie przeanalizować wymagania oraz strategię rozwoju sieci.

Pytanie 21

Aplikacja systemowa Linux, której celem jest kontrolowanie ruchu sieciowego zarówno przychodzącego, jak i wychodzącego z określonego urządzenia, to

A. ifconfig
B. iptables
C. chkconfig
D. mtr
Ifconfig to narzędzie służące do konfigurowania interfejsów sieciowych w systemach Unix i Linux. Umożliwia ono monitorowanie oraz modyfikowanie konfiguracji interfejsów, takich jak adresy IP, maski podsieci oraz inne parametry. Choć jest niezbędne do zarządzania interfejsami, nie ma możliwości filtrowania ruchu, co czyni je niewłaściwym wyborem w kontekście zarządzania bezpieczeństwem sieci. Mtr to narzędzie, które łączy funkcjonalności ping oraz traceroute, służąc do diagnostyki sieci i analizy opóźnień w połączeniach. Nie jest jednak przeznaczone do filtrowania ruchu, a jedynie do monitorowania i diagnozowania problemów z łącznością. Chkconfig z kolei jest narzędziem do zarządzania usługami systemowymi w systemach opartych na Linux, pozwalającym na włączanie lub wyłączanie ich podczas startu systemu. Nie ma on żadnego związku z filtrowaniem ruchu, co czyni go kolejnym nieadekwatnym wyborem. Pojawiające się błędne przekonania często wynikają z nieznajomości funkcji poszczególnych narzędzi i ich zastosowań w administracji systemami operacyjnymi. Zrozumienie roli i funkcji tych narzędzi jest kluczowe dla efektywnego zarządzania systemami Linux oraz ich bezpieczeństwem.

Pytanie 22

Proces łączenia sieci komputerowych, który polega na przesyłaniu pakietów protokołu IPv4 przez infrastrukturę opartą na protokole IPv6 oraz w przeciwnym kierunku, nosi nazwę

A. tunelowaniem
B. translacją protokołów
C. podwójnego stosu IP
D. mapowaniem

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Tunelowaniem nazywamy mechanizm, który umożliwia przesyłanie pakietów danych z protokołu IPv4 przez infrastrukturę zaprojektowaną dla protokołu IPv6 oraz odwrotnie. Ten proces polega na tworzeniu wirtualnych tuneli, które encapsulują (opakowują) dane protokołu IPv4 w pakiety IPv6, co pozwala na komunikację między sieciami korzystającymi z różnych wersji protokołu IP. W praktyce tunelowanie jest często wykorzystywane w przypadkach, gdzie starsze systemy, które jeszcze nie przeszły na IPv6, muszą komunikować się z nowymi sieciami. Przykładem zastosowania tunelowania jest transfer danych w firmach, które posiadają zarówno starsze, jak i nowoczesne urządzenia sieciowe, co pozwala im na stopniową migrację do IPv6, jednocześnie zapewniając ciągłość działania usług sieciowych. Z perspektywy standardów, tunelowanie jest jednym z kluczowych elementów strategii przejścia na IPv6, co zostało określone w dokumentach IETF, takich jak RFC 3056 oraz RFC 4213. Te dobre praktyki są ważne dla administrowania nowoczesnymi sieciami komputerowymi, umożliwiając elastyczne podejście do migracji.

Pytanie 23

W systemie Windows narzędzie do zarządzania skryptami wiersza poleceń, które pozwala na przeglądanie lub zmianę konfiguracji sieciowej komputera, który jest włączony, to

A. netstat
B. nslookup
C. netsh
D. ipconfig
Wybór 'ipconfig' jest dość częstym błędem. To narzędzie, co prawda, pokazuje, jakie mamy aktualne ustawienia IP, ale nie da się nimi zarządzać, co może być mylące. Ludzie często myślą, że skoro widzą konfigurację, to mogą ją modyfikować, ale to nie tak działa. Z drugiej strony, 'netstat' to narzędzie do monitorowania połączeń, które jest fajne do diagnostyki, ale też niczego nie zmieni. I jeszcze 'nslookup' – to służy głównie do sprawdzania nazw domen, ale też nie ma opcji modyfikacji. Ważne, żeby zrozumieć, do czego służą te narzędzia, bo jak się pomyli, to można narobić sobie kłopotów i to może być frustrujące. Przy wyborze narzędzi trzeba brać pod uwagę ich funkcje, bo to podstawa w administrowaniu systemami.

Pytanie 24

Który z poniższych zapisów określa folder noszący nazwę dane, który jest udostępniony na dysku sieciowym urządzenia o nazwie serwer1?

A. C:\dane
B. \dane
C. \serwer1\dane
D. C:\serwer1\dane
Odpowiedzi \dane, C:\serwer1\dane oraz C:\dane są nietrafione z paru powodów. Po pierwsze, \dane nie ma informacji o serwerze, więc nie nadaje się do dostępu do folderu w sieci. W Windowsie zawsze trzeba powiedzieć, na jakim serwerze jest folder, żeby dobrze działało w sieciach lokalnych. Co do C:\serwer1\dane, to brzmi jak lokalna ścieżka, a to jest mylące. Żeby wejść na folder na serwerze, musimy użyć formatu sieciowego. I jeszcze C:\dane, która też wskazuje na lokalny dysk, co znów jest błędne, bo nie odwołuje się do zasobów sieciowych. Widać, że tu panuje zamieszanie między tym, co jest lokalne a co zdalne. Właściwe rozumienie, jakie są ścieżki dostępu, jest kluczowe, żeby efektywnie korzystać z zasobów w sieci. Trzymanie się tych zasad to ważny krok w stronę lepszej współpracy w zespole.

Pytanie 25

Użytkownik domeny podczas logowania widzi komunikat przedstawiony na rysunku, co oznacza, że użytkownik nie ma

Zalogowano się przy użyciu profilu
tymczasowego.
Nie masz dostępu do swoich plików, a pliki
tworzone w ramach tego profilu zostaną
usunięte po wylogowaniu. Aby rozwiązać ten
problem, wyloguj się i zaloguj się później.
08:19
A. konta w domenie.
B. utworzonego profilu mobilnego.
C. uprawnień do logowania się w domenie.
D. uprawnień do folderu z profilem mobilnym.
Wygląda na to, że Twoja odpowiedź nie do końca pasuje do sytuacji. Jeśli użytkownik już jest zalogowany, to nie mógłby mieć problemu z brakiem konta w domenie. Gdyby tak było, to nawet nie mógłby wejść do systemu. Co do braku profilu mobilnego, to wtedy system nie mógłby załadować żadnych danych, więc komunikat o profilu tymczasowym by się nie pojawił. A odpowiedź dotycząca braku uprawnień do logowania... cóż, to też nie jest to, czego szukamy, bo komunikat pokazuje, że można się zalogować, ale jest kłopot z profilem. W praktyce takie nieporozumienia wynikają z niedostatecznej wiedzy o logowaniu w systemach domenowych. Trzeba rozumieć, jak to wszystko działa i umieć to dobrze zarządzać, żeby użytkownicy nie czuli się sfrustrowani i żeby praca była efektywna.

Pytanie 26

Podłączając wszystkie elementy sieciowe do switcha, wykorzystuje się topologię fizyczną

A. gwiazdy
B. siatki
C. magistrali
D. pierścienia
Topologie siatki, pierścienia i magistrali to różne struktury organizacyjne sieci komputerowych, każda z własnymi zaletami i wadami. Siatka charakteryzuje się wieloma połączeniami między urządzeniami, co zapewnia redundancję, ale może być kosztowna i skomplikowana w implementacji. W przypadku topologii pierścienia dane krążą w jednym kierunku, co sprawia, że awaria jednego z urządzeń może zablokować całą sieć. Takie podejście wymaga dodatkowych mechanizmów, by zapewnić ciągłość działania, co często prowadzi do złożoności systemu. Z kolei magistrala, w której wszystkie urządzenia są podłączone do jednego przewodu, jest tania, ale jej wydajność spada z liczbą urządzeń, a awaria kabla oznacza przerwanie komunikacji dla wszystkich podłączonych do niego urządzeń. Wybór niewłaściwej topologii prowadzi do problemów z wydajnością, bezpieczeństwem i zarządzaniem siecią. Właściwe podejście do projektowania sieci powinno uwzględniać specyfikę zastosowania, wymagania dotyczące niezawodności oraz łatwości w utrzymaniu, co czyni topologię gwiazdy najbardziej odpowiednią w wielu współczesnych zastosowaniach.

Pytanie 27

Ile domen rozgłoszeniowych istnieje w sieci o schemacie przedstawionym na rysunku, jeżeli przełączniki pracują w drugiej warstwie modelu ISO/OSI z konfiguracją domyślną?

Ilustracja do pytania
A. 5
B. 9
C. 11
D. 7
Wybór błędnej odpowiedzi może wynikać z nieporozumienia dotyczącego roli przełączników w sieci. Często myli się liczbę domen rozgłoszeniowych z innymi parametrami sieci, takimi jak liczba urządzeń czy liczba portów w przełącznikach. Użytkownicy mogą przyjąć założenie, że przełączniki w sieci tworzą mniej domen, ponieważ nie uwzględniają pełnego zrozumienia, jak działają ramki rozgłoszeniowe w warstwie drugiej. Przełączniki te są skonstruowane tak, aby każda ramka trafiała do wszystkich urządzeń w danej domenie, co oznacza, że ​​każdy dodatkowy przełącznik tworzy nową, osobną domenę. Jeśli ktoś zatem zidentyfikuje tylko 5, 9 lub 11 domen jako odpowiedź, może to sugerować, że nie dostrzega on wpływu wszystkich przełączników dostępnych w schemacie. Prawidłowa analiza schematów sieciowych wymaga zrozumienia, że liczba domen rozgłoszeniowych zależy bezpośrednio od liczby przełączników, a nie od ich konfiguracji czy liczby dołączonych urządzeń. To podejście jest zgodne z najlepszymi praktykami w zakresie projektowania sieci, które zakładają, że każda zmiana w topologii sieci powinna być dokładnie przemyślana pod kątem jej wpływu na segmentację ruchu i efektywność operacyjną całego systemu.

Pytanie 28

Na którym rysunku przedstawiono topologię gwiazdy?

Ilustracja do pytania
A. 1.
B. 2.
C. 3.
D. 4.
Topologia gwiazdy to jeden z najpopularniejszych układów sieci komputerowych, w którym wszystkie urządzenia końcowe są połączone z jednym centralnym punktem, najczęściej switchem lub hubem. Na rysunku 4 widoczna jest wyraźna struktura, w której każdy komputer jest połączony bezpośrednio z centralnym urządzeniem, co umożliwia łatwe zarządzanie siecią oraz minimalizuje ryzyko awarii. W przypadku uszkodzenia jednego z kabli, tylko jedno połączenie jest zagrożone, co czyni topologię gwiazdy bardziej odporną na problemy w porównaniu do topologii magistrali, gdzie awaria jednego elementu może wpłynąć na całą sieć. Z praktycznego punktu widzenia, ta topologia jest często stosowana w biurach i organizacjach, gdzie wymagana jest elastyczność w dodawaniu nowych urządzeń oraz prostota diagnostyki problemów. Warto również wspomnieć, że implementacja topologii gwiazdy wspiera standardy takie jak IEEE 802.3 i 802.11, co pozwala na łatwą integrację z innymi technologiami sieciowymi.

Pytanie 29

Jak nazywa się topologia fizyczna, w której wszystkie urządzenia sieciowe są połączone z jednym centralnym urządzeniem?

A. siatki
B. drzewa
C. gwiazdy
D. pierścienia
Topologia gwiazdy to jedna z najpopularniejszych architektur sieciowych, w której wszystkie urządzenia, takie jak komputery i drukarki, są połączone z centralnym urządzeniem, zazwyczaj przełącznikiem lub hubem. Taki układ zapewnia łatwą konserwację i diagnozowanie problemów, gdyż ewentualne awarie jednego z węzłów nie wpływają na funkcjonowanie pozostałych urządzeń. Przykładem zastosowania topologii gwiazdy może być lokalna sieć komputerowa w biurze, gdzie wszystkie stacje robocze są podłączone do jednego przełącznika. Standardy takie jak Ethernet oraz protokoły sieciowe, takie jak TCP/IP, zostały zaprojektowane z myślą o pracy w takich strukturach. Zastosowanie topologii gwiazdy ułatwia także skalowanie sieci – wystarczy dodać nowe urządzenie do centralnego przełącznika, co czyni ją elastyczną i odpowiednią dla rozwijających się środowisk biurowych.

Pytanie 30

Które urządzenie sieciowe jest widoczne na zdjęciu?

Ilustracja do pytania
A. Most.
B. Karta sieciowa.
C. Przełącznik.
D. Modem.
Przełącznik, widoczny na zdjęciu, to kluczowe urządzenie w sieciach komputerowych, które umożliwia efektywne zarządzanie ruchem danych pomiędzy różnymi urządzeniami w sieci lokalnej (LAN). Działa na warstwie drugiej modelu OSI, co oznacza, że operuje na adresach MAC i potrafi inteligentnie kierować dane tylko do tych portów, które są rzeczywiście potrzebne, co znacznie zwiększa wydajność sieci. Przełączniki pozwalają na podłączenie wielu urządzeń, takich jak komputery, drukarki czy serwery, tworząc lokalne sieci, które mogą być następnie połączone z innymi sieciami za pomocą routerów. W praktyce, przełączniki są niezbędne w biurach i instytucjach, gdzie wiele urządzeń wymaga współdzielenia zasobów. W oparciu o standardy IEEE 802.3, nowoczesne przełączniki mogą obsługiwać różne prędkości transmisji danych, co czyni je elastycznym rozwiązaniem. Zrozumienie roli przełącznika jest kluczowe dla każdego, kto zajmuje się projektowaniem lub zarządzaniem infrastrukturą sieciową.

Pytanie 31

Na zrzucie ekranowym jest przedstawiona konfiguracja zasad haseł w zasadach grup systemu Windows.
Która z opcji zostanie wdrożona w tej konfiguracji?

Ilustracja do pytania
A. Użytkownik może zmienić hasło na nowe po 8 dniach.
B. Hasło może zawierać w sobie nazwę konta użytkownika.
C. Hasła użytkownika muszą być zmieniane co 10 dni.
D. Użytkownik nigdy nie musi zmieniać hasła.
Wybór odpowiedzi dotyczącej zmiany hasła co 10 dni jest mylący, ponieważ w kontekście omawianej konfiguracji maksymalny okres ważności hasła wynosi 0 dni, co oznacza, że hasło nigdy nie wygasa. Odpowiedź sugerująca, że użytkownik może zmieniać hasło po 8 dniach również wprowadza w błąd, ponieważ wskazuje na możliwość zmiany hasła, która nie jest związana z jego wygasaniem. Ponadto, hasła użytkowników muszą być zmieniane co 10 dni prowadzi do nieporozumienia dotyczącego polityki bezpieczeństwa haseł. W praktyce, zmuszanie do regularnej zmiany haseł może prowadzić do tworzenia prostszych haseł, które są łatwiejsze do zapamiętania, ale także łatwiejsze do złamania przez atakujących. Inną nieprawidłową koncepcją jest stwierdzenie, że hasło może zawierać nazwę konta użytkownika, co jest niezgodne z najlepszymi praktykami w zakresie tworzenia haseł. W rzeczywistości, takie podejście osłabia bezpieczeństwo, ponieważ atakujący mogą wykorzystać tę informację, aby łatwiej zgadnąć hasło. Ważne jest, aby organizacje przyjęły holistyczne podejście do zabezpieczeń, które obejmuje nie tylko polityki dotyczące haseł, ale także edukację użytkowników na temat ich znaczenia oraz stosowanie nowoczesnych technologii zabezpieczeń.

Pytanie 32

Który element zabezpieczeń znajduje się w pakietach Internet Security (IS), ale nie występuje w programach antywirusowych (AV)?

A. Zapora sieciowa
B. Aktualizacje baz wirusów
C. Monitor wirusów
D. Skaner wirusów
Wybór innych opcji, jak skaner antywirusowy czy aktualizacja baz wirusów, to trochę chybiony pomysł, jeśli chodzi o różnice między programami antywirusowymi a pakietami Internet Security. Skaner antywirusowy to taki standard, który znajdziesz w każdym oprogramowaniu zabezpieczającym, bo jego główna rola to wykrywanie i usuwanie wirusów. Niezależnie od tego, czy to programy antywirusowe, czy pakiety Internet Security, skanery są zwyczajnie potrzebne. Monitor antywirusowy też nie jest odrębnym elementem, a jedynie funkcją skanera, pozwalającą na ciągłe obserwowanie systemu. Co do aktualizacji baz wirusów, to jest to ważne dla obu typów oprogramowania, bo przecież muszą być na bieżąco z nowymi zagrożeniami. Tak więc, mylenie tych funkcji jako czegoś unikalnego dla pakietów Internet Security powoduje nieporozumienia, co do tego, jak różne zabezpieczenia naprawdę działają.

Pytanie 33

Aby uzyskać sześć podsieci z sieci o adresie 192.168.0.0/24, co należy zrobić?

A. zmniejszyć długość maski o 2 bity
B. zwiększyć długość maski o 3 bity
C. zmniejszyć długość maski o 3 bity
D. zwiększyć długość maski o 2 bity
Aby wydzielić sześć podsieci z sieci o adresie 192.168.0.0/24, konieczne jest zwiększenie długości maski o 3 bity. Maska /24 oznacza, że pierwsze 24 bity adresu IP są wykorzystywane do identyfikacji sieci, a pozostałe 8 bitów do identyfikacji hostów. W celu uzyskania sześciu podsieci, musimy za pomocą dodatkowych bitów zarezerwować odpowiednią ilość adresów. W przypadku podziału sieci na podsieci, stosujemy formułę 2^n >= liczba wymaganych podsieci, gdzie n to liczba bitów, które dodajemy do maski. Zatem, 2^3 = 8, co zaspokaja potrzebę sześciu podsieci. Przy zwiększeniu długości maski o 3 bity, uzyskujemy maskę /27, co pozwala na otrzymanie 8 podsieci, z których każda ma 30 dostępnych adresów hostów. Przykładowe podsieci, które powstają w tym wypadku, to: 192.168.0.0/27, 192.168.0.32/27, 192.168.0.64/27, itd. Dobrą praktyką w projektowaniu sieci jest planowanie adresacji IP z wyprzedzeniem, aby dostosować ją do przyszłych potrzeb, co w tym przypadku zostało uwzględnione.

Pytanie 34

W specyfikacji sieci Ethernet 1000Base-T maksymalna długość segmentu dla skrętki kategorii 5 wynosi

A. 100 m
B. 500 m
C. 1000 m
D. 250 m
Odpowiedź 100 m jest prawidłowa, ponieważ w standardzie Ethernet 1000Base-T, który obsługuje transmisję danych z prędkością 1 Gbps, maksymalna długość segmentu dla kabla skrętki kategorii 5 (Cat 5) wynosi właśnie 100 metrów. Ta długość obejmuje zarówno odcinek kabla, jak i wszelkie połączenia oraz złącza, co jest kluczowe dla zapewnienia stabilności i jakości sygnału. W praktyce, dla sieci lokalnych (LAN), stosuje się kable Cat 5 lub lepsze, takie jak Cat 5e czy Cat 6, aby osiągnąć wysoką wydajność przy minimalnych zakłóceniach. Warto zauważyć, że przekroczenie tej długości może prowadzić do degradacji sygnału, co z kolei wpłynie na prędkość i niezawodność połączenia. Standardy IEEE 802.3, które regulują kwestie związane z Ethernetem, podkreślają znaczenie zachowania tych limitów, aby zapewnić efektywne funkcjonowanie sieci. Dlatego też, przy projektowaniu lub rozbudowie infrastruktury sieciowej, należy przestrzegać tych wytycznych, aby uniknąć problemów z wydajnością.

Pytanie 35

Na ilustracji jest przedstawiona skrętka

Ilustracja do pytania
A. ekranowana siatką.
B. ekranowana folią.
C. nieekranowana.
D. ekranowana folią i siatką.
Skrętka ekranowana folią to rodzaj kabla, który jest zabezpieczony przed zakłóceniami elektromagnetycznymi za pomocą cienkiej warstwy folii. Na ilustracji widoczny jest charakterystyczny srebrzysty błysk, który wskazuje na obecność folii ekranowej. Takie ekranowanie jest kluczowe w środowiskach, gdzie występuje duża ilość zakłóceń, jak np. w biurach, laboratoriach czy strefach przemysłowych. Ekranowanie folią pozwala na redukcję szumów i poprawę jakości sygnału przesyłanego przez skrętkę, co jest szczególnie istotne w aplikacjach wymagających wysokiej przepustowości, takich jak transmisje danych w sieciach LAN. Standardy branżowe, takie jak ANSI/TIA-568, zalecają użycie ekranowania w aplikacjach wymagających większej niezawodności, co sprawia, że skrętki ekranowane folią są powszechnie stosowane w nowoczesnych instalacjach telekomunikacyjnych.

Pytanie 36

The Dude, Cacti oraz PRTG to przykłady aplikacji wykorzystujących protokół SNMP (ang. Simple Network Management Protocol), używanego do

A. udostępniania zasobów w sieci
B. sprawdzania wydajności sieci
C. przechwytywania i analizy danych pakietowych
D. monitorowania oraz zarządzania urządzeniami sieciowymi
Odpowiedź "monitoringu i zarządzania urządzeniami sieciowymi" jest prawidłowa, ponieważ SNMP (Simple Network Management Protocol) to standardowy protokół używany głównie do zbierania informacji o stanie urządzeń sieciowych, takich jak routery, przełączniki, serwery i inne komponenty infrastruktury IT. Protokół ten pozwala administratorom na monitorowanie wydajności urządzeń, takich jak obciążenie CPU, wykorzystanie pamięci RAM, stan interfejsów sieciowych i wiele innych metryk. Na przykład, oprogramowanie takie jak PRTG Network Monitor wykorzystuje SNMP do regularnego zbierania danych z urządzeń w sieci, co pozwala na wczesne wykrywanie problemów oraz ich szybsze rozwiązywanie. Dobre praktyki zarządzania siecią zalecają wykorzystanie SNMP do automatyzacji procesów monitorowania, co zwiększa efektywność i niezawodność zarządzania infrastrukturą sieciową. Protokół ten jest również zgodny z różnymi standardami, takimi jak IETF RFC 1157, co zapewnia jego szeroką akceptację w branży.

Pytanie 37

Który z protokołów nie jest wykorzystywany do ustawiania wirtualnej sieci prywatnej?

A. SNMP
B. L2TP
C. PPTP
D. SSTP
Wybór PPTP, L2TP lub SSTP jako protokołów do konfiguracji wirtualnej sieci prywatnej może wynikać z powszechnego przekonania, że wszystkie te protokoły mają podobne zastosowania. PPTP (Point-to-Point Tunneling Protocol) jest jednym z najstarszych protokołów VPN, który wykorzystuje tunelowanie do zabezpieczania połączeń. Mimo że jest łatwy w konfiguracji, jego bezpieczeństwo w przeszłości było kwestionowane, co sprawiło, że rzadko zaleca się go w nowoczesnych implementacjach. L2TP (Layer 2 Tunneling Protocol) to kolejny protokół, który, chociaż używany do tunelowania, często jest łączony z IPsec w celu zapewnienia lepszego bezpieczeństwa. SSTP (Secure Socket Tunneling Protocol) to protokół, który wykorzystuje SSL do szyfrowania tuneli, co czyni go bardziej nowoczesnym i bezpiecznym rozwiązaniem. Wybierając którykolwiek z tych protokołów do konfiguracji VPN, można osiągnąć różne poziomy bezpieczeństwa i wydajności w zależności od wymagań danej organizacji. Kluczowe jest zrozumienie, że SNMP nie jest przeznaczony do tego celu, a jego funkcjonalność koncentruje się na zarządzaniu, a nie na tworzeniu bezpiecznych połączeń. Błędne przypisanie SNMP do roli protokołu VPN może prowadzić do nieefektywnej konfiguracji sieci oraz potencjalnych luk w zabezpieczeniach, co w konsekwencji może zagrażać integralności i poufności danych przesyłanych w sieci.

Pytanie 38

Które z poniższych poleceń systemu Linux wyświetla aktualną konfigurację interfejsów sieciowych?

A. ping
B. ifconfig
C. traceroute
D. netstat -r
Polecenia <em>netstat -r</em>, <em>ping</em> oraz <em>traceroute</em> mają całkiem inne zastosowania niż bezpośrednie wyświetlanie konfiguracji interfejsów sieciowych. <strong>netstat -r</strong> służy do prezentowania tablicy routingu, czyli pokazuje, w jaki sposób system kieruje pakiety do różnych sieci docelowych. To przydatne narzędzie przy analizie tras pakietów, ale nie daje szczegółowych informacji o samych interfejsach, takich jak adresy IP czy maski podsieci. Z kolei <strong>ping</strong> jest narzędziem diagnostycznym, pozwalającym sprawdzić, czy inny host w sieci jest osiągalny – wysyła pakiety ICMP Echo Request i czeka na odpowiedź. To bardzo pomocne przy wykrywaniu problemów z łącznością, jednak nie daje żadnych danych o konfiguracji lokalnych interfejsów. <strong>traceroute</strong> natomiast służy do ustalania kolejnych przystanków (hopów) na trasie pakietów do wskazanego hosta – pozwala na analizę drogi, jaką pokonuje pakiet przez różne routery w internecie czy sieci lokalnej. To polecenie jest nieocenione przy szukaniu miejsc, gdzie występują opóźnienia lub utraty pakietów, ale nie pokazuje konfiguracji interfejsów lokalnych. Częstym błędem jest mylenie narzędzi diagnostycznych z narzędziami konfiguracyjnymi lub informacyjnymi. W praktyce administrator powinien znać różnicę pomiędzy narzędziami służącymi do testowania połączeń a tymi, które dostarczają informacji o stanie i parametrach interfejsów. W środowisku systemów Linux każdy z tych programów pełni inną, dobrze zdefiniowaną rolę i wybór odpowiedniego zależy od konkretnego problemu, jaki chcemy rozwiązać.

Pytanie 39

W trakcie konfiguracji serwera DHCP administrator przypisał zbyt małą pulę adresów IP. Jakie mogą być skutki tej sytuacji w sieci lokalnej?

A. Serwer DHCP automatycznie powiększy zakres adresów IP
B. Nowe urządzenia nie otrzymają adresu IP i nie połączą się z siecią
C. Urządzenia będą otrzymywać adresy IPv6 zamiast IPv4
D. Każde urządzenie otrzyma dwa różne adresy IP
Wiele osób błędnie zakłada, że serwer DHCP sam automatycznie powiększy zakres adresów IP, lecz to nie jest zgodne z rzeczywistością. Zakres adresów przydzielanych przez DHCP musi być zdefiniowany ręcznie przez administratora i nie rozrasta się automatycznie, nawet jeśli brakuje wolnych adresów – to właśnie administrator odpowiada za monitoring i ewentualną zmianę konfiguracji. Innym częstym nieporozumieniem jest przekonanie, że w przypadku wyczerpania puli adresów IPv4, urządzenia będą otrzymywać adresy IPv6 zamiast IPv4. W praktyce obsługa IPv6 to zupełnie osobna konfiguracja, a serwery DHCP dla IPv4 nie przechodzą automatycznie na przydział adresów IPv6. Jeśli sieć nie jest skonfigurowana pod kątem IPv6, większość urządzeń nawet nie spróbuje z niej skorzystać. Dodatkowo, nie jest możliwe, aby urządzenie otrzymało dwa różne adresy IP z jednej puli DHCP w jednym czasie – systemy DHCP są zaprojektowane tak, by każdemu urządzeniu przypisywać jeden adres na podstawie unikalnego identyfikatora (np. MAC). Takie sytuacje prowadziłyby do konfliktów adresów IP i poważnych problemów z komunikacją w sieci. Często spotykam się z tymi błędnymi przekonaniami u początkujących administratorów, którzy nie do końca rozumieją, jak działa mechanizm przydzielania adresów. Warto pamiętać, że poprawna konfiguracja serwera DHCP i świadome zarządzanie pulą adresową są kluczowe dla stabilności i bezpieczeństwa pracy każdej sieci komputerowej.

Pytanie 40

W celu zwiększenia bezpieczeństwa sieci firmowej administrator wdrożył protokół 802.1X. Do czego służy ten protokół?

A. Monitoruje i analizuje przepustowość łącza internetowego w firmie.
B. Realizuje dynamiczne przydzielanie adresów IP w sieci lokalnej.
C. Zapewnia szyfrowanie transmisji danych wyłącznie w warstwie aplikacji.
D. Służy do kontroli dostępu do sieci na poziomie portów przełącznika, umożliwiając uwierzytelnianie urządzeń przed przyznaniem im dostępu do sieci.
<strong>Protokół 802.1X</strong> to kluczowy element bezpieczeństwa nowoczesnych sieci komputerowych, szczególnie tych wykorzystywanych w środowiskach korporacyjnych i instytucjonalnych. Jego głównym zadaniem jest kontrola dostępu do sieci na najniższym poziomie, czyli na porcie przełącznika (lub punkcie dostępowym w przypadku sieci bezprzewodowych). Mechanizm ten wymaga, aby każde urządzenie próbujące połączyć się z siecią przeszło proces uwierzytelniania, zanim uzyska dostęp do zasobów sieciowych. Najczęściej wykorzystuje się tu serwer RADIUS do weryfikacji tożsamości użytkownika lub urządzenia, co znacząco redukuje ryzyko nieautoryzowanego dostępu. Z mojego doświadczenia wdrożenie 802.1X to nie tylko podstawa zgodności z politykami bezpieczeństwa (np. ISO 27001), ale także skuteczny sposób na ograniczenie tzw. ataków typu „plug and play”, gdzie ktoś podpina nieautoryzowane urządzenie do wolnego portu. W praktyce, np. w dużych biurach czy na uczelniach, 802.1X umożliwia granularne zarządzanie dostępem i szybkie wycofanie uprawnień, jeśli pracownik opuszcza firmę. To rozwiązanie bardzo często łączy się z innymi technologiami, jak VLAN czy NAC (Network Access Control), co pozwala na jeszcze większą kontrolę i automatyzację procesów bezpieczeństwa. Najważniejsze, że 802.1X działa jeszcze zanim system operacyjny uzyska pełny dostęp do sieci, co czyni go wyjątkowo skutecznym narzędziem prewencji.