Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 22 kwietnia 2026 08:08
  • Data zakończenia: 22 kwietnia 2026 08:29

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jaką maksymalną prędkość transferu danych pozwala osiągnąć interfejs USB 3.0?

A. 400 Mb/s
B. 120 MB/s
C. 5 Gb/s
D. 4 GB/s
Interfejs USB 3.0, znany również jako SuperSpeed USB, pozwala na transfer danych z prędkością do 5 Gb/s, co odpowiada 625 MB/s. Ta znacznie wyższa prędkość w porównaniu do wcześniejszych wersji USB, takich jak USB 2.0, który oferuje maksymalną prędkość 480 Mb/s, sprawia, że USB 3.0 jest idealnym rozwiązaniem dla zastosowań wymagających szybkiego przesyłania danych, takich jak zewnętrzne dyski twarde, kamery HD, a także urządzenia do przechwytywania wideo. Przykładami zastosowań mogą być zewnętrzne rozwiązania pamięci masowej, gdzie użytkownicy oczekują szybkiego transferu dużych plików, czy też profesjonalne urządzenia audio-wideo, które wymagają szerokiego pasma transmisji. Dodatkowo, USB 3.0 wprowadza wiele udoskonaleń w zakresie zarządzania energią oraz kompatybilności wstecznej z poprzednimi wersjami, co czyni go uniwersalnym i wszechstronnym standardem. Warto również zauważyć, że z biegiem lat pojawiły się kolejne wersje USB, takie jak USB 3.1 i USB 3.2, które oferują jeszcze wyższe prędkości transferu, a także nowe funkcje, co podkreśla ciągły rozwój technologii przesyłu danych.

Pytanie 2

W topologii gwiazdy każde urządzenie działające w sieci jest

A. skonfigurowane z dwoma sąsiadującymi komputerami
B. podłączone do węzła sieci.
C. spojone ze sobą przewodami, tworząc zamknięty pierścień.
D. połączone z jedną magistralą.
Topologia sieci nie polega na podłączeniu urządzeń do jednej magistrali, co jest typowe dla topologii magistrali. W takim układzie wszystkie urządzenia są połączone do wspólnego przewodu, co może prowadzić do problemów z kolizjami i ograniczoną wydajnością, zwłaszcza w większych sieciach. W przypadku awarii magistrali cała sieć przestaje działać. Z kolei połączenia pomiędzy dwoma sąsiadującymi komputerami sugerują strukturę sieci w formie łańcucha, co jest charakterystyczne dla topologii pierścienia lub łańcucha. W takim układzie awaria jednego urządzenia może zakłócić komunikację w całej sieci. Natomiast połączenie urządzeń w zamknięty pierścień implikuje topologię pierścienia, w której każde urządzenie jest połączone z dwoma innymi, tworząc cykl. Taki system również niesie ryzyko, ponieważ awaria jednego połączenia może sparaliżować cały układ. Niezrozumienie różnic między tymi topologiami prowadzi do błędnych wniosków odnośnie do efektywności i bezpieczeństwa sieci, co w praktyce objawia się problemami z wydajnością i zarządzaniem siecią.

Pytanie 3

Złącze IrDA służy do bezprzewodowej komunikacji i jest

A. złączem umożliwiającym przesył danych na odległość 100m
B. złączem radiowym
C. złączem szeregowym
D. rozszerzeniem technologii BlueTooth
IrDA, czyli Infrared Data Association, to taki standard, który pozwala na przesyłanie danych bezprzewodowo przy użyciu podczerwieni. Można to porównać do połączenia szeregowego, co znaczy, że dane lecą w jednym kierunku na raz, a nie tak jak w przypadku połączeń równoległych, gdzie kilka bitów podróżuje jednocześnie. IrDA oferuje prędkości od 9,6 kb/s do nawet 4 Mb/s, co sprawia, że jest przydatne w wielu sytuacjach, jak przesyłanie plików między telefonami czy drukowanie na odległość. Generalnie urządzenia, takie jak telefony, laptopy czy drukarki, mogą się komunikować w zasięgu do metra, co jest super w biurach czy domach. Fajnie, że IrDA stało się popularne w latach 90. i na początku 2000, ale z czasem w dużej mierze ustąpiło miejsca technologii Bluetooth, która oferuje większy zasięg i więcej możliwości.

Pytanie 4

Jak nazywa się protokół oparty na architekturze klient-serwer oraz modelu żądanie-odpowiedź, wykorzystywany do przesyłania plików?

A. ARP
B. FTP
C. SSH
D. SSL
Protokół FTP (File Transfer Protocol) to standardowy protokół sieciowy stosowany do przesyłania plików między komputerami w sieci TCP/IP. Działa na zasadzie modelu klient-serwer, gdzie komputer-klient wysyła żądania do serwera, który następnie odpowiada na te żądania, przesyłając odpowiednie pliki. FTP jest powszechnie stosowany w różnych aplikacjach, w tym w zarządzaniu stronami internetowymi, gdzie webmasterzy używają go do przesyłania plików HTML, obrazów oraz innych zasobów na serwery. Protokół FTP obsługuje zarówno tryb aktywny, jak i pasywny, co umożliwia elastyczne dostosowanie do różnorodnych konfiguracji sieciowych. Dobre praktyki związane z używaniem FTP obejmują zastosowanie silnych haseł oraz dostępu do kont użytkowników, a także korzystanie z HTTPS dla zwiększenia bezpieczeństwa transferów plików. Dzięki swojej prostocie i szerokiemu wsparciu z różnych platform, FTP pozostaje jednym z kluczowych protokołów do udostępniania plików, solidnie wspierając zarówno użytkowników indywidualnych, jak i organizacje.

Pytanie 5

Usługa w systemie Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach zarządzanych przez serwer, to

A. GPO
B. WDS
C. DFS
D. FTP
WDS, czyli Windows Deployment Services, to usługa w systemie Windows Server, która umożliwia zdalną instalację systemów operacyjnych na komputerach w sieci. WDS wykorzystuje technologię PXE (Preboot Execution Environment), co pozwala na uruchamianie komputerów klienckich bezpośrednio z obrazu systemu przechowywanego na serwerze. Ta metoda jest szczególnie przydatna w dużych środowiskach IT, gdzie zarządzanie wieloma stacjami roboczymi staje się skomplikowane. Przykładem zastosowania WDS jest sytuacja, gdy administratorzy chcą szybko zainstalować nowy system operacyjny na setkach komputerów – zamiast instalować go ręcznie na każdym z nich, mogą zautomatyzować proces i zainstalować system zdalnie, co nie tylko oszczędza czas, ale także minimalizuje ryzyko błędów. WDS wspiera różne wersje systemów Windows i umożliwia również wdrażanie dodatkowych aplikacji oraz aktualizacji. Stosowanie WDS zgodnie z najlepszymi praktykami branżowymi pozwala na efektywne zarządzanie i utrzymanie infrastruktury IT.

Pytanie 6

Aby przekształcić serwer w kontroler domeny w systemach Windows Server, konieczne jest użycie komendy

A. winnt32
B. dcgpofix
C. regsvr32
D. dcpromo
Polecenie 'dcpromo' jest standardowym narzędziem używanym w systemach Windows Server do promocji serwera do roli kontrolera domeny. Umożliwia ono utworzenie nowej domeny lub dołączenie do istniejącej, co jest kluczowe dla zarządzania użytkownikami i zasobami w sieci. W praktyce, uruchamiając 'dcpromo', administratorzy mogą skonfigurować wiele istotnych parametrów, takich jak ustawienia replikacji, wybór typu kontrolera domeny (np. podstawowy lub dodatkowy) oraz integrację z Active Directory. W branży IT, zgodnie z najlepszymi praktykami, promocja serwera do roli kontrolera domeny powinna być przeprowadzana w planowany sposób, z uwzględnieniem odpowiednich kopii zapasowych i audytu, aby zminimalizować ryzyko utraty danych oraz zapewnić bezpieczeństwo infrastruktury. Dcpromo przeprowadza również weryfikację, czy sprzęt i oprogramowanie spełniają minimalne wymagania do pracy z Active Directory, co jest istotnym krokiem w procesie wdrożeniowym.

Pytanie 7

Termin gorącego podłączenia (hot-plug) wskazuje, że podłączane urządzenie działa

A. zgodne z komputerem
B. sprawne po zainstalowaniu odpowiednich sterowników
C. poprawnie od razu po podłączeniu, bez potrzeby wyłączania czy restartowania systemu
D. kontrolowane przez temperaturę
Gorące podłączenie (hot-plug) to technika, która pozwala na podłączanie i odłączanie urządzeń z systemem komputerowym bez potrzeby jego wyłączania. Oznacza to, że po podłączeniu urządzenie jest natychmiast dostępne do użycia, co znacząco poprawia efektywność pracy, zwłaszcza w środowiskach wymagających ciągłej dostępności. Przykłady zastosowania to dyski zewnętrzne USB, karty graficzne w systemach serwerowych oraz niektóre urządzenia peryferyjne, jak drukarki czy skanery. W przypadku systemów operacyjnych, takich jak Windows czy Linux, gorące podłączenie jest standardem, który wspiera użytkowników w elastycznym zarządzaniu sprzętem. Dobre praktyki związane z gorącym podłączaniem obejmują jednak upewnienie się, że urządzenia są zgodne z odpowiednimi standardami, takimi jak USB lub PCIe, które są projektowane z myślą o tej funkcji, zapewniając tym samym stabilność i bezpieczeństwo operacji.

Pytanie 8

Kto jest odpowiedzialny za alokację czasu procesora dla konkretnych zadań?

A. Chipset
B. System operacyjny
C. Pamięć RAM
D. Cache procesora
Cache procesora, pamięć RAM oraz chipset pełnią różne funkcje w architekturze systemu komputerowego, ale żaden z tych elementów nie odpowiada za przydzielanie czasu procesora do zadań. Cache procesora to ulokowana blisko rdzenia pamięci, która przechowuje najczęściej używane dane i instrukcje, co przyspiesza procesy obliczeniowe, ale nie angażuje się w zarządzanie czasem procesora. Pamięć RAM natomiast jest używana do przechowywania danych i programów w trakcie ich wykonywania, a jej rola w obiegu danych jest kluczowa dla wydajności systemu, ale sama z siebie nie decyduje o tym, które zadanie powinno korzystać z CPU w danym momencie. Chipset jest zbiorem układów scalonych, które zarządzają komunikacją pomiędzy różnymi komponentami komputera, ale również nie ma on wpływu na przydzielanie czasu procesora. Często mylone z funkcjami systemu operacyjnego, te komponenty mogą prowadzić do nieporozumień w zrozumieniu ich ról. Typowym błędem myślowym jest utożsamianie fizycznych komponentów sprzętowych z ich funkcjami zarządzania, co prowadzi do mylnych wniosków na temat tego, jak działa system komputerowy. Właściwe zrozumienie roli każdego z tych elementów jest kluczowe dla efektywnego korzystania z technologii komputerowej.

Pytanie 9

Na ilustracji ukazano narzędzie systemowe w Windows 7, które jest używane do

Ilustracja do pytania
A. przeprowadzania migracji systemu
B. konfiguracji preferencji użytkownika
C. tworzenia kopii zapasowych systemu
D. naprawiania problemów z systemem
Ten rysunek, który widzisz, to część panelu sterowania Windows 7, a dokładniej sekcja Wygląd i personalizacja. Zajmuje się ona ustawieniami, które mają wpływ na to, jak wygląda nasz system. Możesz dzięki temu zmieniać różne rzeczy, jak kolory okien czy dźwięki. Gdy zmieniasz tło pulpitu, to naprawdę nadajesz swojemu miejscu pracy osobisty charakter – każdy lubi mieć coś, co mu się podoba. Poza tym, ta sekcja pozwala też dostosować rozdzielczość ekranu, co jest ważne, żeby dobrze widzieć, a przy okazji chronić wzrok. Takie opcje są super przydatne, zwłaszcza w pracy, bo kiedy system jest zgodny z naszymi oczekiwaniami, to praca idzie lepiej. Windows, przez te różne funkcje, daje nam sporą kontrolę nad tym, jak wygląda interfejs, co w dzisiejszych czasach jest naprawdę ważne.

Pytanie 10

Polecenie grep w systemie Linux pozwala na

A. wyszukanie danych w pliku
B. porównanie dwóch plików
C. archiwizację danych
D. kompresję danych
Polecenie grep jest jednym z najważniejszych narzędzi w systemie Linux, które pozwala na efektywne wyszukiwanie danych w plikach tekstowych. Jego główną funkcją jest przeszukiwanie zawartości plików i wyświetlanie linii, które odpowiadają określonemu wzorcowi. Na przykład, jeśli chcesz znaleźć wszystkie wystąpienia słowa 'błąd' w pliku logu, możesz użyć polecenia grep w następujący sposób: 'grep błąd plik.log'. To narzędzie obsługuje wyrażenia regularne, co znacząco zwiększa jego możliwości. Możesz również używać opcji takich jak '-i', aby wyszukiwanie było nieczułe na wielkość liter, czy '-r', aby przeszukać również podkatalogi. grep jest standardowym narzędziem w wielu skryptach i procesach automatyzacji, co czyni go niezastąpionym w codziennej pracy administratorów systemów i programistów. Dobrą praktyką jest również łączenie grep z innymi poleceniami, takimi jak pipe '|', co pozwala na bardziej zaawansowane operacje na danych.

Pytanie 11

Jeżeli w konfiguracji karty graficznej zostanie wybrane odświeżanie obrazu większe od zalecanego, monitor CRT spełniający normy TCO 99

A. przejdzie w tryb uśpienia lub wyświetli okno z powiadomieniem
B. może ulec uszkodzeniu
C. nie wyłączy się, wyświetli czarny ekran
D. nie wyłączy się, jedynie wyświetli fragment obrazu
Użytkownicy często mylą skutki ustawienia nieodpowiedniego odświeżania z bardziej dramatycznymi konsekwencjami, takimi jak uszkodzenie sprzętu. W rzeczywistości, kiedy odświeżanie obrazu przewyższa możliwości monitora, sprzęt najczęściej nie wyłącza się, a zamiast tego nie jest w stanie zinterpretować sygnału, co prowadzi do utraty obrazu. Wyświetlanie części obrazu lub czarnego ekranu również nie jest typowe, ponieważ monitory CRT mają wbudowane mechanizmy ochronne, które zapobiegają uszkodzeniom. Pojawienie się czarnego obrazu nie oznacza, że monitor działa w sposób prawidłowy — to raczej symptom braku synchronizacji między urządzeniami. Użytkownicy mogą również zakładać, że monitor zgaśnie w momencie wykrycia problemu, jednak tak się nie dzieje. Ostatecznie, powód, dla którego monitory CRT przechodzą w stan uśpienia, jest związany z ich konstrukcją i systemami zabezpieczeń, które mają na celu ochronę przed trwałymi uszkodzeniami. Mylne przekonania co do działania sprzętu mogą prowadzić do niepotrzebnego strachu przed uszkodzeniem, co jest nieuzasadnione, gdyż odpowiednie monitorowanie i dostosowywanie ustawień zapewnia bezpieczne użytkowanie. Ważne jest, aby podczas konfiguracji sprzętu kierować się zaleceniami producentów i stosować się do standardów, co zminimalizuje ryzyko problemów z wyświetlaniem.

Pytanie 12

Moc zasilacza wynosi 450 W, co oznacza, że

A. 4,5 MW
B. 0,045 hW
C. 45 GW
D. 0,45 kW
Moc zasilacza wynosząca 450 W (watów) jest równoważna 0,45 kW (kilowatów), co można obliczyć dzieląc wartość w watach przez 1000. Kilowaty to jednostka mocy, która często jest używana w kontekście zasilania urządzeń elektrycznych i systemów energetycznych. Przykładowo, sprzęt komputerowy, zasilacze do gier czy urządzenia domowe często podawane są w watach, jednak dla większych instalacji, takich jak panele słoneczne czy systemy grzewcze, moc wyrażana jest w kilowatach. Znajomość przelicznika między tymi jednostkami jest kluczowa przy projektowaniu instalacji elektrycznych, aby odpowiednio dobrać zasilacz do potrzeb urządzenia oraz zapewnić efektywność energetyczną. Standardy branżowe, takie jak IEC 61000, zalecają dokładne określenie mocy zasilającej, aby uniknąć przeciążeń i uszkodzeń sprzętu. Zrozumienie tych pojęć jest niezbędne dla każdego profesjonalisty w dziedzinie elektrotechniki.

Pytanie 13

Najwyższą prędkość przesyłania danych w sieci bezprzewodowej można osiągnąć używając urządzeń o standardzie

A. 802.11 a
B. 802.11 n
C. 802.11 g
D. 802.11 b
Standardy 802.11a, 802.11b oraz 802.11g, mimo że wciąż są używane, mają znacznie niższe maksymalne prędkości transmisji danych w porównaniu do 802.11n. Standard 802.11a, wprowadzony w 1999 roku, oferuje prędkość do 54 Mbps, co może być niewystarczające w przypadku intensywnego korzystania z sieci. Z kolei 802.11b, który również powstał w latach 90-tych, zapewnia prędkość do 11 Mbps, co czyni go nieodpowiednim dla współczesnych standardów użytkowania. Chociaż 802.11g, odpowiednik 802.11b działający w paśmie 2,4 GHz, zwiększa prędkość do 54 Mbps, nadal nie dorównuje możliwościom 802.11n. Często użytkownicy mogą błędnie sądzić, że standardy te są wystarczające do nowoczesnych zastosowań, jednak w praktyce prowadzi to do frustracji związanej z niską jakością połączenia, opóźnieniami oraz zrywanym sygnałem. W przypadku aplikacji wymagających dużej przepustowości, takich jak streaming wideo czy gry online, starsze standardy nie są w stanie sprostać wymaganiom użytkowników. Dlatego kluczowe jest zrozumienie, że wybór odpowiedniego standardu bezprzewodowego ma ogromne znaczenie dla jakości i stabilności połączenia.

Pytanie 14

Na ilustracji widoczne jest urządzenie służące do

Ilustracja do pytania
A. instalacji okablowania w gniazdku sieciowym
B. zaciskania złącz BNC
C. usuwania izolacji z przewodów
D. zaciskania złącz RJ-45
Urządzenie przedstawione na rysunku to narzędzie do zdejmowania izolacji z kabli powszechnie używane w pracach elektrycznych i telekomunikacyjnych. Jego główną funkcją jest bezpieczne i precyzyjne usunięcie warstwy izolacyjnej z przewodów bez uszkodzenia ich wewnętrznej struktury. Urządzenia tego typu są niezbędne w sytuacjach, gdy wymagane jest przygotowanie kabla do połączenia elektrycznego lub montażu złącza. Przy korzystaniu z tych narzędzi przestrzega się standardów branżowych takich jak IEC 60352 dotyczących połączeń elektrycznych aby zapewnić bezpieczeństwo i funkcjonalność instalacji. Przykładem zastosowania może być przygotowanie przewodów do zaciskania złącz RJ-45 w sieciach komputerowych gdzie precyzyjne zdjęcie izolacji jest kluczowe dla zapewnienia poprawności działania sieci. Profesjonalne narzędzia do zdejmowania izolacji mogą być regulowane do różnych średnic przewodów co zwiększa ich uniwersalność w zastosowaniach zawodowych. Operatorzy tych narzędzi powinni być odpowiednio przeszkoleni aby zapewnić dokładność i bezpieczeństwo pracy z elektrycznością.

Pytanie 15

Jakim protokołem komunikacyjnym w warstwie transportowej, który zapewnia niezawodność przesyłania pakietów, jest protokół

A. IP (Internet Protocol)
B. UDP (User Datagram Protocol)
C. ARP (Address Resolution Protocol)
D. TCP (Transmission Control Protocol)
TCP (Transmission Control Protocol) jest protokołem warstwy transportowej, który zapewnia niezawodność w dostarczaniu danych poprzez zastosowanie mechanizmów potwierdzania odbioru, retransmisji pakietów oraz kontrolowania przepływu. Dzięki temu, TCP jest szeroko stosowany w aplikacjach wymagających wysokiej niezawodności, takich jak przeglądarki internetowe, poczta elektroniczna czy protokoły transferu plików (FTP). W odróżnieniu od UDP (User Datagram Protocol), który jest protokołem bezpołączeniowym i nie zapewnia gwarancji dostarczenia pakietów, TCP wykorzystuje połączenia oparte na sesji, co umożliwia osiągnięcie pełnej integralności danych. Mechanizmy takie jak 3-way handshake oraz numeracja sekwencyjna gwarantują, że dane są przesyłane w odpowiedniej kolejności i bez utraty. Dobrze zaprojektowane aplikacje sieciowe powinny wybierać TCP w sytuacjach, gdzie niezawodność i kolejność dostarczania informacji są kluczowe, co czyni go standardem w wielu rozwiązaniach stosowanych w Internecie.

Pytanie 16

Jaki wydruk w systemie rodziny Linux uzyskamy po wprowadzeniu komendy

dr-x------  2 root root       0 lis 28 12:39 .gvfs
-rw-rw-r--  1 root root  361016 lis  8  2012 history.dat
-rw-r--r--  1 root root   97340 lis 28 12:39 .ICEauthority
drwxrwxr-x  5 root root    4096 paź  7  2012 .icedtea
drwx------  3 root root    4096 cze 27 18:40 .launchpadlib
drwxr-xr-x  3 root root    4096 wrz  2  2012 .local
A. pwd
B. ps
C. free
D. ls -la
Komenda ls -la w systemie Linux jest używana do wyświetlania szczegółowego wykazu plików i katalogów w bieżącym katalogu roboczym. Parametr -l oznacza długi format listingu, który zawiera informacje takie jak prawa dostępu, liczba linków, właściciel, grupa właściciela, rozmiar pliku, data ostatniej modyfikacji oraz nazwa pliku lub katalogu. Natomiast parametr -a powoduje uwzględnienie plików ukrytych, które w systemach uniksowych są oznaczane kropką na początku nazwy. Wydruk przedstawiony w pytaniu pokazuje właśnie taki szczegółowy listing z plikami ukrytymi, co potwierdza użycie komendy ls -la. Tego rodzaju informacja jest nieoceniona dla administratorów systemów i programistów, którzy muszą zarządzać uprawnieniami i strukturą katalogów. Dobre praktyki branżowe zalecają regularne sprawdzanie zawartości katalogów, szczególnie w celu monitorowania uprawnień i zmian w plikach konfiguracyjnych. Komenda ls -la jest kluczowa w zrozumieniu struktury systemu plików i efektywnym zarządzaniu systemem operacyjnym Linux.

Pytanie 17

Na ilustracji przedstawiono opcje karty sieciowej w oprogramowaniu VirtualBox. Ustawienie na wartość sieć wewnętrzna, spowoduje, że

Ilustracja do pytania
A. karta sieciowa maszyny wirtualnej będzie zmostkowana z kartą maszyny fizycznej.
B. system wirtualny będzie zachowywać się tak, jakby był podłączony do rutera udostępniającego połączenie sieciowe.
C. system wirtualny nie będzie miał zainstalowanej karty sieciowej.
D. karta sieciowa maszyny wirtualnej będzie pracować w sieci wirtualnej.
Ustawienie karty sieciowej w VirtualBox na „Sieć wewnętrzna” oznacza, że interfejs tej maszyny wirtualnej będzie pracował w całkowicie wirtualnej, odizolowanej sieci, tworzonej wyłącznie wewnątrz hypervisora. Moim zdaniem to jedno z fajniejszych ustawień do ćwiczeń, bo pozwala zbudować sobie małe, laboratoryjne środowisko sieciowe bez ryzyka, że coś „wypłynie” do prawdziwej sieci firmowej czy domowej. Maszyny z tą samą nazwą sieci wewnętrznej (np. „lab1”) widzą się nawzajem, mogą się pingować, można na nich skonfigurować własny serwer DHCP, DNS, router programowy, firewalla itp., ale nie mają domyślnie dostępu ani do hosta, ani do Internetu. Z punktu widzenia systemu gościa karta sieciowa jest normalną kartą, widoczną w menedżerze urządzeń czy w `ipconfig`/`ip a`, tylko jej „kabel” jest podłączony do wirtualnego przełącznika, a nie do fizycznej infrastruktury. W praktyce wykorzystuje się to np. do testowania serwerów, usług domenowych, ćwiczeń z routingu czy konfiguracji zapór – zgodnie z dobrymi praktykami bezpieczeństwa takie środowiska testowe powinny być odseparowane od produkcji. Warto też pamiętać, że w odróżnieniu od NAT czy mostkowania, tryb sieci wewnętrznej nie tworzy żadnego automatycznego wyjścia na Internet, więc jeśli chcemy, żeby taki segment miał dostęp na zewnątrz, trzeba świadomie skonfigurować dodatkową maszynę pełniącą rolę routera lub bramy. To dokładnie odpowiada idei segmentacji i izolacji sieci, którą promują standardy bezpieczeństwa w IT.

Pytanie 18

Komputery K1, K2, K3, K4 są podłączone do interfejsów przełącznika, które są przypisane do VLAN-ów wymienionych w tabeli. Które z tych komputerów mają możliwość komunikacji ze sobą?

Nazwa komputeraAdres IPNazwa interfejsuVLAN
K110.10.10.1/24F1VLAN 10
K210.10.10.2/24F2VLAN 11
K310.10.10.3/24F3VLAN 10
K410.10.11.4/24F4VLAN 11
A. K2 i K4
B. K1 z K3
C. K1 i K4
D. K1 i K2
Komputery K1 i K3 mogą się ze sobą komunikować, ponieważ są przypisane do tego samego VLAN-u, czyli VLAN 10. W sieciach komputerowych VLAN (Virtual Local Area Network) to logiczna sieć, która pozwala na oddzielenie ruchu sieciowego w ramach wspólnej infrastruktury fizycznej. Przypisanie urządzeń do tego samego VLAN-u umożliwia im komunikację tak, jakby znajdowały się w tej samej sieci fizycznej, mimo że mogą być podłączone do różnych portów przełącznika. Jest to podstawowa praktyka w zarządzaniu sieciami, szczególnie w dużych infrastrukturach, gdzie organizacja sieci w różne VLAN-y poprawia wydajność i bezpieczeństwo. Komputery w różnych VLAN-ach domyślnie nie mogą się komunikować, chyba że zostaną skonfigurowane odpowiednie reguły routingu lub zastosowane mechanizmy takie jak routery między VLAN-ami. Praktyczne zastosowanie VLAN-ów obejmuje segmentację sieci dla różnych działów w firmie lub rozgraniczenie ruchu danych i głosu w sieciach VoIP. Zrozumienie działania VLAN-ów jest kluczowe dla zarządzania nowoczesnymi sieciami, ponieważ pozwala na efektywne zarządzanie zasobami oraz minimalizowanie ryzyka związanego z bezpieczeństwem danych.

Pytanie 19

Jaką maksymalną prędkość danych można osiągnąć w sieci korzystającej z skrętki kategorii 5e?

A. 100 Mb/s
B. 1 Gb/s
C. 10 Gb/s
D. 10 Mb/s
Maksymalna prędkość transmisji danych w sieciach Ethernet przy zastosowaniu skrętki kategorii 5e wynosi 1 Gb/s, co jest zgodne z normą IEEE 802.3ab. Skrętki kategorii 5e są powszechnie stosowane w lokalnych sieciach komputerowych, oferując nie tylko odpowiednią przepustowość, ale również poprawioną jakość sygnału w porównaniu do wcześniejszych kategorii. Dzięki zastosowaniu tej kategorii kabli, możliwe jest wsparcie dla aplikacji takich jak streaming wideo, gry online oraz szybkie przesyłanie dużych plików. W praktycznych zastosowaniach, sieci oparte na skrętce 5e mogą obsługiwać różne urządzenia, w tym komputery, drukarki oraz urządzenia IoT, co czyni je wszechstronnym rozwiązaniem w biurach i domach. Ponadto, zgodność z obowiązującymi standardami zapewnia interoperacyjność z innymi systemami i urządzeniami, co jest kluczowe w dzisiejszym złożonym środowisku sieciowym.

Pytanie 20

Który kabel powinien być użyty do budowy sieci w lokalach, gdzie występują intensywne pola zakłócające?

A. Ekranowany
B. Koncentryczny z transmisją w paśmie podstawowym
C. Typu skrętka
D. Koncentryczny z transmisją szerokopasmową
Ekranowany przewód to kluczowy wybór w instalacjach sieciowych znajdujących się w obszarach z silnymi polami zakłócającymi. Ekranowanie, zazwyczaj wykonane z metalu lub folii, skutecznie redukuje zakłócenia elektromagnetyczne, które mogą negatywnie wpływać na jakość sygnału. W praktyce, w obiektach przemysłowych czy biurowych, gdzie obecne są różnorodne maszyny i urządzenia elektroniczne, stosowanie przewodów ekranowanych zapewnia stabilność i niezawodność połączeń sieciowych. Dobrą praktyką jest także stosowanie ekranów o wysokiej przewodności, co pozwala na skuteczniejszą ochronę przed zakłóceniami. Standardy takie jak ISO/IEC 11801 oraz ANSI/TIA-568 definiują wymagania dotyczące ekranowania przewodów, co czyni je niezbędnym elementem nowoczesnych instalacji sieciowych w trudnych warunkach. Warto również pamiętać, że zastosowanie ekranowanych przewodów może znacząco wpłynąć na wydajność systemów komunikacyjnych, co jest szczególnie istotne w kontekście rosnących wymagań dotyczących prędkości i jakości przesyłanych danych.

Pytanie 21

Przy pomocy testów statycznych okablowania można zidentyfikować

A. zjawisko tłumienia
B. różnicę opóźnień
C. straty odbiciowe
D. przerwy w obwodzie
Testy statyczne okablowania są kluczowym narzędziem w diagnostyce sieci telekomunikacyjnych, szczególnie w identyfikacji przerw w obwodzie. Przerwa w obwodzie oznacza, że sygnał nie może przejść przez dany segment kabla, co może prowadzić do całkowitej utraty komunikacji. W praktyce, testy takie jak pomiar rezystancji lub użycie reflektometru czasowego (OTDR) pozwalają na szybką identyfikację lokalizacji przerwy, co jest niezbędne dla utrzymania niezawodności sieci. Przykładem zastosowania może być sytuacja, w której po burzy sieci przestają działać, a za pomocą testów statycznych technicy mogą szybko określić, gdzie doszło do uszkodzenia. Standardy branżowe, takie jak ANSI/TIA-568, zalecają regularne testy okablowania, aby zapewnić jego wysoką jakość i bezpieczeństwo działania. Dodatkowo, testy te pomagają w utrzymaniu zgodności z normami, co jest istotne podczas audytów lub certyfikacji.

Pytanie 22

Aby ustalić fizyczny adres karty sieciowej, w terminalu systemu Microsoft Windows należy wpisać komendę

A. get mac
B. show mac
C. ifconfig -a
D. ipconfig /all
Polecenie 'ipconfig /all' jest kluczowe w systemie Windows do uzyskiwania szczegółowych informacji dotyczących konfiguracji sieci, w tym adresów IP, masek podsieci, bram domyślnych oraz adresów fizycznych (MAC) kart sieciowych. Adres MAC jest unikalnym identyfikatorem przypisanym do interfejsu sieciowego, który służy do komunikacji w lokalnej sieci. Użycie 'ipconfig /all' pozwala na szybkie i efektywne sprawdzenie wszystkich tych informacji w jednym miejscu, co jest niezwykle przydatne w diagnozowaniu problemów sieciowych. W praktyce, jeśli na przykład komputer nie łączy się z siecią, administrator może użyć tego polecenia, aby upewnić się, że karta sieciowa ma przypisany adres MAC oraz inne niezbędne informacje. To podejście jest zgodne z najlepszymi praktykami w zarządzaniu siecią, które zalecają dokładne monitorowanie ustawień interfejsów sieciowych w celu zapewnienia ich prawidłowego działania oraz bezpieczeństwa.

Pytanie 23

W systemie Linux do bieżącego śledzenia działających procesów wykorzystuje się polecenie:

A. proc
B. sed
C. ps
D. sysinfo
Wybór polecenia 'proc' jako narzędzia do monitorowania procesów w systemie Linux jest nieprawidłowy, ponieważ 'proc' odnosi się do systemu plików, a nie polecenia. System plików '/proc' jest virtualnym systemem plików, który dostarcza informacji o bieżących procesach i stanie jądra, ale nie jest bezpośrednim narzędziem do monitorowania procesów. Użytkownicy mogą uzyskać wiele przydatnych informacji, przeglądając zawartość katalogu '/proc', jednak wymaga to znajomości ostrożnych komend do odczytu danych z tego systemu. Z kolei 'sysinfo' to nieistniejąca komenda w standardowym zestawie poleceń Linux; chociaż istnieją narzędzia, które dostarczają informacje o systemie, nie mają one bezpośredniego odpowiednika. Na koniec, 'sed' to edytor strumieniowy, który służy do przetwarzania i manipulacji tekstem, a nie do monitorowania procesów. Pomieszanie tych narzędzi pokazuje typowy błąd myślowy, polegający na myleniu funkcji różnych poleceń. Kluczem do skutecznego zarządzania systemem jest umiejętność rozróżnienia narzędzi i ich właściwego zastosowania. Właściwe polecenia, takie jak 'ps', stanowią podstawę efektywnej administracji systemami Linux, a ich zrozumienie jest kluczowe dla każdej osoby zajmującej się zarządzaniem systemami.

Pytanie 24

W systemie Windows ochrona polegająca na ostrzeganiu przed uruchomieniem nierozpoznanych aplikacji i plików pobranych z Internetu jest realizowana przez

A. Windows Update
B. Windows Ink
C. zaporę systemu Windows
D. Windows SmartScreen
Ochrona przed uruchamianiem nierozpoznanych aplikacji i plików pobranych z Internetu w systemie Windows wymaga narzędzia, które analizuje reputację plików oraz źródło ich pochodzenia, a nie ogólnej kontroli nad systemem czy funkcji wspomagających pisanie. Często pojawia się mylne przekonanie, że takie zabezpieczenie zapewnia zapora systemu Windows. To jednak narzędzie służy do blokowania lub umożliwiania komunikacji sieciowej konkretnym programom czy usługom, a nie do oceniania bezpieczeństwa plików wykonywalnych pobieranych z sieci. Zapora działa na poziomie sieciowym, a nie na poziomie kontroli uruchamianych aplikacji. Kolejnym błędnym tropem jest Windows Update – to narzędzie odpowiada za aktualizacje systemu, poprawki zabezpieczeń i sterowniki, ale w żaden sposób nie zajmuje się analizą plików pobieranych przez użytkownika z Internetu. Mylenie tych funkcji prowadzi do zaniedbywania kwestii ochrony przed nowymi, nieznanymi zagrożeniami. No i Windows Ink – to już zupełnie inna bajka, bo to narzędzie skierowane głównie do obsługi cyfrowego pióra i rysowania, więc nie pełni żadnej roli w kontekście zabezpieczania systemu przed szkodliwym oprogramowaniem. Moim zdaniem, największy błąd polega właśnie na utożsamianiu ogólnych lub sieciowych zabezpieczeń z tymi, które są dedykowane do wykrywania konkretnych zagrożeń na podstawie reputacji czy analizy behawioralnej. W praktyce, tylko Windows SmartScreen jest tutaj narzędziem dedykowanym do tego celu i warto zwracać uwagę na jego komunikaty, bo ignorowanie ich może być kosztowne, zwłaszcza w środowiskach firmowych, gdzie ataki przez nieznane aplikacje są coraz częstsze.

Pytanie 25

Który z poniższych protokołów reprezentuje protokół warstwy aplikacji w modelu ISO/OSI?

A. FTP
B. ARP
C. ICMP
D. UDP
Protokół ARP, czyli Address Resolution Protocol, nie jest protokołem warstwy aplikacji, lecz warstwy łącza danych modelu ISO/OSI. Jego główną funkcją jest tłumaczenie adresów IP na adresy MAC, co jest kluczowe dla komunikacji w lokalnych sieciach. To podejście może być mylące, ponieważ ARP jest istotne dla funkcjonowania sieci, ale jego rola jest ograniczona do warstwy łącza danych, a nie aplikacji. Przechodząc do UDP, czyli User Datagram Protocol, należy zaznaczyć, że ten protokół należy do warstwy transportowej, a nie aplikacyjnej. UDP jest wykorzystywany do przesyłania datagramów bez nawiązywania połączenia, co oznacza, że nie gwarantuje dostarczenia danych ani ich kolejności, co czyni go mniej niezawodnym w porównaniu z TCP. Natomiast ICMP, czyli Internet Control Message Protocol, jest również protokołem warstwy transportowej, który służy głównie do przesyłania komunikatów kontrolnych i diagnostycznych w sieci, na przykład do informowania o błędach w przesyłaniu danych. Wiele osób myli te protokoły z warstwą aplikacji, co prowadzi do nieporozumień. Kluczowym błędem myślowym jest utożsamianie funkcji protokołów z ich warstwą w modelu ISO/OSI, przez co można pomylić ich zastosowanie i rolę w sieci komputerowej. Zrozumienie struktury modelu ISO/OSI oraz właściwych protokołów przypisanych do każdej z warstw jest niezbędne dla każdego, kto pracuje z sieciami komputerowymi.

Pytanie 26

Na ilustracji zaprezentowane jest urządzenie do

Ilustracja do pytania
A. instalacji okablowania w gniazdku sieciowym
B. zaciskania wtyczek RJ-45
C. zaciskania wtyczek BNC
D. usuwania izolacji z przewodów
Wybierając narzędzie do zaciskania złącz RJ-45, należy zwrócić uwagę, że tego typu urządzenia są specjalistycznie zaprojektowane do pracy z konkretnego rodzaju złączami sieciowymi, które są powszechnie używane w instalacjach sieci komputerowych. Narzędzia te nie mają funkcji zdejmowania izolacji, lecz ich kluczowym zadaniem jest zaciskanie końcówek przewodów w odpowiednich złączach, co wymaga precyzyjnego dopasowania do standardów, takich jak T568A czy T568B. Z kolei narzędzia do zaciskania złącz BNC stosowane są głównie w systemach kablowych wideo i są również zaprojektowane do specyficznego typu złącz. BNC to złącze bagnetowe używane w różnych aplikacjach audiowizualnych, które wymaga specjalistycznych narzędzi do montażu. Jeśli chodzi o montaż okablowania w gniazdach sieciowych, to tego typu praca wymaga specjalnych narzędzi, takich jak punch down tools, które umożliwiają wciśnięcie przewodów w odpowiednie sloty w gniazdach keystone. Każde z tych narzędzi pełni odmienną funkcję i stosowanie ich zamiennie prowadzi do błędów instalacyjnych. Właściwe zrozumienie specyfiki każdego z tych narzędzi jest kluczowe dla osiągnięcia wysokiej jakości instalacji oraz zgodności ze standardami branżowymi. Błędne przypisanie funkcji urządzeniom może skutkować nie tylko uszkodzeniem sprzętu, ale również naruszeniem norm bezpieczeństwa, co w długiej perspektywie jest nieakceptowalne w profesjonalnym środowisku pracy.

Pytanie 27

Urządzenie pokazane na ilustracji ma na celu

Ilustracja do pytania
A. sprawdzenie długości przewodów sieciowych
B. organizację przewodów wewnątrz jednostki centralnej
C. odczytanie kodów POST z płyty głównej
D. zmierzenie wartości napięcia dostarczanego przez zasilacz komputerowy
Urządzenie przedstawione na rysunku to multimetr cyfrowy który jest podstawowym narzędziem w diagnostyce elektronicznej. Służy do pomiaru różnych parametrów elektrycznych w tym napięcia prądu i rezystancji. W kontekście komputerowym multimetr jest używany do sprawdzania napięć dostarczanych przez zasilacz komputerowy co jest kluczowe dla zapewnienia prawidłowego działania wszystkich komponentów komputerowych. Prawidłowe napięcia są niezbędne aby uniknąć uszkodzenia sprzętu lub niestabilności systemu. Multimetry oferują funkcjonalności takie jak pomiar napięcia stałego i zmiennego co jest istotne przy testowaniu zasilaczy komputerowych które mogą pracować w różnych trybach. Dobrą praktyką w branży IT jest regularne sprawdzanie napięć w celu wczesnego wykrywania potencjalnych problemów. Multimetr jest nieocenionym narzędziem dla techników serwisu komputerowego i inżynierów elektroników którzy muszą diagnozować i naprawiać sprzęt elektroniczny. Użycie multimetru zgodnie ze standardami bezpieczeństwa i zastosowanie odpowiednich zakresów pomiarowych są kluczowe dla uzyskania dokładnych wyników i ochrony sprzętu oraz użytkownika.

Pytanie 28

Która struktura partycji pozwala na stworzenie do 128 partycji podstawowych na pojedynczym dysku?

A. GPT
B. BOOT
C. MBR
D. NTLDR
Tablica partycji GPT (GUID Partition Table) jest nowoczesnym rozwiązaniem, które zastępuje starszą tablicę MBR (Master Boot Record). GPT umożliwia utworzenie do 128 partycji podstawowych na jednym dysku, co stanowi znaczące ulepszenie w porównaniu do MBR, który obsługuje tylko cztery partycje podstawowe. Użycie GPT staje się standardem w nowoczesnych systemach, szczególnie w kontekście dysków twardych o pojemności powyżej 2 TB, gdzie MBR przestaje być wystarczający. GPT jest również bardziej elastyczne w kwestii zarządzania przestrzenią dyskową, umożliwiając stosowanie partycji logicznych oraz lepszą ochronę przed uszkodzeniem danych dzięki redundancji i sumom kontrolnym. W praktyce, korzystając z GPT, można łatwo zarządzać dużymi zbiorami danych i instalować nowoczesne systemy operacyjne takie jak Windows 10, Linux czy macOS, które w pełni wykorzystują zalety tej tablicy partycji. Warto również pamiętać, że korzystanie z GPT wymaga wsparcia ze strony BIOS-u, co oznacza, że system powinien być uruchamiany w trybie UEFI.

Pytanie 29

Jaką maskę trzeba zastosować, aby podzielić sieć z adresem 192.168.1.0 na 4 podsieci?

A. 255.255.255.0
B. 255.255.255.128
C. 255.255.255.224
D. 255.255.255.192
Wybór maski 255.255.255.0, czyli /24, jest nieodpowiedni w kontekście podziału sieci 192.168.1.0 na 4 podsieci. Ta maska przypisuje 24 bity do identyfikacji sieci, co oznacza, że w ramach tej sieci jest 256 dostępnych adresów, jednak nie pozwala na wygodne podział na mniejsze jednostki. Oznacza to, że wszystkie urządzenia w takim przypadku będą znajdować się w jednej dużej podsieci, co utrudnia zarządzanie oraz zwiększa ryzyko kolizji adresów. Tego rodzaju konfiguracja może prowadzić do problemów z wydajnością, zwłaszcza w większych sieciach, gdzie duża liczba hostów może generować znaczny ruch. Z kolei maska 255.255.255.224, czyli /27, pozwala jedynie na stworzenie 8 podsieci, co jest niewłaściwe, gdyż wymagana jest dokładnie 4-podsieciowa struktura. Ostatecznie, maska 255.255.255.128, czyli /25, umożliwia utworzenie tylko 2 podsieci, co jest niewystarczające w tym przypadku. Te błędy pokazują, że nieprzemyślane podejście do podziału sieci może prowadzić do poważnych nieefektywności oraz problemów z bezpieczeństwem, jak również z zasięgiem i dostępnością adresów IP w dłuższej perspektywie czasowej.

Pytanie 30

W których nośnikach pamięci masowej uszkodzenia mechaniczne są najbardziej prawdopodobne?

A. W dyskach HDD
B. W pamięciach Flash
C. W kartach pamięci SD
D. W dyskach SSD
Dobrze zauważyłeś, że to właśnie dyski HDD są najbardziej podatne na uszkodzenia mechaniczne spośród wymienionych nośników. Wynika to z ich wewnętrznej budowy – mają ruchome części: talerze wirujące z dużą prędkością oraz głowice czytające i zapisujące. W praktyce, wystarczy upadek laptopa lub mocniejsze uderzenie, by doszło do tzw. „bad sectorów” albo nawet całkowitego uszkodzenia dysku. Dlatego w serwerowniach czy data center zawsze zaleca się montowanie ich w specjalnych wibracyjnych sanki lub stosowanie macierzy RAID dla bezpieczeństwa danych. Osobiście miałem okazję widzieć, jak po prostu przenoszenie komputera z włączonym HDD powodowało awarie – tego typu historie niestety nie są rzadkie. W przeciwieństwie do SSD czy kart SD, które nie mają żadnych elementów mechanicznych, HDD po prostu się fizycznie zużywają, a także łatwiej je uszkodzić w transporcie. Branżowe standardy jasno mówią: jeżeli sprzęt ma pracować w trudnych warunkach lub jest często przenoszony, to lepiej postawić na SSD lub pamięci półprzewodnikowe. To też jeden z powodów, dla których w nowoczesnych laptopach HDD odchodzą do lamusa. Warto o tym pamiętać przy wyborze sprzętu, zwłaszcza w środowiskach, gdzie bezpieczeństwo danych jest kluczowe.

Pytanie 31

Ile par kabli jest używanych w standardzie 100Base-TX do obustronnej transmisji danych?

A. 2
B. 4
C. 8
D. 1
Wybór jednej pary przewodów do transmisji danych w standardzie 100Base-TX jest błędny, ponieważ nie zaspokaja wymagań dotyczących prędkości i wydajności. Standard 100Base-TX, będący częścią rodziny Ethernet, działa z prędkością 100 Mbps i wymaga pełnodupleksowej komunikacji, co oznacza, że dane muszą być przesyłane jednocześnie w obie strony. Użycie tylko jednej pary przewodów prowadziłoby do znacznych ograniczeń w wydajności, ponieważ w takim układzie dane mogłyby być przesyłane tylko w jednym kierunku w danym czasie, co skutkowałoby utratą efektywności i opóźnieniami w przesyłaniu informacji. W przypadku wyboru czterech lub ośmiu par, również pojawiają się problemy, ponieważ standard 100Base-TX nie jest zaprojektowany do pracy z taką liczbą przewodów. W rzeczywistości, cztery pary stosowane są w bardziej zaawansowanych standardach, jak 1000Base-T, które obsługują prędkości 1 Gbps. Dlatego też, kluczowym błędem jest myślenie, że większa liczba par zapewnia automatycznie lepszą wydajność, co w kontekście 100Base-TX jest nieprawdziwe. Zrozumienie różnicy między standardami Ethernet i ich wymaganiami jest istotne dla skutecznej budowy infrastruktury sieciowej oraz dla efektywnego zarządzania sieciami w każdym środowisku.

Pytanie 32

Jakie polecenie w systemie Linux pokazuje czas działania systemu oraz jego średnie obciążenie?

A. lastreboot
B. uname -a
C. dmidecode
D. uptime
Polecenie 'uptime' to świetne narzędzie w Linuxie, które pokazuje, jak długo system działa od ostatniego uruchomienia. Dodatkowo, daje nam info o średnim obciążeniu procesora w ostatnich 1, 5 i 15 minutach. To coś, co przydaje się szczególnie administratorom, którzy chcą wiedzieć, jak funkcjonuje ich serwer. Jak mamy krótki uptime, to znaczy, że system może mieć problemy, może się częściej resetuje, co często związane jest z błędami w konfiguracji lub problemami ze sprzętem. Dlatego jeśli administratorzy monitorują te dane, łatwiej podejmują decyzje o naprawach czy optymalizacji. No i regularne sprawdzanie uptime jest super ważne, żeby wszystkie aplikacje działały jak należy i żeby unikać przestojów.

Pytanie 33

Jaki adres stanowi adres rozgłoszeniowy dla hosta o IP 171.25.172.29 oraz masce sieci 255.255.0.0?

A. 171.25.172.255
B. 171.25.255.0
C. 171.25.0.0
D. 171.25.255.255
Podane opcje, które nie są prawidłowym adresem rozgłoszeniowym, mogą wprowadzać w błąd z powodu nieprawidłowego zrozumienia struktury adresacji IP i masowania sieci. Adres 171.25.255.0 wskazuje na sieć, a nie na adres rozgłoszeniowy, ponieważ ostatni bajt (0) w kontekście adresacji IP oznacza, że jest to adres sieci, a nie adres rozgłoszeniowy. Adres 171.25.172.255 również nie jest poprawnym adresem rozgłoszeniowym w tej konfiguracji, gdyż maska 255.255.0.0 przydziela 16 bitów na część sieci, a ten adres dotyczy hosta w innej podsieci. Z drugiej strony, 171.25.0.0 to adres sieci, który nie może być użyty jako adres rozgłoszeniowy. Kluczowym błędem myślowym w tych przypadkach jest mylenie adresów rozgłoszeniowych z adresami sieciowymi, co może prowadzić do problemów w konfiguracji i zarządzaniu siecią. Zrozumienie, że adres rozgłoszeniowy to maksymalna wartość w danej podsieci, jest fundamentalne w kontekście projektowania i administrowania sieciami IP. W praktyce, takie błędy mogą prowadzić do zakłóceń w komunikacji w sieci oraz problemów z routingiem, dlatego ważne jest, aby zawsze dokładnie obliczać adresy rozgłoszeniowe zgodnie z przyjętymi standardami i dobrymi praktykami w dziedzinie sieci komputerowych.

Pytanie 34

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 8 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 35

Jakie polecenie w terminalu systemu operacyjnego Microsoft Windows umożliwi wyświetlenie szczegółów wszystkich zasobów udostępnionych na komputerze lokalnym?

A. net print
B. net share
C. net session
D. net file
Polecenie 'net share' w Windowsie pokazuje, co takiego mamy udostępnione na naszym komputerze. Dzięki temu administratorzy mogą szybko sprawdzić, jakie foldery czy drukarki są dostępne dla innych w sieci. To przydatne, kiedy chcemy się upewnić, że wszystko jest dobrze ustawione i nikt nie ma dostępu, kto nie powinien. Jak uruchomisz 'net share' w wierszu poleceń, to dostaniesz listę wszystkich aktualnych zasobów. To jest też świetne narzędzie do audytu, bo można zobaczyć, czy wszystko jest zgodne z tym, co powinno być. Pamiętaj, zarządzanie udostępnianiem to super ważny aspekt bezpieczeństwa w sieci, więc warto to regularnie monitorować i sprawdzać.

Pytanie 36

Protokół, który pozwala na ściąganie wiadomości e-mail z serwera, to

A. DNS
B. POP3
C. FTP
D. SMTP
POP3, czyli Post Office Protocol version 3, to standard, który pozwala na ściąganie wiadomości e-mail z serwera. Dzięki temu można mieć dostęp do swoich maili nawet offline, co jest mega przydatne. Ważne jest to, że po pobraniu wiadomości, zazwyczaj są one usuwane z serwera. To daje nam pełną kontrolę nad skrzynką i nie musimy się martwić o dostęp do internetu, żeby przeczytać swoje wiadomości. Poza tym, POP3 ma różne metody autoryzacji, co podnosi bezpieczeństwo. Wiele popularnych programów pocztowych, jak na przykład Outlook albo Thunderbird, korzysta z POP3 do obsługi maili. Łatwo jest też zastosować szyfrowanie, co zabezpiecza to, co przesyłamy. Z mojego doświadczenia, znajomość POP3 jest naprawdę ważna dla każdego, kto chce ogarniać swoją pocztę, czy to w życiu prywatnym, czy zawodowym.

Pytanie 37

Transmisja danych typu półduplex to transmisja

A. jednokierunkowa z trybem bezpołączeniowym
B. jednokierunkowa z kontrolą parzystości
C. dwukierunkowa naprzemienna
D. dwukierunkowa równoczesna
Transmisja danych typu półduplex jest rzeczywiście transmisją dwukierunkową naprzemienną. Oznacza to, że urządzenia komunikujące się w trybie półduplex mogą wysyłać i odbierać dane, ale nie jednocześnie. Taki sposób transmisji jest często stosowany w aplikacjach, gdzie pełna dwukierunkowość w jednym czasie nie jest wymagana, co pozwala na efektywne wykorzystanie dostępnych zasobów. Przykładem zastosowania półduplexu są radiotelefony, gdzie jedna osoba mówi, a druga musi poczekać na zakończenie nadawania, by odpowiedzieć. W kontekście standardów telekomunikacyjnych, tryb półduplex jest praktyczny w sytuacjach, gdy koszt stworzenia pełnej komunikacji dwukierunkowej byłby zbyt wysoki, na przykład w systemach z ograniczoną przepustowością lub w sieciach bezprzewodowych. Dzięki tej metodzie można skutecznie zarządzać ruchem danych, co przyczynia się do optymalizacji komunikacji i obniżenia ryzyka kolizji pakietów. Półduplex znajduje również zastosowanie w technologii Ethernet, w której urządzenia mogą przesyłać dane w sposób naprzemienny, co zwiększa efektywność użycia medium transmisyjnego.

Pytanie 38

Rezultatem działania przedstawionego na ilustracji okna jest

Ilustracja do pytania
A. wyłączenie konta Gość
B. zmiana nazwy konta Administrator na Superużytkownik
C. zmiana nazwy konta Gość na Superużytkownik
D. dodanie użytkownika Superużytkownik
Na zrzucie ekranu widzisz Edytor zarządzania zasadami grupy w domenie Windows. Po lewej stronie jest drzewo: Konfiguracja komputera → Ustawienia systemu Windows → Ustawienia zabezpieczeń → Zasady lokalne → Opcje zabezpieczeń. Po prawej stronie otwarte jest konkretne ustawienie o nazwie „Konta: Zmienianie nazwy konta administratora”. To jest gotowa polityka bezpieczeństwa systemu Windows, nie dotyczy ona konta Gość ani tworzenia nowego użytkownika, tylko właśnie wbudowanego konta Administrator. W polu tekstowym wpisano nazwę „Superużytkownik” i zaznaczono „Definiuj następujące ustawienie zasad”, więc system wymusi zmianę nazwy wbudowanego konta Administrator na Superużytkownik na maszynach objętych tą GPO. W praktyce to jest jedna z podstawowych dobrych praktyk hardeningu systemu Windows: ukryć domyślne konto Administrator poprzez zmianę jego nazwy oraz ewentualnie dodatkowo włączyć zasady złożoności hasła, ograniczenia logowania, audyt logowań itp. Moim zdaniem w środowiskach domenowych warto łączyć to z użyciem osobnych kont administracyjnych dla każdego admina, a konto wbudowane mieć z mocnym hasłem i wykorzystywać tylko awaryjnie. Ważne jest też, że ta polityka nie tworzy nowego konta o nazwie Superużytkownik, tylko zmienia nazwę już istniejącego wbudowanego konta Administrator, zachowując jego SID i uprawnienia. Dzięki temu skrypty, uprawnienia i członkostwo w grupach dalej działają poprawnie, bo identyfikacja opiera się na SID, a nie na nazwie wyświetlanej użytkownikowi.

Pytanie 39

Aby sprawdzić minimalny czas ważności hasła w systemie Windows, stosuje się polecenie

A. net group
B. net user
C. net time
D. net accounts
Polecenia 'net user', 'net time' oraz 'net group' nie są odpowiednie do sprawdzania minimalnego okresu ważności hasła w systemie Windows. 'Net user' umożliwia zarządzanie kontami użytkowników, jednak nie zawiera opcji bezpośredniego sprawdzania ani ustawiania minimalnego okresu ważności haseł. Z kolei 'net time' używane jest do synchronizacji czasu z innymi komputerami w sieci, co nie ma związku z polityką haseł. Natomiast 'net group' służy do zarządzania grupami użytkowników w systemie, co również nie dotyczy ustawień haseł. Typowym błędem myślowym jest zakładanie, że każde polecenie związane z 'net' dotyczy haseł, podczas gdy każde z tych poleceń ma swoje specyficzne zastosowania. W kontekście najlepszych praktyk w zakresie bezpieczeństwa, kluczowe jest stosowanie odpowiednich narzędzi do odpowiednich zadań, aby skutecznie zarządzać bezpieczeństwem systemu. Zrozumienie funkcji każdego z poleceń pozwala uniknąć nieefektywnych praktyk oraz nieporozumień, które mogą prowadzić do poważnych luk w zabezpieczeniach.

Pytanie 40

W nagłówku ramki standardu IEEE 802.3, który należy do warstwy łącza danych, znajduje się

A. parametr TTL
B. numer portu
C. adres MAC
D. adres IPv4
W kontekście standardu IEEE 802.3, zrozumienie roli adresu MAC jest istotne, aby uniknąć powszechnych nieporozumień związanych z innymi elementami związanymi z sieciami komputerowymi. Adres IP, na przykład, jest używany na wyższej warstwie modelu OSI, czyli w warstwie sieciowej, a nie w warstwie łącza danych. Adres IP służy do lokalizowania urządzeń w szerszej sieci, takiej jak Internet, gdzie adresy MAC nie mają zastosowania poza lokalnym segmentem. Parametr TTL (Time To Live) odnosi się do liczby routerów, przez które pakiet może przejść, zanim zostanie odrzucony, co dotyczy głównie ruchu na warstwie sieciowej. Numer portu z kolei jest używany do identyfikacji konkretnych aplikacji lub usług w ramach protokołów transportowych, takich jak TCP czy UDP. Te elementy, choć istotne w kontekście komunikacji sieciowej, nie mają miejsca w nagłówku ramki IEEE 802.3. Typowym błędem myślowym jest mylenie różnych warstw modelu OSI oraz ich funkcji. Ważne jest, aby zapamiętać, że każda warstwa ma swoje unikalne zadania i używa specyficznych identyfikatorów, co pozwala na efektywne zarządzanie i routing danych w sieciach komputerowych.