Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 4 maja 2026 08:22
  • Data zakończenia: 4 maja 2026 08:37

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Adres IP jest zapisany jako cztery grupy liczb, które są oddzielone kropkami

A. dekad
B. oktetów
C. bitów
D. helów
Numer IP, będący kluczowym elementem protokołu komunikacyjnego w sieciach komputerowych, zapisywany jest w formie czterech oktetów oddzielonych kropkami. Oktet to jednostka danych składająca się z ośmiu bitów, co pozwala na reprezentację wartości od 0 do 255 dla każdego z czterech segmentów. Dzięki temu, adresy IPv4, które są najczęściej używane, mogą przyjąć formę taką jak 192.168.0.1. W praktyce pozwala to na zdefiniowanie około 4 miliardów unikalnych adresów w ramach tego systemu. Dobre praktyki zalecają, aby w dokumentacji i konfiguracjach sieciowych zawsze posługiwać się pełnymi adresami IP, aby uniknąć nieporozumień. Ponadto, znajomość struktury i formatu adresów IP jest kluczowa przy projektowaniu i zarządzaniu sieciami, a także podczas rozwiązywania problemów związanych z komunikacją w sieci.

Pytanie 2

Wartość wyrażana w decybelach, będąca różnicą pomiędzy mocą sygnału przekazywanego w parze zakłócającej a mocą sygnału generowanego w parze zakłócanej to

A. przesłuch zdalny
B. rezystancja pętli
C. przesłuch zbliżny
D. poziom mocy wyjściowej
Zrozumienie pojęć związanych z zakłóceniami sygnału jest kluczowe w dziedzinie telekomunikacji. Odpowiedzi takie jak rezystancja pętli, przesłuch zdalny czy poziom mocy wyjściowej, choć mają swoje miejsce w tej dyscyplinie, nie odnoszą się bezpośrednio do zagadnienia przesłuchu zbliżnego, który opisuje różnice w mocy sygnałów w bliskim sąsiedztwie. Rezystancja pętli odnosi się do oporu w obwodzie elektrycznym, co może mieć wpływ na jakość sygnału, ale nie jest miarą przesłuchu. Przesłuch zdalny natomiast dotyczy wpływu sygnałów z innych par przewodów, co również różni się od przesłuchu zbliżnego, który koncentruje się na oddziaływaniu sygnałów w tym samym medium. Poziom mocy wyjściowej jest istotny dla oceny wydajności urządzenia, jednak nie dostarcza informacji o interakcjach między sygnałami. Często pojawiające się nieporozumienia dotyczące definicji tych terminów mogą prowadzić do błędnych wniosków, dlatego ważne jest, aby jasno rozróżniać między różnymi rodzajami zakłóceń i ich skutkami dla jakości sygnału. W kontekście projektowania systemów, umiejętność identyfikacji i analizy przesłuchów jest kluczowa dla osiągnięcia pożądanych parametrów pracy, a nieprawidłowe interpretacje mogą prowadzić do nieefektywnych rozwiązań.

Pytanie 3

Który typ drukarki powinien być wykorzystany w dziale sprzedaży hurtowni materiałów budowlanych do tworzenia faktur na papierze samokopiującym, aby uzyskać kopie wydruku?

A. Laserowa
B. Sublimacyjna
C. Atramentowa
D. Igłowa
Drukarka igłowa to najlepszy wybór do drukowania faktur na papierze samokopiującym, ponieważ wykorzystuje mechanizm, który pozwala na jednoczesne drukowanie na kilku warstwach papieru. Dzięki zastosowaniu taśmy barwiącej i igieł, drukarka igłowa wytwarza wyraźne wcięcia, co umożliwia przeniesienie obrazu na kolejne kopie. W praktyce, takie rozwiązanie jest powszechnie stosowane w działach sprzedaży, gdzie konieczne jest generowanie wielu egzemplarzy dokumentów, np. faktur dla klientów, które są potrzebne zarówno dla sprzedawcy, jak i dla nabywcy. Standardy branżowe zalecają użycie drukarek igłowych w sytuacjach wymagających ciągłego druku dokumentów, co czyni je niezawodnym wyborem w hurtowniach materiałów budowlanych. Przykładem zastosowania jest sytuacja, w której potrzebne są kopie dla księgowości oraz klienta, co pozwala na uniknięcie problemów z archiwizowaniem danych oraz kontroli finansowej.

Pytanie 4

Który interfejs bezprzewodowy, komunikacji krótkiego zasięgu pomiędzy urządzeniami elektronicznymi, korzysta z częstotliwości 2,4 GHz?

A. Bluetooth
B. IrDA
C. USB
D. FireWire
Prawidłowa odpowiedź to Bluetooth, bo jest to bezprzewodowy interfejs krótkiego zasięgu, który standardowo pracuje w paśmie 2,4 GHz (dokładniej w nielicencjonowanym paśmie ISM 2,4–2,4835 GHz). Bluetooth został zaprojektowany właśnie do komunikacji pomiędzy urządzeniami elektronicznymi na niewielkie odległości – typowo kilka metrów, czasem kilkanaście, zależnie od klasy mocy urządzenia. W praktyce używasz go codziennie: słuchawki bezprzewodowe, głośniki, klawiatury i myszy, połączenie telefonu z samochodem, udostępnianie internetu z telefonu na laptop – to wszystko jest oparte na Bluetooth. Z mojego doświadczenia wynika, że w serwisie czy przy konfiguracji sprzętu dobrze jest kojarzyć, że jeśli urządzenie paruje się, ma profil audio, HID albo udostępnia port COM „wirtualnie”, to prawie na pewno chodzi o Bluetooth. Warto też wiedzieć, że Bluetooth korzysta z techniki skakania po częstotliwościach (FHSS – Frequency Hopping Spread Spectrum), żeby zmniejszyć zakłócenia i współdzielić pasmo 2,4 GHz z Wi‑Fi czy kuchenkami mikrofalowymi. Nowsze wersje, jak Bluetooth Low Energy (BLE), są zoptymalizowane pod niskie zużycie energii, więc świetnie nadają się do czujników IoT, opasek sportowych, smartwatchy. W sieciach i konfiguracji sprzętu dobrą praktyką jest świadome zarządzanie interfejsami 2,4 GHz (Wi‑Fi i Bluetooth), np. unikanie nadmiernego zagęszczenia urządzeń w jednym pomieszczeniu, aktualizacja sterowników BT oraz wyłączanie nieużywanych interfejsów ze względów bezpieczeństwa. Znajomość tego, że Bluetooth to 2,4 GHz, pomaga też przy diagnozie zakłóceń – jeśli w biurze „rwie” Wi‑Fi 2,4 GHz, a jest masa urządzeń BT, to od razu wiadomo, gdzie szukać problemów.

Pytanie 5

Nośniki informacji, takie jak dyski twarde, zapisują dane w jednostkach zwanych sektorami, które mają wielkość

A. 128 B
B. 1024 KB
C. 512 B
D. 512 KB
Dyski twarde przechowują dane w strukturze zwanej sektorami, z których każdy ma standardowy rozmiar 512 B. Ten rozmiar jest zgodny z wieloma standardami w branży, co zapewnia kompatybilność pomiędzy różnymi systemami i urządzeniami. Użycie sektorów o rozmiarze 512 B pozwala na efektywne zarządzanie danymi oraz optymalizację wydajności podczas operacji odczytu i zapisu. Przykładowo, gdy system operacyjny chce zapisać plik, fragmentuje go na mniejsze części, które mogą pasować do rozmiaru sektora, co pozwala na lepsze wykorzystanie dostępnej przestrzeni. Dodatkowo, wiele systemów plików, jak NTFS czy FAT32, operuje na sektorach 512 B, co czyni ten rozmiar standardem w technologii przechowywania danych. Znajomość rozmiaru sektorów jest istotna przy wyborze najlepszego dysku twardego do konkretnego zastosowania, na przykład w konfiguracjach serwerowych, gdzie wydajność i pojemność mają kluczowe znaczenie.

Pytanie 6

Liczba 100110011 zapisana w systemie ósemkowym wynosi

A. 383
B. 333
C. 463
D. 346
Liczba 100110011 w systemie binarnym można przekształcić na system ósemkowy, grupując bity w trójki, począwszy od prawej strony. Grupa 100 to 4 w systemie ósemkowym, 110 to 6, a ostatnia grupa 011 to 3. Łącząc te wartości, otrzymujemy 463 jako wynik konwersji. Praktyczne zastosowanie tego procesu jest szczególnie istotne w informatyce, gdzie konwersja między systemami liczbowymi jest często wykorzystywana w programowaniu i inżynierii oprogramowania. Warto zwrócić uwagę na standardy konwersji, takie jak IEEE 754 dla liczb zmiennoprzecinkowych, które często wymagają takich przekształceń. Dzięki znajomości konwersji między systemami liczbowymi można lepiej zrozumieć, jak komputery przechowują i przetwarzają dane w różnorodnych formatach.

Pytanie 7

Na zdjęciu widać płytę główną komputera. Strzałka wskazuje na

Ilustracja do pytania
A. łącze do dysku SCSI
B. gniazdo zasilające do płyty ATX
C. gniazdo zasilające do płyty AT
D. łącze do dysku IDE
Gniazdo zasilania ATX na płycie głównej to kluczowy element nowoczesnych komputerów osobistych. Zostało zaprojektowane do dostarczania zasilania do różnych komponentów płyty głównej w sposób wydajny i zrównoważony. Standard ATX, który jest obecnie najczęściej używany w komputerach stacjonarnych, zapewnia nie tylko zasilanie, ale również zarządzanie energią, co pozwala na bardziej efektywne działanie systemu. Gniazdo ATX charakteryzuje się specyficznym kształtem i liczbą pinów, zwykle 20 lub 24, co pozwala na podłączenie zasilacza komputerowego. Dzięki temu standardowi użytkownicy mogą łatwo wymieniać komponenty sprzętowe, gdyż zachowuje on kompatybilność przez wiele generacji komponentów. Warto zauważyć, że gniazdo ATX obsługuje funkcje takie jak Power Good Signal, które zapewniają prawidłowe uruchomienie komputera tylko przy odpowiednich poziomach napięcia. Standard ATX jest także podstawą dla zaawansowanych funkcji zarządzania energią, takich jak tryby uśpienia i hibernacji, które przyczyniają się do oszczędności energii i ochrony środowiska. Wybór tego gniazda jako odpowiedzi wskazuje na zrozumienie nowoczesnych standardów zasilania w architekturze komputerowej.

Pytanie 8

Użytkownicy sieci Wi-Fi zauważyli zakłócenia oraz częste przerwy w połączeniu. Przyczyną tej sytuacji może być

A. niepoprawne hasło do sieci
B. niez działający serwer DHCP
C. zbyt słaby sygnał
D. niewłaściwa metoda szyfrowania sieci
Zbyt słaby sygnał jest jedną z najczęstszych przyczyn problemów z połączeniem Wi-Fi, ponieważ wpływa na jakość transmisji danych. W przypadku, gdy sygnał jest osłabiony, może występować opóźnienie w przesyłaniu danych, co prowadzi do częstych zrywania połączenia. Niskiej jakości sygnał może być wynikiem różnych czynników, takich jak odległość od routera, przeszkody (np. ściany, meble) oraz zakłócenia elektromagnetyczne od innych urządzeń. Aby poprawić jakość sygnału, warto zastosować kilka rozwiązań, takich jak zmiana lokalizacji routera, użycie wzmacniaczy sygnału lub routerów z technologią Mesh. Dobrą praktyką jest również przeprowadzenie analizy pokrycia sygnałem za pomocą specjalistycznych aplikacji, które pomogą zidentyfikować obszary z niskim sygnałem. Warto również dbać o aktualizację oprogramowania routera, aby korzystać z najnowszych poprawek i funkcji, co przyczynia się do optymalizacji sieci.

Pytanie 9

Aby wymusić na użytkownikach lokalnych systemów z rodziny Windows Server regularną zmianę hasła oraz stosowanie haseł o odpowiedniej długości i spełniających wymagania dotyczące złożoności, należy ustawić

A. właściwości konta użytkownika w zarządzaniu systemem
B. konta użytkowników w Ustawieniach
C. zasady blokady kont w politykach grup
D. zasady haseł w lokalnych zasadach zabezpieczeń
Zasady haseł w systemach Windows Server to coś naprawdę kluczowego, jeśli chodzi o bezpieczeństwo. Dobre ustawienia tych zasad to podstawa dla każdego administratora. Dzięki nim można na przykład wymusić, żeby użytkownicy zmieniali hasła co jakiś czas i żeby te hasła były odpowiednio długie i skomplikowane. Właściwie, standardowe wymagania mówią, że hasło powinno mieć co najmniej 12 znaków i używać wielkich i małych liter, cyfr oraz znaków specjalnych. To zdecydowanie podnosi poziom bezpieczeństwa. Przykładowo, można ustawić zasady, które zmuszają do zmiany hasła co 90 dni. To wszystko jest zgodne z wytycznymi NIST, co jest naprawdę ważne w obecnych czasach, gdzie ochrona danych jest priorytetem. Takie podejście pomaga lepiej zabezpieczyć informacje w organizacji i zmniejszyć ryzyko nieautoryzowanego dostępu.

Pytanie 10

Aby umożliwić wymianę informacji pomiędzy sieciami VLAN, wykorzystuje się

A. punkt dostępowy.
B. koncentrator.
C. router.
D. modem.
Modemy, koncentratory i punkty dostępowe odgrywają różne role w architekturze sieciowej, ale nie są odpowiednie do realizacji komunikacji między VLAN-ami. Modemy, na przykład, są urządzeniami, które konwertują sygnały cyfrowe na analogowe i vice versa, umożliwiając dostęp do Internetu, ale nie są zaprojektowane do trasowania ruchu między różnymi sieciami VLAN. Ich rola koncentruje się na połączeniach z dostawcami usług internetowych, a nie na zarządzaniu wewnętrznym ruchem sieciowym. Koncentratory, z drugiej strony, są urządzeniami działającymi na warstwie pierwszej modelu OSI, które po prostu przesyłają dane do wszystkich portów w sieci, co nie pozwala na kontrolę ruchu ani separację VLAN-ów. W związku z tym, są one nieefektywne w scenariuszach, gdzie wymagane jest zarządzanie wieloma segmentami sieci. Punkty dostępowe z kolei to urządzenia, które pozwalają na bezprzewodowe połączenie z siecią lokalną, ale również nie posiadają funkcji trasowania czy inspekcji pakietów, które są niezbędne do komunikacji między VLAN-ami. Typowe błędy w myśleniu prowadzące do takich niepoprawnych wniosków to mylenie funkcji urządzeń sieciowych oraz niedostateczna znajomość wspomnianych standardów i praktyk, które jasno określają, że do komunikacji między VLAN-ami konieczne jest wykorzystanie routerów.

Pytanie 11

W systemie Linux polecenie chmod 321 start spowoduje przyznanie poniższych uprawnień plikowi start:

A. wykonanie i zapis dla właściciela pliku, zapis dla grupy, wykonanie dla innych
B. odczyt, zapis i wykonanie dla właściciela pliku, zapis i wykonanie dla grupy oraz odczyt dla innych
C. zapis, odczyt i wykonanie dla użytkownika root, odczyt i wykonanie dla użytkownika standardowego, odczyt dla innych
D. pełna kontrola dla użytkownika root, zapis i odczyt dla użytkownika standardowego, odczyt dla innych
W analizowaniu błędnych odpowiedzi można dostrzec kilka istotnych nieporozumień związanych z funkcjonowaniem systemu uprawnień w systemie Linux. W przypadku niepoprawnych odpowiedzi często pojawia się mylne założenie, że uprawnienia są przyznawane w sposób uniwersalny, a nie według konkretnej struktury, jaką definiują wartości ósemkowe. Na przykład, błędne twierdzenie, że właściciel pliku ma pełną kontrolę, ignoruje fakt, że w prezentowanym przypadku uprawnienia dla właściciela to tylko zapis i wykonanie. Ponadto, niektóre odpowiedzi sugerują, że grupa ma uprawnienia do wykonywania, co jest sprzeczne z nadanymi uprawnieniami, gdzie grupa może jedynie modyfikować plik, ale nie mieć możliwości jego uruchamiania. Typowym błędem jest również mylenie uprawnień dla pozostałych użytkowników. Wartości przypisane do pozostałych użytkowników są ograniczone do wykonywania, podczas gdy w niepoprawnych odpowiedziach występują sugestie dotyczące pełnych uprawnień, co w praktyce może prowadzić do nieautoryzowanego dostępu. Zrozumienie, jak działa system chmod, jest kluczowe w kontekście bezpieczeństwa i zarządzania uprawnieniami, dlatego ważne jest, aby nie tylko znać wartości, ale także umieć je poprawnie interpretować i stosować w praktyce.

Pytanie 12

ile bajtów odpowiada jednemu terabajtowi?

A. 10^14 bajtów
B. 10^12 bajtów
C. 10^8 bajtów
D. 10^10 bajtów
Jeden terabajt (TB) jest równy 10^12 bajtów, co oznacza, że w systemach komputerowych, które często używają pojęcia terabajta, odniesieniem są jednostki oparte na potęgach dziesięciu. Ta definicja opiera się na standardzie SI, gdzie terabajt jest uznawany jako 1 000 000 000 000 bajtów. Przykładem praktycznego zastosowania tej wiedzy jest obliczanie pojemności dysków twardych oraz pamięci masowej. W obliczeniach dotyczących pamięci komputerowej, istotne jest, aby rozumieć różnice między terabajtem a tebibajtem (TiB), które wynosi 2^40 bajtów (około 1,1 TB). W kontekście rozwoju technologii, znajomość tych jednostek jest kluczowa przy doborze odpowiednich rozwiązań do przechowywania danych, co jest szczególnie istotne w branży IT, analizie dużych zbiorów danych oraz przy projektowaniu systemów informatycznych.

Pytanie 13

W serwerach warto korzystać z dysków, które obsługują tryb Hot plugging, ponieważ

A. czas odczytu zwiększa się trzykrotnie w porównaniu do trybu Cable select
B. prędkość zapisu rośnie do 250 MB/s
C. pojemność dysku wzrasta dzięki automatycznej kompresji danych
D. można podłączyć i odłączyć dysk przy włączonym zasilaniu serwera
Nieprawidłowe odpowiedzi, które sugerują inne powody stosowania dysków z funkcjonalnością Hot plugging, nie odzwierciedlają rzeczywistej istoty tej technologii. Twierdzenie, że zwiększa się pojemność dysku poprzez automatyczną kompresję danych, jest mylne, ponieważ kompresja nie jest funkcją, która jest związana z Hot plugging. Kompresja to proces, który odbywa się na poziomie oprogramowania i nie wpływa na fizyczne połączenie dysków w systemie. Kolejna fałszywa koncepcja dotyczy czasu odczytu, który rzekomo miałby wzrastać trzykrotnie w porównaniu z trybem Cable select. W rzeczywistości, Cable select jest techniką identyfikacji dysków w systemach SATA, a nie technologii, która miałaby wpływ na prędkość odczytu. Prędkości zapisu również nie są związane z Hot plugging; nie ma standardowej prędkości zapisu wynoszącej 250 MB/s, ponieważ wydajność dysków zależy od wielu czynników, takich jak ich typ, protokoły komunikacyjne czy konfiguracja RAID. Typowe błędy myślowe w takich odpowiedziach obejmują mylenie funkcji i specyfikacji dysków z technologią ich podłączenia oraz niepełne zrozumienie, jak działają systemy dyskowe w kontekście Hot plugging. Ważne jest, aby skupić się na rzeczywistych zastosowaniach i korzyściach wynikających z tej technologii, a nie na błędnych założeniach dotyczących jej funkcji.

Pytanie 14

Podczas konserwacji i czyszczenia drukarki laserowej, która jest odłączona od zasilania, pracownik serwisu komputerowego może zastosować jako środek ochrony indywidualnej

A. komputerowy odkurzacz ręczny
B. ściereczkę do usuwania zanieczyszczeń
C. element kotwiczący
D. rękawiczki ochronne
Rękawiczki ochronne są kluczowym elementem środków ochrony indywidualnej podczas pracy z urządzeniami elektronicznymi, takimi jak drukarki laserowe. Ich stosowanie nie tylko zapewnia ochronę przed kontaktem z zabrudzeniami, takimi jak pył tonera, ale również minimalizuje ryzyko uszkodzeń delikatnych komponentów sprzętu. Podczas konserwacji, serwisant powinien nosić rękawiczki, aby uniknąć zanieczyszczeń, które mogą wpływać na jakość druku oraz funkcjonalność urządzenia. Oprócz tego, rękawiczki chronią skórę przed potencjalnymi substancjami chemicznymi, które mogą być obecne w materiałach eksploatacyjnych lub czyszczących. Przykłady dobrych praktyk w tej dziedzinie to korzystanie z rękawiczek lateksowych lub nitrylowych, które są odporne na substancje chemiczne oraz oferują dobrą chwytność, co jest istotne podczas manipulacji drobnymi częściami. Pamiętaj, że każdy serwisant powinien przestrzegać procedur BHP oraz standardów ISO dotyczących bezpieczeństwa w miejscu pracy, co obejmuje odpowiednie stosowanie środków ochrony osobistej.

Pytanie 15

Aby serwer z systemem Linux mógł udostępniać pliki i drukarki komputerom klienckim z systemem Windows, należy zainstalować na nim

A. usługę Samba.
B. serwer Apache.
C. protokół SSH.
D. usługę IIS.
Poprawna odpowiedź to Samba, bo jest to dedykowana usługa w systemach Linux/Unix do udostępniania zasobów w sieciach z komputerami z systemem Windows. Samba implementuje protokoły SMB/CIFS, czyli dokładnie ten sam mechanizm, z którego korzysta Windows przy udostępnianiu folderów sieciowych i drukarek. Dzięki temu stacja z Linuksem może „udawać” serwer plików Windows, do którego użytkownik podłącza się normalnie przez Eksplorator Windows (np. wpisując \\serwer\udział). Z mojego doświadczenia, w małych firmach i szkołach Samba bardzo często pracuje jako główny serwer plików, domeny lub prosty kontroler logowania, bo jest darmowa, stabilna i dobrze udokumentowana. W praktyce administrator konfiguruje plik smb.conf, definiuje udziały (tzw. shares), ustawia uprawnienia, mapowanie użytkowników i ewentualnie integrację z usługą katalogową (np. Active Directory). Użytkownicy Windows widzą wtedy zasoby linuksowego serwera tak, jakby to był zwykły serwer Windows – mogą podłączać dyski sieciowe, zapisywać dokumenty, korzystać z drukarek sieciowych, stosować uprawnienia oparte o konta domenowe. Dobrą praktyką jest łączenie Samby z systemem uprawnień Linuksa (UID, GID, prawa dostępu) oraz stosowanie szyfrowania połączeń, silnych haseł i aktualnych wersji protokołu SMB (np. wyłączenie starych, dziurawych wersji SMB1). W wielu środowiskach stosuje się też rozdzielenie ról: Samba jako serwer plików i wydruku, a inne serwisy (WWW, SSH) na osobnych maszynach lub kontenerach, co zwiększa bezpieczeństwo i ułatwia administrację. Moim zdaniem znajomość podstaw konfiguracji Samby to absolutny must-have dla każdego, kto myśli poważnie o administracji mieszanymi sieciami Windows/Linux.

Pytanie 16

Aby podłączyć 6 komputerów do sieci przy użyciu światłowodu, potrzebny jest kabel z co najmniej taką ilością włókien:

A. 6
B. 3
C. 12
D. 24
Aby podłączyć 6 komputerów za pomocą światłowodu, konieczne jest posiadanie kabla z co najmniej 12 włóknami. Każdy komputer wymaga jednego włókna na transmisję i jednego na odbiór, co daje łącznie 12 włókien, by umożliwić pełne duplexowe połączenie. W praktyce, w przypadku większych instalacji, często stosuje się więcej włókien, aby zapewnić przyszłą rozbudowę lub dodatkowe połączenia. Standardy branżowe, takie jak IEEE 802.3, sugerują, aby w projektach sieciowych uwzględniać zapasowe włókna na wypadek awarii lub konieczności rozbudowy. Użycie włókien wielomodowych lub jednomodowych również ma znaczenie, w zależności od odległości, jaką sygnał musi pokonać. Na przykład, w przypadku dużych odległości, zastosowanie włókien jednomodowych jest bardziej opłacalne z uwagi na mniejsze straty sygnału. Takie praktyki zwiększają niezawodność i elastyczność sieci, co jest kluczowe w nowoczesnych środowiskach pracy.

Pytanie 17

Na schemacie płyty głównej, gdzie można zamontować moduły pamięci RAM, gniazdo oznaczone cyfrą to

Ilustracja do pytania
A. 2
B. 1
C. 3
D. 4
Gniazdo oznaczone cyfrą 1 na schemacie to miejsce przeznaczone do instalacji modułów pamięci RAM. Moduły RAM są kluczowe dla działania komputera, ponieważ umożliwiają przechowywanie i szybki dostęp do danych programów i systemu operacyjnego podczas ich pracy. Na płytach głównych gniazda RAM są zazwyczaj zlokalizowane w pobliżu procesora, co minimalizuje opóźnienia związane z przesyłaniem danych. Standardowym typem pamięci RAM dla komputerów osobistych jest DDR (Double Data Rate), a najnowsze wersje, takie jak DDR4 lub DDR5, oferują znacznie wyższą przepustowość i niższe zapotrzebowanie na energię niż starsze wersje. Instalując pamięć RAM, należy upewnić się, że moduły są poprawnie osadzone w gniazdach i że są kompatybilne z płytą główną oraz procesorem. Dobra praktyka to montowanie modułów w parach, co umożliwia korzystanie z trybu dual-channel, zwiększającego wydajność przez równoczesne korzystanie z dwóch szyn danych. Przy planowaniu rozbudowy pamięci RAM warto także zwrócić uwagę na maksymalną obsługiwaną pojemność RAM przez płytę główną oraz jej częstotliwość pracy, aby zapewnić optymalną wydajność.

Pytanie 18

Jakie rozwiązanie techniczne pozwala na transmisję danych z szybkością 1 Gb/s z zastosowaniem światłowodu?

A. 1000Base-LX
B. 100Base-FX
C. 10GBase-T
D. 10Base5
Wybór odpowiedzi 10GBase-T jest błędny, ponieważ ten standard Ethernet obsługuje prędkość 10 Gb/s, co znacznie przekracza wymaganą prędkość 1 Gb/s. Chociaż 10GBase-T wykorzystuje miedź do transmisji danych, jego zastosowanie jest ograniczone do mniejszych odległości, maksymalnie do 100 metrów, co czyni go mniej optymalnym wyborem dla dłuższych połączeń. Ponadto, odpowiedź 10Base5 to przestarzały standard, który oferuje zaledwie 10 Mb/s, co zdecydowanie nie spełnia wymagań dotyczących przesyłu danych z prędkością 1 Gb/s. Jego popularność spadła na rzecz nowocześniejszych technologii, które są bardziej efektywne i dostosowane do obecnych potrzeb sieciowych. Odpowiedź 100Base-FX również jest niepoprawna, ponieważ ten standard, podobnie jak 10Base5, oferuje tylko 100 Mb/s, co również jest niewystarczające w kontekście wymaganej prędkości 1 Gb/s. Stosowanie tych starszych standardów może prowadzić do poważnych problemów z wydajnością sieci, w tym do wąskich gardeł i opóźnień w przesyle danych. Typowym błędem myślowym jest zatem poleganie na starych standardach lub mylenie prędkości nominalnych, co skutkuje wyborem rozwiązań, które nie są przystosowane do współczesnych aplikacji i wymagań. Warto zatem zawsze zwracać uwagę na odpowiednie standardy i ich zastosowania, aby zapewnić optymalną wydajność i niezawodność sieci.

Pytanie 19

Na ilustracji przedstawiono część procesu komunikacji z serwerem, która została przechwycona przez aplikację Wireshark. Jaki to serwer?

Discover - Transaction ID 0x6a16b7a5
Offer    - Transaction ID 0x6a16b7a5
Request  - Transaction ID 0x6a16b7a5
ACK      - Transaction ID 0x6a16b7a5
A. DNS
B. DHCP
C. WWW
D. FTP
FTP jest protokołem sieciowym stosowanym do przesyłania plików pomiędzy klientem a serwerem. W odróżnieniu do DHCP FTP nie zajmuje się przydziałem adresów IP lecz umożliwia transfer danych w sieci. Charakteryzuje się operacjami takimi jak przesyłanie pobieranie i zarządzanie plikami na serwerze co czyni go nieodpowiednim do roli przypisywania adresów IP. Protokół DNS zajmuje się tłumaczeniem nazw domenowych na adresy IP co jest istotne dla wczytywania stron internetowych i usług sieciowych. Pomimo że DNS jest kluczową częścią działania internetu nie ma udziału w bezpośrednim przypisywaniu adresów IP urządzeniom w sieci co jest głównym zadaniem DHCP. Protokoły WWW takie jak HTTP czy HTTPS są używane do przesyłania stron internetowych i danych pomiędzy serwerem a przeglądarką użytkownika. WWW koncentruje się na dostarczaniu zawartości internetowej zamiast na zarządzaniu adresacją IP w sieci. Błędne przypisanie protokołów takich jak FTP DNS czy WWW do funkcji DHCP wynika z niezrozumienia ich podstawowych funkcji i różnic między nimi. Każdy z tych protokołów odgrywa unikalną rolę w sieci ale tylko DHCP jest odpowiedzialny za dynamiczne przydzielanie adresów IP co czyni go kluczowym składnikiem infrastruktury sieciowej. Zrozumienie różnic w zastosowaniach tych protokołów pomaga w zapewnieniu prawidłowej konfiguracji i optymalnego działania sieci komputerowej.

Pytanie 20

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. konfigurowaniem adresu karty sieciowej.
B. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
C. dodaniem drugiego dysku twardego.
D. wybraniem pliku z obrazem dysku.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 21

Pamięć, która działa jako pośrednik pomiędzy pamięcią operacyjną a procesorem o dużej prędkości, to

A. SSD
B. ROM
C. FDD
D. CACHE
Pamięć CACHE jest kluczowym elementem architektury komputerowej, służącym jako bufor pomiędzy procesorem a wolną pamięcią operacyjną (RAM). Działa na zasadzie przechowywania najczęściej używanych danych i instrukcji, co pozwala na znaczne przyspieszenie operacji obliczeniowych. Procesor, mając dostęp do pamięci CACHE, może znacznie szybciej wykonać operacje niż w przypadku konieczności odwoływania się do pamięci RAM. Przykładowo, w przypadku gier komputerowych, które wymagają szybkiego przetwarzania dużych ilości danych, pamięć CACHE umożliwia płynniejsze działanie i szybsze ładowanie zasobów. Dobrą praktyką w projektowaniu systemów komputerowych jest optymalizacja wykorzystania pamięci CACHE, co może obejmować techniki takie jak lokalność odniesień, gdzie dane są grupowane w sposób, który zwiększa prawdopodobieństwo ich ponownego wykorzystania. Warto również dodać, że pamięć CACHE występuje w różnych poziomach (L1, L2, L3), z których L1 jest najszybsza i najbliższa procesorowi, co dodatkowo podkreśla znaczenie tego komponentu w architekturze komputerowej.

Pytanie 22

Norma opisująca standard transmisji Gigabit Ethernet to

A. IEEE 802.3ab
B. IEEE 802.3u
C. IEEE 802.3i
D. IEEE 802.3x
Odpowiedzi IEEE 802.3i, IEEE 802.3u oraz IEEE 802.3x nie są odpowiednie w kontekście pytania o standard Gigabit Ethernet. Standard IEEE 802.3i definiuje 10BASE-T, co oznacza Ethernet o prędkości 10 Mbit/s, działający na skrętkach miedzianych, ale zdecydowanie nie spełnia wymagań dotyczących Gigabit Ethernet. Z kolei IEEE 802.3u dotyczy standardu Fast Ethernet, który operuje z prędkością 100 Mbit/s. Oznacza to, że obydwa te standardy są znacznie wolniejsze od Gigabit Ethernet i nie mogą być stosowane w aplikacjach wymagających szybszej transmisji danych. Z kolei standard IEEE 802.3x odnosi się do funkcji kontroli przepływu w Ethernet, co jest istotne do zarządzania przeciążeniem w sieciach, ale nie definiuje prędkości transmisji, jak w przypadku Gigabit Ethernet. Zrozumienie tych standardów jest istotne dla projektowania i zarządzania sieciami, jednak mylenie ich z IEEE 802.3ab prowadzi do błędnych wniosków o możliwościach i zastosowaniach. Kluczowe jest, aby zawsze odnosić się do specyfikacji danego standardu, aby prawidłowo określić jego zastosowanie i wydajność w kontekście infrastruktury sieciowej.

Pytanie 23

Jaki jest adres rozgłoszeniowy (broadcast) dla hosta z adresem IP 192.168.35.202 oraz 26-bitową maską?

A. 192.168.35.192
B. 192.168.35.0
C. 192.168.35.63
D. 192.168.35.255
Adres rozgłoszeniowy (broadcast) w sieci IP to adres, który pozwala na wysyłanie pakietów do wszystkich hostów w danej podsieci. W przypadku adresu IP 192.168.35.202 z maską 26-bitową (255.255.255.192), pierwszym krokiem jest określenie, jakie bity adresu IP są przeznaczone na identyfikację sieci, a jakie na identyfikację hostów. Maska 26-bitowa oznacza, że pierwsze 26 bitów adresu IP to bity sieci, co pozostawia 6 bitów na identyfikację hostów. W przypadku tej maski, adres sieci to 192.168.35.192, a zakres adresów hostów wynosi od 192.168.35.193 do 192.168.35.254. Adres rozgłoszeniowy jest najwyższym adresem w tej podsieci i wynosi 192.168.35.255, co oznacza, że wysyłając dane na ten adres, będą one odbierane przez wszystkie urządzenia w tej sieci. Taki mechanizm jest kluczowy w konfiguracji sieci lokalnych, ponieważ pozwala na efektywne zarządzanie komunikacją grupową. Przykładowo, w sytuacjach, gdy serwer potrzebuje powiadomić wszystkie hosty o jakiejś zmianie, użycie adresu rozgłoszeniowego jest niezwykle przydatne.

Pytanie 24

Jaki program został wykorzystany w systemie Linux do szybkiego skanowania sieci?

Ilustracja do pytania
A. ttcp
B. iptraf
C. nmap
D. webmin
nmap to naprawdę fajne narzędzie do skanowania sieci, które działa w systemie Linux. Wykrywa hosty i usługi, które są na nich uruchomione. Jest całkiem wszechstronne i daje sporo możliwości, zwłaszcza jeśli chodzi o rozpoznawanie topologii sieci. Administracja i specjaliści od bezpieczeństwa często po nie sięgają. nmap ma różne funkcje, jak chociażby wykrywanie systemu operacyjnego czy wersji aplikacji, co jest mega ważne, gdy robimy audyty bezpieczeństwa. Możliwość skanowania portów sprawia, że możemy łatwo zidentyfikować dostępne usługi, a to jest kluczowe, żeby chronić nasze systemy przed nieautoryzowanym dostępem. W praktyce używa się go do szukania potencjalnych luk w zabezpieczeniach i do monitorowania, co się zmienia w konfiguracji sieci. Dobrze, że jest zgodny z różnymi standardami branżowymi, bo to czyni go niezastąpionym w kontekście zgodności z normami bezpieczeństwa. nmap ma również tryb cichy, więc można go używać bez zbytniego wzbudzania podejrzeń w trakcie testów penetracyjnych. Tak naprawdę, dla każdego, kto zajmuje się bezpieczeństwem IT i zarządzaniem siecią, nmap to podstawa.

Pytanie 25

Który z poniższych mechanizmów zagwarantuje najwyższy poziom ochrony w sieciach bezprzewodowych opartych na standardzie 802.11n?

A. WPA
B. WEP
C. WPA2
D. Autoryzacja
WPA2 (Wi-Fi Protected Access 2) jest bardziej zaawansowanym protokołem bezpieczeństwa, który opiera się na standardzie IEEE 802.11i. Oferuje silniejsze szyfrowanie danych dzięki zastosowaniu algorytmu AES (Advanced Encryption Standard), co sprawia, że jest znacznie bardziej odporny na ataki niż wcześniejsze protokoły, jak WEP czy WPA. WEP (Wired Equivalent Privacy) jest przestarzałym standardem, który zapewnia minimalny poziom ochrony i jest podatny na różne ataki, takie jak ataki na klucz. WPA, będący poprawioną wersją WEP, również nie oferuje wystarczającego poziomu zabezpieczeń, ponieważ opiera się na TKIP (Temporal Key Integrity Protocol), który, choć lepszy od WEP, nadal zawiera luki. Zastosowanie WPA2 jest kluczowe w środowiskach, gdzie bezpieczeństwo danych jest priorytetem, takich jak sieci korporacyjne czy publiczne punkty dostępu. W praktyce, organizacje często wykorzystują WPA2-Enterprise, który dodatkowo integruje uwierzytelnianie oparte na serwerach RADIUS, co zwiększa bezpieczeństwo poprzez wprowadzenie indywidualnych poświadczeń dla użytkowników. Wybierając WPA2, można mieć pewność, że dane przesyłane w sieci bezprzewodowej są odpowiednio chronione, co jest zgodne z najlepszymi praktykami branżowymi w zakresie bezpieczeństwa sieci.

Pytanie 26

Router przypisany do interfejsu LAN dysponuje adresem IP 192.168.50.1. Został on skonfigurowany w taki sposób, aby przydzielać komputerom wszystkie dostępne adresy IP w sieci 192.168.50.0 z maską 255.255.255.0. Jaką maksymalną liczbę komputerów można podłączyć w tej sieci?

A. 255
B. 254
C. 256
D. 253
Wybierając odpowiedź 256, można mylnie sądzić, że jest to maksymalna liczba adresów IP dostępnych w sieci. Rzeczywistość jest jednak inna; w przypadku sieci z maską 255.255.255.0 co prawda mamy do czynienia z 256 adresami, ale nie wszystkie z nich mogą być przypisane do urządzeń. Pierwszy adres w puli (192.168.50.0) jest adresem identyfikującym sieć i nie może być używany jako adres dla hosta, a ostatni adres (192.168.50.255) to adres rozgłoszeniowy, który również nie może być przypisany do konkretnego urządzenia. Ta zasada dotyczy wszystkich sieci, w których mamy do czynienia z maską podsieci, gdzie dwa adresy są zawsze zarezerwowane. W odpowiedzi 255 również występuje podobne nieporozumienie; nie uwzględnia ona drugiego zarezerwowanego adresu. Natomiast odpowiedzi 254 i 253 są o tyle bliskie, że 254 odnosi się do liczby adresów, które mogą być przypisane, ale nie bierze pod uwagę adresu routera, co w praktyce ogranicza liczbę dostępnych adresów do 253. Kluczowe jest zrozumienie tych zasad podczas projektowania sieci, aby nie tylko prawidłowo przydzielać adresy IP, ale także zapewnić, że każdy z hostów ma unikalny adres w sieci, co jest niezbędne do jej prawidłowego funkcjonowania.

Pytanie 27

W topologii fizycznej w kształcie gwiazdy, wszystkie urządzenia działające w sieci są

A. połączone ze sobą segmentami kabla tworząc zamknięty pierścień
B. podłączone do jednej magistrali
C. podłączone do węzła sieci
D. połączone z dwoma sąsiadującymi komputerami
Odpowiedzi sugerujące, że urządzenia w topologii gwiazdy są podłączone do jednej magistrali, do dwóch sąsiadujących komputerów lub tworzą zamknięty pierścień, nie odpowiadają rzeczywistości tej architektury sieciowej. W przypadku pierwszej koncepcji, topologia magistrali implikuje, że wszystkie urządzenia są połączone z jedną wspólną linią transmisyjną. Taki sposób połączenia stwarza ryzyko, że awaria magistrali spowoduje zatrzymanie komunikacji wszystkich urządzeń, co jest przeciwieństwem zalet topologii gwiazdy. Natomiast połączenia między dwoma sąsiadującymi komputerami sugerują topologię pierścieniową, w której każde urządzenie łączy się z dwoma innymi, tworząc zamknięty cykl. Taki model jest mniej elastyczny, ponieważ awaria jednego z urządzeń może przerwać cały obieg komunikacyjny. Kolejna koncepcja – tworzenie zamkniętego pierścienia – również nie jest charakterystyczna dla topologii gwiazdy. W rzeczywistości, topologia ta charakteryzuje się centralnym punktem połączeń, który zarządza ruchem danych, a nie zamkniętymi obiegami. Powszechne błędy w myśleniu o tych topologiach wynikają z nieprecyzyjnego rozumienia ich definicji i funkcji w praktycznych zastosowaniach sieciowych. Dlatego ważne jest, aby zrozumieć, że każda topologia ma swoje specyficzne właściwości i zastosowania, a uproszczone lub błędne porównania mogą prowadzić do poważnych problemów w projektowaniu sieci.

Pytanie 28

Czytnik w napędzie optycznym, który jest zanieczyszczony, należy oczyścić

A. spirytusem
B. izopropanolem
C. rozpuszczalnikiem ftalowym
D. benzyną ekstrakcyjną
Izopropanol to naprawdę jeden z najlepszych wyborów do czyszczenia soczewek i różnych powierzchni optycznych. Jego działanie jest super efektywne, bo fajnie rozpuszcza brud, a przy tym nie szkodzi delikatnym elementom w sprzęcie. Co ważne, bardzo szybko paruje, więc po czyszczeniu nie ma problemu z zostawianiem jakichś śladów. W praktyce można używać wacików nasączonych izopropanolem, co sprawia, że łatwo dotrzeć do tych trudniej dostępnych miejsc. Zresztą, standardy takie jak ISO 9001 mówią, że izopropanol to dobry wybór do konserwacji elektronicznego sprzętu, więc warto się tego trzymać. Pamiętaj, żeby unikać silnych rozpuszczalników, bo mogą one nieźle namieszać i zniszczyć materiały, z jakich zbudowany jest sprzęt.

Pytanie 29

Menedżer usług IIS (Internet Information Services) w systemie Windows stanowi graficzny interfejs do konfiguracji serwera

A. DNS
B. WWW
C. terminali
D. wydruku
Wybór odpowiedzi związanych z terminalami, wydrukiem i DNS wskazuje na pewne nieporozumienia dotyczące funkcji i zastosowań różnych technologii sieciowych. Terminale są związane z interakcją użytkownika z systemem operacyjnym, głównie w kontekście administracji serwerami i komputerami, a nie bezpośrednio z zarządzaniem usługami sieciowymi. W przypadku wydruku, zarządzanie drukarkami i zleceniami wydruku odbywa się za pomocą innych narzędzi, takich jak Menedżer drukowania, a nie IIS. Z kolei DNS (Domain Name System) jest systemem pozwalającym na tłumaczenie nazw domen na adresy IP, co jest zupełnie innym aspektem zarządzania sieciami. Użytkownicy często mylą te pojęcia z powodu powiązań między nimi w kontekście dostępności usług w Internecie, jednak każde z tych narzędzi i technologii ma swoje specyficzne zadania i zastosowania. Prawidłowe zarządzanie różnymi aspektami infrastruktury IT wymaga zrozumienia ich ról; mylenie ich funkcji może prowadzić do nieefektywnej konfiguracji systemów oraz problemów z wydajnością i bezpieczeństwem. Właściwe zrozumienie celu i funkcji IIS jako serwera WWW jest kluczowe dla skutecznego zarządzania aplikacjami internetowymi oraz zapewnienia ich dostępności dla użytkowników.

Pytanie 30

Na rysunku znajduje się graficzny symbol

Ilustracja do pytania
A. rutera
B. przełącznika
C. mostu
D. punktu dostępowego
Symbol przełącznika w sieciach komputerowych jest powszechnie rozpoznawany jako prostokąt z kilkoma strzałkami biegnącymi równolegle. Przełącznik, zwany także switch, jest kluczowym komponentem w architekturze sieci komputerowej, który umożliwia komunikację między różnymi urządzeniami w tej samej sieci lokalnej. Działa na drugim poziomie modelu OSI, czyli warstwie łącza danych, co oznacza, że przełącza dane na podstawie adresów MAC urządzeń. Przełączniki przyczyniają się do optymalizacji przepływu danych, zmniejszając kolizje w sieci i umożliwiając jednoczesną komunikację wielu par urządzeń. Są szczególnie przydatne w sieciach firmowych, gdzie wymagane jest niezawodne i szybkie przesyłanie danych. Przełączniki zarządzalne oferują dodatkowe funkcje, takie jak monitoring ruchu, konfiguracja VLAN-ów oraz zarządzanie jakością usług QoS. W branży IT przełączniki są elementarną częścią infrastruktury sieciowej, a ich poprawne rozpoznawanie i konfiguracja są kluczowe dla specjalistów zajmujących się administrowaniem sieciami.

Pytanie 31

W przypadku adresacji IPv6, zastosowanie podwójnego dwukropka służy do

A. wielokrotnego zastąpienia różnych bloków jedynek
B. jednorazowego zamienienia jednego lub kolejno położonych bloków wyłącznie z zer
C. wielokrotnego zastąpienia różnych bloków zer oddzielonych blokiem jedynek
D. jednorazowego zamienienia jednego bloku jedynek
Wiele osób może mylnie interpretować zastosowanie podwójnego dwukropka w adresacji IPv6, co prowadzi do nieporozumień. Istotnym błędem jest przekonanie, że podwójny dwukropek może zastępować bloki jedynek. W rzeczywistości, podwójny dwukropek jest zarezerwowany wyłącznie dla bloków zerowych, co oznacza, że ​​wszystkie propozycje dotyczące zastępowania bloków jedynek są nieprawidłowe. Warto zauważyć, że w typowym adresie IPv6, po zredukowaniu zer, pozostałe bloki mogą zawierać wartości różne od zera, a ich zapis pozostaje niezmieniony. Prowadzi to do nieporozumień związanych z interpretacją adresów, gdzie użytkownicy mogą zdezorientować się, myśląc, że podwójny dwukropek ma szersze zastosowanie. Należy również pamiętać, że podwójny dwukropek może być użyty tylko raz w adresie, co jest istotnym ograniczeniem, jednakże niektóre odpowiedzi sugerują, że można go używać wielokrotnie, co jest niezgodne z ustaleniami standardów RFC. Takie błędne rozumienie może prowadzić do problemów w praktycznym zastosowaniu adresacji IPv6, a także w dokumentacji technicznej, która powinna być zgodna z obowiązującymi normami branżowymi.

Pytanie 32

Jakie polecenie w systemie Windows powinno być użyte do sprawdzania aktywnych połączeń karty sieciowej w komputerze?

A. Ping
B. Netstat
C. Telnet
D. Ipconfig
Polecenie Netstat jest kluczowym narzędziem w systemie Windows do monitorowania i diagnozowania aktywnych połączeń sieciowych. Umożliwia ono wyświetlenie informacji na temat wszystkich aktywnych połączeń TCP/IP oraz UDP, a także statystyk dotyczących interfejsów sieciowych. Przykładowo, używając polecenia 'netstat -an', użytkownik może szybko zobaczyć wszystkie aktywne połączenia oraz ich statusy, co jest niezwykle przydatne w zarządzaniu bezpieczeństwem sieci. Dla administratorów systemów i specjalistów IT, monitorowanie takich połączeń pozwala na identyfikację potencjalnych zagrożeń, jak nieautoryzowane połączenia, czy też analizy wydajności aplikacji sieciowych. Dobrą praktyką jest regularne korzystanie z tego narzędzia w celu weryfikacji stanu sieci oraz wprowadzenia ewentualnych działań naprawczych. Ponadto, zrozumienie wyników generowanych przez polecenie Netstat jest fundamentalne w kontekście zarządzania ruchem sieciowym oraz optymalizacji jego wydajności.

Pytanie 33

Jak skonfigurować dziennik w systemie Windows Server, aby rejestrować zarówno udane, jak i nieudane próby logowania użytkowników oraz działania na zasobach dyskowych?

A. zabezpieczeń.
B. ustawień.
C. aplikacji i usług.
D. systemu.
Odpowiedzi "systemu", "ustawień" oraz "aplikacji i usług" są nieprawidłowe, ponieważ nie odpowiadają wymaganiom dotyczącym rejestrowania prób logowania i operacji na zasobach dyskowych. Dziennik systemu rejestruje zdarzenia związane z samym systemem operacyjnym, takie jak błędy systemowe czy problemy z urządzeniami, ale nie zawiera szczegółowych informacji dotyczących zabezpieczeń lub aktywności użytkowników. Dziennik ustawień natomiast nie istnieje jako osobna kategoria w Windows Server i nie jest używany do monitorowania zdarzeń związanych z bezpieczeństwem. Dziennik aplikacji i usług rejestruje zdarzenia specyficzne dla aplikacji i usług, które mogą być pomocne, ale nie dostarcza informacji na temat prób logowania, które są kluczowe dla bezpieczeństwa systemu. Typowym błędem myślowym jest mylenie różnych typów dzienników i ich funkcji, co prowadzi do niepoprawnych wniosków o odpowiednich narzędziach do monitorowania bezpieczeństwa. W kontekście bezpieczeństwa informacji, kluczowe jest zrozumienie, które logi są odpowiednie do analizy zdarzeń związanych z dostępem i jak wykorzystać te informacje do ochrony zasobów organizacji.

Pytanie 34

Który z poniższych protokołów nie jest wykorzystywany do konfiguracji wirtualnej sieci prywatnej?

A. PPTP
B. L2TP
C. SNMP
D. SSTP
L2TP, PPTP i SSTP to protokoły, które są fundamentalne w kontekście konfiguracji wirtualnych sieci prywatnych. L2TP jest protokołem tunelowym, który często jest używany w połączeniu z IPsec, co zapewnia wysoki poziom bezpieczeństwa. W praktyce oznacza to, że L2TP samodzielnie nie zapewnia szyfrowania, ale w połączeniu z IPsec oferuje kompleksowe rozwiązanie dla bezpiecznego przesyłania danych. PPTP, pomimo krytyki za lukę w bezpieczeństwie, jest często stosowany ze względu na łatwość konfiguracji i szybkość implementacji, co sprawia, że jest popularny w mniej wymagających środowiskach. SSTP, z kolei, wykorzystuje protokół HTTPS do tunelowania, co czyni go bardziej odpornym na blokady stosowane przez niektóre sieci. W kontekście SNMP, wielu użytkowników myli jego zastosowanie, sądząc, że może on pełnić funkcję zabezpieczania połączeń VPN. To nieporozumienie wynika z faktu, że SNMP jest protokołem zarządzania, a nie tunelowania czy szyfrowania. Zrozumienie, że SNMP służy do monitorowania i zarządzania urządzeniami sieciowymi, a nie do zabezpieczania komunikacji, jest kluczowe dla efektywnego zastosowania technologii sieciowych. Często myśli się, że każde narzędzie używane w kontekście sieci powinno mieć zdolności zabezpieczające, co prowadzi do błędnych wniosków i wyborów technologicznych.

Pytanie 35

Aby komputer osobisty współpracował z urządzeniami korzystającymi z przedstawionych na rysunku złącz, należy wyposażyć go w interfejs

Ilustracja do pytania
A. DVI-A
B. Fire Wire
C. Display Port
D. HDMI
Wybór złącza HDMI często wydaje się intuicyjny, bo to bardzo popularny standard w telewizorach, rzutnikach czy konsolach, jednak jego wtyczka ma zupełnie inny kształt niż prezentowany na zdjęciu — jest bardziej płaska i zaokrąglona, a nie z charakterystycznym ścięciem na jednym rogu. HDMI świetnie sprawdza się w sprzęcie domowej rozrywki, ale profesjonaliści często preferują Display Port właśnie ze względu na wyższą przepustowość i lepsze wsparcie dla monitorów komputerowych. DVI-A to z kolei starszy typ złącza, który przesyła tylko sygnał analogowy, co w dzisiejszych czasach jest już mocno przestarzałe. DVI-A jest dużo większy i ma charakterystyczne piny, które są zupełnie inne niż w Display Port. Czasami spotyka się go jeszcze w starszych monitorach lub kartach graficznych, ale obecnie nie jest już standardem. FireWire (IEEE 1394) to zupełnie inna historia — to interfejs używany dawniej do podłączania urządzeń takich jak kamery cyfrowe czy szybkie dyski zewnętrzne. Absolutnie nie nadaje się do przesyłania obrazu do monitora. Myślę, że czasem wybór tych błędnych odpowiedzi wynika z mylenia popularnych standardów do przesyłania obrazu i dźwięku, braku znajomości kształtów wtyczek albo po prostu przyzwyczajenia do najczęściej spotykanych kabli w domu. W praktyce jednak każdy z tych interfejsów ma bardzo konkretne zastosowania i warto rozpoznawać je po samym wyglądzie wtyczki. Z punktu widzenia nowoczesnych komputerów i monitorów, Display Port daje najwięcej możliwości i to właśnie on jest przedstawiony na załączonym obrazku. Warto poćwiczyć rozpoznawanie tych złącz, bo to naprawdę przydatna wiedza nie tylko dla informatyków, ale i każdego, kto składa albo modernizuje własny komputer.

Pytanie 36

Na ilustracji karta rozszerzeń jest oznaczona numerem

Ilustracja do pytania
A. 1
B. 4
C. 6
D. 7
Karta rozszerzeń jest oznaczona numerem 4 na rysunku co jest poprawne ponieważ karta rozszerzeń to komponent wewnętrzny komputera który pozwala na dodanie nowych funkcji lub zwiększenie możliwości systemu Najczęściej spotykane karty rozszerzeń to karty graficzne dźwiękowe sieciowe czy kontrolery dysków twardych W montażu kart rozszerzeń kluczowe jest zapewnienie zgodności z płytą główną oraz poprawne ich osadzenie w slotach PCI lub PCIe To umożliwia pełne wykorzystanie potencjału sprzętowego i zapewnia stabilność działania systemu W kontekście zastosowania karty rozszerzeń są nieodzowne w sytuacjach gdzie wymagana jest większa moc obliczeniowa na przykład w zaawansowanych graficznie aplikacjach czy obróbce wideo Zrozumienie funkcji i instalacji kart rozszerzeń jest istotne dla profesjonalistów IT co pozwala na efektywne zarządzanie i rozbudowę infrastruktury komputerowej Zastosowanie dobrych praktyk takich jak stosowanie śrub mocujących oraz zarządzanie kablami zwiększa zarówno wydajność jak i bezpieczeństwo systemu

Pytanie 37

Aby zmagazynować 10 GB danych na pojedynczej płycie DVD, jaki typ nośnika powinien być wykorzystany?

A. DVD-18
B. DVD-5
C. DVD-10
D. DVD-9
Wybór nośnika DVD-5, DVD-9 lub DVD-10 do zapisania 10 GB danych jest błędny, ponieważ każdy z tych formatów ma ograniczoną pojemność. DVD-5, na przykład, pomieści jedynie 4,7 GB danych, co znacznie odbiega od wymaganej ilości. Z kolei DVD-9 może przechować do 8,5 GB, co wciąż nie wystarcza na zapisanie 10 GB. DVD-10, będąc podwójną jednostronną płytą, również ma ograniczenie do około 9,4 GB, co czyni go niewystarczającym do zapisania większej ilości danych. Przy wyborze nośnika istotne jest zrozumienie technologii magazynowania i zastosowań, jakie się z nimi wiążą. Często popełnianym błędem jest zakładanie, że inne standardy DVD mogą pomieścić większe ilości danych tylko poprzez wykorzystanie dodatkowych warstw lub stron. W rzeczywistości, tylko nośniki takie jak DVD-18, które wykorzystują obie strony oraz podwójne warstwy, są w stanie skutecznie zaspokoić większe potrzeby magazynowe. Znajomość różnic pomiędzy tymi typami nośników pozwala uniknąć frustracji związanej z niewystarczającą przestrzenią na zapis danych. W związku z tym, wybór odpowiedniego nośnika powinien opierać się na analizie konkretnych wymagań dotyczących przechowywanych materiałów.

Pytanie 38

Główną metodą ochrony sieci komputerowej przed zewnętrznymi atakami jest wykorzystanie

A. blokady portu 80
B. programu antywirusowego
C. serwera Proxy
D. zapory sieciowej
Choć serwery proxy, blokady portu 80 i programy antywirusowe mogą pełnić ważne role w ekosystemie zabezpieczeń, nie są one podstawowymi metodami ochrony sieci przed atakami z zewnątrz. Serwer proxy działa jako pośrednik w komunikacji między użytkownikami a Internetem, co może poprawić prywatność i kontrolę dostępu, jednak sam w sobie nie zabezpiecza sieci. W przypadku ataków z zewnątrz, serwer proxy nie może skutecznie zablokować nieautoryzowanego dostępu, co czyni go niewystarczającym rozwiązaniem w kontekście zagrożeń zewnętrznych. Blokada portu 80, która jest standardowym portem dla protokołu HTTP, to technika, która może ograniczyć dostęp do usług webowych, ale nie zapewnia kompleksowej ochrony. Tego rodzaju działanie może prowadzić do fałszywego poczucia bezpieczeństwa, gdyż wiele ataków nie wykorzystuje portu 80, a dodatkowo blokowanie portów może zakłócać legalny ruch sieciowy. Programy antywirusowe, z kolei, koncentrują się na ochronie przed złośliwym oprogramowaniem, ale nie stanowią barier w aspekcie ochrony przed atakami hakerskimi, które mogą wykorzystywać luki w zabezpieczeniach sieci. Współczesne scenariusze zagrożeń wymagają zastosowania wielowarstwowego podejścia do zabezpieczeń, w którym zapory sieciowe zajmują centralne miejsce w ochronie przed atakami z zewnątrz, podczas gdy inne metody, takie jak programy antywirusowe i serwery proxy, mogą pełnić funkcje uzupełniające.

Pytanie 39

Aby bezpiecznie połączyć się z firmowym serwerem przez Internet i mieć dostęp do zasobów firmy, należy wykorzystać odpowiednie oprogramowanie klienckie

A. VLAN (Virtual Local Area Network)
B. WLAN (Wireless Local Area Network)
C. NAP (Network Access Protection)
D. VPN (Virtual Private Network)
NAP, czyli Network Access Protection, jest technologią, której głównym celem jest ochrona sieci poprzez zapewnienie, że tylko urządzenia spełniające określone kryteria bezpieczeństwa mogą uzyskać dostęp do zasobów sieciowych. Jednak sama technologia NAP nie zapewnia bezpiecznego połączenia, a raczej kontroluje dostęp do sieci na podstawie polityk bezpieczeństwa. W kontekście zdalnego dostępu do zasobów firmowych przez Internet, NAP nie jest wystarczającym rozwiązaniem, ponieważ nie szyfruje danych ani nie tworzy bezpiecznego tunelu komunikacyjnego, co jest kluczowe w przypadku pracy zdalnej. VLAN, czyli Wirtualna Sieć Lokalna, jest technologią, która segreguje ruch w sieci lokalnej, ale również nie ma zastosowania w kontekście bezpiecznego łączenia z siecią firmową przez Internet. VLAN nie oferuje szyfrowania ani nie zabezpiecza połączeń między użytkownikami a serwerami. WLAN, czyli Bezprzewodowa Sieć Lokalna, odnosi się do technologii sieci bezprzewodowych, a jej zastosowanie w pracy zdalnej również nie gwarantuje bezpieczeństwa przesyłanych danych. Użytkownicy mogą błędnie zakładać, że te technologie mogą zapewnić odpowiedni poziom ochrony, jednak kluczowe jest zrozumienie różnicy między kontrolą dostępu a bezpieczeństwem komunikacji. W kontekście zdalnej pracy, właściwym rozwiązaniem jest stosowanie VPN, które łączy w sobie bezpieczeństwo i dostępność zasobów firmowych.

Pytanie 40

Aby podłączyć stację roboczą z zainstalowanym systemem Windows do domeny zst.local należy

Ilustracja do pytania
A. jedynie w polu Sufiks podstawowej domeny DNS tego komputera wpisać zst.local
B. ustawić nazwę komputera oraz w polu Domena wpisać zst.local
C. jedynie w polu Domena wpisać zst.local
D. ustawić nazwę komputera oraz w polu Grupa robocza wpisać zst.local
Poprawnie wskazana odpowiedź odzwierciedla realną procedurę dołączania stacji roboczej z systemem Windows do domeny Active Directory. Żeby komputer stał się pełnoprawnym członkiem domeny zst.local, trzeba jednocześnie ustawić nazwę komputera oraz w polu „Domena” wpisać właśnie zst.local. Windows traktuje zmianę nazwy komputera i zmianę członkostwa (grupa robocza / domena) jako powiązane operacje – w praktyce i tak kończy się to restartem, więc administracyjnie najrozsądniej jest zrobić to za jednym razem. Dzięki temu w kontrolerze domeny obiekt komputera ma od razu właściwą nazwę, a wpis w DNS (rekord A i PTR) jest spójny z nazwą hosta. Z mojego doświadczenia, jeśli najpierw dołączysz do domeny, a potem zmienisz nazwę, łatwo wprowadzić bałagan w AD i DNS, szczególnie w większych sieciach. Samo pole „Domena” to nie tylko formalność – podczas dołączania Windows nawiązuje połączenie z kontrolerem domeny, wykorzystuje DNS do odszukania usług katalogowych (rekordy SRV) i wymaga konta z odpowiednimi uprawnieniami (typowo konto domenowe z prawem dołączania stacji do domeny). W tle tworzony jest obiekt komputera w Active Directory, generowane jest hasło konta komputera i konfigurowane są zabezpieczenia (m.in. Kerberos). Dobra praktyka mówi też, żeby nazwę komputera ustalić zgodnie z firmową konwencją nazewniczą, np. prefiks działu, numer stanowiska, typ urządzenia. Ułatwia to późniejszą administrację, monitorowanie i zarządzanie politykami GPO. W środowiskach produkcyjnych takie podejście jest wręcz standardem i większość skryptów wdrożeniowych (np. przy użyciu MDT, SCCM czy Intune) zakłada, że komputer ma właściwie ustawioną nazwę jeszcze przed dołączeniem do domeny.