Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 4 maja 2026 18:51
  • Data zakończenia: 4 maja 2026 19:08

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Sprzęt, który umożliwia konfigurację sieci VLAN, to

A. most przezroczysty (transparent bridge)
B. firewall
C. switch
D. regenerator (repeater)
Switch, czyli przełącznik sieciowy, jest kluczowym urządzeniem w architekturze sieci VLAN (Virtual Local Area Network). Pozwala on na tworzenie wielu logicznych sieci w ramach jednej fizycznej infrastruktury, co jest szczególnie przydatne w dużych organizacjach. Dzięki VLAN można segmentować ruch sieciowy, co zwiększa bezpieczeństwo i efektywność zarządzania siecią. Przykładem może być sytuacja, w której dział finansowy i dział IT w tej samej firmie funkcjonują w odrębnych VLAN-ach, co ogranicza dostęp do poufnych danych. Standardy takie jak IEEE 802.1Q definiują, w jaki sposób przełączniki mogą tagować ramki Ethernet, aby rozróżniać różne VLAN-y. Dobrą praktyką jest stosowanie VLAN-ów do izolowania ruchu, co nie tylko poprawia bezpieczeństwo, ale także zwiększa wydajność sieci poprzez ograniczenie rozprzestrzeniania się broadcastów. Warto również zwrócić uwagę na możliwość zarządzania VLAN-ami przez protokoły takie jak VTP (VLAN Trunking Protocol), co upraszcza administrację siecią w skomplikowanych środowiskach.

Pytanie 2

Jakie zastosowanie ma przedstawione narzędzie?

Ilustracja do pytania
A. sprawdzenia długości badanego kabla sieciowego
B. podgrzania i zamontowania elementu elektronicznego
C. utrzymania drukarki w czystości
D. pomiar wartości napięcia w zasilaczu
Multimetr cęgowy to super narzędzie do pomiaru napięcia i prądu, a także wielu innych parametru elektrycznych w obwodach. Najlepsze jest to, że można nim mierzyć prąd bez dotykania przewodów, dzięki cęgoma, które obejmują kabel. Kiedy chcesz zmierzyć napięcie w zasilaczu, wystarczy przyłożyć końcówki do odpowiednich punktów w obwodzie i masz dokładny wynik. Multimetry cęgowe są mega popularne w elektryce i elektronice, bo są dokładne i łatwe w obsłudze. Mają też zgodność z międzynarodowymi standardami jak IEC 61010, więc można być pewnym, że są bezpieczne. Co więcej, nowoczesne multimetry mogą badać różne rzeczy, jak rezystancja czy pojemność. Dzięki temu są bardzo wszechstronnym narzędziem diagnostycznym. Możliwość zmiany zakresów pomiarowych to także duży plus, bo pozwala dostosować urządzenie do konkretnych potrzeb. Regularne kalibracje to podstawa, żeby wszystko działało jak należy, co jest istotne w środowisku pracy.

Pytanie 3

Jakie są zasadnicze różnice pomiędzy poleceniem ps a poleceniem top w systemie Linux?

A. Polecenie top umożliwia pokazanie PID procesu, podczas gdy ps tego nie robi
B. Polecenie ps pozwala na zobaczenie uprawnień, z jakimi działa proces, natomiast top tego nie umożliwia
C. Polecenie top przedstawia aktualnie działające procesy w systemie, odświeżając informacje na bieżąco, co nie jest możliwe w przypadku ps
D. Polecenie ps nie przedstawia stopnia obciążenia CPU, natomiast polecenie top oferuje tę funkcjonalność
Polecenie 'top' jest narzędziem, które w czasie rzeczywistym wyświetla aktualnie działające procesy w systemie Linux, a jego informacje są regularnie odświeżane. Jest to niezwykle przydatne w monitorowaniu wydajności systemu, ponieważ możemy na bieżąco śledzić, które procesy zużywają najwięcej zasobów, takich jak CPU i pamięć. Użytkownicy mogą dostosować interfejs 'top', sortować procesy według różnych kryteriów, a także wyszukiwać konkretne procesy. W przeciwieństwie do tego, 'ps' daje statyczny widok procesów w momencie wywołania polecenia. Umożliwia użytkownikowi uzyskanie informacji o aktualnie działających procesach, ale nie aktualizuje tych informacji w czasie rzeczywistym. Dobrą praktyką jest używanie 'ps' do uzyskania szczegółowych informacji o konkretnych procesach, podczas gdy 'top' sprawdza się najlepiej w monitorowaniu ogólnej sytuacji w systemie. Zrozumienie różnic między tymi dwoma narzędziami jest kluczowe dla efektywnego zarządzania i optymalizacji systemów Linux.

Pytanie 4

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 16 GB.
B. 1 modułu 32 GB.
C. 2 modułów, każdy po 8 GB.
D. 2 modułów, każdy po 16 GB.
W tym zadaniu kluczowe są dwie rzeczy: liczba fizycznych modułów pamięci RAM oraz pojemność pojedynczej kości. Na filmie można zwykle wyraźnie zobaczyć, ile modułów jest wpiętych w sloty DIMM na płycie głównej. Każdy taki moduł to oddzielna kość RAM, więc jeśli widzimy dwie identyczne kości obok siebie, oznacza to dwa moduły. Typowym błędem jest patrzenie tylko na łączną pojemność podawaną przez system, np. „32 GB”, i automatyczne założenie, że jest to jeden moduł 32 GB. W praktyce w komputerach stacjonarnych i w większości laptopów bardzo często stosuje się konfiguracje wielomodułowe, właśnie po to, żeby wykorzystać tryb dual channel lub nawet quad channel. To jest jedna z podstawowych dobrych praktyk przy montażu pamięci – zamiast jednej dużej kości, używa się dwóch mniejszych o tej samej pojemności, częstotliwości i opóźnieniach. Dzięki temu kontroler pamięci w procesorze może pracować na dwóch kanałach, co znacząco zwiększa przepustowość i zmniejsza wąskie gardła przy pracy procesora. Odpowiedzi zakładające pojedynczy moduł 16 GB lub 32 GB ignorują ten aspekt i nie zgadzają się z tym, co widać fizycznie na płycie głównej. Kolejna typowa pułapka polega na myleniu pojemności całkowitej z pojemnością modułu. Jeśli system raportuje 32 GB RAM, to może to być 1×32 GB, 2×16 GB, a nawet 4×8 GB – sam wynik z systemu nie wystarcza, trzeba jeszcze zweryfikować liczbę zainstalowanych kości. Właśnie dlatego w zadaniu pojawia się odniesienie do filmu: chodzi o wizualne rozpoznanie liczby modułów. Dobrą praktyką w serwisie i diagnostyce jest zawsze sprawdzenie zarówno parametrów logicznych (w BIOS/UEFI, w systemie, w narzędziach diagnostycznych), jak i fizycznej konfiguracji na płycie. Pomija się też czasem fakt, że producenci płyt głównych w dokumentacji wprost rekomendują konfiguracje 2×8 GB, 2×16 GB zamiast pojedynczej kości, z uwagi na wydajność i stabilność. Błędne odpowiedzi wynikają więc zwykle z szybkiego zgadywania pojemności, bez przeanalizowania, jak pamięć jest faktycznie zamontowana i jak działają kanały pamięci w nowoczesnych platformach.

Pytanie 5

Wynikiem działania przedstawionego układu logicznego po podaniu na wejściach A i B sygnałów logicznych A=1 i B=1 są wartości logiczne:

Ilustracja do pytania
A. W=1 i C=0
B. W=0 i C=0
C. W=1 i C=1
D. W=0 i C=1
Schemat, który widzimy, jest reprezentacją jednego z najprostszych układów kombinacyjnych, jaki można spotkać w technice cyfrowej – chodzi tu o przetwarzanie sygnałów logicznych przez podstawowe bramki OR oraz AND. Typowym błędem jest nieuwzględnienie, jak działają te bramki przy podaniu identycznych sygnałów A=1 i B=1. Często myli się rolę bramki OR, która zawsze daje 1, jeśli choć jeden z wejściowych sygnałów jest równy 1, oraz bramki AND, która wymaga jednocześnie obu sygnałów wysokich, by na wyjściu pojawiła się jedynka logiczna. Jeśli ktoś zaznaczył inne warianty – na przykład W=0 bądź C=0 – prawdopodobnie popełnił błąd polegający na złym rozpoznaniu, która bramka odpowiada za które wyjście, albo zapomniał, że przy sygnałach 1 i 1, OR zawsze da wynik 1, a AND również 1. Myślenie, że kombinacja tych samych sygnałów może dać zero, to najczęściej efekt przeoczenia albo mylenia funkcji z innym typem bramki, np. NAND lub NOR, gdzie wynik rzeczywiście byłby odwrotny. Tego typu zamieszanie pojawia się też, gdy próbujemy na pamięć odtwarzać tabele prawdy, zamiast rozumieć sens działania każdej bramki. W branżowych standardach, nawet przy projektowaniu większych systemów, takie podejście jest niewskazane – zawsze warto rozkładać sygnały na czynniki pierwsze i analizować, jak przepływają przez kolejne elementy układu. Dzięki temu unika się typowych pułapek myślowych i można szybko przyswoić bardziej zaawansowaną logikę cyfrową.

Pytanie 6

Miarą wyrażaną w decybelach, która określa różnicę pomiędzy mocą sygnału wysyłanego w parze zakłócającej a mocą sygnału generowanego w parze zakłócanej, jest

A. przesłuch zdalny
B. rezystancja pętli
C. poziomu mocy wyjściowej
D. przesłuch zbliżny
Odpowiedź 'przesłuch zbliżny' jest prawidłowa, ponieważ odnosi się do miary, która opisuje wpływ sygnału przesyłanego w parze zakłócającej na sygnał wytworzony w parze zakłócanej. Mierzymy go w decybelach, co jest standardowym sposobem wyrażania stosunków mocy w telekomunikacji. Przesłuch zbliżny najczęściej występuje w kontekście systemów transmisyjnych, takich jak linie telefoniczne czy kable miedziane, gdzie niepożądane sygnały mogą wpływać na jakość transmisji. W praktyce oznacza to, że przy projektowaniu układów elektronicznych oraz systemów komunikacyjnych, inżynierowie muszą brać pod uwagę przesłuch zbliżny, aby minimalizować zakłócenia i zapewnić odpowiednią jakość sygnału. Użycie odpowiednich technik, takich jak ekranowanie kabli czy zastosowanie odpowiednich filtrów, jest kluczowe w ograniczeniu wpływu przesłuchu na sygnał. Właściwe zarządzanie tymi parametrami jest niezbędne dla uzyskania wysokiej jakości transmisji, co jest zgodne z najlepszymi praktykami w branży telekomunikacyjnej.

Pytanie 7

Adres IP 192.168.2.0/24 został podzielony na 8 podsieci. Jaką maskę należy zastosować dla tych nowych podsieci?

A. 255.255.255.192
B. 255.255.255.128
C. 255.255.255.240
D. 255.255.255.224
Odpowiedź 255.255.255.224 jest prawidłowa, ponieważ aby podzielić sieć o adresie IP 192.168.2.0/24 na 8 podsieci, musimy zwiększyć liczbę bitów w masce podsieci. W przypadku adresu /24 mamy 24 bity dla części sieci i 8 bitów dla części hostów, co daje 256 adresów (od 192.168.2.0 do 192.168.2.255). Aby podzielić tę sieć na 8 podsieci, potrzebujemy 3 dodatkowych bitów (2^3 = 8). Zmieniając maskę z 255.255.255.0 na 255.255.255.224 (czyli z /24 na /27), uzyskujemy 8 podsieci, z których każda ma 32 adresy (30 adresów hostów, 1 adres sieci i 1 adres rozgłoszeniowy). Taka praktyka jest zgodna z zasadami zarządzania sieciami i używana w bankach, firmach i innych organizacjach, gdzie segmentacja sieci zwiększa bezpieczeństwo i efektywność. Przykładem zastosowania może być wydzielenie działów w firmie, gdzie każda podsieć może reprezentować osobny dział firmy, co ułatwia zarządzanie i zabezpieczanie danych.

Pytanie 8

W systemie Windows, aby uruchomić usługę związaną z wydajnością komputera, należy użyć polecenia

A. secpol.msc
B. services.msc
C. compmgmt.msc
D. perfmon.msc
Wybór polecenia secpol.msc, które otwiera lokalne zasady zabezpieczeń, jest nieodpowiedni w kontekście monitorowania wydajności komputera. To narzędzie służy do zarządzania politykami bezpieczeństwa, takimi jak zasady kontroli dostępu czy konfiguracje zabezpieczeń, a nie do analizy wydajności systemu. Użytkownicy, którzy skupiają się na bezpieczeństwie i zarządzaniu uprawnieniami, mogą mylnie przyjąć, że to narzędzie także dostarcza informacji o wydajności. Natomiast polecenie services.msc, które wyświetla listę usług systemowych, również nie jest właściwym wyborem w kontekście monitorowania wydajności. Choć administracja usługami jest kluczowym elementem zarządzania systemem, to nie dostarcza ono szczegółowych danych o wydajności komponentów systemowych. Z kolei compmgmt.msc, czyli Menedżer komputera, oferuje szereg narzędzi do zarządzania, ale nie koncentruje się na monitorowaniu wydajności. Wybór niewłaściwego narzędzia może prowadzić do błędnych diagnoz, a tym samym do niewłaściwych działań naprawczych, co jest sprzeczne z najlepszymi praktykami w dziedzinie zarządzania zasobami IT. Dlatego kluczowe jest, aby użytkownicy potrafili identyfikować odpowiednie narzędzia do konkretnych potrzeb, aby zminimalizować ryzyko błędnych interpretacji danych i decyzji, które mogą negatywnie wpłynąć na wydajność systemu.

Pytanie 9

Na rysunku widoczny jest symbol graficzny

Ilustracja do pytania
A. mostu
B. przełącznika
C. rutera
D. punktu dostępowego
Symbol graficzny przedstawiony na rysunku jest typowym oznaczeniem dla przełącznika sieciowego znanego również jako switch. Przełączniki są kluczowymi elementami infrastruktury sieciowej umożliwiającymi efektywne przesyłanie danych pomiędzy różnymi urządzeniami w sieci lokalnej LAN. Działają na warstwie 2 modelu OSI co oznacza że zarządzają przesyłaniem ramek danych na podstawie adresów MAC. W przeciwieństwie do koncentratorów które przesyłają ruch do wszystkich portów przełączniki kierują dane tylko do docelowego portu co znacznie zwiększa wydajność i bezpieczeństwo sieci. Nowoczesne przełączniki oferują funkcje takie jak VLAN-y Quality of Service czy agregacja łączy co pozwala na lepsze zarządzanie ruchem sieciowym i dostosowanie infrastruktury do potrzeb użytkowników. W praktyce przełączniki pozwalają na budowę skalowalnych i elastycznych sieci gdzie przepustowość i niezawodność są kluczowe. Ich zastosowanie jest powszechne nie tylko w środowiskach biurowych ale również w centrach danych gdzie są podstawą dla zaawansowanych architektur sieciowych.

Pytanie 10

Jakie oznaczenie na schematach sieci LAN przypisuje się punktom rozdzielczym dystrybucyjnym znajdującym się na różnych kondygnacjach budynku według normy PN-EN 50173?

A. CD (Campus Distribution)
B. MDF (Main Distribution Frame)
C. BD (BuildingDistributor)
D. FD (Floor Distribution)
Odpowiedzi BD (Building Distributor), CD (Campus Distribution) oraz MDF (Main Distribution Frame) są nieprawidłowe w kontekście oznaczeń punktów rozdzielczych dystrybucyjnych na poszczególnych piętrach budynku. BD odnosi się do głównego punktu dystrybucyjnego w obrębie całego budynku, który obsługuje kilka pięter lub stref, ale nie jest precyzyjnie związany z lokalizacją na każdym piętrze. CD dotyczy z kolei bardziej rozległych instalacji, takich jak kampusy uniwersyteckie, gdzie sieci rozciągają się na wiele budynków, a ich struktura jest zorganizowana na poziomie kampusu, co nie odpowiada lokalnym potrzebom pięter. MDF to główny punkt rozdzielczy, który zazwyczaj znajduje się w pomieszczeniach technicznych lub serwerowniach, a jego rola polega na agregacji sygnałów z różnych FD i BD, a nie na ich dystrybucji na poziomie piętra. Te błędne odpowiedzi mogą wynikać z mylnego pojmowania struktury sieci oraz funkcji poszczególnych punktów dystrybucyjnych. Właściwe rozumienie klasyfikacji i funkcji w sieciach LAN jest kluczowe do efektywnego projektowania oraz zarządzania infrastrukturą, co z kolei wpływa na wydajność oraz niezawodność całego systemu. Zrozumienie tych różnic jest niezbędne dla każdego specjalisty zajmującego się sieciami komputerowymi.

Pytanie 11

Najlepszym sposobem na zabezpieczenie domowej sieci Wi-Fi jest

A. stosowanie szyfrowania WPA-PSK
B. zmiana adresu MAC routera
C. zmiana nazwy identyfikatora SSID
D. wdrażanie szyfrowania WEP
Stosowanie szyfrowania WPA-PSK (Wi-Fi Protected Access Pre-Shared Key) jest uznawane za najskuteczniejszą metodę zabezpieczania domowej sieci Wi-Fi. WPA-PSK wykorzystuje silne algorytmy szyfrowania, takie jak TKIP (Temporal Key Integrity Protocol) oraz AES (Advanced Encryption Standard), co znacząco podnosi poziom bezpieczeństwa w porównaniu do starszych metod, takich jak WEP. WEP, mimo że był jednym z pierwszych standardów, ma liczne luki bezpieczeństwa, które mogą być łatwo wykorzystane przez intruzów. W praktyce, aby zastosować WPA-PSK, należy skonfigurować ruter, ustawiając silne hasło, które powinno być wystarczająco długie i skomplikowane, aby utrudnić ataki brute force. Dodatkowo, warto regularnie aktualizować firmware rutera oraz zmieniać hasło dostępu do sieci, aby zwiększyć poziom bezpieczeństwa. W kontekście dobrych praktyk branżowych, zaleca się także używanie WPA3, jeśli ruter na to pozwala, gdyż jest to nowszy standard oferujący jeszcze lepsze zabezpieczenia. Zastosowanie WPA-PSK jest kluczowe w ochronie przed nieautoryzowanym dostępem oraz innymi zagrożeniami związanymi z bezpieczeństwem sieci Wi-Fi.

Pytanie 12

Rezultatem wykonania przedstawionego fragmentu skryptu jest:

#!/bin/sh
mkdir kat1
touch kat1/plik.txt
A. utworzony katalog o nazwie kat1, a w nim plik o nazwie plik.txt
B. uruchomiony skrypt o nazwie plik.txt w katalogu kat1
C. zmiana nazwy katalogu kat na kat1 i utworzenie w nim pliku o nazwie plik.txt
D. utworzony podkatalog kat, a w nim plik o nazwie plik.txt
Polecenia pokazane w treści zadania to klasyczne komendy powłoki systemów Unix/Linux. Linia `mkdir kat1` tworzy nowy katalog o nazwie `kat1` w bieżącym katalogu roboczym. To jest standardowe zachowanie programu `mkdir` – jeśli nie podamy żadnych dodatkowych opcji ani ścieżki, katalog powstaje dokładnie tam, gdzie aktualnie „stoimy” w terminalu. Druga komenda `touch kat1/plik.txt` odwołuje się już do tego nowo utworzonego katalogu, używając ścieżki względnej. `touch` jest narzędziem, które w praktyce najczęściej służy do szybkiego tworzenia pustych plików. Jeśli wskazany plik nie istnieje, zostanie utworzony. Jeśli istnieje, to tylko zostanie zaktualizowany jego czas modyfikacji. W tym przypadku plik `plik.txt` nie istnieje, więc powstaje w katalogu `kat1`. W efekcie końcowym mamy więc katalog `kat1`, a w nim plik `plik.txt`, dokładnie tak jak w poprawnej odpowiedzi. W codziennej pracy administratorów Linuxa takie sekwencje poleceń są zupełnie normalne, np. przy przygotowywaniu struktury katalogów dla nowego projektu, użytkownika czy usługi. Moim zdaniem warto zapamiętać, że ścieżka `kat1/plik.txt` oznacza: „w podkatalogu `kat1` w bieżącym katalogu utwórz lub dotknij plik `plik.txt`”. Dobra praktyka jest też taka, żeby zawsze mieć świadomość, jaki jest aktualny katalog roboczy (`pwd`), bo od niego zależy, gdzie dokładnie powstaną tworzone katalogi i pliki. W skryptach produkcyjnych często poprzedza się takie komendy zmianą katalogu (`cd /konkretna/sciezka`) lub używa się ścieżek absolutnych, żeby uniknąć niespodzianek. W skrócie: komenda `mkdir` tworzy katalog, a `touch` w tym kontekście tworzy pusty plik w podanym katalogu – nic tu się nie uruchamia, nic nie jest zmieniane z nazwy, po prostu budujemy prostą strukturę plików.

Pytanie 13

Przy zgrywaniu filmu kamera cyfrowa przesyła na dysk 220 MB na minutę. Wybierz z diagramu interfejs o najniższej prędkości transferu, który umożliwia taką transmisję

Ilustracja do pytania
A. USB 2
B. 1394a
C. 1394b
D. USB 1
Wybór odpowiedniego interfejsu do transferu danych jest istotny dla zapewnienia płynności i niezawodności działania urządzeń cyfrowych. USB 2, choć z prędkością 480 Mbps jest wystarczający dla zgrywania 220 MB na minutę, nie jest najefektywniejszym wyborem pod względem zgodności i zużycia zasobów w kontekście, gdzie 1394a jest dostępne. USB 1, z prędkością jedynie 1,5 Mbps, jest dalece niewystarczające, prowadząc do znacznych opóźnień i niemożności zgrywania w takiej jakości. Interfejs 1394b, choć oferuje wyższą prędkość 800 Mbps, jest niepotrzebny w tej sytuacji, gdyż 1394a już spełnia wymagania przy niższej złożoności infrastruktury. Błędne podejście może wynikać z nieznajomości specyfikacji technicznych interfejsów oraz ich praktycznych zastosowań. Typowym błędem jest również nadmierne poleganie na teoretycznej szybkości interfejsu bez uwzględnienia rzeczywistych warunków operacyjnych, co jest szczególnie ważne przy wielkoformatowych i wymagających aplikacjach multimedialnych.

Pytanie 14

Na ilustracji pokazano część efektu działania programu przeznaczonego do testowania sieci. Sugeruje to użycie polecenia diagnostycznego w sieci

TCP    192.168.0.13:51614    bud02s23-in-f8:https       ESTABLISHED
TCP    192.168.0.13:51615    edge-star-mini-shv-01-ams3:https ESTABLISHED
TCP    192.168.0.13:51617    93.184.220.29:http         ESTABLISHED
TCP    192.168.0.13:51619    93.184.220.29:http         ESTABLISHED
TCP    192.168.0.13:51620    93.184.220.29:http         TIME_WAIT
TCP    192.168.0.13:51621    bud02s23-in-f206:https     TIME_WAIT
TCP    192.168.0.13:51622    xx-fbcdn-shv-01-ams3:https ESTABLISHED
TCP    192.168.0.13:51623    108.161.188.192:https      ESTABLISHED
TCP    192.168.0.13:51626    23.111.9.32:https          TIME_WAIT
TCP    192.168.0.13:51628    lg-in-f155:https           ESTABLISHED
TCP    192.168.0.13:51629    waw02s06-in-f68:https      ESTABLISHED
A. arp
B. tracert
C. route
D. netstat
Netstat jest narzędziem służącym do monitorowania połączeń sieciowych na danym urządzeniu. Wyświetla szczegółowe informacje o aktualnych połączeniach TCP/IP takich jak adresy IP lokalne i zdalne oraz stan połączeń np. ESTABLISHED czy TIME_WAIT. Jest to nieocenione narzędzie diagnostyczne w administracji siecią pozwalające na szybkie identyfikowanie problemów z połączeniami lub nieautoryzowanymi połączeniami wychodzącymi. Praktyczne zastosowanie netstat obejmuje analizę ruchu sieciowego w celu wykrywania potencjalnych ataków czy też monitorowanie połączeń otwartych przez aplikacje serwerowe. Netstat wspiera również administratorów w zarządzaniu zasobami sieciowymi zgodnie z dobrymi praktykami bezpieczeństwa informatycznego pozwalając na szybkie wykrywanie nieprawidłowości w ruchu sieciowym. Warto również zauważyć że netstat jest dostępny na różnych systemach operacyjnych co czyni go uniwersalnym narzędziem w arsenale każdego specjalisty IT. Jego stosowanie zgodne z dobrymi praktykami zaleca regularne monitorowanie logów w celu utrzymania bezpieczeństwa i stabilności sieci.

Pytanie 15

Liczba FAFC w systemie heksadecymalnym odpowiada wartości liczbowej

A. 1111101011011101 (2)
B. 175376 (8)
C. 64256(10)
D. 1111101011111100 (2)
Odpowiedzi niepoprawne wynikają z błędnego rozumienia konwersji między systemami liczbowymi. W przypadku pierwszej z błędnych odpowiedzi, 64256(10), konwersja z systemu heksadecymalnego na dziesiętny jest niepoprawna, ponieważ liczba FAFC w systemie heksadecymalnym to 64268 w systemie dziesiętnym, a nie 64256. Druga odpowiedź, 175376(8), wskazuje na system ósemkowy, co wprowadza jeszcze większe zamieszanie. Heksadecymalna liczba FAFC nie ma swojej reprezentacji w systemie ósemkowym, ponieważ systemy te są oparte na różnych podstawach. Z kolei liczby podane w systemie binarnym (1111101011011101 i 1111101011111100) również mogą wprowadzać w błąd. Chociaż jedna z nich jest bliska, to nie jest poprawna reprezentacja liczby FAFC. Głównym błędem w tych odpowiedziach jest nieuwzględnienie, jak różne systemy liczbowe konwertują się nawzajem. Często mylący jest również proces przeliczania między systemami, gdzie zapomnienie o odpowiednich podstawach (szesnastkowej, dziesiętnej, ósemkowej czy binarnej) prowadzi do niepoprawnych wniosków. Zrozumienie tych koncepcji jest kluczowe, aby uniknąć podobnych pomyłek w przyszłości.

Pytanie 16

Standard sieci bezprzewodowej WiFi 802.11 a/n operuje w zakresie

A. 250 MHz
B. 1200 MHz
C. 5 GHz
D. 2,4 GHz
Odpowiedź "5 GHz" jest prawidłowa, ponieważ standardy WiFi 802.11a i 802.11n operują w pasmach 5 GHz oraz 2,4 GHz, jednak kluczowym zastosowaniem 802.11n jest możliwość pracy w paśmie 5 GHz, co umożliwia osiąganie wyższych prędkości transmisji danych oraz mniejsze zakłócenia, co jest istotne w zatłoczonych obszarach. Pasmo 5 GHz oferuje większą przepustowość, co przyczynia się do lepszej jakości połączenia, zwłaszcza w zastosowaniach wymagających szybkiego przesyłania danych, jak streaming wideo w wysokiej rozdzielczości czy gry online. Warto również zwrócić uwagę, że 802.11n wspiera MIMO (Multiple Input Multiple Output), co further zwiększa wydajność sieci, pozwalając na jednoczesne przesyłanie wielu strumieni danych. Użycie pasma 5 GHz jest zgodne z najlepszymi praktykami branżowymi, które zalecają wybór tego zakresu w celu minimalizacji zakłóceń oraz zwiększenia wydajności sieci bezprzewodowej w środowiskach o dużym natężeniu ruchu.

Pytanie 17

Jakie narzędzie powinno być użyte do zbadania wyników testu POST dla modułów na płycie głównej?

Ilustracja do pytania
A. Rys. C
B. Rys. A
C. Rys. D
D. Rys. B
Prawidłowa odpowiedź to Rys. B. Jest to specjalne narzędzie diagnostyczne znane jako karta POST, używane do testowania i diagnozowania problemów z płytą główną komputera. Kiedy komputer jest uruchamiany, przechodzi przez test POST (Power-On Self-Test), który sprawdza podstawowe komponenty sprzętowe. Karta POST wyświetla kody wyników testu, co umożliwia technikom zidentyfikowanie problemów, które mogą uniemożliwiać prawidłowy rozruch systemu. Karty POST są niezwykle przydatne w środowiskach serwisowych, gdzie szybka diagnostyka jest kluczowa. Dają one bezpośredni wgląd w proces rozruchu płyty głównej i wskazują na potencjalne awarie sprzętowe, takie jak uszkodzone moduły pamięci RAM, problemy z procesorem czy kartą graficzną. W praktyce, kody wyświetlane przez kartę POST mogą być porównywane z tabelami kodów POST producenta płyty głównej, co pozwala na szybkie i precyzyjne określenie przyczyny awarii i przystąpienie do jej usunięcia. Warto zaznaczyć, że użycie karty POST jest standardem w diagnostyce komputerowej i stanowi dobrą praktykę w pracy serwisanta.

Pytanie 18

Aby zweryfikować w systemie Windows działanie nowo zainstalowanej drukarki, co należy zrobić?

A. wydrukować stronę testową za pomocą zakładki Ogólne w oknie Właściwości drukarki
B. uruchomić narzędzie diagnostyczne dxdiag
C. wykonać polecenie gpupdate /force w Wierszu poleceń
D. sprawdzić status urządzenia w Menadżerze urządzeń
Wydrukowanie strony testowej za pomocą zakładki Ogólne w oknie Właściwości drukarki to najskuteczniejszy sposób na potwierdzenie, że nowo zainstalowana drukarka działa poprawnie. Proces ten polega na wejściu w ustawienia drukarki z poziomu systemu Windows, gdzie użytkownik może uzyskać dostęp do opcji takich jak wydrukowanie strony testowej. Strona testowa zazwyczaj zawiera różne elementy, takie jak kolory, tekst oraz grafiki, co pozwala na ocenę jakości wydruku oraz sprawności urządzenia. Jest to standardowa procedura, która jest często zalecana w dokumentacji producentów sprzętu. Wydrukowanie strony testowej jest również pomocne w diagnostyce, ponieważ pozwala zidentyfikować ewentualne problemy, takie jak brak kolorów, zacięcia papieru lub inne błędy, które mogą występować w trakcie drukowania. Tego rodzaju praktyki są kluczowe w profesjonalnym środowisku biurowym, gdzie niezawodność sprzętu drukującego ma bezpośredni wpływ na efektywność pracy.

Pytanie 19

Atak DDoS (ang. Disributed Denial of Service) na serwer doprowadzi do

A. przechwytywania pakietów sieciowych
B. przeciążenia aplikacji serwującej określone dane
C. zmiany pakietów przesyłanych przez sieć
D. zbierania danych o atakowanej sieci
Atak DDoS (Distributed Denial of Service) jest formą cyberataków, której celem jest zablokowanie dostępu do serwera lub usługi poprzez przeciążenie ich nadmierną ilością ruchu sieciowego. W przypadku wybrania odpowiedzi 'przeciążenie aplikacji serwującej określone dane', wskazujemy na istotę działania ataku DDoS, który korzysta z rozproszonych źródeł, jak botnety, aby wysyłać dużą ilość żądań do serwera w krótkim czasie. Praktycznie, może to prowadzić do spadku wydajności serwera, a w skrajnych przypadkach do jego całkowitego unieruchomienia. W branży IT stosuje się różne metody obrony przed takimi atakami, jak load balancing, które pomagają rozłożyć obciążenie na wiele serwerów, oraz systemy wykrywania i zapobiegania atakom (IDS/IPS), które monitorują ruch i mogą blokować podejrzane źródła. Znajomość mechanizmów DDoS i technik obrony przed nimi jest kluczowa dla administratorów sieci oraz specjalistów ds. bezpieczeństwa.

Pytanie 20

W architekturze sieci lokalnych opartej na modelu klient - serwer

A. wszyscy klienci mają możliwość dostępu do zasobów innych komputerów.
B. żaden z komputerów nie odgrywa dominującej roli wobec innych.
C. wydzielone komputery pełnią funkcję serwerów, które udostępniają zasoby, podczas gdy inne komputery z tych zasobów korzystają.
D. każdy z komputerów zarówno dzieli się pewnymi zasobami, jak i korzysta z zasobów pozostałych komputerów.
W kontekście architektury sieci lokalnych typu klient-serwer, pojawiają się liczne nieporozumienia dotyczące ról komputerów w sieci. Stwierdzenie, że żaden z komputerów nie pełni roli nadrzędnej, jest mylne, ponieważ w rzeczywistości w architekturze klient-serwer istnieje wyraźny podział na komputery serwerowe i klienckie. Serwery są zaprojektowane tak, aby zarządzać i udostępniać zasoby, podczas gdy klienci są odpowiedzialni za korzystanie z tych zasobów. Z kolei twierdzenie, że wszystkie komputery klienckie mają dostęp do zasobów pozostałych komputerów, nie uwzględnia faktu, że dostęp ten jest kontrolowany przez serwery, które zarządzają uprawnieniami użytkowników i dostępem do danych. Ponadto, koncept, w którym każdy komputer zarówno udostępnia zasoby, jak i korzysta z zasobów innych komputerów, jest bardziej charakterystyczny dla architektury peer-to-peer, a nie klient-serwer. W modelu peer-to-peer nie ma hierarchii, co prowadzi do problemów ze skalowalnością i bezpieczeństwem. Takie błędne myślenie może wynikać z zamieszania między różnymi modelami sieciowymi, gdzie kluczowe jest zrozumienie zasad rządzących każdą z architektur. Architektura klient-serwer jest dominującym modelem w dzisiejszych systemach IT, co czyni jej poprawne zrozumienie kluczowym dla efektywnego projektowania i zarządzania infrastrukturą sieciową.

Pytanie 21

Sieć lokalna posiada adres IP 192.168.0.0/25. Który adres IP odpowiada stacji roboczej w tej sieci?

A. 192.168.1.1
B. 192.168.0.100
C. 192.160.1.25
D. 192.168.0.192
Adresy IP 192.168.1.1, 192.160.1.25 i 192.168.0.192 są nieprawidłowe dla sieci lokalnej o adresie 192.168.0.0/25, ponieważ nie mieszczą się w odpowiednim zakresie adresów. Adres 192.168.1.1 znajduje się w innej podsieci, a dokładniej w sieci 192.168.1.0/24. Ta sytuacja może prowadzić do nieporozumień w zarządzaniu siecią, ponieważ urządzenia w różnych podsieciach nie mogą się ze sobą komunikować bez odpowiedniej konfiguracji routingu. Adres 192.160.1.25 jest całkowicie nieprawidłowy, ponieważ nie zgodny z klasą C, do której należy sieć 192.168.x.x, a także nie pasuje do zakresu prywatnych adresów IP. Z kolei adres 192.168.0.192, mimo że należy do tej samej sieci, jest adresem rozgłoszeniowym (broadcast) dla podsieci 192.168.0.0/25, co oznacza, że jest używany do wysyłania pakietów do wszystkich urządzeń w tej podsieci. W rezultacie, przydzielanie adresu, który jest adresem rozgłoszeniowym, jest błędem, ponieważ nie może być przypisany do konkretnego urządzenia. Kluczowe jest, aby przydzielając adresy IP, kierować się zasadami podziału i zarządzania adresacją IP, aby uniknąć konfliktów oraz zapewnić prawidłową komunikację w sieci.

Pytanie 22

Jaką liczbą oznaczono procesor na diagramie płyty głównej komputera?

Ilustracja do pytania
A. 4
B. 2
C. 3
D. 1
W rozważanym zagadnieniu prawidłowość odpowiedzi zależy od zrozumienia, jak komponenty na płycie głównej są ze sobą powiązane i jakie pełnią funkcje. Cyfra 1 nie jest poprawnym oznaczeniem procesora, ponieważ na standardowych schematach płyty głównej często oznacza się w ten sposób inne komponenty, takie jak chipset obsługujący szynę danych. Z kolei cyfra 3 często reprezentuje złącza RAM, które są odpowiedzialne za przechowywanie danych tymczasowych, a nie za przetwarzanie instrukcji jak procesor. Cyfra 4 może oznaczać inne układy scalone lub kontrolery na płycie głównej, które pełnią funkcje wspierające, jednak nie odpowiadają za główną moc obliczeniową systemu. Procesor jest centralną jednostką przetwarzającą, która wykonuje polecenia i zarządza przepływem danych w systemie komputerowym. Błędne zidentyfikowanie procesora może wynikać z niewłaściwego rozpoznania jego fizycznej lokalizacji na schemacie płyty głównej, co jest kluczowe dla osób zajmujących się składaniem i naprawą sprzętu komputerowego. Wiedza o rozmieszczeniu poszczególnych elementów na płycie głównej jest istotna przy diagnozowaniu problemów sprzętowych i optymalizacji konfiguracji systemu, dlatego zrozumienie tej topologii jest podstawą efektywnej pracy w dziedzinie informatyki i elektroniki użytkowej. Prawidłowe oznaczenie procesora jest kluczowe dla diagnozy i optymalizacji, co prowadzi do bardziej efektywnego zarządzania zasobami i wydajności komputera. Zrozumienie, jak poszczególne komponenty są ze sobą powiązane, jest nieocenione w kontekście rozwiązywania problemów i modernizacji sprzętu. Dopiero solidna wiedza na temat struktury płyty głównej pozwala na sprawne poruszanie się po zagadnieniach związanych z technologią komputerową i jej praktycznym zastosowaniem w codziennej pracy.

Pytanie 23

Dysk twardy podczas pracy stuka i można zaobserwować bardzo powolne uruchamianie systemu oraz odczytywanie danych. Aby naprawić tę usterkę, po zabezpieczeniu danych na nośniku zewnętrznym należy

A. wykonać defragmentację dysku.
B. wymienić dysk na nowy.
C. sformatować dysk i zainstalować system.
D. utworzyć punkt przywracania systemu.
Odpowiedź jest trafna, bo charakterystyczne stukanie dysku twardego, zwłaszcza w połączeniu z bardzo powolnym działaniem systemu, to jeden z najbardziej oczywistych objawów fizycznego uszkodzenia mechanicznego – zwykle głowicy lub talerzy. Niestety, takich uszkodzeń nie da się naprawić programowo, ani jakimkolwiek narzędziem systemowym. Moim zdaniem, w praktyce serwisowej to jest sygnał do natychmiastowego zabezpieczenia danych (np. sklonowanie na inny dysk czy kopia zapasowa na zewnętrzny nośnik), bo awaria może się pogłębić w każdej chwili. Branżowe standardy, jak chociażby zalecenia producentów Seagate, WD czy Toshiba, jednoznacznie wskazują – w przypadku występowania głośnych dźwięków z HDD i powolnej pracy należy dysk wymienić, nie próbować go reanimować. Zostawienie takiego dysku w systemie to ryzyko całkowitej utraty danych i dalszych problemów. Defragmentacja czy formatowanie na nic się tutaj nie przydadzą, a wręcz mogą pogorszyć sytuację, bo generują dodatkowe operacje na uszkodzonym sprzęcie. Współczesne systemy, jak Windows 10/11, mają wbudowane narzędzia do monitorowania stanu sprzętu (SMART), ale gdy już słyszysz stukanie, to jest po temacie. Warto też wiedzieć, że dyski SSD są dużo bardziej odporne na tego typu awarie, dlatego coraz częściej poleca się wymianę właśnie na SSD. Szybkość działania systemu po takiej zmianie jest ogromna. Ja bym nie ryzykował żadnych półśrodków – wymiana na nowy dysk to jedyna rozsądna opcja w opisanej sytuacji.

Pytanie 24

Protokół, który pozwala urządzeniom na uzyskanie od serwera informacji konfiguracyjnych, takich jak adres IP bramy sieciowej, to

A. RTP
B. HTTPS
C. NFS
D. DHCP
DHCP, czyli Dynamic Host Configuration Protocol, to protokół sieciowy, który automatycznie przypisuje adresy IP oraz inne istotne dane konfiguracyjne hostom w sieci. Dzięki jego zastosowaniu, administratorzy nie muszą ręcznie konfigurować każdego urządzenia podłączonego do sieci, co znacznie przyspiesza proces integracji nowych urządzeń. DHCP pozwala na dynamiczne przypisywanie adresów IP w oparciu o z góry zdefiniowany zakres adresów oraz polityki zarządzania, co jest zgodne z najlepszymi praktykami w zarządzaniu sieciami. Protokół ten działa na zasadzie wymiany komunikatów między klientem a serwerem, co pozwala na uzyskanie takich informacji jak adres IP bramy sieciowej, maska podsieci czy serwery DNS. Przykładem zastosowania DHCP jest biuro, gdzie wiele komputerów i urządzeń mobilnych łączy się z siecią, a serwer DHCP automatycznie przydziela im odpowiednie adresy IP, co minimalizuje ryzyko konfliktów adresów oraz błędów w konfiguracji.

Pytanie 25

Jakie polecenie w terminalu systemu operacyjnego Microsoft Windows umożliwi wyświetlenie szczegółów wszystkich zasobów udostępnionych na komputerze lokalnym?

A. net share
B. net session
C. net file
D. net print
Jeśli wybierzesz inne polecenia, możesz z łatwością pomylić się co do ich funkcji w zarządzaniu zasobami w Windowsie. Na przykład 'net file' działa z otwartymi plikami w udostępnionych zasobach, a nie pokazuje, jakie foldery są udostępnione. Skupia się na plikach aktualnie w użyciu, co jest trochę inne niż lista wszystkich zasobów. Podobnie 'net print' zarządza kolejkami wydruku i nie pokaże ci nic o udostępnionych folderach czy dyskach. Możesz myśleć, że to polecenie pokaże ci udostępnione drukarki, ale to jest tylko częściowo prawda. 'Net session' też nie jest tym, czego szukasz, bo dostarcza info o bieżących sesjach połączeń, co może być dezorientujące. Warto znać te różnice, bo mogą być kluczowe dla ogólnego zarządzania w systemie Windows. Ludzie czasem mylą te polecenia, bo nie wiedzą, jak one działają, co może prowadzić do problemów z dostępem.

Pytanie 26

W systemie Windows przypadkowo usunięto konto użytkownika, ale katalog domowy pozostał. Czy możliwe jest odzyskanie niezaszyfrowanych danych z katalogu domowego tego użytkownika?

A. tak, za pomocą konta o uprawnieniach administratorskich
B. nie, ponieważ systemowe zabezpieczenia uniemożliwiają dostęp do danych
C. tak, ale jedynie przy pomocy programu typu recovery
D. nie, dane są definitywnie utracone wraz z kontem
Odzyskanie danych z katalogu domowego użytkownika po usunięciu konta jest jak najbardziej możliwe, jeśli mamy do dyspozycji konto z uprawnieniami administratora. W Windows, nawet po usunięciu konta, jego katalog i dane mogą nadal istnieć na dysku, chyba że zostały fizycznie usunięte. Administratorzy mają dostęp do wszystkich plików w systemie, więc mogą przeszukać katalog domowy i kopiować potrzebne dane. Z praktyki wiem, że administrator może bez problemu trafić do folderu, gdzie są przechowywane pliki użytkownika (zwykle C:\Users\NazwaUżytkownika) i zarchiwizować je gdzie indziej lub nawet przywrócić do nowego konta. Warto dodać, że odzyskanie niezaszyfrowanych danych jest znacznie prostsze, co jest zgodne z ogólnymi praktykami zarządzania danymi. Dobry sposób zarządzania kontami i danymi to kluczowy element bezpieczeństwa w każdej organizacji.

Pytanie 27

Zakres adresów IPv4 od 224.0.0.0 do 239.255.255.255 jest przeznaczony do jakiego rodzaju transmisji?

A. unicast
B. broadcast
C. anycast
D. multicast
Wybór odpowiedzi związanej z innymi typami transmisji, takimi jak anycast, broadcast czy unicast, oparty jest na niewłaściwym zrozumieniu zasad funkcjonowania sieci komputerowych. Anycast to metoda, w której dane są przesyłane do najbliższego węzła w grupie serwerów, co w praktyce oznacza, że wysyłanie danych do jednej z wielu lokalizacji jest zależne od najlepszej trasy w danym momencie. W przypadku broadcastu dane są wysyłane do wszystkich urządzeń w danej sieci lokalnej, co nie tylko marnuje pasmo, ale także może prowadzić do problemów z wydajnością, gdyż każde urządzenie odbiera te same dane, niezależnie od potrzeby. Unicast natomiast to metoda, w której dane są przesyłane do pojedynczego, konkretnego odbiorcy. Podejścia te mają swoje zastosowania, ale w kontekście podanego zakresu adresów IPv4 nie są odpowiednie, ponieważ nie pozwalają na efektywne przesyłanie informacji do wielu użytkowników jednocześnie. Wybierając inną odpowiedź, można przeoczyć kluczowe cechy multicastu, takie jak efektywność w komunikacji grupowej oraz zastosowanie protokołów, które umożliwiają dynamiczne zarządzanie uczestnikami grupy. Rozumienie tych różnic jest istotne dla projektowania wydajnych systemów komunikacyjnych i sieciowych.

Pytanie 28

Jakie będą wydatki na materiały potrzebne do produkcji 20 kabli typu patchcord o długości 50 cm?

Nazwa towaruCena jedn.
brutto
wtyk RJ451,00 zł / szt.
koszulka ochronna na wtyk RJ451,00 zł / szt.
skrętka UTP1,20 zł / m
A. 52,00 zł
B. 92,00 zł
C. 104,00 zł
D. 72,00 zł
Wybór odpowiedzi "92,00 zł" jako koszt materiałów do wykonania 20 patchcordów o długości 50 cm jest poprawny. Do stworzenia jednego patchcordu potrzebne są dwa wtyki RJ45, dwie koszulki ochronne oraz 50 cm skrętki UTP. Koszt jednego wtyku RJ45 to 1 zł, a zatem dwa wtyki kosztują 2 zł. Dwie koszulki ochronne również kosztują 2 zł. Koszt 50 cm skrętki UTP to 0,5 m razy 1,20 zł/m, co równa się 0,60 zł. Łączny koszt jednego kabla to więc 2 zł (wtyki) + 2 zł (koszulki) + 0,60 zł (skrętka) = 4,60 zł. Dla 20 kabli koszt wynosi 20 razy 4,60 zł, co daje 92 zł. Znajomość tych podstawowych kosztów i ich obliczenie jest kluczowe przy projektowaniu i tworzeniu sieci komputerowych. Umiejętność dokładnego oszacowania kosztów materiałów jest niezbędna nie tylko w profesjonalnym planowaniu budżetu projektowego, ale również w efektywnym zarządzaniu zasobami. Dobre praktyki branżowe wymagają precyzyjnego planowania i minimalizacji kosztów przy jednoczesnym zachowaniu jakości tworzonej infrastruktury sieciowej.

Pytanie 29

Serwer, który realizuje żądania w protokole komunikacyjnym HTTP, to serwer

A. FTP
B. DNS
C. WWW
D. DHCP
Serwer WWW, znany również jako serwer HTTP, jest kluczowym elementem architektury internetowej, który obsługuje żądania protokołu komunikacyjnego HTTP. Kiedy użytkownik wprowadza adres URL w przeglądarkę internetową, przeglądarka wysyła żądanie HTTP do serwera WWW, który następnie przetwarza to żądanie i zwraca odpowiednią stronę internetową. Serwery WWW są odpowiedzialne za przechowywanie treści, takich jak HTML, CSS i JavaScript, oraz za ich udostępnienie użytkownikom za pośrednictwem sieci. W praktyce serwery WWW mogą być skonfigurowane do obsługi różnych typów treści, a także do stosowania zabezpieczeń, takich jak HTTPS, co jest standardem w branży. Przykłady popularnych serwerów WWW to Apache, Nginx oraz Microsoft Internet Information Services (IIS). Stosowanie dobrych praktyk, takich jak optymalizacja wydajności serwera oraz implementacja odpowiednich polityk bezpieczeństwa, jest kluczowe dla zapewnienia stabilności i ochrony przed zagrożeniami w Internecie.

Pytanie 30

Jeżeli rozmiar jednostki alokacji wynosi 1024 bajty, to ile klastrów zajmą pliki umieszczone w tabeli na dysku?

NazwaWielkość
Ala.exe50 B
Dom.bat1024 B
Wirus.exe2 kB
Domes.exr350 B
A. 6 klastrów
B. 5 klastrów
C. 3 klastry
D. 4 klastry
W przypadku alokacji przestrzeni dyskowej w systemach plików każdy plik zajmuje co najmniej jeden klaster niezależnie od rzeczywistej wielkości pliku. Gdy przeliczamy ilość klastrów potrzebnych do przechowywania zestawu plików musimy znać wielkości plików i jednostki alokacji. Jednym z typowych błędów jest nieuwzględnienie faktu że nawet najmniejszy plik zajmuje cały klaster co prowadzi do błędnych oszacowań. Ważne jest zrozumienie że przykładowo plik o wielkości 1 bajta zajmie cały klaster dlatego myślenie że zajmie mniej niż jeden klaster jest błędne. Drugi częsty błąd to pomijanie konwersji jednostek np. mylenie bajtów z kilobajtami co wprowadza w błąd w ocenie potrzebnej przestrzeni dyskowej. Pominięcie faktu że plik o wielkości 2048 B wymaga dwóch klastrów a nie jednego jest właśnie takim błędem myślowym wynikającym z nieprawidłowej analizy jednostek alokacji. Należy także pamiętać że zrozumienie działania klastrów jest istotne dla efektywnego zarządzania przestrzenią dyskową co jest krytyczne w kontekście wydajności systemów plików i długoterminowej strategii przechowywania danych. Precyzyjna wiedza o tym jak pliki są zapisywane i jak systemy plików alokują przestrzeń jest kluczowa w codziennych zadaniach związanych z administrowaniem systemami komputerowymi i planowaniem infrastruktury IT. Dlatego ważne jest by dokładnie analizować jak wielkość plików przekłada się na wykorzystanie przestrzeni w jednostkach alokacji aby uniknąć typowych błędów w praktyce zawodowej.

Pytanie 31

Bezprzewodową komunikację komputerów w sieci lokalnej zapewnia

A. brama.
B. punkt dostępowy.
C. przełącznik.
D. most.
Punkt dostępowy to dokładnie to urządzenie, które w sieci lokalnej odpowiada za bezprzewodową komunikację komputerów i innych urządzeń. W praktyce mówimy o tzw. Access Point (AP), często wbudowanym w domowy router Wi‑Fi. Jego główne zadanie to zamiana medium przewodowego (skrętka Ethernet) na medium bezprzewodowe (fala radiowa w standardach IEEE 802.11: b/g/n/ac/ax itd.). Dzięki temu laptopy, smartfony, tablety czy drukarki Wi‑Fi mogą dołączać do sieci lokalnej bez potrzeby ciągnięcia kabli. Z mojego doświadczenia w pracowniach szkolnych i biurach standardem jest stosowanie kilku punktów dostępowych, które są podłączone przewodowo do przełącznika, a dopiero one rozgłaszają sieć bezprzewodową i obsługują klientów Wi‑Fi. To jest taka warstwa pośrednia między światem kabli a światem radia. W dobrych praktykach sieciowych konfiguruje się na AP m.in. SSID, szyfrowanie WPA2/WPA3, kanały radiowe oraz moc nadawania, tak żeby zminimalizować zakłócenia i zapewnić stabilny zasięg. W większych instalacjach stosuje się tzw. kontrolery punktów dostępowych, które centralnie zarządzają dziesiątkami AP, umożliwiają roaming (płynne przełączanie między nadajnikami) i separację sieci (np. oddzielna sieć dla gości, VLAN‑y). Moim zdaniem warto kojarzyć, że punkt dostępowy działa głównie w warstwie 2 modelu OSI, podobnie jak przełącznik, ale dodatkowo obsługuje specyfikę medium radiowego i protokołów 802.11, co czyni go kluczowym elementem każdej sensownej sieci Wi‑Fi.

Pytanie 32

Najczęstszym powodem, dla którego toner rozmazuje się na wydrukach z drukarki laserowej, jest

A. zbyt niska temperatura utrwalacza
B. zanieczyszczenie wnętrza drukarki
C. uszkodzenie rolek
D. zacięcie papieru
Zbyt niska temperatura utrwalacza w drukarce laserowej jest najczęstszą przyczyną rozmazywania się tonera na wydrukach. Proces drukowania w technologii laserowej polega na nałożeniu tonera na papier, który następnie jest utrwalany poprzez działanie wysokiej temperatury. Utrwalacz, składający się z dwóch rolek, podgrzewa toner do momentu, w którym staje się on płynny, co umożliwia trwałe wtopienie go w papier. Jeśli temperatura utrwalacza jest zbyt niska, toner nie przylega do papieru w odpowiedni sposób, co prowadzi do jego rozmazywania. Praktycznym przykładem może być wydruk na papierze o wyższej gramaturze lub w warunkach o niskiej temperaturze otoczenia, co dodatkowo wpływa na efektywność utrwalania. Zaleca się regularne sprawdzanie ustawień temperatury w drukarce oraz przeprowadzanie konserwacji sprzętu, aby zapewnić optymalne warunki drukowania zgodne z zaleceniami producenta.

Pytanie 33

Symbol graficzny przedstawiony na ilustracji oznacza jaką bramkę logiczną?

Ilustracja do pytania
A. NAND
B. OR
C. AND
D. NOR
Symbol przedstawiony na rysunku to bramka logiczna AND która jest fundamentalnym elementem w projektowaniu układów cyfrowych. Jej działanie opiera się na zasadzie że tylko wtedy gdy wszystkie wejścia mają stan logiczny 1 na wyjściu pojawia się stan logiczny 1. W przeciwnym wypadku wyjście jest w stanie 0. Bramka AND jest powszechnie stosowana w układach sterujących oraz systemach automatyki gdzie potrzebne jest sprawdzenie wystąpienia kilku warunków jednocześnie. Przykładowo w systemie alarmowym bramka AND może być używana do weryfikacji czy wszystkie drzwi są zamknięte zanim system zostanie uzbrojony. W standardowych zastosowaniach bramki AND używa się w układach arytmetycznych oraz transmisji danych gdzie logiczne warunki muszą być spełnione dla kontynuacji przetwarzania danych. W półprzewodnikowych technologiach takich jak CMOS bramki AND są implementowane w sposób minimalizujący zużycie energii i przestrzeni co jest kluczowe dla produkcji efektywnych układów scalonych. Zrozumienie działania bramek logicznych jak AND jest niezbędne dla inżynierów elektroników i programistów systemów cyfrowych aby efektywnie projektować i diagnozować kompleksowe systemy elektroniczne.

Pytanie 34

W systemie Windows, gdzie należy ustalić wymagania dotyczące złożoności hasła?

A. w autostarcie
B. w BIOS-ie
C. w zasadach zabezpieczeń lokalnych
D. w panelu sterowania
Wymagania dotyczące złożoności haseł w Windows ustalasz w zasadach zabezpieczeń lokalnych, które znajdziesz w narzędziu 'Zasady zabezpieczeń lokalnych' (z ang. secpol.msc). To narzędzie umożliwia administratorom definiowanie różnych zasad dotyczących bezpieczeństwa, w tym haseł. Przykładowo, możesz ustawić, że hasła muszą zawierać duże litery, cyfry i znaki specjalne. To naprawdę dobra praktyka, bo zwiększa bezpieczeństwo danych użytkowników. W kontekście regulacji jak RODO czy HIPAA ważne jest, żeby te zasady były dobrze skonfigurowane, aby chronić dane osobowe. Dobrze przemyślane zasady zabezpieczeń lokalnych mogą znacznie zmniejszyć ryzyko naruszenia bezpieczeństwa w organizacji, co w efekcie podnosi ogólny poziom zabezpieczeń systemu operacyjnego.

Pytanie 35

Na dysku obok systemu Windows zainstalowano system Linux Ubuntu. W celu ustawienia kolejności uruchamiania systemów operacyjnych, konieczna jest modyfikacja zawartości

A. bcdedit
B. /etc/grub.d
C. boot.ini
D. /etc/inittab
Odpowiedzi związane z /etc/inittab, boot.ini i bcdedit są nietrafione. To są rzeczy, które dotyczą zupełnie innych systemów i nie pasują do Linuxa. Plik /etc/inittab był kiedyś używany w starszych wersjach Linuxa, ale teraz nie służy do zarządzania bootowaniem systemów, gdy mamy GRUB. Boot.ini to plik Windowsowy, który nie ma nic wspólnego z Linuxem. A bcdedit to narzędzie do konfiguracji Windows, więc też do Linuxa się nie nadaje. To dość powszechny błąd, że ludzie mieszają te różne systemy i ich metody bootowania. Każdy system ma swoje własne zasady, więc ważne jest, aby nie mieszać tych rzeczy, bo to może prowadzić do problemów z uruchomieniem. Także zawsze lepiej trzymać się odpowiednich narzędzi i plików konfiguracyjnych dla danego systemu.

Pytanie 36

Zgodnie z zamieszczonym cennikiem, średni koszt wyposażenia stanowiska komputerowego wynosi:

Nazwa sprzętuCena minimalnaCena maksymalna
Jednostka centralna1300,00 zł4550,00 zł
Monitor650,00 zł2000,00 zł
Klawiatura28,00 zł100,00 zł
Myszka22,00 zł50,00 zł
A. 2000,00 zł
B. 5000,50 zł
C. 6700,00 zł
D. 4350,00 zł
Poprawna odpowiedź wynika z policzenia średniej arytmetycznej z podanych w tabeli cen minimalnych i maksymalnych całego zestawu. Najpierw obliczamy koszt minimalny stanowiska: 1300 zł (jednostka centralna) + 650 zł (monitor) + 28 zł (klawiatura) + 22 zł (mysz) = 2000 zł. Potem koszt maksymalny: 4550 zł + 2000 zł + 100 zł + 50 zł = 6700 zł. Średni koszt to (2000 zł + 6700 zł) / 2 = 4350 zł. I to właśnie jest średni koszt wyposażenia jednego stanowiska komputerowego. W praktyce takie liczenie średniej ceny jest bardzo typowe przy planowaniu budżetu w firmie, szkole czy serwerowni. Administrator, który ma wyposażyć np. 15 stanowisk, często przyjmuje tego typu średni koszt jednostkowy, żeby oszacować całkowity wydatek, zanim wejdzie w szczegóły konkretnego modelu sprzętu. Moim zdaniem warto od razu wyrabiać w sobie nawyk rozdzielania kosztu minimalnego, maksymalnego i uśrednionego, bo to pomaga w rozmowach z klientem: można zaproponować wariant „oszczędny”, „średni” i „wydajny”. W branży IT przy wycenach zestawów komputerowych standardem jest właśnie podawanie widełek cenowych oraz średniej, żeby łatwiej było porównywać oferty. Tego typu proste obliczenia są też podstawą do późniejszego liczenia TCO (Total Cost of Ownership), czyli całkowitego kosztu posiadania stanowiska, gdzie dochodzą jeszcze koszty serwisu, energii, wymiany podzespołów itd. Jeżeli dobrze ogarniasz takie podstawowe rachunki, to potem dużo łatwiej przechodzisz do bardziej złożonych analiz kosztów infrastruktury IT.

Pytanie 37

Wynikiem przeprowadzenia polecenia arp -a 192.168.1.1 w systemie MS Windows jest pokazanie

A. sprawdzenia połączenia z komputerem o wskazanym IP
B. adresu MAC urządzenia o określonym IP
C. ustawień protokołu TCP/IP interfejsu sieciowego
D. listy bieżących połączeń sieciowych
Wybór odpowiedzi, które nie odnoszą się do adresu fizycznego urządzenia, wskazuje na nieporozumienie dotyczące funkcji i działania protokołu ARP. Ustawienia TCP/IP interfejsu sieciowego to zestaw konfiguracyjnych parametrów, takich jak adres IP, maska podsieci i brama domyślna, które definiują, jak urządzenie łączy się z siecią. To nie jest to, co zwraca polecenie arp -a, ponieważ to polecenie nie modyfikuje ani nie wyświetla tych ustawień. Z drugiej strony, lista aktywnych połączeń sieciowych zazwyczaj pochodzi z innych poleceń, takich jak netstat, które pokazują aktualnie otwarte połączenia i porty. Natomiast kontrola połączenia z komputerem o podanym IP to bardziej funkcjonalność polecenia ping, które sprawdza dostępność danego hosta w sieci. ARP działa na poziomie łącza danych w modelu OSI, co oznacza, że jego głównym celem jest rozwiązywanie adresów, a nie monitorowanie połączeń czy wyświetlanie ustawień. Typowym błędem jest mylenie różnych instrukcji sieciowych i ich funkcji, co może prowadzić do błędnych wniosków o tym, co dana komenda rzeczywiście wykonuje. Zrozumienie różnic między tymi narzędziami jest kluczowe dla efektywnego zarządzania siecią.

Pytanie 38

Jaki port na tylnym panelu płyty głównej jest w dokumentacji określany jako port zgodny z normą RS232C?

A. COM
B. PS/2
C. USB
D. LPT
Wybór portu LPT wskazuje na nieporozumienie dotyczące standardów komunikacyjnych. Port LPT, znany również jako port równoległy, był używany głównie do podłączania drukarek i nie ma związku z standardem RS232C. W przeciwieństwie do komunikacji szeregowej, porty równoległe przesyłają dane jednocześnie na wielu liniach, co umożliwia szybszą transmisję w porównaniu do portów szeregowych w niektórych zastosowaniach. Port PS/2, z kolei, jest używany do podłączania klawiatur i myszy, co również wyklucza go z kategorii portów szeregowych. USB to zmodernizowany standard, który zyskuje na popularności dzięki swojej wszechstronności i możliwości podłączania wielu typów urządzeń, ale nie jest bezpośrednio związany z RS232C. Zrozumienie różnic pomiędzy tymi portami jest kluczowe dla skutecznego projektowania systemów komputerowych, ponieważ błędny wybór złącza może prowadzić do problemów z komunikacją i kompatybilnością urządzeń. Ważne jest, aby przed podjęciem decyzji o wyborze portu, zrozumieć, jakie są jego właściwości i przeznaczenie oraz jak te aspekty wpływają na ogólną architekturę systemu.

Pytanie 39

Który z protokołów jest stosowany w procesie rozpoczęcia sesji VoIP?

A. MCGP
B. SDP
C. SIP
D. MIME
Protokół SIP (Session Initiation Protocol) jest kluczowym elementem w zakresie inicjacji i zarządzania sesjami VoIP (Voice over Internet Protocol). Jego głównym celem jest ustalenie, modyfikacja oraz zakończenie sesji multimedialnych, co obejmuje zarówno połączenia głosowe, jak i wideo. SIP działa na zasadzie zestawiania połączeń poprzez wymianę komunikatów, co pozwala na elastyczne zarządzanie sesjami. Protokół ten zyskał popularność ze względu na swoją prostotę oraz zdolność do integracji z różnymi typami urządzeń i aplikacji. Przykładowo, w praktyce SIP często współpracuje z protokołem SDP (Session Description Protocol), który zajmuje się określaniem parametrów sesji, takich jak kodeki i adresy IP. W branży telekomunikacyjnej SIP jest standardem uznawanym przez IETF (Internet Engineering Task Force) i jest szeroko stosowany w rozwiązaniach takich jak VoIP, telefonia IP oraz systemy komunikacji unifikowanej. Stosowanie SIP w organizacjach pozwala na efektywne zarządzanie połączeniami, co prowadzi do znaczącego obniżenia kosztów komunikacji.

Pytanie 40

W projekcie sieci komputerowej przewiduje się użycie fizycznych adresów kart sieciowych. Która warstwa modelu ISO/OSI odnosi się do tych adresów w komunikacji?

A. Prezentacji
B. Transportowa
C. Sesji
D. Łącza danych
Odpowiedź 'Łącza danych' jest poprawna, ponieważ warstwa łącza danych w modelu OSI odpowiada za bezpośrednią komunikację między urządzeniami w sieci lokalnej oraz za adresację sprzętową. W tej warstwie wykorzystywane są adresy MAC (Media Access Control), które są unikalnymi identyfikatorami przypisanymi do kart sieciowych. Warstwa ta zapewnia prawidłowe przesyłanie danych przez medium transmisyjne, zarządza dostępem do medium oraz wykrywa i koryguje błędy. Przykładem zastosowania tej warstwy jest Ethernet, który jest najpowszechniej stosowanym standardem w sieciach lokalnych. Ethernet wykorzystuje adresy MAC do kierowania ramkami danych do odpowiednich urządzeń, co pozwala na efektywne zarządzanie komunikacją w sieci. Dodatkowo, w kontekście standardów, protokoły takie jak IEEE 802.3 definiują zasady działania warstwy łącza danych. Zrozumienie tej warstwy jest kluczowe dla projektowania i implementacji sieci, co ma bezpośredni wpływ na wydajność i bezpieczeństwo komunikacji.