Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 11 maja 2026 08:48
  • Data zakończenia: 11 maja 2026 08:58

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie urządzenie należy wykorzystać w sieci Ethernet, aby zredukować liczbę kolizji pakietów?

A. Przełącznik
B. Bramkę VoIP
C. Regenerator
D. Koncentrator
Przełącznik (switch) to urządzenie sieciowe, które działa na poziomie drugiego poziomu modelu OSI (warstwa łącza danych) i ma za zadanie przekazywanie ramek danych między różnymi urządzeniami w sieci Ethernet. Główną zaletą przełączników jest ich zdolność do tworzenia osobnych domen kolizji. Oznacza to, że każdy port przełącznika może działać jako odrębny kanał komunikacyjny, co znacznie minimalizuje ryzyko kolizji pakietów. Dzięki temu, w sieciach z dużym ruchem, przełączniki umożliwiają równoczesne przesyłanie danych przez wiele urządzeń bez zakłóceń. Przełączniki wykorzystują adresy MAC do zarządzania ruchem, co pozwala na efektywne kierowanie danych do odpowiednich odbiorców. W praktyce, wdrożenie przełączników w sieciach lokalnych (LAN) jest standardową praktyką, a ich użycie jest zgodne z normami IEEE 802.3, które definiują standardy dla Ethernetu. Używając przełączników, administratorzy sieci mogą nie tylko zwiększyć wydajność sieci, ale także uprościć zarządzanie ruchem i poprawić bezpieczeństwo poprzez segmentację sieci.

Pytanie 2

Który z poniższych programów NIE służy do testowania sieci komputerowej w celu wykrywania problemów?

A. getfacl
B. nslookup
C. ping
D. traceroute
Traceroute, ping i nslookup to narzędzia, które pełnią kluczowe role w diagnostyce sieci komputerowych. Traceroute działa poprzez wysyłanie pakietów z rosnącym czasem życia (TTL), co pozwala na określenie trasy, jaką pokonują dane w sieci. Dzięki temu administratorzy mogą zidentyfikować problemy na konkretnych odcinkach sieci. Ping, z kolei, jest jednym z najprostszych narzędzi do testowania dostępności hostów w sieci. Wysyła on pakiety ICMP echo request i oczekuje na odpowiedzi, co pozwala na szybkie sprawdzenie, czy dany host jest osiągalny oraz oszacowanie czasu odpowiedzi. Nslookup jest narzędziem do zapytań DNS, które umożliwia sprawdzenie, jak adresy IP są powiązane z nazwami domen. Pozwala to na identyfikację problemów związanych z rozwiązywaniem nazw i komunikacją w sieci IP. Wybór getfacl jako narzędzia do testowania sieci jest zatem wynikiem mylnego zrozumienia jego funkcji. Zrozumienie różnicy pomiędzy narzędziami do zarządzania uprawnieniami a narzędziami sieciowymi jest kluczowe dla skutecznej diagnostyki i rozwiązywania problemów w infrastrukturze IT.

Pytanie 3

Na ilustracji zaprezentowano końcówkę kabla

Ilustracja do pytania
A. koncentrycznego
B. światłowodowego
C. rodzaju skrętka
D. telefonicznego
Zakończenie kabla przedstawionego na rysunku to typowe złącze światłowodowe SC czyli Subscriber Connector. Złącza te są standardem w instalacjach światłowodowych z uwagi na ich prostotę użycia i niezawodność. Kluczowym aspektem światłowodów jest ich zdolność do przesyłania danych na dużą odległość z minimalnymi stratami co jest nieosiągalne dla kabli miedzianych. Światłowody wykorzystują światło do przesyłania informacji co pozwala na uzyskanie znacznie większej przepustowości niż w przypadku tradycyjnych kabli. Złącza SC charakteryzują się mechanizmem wciskowym co ułatwia ich instalację i zapewnia stabilne połączenie. Są one powszechnie stosowane w telekomunikacji przesyłaniu danych i sieciach internetowych. Zastosowanie światłowodów w praktyce obejmuje zarówno sieci LAN jak i WAN oraz połączenia międzykontynentalne co czyni je kluczowym elementem infrastruktury teleinformatycznej. Dobór odpowiednich komponentów w tym złączy jest kluczowy dla zapewnienia jakości i niezawodności połączeń światłowodowych co jest istotne w kontekście dynamicznie rosnącego zapotrzebowania na szybki transfer danych.

Pytanie 4

W dokumentacji technicznej efektywność głośnika podłączonego do komputera wyraża się w jednostce

A. dB
B. kHz
C. W
D. J
Podczas analizy jednostek miary efektywności głośnika, ważne jest zrozumienie, że odpowiedzi J, W i kHz nie odnoszą się bezpośrednio do wydajności głośników. Joule (J) jest jednostką energii, a nie dźwięku, więc nie ma zastosowania w kontekście efektywności głośników podłączonych do komputera. Wat (W) z kolei mierzy moc, co również nie przekłada się bezpośrednio na efektywność głośnika, chociaż jest to istotny parametr, który może wpływać na maksymalny poziom głośności. Zrozumienie różnicy między mocą a efektywnością jest kluczowe dla dobrego doboru sprzętu audio. Kilohertz (kHz) mierzy częstotliwość, a zatem odnosi się do zakresu dźwięków, które głośnik może reprodukować, co jest innym wymiarem niż efektywność. Niezrozumienie tych podstawowych koncepcji prowadzi do błędnych wniosków dotyczących charakterystyki sprzętu audio, co może skutkować wyborami, które nie spełniają oczekiwań użytkownika. Wiedza na temat właściwych jednostek i miar jest niezbędna dla skutecznego doboru i oceny głośników w kontekście ich zastosowania w różnych warunkach dźwiękowych.

Pytanie 5

Która funkcja serwera Windows umożliwia użytkownikom końcowym sieci pokazanej na rysunku dostęp do Internetu?

Ilustracja do pytania
A. Usługa dzielenia
B. Usługa LDS
C. Usługa drukowania
D. Usługa rutingu
Usługa rutingu na serwerze Windows umożliwia przesyłanie danych między różnymi sieciami, co jest kluczowe dla zapewnienia użytkownikom dostępu do Internetu. Dzięki tej usłudze serwer działa jako router, który kieruje pakiety danych pomiędzy siecią lokalną a globalną siecią Internet. Ruting jest kluczowy w kontekście dużych sieci, w których konieczne jest zarządzanie ruchem sieciowym, zapewniając optymalną wydajność i bezpieczeństwo. Implementacja rutingu w Windows Server opiera się na protokołach takich jak RIP czy OSPF, które pomagają w dynamicznej aktualizacji tras. Administracja usługą rutingu obejmuje konfigurację interfejsów sieciowych, tabel routingu oraz polityk trasowania, co jest zgodne z najlepszymi praktykami branżowymi. Praktyczne zastosowanie takiej usługi obejmuje złożone sieci korporacyjne, gdzie kilka oddzielnych sieci LAN musi współdzielić wspólne połączenie do Internetu. Dzięki rutingowi nie tylko możliwe jest efektywne zarządzanie ruchem, ale także implementacja zaawansowanych funkcji takich jak NAT, które dodatkowo zwiększają bezpieczeństwo i elastyczność infrastruktury sieciowej. Wiedza o usługach rutingu pozwala inżynierom sieciowym projektować skalowalne i niezawodne sieci oparte na Windows Server.

Pytanie 6

W ramce przedstawiono treść jednego z plików w systemie operacyjnym MS Windows. Jest to plik

[boot loader]
Time out=30
Default=Multi(0)disk(0)rdisk(0)partition(1)WINDOWS
[operating system]
Multi(0)disk(0)rdisk(0)partition(1)WINDOWS="Microsoft Windows XP Home Edition"/
fastdetect/NoExecute=OptOut
A. dziennika, zawierający dane o zainstalowanych urządzeniach
B. wykonywalny, otwierający edytor rejestru systemowego
C. wsadowy, przeznaczony do uruchamiania instalatora
D. tekstowy, zawierający wykaz zainstalowanych systemów operacyjnych
Plik przedstawiony w ramce to plik "boot.ini" używany w starszych wersjach systemu operacyjnego Windows takich jak Windows XP i Windows 2000. Ten plik jest tekstowy, co oznacza, że można go edytować za pomocą standardowego edytora tekstu jak Notatnik. Plik ten zawiera listę zainstalowanych systemów operacyjnych, umożliwiając użytkownikowi wybór, który system ma zostać uruchomiony przy starcie komputera. Jest to kluczowy element w procesie startowym systemu, ponieważ definiuje ścieżki do plików systemowych potrzebnych do uruchomienia konkretnych wersji Windows. Dobrą praktyką jest, aby przed dokonaniem jakichkolwiek zmian w pliku "boot.ini", wykonać jego kopię zapasową, co pozwala na odzyskanie go w przypadku błędnej edycji. Zawartość takiego pliku może zawierać ważne informacje konfiguracyjne, jak timeout, czyli czas oczekiwania na wybór systemu, oraz domyślną ścieżkę do uruchamiania systemu. W kontekście bezpieczeństwa i stabilności systemu, prawidłowe zarządzanie plikami startowymi jest ważnym aspektem administracji IT i stanowi część profesjonalnych standardów zarządzania systemami operacyjnymi.

Pytanie 7

Polecenie tar w systemie Linux służy do

A. kompresji danych
B. porównywania danych z dwóch plików
C. wyszukiwania danych w pliku
D. archiwizacji danych
Polecenie tar w systemie Linux jest głównie używane do archiwizacji danych. Umożliwia tworzenie jednego pliku zawierającego wiele innych plików i katalogów, co jest szczególnie przydatne w celu ich przechowywania lub przenoszenia. Podczas archiwizacji, tar nie tylko łączy pliki, ale także zachowuje ich strukturę katalogów oraz metadane, takie jak daty modyfikacji i uprawnienia. Przykładowe zastosowanie to tworzenie kopii zapasowych danych przed ich modyfikacją lub migracją. Aby stworzyć archiwum, użytkownik może użyć polecenia `tar -cvf archiwum.tar /ścieżka/do/katalogu`, co utworzy plik `archiwum.tar`, a następnie można go rozpakować za pomocą `tar -xvf archiwum.tar`. W praktyce, tar często współpracuje z narzędziami do kompresji, takimi jak gzip, co pozwala na zmniejszenie rozmiaru archiwum. W branży informatycznej archiwizacja danych jest kluczowym aspektem strategii zarządzania danymi, zapewniającym ich integrację i bezpieczeństwo.

Pytanie 8

Na ilustracji zaprezentowano konfigurację urządzenia, co sugeruje, że

Ilustracja do pytania
A. wszystkie porty zostały przypisane do VLAN z ID48
B. powstały trzy nowe VLAN-y: ID1, ID13, ID48
C. utworzono dwa nowe VLAN-y: ID13, ID48
D. VLAN z ID48 został skonfigurowany jako zarządzalny
Prawidłowa odpowiedź wskazuje na utworzenie dwóch nowych VLAN-ów o ID 13 i 48. W sieciach komputerowych VLAN, czyli Virtual Local Area Network, umożliwia logiczne segmentowanie sieci na mniejsze, odizolowane segmenty, co zwiększa bezpieczeństwo i efektywność zarządzania ruchem. Na przedstawionym rysunku widać, że poza domyślnym VLAN-em o ID 1 skonfigurowano dwa dodatkowe VLAN-y. VLAN 13 obejmuje porty 1 i 3 jako nieoznakowane, co oznacza, że urządzenia podłączone do tych portów komunikują się w ramach tej samej domeny rozgłoszeniowej bez konieczności tagowania ramek. VLAN 48 obejmuje porty 2 oraz 4-18 w tym samym trybie. Dobra praktyka w zarządzaniu sieciami komputerowymi obejmuje używanie VLAN-ów do separacji ruchu np. dla różnych działów firmy co minimalizuje ryzyko związane z dostępem do danych oraz zwiększa przepustowość dzięki ograniczeniu zbędnych transmisji. Dodatkowo VLAN-y mogą być używane do wdrożenia polityk bezpieczeństwa takich jak separacja sieci IoT od sieci korporacyjnej aby zapobiec potencjalnym atakom.

Pytanie 9

Obudowa oraz wyświetlacz drukarki fotograficznej są bardzo brudne. Jakie środki należy zastosować, aby je wyczyścić?

A. suchej chusteczki oraz patyczków do czyszczenia
B. mokrej chusteczki oraz sprężonego powietrza z rurką zwiększającą zasięg
C. ściereczki nasączonej IPA oraz środka smarującego
D. wilgotnej ściereczki oraz pianki do czyszczenia plastiku
Wybór odpowiedzi oparty na suchej chusteczce oraz patyczkach do czyszczenia jest niewłaściwy, ponieważ może prowadzić do uszkodzenia delikatnych powierzchni. Suche chusteczki, szczególnie te, które nie są przeznaczone do elektroniki, mogą zawierać substancje chemiczne lub włókna, które mogą zarysować ekran i obudowę. Patyczki do czyszczenia również nie są zalecane, gdyż mogą zostawić włókna w trudno dostępnych miejscach lub zbyt mocno pocierać powierzchnię, co zwiększa ryzyko zarysowania. Zastosowanie ściereczek nasączonych IPA oraz środka smarującego może wydawać się sensowne, jednak alkohol izopropylowy, mimo że jest skuteczny w czyszczeniu, może uszkodzić niektóre elementy konstrukcyjne plastiku czy wyświetlacza, a stosowanie środka smarującego w tej sytuacji jest całkowicie nieadekwatne i może prowadzić do poważnych zanieczyszczeń oraz obniżenia jakości pracy urządzenia. Mokra chusteczka i sprężone powietrze z rurką również nie są odpowiednie, ponieważ sprężone powietrze może wnosić wilgoć do wnętrza urządzenia, a mokra chusteczka nie jest przeznaczona do czyszczenia elektroniki. Właściwe podejście do czyszczenia sprzętu fotograficznego wymaga zrozumienia, jakie materiały i metody są bezpieczne i skuteczne. Niezrozumienie różnicy między właściwymi a niewłaściwymi produktami do czyszczenia może prowadzić do uszkodzeń technicznych oraz skrócenia żywotności urządzenia.

Pytanie 10

Każdy następny router IP na ścieżce pakietu

A. podnosi wartość TTL przesyłanego pakietu o dwa
B. zmniejsza wartość TTL przekazywanego pakietu o jeden
C. obniża wartość TTL przesyłanego pakietu o dwa
D. zwiększa wartość TTL przesyłanego pakietu o jeden
Odpowiedź, że każdy kolejny router zmniejsza wartość TTL (Time to Live) pakietu o jeden, jest poprawna i opiera się na standardach protokołu IP. TTL jest polem w nagłówku pakietu, które określa maksymalną liczbę skoków (routerów), jakie pakiet może przejść w sieci, zanim zostanie odrzucony. Każdy router, który odbiera pakiet, zmniejsza jego TTL o jeden przed dalszym przekazaniem. Przykładowo, jeśli pakiet wychodzi z hosta z TTL ustawionym na 64, to po przetworzeniu przez pierwszy router jego wartość będzie wynosić 63, po drugim 62, i tak dalej. Taka praktyka zapewnia, że pakiety nie krążą w sieci w nieskończoność w przypadku wystąpienia pętli routingu, co mogłoby prowadzić do przeciążenia sieci. Zmniejszanie TTL jest kluczowe w zarządzaniu ruchem sieciowym oraz w diagnostyce, co widać w narzędziach takich jak traceroute, które pokazują ścieżkę pakietów przez sieć, opierając się na wartościach TTL.

Pytanie 11

Co może być przyczyną problemów z wydrukiem z drukarki laserowej przedstawionych na ilustracji?

Ilustracja do pytania
A. uszkodzony bęben światłoczuły
B. sprawny podajnik
C. wyschnięty tusz
D. brak tonera w kartridżu
Uszkodzony bęben światłoczuły w drukarce laserowej może prowadzić do powtarzających się wzorów lub smug na wydruku takich jak te widoczne na załączonym rysunku. Bęben światłoczuły jest kluczowym elementem drukarki odpowiedzialnym za przenoszenie tonera na papier. Jego powierzchnia musi być idealnie gładka i równomiernie naelektryzowana aby toner mógł być dokładnie przeniesiony. Jeśli bęben jest uszkodzony lub ma defekty te mogą powodować niejednolity transfer tonera co skutkuje powtarzalnymi defektami na wydruku. Takie uszkodzenia mogą być spowodowane przez zużycie mechaniczne cząstki zanieczyszczeń lub nieodpowiednie przechowywanie. W praktyce zaleca się regularne czyszczenie i konserwację drukarki a w przypadku zauważenia problemów szybkie sprawdzenie stanu bębna. Standardy branżowe rekomendują również korzystanie z oryginalnych materiałów eksploatacyjnych co może znacznie wydłużyć żywotność bębna i poprawić jakość wydruków. Wiedza o tym jak działa bęben światłoczuły i jakie są symptomy jego uszkodzeń pozwala na skuteczniejsze diagnozowanie problemów i lepszą konserwację urządzeń biurowych.

Pytanie 12

Element oznaczony cyfrą 1 na diagramie blokowym karty graficznej?

Ilustracja do pytania
A. zawiera matrycę znaków w trybie tekstowym
B. generuje sygnał RGB na wyjściu karty graficznej
C. przechowuje dane wyświetlane w trybie graficznym
D. konwertuje sygnał cyfrowy na analogowy
Odpowiedź jest poprawna ponieważ element oznaczony numerem 1 na schemacie blokowym karty graficznej odpowiada za przechowywanie matrycy znaków trybu tekstowego. W kartach graficznych tryb tekstowy jest jednym z podstawowych trybów wyświetlania umożliwiającym wyświetlanie tekstu za pomocą predefiniowanych zestawów znaków. Tego typu rozwiązania są przydatne w aplikacjach, które wymagają wyświetlania dużych ilości tekstu z minimalnym zużyciem zasobów systemowych np. w interfejsach systemów operacyjnych lub konsolach serwerowych. Matryca znaków jest przechowywana w pamięci typu ROM lub RAM co pozwala na szybkie i efektywne odczytywanie danych oraz ich prezentację na ekranie. W zależności od zestandaryzowanych kodów znaków np. ASCII matryce te są wykorzystywane w różnych systemach komputerowych. Zarządzanie matrycą znaków zgodnie z normami ISO i ECMA zapewnia zgodność z międzynarodowymi standardami co jest kluczowe w kontekście interoperacyjności systemów. Współczesne karty graficzne nadal wspierają tryb tekstowy ze względu na jego szybkość i niskie wymagania sprzętowe co czyni go niezastąpionym w wielu zastosowaniach technicznych.

Pytanie 13

Na ilustracji ukazano sieć o układzie

Ilustracja do pytania
A. siatki
B. gwiazdy
C. drzewa
D. magistrali
Topologia magistrali to jeden z fundamentalnych modeli organizacji sieci komputerowej polegający na podłączeniu wszystkich urządzeń do jednego wspólnego medium transmisyjnego. W praktyce oznacza to, że urządzenia takie jak komputery czy drukarki są podłączone do wspólnej linii kablowej. Taka konfiguracja charakteryzuje się prostotą i niskimi kosztami implementacji ze względu na mniejszą ilość kabli wymaganych do połączenia wszystkich urządzeń. Jednakże, w przypadku awarii kabla lub jednego z urządzeń, cała sieć może przestać działać. Magistrala jest często wykorzystywana w mniejszych sieciach lokalnych czy w środowiskach edukacyjnych, gdzie koszty są kluczowe. W takich przypadkach stosuje się zazwyczaj kable koncentryczne. Zaletą tego rozwiązania jest łatwość rozbudowy sieci poprzez dodanie nowych urządzeń, choć należy pamiętać o ograniczeniach związanych z odległością i liczbą urządzeń. Topologia ta, choć mniej popularna w nowoczesnych sieciach, była kluczowa w rozwoju technologii sieciowych i stanowi podstawę zrozumienia bardziej zaawansowanych konfiguracji jak topologia gwiazdy czy siatki.

Pytanie 14

Najwyższą prędkość transmisji danych w sieci bezprzewodowej zapewnia standard

A. 802.11a
B. 802.11b
C. 802.11g
D. 802.11n
Standard 802.11n, wprowadzony w 2009 roku, jest jedną z najważniejszych aktualizacji w rodzinie standardów Wi-Fi. Oferuje on maksymalną teoretyczną przepustowość do 600 Mbps, co czyni go znacznie szybszym niż wcześniejsze standardy, takie jak 802.11a, 802.11g czy 802.11b. W praktyce wykorzystuje technologię MIMO (Multiple Input Multiple Output), która pozwala na jednoczesne przesyłanie i odbieranie kilku strumieni danych, co zwiększa efektywność i niezawodność transmisji. Standard 802.11n jest szczególnie użyteczny w środowiskach o dużym natężeniu ruchu danych, takich jak biura, szkoły czy domy, gdzie wiele urządzeń korzysta z sieci jednocześnie. Jego wszechstronność sprawia, że jest odpowiedni do różnych zastosowań, od przesyłania strumieniowego wideo w wysokiej rozdzielczości po gry online, co przekłada się na lepsze doświadczenia użytkowników. Ponadto, standard ten wspiera także backward compatibility, co oznacza, że może współpracować z urządzeniami działającymi na wcześniejszych wersjach standardów.

Pytanie 15

Funkcja systemu operacyjnego, która umożliwia jednoczesne uruchamianie wielu aplikacji w trybie podziału czasu, z tym że realizacja tego podziału odbywa się przez same aplikacje, nosi nazwę

A. wielodostępowości
B. wielozadaniowości kooperatywnej
C. wielozadaniowości z wywłaszczeniem
D. wieloprogramowości
Wielozadaniowość kooperatywna to technika, która pozwala aplikacjom współdzielić czas procesora, przy czym odpowiedzialność za przełączanie kontekstu pomiędzy zadaniami spoczywa na samych aplikacjach. Oznacza to, że aplikacje muszą dobrowolnie oddać kontrolę nad procesorem, co pozwala innym aplikacjom na wykonanie swoich zadań. Systemy operacyjne, takie jak Windows w starszych wersjach, stosowały ten model, gdzie aplikacje były odpowiedzialne za zarządzanie własnym czasem pracy. Przykładem zastosowania wielozadaniowości kooperatywnej może być sytuacja, w której program edytorski i odtwarzacz multimedialny współdzielą zasoby, a edytor musi zakończyć swoje operacje, aby umożliwić odtwarzaczowi dostęp do procesora. Warto zauważyć, że w praktyce ten model może prowadzić do problemów, gdy jedna aplikacja nie oddaje kontroli, co może zamrozić system. Dlatego w nowoczesnych systemach operacyjnych, takich jak Linux czy Windows 10, częściej stosuje się podejście z wywłaszczeniem, które jest bardziej efektywne w zarządzaniu zasobami systemowymi.

Pytanie 16

Na fotografii ukazana jest pamięć o 168 stykach

Ilustracja do pytania
A. SDRAM
B. SIPP
C. RIMM
D. SIMM
SDRAM czyli Synchronous Dynamic Random Access Memory to typ pamięci RAM, który jest zsynchronizowany z zegarem systemowym co pozwala na bardziej efektywną i szybszą komunikację z procesorem. Pamięć SDRAM jest powszechnie stosowana w komputerach osobistych od końca lat 90-tych ze względu na swoje zalety w zakresie wydajności. Typowo SDRAM jest podzielona na wiersze i kolumny co umożliwia jednoczesny dostęp do wielu miejsc w pamięci co znacznie przyspiesza procesy odczytu i zapisu danych. 168-stykowe moduły SDRAM są zazwyczaj używane w standardowych komputerach typu PC. Moduły te oferują przepustowość wystarczającą do obsługi większości aplikacji biurowych i multimedialnych z tamtych lat. Zgodność ze standardami SDRAM jest również kluczowa ponieważ zapewnia współdziałanie z różnymi platformami sprzętowymi. Warto również zauważyć że pamięci SDRAM były kluczowym elementem w przejściu na szybsze technologie takie jak DDR pamięci RAM co z kolei wpłynęło na ogólną poprawę wydajności komputerów.

Pytanie 17

Narzędziem wykorzystywanym do diagnozowania połączeń między komputerami w systemie Windows jest

A. route
B. ping
C. ipconfig
D. traceroute
Odpowiedź 'ping' jest poprawna, ponieważ jest to podstawowe narzędzie diagnostyczne wykorzystywane do sprawdzania dostępności hostów w sieci IP. Ping działa na zasadzie wysyłania pakietów ICMP Echo Request do danego adresu IP i oczekiwania na odpowiedź w postaci ICMP Echo Reply. Dzięki temu administratorzy sieci mogą szybko ocenić, czy dany host jest osiągalny, a także zmierzyć czas odpowiedzi, co jest istotne w diagnostyce opóźnień sieciowych. Przykładowo, jeśli próbujesz nawiązać połączenie z serwerem i otrzymujesz odpowiedź ping, oznacza to, że serwer jest aktywny i dostępny w sieci. Narzędzie to jest powszechnie stosowane w praktykach monitorowania sieci oraz rozwiązywania problemów z połączeniami sieciowymi. Warto również dodać, że ping może być używane w różnych systemach operacyjnych, nie tylko w Windows, co czyni je wszechstronnym narzędziem w arsenale każdego specjalisty IT. Używanie ping jako pierwszego kroku w diagnostyce sieci jest zgodne z najlepszymi praktykami branżowymi, co podkreśla jego znaczenie w codziennej pracy administracyjnej.

Pytanie 18

Aby podłączyć stację roboczą z zainstalowanym systemem Windows do domeny zst.local należy

Ilustracja do pytania
A. ustawić nazwę komputera oraz w polu Grupa robocza wpisać zst.local
B. ustawić nazwę komputera oraz w polu Domena wpisać zst.local
C. jedynie w polu Domena wpisać zst.local
D. jedynie w polu Sufiks podstawowej domeny DNS tego komputera wpisać zst.local
W tym zagadnieniu łatwo pomylić kilka pojęć konfiguracyjnych w Windows: grupę roboczą, domenę Active Directory oraz sufiks DNS. Wszystkie te elementy pojawiają się w podobnych oknach, ale ich rola jest zupełnie inna. Wpisanie zst.local tylko w polu „Domena” bez przemyślenia nazwy komputera teoretycznie może zadziałać, ale w praktyce jest to podejście niezgodne z dobrymi praktykami administracyjnymi. Nazwa komputera powinna być świadomie nadana przed dołączeniem do domeny, żeby w Active Directory i DNS od razu pojawił się poprawny, docelowy identyfikator stacji. Odpowiedź oparta na polu „Grupa robocza” wynika z częstego nieporozumienia: wielu osobom wydaje się, że grupa robocza to to samo co domena, tylko „mniejsza”. Tymczasem grupa robocza to luźne powiązanie komputerów w sieci równorzędnej (peer‑to‑peer), bez centralnego kontrolera, bez Active Directory, bez scentralizowanego logowania i polityk GPO. Wpisanie zst.local jako nazwy grupy roboczej w ogóle nie spowoduje dołączenia do domeny – komputer nadal będzie samodzielnym hostem, autoryzacja użytkowników będzie lokalna, a kontroler domeny nawet nie zostanie zapytany o cokolwiek. Jeszcze inny błąd myślowy dotyczy sufiksu podstawowej domeny DNS. To ustawienie wpływa głównie na sposób rozwiązywania nazw (czyli jak system dokleja domenę do krótkich nazw hostów), ale samo w sobie nie rejestruje komputera w Active Directory. Można mieć poprawnie ustawiony sufiks DNS zst.local, a jednocześnie w ogóle nie być członkiem domeny – wtedy logowanie domenowe, GPO czy centralne zarządzanie po prostu nie zadziałają. Typowym źródłem pomyłek jest przekonanie, że skoro domena AD używa DNS, to wystarczy wszędzie wpisać ten sam ciąg znaków i system „sam się domyśli”. Niestety tak to nie działa. Dołączenie do domeny to proces uwierzytelniony: wymaga kontaktu z kontrolerem domeny, sprawdzenia uprawnień, utworzenia lub powiązania konta komputera w katalogu, negocjacji zabezpieczeń (Kerberos/NTLM). Dopiero wybranie opcji „Domena”, wpisanie nazwy domeny oraz poprawnie ustawiona nazwa komputera powodują, że stacja robocza staje się pełnoprawnym członkiem środowiska domenowego i może korzystać z wszystkich mechanizmów zarządzania przewidzianych w architekturze Windows.

Pytanie 19

Aby skaner działał prawidłowo, co należy zrobić?

A. sprawdzać temperaturę podzespołów komputera
B. smarować łożyska wentylatorów chłodzenia jednostki centralnej
C. posiadać zainstalowany program antywirusowy w systemie
D. nie wkładać kartek z zszywkami do podajnika urządzenia, jeśli jest automatyczny
Wybór odpowiedzi dotyczącej nie wkładania kartek ze zszywkami do podajnika automatycznego skanera jest kluczowy dla zapewnienia właściwego funkcjonowania tego urządzenia. Zszywki mogą powodować zacięcia i uszkodzenia mechaniczne, co prowadzi do problemów z wydajnością oraz zwiększa koszty serwisowania. W standardach branżowych zaleca się używanie papieru wolnego od zszywek, ponieważ większość skanerów, szczególnie te z automatycznymi podajnikami, nie jest przystosowanych do obsługi dokumentów z metalowymi elementami. Praktycznym przykładem jest sytuacja, gdy użytkownik skanuje dokumenty biurowe - wprowadzenie kartek ze zszywkami może spowodować awarię, która wymaga czasochłonnej naprawy. Dobrą praktyką jest również regularne przeszkolenie personelu z zasad prawidłowego użytkowania sprzętu, co znacząco wpływa na jego żywotność i efektywność.

Pytanie 20

Jaka usługa musi być aktywna na serwerze, aby stacja robocza mogła automatycznie uzyskać adres IP?

A. DHCP
B. PROXY
C. WINS
D. DNS
Usługa DHCP (Dynamic Host Configuration Protocol) jest kluczowym elementem w zarządzaniu adresami IP w sieciach komputerowych. Jej głównym zadaniem jest automatyczne przydzielanie dynamicznych adresów IP stacjom roboczym oraz innym urządzeniom podłączonym do sieci. Gdy stacja robocza łączy się z siecią, wysyła zapytanie DHCPDISCOVER w celu identyfikacji dostępnych serwerów DHCP. Serwer odpowiada, wysyłając ofertę DHCPOFFER, która zawiera adres IP oraz inne istotne informacje konfiguracyjne, takie jak maska podsieci, brama domyślna i serwery DNS. Po otrzymaniu oferty stacja robocza wysyła żądanie DHCPREQUEST, co finalizuje proces poprzez potwierdzenie przyznania adresu IP. Praktyczne zastosowanie DHCP znacznie upraszcza zarządzanie dużymi sieciami, eliminując potrzebę ręcznego przypisywania adresów IP oraz minimalizując ryzyko konfliktów adresów. Standardy związane z DHCP są określone w dokumentach IETF RFC 2131 i RFC 2132, które definiują sposób działania tego protokołu oraz jego parametry.

Pytanie 21

Karta sieciowa przedstawiona na ilustracji jest w stanie przesyłać dane z maksymalną szybkością

Ilustracja do pytania
A. 54 Mb/s
B. 300 Mb/s
C. 11 Mb/s
D. 108 Mb/s
Odpowiedź 54 Mb/s jest poprawna, ponieważ karta sieciowa widoczna na rysunku obsługuje standard IEEE 802.11g. Standard ten, wprowadzony w 2003 roku, został zaprojektowany, aby zapewnić maksymalną przepustowość wynoszącą właśnie 54 Mb/s. To znaczne usprawnienie w stosunku do wcześniejszego standardu 802.11b, który oferował prędkość do 11 Mb/s. Standard 802.11g działa na częstotliwości 2.4 GHz, co umożliwia kompatybilność wsteczną z urządzeniami 802.11b. Dzięki temu starsze urządzenia mogą nadal komunikować się w sieci, choć z niższą prędkością. Karty sieciowe 802.11g były popularne w wielu gospodarstwach domowych i biurach, umożliwiając szybkie surfowanie po internecie, przesyłanie plików oraz korzystanie z multimediów strumieniowych. Mimo że współczesne technologie, takie jak 802.11n czy 802.11ac, oferują dużo wyższe prędkości, standard 802.11g był ważnym krokiem w ewolucji sieci bezprzewodowych. Znajomość tego standardu jest istotna dla zrozumienia rozwoju technologii Wi-Fi i zarządzania starszymi urządzeniami w sieciach mieszanych.

Pytanie 22

Na podstawie przedstawionej na ilustracji konfiguracji, w przypadku, gdy komputer żąda połączenia z inną siecią, w pierwszej kolejności dane zostaną wysłane do urządzenia o adresie

Ilustracja do pytania
A. 192.168.0.5
B. 10.100.1.232
C. 10.100.1.200
D. 192.168.0.254
Klucz do tego zadania leży w zrozumieniu roli bramy domyślnej i metryki w tablicy routingu. Wiele osób patrzy najpierw na adresy IP hostów i trochę intuicyjnie zakłada, że skoro komputer ma adres 192.168.0.5, to właśnie ten adres będzie „pierwszym” punktem wyjścia. Tymczasem adres 192.168.0.5 to po prostu adres samej karty sieciowej komputera, czyli źródło ruchu, a nie urządzenie, do którego on coś wysyła. Komputer nie może wysłać pakietów do innej sieci „do samego siebie” – on musi mieć wskazane urządzenie pośredniczące, czyli router lub inne urządzenie pełniące funkcję bramy. W podobny sposób mylący bywa adres 10.100.1.232. To również jest adres przypisany do interfejsu komputera (druga konfiguracja IP na tej samej karcie). Taki host z dwoma adresami IP może jednocześnie pracować w dwóch różnych podsieciach, co bywa przydatne np. przy migracjach sieci albo w środowiskach testowych. Jednak nadal są to adresy lokalne komputera, a nie docelowy punkt, do którego pakiety mają być wysyłane, gdy trzeba dotrzeć do zupełnie innych sieci. Adres 10.100.1.200 wygląda bardziej jak typowy adres routera i faktycznie w oknie konfiguracji widać go w sekcji „Bramy domyślne”. Problem polega na tym, że w systemach takich jak Windows, przy kilku bramach domyślnych wykorzystywana jest metryka, która określa priorytet. Niższa metryka oznacza wyższy priorytet. Tutaj 10.100.1.200 ma metrykę 2, a więc jest trasą mniej preferowaną, potencjalnie zapasową. Typowy błąd myślowy polega na tym, że ktoś patrzy tylko na sam fakt istnienia bramy, ignorując metrykę albo zakładając, że „nowszy” lub „bardziej rozbudowany” adres będzie użyty w pierwszej kolejności. W praktyce stosuje się zasadę, że przy wielu możliwych trasach zawsze wybierana jest ta o najniższym koszcie, czyli o najniższej metryce. Z mojego doświadczenia w sieciach firmowych takie pomyłki prowadzą później do trudnych do zdiagnozowania problemów: ruch idzie nie tą bramą, co trzeba, VPN działa raz przez jedno łącze, raz przez drugie, a użytkownik ma wrażenie, że „Internet raz jest, raz go nie ma”. Dlatego w konfiguracji IP warto zawsze patrzeć całościowo: które adresy są adresami hosta, które są bramami i jakie mają metryki. Dopiero wtedy widać, którędy realnie popłynie ruch do innych sieci.

Pytanie 23

Jakiego rodzaju adresację stosuje protokół IPv6?

A. 64-bitową
B. 128-bitową
C. 256-bitową
D. 32-bitową
Protokół IPv6 stosuje adresację 128-bitową, co jest znaczącym ulepszeniem w porównaniu do 32-bitowej adresacji IPv4. Dzięki temu możliwe jest przydzielenie ogromnej liczby unikalnych adresów IP, co jest niezbędne przy rosnącej liczbie urządzeń podłączonych do Internetu. W praktyce oznacza to, że IPv6 może obsłużyć około 340 undecylionów (3.4 x 10³⁸) adresów, co praktycznie eliminuje ryzyko wyczerpania się dostępnej przestrzeni adresowej. Wprowadzenie 128-bitowej adresacji pozwala także na lepsze wsparcie dla mobilności, autokonfiguracji i bezpieczeństwa sieciowego dzięki wbudowanym funkcjom, takim jak IPSec. W kontekście administracji i eksploatacji systemów komputerowych, znajomość i umiejętność zarządzania IPv6 jest kluczowa, ponieważ coraz więcej sieci przechodzi na ten protokół, aby sprostać wymaganiom nowoczesnych technologii i liczby urządzeń IoT.

Pytanie 24

Na zdjęciu widać kartę

Ilustracja do pytania
A. sieciową z interfejsem ISA
B. telewizyjną z interfejsem ISA
C. dźwiękową z interfejsem PCI
D. telewizyjną z interfejsem PCI
Karta telewizyjna ze złączem PCI jest urządzeniem pozwalającym komputerowi odbierać sygnał telewizyjny. Złącze PCI (Peripheral Component Interconnect) jest standardem stosowanym do łączenia urządzeń dodatkowych z płytą główną komputera. Karty telewizyjne umożliwiają oglądanie telewizji na ekranie komputera, a także nagrywanie programów telewizyjnych. Ten rodzaj kart jest szczególnie użyteczny w sytuacjach, gdzie wymagane jest oglądanie telewizji w miejscach, gdzie nie ma dostępu do tradycyjnego odbiornika. Karty te obsługują różne standardy nadawania takie jak NTSC, PAL i SECAM, co pozwala na ich szerokie zastosowanie w różnych regionach geograficznych. Wykorzystanie złącza PCI zapewnia większą przepustowość danych oraz możliwość instalacji w większości komputerów osobistych. Instalowanie i konfigurowanie karty telewizyjnej wymaga zrozumienia specyfikacji sprzętowej oraz kompatybilności z systemem operacyjnym. Dzięki zastosowaniu standardowych złączy, takich jak PCI, użytkownik ma możliwość łatwej wymiany kart na nowsze wersje, co jest zgodne z dobrymi praktykami modernizacji sprzętu komputerowego. Zastosowanie karty telewizyjnej w komputerze osobistym jest także przykładem integracji multimediów w jedno urządzenie, co zwiększa jego funkcjonalność i wszechstronność zastosowań.

Pytanie 25

Jakie oprogramowanie dostarcza najwięcej informacji diagnostycznych na temat procesora CPU?

A. Memtest86+
B. HWiNFO
C. GPU-Z
D. HD Tune
HWiNFO to zaawansowane narzędzie diagnostyczne, które dostarcza szczegółowych informacji o sprzęcie komputerowym, w tym o procesorze CPU. Program ten umożliwia monitorowanie parametrów pracy procesora, takich jak temperatura, obciążenie, napięcia oraz prędkość zegara. HWiNFO obsługuje wiele różnych platform sprzętowych i jest często wykorzystywane przez profesjonalistów w dziedzinie IT oraz entuzjastów komputerowych. Dzięki jego funkcjom, użytkownicy mogą szybko zidentyfikować potencjalne problemy z wydajnością, co pozwala na ich szybsze rozwiązanie. Na przykład, w przypadku przegrzewania się procesora, HWiNFO może wskazać, czy jest to spowodowane zbyt wysokim obciążeniem lub niewystarczającym chłodzeniem. Dodatkowo, HWiNFO dostarcza informacji o temperaturach innych komponentów systemowych, co jest kluczowe dla utrzymania stabilności i wydajności całego systemu. W kontekście standardów branżowych, HWiNFO spełnia wymagania profesjonalnego monitorowania i diagnostyki, co czyni go zaufanym narzędziem w wielu zastosowaniach, od diagnostyki po tunning komputerów.

Pytanie 26

W technologii Ethernet 100Base-TX do przesyłania danych używane są żyły kabla UTP podłączone do pinów:

A. 1,2,3,6
B. 1,2,5,6
C. 1,2,3,4
D. 4,5,6,7
Odpowiedź 1,2,3,6 jest poprawna, ponieważ w standardzie Ethernet 100Base-TX do transmisji danych wykorzystywane są cztery żyły kabla UTP, które są przypisane do odpowiednich pinów w złączu RJ45. W przypadku 100Base-TX, zdefiniowane są następujące pary żył: para A (żyła 1 i 2) oraz para B (żyła 3 i 6). Użycie pary 1-2 do transmisji oraz pary 3-6 do odbioru umożliwia pełnodupleksową transmisję, co oznacza, że dane mogą być przesyłane i odbierane jednocześnie. Standard ten jest zgodny z normą IEEE 802.3u, która definiuje specyfikacje dla różnych prędkości Ethernet, w tym 100 Mbps. W praktyce, zastosowanie 100Base-TX jest szerokie, obejmując sieci lokalne (LAN) w biurach, szkołach oraz innych instytucjach, gdzie wymagana jest stabilna i szybka komunikacja. Przykładem może być podłączenie komputerów do switchów, gdzie każde urządzenie korzysta z odpowiednich pinów w złączach RJ45, co zapewnia optymalną wydajność sieci.

Pytanie 27

W sieci o adresie 192.168.20.0 użyto maski podsieci 255.255.255.248. Jak wiele adresów IP będzie dostępnych dla urządzeń?

A. 510
B. 14
C. 1022
D. 6
Odpowiedź 6 jest poprawna ze względu na zastosowanie maski podsieci 255.255.255.248, co oznacza, że używamy 3 bitów do identyfikacji hostów w danej podsieci. Maska ta pozwala na utworzenie 2^3 = 8 adresów IP w danej podsieci. Jednakże, z tych 8 adresów, jeden jest zarezerwowany jako adres sieciowy (192.168.20.0), a drugi jako adres rozgłoszeniowy (192.168.20.7). Zatem, liczba dostępnych adresów IP dla urządzeń w tej podsieci wynosi 8 - 2 = 6. Dla praktyki, taka konfiguracja jest często stosowana w małych sieciach, gdzie potrzebujemy ograniczonej liczby adresów IP dla urządzeń, a jednocześnie zachowujemy prostotę zarządzania i bezpieczeństwo. Warto zauważyć, że zgodnie z zasadami IPv4, efektywne planowanie adresów IP jest kluczowe dla optymalizacji wydajności sieci. W praktyce, wykorzystanie maski 255.255.255.248 jest dobrym przykładem na to, jak można zminimalizować marnotrawstwo adresów IP w małych sieciach.

Pytanie 28

Jak określamy atak na sieć komputerową, który polega na łapaniu pakietów przesyłanych w sieci?

A. Nasłuchiwanie
B. Spoofing
C. ICMP echo
D. Skanowanie sieci
Skanowanie sieci to technika, która polega na analizowaniu dostępnych urządzeń i ich otwartych portów w celu zrozumienia struktury sieci. Choć skanowanie może być częścią większej strategii oceny bezpieczeństwa, nie jest to technika ataku na przechwytywanie danych. W rzeczywistości, skanowanie jest często wykorzystywane do identyfikacji potencjalnych luk w zabezpieczeniach, co różni się od nasłuchiwania, które koncentruje się na aktywnym odbiorze danych. ICMP echo, znany bardziej jako ping, to protokół używany do sprawdzania dostępności hostów w sieci, a nie do przechwytywania danych. Użycie ICMP echo w kontekście ataku jest mylące, ponieważ jego celem jest jedynie diagnostyka sieciowa, a nie monitorowanie ruchu. Spoofing natomiast odnosi się do techniki, w której atakujący podszywa się pod inny adres IP w celu oszukania systemów zabezpieczeń. Chociaż spoofing może być używany jako część ataku, nie jest bezpośrednio związany z przechwytywaniem pakietów. Bardzo ważne jest zrozumienie, że pomylenie tych pojęć może prowadzić do niewłaściwego projektowania strategii bezpieczeństwa, co zwiększa podatność na rzeczywiste ataki. Właściwe rozróżnienie terminów i technik jest kluczowe w budowaniu efektywnego systemu obrony przed zagrożeniami w sieciach komputerowych.

Pytanie 29

Jak nazywa się protokół warstwy transportowej modelu TCP/IP, który nie gwarantuje dostarczenia danych?

A. UDP
B. DNS
C. SPX
D. FTP
W tym zadaniu kluczowe jest poprawne skojarzenie warstwy transportowej modelu TCP/IP z konkretnymi protokołami oraz zrozumienie, które z nich gwarantują dostarczenie danych, a które działają w trybie „bez gwarancji”. W modelu TCP/IP warstwa transportowa to przede wszystkim dwa podstawowe protokoły: TCP oraz UDP. TCP jest połączeniowy, zapewnia niezawodność, kontrolę kolejności segmentów, retransmisję i kontrolę przeciążenia. UDP natomiast jest bezpołączeniowy, nie potwierdza odbioru, nie retransmituje utraconych datagramów i właśnie dlatego mówi się, że nie gwarantuje dostarczenia danych. To jest fundament, który przewija się w praktycznie każdym kursie z sieci komputerowych. Częsty błąd polega na mieszaniu protokołów transportowych z aplikacyjnymi. FTP służy do przesyłania plików, ale działa w warstwie aplikacji i korzysta z TCP jako warstwy transportowej. Sam FTP nie jest protokołem transportowym, tylko usługą, która używa niezawodnego kanału TCP. Podobnie DNS to protokół aplikacyjny odpowiedzialny za tłumaczenie nazw domenowych na adresy IP. Co ciekawe, DNS bardzo często korzysta właśnie z UDP jako warstwy transportowej (port 53/UDP), ale sam w sobie nadal nie jest protokołem transportowym. To rozróżnienie: warstwa aplikacji vs warstwa transportowa, bywa w technikach trochę mylone, zwłaszcza gdy patrzy się tylko na numery portów. SPX z kolei historycznie był protokołem transportowym, ale w stosie IPX/SPX firmy Novell, a nie w modelu TCP/IP. W dodatku SPX zapewniał połączeniową, niezawodną komunikację, bardziej podobną w zachowaniu do TCP niż do UDP. Dlatego wybór SPX jako odpowiedzi jest podwójnie mylący: ani nie należy do stosu TCP/IP, ani nie jest protokołem „bez gwarancji dostarczenia”. Moim zdaniem warto sobie poukładać w głowie, że w klasycznym TCP/IP, gdy pada pytanie o brak gwarancji dostarczenia w warstwie transportowej, właściwie zawsze chodzi o UDP. Reszta wymienionych nazw to albo protokoły aplikacyjne, albo elementy zupełnie innego stosu sieciowego.

Pytanie 30

Jakiego rodzaju fizyczna topologia sieci komputerowej jest zobrazowana na rysunku?

Ilustracja do pytania
A. Topologia pełnej siatki
B. Połączenie Punkt-Punkt
C. Siatka częściowa
D. Topologia gwiazdowa
Topologia pełnej siatki jest jedną z najbardziej niezawodnych fizycznych topologii sieci komputerowych. W tym modelu każdy komputer jest połączony bezpośrednio z każdym innym komputerem, co daje najwyższy poziom redundancji i minimalizuje ryzyko awarii sieci. Dzięki temu, nawet jeśli jedno z połączeń zostanie przerwane, dane mogą być przesyłane innymi ścieżkami, co zapewnia ciągłość działania sieci. Taki układ znajduje zastosowanie w krytycznych systemach, takich jak sieci bankowe czy infrastruktura lotniskowa, gdzie niezawodność jest kluczowa. Zgodnie ze standardami branżowymi, pełna siatka jest uważana za wysoce odporną na awarie, choć koszty implementacji mogą być wysokie z powodu dużej liczby wymaganych połączeń. W praktyce, pełna siatka może być używana w segmentach sieci, które wymagają wysokiej przepustowości i niskiej latencji, jak centra danych lub systemy o wysokiej dostępności. Takie podejście zapewnia również równomierne obciążenie sieci, co jest zgodne z najlepszymi praktykami w projektowaniu niezawodnych systemów informatycznych.

Pytanie 31

W interfejsie graficznym systemów Ubuntu lub SuSE Linux, aby zainstalować aktualizacje programów systemowych, można zastosować aplikacje

A. Pocket lub Dolphin
B. Chromium lub XyGrib
C. Synaptic lub YaST
D. Shutter lub J-Pilot
Odpowiedź 'Synaptic lub YaST' jest poprawna, ponieważ oba te programy są dedykowane do zarządzania oprogramowaniem w systemach Linux, w tym Ubuntu i SuSE Linux. Synaptic to graficzny menedżer pakietów, który pozwala użytkownikom na przeglądanie, instalowanie i usuwanie aplikacji oraz aktualizacji w sposób przyjazny dla użytkownika. Umożliwia on korzystanie z repozytoriów oprogramowania, co jest zgodne z najlepszymi praktykami w zakresie zarządzania oprogramowaniem w systemach Linux. Z drugiej strony, YaST (Yet another Setup Tool) to wszechstronny narzędzie, które jest częścią dystrybucji SuSE i oferuje funkcje administracyjne, w tym zarządzanie pakietami, konfigurację systemu oraz ustawienia sprzętowe. Oba narzędzia wspierają użytkowników w utrzymaniu aktualności systemu operacyjnego, co jest kluczowe dla zapewnienia bezpieczeństwa i stabilności. Przykładowo, regularne aktualizacje systemu z wykorzystaniem Synaptic lub YaST mogą pomóc w eliminacji znanych luk bezpieczeństwa oraz w poprawieniu wydajności systemu. Praktyka ta jest zgodna z zaleceniami wielu organizacji dotyczących utrzymania systemów operacyjnych w najnowszych wersjach.

Pytanie 32

Jaki będzie najniższy koszt zakupu kabla UTP, potrzebnego do okablowania kategorii 5e, aby połączyć panel krosowniczy z dwoma podwójnymi gniazdami natynkowymi 2 x RJ45, które są oddalone odpowiednio o 10 m i 20 m od panelu, jeśli cena 1 m kabla wynosi 1,20 zł?

A. 96,00 zł
B. 36,00 zł
C. 48,00 zł
D. 72,00 zł
Błędne odpowiedzi wynikają z nieprawidłowego zrozumienia obliczeń związanych z kosztami okablowania. Wiele osób może mylnie uznać, że podana cena 1,20 zł za metr odnosi się tylko do pojedynczego gniazda, co prowadzi do niepoprawnych kalkulacji. Często zdarza się, że ludzie nie uwzględniają całkowitej długości kabla wymaganej do obu gniazd, co jest kluczowym aspektem wyceny. W przypadku zakupu kabli należy pamiętać, że każdy element sieci wymaga własnych połączeń. Ponadto, niektórzy mogą nie zdawać sobie sprawy z tego, że gniazda natynkowe mogą wymagać podwójnych lub dodatkowych połączeń, co jeszcze bardziej zwiększa całkowitą długość i koszt zakupu. Często spotykanym błędem jest pomijanie dodatkowych kosztów związanych z instalacją, takich jak uchwyty do kabli, złącza czy inne akcesoria, które mogą być niezbędne do prawidłowego funkcjonowania całego systemu okablowania. Dlatego ważne jest, aby przed podjęciem decyzji o zakupie dokładnie przeanalizować wszystkie wymagania oraz standardy okablowania, które mogą wpływać na ostateczny koszt i niezawodność sieci.

Pytanie 33

Adres IP przydzielony komputerowi pozwala odbiorcy pakietu IP na odróżnienie identyfikatorów

A. hosta i rutera
B. hosta i bramy
C. sieci i bramy
D. sieci i hosta
Wybór innych odpowiedzi może wynikać z nieporozumienia dotyczącego roli, jaką odgrywa numer IP w architekturze sieciowej. Stwierdzenie, że numer IP rozróżnia 'hosta i rutera', jest mylne, ponieważ ruter nie identyfikuje się przy pomocy numeru IP na poziomie hosta, lecz sam posiada swój własny adres IP, który jest wykorzystywany do komunikacji z innymi ruterami i hostami. Odpowiedź sugerująca, że adres IP rozróżnia 'sieci i bramy', również wprowadza w błąd, ponieważ brama (gateway) to po prostu punkt dostępu do innej sieci, a jej identyfikacja nie jest bezpośrednio związana z adresacją IP hostów. Z kolei odpowiedź wskazująca na 'hosta i bramy' pomija istotny aspekt, jakim jest struktura sieciowa. W rzeczywistości, aby poprawnie zrozumieć interakcje w sieci, należy uwzględnić, że numery IP są używane do identyfikacji hostów w obrębie tej samej sieci oraz ich połączeń z innymi sieciami. Błędne koncepcje mogą wynikać z braku znajomości podstawowych zasad dotyczących adresacji IP oraz funkcji, jakie pełnią urządzenia sieciowe, takie jak rutery i bramy. Aby uniknąć takich nieporozumień, warto zgłębić materiały dotyczące architektury TCP/IP oraz zasad routingowych, które wniosą więcej światła na to, jak działają sieci komputerowe.

Pytanie 34

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 8 GB.
C. 2 modułów, każdy po 16 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 35

W sieci z maską 255.255.255.128 można przypisać adresy dla

A. 126 urządzeń
B. 128 urządzeń
C. 254 urządzenia
D. 127 urządzeń
Maska podsieci 255.255.255.128, której notacja CIDR to /25, pozwala na podział adresu IPv4 na dwie części: adres sieci oraz adres hosta. W przypadku maski /25, mamy 7 bitów przeznaczonych na adresy hostów (32 bity - 25 bity maski = 7 bity). Liczba dostępnych adresów hostów oblicza się za pomocą wzoru 2^n - 2, gdzie n to liczba bitów przeznaczonych dla hostów. W naszym przypadku to 2^7 - 2, co daje 128 - 2 = 126 adresów hostów. Odejmuje się 2 adresy: jeden dla adresu sieci (wszystkie bity hosta ustawione na 0) i jeden dla adresu rozgłoszeniowego (wszystkie bity hosta ustawione na 1). Przykładowo, w sieci 192.168.1.0/25, możliwe adresy hostów to od 192.168.1.1 do 192.168.1.126. Wiedza o adresowaniu i podsieciach jest kluczowa w zarządzaniu sieciami komputerowymi, a stosowanie odpowiednich masek sieciowych pozwala na efektywne wykorzystanie dostępnych adresów IP.

Pytanie 36

Po włączeniu komputera na ekranie wyświetlił się komunikat "Non-system disk or disk error. Replace and strike any key when ready". Możliwą przyczyną tego może być

A. brak pliku ntldr
B. uszkodzony kontroler DMA
C. usunięty BIOS komputera
D. dyskietka umieszczona w napędzie
W przypadku komunikatu "Non-system disk or disk error" jednym z najczęstszych powodów jest obecność dyskietki włożonej do napędu, co może prowadzić do tego, że system operacyjny nie potrafi zidentyfikować urządzenia rozruchowego. Gdy komputer uruchamia się, BIOS skanuje dostępne urządzenia w celu załadowania systemu operacyjnego. Jeśli w napędzie znajduje się dyskietka, komputer spróbuje z niej bootować, co może skutkować błędem, jeśli nie zawiera ona odpowiednich plików rozruchowych. Aby temu zapobiec, zawsze warto upewnić się, że podczas uruchamiania komputera nie ma w napędzie nośników, które mogą zakłócić proces rozruchu. W praktyce użytkownicy komputerów osobistych powinni regularnie kontrolować urządzenia podłączone do systemu oraz dbać o to, aby napędy były puste, gdy nie są używane. Znajomość działania BIOS-u oraz procesu rozruchu systemu operacyjnego jest kluczowa dla diagnostyki i zarządzania komputerem.

Pytanie 37

Jakiego typu wkrętak należy użyć do wypięcia dysku twardego mocowanego w laptopie za pomocą podanych śrub?

Ilustracja do pytania
A. spanner
B. philips
C. imbus
D. torx
Wkrętak typu philips, znany również jako krzyżakowy, jest najczęściej używanym narzędziem do montażu i demontażu śrub z nacięciem krzyżowym. Ten typ wkrętaka został zaprojektowany w latach 30. XX wieku przez Henry'ego F. Phillipsa, aby zapewnić lepsze dopasowanie do śrub, co zmniejsza ryzyko ich uszkodzenia oraz umożliwia zastosowanie większego momentu obrotowego. Śruby z nacięciem krzyżowym są powszechnie stosowane w konstrukcjach elektronicznych i komputerowych, w tym w laptopach i innych urządzeniach przenośnych, ze względu na swoje właściwości umożliwiające szybki montaż i demontaż. Standardy branżowe, takie jak DIN 7985, opisują specyfikacje śrub z nacięciem krzyżowym, co potwierdza ich szerokie zastosowanie. W praktyce, użycie wkrętaka philips minimalizuje ryzyko ześlizgiwania się z łba śruby, co często zdarza się przy użyciu nieodpowiednich narzędzi. Wiedza o właściwym doborze narzędzi jest kluczowa dla techników zajmujących się serwisowaniem sprzętu elektronicznego, gdyż wpływa na efektywność pracy i stan techniczny demontowanych elementów. Ważnym aspektem jest również odpowiedni dobór wkrętaka do rozmiaru krzyżaka, aby uniknąć uszkodzenia śruby i narzędzia podczas pracy.

Pytanie 38

Pliki specjalne urządzeń, tworzone podczas instalacji sterowników w systemie Linux, są zapisywane w katalogu

A. /var
B. /sbin
C. /proc
D. /dev
Bardzo często można się pomylić, analizując katalogi w Linuksie, bo każdy z nich pełni swoją specyficzną rolę i niektóre nazwy brzmią myląco. Zacznę od katalogu /var – on służy głównie do przechowywania danych zmiennych, takich jak logi systemowe, kolejki wydruku czy pliki tymczasowe serwisów sieciowych. W praktyce nie znajdziesz tam plików reprezentujących sprzęt, a raczej dynamiczne dane produkowane przez uruchomione usługi. Zdarzają się też sytuacje, gdzie ktoś błędnie uważa, że skoro logi dotyczą sprzętu, to pliki urządzeń też są w /var, ale to zupełnie nie ten cel. Teraz /sbin – to katalog przeznaczony na narzędzia systemowe i administracyjne, programy wykorzystywane głównie przez administratora, np. do montowania dysków lub zarządzania procesami. Tu masz pliki wykonywalne, a nie pliki urządzeń. Czasem ktoś myli /sbin ze /dev, bo część poleceń z /sbin operuje na urządzeniach (np. fdisk, mount), ale same pliki urządzeń tam nie trafiają. Co do /proc – to bardzo specyficzny katalog, bo zawiera wirtualny system plików, który odzwierciedla stan jądra systemu, procesów, modułów i wielu innych parametrów runtime. Jest to narzędzie raczej do monitorowania i diagnostyki, niż do bezpośredniej interakcji ze sprzętem przez pliki urządzeń. Często można spotkać opinię, że /proc i /dev to prawie to samo, bo oba są dynamiczne, ale to nieprawda – /proc pokazuje, co dzieje się w systemie, a /dev daje dostęp do sprzętu. Ten błąd wynika z mylenia pojęcia wirtualnego systemu plików z fizycznymi (lub symulowanymi) interfejsami urządzeń. Reasumując: tylko /dev zgodnie ze standardami i dobrymi praktykami jest miejscem, gdzie linuksowy system tworzy specjalne pliki reprezentujące urządzenia sprzętowe i wirtualne. Znajomość tej struktury to podstawa sprawnego administrowania systemem.

Pytanie 39

Jaką wartość ma moc wyjściowa (ciągła) zasilacza według parametrów przedstawionych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336W3,6 W12,5 W
A. 472,1 W
B. 456,0 W
C. 576,0 W
D. 336,0 W
Niepoprawne odpowiedzi wynikają z błędnego zrozumienia sposobu obliczania mocy wyjściowej zasilacza. W przypadku zasilaczy komputerowych moc wyjściowa nie jest po prostu sumą poszczególnych wartości prądu i napięcia, lecz wymaga precyzyjnego uwzględnienia różnorodnych napięć linii wyjściowych oraz ich maksymalnych wartości prądowych. Typowy błąd przy obliczaniu mocy zasilacza to ignorowanie zróżnicowanych napięć wyjściowych oraz nieuwzględnianie synergii między liniami, które mogą wspólnie dostarczać moc, co jest istotne zwłaszcza przy zasilaniu komponentów o wysokim poborze energii. Ponadto, błędne podejście może wynikać z niewłaściwej interpretacji mocy szczytowej jako mocy ciągłej, co może prowadzić do problemów z wydajnością i trwałością systemu. Dla efektywnego projektowania systemów zasilania istotne jest zrozumienie, że każdy komponent może mieć różne wymagania co do zasilania, a zasilacz musi być dobrany tak, aby nie tylko spełniał wymagania mocy, ale także zapewniał stabilność i niezawodność działania systemu. Bez uwzględnienia tych aspektów można łatwo przecenić możliwości zasilacza, co w praktyce może prowadzić do ich przeciążenia i awarii.

Pytanie 40

Program firewall nie zapewnia ochrony przed

A. wirusami rozprzestrzeniającymi się za pomocą poczty elektronicznej
B. szpiegowaniem oraz kradzieżą poufnych informacji użytkownika
C. uzyskaniem dostępu do komputera przez hakerów
D. atakami generującymi zwiększony ruch w sieci
Wiele osób myśli, że firewalle załatwiają wszystko, ale to nie do końca tak działa. Często mylą je z programami antywirusowymi. Firewalle pilnują, żeby nikt nie wchodził do systemu bez pozwolenia i czasem blokują dziwny ruch w sieci, ale nie potrafią prześwietlić plików z e-maili pod kątem wirusów. Są różne rodzaje ataków, jak DDoS, które firewalle mogą ograniczać, ale wirusy z e-maili mogą przebić się przez nie. Nawet przy włączonym firewallu hakerzy mogą zyskać dostęp, jeśli wykorzystają jakieś luki w oprogramowaniu lub zainstalują złośliwe oprogramowanie poprzez załączniki. A wykradanie danych to też coś, czym zajmuje się złośliwe oprogramowanie – i firewall tego nie zablokuje. Dlatego najlepiej połączyć firewalle z programami antywirusowymi i na bieżąco aktualizować wszystko, co mamy, a także uczyć się, jak rozpoznawać zagrożenia.