Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 6 maja 2026 10:05
  • Data zakończenia: 6 maja 2026 10:22

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

W systemie Linux plik posiada uprawnienia ustawione na 541. Właściciel ma możliwość pliku

A. wyłącznie wykonać
B. odczytać, zapisać oraz wykonać
C. zmieniać
D. odczytać oraz wykonać
Uprawnienia pliku w systemie Linux są określane za pomocą trzech cyfr, gdzie każda cyfra reprezentuje różne uprawnienia dla właściciela, grupy i innych użytkowników. Wartość 541 oznacza, że właściciel ma uprawnienia do odczytu (4) i wykonania (1), ale nie ma uprawnień do zapisu (0). Z tego względu poprawna odpowiedź to możliwość odczytu i wykonania. Uprawnienia te są kluczowe w zarządzaniu bezpieczeństwem systemu, ponieważ pozwalają na kontrolowanie, kto ma dostęp do plików i jak może z nich korzystać. Na przykład, jeśli właściciel pliku chce, aby inni użytkownicy mogli go uruchomić, ale nie modyfikować, ustawienie uprawnień na 541 jest odpowiednie. Dobre praktyki w zarządzaniu uprawnieniami obejmują minimalizowanie dostępu do plików, a także używanie polecenia 'chmod' do precyzyjnego ustawiania tych uprawnień, co jest niezbędne w środowiskach produkcyjnych dla utrzymania bezpieczeństwa i integralności danych.

Pytanie 2

Jaką usługę trzeba zainstalować na serwerze, aby umożliwić korzystanie z nazw domen?

A. DHCP
B. AD
C. DNS
D. SNTP
Ludzie często mylą instalację Active Directory z zarządzaniem nazwami domenowymi, ale to nie to samo. AD to system, który zajmuje się użytkownikami i komputerami w sieci, a nie przekształcaniem nazw na adresy IP. Owszem, korzysta z DNS, ale to tylko jedno z narzędzi. Co do SNTP, on tylko synchronizuje czas urządzeń i nie ma nic wspólnego z domenami. A DHCP to z kolei protokół przydzielający adresy IP, ale też nie zajmuje się mapowaniem nazw domenowych. Bardzo łatwo się pogubić w tych funkcjach, co może prowadzić do różnych nieporozumień, zwłaszcza przy planowaniu sieci. Wszystkie te usługi współpracują, ale każda ma swoją specyfikę, a znajomość ich roli jest naprawdę ważna.

Pytanie 3

Jak można zaktualizować wprowadzone zmiany w konfiguracji systemu operacyjnego Windows, korzystając z edytora zasad grup?

A. restore
B. dompol
C. gpupdate
D. services
Polecenie 'gpupdate' jest właściwym narzędziem do aktualizacji zasad grup w systemie Windows. Gdy dokonujesz zmian w edytorze zasad grup, te zmiany nie są od razu stosowane w systemie. Aby wymusić aktualizację, użycie polecenia 'gpupdate' w wierszu poleceń sprawi, że system przetworzy nowe zasady i zastosuje je do bieżącej sesji. Na przykład, jeśli administrator zmienił politykę dotycząca haseł użytkowników, jak długo powinny być przechowywane lub jakie mają spełniać kryteria, użycie 'gpupdate' natychmiast wprowadzi te zmiany w życie. Dobrą praktyką jest również użycie parametru '/force', który wymusza ponowne zastosowanie wszystkich zasad, nawet tych, które się nie zmieniły. Warto również zwrócić uwagę, że 'gpupdate' działa zarówno dla polityk lokalnych, jak i tych skonfigurowanych na serwerze Active Directory, co czyni go niezwykle uniwersalnym narzędziem do zarządzania ustawieniami systemu operacyjnego.

Pytanie 4

Na rysunku ukazany jest diagram blokowy zasilacza

Ilustracja do pytania
A. analogowego komputera
B. awaryjnego (UPS)
C. impulsowego matrycy RAID
D. impulsowego komputera
Zasilacz komputerowy analogowy oraz impulsowy różnią się znacząco od zasilacza awaryjnego pod względem konstrukcji i zastosowania. Zasilacz analogowy nie jest typowym rozwiązaniem we współczesnych systemach IT, gdzie dominują zasilacze impulsowe ze względu na wyższą efektywność energetyczną i mniejsze rozmiary. Zasilacz impulsowy komputera, choć popularny, nie oferuje funkcji podtrzymywania zasilania w przypadku przerwy w dostawie energii, co czyni go nieodpowiednim do zastosowania w krytycznych systemach wymagających ciągłości pracy. Natomiast zasilacz impulsowy dla matrycy RAID służy do zapewnienia stabilnego napięcia dla tego typu urządzeń pamięci masowej, ale również nie zapewnia ochrony przed przerwami w zasilaniu. Błędna identyfikacja zasilacza UPS z innymi typami zasilaczy może wynikać z niezrozumienia funkcji akumulatorów i falownika, które są kluczowe dla działania UPS. Warto podkreślić, że UPS ma na celu nie tylko dostarczenie energii podczas awarii, ale również ochronę przed przepięciami, co jest szczególnie ważne w ochronie delikatnych podzespołów elektronicznych przed uszkodzeniem. Dlatego rozumienie różnic w konstrukcji i funkcjach różnych typów zasilaczy jest kluczowe w kontekście zastosowań przemysłowych i informatycznych, gdzie niezawodność zasilania ma kluczowe znaczenie dla bezpieczeństwa danych i ciągłości operacyjnej.

Pytanie 5

Wykorzystane kasety od drukarek powinny być

A. przekazane do wydziału ochrony środowiska
B. wyrzucone do pojemnika z odpadami komunalnymi
C. przekazane firmie zajmującej się utylizacją tego typu odpadów
D. wyrzucone do pojemnika na plastik
Wyrzucanie zużytych kaset do pojemnika przeznaczonego na plastik jest nieodpowiednie, ponieważ te odpady nie są zwykłym plastikiem, a ich recykling wymaga specjalistycznych procesów. Kasety tonerowe zawierają nie tylko plastik, ale także chemikalia, które mogą zagrażać zdrowiu ludzi i środowisku, jeśli nie zostaną odpowiednio przetworzone. Ponadto, umieszczanie ich w pojemnikach na odpady komunalne prowadzi do zanieczyszczenia strumieni recyklingowych, co komplikuje procesy segregacji i może skutkować większymi kosztami dla systemów gospodarki odpadami. Przekazywanie tych odpadów do wydziału ochrony środowiska również nie jest właściwe, ponieważ te instytucje nie zajmują się bezpośrednią utylizacją, a ich rola polega raczej na regulacjach i monitorowaniu. W związku z tym, odpady te powinny być kierowane do wyspecjalizowanych firm utylizacyjnych, które dysponują odpowiednimi technologiami i wiedzą, aby zminimalizować negatywne skutki dla środowiska. Ignorowanie tych zasad prowadzi do typowych błędów myślowych, takich jak postrzeganie wszystkich tworzyw sztucznych jako jednorodnych i łatwych do przetworzenia, co jest mylące i potencjalnie niebezpieczne.

Pytanie 6

W topologii gwiazdy każde urządzenie działające w sieci jest

A. połączone z jedną magistralą.
B. podłączone do węzła sieci.
C. skonfigurowane z dwoma sąsiadującymi komputerami
D. spojone ze sobą przewodami, tworząc zamknięty pierścień.
Topologia gwiazdy to jeden z najpopularniejszych układów sieciowych, w którym wszystkie urządzenia (komputery, drukarki, itp.) są podłączone do centralnego węzła, którym najczęściej jest switch lub hub. Dzięki temu, w przypadku awarii jednego z urządzeń, pozostałe nadal mogą funkcjonować. Taka architektura ułatwia również zarządzanie siecią, ponieważ wszelkie operacje, takie jak dodawanie nowych urządzeń czy diagnozowanie problemów, można przeprowadzać w centralnym punkcie. Przykładem zastosowania topologii gwiazdy jest typowa sieć lokalna (LAN) w biurach, gdzie wiele komputerów łączy się z jednym centralnym przełącznikiem, co zapewnia wysoką wydajność oraz minimalizuje ryzyko kolizji danych. Topologia ta jest również zgodna z najlepszymi praktykami branżowymi, które zalecają użycie centralnych urządzeń do zarządzania ruchem w sieci, co zwiększa jej efektywność i bezpieczeństwo.

Pytanie 7

Na którym obrazku przedstawiono panel krosowniczy?

Ilustracja do pytania
A. rys. D
B. rys. C
C. rys. B
D. rys. A
Panel krosowniczy widoczny na rysunku B to kluczowy element infrastruktury sieciowej stosowany w centrach danych oraz serwerowniach. Jego główną funkcją jest organizowanie i zarządzanie połączeniami kablowymi. Umożliwia szybkie i łatwe przepinanie kabli bez konieczności zmiany fizycznych połączeń w urządzeniach aktywnych. Dzięki temu optymalizuje zarządzanie siecią i przyspiesza proces rozwiązywania problemów. Panele krosownicze są zgodne z wieloma standardami, takimi jak TIA/EIA-568, co zapewnia ich kompatybilność z różnymi systemami i urządzeniami sieciowymi. W praktyce ich zastosowanie pozwala na efektywne rozszerzanie sieci, redukcję zakłóceń oraz minimalizację błędów połączeń. Stosowanie paneli krosowniczych jest jedną z dobrych praktyk w projektowaniu infrastruktury IT, co wpływa na zwiększenie niezawodności i wydajności systemów. Panel ten ułatwia również przyszłą modernizację infrastruktury i jest nieodzowny w skalowalnych rozwiązaniach sieciowych.

Pytanie 8

Do czego służy program firewall?

A. zabezpieczenia systemu przed błędnymi aplikacjami
B. ochrony sieci LAN oraz systemów przed intruzami
C. ochrony dysku przed przepełnieniem
D. zapobiegania przeciążeniu procesora przez system
Zastosowanie firewalla w kontekście zabezpieczeń systemów i sieci jest często mylone z innymi formami ochrony, co prowadzi do nieporozumień. Na przykład, twierdzenie, że firewall chroni dysk przed przepełnieniem, jest niepoprawne, ponieważ taki problem dotyczy głównie zarządzania przestrzenią dyskową i nie jest bezpośrednio związany z kontrolą dostępu do sieci. Również stwierdzenie, że firewall zabezpiecza systemy przed błędnymi programami, ignoruje istotę funkcji firewalla, który zajmuje się głównie filtracją ruchu sieciowego. Ochrona przed szkodliwym oprogramowaniem wymaga stosowania dodatkowych rozwiązań, takich jak oprogramowanie antywirusowe czy systemy wykrywania intruzów. Wreszcie, ochrona procesora przed przeciążeniem ze strony systemu odnosi się do optymalizacji zasobów systemowych i kontroli obciążenia, co jest całkowicie innym zagadnieniem niż zarządzanie bezpieczeństwem sieci. Typowe błędy myślowe w tym kontekście to pomieszanie funkcji różnych narzędzi zabezpieczających oraz niedostateczne zrozumienie ich działaniu w kontekście architektury bezpieczeństwa. Kluczowe jest zrozumienie, że firewall jest jednym z wielu elementów w systemie zabezpieczeń i jego zastosowanie powinno być rozpatrywane w szerszym kontekście strategii ochrony danych i infrastruktury IT.

Pytanie 9

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. dodaniem drugiego dysku twardego.
C. wybraniem pliku z obrazem dysku.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 10

Jaki tryb funkcjonowania Access Pointa jest wykorzystywany do umożliwienia urządzeniom bezprzewodowym łączności z przewodową siecią LAN?

A. Most bezprzewodowy
B. Repeater
C. Punkt dostępowy
D. Tryb klienta
Wybór trybu pracy urządzenia sieciowego ma kluczowe znaczenie dla jego funkcjonalności. Odpowiedzi, które nie wskazują na punkt dostępowy, często wynikają z mylnych założeń dotyczących roli różnych trybów pracy. Most bezprzewodowy, na przykład, jest używany do łączenia dwóch segmentów sieci, ale nie zapewnia bezpośredniego dostępu urządzeniom bezprzewodowym do przewodowej sieci LAN. Z kolei tryb klienta jest zaprojektowany do podłączania jednego urządzenia bezprzewodowego do sieci, co nie pozwala na równoczesne podłączenie wielu urządzeń, co jest niezbędne w typowej sieci biurowej. Repeater, z drugiej strony, ma na celu zwiększenie zasięgu sygnału bezprzewodowego poprzez retransmisję sygnału, jednak nie tworzy nowego punktu dostępu do sieci LAN, a jedynie wzmacnia istniejący sygnał. W praktyce błąd w wyborze odpowiedniego trybu może prowadzić do niewłaściwej konfiguracji, co w rezultacie ogranicza możliwości komunikacyjne sieci. Aby w pełni wykorzystać potencjał bezprzewodowych rozwiązań sieciowych, istotne jest zrozumienie funkcji i zastosowania punktów dostępowych oraz ich roli w architekturze sieci. Zastosowanie punktu dostępowego, zgodnie z najlepszymi praktykami, pozwala na efektywne zarządzanie ruchami sieciowymi i zapewnienie wysokiej jakości usług bezprzewodowych.

Pytanie 11

Z jaką informacją wiąże się parametr TTL po wykonaniu polecenia ping?

C:\Users\Właściciel>ping -n 1 wp.pl

Pinging wp.pl [212.77.98.9] with 32 bytes of data:
Reply from 212.77.98.9: bytes=32 time=17ms TTL=54

Ping statistics for 212.77.98.9:
    Packets: Sent = 1, Received = 1, Lost = 0 (0% loss),
Approximate round trip times in milli-seconds:
    Minimum = 17ms, Maximum = 17ms, Average = 17ms
A. liczbą routerów biorących udział w przesyłaniu pakietu od nadawcy do odbiorcy
B. czasem odpowiedzi z docelowego urządzenia
C. liczbą pakietów wysłanych w celu weryfikacji połączenia w sieci
D. czasem trwania weryfikacji komunikacji w sieci
Parametr TTL nie jest związany z czasem trwania sprawdzenia komunikacji ani z czasem odpowiedzi z urządzenia docelowego. Są to częste błędne interpretacje wynikające z mylenia dwóch niezależnych pomiarów wykonywanych podczas korzystania z narzędzia ping. Czas trwania sprawdzenia komunikacji to rzeczywisty czas potrzebny na przesłanie pakietu w obie strony między klientem a serwerem co jest reprezentowane przez wartości czasowe w milisekundach w wynikach ping. Natomiast liczba pakietów wysłanych w celu sprawdzenia komunikacji odnosi się do całkowitej liczby wysłanych wiadomości echo ale nie ma bezpośredniego związku z TTL. TTL określa liczbę routerów przez które pakiet może przejść zanim zostanie odrzucony a nie ilość wysłanych pakietów. Mylenie tych pojęć często prowadzi do błędów w diagnozowaniu problemów sieciowych. Rozumienie czym dokładnie jest TTL oraz jak działa mechanizm pętli pakietów w sieci jest kluczowe dla skutecznego monitorowania i rozwiązywania problemów w sieciach komputerowych. Poprawne zrozumienie tych zasad umożliwia efektywne zarządzanie ruchem w sieci i zapewnia lepszą kontrolę nad zasobami IT. Takie zagadnienia są kluczowe w codziennej pracy administratorów sieci gdzie precyzyjna interpretacja danych sieciowych jest niezbędna do utrzymania wysokiej jakości usług sieciowych. Zrozumienie różnicy między czasem odpowiedzi a parametrem TTL jest także podstawą do dalszego zgłębiania wiedzy o protokołach sieciowych i ich zastosowaniu w praktyce zarządzania infrastrukturą IT. Współczesne sieci wymagają dokładności i wiedzy na temat działania różnych protokołów co podkreśla znaczenie posiadania solidnej bazy wiedzy w tym zakresie. Dobrze zrozumiane podstawy takie jak TTL stanowią fundament do projektowania i utrzymywania wydajnych i bezpiecznych sieci komputerowych.

Pytanie 12

Użytkownik systemu Linux, który pragnie usunąć konto innej osoby wraz z jej katalogiem domowym, powinien użyć polecenia

A. userdel nazwa_użytkownika
B. userdel -d nazwa_użytkownika
C. sudo userdel -r nazwa_użytkownika
D. sudo userdel nazwa_użytkownika
Polecenie 'sudo userdel -r nazwa_użytkownika' jest poprawne, ponieważ łączy w sobie możliwość usunięcia konta użytkownika oraz jego katalogu domowego. Opcja '-r' (ang. 'remove') w poleceniu 'userdel' wskazuje, że system powinien usunąć także katalog domowy użytkownika oraz jego pliki w katalogu domowym, co jest kluczowe przy zarządzaniu użytkownikami w systemach Unix/Linux. Użycie 'sudo' wskazuje na to, że operacja wymaga uprawnień administratora, co jest zgodne z najlepszymi praktykami bezpieczeństwa, gdyż usuwanie konta użytkownika wiąże się z ryzykiem. W praktyce, administratorzy systemów często korzystają z tego polecenia w celu porządkowania systemu i zarządzania użytkownikami, zwłaszcza w środowiskach wieloosobowych, gdzie nieaktywni użytkownicy mogą zajmować zasoby systemowe. Utrzymanie porządku w kontach użytkowników jest również istotne z perspektywy bezpieczeństwa, ponieważ nieaktywni użytkownicy mogą stwarzać potencjalne zagrożenie, jeśli ich konta pozostaną aktywne, ale nieużywane. W związku z tym, polecenie to jest nie tylko technicznie poprawne, ale również istotne z perspektywy zarządzania systemem.

Pytanie 13

Aby była możliwa komunikacja pomiędzy dwiema różnymi sieciami, do których należą karty sieciowe serwera, należy w systemie Windows Server dodać rolę

A. Usługi pulpitu zdalnego.
B. Serwer DHCP.
C. Dostęp zdalny.   
D. Serwer DNS.
W tym zadaniu bardzo łatwo pomylić role sieciowe, bo wszystkie brzmią „okołosieciowo”, ale ich funkcje są zupełnie inne. Częsty błąd polega na myśleniu, że skoro chcemy, aby dwie sieci się „dogadały”, to wystarczy serwer DNS albo DHCP, bo przecież są to podstawowe usługi sieciowe. Tymczasem DNS zajmuje się wyłącznie tłumaczeniem nazw domenowych na adresy IP. Pomaga komputerom odnaleźć inne hosty po nazwie, ale absolutnie nie przekazuje pakietów między różnymi sieciami. Nawet najlepiej skonfigurowany DNS nie sprawi, że ruch z sieci 192.168.1.0/24 nagle zacznie przechodzić do 192.168.2.0/24, jeśli nie ma routingu. Podobnie z DHCP – ta usługa tylko automatycznie przydziela adresy IP, maski, bramy domyślne i DNS-y klientom. DHCP może wskazać hostom, jaki router (brama) ma obsługiwać ruch między sieciami, ale sam serwer DHCP nie pełni roli routera. To typowe nieporozumienie: „skoro DHCP daje IP, to może też łączy sieci”. Nie, on tylko konfiguruje parametry, a właściwe przekazywanie pakietów między podsieciami wykonuje router lub serwer z funkcją routingu. Usługi pulpitu zdalnego z kolei służą do zdalnego logowania na serwer i zdalnej pracy na nim (RDP, farmy terminalowe, RemoteApp). Ta rola nie ma nic wspólnego z trasowaniem pakietów między kartami sieciowymi. Pozwala adminom i użytkownikom łączyć się z serwerem, ale nie sprawia, że serwer nagle łączy dwie różne sieci w sensie IP. Jeżeli więc celem jest, aby serwer z dwiema kartami sieciowymi przekazywał ruch pomiędzy dwiema różnymi podsieciami, potrzebna jest funkcja routera. W Windows Server tę funkcję zapewnia rola Dostęp zdalny, w ramach której włącza się usługę Routing i dostęp zdalny (RRAS). To jest zgodne z praktyką administracji sieciami: DNS do nazw, DHCP do konfiguracji adresów, RDP do zdalnej pracy, a routing – do łączenia sieci.

Pytanie 14

Dobrze zaprojektowana sieć komputerowa powinna zapewniać możliwość rozbudowy, czyli charakteryzować się

A. redundancją
B. skalowalnością
C. wydajnością
D. nadmiarowością
Wydajność, redundancja i nadmiarowość to ważne aspekty projektowania sieci komputerowej, ale nie są one bezpośrednio związane z jej skalowalnością. Wydajność odnosi się do zdolności sieci do przetwarzania danych w określonym czasie. Choć wydajność jest kluczowa, to nie gwarantuje możliwości rozbudowy sieci w przyszłości. W rzeczywistości, sieć może być wydajna, ale niezdolna do łatwej rozbudowy, co prowadzi do potencjalnych problemów w dłuższej perspektywie. Redundancja i nadmiarowość dotyczą zapobieganiu awariom oraz zapewnieniu ciągłości działania, co jest istotne dla utrzymania wysokiej dostępności. Redundancja polega na posiadaniu dodatkowych komponentów, które mogą przejąć funkcje uszkodzonych elementów, podczas gdy nadmiarowość odnosi się do celowego wprowadzenia dodatkowych zasobów, aby zwiększyć niezawodność. Choć te podejścia są niezbędne w infrastrukturze krytycznej, nie wpływają one na zdolność sieci do efektywnej rozbudowy. Typowym błędem myślowym jest mylenie tych terminów i założenie, że wystarczająca wydajność lub redundancja automatycznie oznaczają, że sieć jest skalowalna. W rzeczywistości, aby sieć była rzeczywiście elastyczna w rozbudowie, projektanci muszą skupić się na jej skalowalności, co wymaga przemyślanej architektury i planowania.

Pytanie 15

Zgodnie z normą PN-EN 50174, poziome okablowanie w systemie strukturalnym to segment okablowania pomiędzy

A. serwerem a infrastrukturą sieci.
B. punktami rozdzielczymi w głównych pionach budynku.
C. punktem rozdziału a gniazdem użytkownika.
D. gniazdkiem użytkownika a urządzeniem końcowym.
Wybór odpowiedzi, która wskazuje na inne połączenia w systemie okablowania strukturalnego, może prowadzić do poważnych nieporozumień w zakresie projektowania infrastruktury telekomunikacyjnej. Na przykład, odpowiedź sugerująca, że okablowanie poziome obejmuje połączenie między serwerem a szkieletem sieci, jest niepoprawna, ponieważ te elementy są częścią okablowania pionowego, którego celem jest łączenie różnych poziomów w budynku. Również stwierdzenie, że okablowanie to łączy gniazdko użytkownika z terminalem końcowym, jest mylące, ponieważ terminal końcowy jest zazwyczaj urządzeniem, które korzysta z gniazdka, a nie częścią okablowania. Kolejna nieścisłość występuje w odpowiedzi mówiącej o połączeniach w głównych pionach budynku. Piony są zarezerwowane dla okablowania pionowego, które zapewnia komunikację między różnymi piętrami budynku. W efekcie, niezrozumienie podziału na okablowanie poziome i pionowe oraz ich funkcji prowadzi do błędnych koncepcji związanych z projektowaniem infrastruktury. Kluczowe jest, aby pamiętać, że każda część systemu okablowania pełni określoną rolę, a ich właściwe zrozumienie jest niezbędne dla efektywnego działania całej sieci.

Pytanie 16

Który z komponentów komputera można wymienić bez konieczności wyłączania zasilania?

A. urządzenia typu hot-swap
B. zasilacza
C. płyty głównej
D. pamięci RAM
Twoja odpowiedź dotycząca hot-swap jest całkiem trafna. Te urządzenia są faktycznie stworzone tak, żeby można je było wymieniać bez wyłączania całego systemu. To dość przydatna technologia, zwłaszcza w miejscach, gdzie ciągłość działania jest bardzo ważna, jak na przykład serwerownie. Przykłady takich komponentów to dyski w macierzach RAID, zasilacze czy niektóre karty rozszerzeń. Dzięki temu administratorzy mogą szybko reagować w razie awarii albo w razie potrzeby rozbudowy, nie przerywając przy tym działania systemu. Wiele nowoczesnych serwerów, takich jak te od Della czy HP, dość często korzysta z tej technologii i staje się to standardem w projektowaniu systemów. Dobrze jest też pamiętać, żeby każdy komponent hot-swap był wyraźnie oznaczony, a w systemie miały miejsce odpowiednie zabezpieczenia, żeby przypadkiem nie wyciągnąć czegoś ważnego.

Pytanie 17

W jakiej warstwie modelu ISO/OSI wykorzystywane są adresy logiczne?

A. Warstwie sieciowej
B. Warstwie łącza danych
C. Warstwie transportowej
D. Warstwie fizycznej
Warstwa fizyczna modelu ISO/OSI zajmuje się przesyłaniem sygnałów elektrycznych, optycznych lub radiowych, a nie adresacją. W tej warstwie nie występują pojęcia związane z adresami, ponieważ skupia się ona na fizycznych aspektach transmisji danych, takich jak kable, złącza i standardy sygnałów. Z kolei warstwa łącz danych zapewnia komunikację między bezpośrednio połączonymi urządzeniami, operując na adresach MAC, które są przypisane do interfejsów sieciowych. Adresy te pozwalają na lokalne trasowanie danych, ale nie są używane do identyfikacji urządzeń w szerszej skali. W warstwie transportowej, zajmującej się zapewnieniem niezawodności i kontrolą przepływu danych, również nie stosuje się adresów logicznych. W tej warstwie protokoły, takie jak TCP i UDP, operują na portach, które identyfikują konkretne aplikacje na danym urządzeniu, a nie na adresach w skali sieci. Błędne wnioski mogą wynikać z mylenia pojęć dotyczących adresacji logicznej i fizycznej oraz nieznajomości funkcji poszczególnych warstw modelu ISO/OSI. Kluczowe jest zrozumienie, że adresy logiczne są przypisane w warstwie sieciowej, gdzie odbywa się routing, a nie w warstwach niższych, które koncentrują się na bezpośredniej komunikacji i fizycznej transmisji danych.

Pytanie 18

Który adres IP jest przypisany do klasy A?

A. 119.0.0.1
B. 169.255.2.1
C. 134.16.0.1
D. 192.0.2.1
Adres IP 119.0.0.1 należy do klasy A, co wynika z definicji klas adresowych w protokole IP. Klasa A obejmuje adresy od 1.0.0.0 do 126.255.255.255, a pierwszy oktet musi mieścić się w przedziale od 1 do 126. W przypadku adresu 119.0.0.1 pierwszy oktet to 119, co potwierdza jego przynależność do klasy A. Adresy klasy A są przeznaczone dla dużych organizacji, które potrzebują wielu adresów IP w jednej sieci. Klasa ta pozwala na przydzielenie ogromnej liczby adresów – ponad 16 milionów (2^24) dla każdej sieci, co jest korzystne dla dużych instytucji, takich jak korporacje czy uniwersytety. Ponadto w kontekście routingu, adresy klasy A są używane dla dużych sieci, co ułatwia zarządzanie i organizację struktury adresowej. W praktycznych zastosowaniach, w przypadku organizacji wymagających dużych zasobów adresowych, klasy A są często wykorzystywane do rozbudowy infrastruktury sieciowej, co jest zgodne z dobrymi praktykami w zakresie planowania adresacji IP.

Pytanie 19

Podczas testowania połączeń sieciowych za pomocą polecenia ping użytkownik otrzymał wyniki przedstawione na rysunku. Jakie może być źródło braku odpowiedzi serwera przy pierwszym teście, zakładając, że domena wp.pl ma adres 212.77.100.101?

C:\Users\uczen>ping wp.pl
Żądanie polecenia ping nie może znaleźć hosta wp.pl. Sprawdź nazwę i ponów próbe.

C:\Users\uczen>ping 212.77.100.101

Badanie 212.77.100.101 z 32 bajtami danych:
Odpowiedź z 212.77.100.101: bajtów=32 czas=19ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=35ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=40ms TTL=127
Odpowiedź z 212.77.100.101: bajtów=32 czas=20ms TTL=127

Statystyka badania ping dla 212.77.100.101:
    Pakiety: Wysłane = 4, Odebrane = 4, Utracone = 0
             (0% straty),
Szacunkowy czas błądzenia pakietów w millisekundach:
    Minimum = 19 ms, Maksimum = 40 ms, Czas średni = 28 ms
A. Brak przypisania serwera DHCP do karty sieciowej
B. Brak domyślnej bramy w ustawieniach karty sieciowej
C. Nieobecność adresów serwera DNS w konfiguracji karty sieciowej
D. Nieprawidłowy adres IP przypisany do karty sieciowej
Brak adresów serwera DNS w konfiguracji karty sieciowej powoduje, że komputer nie jest w stanie przetłumaczyć nazwy domeny wp.pl na jej odpowiadający adres IP 212.77.100.101. DNS, czyli Domain Name System, jest kluczowym elementem infrastruktury internetowej, który umożliwia przekształcanie czytelnych dla człowieka nazw domen na adresy IP zrozumiałe dla komputerów. Bez poprawnie skonfigurowanych serwerów DNS, komputer nie może skutecznie nawiązać połączenia z serwerem, co skutkuje błędem przy pierwszej próbie użycia polecenia ping. W praktyce wiele systemów operacyjnych umożliwia automatyczne przypisywanie adresów DNS za pomocą DHCP, jednak w przypadku braku odpowiedniego serwera DHCP lub jego nieprawidłowej konfiguracji, użytkownik musi ręcznie wprowadzić adresy DNS. Dobrymi praktykami jest korzystanie z powszechnie dostępnych serwerów DNS, takich jak te dostarczane przez Google (8.8.8.8 i 8.8.4.4), które są znane z wysokiej wydajności i niezawodności. Prawidłowa konfiguracja serwerów DNS jest kluczowa dla stabilnego i szybkiego działania aplikacji sieciowych oraz ogólnego doświadczenia użytkownika w korzystaniu z Internetu.

Pytanie 20

Który z podanych programów pozwoli na stworzenie technicznego rysunku ilustrującego plan instalacji logicznej sieci lokalnej w budynku?

A. WireShark
B. AutoCad
C. Packet Tracer
D. CommView
WireShark to narzędzie do analizy ruchu sieciowego, które umożliwia monitorowanie i diagnostykę sieci, jednak nie jest to program przeznaczony do tworzenia rysunków technicznych. Jego głównym celem jest analiza pakietów danych w czasie rzeczywistym, co nie ma związku z projektowaniem schematów instalacji. CommView natomiast także służy do monitorowania ruchu w sieci i nie posiada funkcji pozwalających na wizualizację planów instalacji logicznej. Z kolei Packet Tracer to symulator sieci opracowany przez Cisco, który pozwala na modelowanie i symulację działania sieci, ale nie jest narzędziem do tworzenia rysunków technicznych. Użytkownicy mogą pomylić te programy z AutoCad ze względu na ich zastosowanie w kontekście sieci, jednak kluczowym błędem jest brak zrozumienia, że każde z wymienionych narzędzi posiada specyficzne funkcjonalności, które nie są kompatybilne z wymaganiami do tworzenia rysunków technicznych. Oprogramowanie CAD, takie jak AutoCad, jest dedykowane do precyzyjnego projektowania, co jest podstawowym wymogiem w inżynierii, podczas gdy inne narzędzia są skoncentrowane na analizie lub symulacji działania sieci. W związku z tym, wybór odpowiedniego oprogramowania jest kluczowy w procesie projektowania, a stosowanie niewłaściwych narzędzi prowadzi do pomyłek i nieefektywności w pracy. Niezrozumienie różnic pomiędzy tymi programami może prowadzić do nieprawidłowych projektów, co z kolei może wpłynąć na jakość i bezpieczeństwo instalacji.

Pytanie 21

Aby zainstalować usługę Active Directory w systemie Windows Server, konieczne jest uprzednie zainstalowanie oraz skonfigurowanie serwera

A. DNS
B. FTP
C. DHCP
D. WWW
W kontekście instalacji Active Directory, zrozumienie roli różnych usług jest kluczowe, aby uniknąć nieporozumień. FTP (File Transfer Protocol) jest protokołem służącym do przesyłania plików w sieci, ale nie ma on bezpośredniego związku z funkcjonowaniem Active Directory. Choć przesyłanie danych jest istotne w zarządzaniu serwerami, to protokół FTP nie wspiera funkcji zarządzania użytkownikami, grupami ani zasobami w obrębie domeny, które są fundamentalne dla Active Directory. WWW (World Wide Web) również nie jest wymagany do instalacji AD, chociaż może być przydatny w kontekście aplikacji internetowych działających w sieci, które nie mają wpływu na infrastrukturę AD. DHCP (Dynamic Host Configuration Protocol) jest usługa, która automatycznie przydziela adresy IP urządzeniom w sieci, co ma znaczenie w kontekście zarządzania adresami sieciowymi, jednak sam w sobie nie jest odpowiedzialny za funkcjonowanie usługi Active Directory. Zrozumienie, że DNS jest kluczowy dla AD, a inne usługi, takie jak FTP, WWW czy DHCP, chociaż ważne w różnych kontekstach, nie są bezpośrednio związane z instalacją i konfiguracją AD, może pomóc uniknąć typowych błędów myślowych. Właściwe podejście do konfiguracji infrastruktury serwerowej, zgodne z najlepszymi praktykami branżowymi, koncentruje się na uwzględnieniu wszystkich niezbędnych komponentów, aby zapewnić prawidłowe działanie systemu. Dobre zrozumienie interakcji pomiędzy tymi usługami jest niezbędne dla specjalistów IT, którzy muszą zapewniać stabilność i bezpieczeństwo systemów w organizacjach.

Pytanie 22

Wskaż ikonę programu stosowanego do rozpakowania archiwum plików RAR.

Ilustracja do pytania
A. Ikona 2.
B. Ikona 4.
C. Ikona 3.
D. Ikona 1.
Poprawnie wskazana została ikona programu 7‑Zip, który w praktyce jest jednym z najczęściej używanych narzędzi do rozpakowywania archiwów RAR w systemie Windows (i nie tylko). Chociaż natywnie format RAR jest własnością twórców WinRARA, to w środowisku technicznym standardem stało się używanie właśnie uniwersalnych archiwizerów, takich jak 7‑Zip, które obsługują wiele formatów: ZIP, 7z, RAR, TAR, GZIP, ISO i sporo innych. Dzięki temu administrator czy technik nie musi instalować osobnego programu do każdego formatu – jedno narzędzie ogarnia praktycznie wszystko. Moim zdaniem to jest po prostu wygodniejsze i zgodne z dobrą praktyką: minimalizujemy liczbę różnych aplikacji w systemie, co ułatwia później utrzymanie i aktualizacje. W praktyce wygląda to tak, że po zainstalowaniu 7‑Zip integruje się on z powłoką systemu (menu kontekstowe w Eksploratorze Windows). Wtedy na pliku .rar wystarczy kliknąć prawym przyciskiem myszy i wybrać np. „7‑Zip → Wypakuj tutaj” albo „Wypakuj do…”. To jest typowy workflow w serwisach komputerowych, w działach IT, a nawet w szkołach – szybko, powtarzalnie i bez kombinowania. 7‑Zip jest oprogramowaniem darmowym (open source), więc bez problemu można go używać legalnie na wielu stanowiskach, co jest bardzo ważne z punktu widzenia zgodności z licencjami i politykami oprogramowania w firmie czy szkole. Dodatkową zaletą jest wysoki stopień kompresji własnego formatu 7z, ale do RAR‑ów najważniejsze jest to, że program potrafi je poprawnie odczytać i wyodrębnić pliki. W środowisku Windows jest to wręcz podstawowe narzędzie w „niezbędniku technika”. Warto też kojarzyć ikonę – charakterystyczne czarno‑białe logo z napisem „7z” – bo na egzaminach i w praktyce często rozpoznaje się programy właśnie po ikonach, a nie po samych nazwach.

Pytanie 23

Na ilustracji zaprezentowano graficzny symbol

Ilustracja do pytania
A. mostu
B. koncentratora
C. rutera
D. regeneratora
Symbol graficzny przedstawiony na rysunku to typowe oznaczenie rutera urządzenia sieciowego odpowiedzialnego za trasowanie pakietów danych między różnymi sieciami. Rutery wykorzystują tabele routingu i protokoły takie jak OSPF BGP czy EIGRP do określania najefektywniejszej ścieżki dla przesyłanych danych. W praktyce ruter znajduje zastosowanie w każdym zastosowaniu gdzie konieczne jest połączenie różnych segmentów sieci lokalnych LAN z siecią rozległą WAN lub Internetem. Działanie rutera opiera się na analizie adresów IP nadchodzących pakietów i decydowaniu o ich dalszym kierunku. W odróżnieniu od przełączników które operują w ramach jednej sieci lokalnej rutery umożliwiają komunikację między różnymi podsieciami. Ważnym aspektem konfiguracji ruterów jest zabezpieczenie przed nieautoryzowanym dostępem oraz efektywne zarządzanie ruchem sieciowym aby zapewnić optymalną wydajność i bezpieczeństwo. Rutery są kluczowe dla utrzymania spójności i niezawodności infrastruktury sieciowej zgodnie z najlepszymi praktykami sieciowymi co czyni je niezbędnymi w nowoczesnych rozwiązaniach IT.

Pytanie 24

W którym systemie operacyjnym może pojawić się komunikat podczas instalacji sterowników dla nowego urządzenia?

System.......nie może zweryfikować wydawcy tego sterownika. Ten sterownik nie ma podpisu cyfrowego albo podpis nie został zweryfikowany przez urząd certyfikacji. Nie należy instalować tego sterownika, jeżeli nie pochodzi z oryginalnego dysku producenta lub od administratora systemu.
A. Windows 98
B. Windows XP
C. Linux
D. Unix
Windows XP to system operacyjny, który wprowadził istotne zmiany w zarządzaniu bezpieczeństwem sterowników urządzeń. Jednym z kluczowych elementów było wprowadzenie wymagania podpisów cyfrowych dla sterowników jako środka zapewnienia ich autentyczności i integralności. Gdy instalowany sterownik nie posiadał poprawnego podpisu, system wyświetlał ostrzeżenie, co miało na celu ochronę użytkownika przed potencjalnie szkodliwym oprogramowaniem. Dzięki temu użytkownicy byli zachęcani do korzystania z certyfikowanych sterowników, co minimalizowało ryzyko problemów z kompatybilnością i stabilnością systemu. System Windows XP korzystał z infrastruktury klucza publicznego (PKI) do weryfikacji podpisów cyfrowych, co było zgodne z najlepszymi praktykami w branży IT. Instalacja niepodpisanych sterowników była możliwa, lecz wymagała świadomego działania użytkownika, który musiał zaakceptować ryzyko. W praktyce, oznaczało to, że administratorzy systemów byli bardziej świadomi źródeł pochodzenia sterowników i ich potencjalnych zagrożeń. Takie podejście do zarządzania sterownikami pozwoliło na zwiększenie bezpieczeństwa systemu i jego użytkowników, co było istotnym krokiem w kierunku implementacji bardziej rygorystycznych standardów bezpieczeństwa w przyszłych wersjach Windows.

Pytanie 25

Który standard w połączeniu z odpowiednią kategorią kabla skrętki jest skonfigurowany w taki sposób, aby umożliwiać maksymalny transfer danych?

A. 1000BASE-T oraz Cat 3
B. 10GBASE-T oraz Cat 5
C. 1000BASE-T oraz Cat 5
D. 10GBASE-T oraz Cat 7
Odpowiedzi, które łączą standardy 10GBASE-T i 1000BASE-T z kablami kategorii 5 czy 3 są po prostu błędne. Wiąże się to z dużymi różnicami w wymaganiach co do wydajności i jakości sygnału. Standard 1000BASE-T radzi sobie z transferami do 1 Gb/s i jest zgodny z kablami kategorii 5, ale na pewno nie wystarczy do 10 Gb/s, co dzisiaj jest kluczowe. Kategoria 5 ma sporo ograniczeń, przez co sygnał się pogarsza, szczególnie przy wyższych prędkościach. Dlatego nie nadaje się do środowisk, gdzie ważny jest 10GBASE-T, który wymaga przynajmniej kabla kategorii 6a. Co do kategorii 3, to była fajna kiedyś, ale dzisiaj to totalna porażka dla 1000BASE-T i 10GBASE-T, bo tam maksymalna przepustowość to tylko 10 Mb/s. Często ludzie mylą te standardy i nie znają specyfikacji kabli. Wybierając odpowiednie medium transmisyjne, trzeba myśleć o niezawodności i wydajności sieci, bo to podstawa każdej dobrej infrastruktury.

Pytanie 26

W doborze zasilacza do komputera kluczowe znaczenie

A. mają parametry zainstalowanego systemu operacyjnego
B. współczynnik kształtu obudowy
C. ma rodzaj procesora
D. ma łączna moc wszystkich komponentów komputera
Wybór odpowiedniego zasilacza komputerowego jest kluczowy dla stabilności i wydajności całego systemu. Najważniejszym czynnikiem, który należy wziąć pod uwagę, jest łączna moc wszystkich podzespołów komputera, ponieważ zasilacz musi dostarczać wystarczającą ilość energii, aby zasilić każdy komponent. Niewłaściwa moc zasilacza może prowadzić do niestabilności systemu, losowych restartów, a nawet uszkodzeń sprzętu. Standardowo, całkowita moc wszystkich podzespołów powinna być zsumowana, a następnie dodane około 20-30% zapasu mocy, aby zapewnić bezpieczną i stabilną pracę. Na przykład, jeśli złożone komponenty wymagają 400 W, warto zaopatrzyć się w zasilacz o mocy co najmniej 500 W. Przy wyborze zasilacza warto także zwrócić uwagę na jego efektywność, co najlepiej określa certyfikacja 80 PLUS, która zapewnia, że zasilacz działa z wysoką efektywnością energetyczną. Dobrze zbilansowany zasilacz to fundament niezawodnego komputera, szczególnie w przypadku systemów gamingowych i stacji roboczych wymagających dużej mocy.

Pytanie 27

Protokół, który pozwala urządzeniom na uzyskanie od serwera informacji konfiguracyjnych, takich jak adres IP bramy sieciowej, to

A. DHCP
B. NFS
C. HTTPS
D. RTP
DHCP, czyli Dynamic Host Configuration Protocol, to protokół sieciowy, który automatycznie przypisuje adresy IP oraz inne istotne dane konfiguracyjne hostom w sieci. Dzięki jego zastosowaniu, administratorzy nie muszą ręcznie konfigurować każdego urządzenia podłączonego do sieci, co znacznie przyspiesza proces integracji nowych urządzeń. DHCP pozwala na dynamiczne przypisywanie adresów IP w oparciu o z góry zdefiniowany zakres adresów oraz polityki zarządzania, co jest zgodne z najlepszymi praktykami w zarządzaniu sieciami. Protokół ten działa na zasadzie wymiany komunikatów między klientem a serwerem, co pozwala na uzyskanie takich informacji jak adres IP bramy sieciowej, maska podsieci czy serwery DNS. Przykładem zastosowania DHCP jest biuro, gdzie wiele komputerów i urządzeń mobilnych łączy się z siecią, a serwer DHCP automatycznie przydziela im odpowiednie adresy IP, co minimalizuje ryzyko konfliktów adresów oraz błędów w konfiguracji.

Pytanie 28

Instalacja serwera stron www w rodzinie systemów Windows Server jest możliwa dzięki roli

A. usług pulpitu zdalnego
B. serwera aplikacji
C. usług plików
D. serwera sieci Web
Serwer sieci Web w systemie Windows Server to rola, która umożliwia hostowanie aplikacji internetowych oraz stron WWW. W praktyce oznacza to, że administrator może zainstalować i skonfigurować serwer IIS (Internet Information Services), co jest standardem dla hostingu stron w środowiskach Windows. IIS jest nie tylko łatwy w użyciu, ale również oferuje wiele zaawansowanych funkcji, takich jak zarządzanie certyfikatami SSL, obsługa ASP.NET, czy integracja z bazami danych. Warto zaznaczyć, że standardowa konfiguracja serwera sieci Web pozwala na efektywne zarządzanie ruchem, monitorowanie wydajności oraz zabezpieczanie zasobów. Dzięki prawidłowej konfiguracji, przedsiębiorstwa mogą świadczyć usługi online, co wpisuje się w aktualne trendy digitalizacji i transformacji cyfrowej. Dodatkowo, administratorzy mogą korzystać z narzędzi takich jak Web Deploy do automatyzacji wdrożeń, co znacznie usprawnia proces aktualizacji aplikacji na serwerze.

Pytanie 29

Który standard złącza DVI pozwala na przesyłanie jedynie sygnału analogowego?

Ilustracja do pytania
A. A
B. C
C. B
D. D
Złącze DVI-I jest wszechstronnym standardem który umożliwia przesyłanie zarówno sygnałów analogowych jak i cyfrowych. Jego wszechstronność sprawia że często jest wykorzystywane w sytuacjach gdzie wymagane jest połączenie z różnymi typami monitorów co jednak nie spełnia wymagania dotyczącego wyłącznie sygnału analogowego. DVI-D z kolei to standard zaprojektowany wyłącznie do przesyłania sygnałów cyfrowych co czyni go nieodpowiednim w kontekście przesyłania sygnałów analogowych. Jest często używany w nowoczesnych systemach wideo które korzystają z cyfrowych wyświetlaczy zapewniając wysoką jakość obrazu i dźwięku. Jednak w przypadku tego pytania jego cyfrowa natura wyklucza go z rozważania. Zrozumienie różnic między tymi standardami jest kluczowe dla inżynierów i techników zajmujących się instalacją i konfiguracją systemów wideo. Typowym błędem jest założenie że wszystkie standardy DVI mogą przesyłać każdy rodzaj sygnału co prowadzi do błędnych wyborów w konfiguracji sprzętu. Takie nieporozumienia mogą prowadzić do problemów kompatybilności i jakości obrazu szczególnie w sytuacjach gdzie sprzęt cyfrowy i analogowy muszą współistnieć. Wartość edukacyjna tego pytania polega na rozpoznaniu specyficznych zastosowań i ograniczeń każdego standardu DVI co jest istotne dla efektywnego projektowania i wdrażania systemów audiowizualnych. Wybór właściwego złącza do konkretnego zastosowania odgrywa kluczową rolę w zapewnieniu optymalnej jakości i funkcjonalności systemu co jest zgodne z najlepszymi praktykami branżowymi.

Pytanie 30

Jakie polecenie w systemie operacyjnym Linux służy do prezentowania konfiguracji interfejsów sieciowych?

A. ipconfig
B. ifconfig
C. ping
D. tracert
Polecenie 'ifconfig' jest jednym z podstawowych narzędzi w systemie operacyjnym Linux, stosowanym do wyświetlania oraz konfiguracji interfejsów sieciowych. Umożliwia użytkownikowi uzyskanie szczegółowych informacji na temat aktualnych interfejsów, takich jak adresy IP, maski podsieci, statystyki ruchu oraz stany interfejsów. Przykładowo, komenda 'ifconfig -a' wyświetli listę wszystkich interfejsów, nawet tych, które są wyłączone. W praktyce, narzędzie to jest często wykorzystywane przez administratorów sieci do monitorowania i diagnostyki, np. w celu rozwiązywania problemów z połączeniem sieciowym. Warto jednak zauważyć, że 'ifconfig' zostało częściowo zastąpione przez bardziej nowoczesne polecenie 'ip', które jest częścią zestawu narzędzi iproute2. Znajomość obu tych narzędzi jest kluczowa dla efektywnego zarządzania siecią w systemach Linux, co jest zgodne z dobrymi praktykami w administracji systemami operacyjnymi.

Pytanie 31

Urządzeniem w zestawie komputerowym, które obsługuje zarówno dane wejściowe, jak i wyjściowe, jest

A. rysownik.
B. głośnik.
C. urządzenie do skanowania.
D. modem.
Modem jest urządzeniem, które pełni kluczową rolę w komunikacji komputerowej, przetwarzając zarówno dane wejściowe, jak i wyjściowe. Jego podstawową funkcją jest modulacja i demodulacja sygnałów, co umożliwia przesyłanie danych przez różnorodne media, takie jak linie telefoniczne, kable koncentryczne czy łącza światłowodowe. Przykładem zastosowania modemu może być połączenie z Internetem, gdzie modem przekształca sygnały cyfrowe z komputera na sygnały analogowe, które mogą być przesyłane przez infrastrukturę telekomunikacyjną. W praktyce, modem jest integralną częścią zestawu komputerowego, umożliwiającą komunikację z siecią, co jest zgodne z aktualnymi standardami, takimi jak DSL czy kablowe połączenia szerokopasmowe. W kontekście dobrych praktyk branżowych, dobór odpowiedniego modemu jest istotny dla zapewnienia optymalnej prędkości i stabilności połączenia, co w konsekwencji wpływa na wydajność i efektywność pracy zdalnej.

Pytanie 32

Oblicz koszt realizacji okablowania strukturalnego od 5 punktów abonenckich do panelu krosowego, wliczając wykonanie kabli łączących dla stacji roboczych. Użyto przy tym 50 m skrętki UTP. Każdy punkt abonencki posiada 2 gniazda typu RJ45.

MateriałJednostkaCena
Gniazdo podtynkowe 45x45, bez ramki, UTP 2xRJ45 kat.5eszt.17 zł
UTP kabel kat.5e PVC 4PR 305mkarton305 zł
RJ wtyk UTP kat.5e beznarzędziowyszt.6 zł
A. 350,00 zł
B. 255,00 zł
C. 152,00 zł
D. 345,00 zł
Poprawna odpowiedź 255,00 zł wynika z dokładnej analizy kosztów materiałów użytych do wykonania okablowania strukturalnego. Zaczynając od 5 punktów abonenckich każdy z nich wymaga jednej jednostki gniazda podtynkowego w cenie 17 zł za sztukę co daje łączny koszt 85 zł. Następnie użyto 50 m skrętki UTP kat. 5e. Cena kartonu 305 m wynosi 305 zł co oznacza że cena za metr wynosi 1 zł dlatego koszt zakupu 50 m to 50 zł. Do każdego z 5 punktów abonenckich należy zamontować dwa wtyki RJ45 co daje łącznie 10 wtyków w cenie 6 zł za sztukę co sumuje się do 60 zł. Również wykonanie kabli połączeniowych z panelu krosowego do stacji roboczych wymaga dodatkowych wtyków RJ45. Przyjmując że każdy kabel połączeniowy używa dwóch wtyków a łączna liczba stacji roboczych wynosi 5 należy dodać 10 wtyków co daje dodatkowe 60 zł. Łączny koszt wszystkich komponentów to 85 zł za gniazda 50 zł za kabel oraz 120 zł za wtyki RJ45 co razem daje poprawną odpowiedź 255 zł. Takie podejście do kalkulacji kosztów jest zgodne z normami i dobrymi praktykami w branży IT zapewniając dokładne i efektywne planowanie infrastruktury sieciowej.

Pytanie 33

Jakie polecenie w systemie Windows powinno być użyte do obserwacji listy bieżących połączeń karty sieciowej w komputerze?

A. Netstat
B. Ping
C. Ipconfig
D. Telnet
Polecenie 'Netstat' (z ang. network statistics) jest narzędziem w systemie Windows, które pozwala na monitorowanie aktywnych połączeń sieciowych oraz portów używanych przez różne aplikacje. Dzięki 'Netstat' użytkownicy mogą uzyskać szczegółowe informacje na temat aktualnych połączeń, w tym adresów IP, portów oraz stanów połączeń (np. 'ESTABLISHED', 'LISTENING'). To narzędzie jest szczególnie przydatne w analizie ruchu sieciowego oraz w identyfikacji potencjalnych problemów z połączeniem, a także w zabezpieczaniu systemu przed nieautoryzowanym dostępem. Praktycznie, administratorzy sieci mogą używać 'Netstat' do monitorowania, które aplikacje komunikują się z siecią i jakie porty są otwarte, co jest kluczowe w zarządzaniu bezpieczeństwem. W kontekście standardów branżowych, regularne monitorowanie połączeń z wykorzystaniem 'Netstat' może być częścią polityki bezpieczeństwa oraz audytów sieciowych. Warto również zaznaczyć, że 'Netstat' ma różne parametry, które pozwalają na dostosowanie wyjścia do potrzeb użytkownika, na przykład 'netstat -a' wyświetli wszystkie połączenia i porty nasłuchujące, co jest niezwykle informatywne.

Pytanie 34

Wskaż rysunek ilustrujący symbol używany do oznaczania portu równoległego LPT?

Ilustracja do pytania
A. rys. D
B. rys. B
C. rys. A
D. rys. C
Odpowiedź rysunek D jest poprawna ponieważ symbol ten przedstawia ikonkę drukarki która jest historycznie powiązana z portem równoległym LPT. LPT lub Line Printer Terminal to standardowy port równoległy używany do podłączania drukarek i innych urządzeń wejścia-wyjścia w komputerach PC. Jego główną cechą charakterystyczną jest możliwość równoległego przesyłania danych co pozwalało na szybszy transfer w porównaniu z portami szeregowymi. Port LPT był powszechnie stosowany w latach 80. i 90. zanim został zastąpiony bardziej nowoczesnymi technologiami takimi jak USB. W praktyce port LPT wykorzystywany był nie tylko do podłączania drukarek ale także skanerów, napędów zewnętrznych czy programatorów mikrokontrolerów. Zastosowanie portu równoległego wynikało z jego prostoty i szerokiej dostępności co pozwalało na łatwe wdrożenie w różnych aplikacjach. Współczesne systemy mogą nadal wykorzystywać emulację portu LPT do obsługi starszych urządzeń co czyni ten symbol istotnym w kontekście kompatybilności wstecznej. Pomimo że technologia się zmienia znajomość tych symboli jest ważna dla zrozumienia ewolucji interfejsów komputerowych i ich wpływu na rozwój technologii.

Pytanie 35

W systemie Linux polecenie touch ma na celu

A. zmianę nazwy lub przeniesienie pliku
B. stworzenie pliku lub aktualizację daty modyfikacji bądź daty ostatniego dostępu
C. wyszukiwanie określonego wzorca w treści pliku
D. policzenie ilości wierszy, słów i znaków w pliku
Polecenie 'touch' w systemie Linux pełni kluczową rolę w zarządzaniu plikami, umożliwiając zarówno tworzenie nowych plików, jak i aktualizację daty ostatniej modyfikacji lub dostępu do istniejących plików. Kiedy używasz polecenia 'touch' z nazwą pliku, na przykład 'touch nowy_plik.txt', system sprawia, że plik zostaje utworzony, jeśli jeszcze nie istnieje, lub aktualizuje datę modyfikacji i ostatniego dostępu, jeśli plik już istnieje. To narzędzie jest niezwykle przydatne w praktyce, zwłaszcza w skryptach bash, gdzie często potrzebujemy szybko stworzyć plik konfiguracyjny lub tymczasowy bez konieczności jego edytowania. Dobrym przykładem zastosowania 'touch' jest sytuacja, gdy automatyzujemy procesy w systemie, gdzie wymagane są pliki sygnalizacyjne do oznaczania postępu lub statusu operacji. W kontekście dobrych praktyk, użycie 'touch' pozwala na zachowanie porządku w zarządzaniu plikami i oszczędza czas przy pracy z systemem plików. Dodatkowo, w ramach administracji systemem, 'touch' może być wykorzystywane do resetowania dat plików, co bywa ważne w kontekście kopii zapasowych oraz zarządzania wersjami.

Pytanie 36

Proces zapisywania kluczy rejestru do pliku określamy jako

A. kopiowaniem rejestru
B. eksportowaniem rejestru
C. modyfikacją rejestru
D. edycją rejestru
Edycja rejestru to proces, w którym użytkownicy zmieniają istniejące wartości kluczy i wartości w rejestrze systemowym. To działanie nie polega jednak na zapisywaniu tych wartości do pliku, co różni je od eksportowania. W praktyce edytowanie rejestru może prowadzić do modyfikacji ustawień systemowych, które mogą wpływać na działanie oprogramowania i samego systemu operacyjnego. Modyfikacja rejestru, z kolei, odnosi się do procesu zmiany jego struktury lub wartości, co również nie jest tożsame z eksportowaniem. Niezrozumienie tych różnic może prowadzić do poważnych problemów, takich jak usunięcie kluczowych wartości, co może skutkować niestabilnością systemu czy nawet jego awarią. Kopiowanie rejestru, jako termin, nie jest używane w kontekście operacji związanych z rejestrem w systemie Windows, co może wprowadzać w błąd. Użytkownicy często mylą kopiowanie z eksportowaniem, zapominając o tym, że proces eksportu tworzy plik, który można zaimportować w przyszłości. Typowym błędem myślowym jest także zakładanie, że modyfikacje i edycje rejestru są bezpieczne bez wcześniejszego wykonania kopii zapasowej, co jest fundamentalnym błędem w zarządzaniu systemem operacyjnym. Dlatego tak istotne jest, aby przed jakimikolwiek zmianami zawsze wykonywać eksport rejestru, co stanowi kluczową praktykę w administracji systemami operacyjnymi.

Pytanie 37

System operacyjny został poddany atakowi przez oprogramowanie szpiegujące. Po usunięciu problemów, aby zapobiec przyszłym atakom, należy

A. stworzyć dwie partycje na dysku twardym
B. przeprowadzić defragmentację dysku
C. ustawić czyszczenie pamięci podręcznej
D. zainstalować oprogramowanie antyspyware
Zainstalowanie oprogramowania antyspyware to kluczowy krok w zapewnieniu bezpieczeństwa systemu operacyjnego. Oprogramowanie to jest zaprojektowane specjalnie w celu wykrywania, usuwania i zapobiegania działaniu programów szpiegujących, które mogą kradnąć dane osobowe, rejestrować aktywność użytkownika lub wprowadzać inne zagrożenia do systemu. W praktyce, instalacja takiego oprogramowania pozwala na monitorowanie aktywności systemu i blokowanie podejrzanych działań w czasie rzeczywistym. Dobrą praktyką jest również regularne aktualizowanie tego oprogramowania, aby mieć dostęp do najnowszych definicji zagrożeń, co zwiększa skuteczność ochrony. Warto również wspomnieć o przestrzeganiu zasad cyberbezpieczeństwa, takich jak unikanie nieznanych linków oraz pobieranie oprogramowania tylko z wiarygodnych źródeł. Do popularnych narzędzi antyspyware należą programy takie jak Malwarebytes czy Spybot, które są szeroko rekomendowane przez specjalistów w dziedzinie IT.

Pytanie 38

Jaką wartość ma moc wyjściowa (ciągła) zasilacza według parametrów przedstawionych w tabeli?

Napięcie wyjściowe+5 V+3.3 V+12 V1+12 V2-12 V+5 VSB
Prąd wyjściowy18,0 A22,0 A18,0 A17,0 A0,3 A2,5 A
Moc wyjściowa120 W336W3,6 W12,5 W
A. 472,1 W
B. 456,0 W
C. 336,0 W
D. 576,0 W
Poprawna odpowiedź wynika z sumowania mocy wyjściowych poszczególnych linii zasilania. Nominalna moc wyjściowa zasilacza jest obliczana jako suma mocy, które mogą być dostarczone przez różne linie napięciowe. W tym przypadku sumujemy moc wszystkich linii: 120 W dla +5 V, 336 W dla +3.3 V, 216 W dla +12 V (sumując +12 V1 i +12 V2), 3.6 W dla +12 V1, 12.5 W dla +12 V2, oraz uwzględniając moc dla +5 VSB. Łączna moc wyjściowa wynosi 472.1 W. W praktyce znajomość mocy wyjściowej jest kluczowa w projektowaniu systemów komputerowych oraz innych urządzeń elektronicznych, gdzie stabilne i odpowiednie zasilanie ma bezpośredni wpływ na funkcjonowanie systemu. Dobre praktyki branżowe zakładają zapewnienie marginesu bezpieczeństwa, aby zasilacz nie pracował na granicy swojej mocy nominalnej, co mogłoby prowadzić do niestabilności lub awarii systemu. Dodatkowo, wybór zasilacza o odpowiedniej mocy jest kluczowy dla efektywności energetycznej, co przekłada się na mniejsze zużycie energii i obniżenie kosztów eksploatacyjnych.

Pytanie 39

Które z metod szyfrowania wykorzystywanych w sieciach bezprzewodowych jest najsłabiej zabezpieczone przed łamaniem haseł?

A. WPA2
B. WEP
C. WPA AES
D. WPA TKIP
WEP, czyli Wired Equivalent Privacy, to protokół bezpieczeństwa, który pojawił się w 1997 roku jako część standardu IEEE 802.11. Jego głównym celem było zabezpieczenie sieci bezprzewodowych na poziomie, który byłby porównywalny z sieciami przewodowymi. Niestety, po czasie okazało się, że WEP ma sporo słabości. Największym problemem jest krótki klucz szyfrujący, który można łatwo złamać. Ataki statystyczne, jak np. atak IV, pozwalają napastnikom przechwycić dane i odszyfrować klucze, co sprawia, że WEP jest naprawdę łatwy do złamania. Jest sporo narzędzi, jak Aircrack-ng, które potrafią to zrobić w praktyce. Dlatego dzisiaj WEP uznaje się za przestarzały i nie powinno się go stosować w nowych sieciach. Lepiej skorzystać z nowszych standardów, jak WPA2, które korzystają z lepszych algorytmów szyfrowania, takich jak AES, co znacznie poprawia bezpieczeństwo.

Pytanie 40

Biorąc pod uwagę konfigurację wykonywaną na ilustracji, administrator po zainstalowaniu systemu operacyjnego uznał za istotne, aby

Ilustracja do pytania
A. aktualizacje były instalowane tylko w godzinach od 6.00 do 17.00.
B. były instalowane aktualizacje pozostałych produktów Microsoft.
C. aktualizacje będą pobierane w przypadku połączeń taryfowych.
D. system nie powiadamiał o konieczności ponownego uruchomienia.
Patrząc na ten ekran konfiguracji Windows Update łatwo wyciągnąć pochopne wnioski, jeśli nie kojarzy się dokładnie, co oznacza każda opcja. Wiele osób skupia się na komunikatach o restartach albo na godzinach aktywności i myśli, że to jest „ten najważniejszy” parametr, którym interesuje się administrator po świeżej instalacji systemu. Tymczasem w pokazanej konfiguracji widać, że powiadamianie o konieczności ponownego uruchomienia jest włączone, a nie wyłączone. Administrator nie chciał ukrywać komunikatów o restartach – to byłoby wręcz sprzeczne z dobrymi praktykami, bo brak jasnej informacji o wymaganym restarcie powoduje, że aktualizacje bezpieczeństwa potrafią wisieć tygodniami w stanie „oczekuje na ponowne uruchomienie”. Podobnie opcja pobierania aktualizacji przy połączeniach taryfowych jest tutaj wyłączona. To też jest logiczne: przy łączach z limitem danych lub rozliczanych za transfer dopuszczanie automatycznych aktualizacji może generować niepotrzebne koszty. Administrator raczej będzie to świadomie blokował, a nie wymuszał, chyba że jest w bardzo specyficznym środowisku. Częstym błędem myślowym jest założenie, że im więcej „włączone”, tym lepiej – a w przypadku połączeń taryfowych jest dokładnie odwrotnie. Kolejna pułapka to godziny aktywnego użytkowania. Na zrzucie ekranu widać zakres 06:00–17:00, ale ta funkcja dotyczy tylko tego, kiedy system nie powinien się samoczynnie restartować, a nie kiedy ma instalować aktualizacje. Zaznaczenie odpowiedzi o instalacji tylko w tych godzinach wynika zwykle z pomieszania pojęć – godziny aktywne służą ochronie użytkownika przed niespodziewanym restartem w czasie pracy, a nie ograniczaniu okna aktualizacji. Kluczowym elementem, który faktycznie został świadomie ustawiony na „Włączone”, jest opcja aktualizacji innych produktów firmy Microsoft. To ona świadczy o intencji administratora: zintegrować utrzymanie aktualności całego oprogramowania Microsoft z jednym mechanizmem Windows Update. Pozostałe ustawienia są tu raczej pomocnicze – służą kontroli wygody i kosztów, a nie decydują o tym, co dokładnie ma być aktualizowane.