Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 27 kwietnia 2026 16:49
  • Data zakończenia: 27 kwietnia 2026 16:57

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Oprogramowanie diagnostyczne komputera pokazało komunikat NIC ERROR. Co ten komunikat wskazuje?

A. dźwiękowej
B. wideo
C. sieciowej
D. graficznej
Komunikat NIC ERROR to znak, że coś jest nie tak z kartą sieciową w komputerze. Ta karta odpowiada za nasze połączenia z siecią, zarówno w lokalnej sieci, jak i w Internecie. Problemy mogą się zdarzyć z różnych powodów – może to być uszkodzenie sprzętu, złe sterowniki, konflikt adresów IP lub nawet problemy z kablem. Na przykład, wyobraź sobie, że chcesz surfować po sieci, ale nagle nie możesz się połączyć przez błąd karty. W takiej sytuacji warto najpierw sprawdzić, co się dzieje z kartą w menedżerze urządzeń i uruchomić diagnostykę sieci. Pamiętaj też, że dobrym pomysłem jest regularne aktualizowanie sterowników oraz dbanie o stan sprzętu, żeby unikać przyszłych problemów. Jak coś nie działa, warto rzucić okiem na dokumentację albo skontaktować się z pomocą techniczną – czasami to naprawdę może pomóc.

Pytanie 2

W dokumentacji technicznej procesora znajdującego się na płycie głównej komputera, jaką jednostkę miary stosuje się do określenia szybkości zegara?

A. kHz
B. GHz
C. s
D. GHz/s
Odpowiedź, którą zaznaczyłeś, to GHz i to jest całkiem dobre! To jednostka częstotliwości, którą często używamy, żeby mówić o szybkości zegara w procesorach komputerowych. Gigaherc oznacza miliard cykli na sekundę, co ma spory wpływ na wydajność danego procesora. Im wyższa częstotliwość, tym sprawniej procesor radzi sobie z różnymi zadaniami. Na przykład, procesor z częstotliwością 3.5 GHz potrafi wykonać 3.5 miliarda cykli w każdej sekundzie, co jest naprawdę przydatne w grach czy programach wymagających dużej mocy do obliczeń. W branży komputerowej takie standardy jak Intel Turbo Boost czy AMD Turbo Core też bazują na GHz, dostosowując moc procesora do aktualnego obciążenia. Ważne jest, żeby znać te jednostki, bo zrozumienie ich wpływu na działanie komputerów jest kluczowe dla każdego, kto ma z nimi do czynienia.

Pytanie 3

Na płycie głównej uszkodzona została zintegrowana karta sieciowa. Komputer nie ma zainstalowanego dysku twardego ani żadnych innych napędów, takich jak stacja dysków czy CD-ROM. Klient informuje, że w firmowej sieci komputery nie mają napędów, a wszystko "czyta" się z serwera. W celu przywrócenia utraconej funkcji należy zainstalować

A. dysk twardy w komputerze
B. napęd CD-ROM w komputerze
C. kartę sieciową samodzielnie wspierającą funkcję Postboot Execution Enumeration w gnieździe rozszerzeń
D. kartę sieciową  samodzielnie wspierającą funkcję Preboot Execution Environment w gnieździe rozszerzeń
Zainstalowanie dysku twardego lub napędu CD-ROM nie rozwiąże problemu, ponieważ urządzenia te są fizycznymi nośnikami danych, których brak w opisanej sytuacji. Klient wskazuje, że w sieci firmowej komputery nie korzystają z lokalnych napędów, co oznacza, że system operacyjny oraz aplikacje ładowane są bezpośrednio z serwera. Dlatego montaż dysku twardego byłby zbędny i nieefektywny, a dodatkowo nie pasowałby do opisanego scenariusza, gdzie lokalne nośniki nie są wykorzystywane. Karty sieciowe, które nie obsługują funkcji PXE, są niewystarczające, ponieważ nie umożliwiają zdalnego uruchamiania systemu. Różnica między PXE a innymi metodami rozruchu polega na tym, że PXE wykorzystuje protokoły sieciowe do załadowania obrazu systemu operacyjnego z serwera, co jest niezbędne w tym przypadku. Wybór karty sieciowej, która obsługuje tylko POST i nie oferuje PXE, również nie byłby właściwy, gdyż nie zapewniałby pożądanej funkcjonalności. Zrozumienie różnicy między różnymi typami kart sieciowych oraz ich funkcjami jest kluczowe w kontekście zarządzania infrastrukturą IT. Prawidłowe podejście do problemu wymaga analizy potrzeb i warunków pracy w danej sieci, a wybór odpowiedniego sprzętu powinien być dostosowany do specyficznych wymagań środowiska operacyjnego.

Pytanie 4

Narzędziem służącym do tworzenia logicznych podziałów na dysku twardym w systemie GNU/Linux jest

A. truncate
B. format
C. convert
D. fdisk
Odpowiedź 'fdisk' jest prawidłowa, ponieważ jest to narzędzie w systemie GNU/Linux używane do partycjonowania dysków twardych. Umożliwia ono tworzenie, usuwanie oraz modyfikację partycji na dysku, co jest kluczowe w zarządzaniu przestrzenią dyskową. Fdisk operuje na poziomie systemu plików, co pozwala użytkownikowi na dokładne dostosowanie struktury dysku do jego potrzeb. Przykładem zastosowania fdisk może być sytuacja, gdy administrator systemu chce podzielić nowo podłączony dysk twardy na kilka partycji, aby utworzyć osobne obszary dla różnych systemów operacyjnych lub danych. W praktyce korzystanie z fdisk wymaga pewnej ostrożności, ponieważ błędne operacje mogą prowadzić do utraty danych. Dlatego ważne jest, aby przed przystąpieniem do pracy z tym narzędziem zrobić kopię zapasową danych. Narzędzie to jest zgodne z wieloma standardami branżowymi i jest szeroko stosowane w administracji systemami Linux, co czyni je niezbędnym dla każdego, kto zarządza infrastrukturą IT.

Pytanie 5

Wszystkie ustawienia użytkowników komputera są przechowywane w gałęzi rejestru oznaczonej akronimem

A. HKCR
B. HKCC
C. HKLM
D. HKCU
HKCU, czyli HKEY_CURRENT_USER, to gałąź rejestru systemu Windows, która zawiera ustawienia konfiguracyjne dla zalogowanego użytkownika. W tej gałęzi przechowywane są dane dotyczące preferencji użytkownika, takie jak ustawienia pulpitu, preferencje aplikacji oraz inne osobiste ustawienia, co czyni ją kluczowym elementem w zarządzaniu środowiskiem użytkownika. Przykładowo, jeśli użytkownik zmienia tapetę na pulpicie, zmiany te są zapisywane w HKCU, umożliwiając systemowi Windows przywrócenie tych ustawień przy kolejnej sesji. Z perspektywy administracji systemem, zrozumienie i umiejętność manipulacji danymi w tej gałęzi rejestru są niezbędne, szczególnie podczas rozwiązywania problemów związanych z ustawieniami użytkownika. Dobrą praktyką jest regularne tworzenie kopii zapasowych rejestru przed wprowadzeniem jakichkolwiek zmian, co pozwoli na łatwe przywrócenie wcześniejszych konfiguracji w przypadku niepożądanych skutków.

Pytanie 6

Do serwisu komputerowego przyniesiono laptopa, którego matryca wyświetla obraz w bardzo słabej jakości. Dodatkowo obraz jest znacząco ciemny i widoczny jedynie z niewielkiej odległości. Co może być przyczyną tej usterki?

A. uszkodzone gniazdo HDMI
B. rozbita matryca
C. uszkodzony inwerter
D. uszkodzone łącze między procesorem a matrycą
Uszkodzony inwerter jest najczęstszą przyczyną problemów z wyświetlaniem obrazu w laptopach, szczególnie gdy obraz jest ciemny i widoczny tylko z bliska. Inwerter jest odpowiedzialny za zasilanie podświetlenia matrycy, co w przypadku laptopów LCD odbywa się najczęściej poprzez zasilanie lampy CCFL. Kiedy inwerter ulega uszkodzeniu, nie dostarcza odpowiedniej mocy do podświetlenia, co efektywnie prowadzi do ciemności obrazu. W praktyce, użytkownicy mogą zauważyć, że obraz jest widoczny tylko przy dużym kontraście lub w jasnym otoczeniu, co wskazuje na problemy z oświetleniem. Naprawa lub wymiana uszkodzonego inwertera przywraca właściwe działanie matrycy, co jest zgodne z dobrymi praktykami w serwisie komputerowym. Zrozumienie działania inwertera oraz jego roli w systemie wyświetlania jest kluczowe dla efektywnej diagnostyki i naprawy problemów z wyświetlaniem w laptopach, co jest standardem w branży serwisowej.

Pytanie 7

Instalacja systemów Linux oraz Windows 7 przebiegła bez żadnych problemów. Systemy zainstalowały się poprawnie z domyślnymi ustawieniami. Na tym samym komputerze, przy tej samej konfiguracji, podczas instalacji systemu Windows XP pojawił się komunikat o braku dysków twardych, co może sugerować

A. błędnie skonfigurowane bootowanie napędów
B. uszkodzenie logiczne dysku twardego
C. brak sterowników
D. nieprawidłowe ułożenie zworek w dysku twardym
Złe ułożenie zworek w dysku twardym oraz uszkodzenie logiczne dysku twardego to potencjalne problemy, które mogą powodować błąd wykrycia dysków twardych, ale w tym konkretnym przypadku są mniej prawdopodobne. W przypadku złego ułożenia zworek, zazwyczaj prowadzi to do sytuacji, w której system w ogóle nie wykrywa dysku twardego, a nie do wyświetlania komunikatu o braku dysków podczas instalacji. Z kolei uszkodzenia logiczne, takie jak usunięcie partycji czy problem z systemem plików, zazwyczaj skutkują innymi rodzajami błędów lub ostrzeżeń, które pojawiają się po uruchomieniu systemu, a nie podczas samej instalacji. Ustawienie bootowania napędów ma kluczowe znaczenie, jednak w tym przypadku system Windows 7 oraz Linux zainstalowały się poprawnie, co sugeruje, że bootowanie było skonfigurowane właściwie. W związku z tym brak sterowników jest najbardziej oczywistą przyczyną, gdyż Windows XP, w przeciwieństwie do nowszych systemów operacyjnych, może nie być w stanie automatycznie rozpoznać nowoczesnych kontrolerów dysków. To często prowadzi do błędnych wniosków, gdzie użytkownicy skupiają się na sprzętowych aspektach zamiast na dostosowywaniu środowiska instalacyjnego poprzez zapewnienie odpowiednich sterowników. Warto również zauważyć, że w przypadku starszych systemów, takich jak Windows XP, zapewnienie zgodności sprzętowej i aktualności sterowników jest kluczowe, aby uniknąć problemów podczas instalacji.

Pytanie 8

W systemie Linux, aby uzyskać informację o nazwie aktualnego katalogu roboczego, należy użyć polecenia

A. finger
B. cat
C. pwd
D. echo
Wybierając inne polecenia, takie jak 'cat', 'echo' czy 'finger', można napotkać na szereg nieporozumień dotyczących ich funkcji. Polecenie 'cat' służy do wyświetlania zawartości plików tekstowych. Choć jest to przydatne narzędzie do przeglądania plików, nie dostarcza informacji o bieżącym katalogu. Natomiast 'echo' wykorzystuje się do wyświetlania tekstu lub zmiennych na standardowym wyjściu, co również nie ma związku z lokalizacją w systemie plików. Z kolei 'finger' to polecenie, które wyświetla informacje o użytkownikach systemu, a nie o strukturze katalogów. Typowym błędem myślowym jest zakładanie, że jakiekolwiek polecenie w terminalu może dostarczać informacji o lokalizacji w systemie plików, podczas gdy każde z wymienionych narzędzi ma swoje specyficzne zastosowania. Dlatego kluczowe jest zrozumienie kontekstu i funkcji każdego polecenia, co pozwala na efektywne korzystanie z systemu oraz unikanie frustracji związanej z błędnym używaniem narzędzi. Osoby uczące się Linuxa powinny szczególnie zwracać uwagę na specyfikę poleceń oraz ich przeznaczenie, aby stać się biegłymi użytkownikami tego systemu.

Pytanie 9

Jakie rozszerzenia mają pliki instalacyjne systemu operacyjnego Linux?

A. zip, exe
B. tgz, dmg
C. ini, dll
D. rpm, deb
Wybór innych opcji jako odpowiedzi na to pytanie może prowadzić do zrozumienia błędnych koncepcji dotyczących zarządzania oprogramowaniem w systemach Linux. Rozszerzenia ini i dll są typowe dla systemu Windows, gdzie pliki ini są używane do przechowywania konfiguracji aplikacji, a pliki dll (dynamic link library) zawierają funkcje, które mogą być współdzielone przez różne aplikacje. Ich obecność w kontekście Linuxa jest myląca, ponieważ nie są one stosowane do instalacji oprogramowania w tym systemie. Odpowiedzi zip i exe także wprowadzają w błąd; format zip to kompresja plików, a exe to format pliku wykonywalnego w Windows, który nie jest kompatybilny z systemami Linux. Odpowiedź tgz, dmg również nie jest właściwa; tgz to skompresowany archiwum (tar.gz) używane w Linuxie, ale nie jest to pakiet instalacyjny, a dmg to format obrazu dysku specyficzny dla macOS. Rozumienie tych różnic jest kluczowe, gdyż nieprawidłowe podejście do instalacji oprogramowania może prowadzić do problemów z kompatybilnością i bezpieczeństwem systemu. W praktyce, administratorzy systemów muszą być świadomi tych formatów, aby efektywnie zarządzać oprogramowaniem i unikać typowych pułapek związanych z nieodpowiednim doborem narzędzi.

Pytanie 10

Na ilustracji przedstawiono ustawienie karty sieciowej, której adres MAC wynosi

Ethernet adapter VirtualBox Host-Only Network:

   Connection-specific DNS Suffix  . :
   Description . . . . . . . . . . . : VirtualBox Host-Only Ethernet Adapter
   Physical Address. . . . . . . . . : 0A-00-27-00-00-07
   DHCP Enabled. . . . . . . . . . . : No
   Autoconfiguration Enabled . . . . : Yes
   Link-local IPv6 Address . . . . . : fe80::e890:be2b:4c6c:5aa9%7(Preferred)
   IPv4 Address. . . . . . . . . . . : 192.168.56.1(Preferred)
   Subnet Mask . . . . . . . . . . . : 255.255.255.0
   Default Gateway . . . . . . . . . :
   DHCPv6 IAID . . . . . . . . . . . : 134873127
   DHCPv6 Client DUID. . . . . . . . : 00-01-00-01-1F-04-2D-93-00-1F-D0-0C-7B-12
   DNS Servers . . . . . . . . . . . : fec0:0:0:ffff::1%1
                                       fec0:0:0:ffff::2%1
                                       fec0:0:0:ffff::3%1
   NetBIOS over Tcpip. . . . . . . . : Enabled
A. FEC0:0:0:FFFF::2
B. 192.168.56.1
C. FE80::E890:BE2B:4C6C:5AA9
D. 0A-00-27-00-00-07
Adres MAC jest unikalnym identyfikatorem przypisanym do karty sieciowej przez producenta. Składa się z 48 bitów, co zazwyczaj przedstawiane jest jako 12-cyfrowy adres zapisany w formacie szesnastkowym, np. 0A-00-27-00-00-07. Ten adres jest kluczowy w komunikacji na poziomie warstwy łącza danych w modelu OSI, umożliwiając urządzeniom wzajemne rozpoznawanie się w sieci lokalnej. Standard IEEE dla adresów MAC określa, że pierwsze 24 bity to identyfikator producenta (OUI), a pozostałe 24 bity są unikalne dla danego urządzenia. Zastosowanie adresów MAC jest szerokie, od filtrowania w sieciach Wi-Fi po konfigurację reguł bezpieczeństwa w sieciach LAN. W praktyce, znajomość adresu MAC jest nieoceniona przy diagnozowaniu problemów sieciowych oraz przy konfiguracji sprzętu sieciowego, gdzie identyfikacja urządzeń fizycznych jest niezbędna. W porównaniu do adresów IP, które mogą się zmieniać (szczególnie w przypadku DHCP), adresy MAC pozostają stałe, zapewniając spójność identyfikacji w długim okresie użytkowania.

Pytanie 11

Serwer, który realizuje żądania w protokole komunikacyjnym HTTP, to serwer

A. FTP
B. WWW
C. DHCP
D. DNS
Odpowiedzi, które nie wskazują na serwer WWW, opierają się na zrozumieniu różnych funkcji protokołów i usług sieciowych. Serwer DNS (Domain Name System) jest odpowiedzialny za tłumaczenie nazw domen na adresy IP, co umożliwia przeglądarkom odnalezienie serwerów WWW. Nie jest to jednak serwer, który obsługuje bezpośrednio żądania HTTP. DHCP (Dynamic Host Configuration Protocol) to protokół, który automatycznie przypisuje adresy IP urządzeniom w sieci, ale również nie jest związany z obsługą protokołu HTTP. FTP (File Transfer Protocol) służy do transferu plików pomiędzy urządzeniami, a nie do serwowania stron internetowych. Zrozumienie tych różnic jest kluczowe dla efektywnego działania w obszarze technologii internetowych. Użytkownicy często mylą te protokoły, co prowadzi do nieporozumień na temat ich funkcji. Ważne jest, aby zrozumieć, że każdy z tych serwerów pełni odrębną rolę w architekturze sieciowej i nie są one wymienne. Dobrze zrozumiana hierarchia i funkcje tych technologii pomagają w lepszym zarządzaniu i rozwoju infrastruktury sieciowej.

Pytanie 12

W przypadku sieci strukturalnej rekomendowane jest zainstalowanie jednego punktu abonenckiego na obszarze wynoszącym

A. 10m2
B. 20m2
C. 5m2
D. 30m2

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Odpowiedź 10m2 jest prawidłowa, ponieważ w sieciach strukturalnych, zgodnie z wytycznymi branżowymi, zaleca się umieszczanie jednego punktu abonenckiego na powierzchni 10m2. Takie rozplanowanie zapewnia optymalną jakość sygnału oraz odpowiednią ilość pasma, co jest kluczowe dla efektywności działania sieci. Przykładem zastosowania tej zasady może być projektowanie sieci lokalnych w biurach, gdzie każde biurko lub strefa pracy powinna mieć dedykowany punkt abonencki, aby zapewnić stabilne połączenie z siecią. Utrzymanie tej proporcji przyczynia się do prawidłowego funkcjonowania usług, takich jak VoIP czy przesył danych, co jest istotne w kontekście ciągłego rozwoju technologii komunikacyjnych. W praktyce, stosowanie się do tego standardu pozwala również na łatwiejsze planowanie rozbudowy sieci w przyszłości, co jest ważne w kontekście zmieniających się potrzeb użytkowników i rosnącego zapotrzebowania na pasmo. Warto również wspomnieć, że wiele organizacji bazuje na normach takich jak ISO/IEC 11801, które określają wymagania dotyczące projektowania sieci strukturalnych.

Pytanie 13

Fragment konfiguracji pliku httpd.conf dla serwera Apache wygląda następująco Listen 8012 Server Name localhost:8012 Aby zweryfikować prawidłowe działanie witryny WWW na serwerze, należy wpisać w przeglądarkę

A. http://localhost:apache
B. http://localhost:8080
C. http://localhost:8012
D. http://localhost
Wybór odpowiedzi http://localhost:8012 jest poprawny, ponieważ port 8012 został skonfigurowany w pliku httpd.conf serwera Apache za pomocą dyrektywy Listen. Oznacza to, że serwer nasłuchuje na tym porcie dla przychodzących połączeń. Wprowadzenie tego adresu URL w przeglądarce umożliwia nawiązanie połączenia z serwerem działającym lokalnie, co jest kluczowe w przypadku testowania aplikacji webowych. Użycie lokalnego adresu IP (localhost) oraz przypisanie odpowiedniego portu jest standardową praktyką w rozwoju oprogramowania, pozwalającą na szybkie uruchomienie i testowanie aplikacji bez potrzeby dostępu do zewnętrznych zasobów. Dodatkowo, w przypadku zmiany portu w przyszłości, należy pamiętać o aktualizacji ustawień w aplikacji klienckiej, aby zapewnić prawidłowe działanie. Zrozumienie tej koncepcji jest istotne dla każdego, kto pracuje z serwerami WWW, zwłaszcza w kontekście konfiguracji i zarządzania serwerami Apache.

Pytanie 14

Którego urządzenia dotyczy strzałka na rysunku?

Ilustracja do pytania
A. Przełącznika
B. Serwera
C. Routera
D. Koncentratora
Router to urządzenie sieciowe, które kieruje pakiety danych między różnymi sieciami. Działa na trzeciej warstwie modelu OSI, wykorzystując adresy IP do podejmowania decyzji o trasowaniu danych. Routery są kluczowe w zarządzaniu ruchem internetowym, umożliwiając komunikację pomiędzy sieciami lokalnymi a globalną siecią Internet. Dzięki nim możliwe jest przesyłanie danych na dużą skalę, co jest niezbędne w nowoczesnych organizacjach i przedsiębiorstwach. Routery mogą realizować różne protokoły routingu, takie jak RIP, OSPF czy BGP, co pozwala im dynamicznie dostosowywać się do zmieniających się warunków w sieci. W praktyce routery zapewniają nie tylko podstawową funkcję routingu, ale także mogą pełnić role takie jak firewall, kontrola dostępu czy VPN. Wiedza na temat działania routerów i ich konfiguracji jest fundamentalna dla specjalistów sieciowych, a umiejętność ich efektywnego wykorzystania zgodnie z dobrymi praktykami, takimi jak segmentacja sieci czy zapewnienie redundancji, jest nieodłącznym elementem zarządzania infrastrukturą IT.

Pytanie 15

Kiedy użytkownik wprowadza w wierszu poleceń komendę ping www.onet.pl, otrzymuje komunikat: "Żądanie polecenia ping nie może znaleźć hosta www.onet.pl. Sprawdź nazwę i ponów próbę." Natomiast po wpisaniu polecenia ping 213.180.141.140 (adres IP serwera www.onet.pl) użytkownik otrzymuje odpowiedź z serwera. Jakie mogą być przyczyny tego zjawiska?

A. Nieprawidłowo skonfigurowana maska podsieci
B. Błędny adres IP serwera DNS
C. Błędny adres IP hosta
D. Nieprawidłowo skonfigurowana brama domyślna
Niepoprawny adres IP hosta nie jest przyczyną problemu w tym przypadku. Adres IP, który został użyty w poleceniu ping (213.180.141.140), jest prawidłowy i odpowiada rzeczywistemu serwerowi www.onet.pl. Problemy z niepoprawnym adresem IP hosta zazwyczaj występują, gdy wpisany adres nie istnieje lub jest błędnie skonstruowany, co nie ma miejsca w tej sytuacji. Użytkownik uzyskuje odpowiedź na pingowanie adresu IP, co sugeruje, że adres IP jest właściwy. Problemy związane z niepoprawnym adresem IP serwera DNS również nie są uzasadnione, ponieważ to właśnie brak możliwości rozpoznania nazwy hosta wskazuje na wadliwą konfigurację serwera DNS. Użytkownik nie powinien mylić problemów z nazwą hosta z problemami związanymi z ustawieniami bramy domyślnej czy maską podsieci. Niepoprawnie skonfigurowana brama domyślna mogłaby prowadzić do problemów z komunikacją w lokalnej sieci lub z dostępem do internetu, natomiast w tym przypadku użytkownik nadal mógł pingować bezpośredni adres IP, co dowodzi, że połączenie z siecią zewnętrzną jest funkcjonalne. Zrozumienie różnicy między problemami związanymi z DNS a problemami z adresacją IP jest kluczowe dla skutecznego rozwiązywania problemów sieciowych. W praktyce, ujawnia to typowy błąd myślowy, gdzie użytkownicy mylą przyczyny problemu, co prowadzi do nieefektywnego diagnozowania i rozwiązywania błędów w komunikacji sieciowej.

Pytanie 16

W wyniku wykonania przedstawionych poleceń systemu Linux interfejs sieciowy eth0 otrzyma:

ifconfig eth0 10.0.0.100 netmask 255.255.255.0 broadcast 10.0.0.255 up
route add default gw 10.0.0.10
A. adres IP 10.0.0.100, maskę /24, bramę 10.0.0.10
B. adres IP 10.0.0.10, maskę /16, bramę 10.0.0.100
C. adres IP 10.0.0.100, maskę /22, bramę 10.0.0.10
D. adres IP 10.0.0.10, maskę /24, bramę 10.0.0.255
Odpowiedź wskazująca na adres IP 10.0.0.100, maskę /24 oraz bramę 10.0.0.10 jest prawidłowa, ponieważ polecenie 'ifconfig eth0 10.0.0.100 netmask 255.255.255.0 broadcast 10.0.0.255 up' ustawia adres IP interfejsu eth0 na 10.0.0.100 oraz maskę podsieci na 255.255.255.0, co odpowiada notacji CIDR /24. Oznacza to, że adresy w tej samej podsieci mogą mieć wartości od 10.0.0.1 do 10.0.0.254. Drugie polecenie 'route add default gw 10.0.0.10' ustawia domyślną bramę na 10.0.0.10, co jest istotne dla komunikacji z innymi sieciami. Zapewnienie poprawnych ustawień IP i maski podsieci jest kluczowe w zarządzaniu sieciami komputerowymi, ponieważ umożliwia efektywną komunikację w obrębie podsieci, a także między różnymi podsieciami. Przykładem praktycznego zastosowania tych ustawień może być konfiguracja serwera, który ma komunikować się z innymi urządzeniami w sieci lokalnej oraz z sieciami zewnętrznymi za pośrednictwem bramy.

Pytanie 17

W sieci o adresie 192.168.20.0 użyto maski podsieci 255.255.255.248. Jak wiele adresów IP będzie dostępnych dla urządzeń?

A. 6
B. 1022
C. 510
D. 14
Odpowiedź 6 jest poprawna ze względu na zastosowanie maski podsieci 255.255.255.248, co oznacza, że używamy 3 bitów do identyfikacji hostów w danej podsieci. Maska ta pozwala na utworzenie 2^3 = 8 adresów IP w danej podsieci. Jednakże, z tych 8 adresów, jeden jest zarezerwowany jako adres sieciowy (192.168.20.0), a drugi jako adres rozgłoszeniowy (192.168.20.7). Zatem, liczba dostępnych adresów IP dla urządzeń w tej podsieci wynosi 8 - 2 = 6. Dla praktyki, taka konfiguracja jest często stosowana w małych sieciach, gdzie potrzebujemy ograniczonej liczby adresów IP dla urządzeń, a jednocześnie zachowujemy prostotę zarządzania i bezpieczeństwo. Warto zauważyć, że zgodnie z zasadami IPv4, efektywne planowanie adresów IP jest kluczowe dla optymalizacji wydajności sieci. W praktyce, wykorzystanie maski 255.255.255.248 jest dobrym przykładem na to, jak można zminimalizować marnotrawstwo adresów IP w małych sieciach.

Pytanie 18

Okablowanie strukturalne klasyfikuje się jako część infrastruktury

A. terytorialnej
B. dalekosiężnej
C. aktywnej
D. pasywnej

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Okablowanie strukturalne jest kluczowym elementem infrastruktury pasywnej w systemach telekomunikacyjnych. W odróżnieniu od infrastruktury aktywnej, która obejmuje urządzenia elektroniczne takie jak przełączniki i routery, infrastruktura pasywna dotyczy komponentów, które nie wymagają zasilania ani aktywnego zarządzania. Okablowanie strukturalne, które obejmuje kable miedziane, światłowodowe oraz elementy takie jak gniazdka, związki oraz paneli krosowniczych, jest projektowane zgodnie z międzynarodowymi standardami, takimi jak ISO/IEC 11801 oraz ANSI/TIA-568. Te standardy definiują normy dotyczące instalacji, wydajności i testowania systemów okablowania. Przykładem zastosowania okablowania strukturalnego jest zapewnienie szybkiej i niezawodnej łączności w biurach oraz centrach danych, gdzie poprawne projektowanie i instalacja systemu okablowania mają kluczowe znaczenie dla efektywności operacyjnej. Dobre praktyki inżynieryjne w tej dziedzinie obejmują staranne planowanie topologii sieci oraz przestrzeganie zasad dotyczących długości kabli i zakłóceń elektromagnetycznych, co przekłada się na wysoką jakość sygnału i minimalizację błędów transmisji.

Pytanie 19

Aby umożliwić wymianę informacji pomiędzy sieciami VLAN, wykorzystuje się

A. punkt dostępowy.
B. modem.
C. koncentrator.
D. router.

Brak odpowiedzi na to pytanie.

Wyjaśnienie poprawnej odpowiedzi:
Routery są kluczowymi urządzeniami w architekturze sieciowej, które umożliwiają komunikację między różnymi sieciami, w tym między sieciami VLAN (Virtual Local Area Network). VLAN-y są technologią, która pozwala na segmentację ruchu sieciowego w obrębie jednej fizycznej sieci lokalnej, co zwiększa bezpieczeństwo i efektywność zarządzania ruchem. Aby urządzenia znajdujące się w różnych VLAN-ach mogły się ze sobą komunikować, niezbędne jest wykorzystanie routera, który działa na warstwie trzeciej modelu OSI. Routery dokonują inspekcji pakietów i podejmują decyzje o trasowaniu ruchu między VLAN-ami, co umożliwia wymianę danych. Przykładem zastosowania routerów w sieciach VLAN jest konfiguracja trunkingowa, gdzie router łączy z różnymi VLAN-ami przy pomocy jednego interfejsu, wykorzystując protokoły takie jak 802.1Q. Dzięki zastosowaniu routerów można również implementować polityki bezpieczeństwa i zarządzania ruchem, co jest zgodne z dobrą praktyką w inżynierii sieciowej.

Pytanie 20

Który z zapisów adresu IPv4 z maską jest niepoprawny?

A. 192.168.0.1, maska 255.250.255.0
B. 100.0.0.0/8
C. 18.4.0.0, maska 255.0.0.0
D. 16.1.1.1/5
Zapis adresu IPv4 192.168.0.1 z maską 255.250.255.0 jest nieprawidłowy ze względu na to, że maska podsieci nie jest zgodna z konwencjami adresowania. Maska 255.250.255.0 nie tworzy poprawnego podziału sieci, ponieważ jej reprezentacja binarna zawiera '0' w środkowej części, co wskazuje na nieciągłość w maskowaniu. W praktyce oznacza to, że nie można efektywnie wydzielić podsieci i przypisać adresów IP bez ryzyka konfliktów. Zgodnie z zasadami CIDR (Classless Inter-Domain Routing), maski muszą być w postaci ciągłej serii '1' w części sieciowej, a następnie '0' w części hosta. Przykładem poprawnej maski dla danego adresu IP może być 255.255.255.0, co pozwala na utworzenie 256 adresów w sieci lokalnej. W kontekście praktycznym, prawidłowe maskowanie jest kluczowe dla efektywnego zarządzania adresami IP oraz zapewnienia odpowiedniej komunikacji w sieci.

Pytanie 21

Zanim przystąpisz do modernizacji komputerów osobistych oraz serwerów, polegającej na dodaniu nowych modułów pamięci RAM, powinieneś zweryfikować

A. typ pamięci RAM, maksymalną pojemność oraz ilość modułów, które obsługuje płyta główna
B. gniazdo interfejsu karty graficznej oraz moc zainstalowanego źródła zasilania
C. markę pamięci RAM oraz zewnętrzne interfejsy zamontowane na płycie głównej
D. pojemność i typ interfejsu twardego dysku oraz rodzaj gniazda zainstalowanej pamięci RAM
Wybór właściwej odpowiedzi jest kluczowy, ponieważ przed modernizacją komputerów osobistych oraz serwerów ważne jest, aby upewnić się, że nowa pamięć RAM jest kompatybilna z płytą główną. Należy zwrócić uwagę na model pamięci RAM, maksymalną pojemność, jaką płyta główna może obsłużyć oraz liczbę modułów pamięci, które mogą być zainstalowane jednocześnie. Na przykład, jeśli płyta główna obsługuje maksymalnie 32 GB pamięci RAM w czterech gniazdach, a my chcemy zainstalować cztery moduły po 16 GB, to taka modyfikacja nie będzie możliwa. Niektóre płyty główne mogą również wspierać różne typy pamięci, takie jak DDR3, DDR4 lub DDR5, co dodatkowo wpływa na wybór odpowiednich modułów. Przykładowo, wprowadzając nowe moduły pamięci, które są niekompatybilne z istniejącymi, można napotkać problemy z bootowaniem systemu, błędy pamięci, a nawet uszkodzenie komponentów. Dlatego ważne jest, aby przed zakupem nowych modułów dokładnie sprawdzić specyfikacje płyty głównej, co jest zgodne z dobrymi praktykami w branży komputerowej.

Pytanie 22

Jakie polecenie pozwala na przeprowadzenie aktualizacji do nowszej wersji systemu Ubuntu Linux?

A. install source update
B. apt-get sudo su update
C. sudo apt-get dist-upgrade
D. upgrade install dist high
Wszystkie podane odpowiedzi, z wyjątkiem 'sudo apt-get dist-upgrade', są niepoprawne z różnych powodów. W pierwszej odpowiedzi użycie 'install source update' nie odnosi się do żadnego podstawowego polecenia w systemie Ubuntu. 'install' i 'update' są używane w różnych kontekstach, jednak brak odpowiednich komend oraz niepoprawna składnia sprawiają, że nie można zrealizować żadnej aktualizacji. Druga odpowiedź, 'apt-get sudo su update', jest również niepoprawna, ponieważ łączy polecenia w sposób, który nie ma sensu. 'sudo' jest używane do nadania uprawnień administratora, ale nie powinno się go stosować w ten sposób. 'su' zmienia użytkownika, co w kontekście aktualizacji jest niepotrzebne, a 'update' jest zbyt ogólnym terminem, który nie wskazuje na konkretne działanie aktualizacji pakietów. Trzecia odpowiedź, 'upgrade install dist high', jest zbiorem losowych słów, które nie tworzą prawidłowego polecenia. 'upgrade' i 'install' mogą być używane oddzielnie, ale ich połączenie w takiej formie nie ma żadnego sensu, a fraza 'dist high' nie odnosi się do żadnej znanej komendy w Ubuntu. Tego typu błędy mogą wynikać z braku zrozumienia podstawowych zasad działania systemu zarządzania pakietami oraz znajomości poprawnej składni poleceń w terminalu. Właściwe korzystanie z poleceń w systemie operacyjnym Linux jest kluczowe dla efektywnego zarządzania systemem oraz zapewnienia jego bezpieczeństwa.

Pytanie 23

Podaj domyślny port używany do przesyłania poleceń (command) w serwerze FTP

A. 20
B. 110
C. 25
D. 21
Porty 25, 110 oraz 20 są często mylone z portem 21 w kontekście różnorodnych protokołów komunikacyjnych. Port 25 jest standardowo wykorzystywany przez protokół SMTP (Simple Mail Transfer Protocol), który jest odpowiedzialny za przesyłanie e-maili. W wielu przypadkach, użytkownicy mogą mylić te dwa protokoły, zwłaszcza gdy rozważają przesyłanie plików jako część procesu komunikacji. Zrozumienie różnicy między FTP a SMTP jest kluczowe, ponieważ koncentruje się na różnych zastosowaniach oraz typach przesyłanych danych. Port 110 jest zarezerwowany dla protokołu POP3 (Post Office Protocol version 3), który służy do pobierania wiadomości e-mail z serwera. Użytkownicy mogą błędnie uznać, że POP3 i FTP są wymienne, ponieważ oba dotyczą transferu danych, jednak ich funkcje i zastosowania są całkowicie różne. Port 20 jest używany do transferu danych w trybie aktywnym FTP, a nie do przekazywania poleceń. W trybie aktywnym, po połączeniu na porcie 21, serwer FTP używa portu 20 do przesyłania danych do klienta. Pomyłki dotyczące portów FTP mogą prowadzić do nieprawidłowej konfiguracji serwerów, co w konsekwencji może wpłynąć na bezpieczeństwo oraz efektywność transferu plików. Wiedza na temat właściwych portów oraz protokołów jest więc istotnym elementem dla każdego, kto zarządza sieciami lub systemami przesyłania plików.

Pytanie 24

Jakie połączenie bezprzewodowe należy zastosować, aby mysz mogła komunikować się z komputerem?

A. Bluetooth
B. RS 232
C. IEEE_1284
D. DVI
Bluetooth jest bezprzewodowym standardem komunikacyjnym, który umożliwia przesyłanie danych na krótkie odległości, co czyni go idealnym do łączenia urządzeń takich jak myszki komputerowe z komputerem. Dzięki technologii Bluetooth, urządzenia mogą komunikować się ze sobą bez potrzeby stosowania kabli, co zapewnia większą wygodę i mobilność użytkownikowi. Przykładem zastosowania Bluetooth jest połączenie bezprzewodowej myszki z laptopem – wystarczy aktywować Bluetooth w systemie operacyjnym, a następnie sparować urządzenie. Bluetooth działa na częstotliwości 2,4 GHz, co jest standardem w branży, a jego zasięg zwykle wynosi do 10 metrów. Warto również wspomnieć o różnych wersjach Bluetooth, takich jak Bluetooth 5.0, które oferuje większe prędkości transferu danych oraz lepszą efektywność energetyczną. W praktyce, korzystanie z Bluetooth w codziennych zastosowaniach komputerowych stało się powszechne, co potwierdzają liczne urządzenia peryferyjne, które wspierają ten standard. Dobrą praktyką przy korzystaniu z Bluetooth jest również stosowanie szyfrowania, co zapewnia bezpieczeństwo przesyłanych danych.

Pytanie 25

Fizyczna architektura sieci, inaczej określana jako topologia fizyczna sieci komputerowych, definiuje

A. interakcję komputerów między sobą
B. metodę łączenia komputerów
C. standardy komunikacji w sieciach komputerowych
D. przesył informacji pomiędzy protokołami w modelu OSI
Dobrze wybrałeś odpowiedź 'sposób połączenia ze sobą komputerów'. To jest właściwe, bo architektura fizyczna sieci, czyli topologia fizyczna, odnosi się do tego, jak urządzenia w sieci są poukładane i połączone. Mówiąc prościej, topologia fizyczna pokazuje, jak komputery, routery i inne sprzęty są ze sobą związane, a także, jakie medium transmisyjne się używa, na przykład kable miedziane czy światłowody. Dobre przykłady topologii to topologia gwiazdy, gdzie wszystkie urządzenia są podłączone do jednego centralnego przełącznika, lub topologia magistrali, gdzie wszystko jest połączone do jednego kabla. Z mojego doświadczenia, zrozumienie tych topologii jest kluczowe, bo pomaga w projektowaniu i zarządzaniu siecią. Dzięki temu łatwiej rozwiązuje się problemy, planuje rozszerzenia sieci, a także dba o bezpieczeństwo i wydajność, co jest ważne w branży, zwłaszcza jeśli chodzi o standardy, jak np. IEEE 802.3 czy 802.11.

Pytanie 26

Na dysku należy umieścić 100 tysięcy oddzielnych plików, z których każdy ma rozmiar 2570 bajtów. W takim przypadku, zapisane pliki będą zajmować najmniej miejsca na dysku z jednostką alokacji wynoszącą

A. 2048 bajtów
B. 3072 bajty
C. 8192 bajty
D. 4096 bajtów
Odpowiedź 3072 bajty jest poprawna, ponieważ przy tej jednostce alokacji możemy zminimalizować marnotrawstwo miejsca na dysku. Każdy plik o rozmiarze 2570 bajtów zajmie 3072 bajty, co oznacza, że pozostanie 502 bajty niezajęte. W przypadku mniejszej jednostki alokacji, jak 2048 bajtów, każdy plik zajmie pełne 2048 bajtów, co prowadzi do większego marnotrawstwa przestrzeni dyskowej, ponieważ na dysku na każdym z tych plików pozostanie 522 bajty niewykorzystanego miejsca, a dodatkowo konieczne byłoby zarezerwowanie miejsca na przyszłe pliki. Wybór optymalnej wartości jednostki alokacji jest kluczowy w systemach plików, aby zminimalizować przestrzeń dyskową, co jest szczególnie ważne w środowiskach z ograniczonymi zasobami. Przykładowo, serwery baz danych często korzystają z odpowiednio dobranych jednostek alokacji, aby zapewnić efektywne przechowywanie dużej liczby małych plików. Przy zastosowaniu jednostki alokacji wynoszącej 3072 bajty, osiągamy równowagę między marnotrawstwem przestrzeni a wydajnością operacji zapisu i odczytu.

Pytanie 27

Program do diagnostyki komputera pokazał komunikat NIC ERROR. Co oznacza ten komunikat w kontekście uszkodzenia karty?

A. wideo
B. sieciowej
C. dźwiękowej
D. graficznej
Komunikat NIC ERROR wskazuje na problem z kartą sieciową (Network Interface Card), co jest kluczowym elementem umożliwiającym komunikację komputera z innymi urządzeniami w sieci. Karta sieciowa odpowiada za przesyłanie danych pomiędzy komputerem a siecią lokalną lub Internetem. W przypadku awarii karty sieciowej, komputer może stracić zdolność do łączenia się z siecią, co jest niezwykle istotne w obecnych czasach, gdzie wiele operacji zależy od dostępu do Internetu. Diagnostyka w przypadku błędu NIC może obejmować sprawdzenie połączeń kablowych, zaktualizowanie sterowników, a także testowanie karty w innym porcie lub na innym komputerze. W praktyce warto również skorzystać z narzędzi do diagnostyki sieci, takich jak ping czy traceroute, aby zlokalizować źródło problemu. Znajomość oznaczeń błędów związanych z kartą sieciową jest niezbędna dla osób pracujących w IT, ponieważ pozwala na szybsze i skuteczniejsze diagnozowanie i rozwiązywanie problemów z łącznością sieciową.

Pytanie 28

Do czynności konserwacyjnych związanych z użytkowaniem skanera płaskiego należy

A. uruchomienie automatycznego pobierania rekomendowanych sterowników do urządzenia
B. czyszczenie dysz wkładu kartridża
C. podłączenie sprzętu do listwy z zabezpieczeniem przed przepięciami
D. systematyczne czyszczenie szyby skanera oraz płyty dociskowej
Regularne czyszczenie szyby skanera oraz płyty dociskowej jest kluczowym elementem konserwacji skanera płaskiego. Z czasem na szybie mogą gromadzić się zanieczyszczenia, kurz czy odciski palców, co negatywnie wpływa na jakość skanowanych dokumentów. Czysta szyba pozwala na uzyskanie wyraźnych i dokładnych skanów, co jest szczególnie ważne w przypadku skanowania dokumentów zawierających drobne detale. Dodatkowo, płyta dociskowa, która ma za zadanie utrzymać dokument w odpowiedniej pozycji podczas skanowania, również powinna być regularnie czyszczona. Zastosowanie odpowiednich środków czyszczących i delikatnych narzędzi pomoże uniknąć zarysowań i innych uszkodzeń. Zgodnie z zaleceniami producentów skanerów, czyszczenie powinno być przeprowadzane co najmniej raz w miesiącu, a w przypadku intensywnej eksploatacji nawet częściej. Takie praktyki nie tylko przedłużają żywotność urządzenia, ale również znacząco podnoszą jakość pracy biurowej.

Pytanie 29

Program WinRaR pokazał okno informacyjne przedstawione na ilustracji. Jakiego rodzaju licencję na oprogramowanie użytkownik stosował do tej pory?

Ilustracja do pytania
A. domena publiczna
B. oprogramowanie reklamowe
C. oprogramowanie trialowe
D. oprogramowanie bezpłatne
Licencja shareware pozwala użytkownikowi na wypróbowanie pełnej wersji programu przez ograniczony czas bez ponoszenia kosztów. Po upływie tego okresu użytkownik jest zobowiązany do zakupu licencji, aby dalej korzystać z oprogramowania. Program WinRAR często oferuje 40-dniowy okres próbny, po którym wyświetla komunikaty zachęcające do zakupu licencji. Rozwiązanie to jest powszechne wśród oprogramowania, które chce dać użytkownikom możliwość pełnego sprawdzenia funkcjonalności przed dokonaniem zakupu. Dobrymi praktykami w przypadku oprogramowania shareware są jasne komunikaty dotyczące warunków korzystania oraz możliwość łatwego zakupu licencji, co zwiększa zaufanie do producenta i jego produktów. Dzięki takim rozwiązaniom użytkownicy mogą podejmować świadome decyzje zakupowe, co sprzyja budowaniu lojalności wobec marki. Wiele firm wykorzystuje model shareware jako skuteczną strategię marketingową, umożliwiającą dotarcie do szerokiego grona potencjalnych klientów bez konieczności natychmiastowego zobowiązania finansowego. WinRAR, będąc popularnym narzędziem do kompresji danych, jest przykładem programu, który stosuje tę licencję, pozwalając użytkownikom na dostosowanie się do jego funkcji zanim podejmą decyzję o zakupie.

Pytanie 30

Wskaż sygnał informujący o błędzie karty graficznej w komputerze z BIOS POST od firmy AWARD?

A. 1 długi, 2 krótkie
B. 1 długi, 5 krótkich
C. 2 długe, 5 krótkich
D. 1 długi, 1 krótki
Odpowiedzi '1 długi, 1 krótki' oraz '1 długi, 5 krótkich' są błędne, ponieważ nie odzwierciedlają one standardów sygnałów diagnostycznych dla kart graficznych w BIOS-ach POST produkcji AWARD. Sygnał '1 długi, 1 krótki' zazwyczaj wskazuje na inne problemy, na przykład z pamięcią RAM, co może prowadzić do nieporozumień w diagnostyce. Użytkownicy często mylą te kody, nie zdając sobie sprawy, że każdy z kodów ma przypisane różne znaczenie związane z innymi komponentami komputera. Ponadto, kod '1 długi, 5 krótkich' kompiluje także inne problemy, które mogą być związane z kartą graficzną, jednak nie są to standardowe sygnały w systemach AWARD. Błędy te mogą wynikać z nieznajomości zasad działania BIOS oraz z braku odniesienia do dokumentacji producenta. W praktyce, aby poprawnie diagnozować problemy, należy zawsze konsultować się z instrukcją obsługi lub dokumentacją sprzętu, co jest dobrym nawykiem w branży IT. Wprowadzenie do standardów diagnostycznych, takich jak sygnały POST, jest istotne dla efektywnego rozwiązywania problemów, a niewłaściwe interpretacje tych sygnałów mogą prowadzić do czasochłonnych i kosztownych pomyłek.

Pytanie 31

Która z konfiguracji RAID opiera się na replikacji danych pomiędzy dwoma lub większą liczbą dysków fizycznych?

A. RAID 1
B. RAID 0
C. RAID 3
D. RAID 5
Wybór RAID 3 nie jest właściwy, ponieważ ta konfiguracja opiera się na podziale danych i wykorzystaniu jednego dysku do przechowywania informacji o parzystości, co oznacza, że nie zapewnia pełnej replikacji danych jak w RAID 1. RAID 3 dzieli dane na bloki i zapisuje je na wielu dyskach, ale wymaga jednego dysku do przechowywania parzystości, co może stanowić wąskie gardło w przypadku dużych obciążeń. RAID 5 także nie odpowiada na pytanie, ponieważ ta macierz wykorzystuje rozproszoną parzystość, a nie pełną replikację danych. W RAID 5 dane są dzielone na różne dyski z równocześnie przechowywaną informacją o parzystości, co zwiększa wydajność, ale nie zabezpiecza danych w taki sposób jak RAID 1. RAID 0, z drugiej strony, zapewnia największą wydajność, ale całkowicie rezygnuje z redundancji danych, co czyni go nieodpowiednim dla zastosowań wymagających ochrony danych. Częstym błędem jest mylenie tych poziomów RAID, polegających na różnych mechanizmach przechowywania danych i redundancji, co prowadzi do nieporozumień odnośnie ich zastosowań.

Pytanie 32

Instalacja systemów Linux oraz Windows 7 odbyła się bez żadnych problemów. Systemy zainstalowały się prawidłowo z domyślnymi konfiguracjami. Na tym samym komputerze, przy tej samej specyfikacji, podczas instalacji systemu Windows XP pojawił się komunikat o braku dysków twardych, co może sugerować

A. nieodpowiednio ustawione bootowanie urządzeń
B. uszkodzenie logiczne dysku twardego
C. brak sterowników
D. nieprawidłowe ułożenie zworek na dysku twardym
Brak sterowników w czasie instalacji systemu Windows XP jest najczęściej spotykaną przyczyną problemów z wykrywaniem dysków twardych. W przeciwieństwie do nowszych systemów operacyjnych, takich jak Windows 7, które posiadają wbudowane sterowniki dla współczesnych urządzeń, Windows XP może nie zawierać odpowiednich sterowników dla nowszych kontrolerów SATA lub RAID. W takim przypadku, gdy instalator systemu nie odnajduje dysków, użytkownicy powinni dostarczyć odpowiednie sterowniki za pomocą zewnętrznego nośnika, takiego jak pendrive, lub dyskietka. Dobrą praktyką przy instalacji starszych systemów operacyjnych jest posiadanie najnowszych sterowników dostarczanych przez producentów sprzętu. Warto również sprawdzić, czy w BIOSie komputera nie ma ustawień, które mogą wpływać na wykrywanie dysków, takich jak tryb pracy kontrolera SATA (np. IDE vs AHCI).

Pytanie 33

Wskaż technologię stosowaną do zapewnienia dostępu do Internetu w połączeniu z usługą telewizji kablowej, w której światłowód oraz kabel koncentryczny pełnią rolę medium transmisyjnego

A. PLC
B. HFC
C. xDSL
D. GPRS
Odpowiedzi PLC, xDSL i GPRS nie są zgodne z opisanym kontekstem technologicznym. PLC (Power Line Communication) wykorzystuje istniejącą infrastrukturę elektryczną do przesyłania sygnału, co ogranicza jego zastosowanie do obszarów, w których nie ma dostępu do sieci kablowych czy światłowodowych. Technologia ta ma ograniczenia związane z jakością sygnału oraz zakłóceniami, dlatego nie jest odpowiednia do łączenia usług telewizyjnych z Internetem na dużą skalę. Z kolei xDSL (Digital Subscriber Line) to technologia oparta na tradycyjnych liniach telefonicznych, która również nie korzysta z światłowodów ani kabli koncentrycznych, a jej prędkości transmisji są znacznie niższe w porównaniu do HFC. xDSL jest często stosowane w miejscach, gdzie nie ma możliwości podłączenia do sieci światłowodowej, co ogranicza jego zasięg i niezawodność. GPRS (General Packet Radio Service) to technologia stosowana głównie w sieciach komórkowych, która pozwala na przesyłanie danych w trybie pakietowym, jednak jej prędkości są znacznie niższe w porównaniu z rozwiązaniami kablowymi. Istnieje tu wiele typowych błędów myślowych, takich jak mylenie różnych technologii transmisyjnych oraz niewłaściwe łączenie ich z wymaganiami dotyczącymi jakości i prędkości sygnału. W związku z tym, wybór odpowiedniej technologii do dostarczania Internetu i telewizji powinien być oparty na analizie specyficznych potrzeb użytkowników oraz możliwości infrastrukturalnych.

Pytanie 34

Gdy użytkownik wykonuje w wierszu poleceń komendę ping www.onet.pl, otrzymuje komunikat: "Żądanie polecenia ping nie może znaleźć hosta www.onet.pl Sprawdź nazwę i ponów próbę". Z kolei, po wpisaniu w wierszu poleceń komendy ping 213.180.141.140 (adres IP serwera www.onet.pl), użytkownik otrzymuje odpowiedź z serwera. Jakie mogą być przyczyny tej sytuacji?

A. błędnie ustawiona maska podsieci
B. błędny adres IP serwera DNS
C. błędnie skonfigurowana brama domyślna
D. błędny adres IP hosta
Wybór niepoprawnie skonfigurowanej maski podsieci jako przyczyny problemu jest błędny, ponieważ maska podsieci dotyczy lokalnego segmentu sieci, a nie procesu tłumaczenia nazw domen na adresy IP. Maski podsieci są używane do określenia, która część adresu IP jest adresem sieciowym, a która częścią hosta. Zatem ewentualne problemy z maską podsieci mogłyby prowadzić do problemów z komunikacją w obrębie lokalnej sieci, ale nie wpływają na działanie DNS. Podobnie, wskazanie niepoprawnego adresu IP hosta jest mylne, ponieważ 'www.onet.pl' jest poprawną nazwą domeny, której serwer DNS powinien być w stanie przypisać odpowiedni adres IP. Problemy z lokalizacją adresu IP serwera DNS mogą skutkować brakiem odpowiedzi na zapytania DNS, ale niekoniecznie wymagają modyfikacji samego adresu IP hosta. Kolejna pomyłka to niepoprawnie skonfigurowana brama domyślna, która również nie ma wpływu na zdolność systemu do rozwiązywania nazw domen. Brama domyślna jest odpowiedzialna za trasowanie ruchu poza lokalny zakres sieci, ale nie ma wpływu na proces tłumaczenia nazw. Dlatego najważniejsze jest zrozumienie, że problem leży w konfiguracji DNS, a nie w ustawieniach sieciowych, takich jak maska podsieci, adres IP hosta czy brama domyślna. W praktyce warto zawsze upewnić się, że serwery DNS są poprawnie ustawione i działają, zwłaszcza w przypadku częstych problemów z łącznością sieciową.

Pytanie 35

Co jest głównym zadaniem protokołu DHCP?

A. Zarządzanie bazami danych w sieci
B. Szyfrowanie danych przesyłanych w sieci
C. Konfiguracja zapory sieciowej
D. Automatyczne przydzielanie adresów IP w sieci
Protokół DHCP (Dynamic Host Configuration Protocol) jest kluczowym elementem współczesnych sieci komputerowych. Jego głównym zadaniem jest automatyczne przydzielanie adresów IP urządzeniom w sieci lokalnej. Dzięki temu proces konfiguracji sieci jest znacznie uproszczony, ponieważ ręczne przypisywanie adresów IP każdemu urządzeniu staje się zbędne. DHCP nie tylko przydziela adresy IP, ale także dostarcza inne istotne informacje, takie jak maska podsieci, brama domyślna czy adresy serwerów DNS. Automatyzacja tego procesu zmniejsza ryzyko konfliktów adresów IP, które mogą wystąpić w przypadku ręcznej konfiguracji. Protokół ten wspiera standardy i dobre praktyki branżowe, takie jak RFC 2131, które definiują jego działanie. W praktyce DHCP jest niezastąpionym narzędziem w administracji sieciami, zwłaszcza w większych środowiskach, gdzie liczba urządzeń jest znaczna. Administratorzy sieci często korzystają z serwerów DHCP, aby zapewnić spójność i efektywność działania sieci.

Pytanie 36

Aby w systemie Windows Professional ustawić czas pracy drukarki oraz uprawnienia drukowania, należy skonfigurować

A. właściwości drukarki.
B. udostępnianie wydruku.
C. preferencje drukowania.
D. kolejkę wydruku.
Aby ustawić czas pracy drukarki oraz uprawnienia drukowania w systemie Windows Professional, trzeba wejść w właściwości drukarki. To właśnie tutaj administratorzy mają dostęp do szczegółowej konfiguracji, o której często zapominają początkujący użytkownicy – serio, różnica między preferencjami a właściwościami czasem bywa nieoczywista. W oknie właściwości drukarki można ustalić, w jakich godzinach drukarka ma być dostępna dla użytkowników sieci (czyli np. wyłączyć wydruki w nocy lub w weekendy), a także precyzyjnie przypisać prawa do drukowania, zarządzania dokumentami czy nawet pełnej administracji kolejką. Takie podejście jest zgodne ze standardami zarządzania zasobami sieciowymi w środowiskach profesjonalnych, gdzie bezpieczeństwo i wydajność mają znaczenie. Z mojego doświadczenia wynika, że świadome ustawienie tych parametrów często pozwala uniknąć problemów z nieautoryzowanym drukowaniem czy też niepotrzebnym obciążeniem drukarki poza godzinami pracy firmy. Właściwości drukarki umożliwiają również dostęp do logów oraz narzędzi diagnostycznych. Ważne jest, żeby odróżniać te ustawienia od preferencji drukowania, bo te drugie dotyczą tylko wyglądu wydruków, a nie zarządzania dostępem czy harmonogramem. Co ciekawe, niektóre firmy mają nawet polityki narzucające określone godziny pracy drukarek, a dobre praktyki IT przewidują takie konfiguracje jako element podniesienia bezpieczeństwa i kontroli kosztów eksploatacji sprzętu.

Pytanie 37

Najefektywniejszym zabezpieczeniem danych firmy, której siedziby znajdują się w różnych, odległych od siebie lokalizacjach, jest zastosowanie

A. backupu w chmurze firmowej.
B. kompresji strategicznych danych.
C. kopii przyrostowych.
D. kopii analogowych.
Wiele osób przy wyborze sposobu zabezpieczenia danych myśli o znanych i utartych metodach, takich jak np. wykonywanie kopii analogowych albo stosowanie kopii przyrostowych. W praktyce jednak takie podejścia mają sporo ograniczeń, szczególnie gdy firma działa w wielu oddalonych od siebie lokalizacjach. Kopie analogowe, czyli np. papierowe wydruki czy zapisy na nośnikach fizycznych typu płyty CD, są po prostu niepraktyczne w dzisiejszych realiach – trudno je szybko przywracać, łatwo zniszczyć, a jeśli jedna siedziba spłonie lub zostanie zalana, cała kopia może przepaść. Kopie przyrostowe są przydatne w codziennej pracy, bo oszczędzają miejsce i czas, ale same w sobie nie rozwiązują problemu bezpieczeństwa geograficznego – jeśli trzymamy je tylko lokalnie, to w przypadku awarii w danej lokalizacji nadal jesteśmy narażeni na utratę danych. Kompresja strategicznych danych to bardziej metoda optymalizacji miejsca niż faktyczne zabezpieczenie – skompresowane dane nadal mogą zostać utracone, jeśli nie mamy ich odpowiednich kopii zapasowych w bezpiecznych miejscach. Wydaje mi się, że często zapomina się o tym, że kluczowym elementem skutecznego backupu jest przechowywanie go poza siedzibą firmy – tak, żeby żaden lokalny incydent nie pozbawił nas wszystkich informacji. Branżowe standardy, takie jak wspomniana zasada 3-2-1, podkreślają, że jedna kopia powinna być w innej fizycznej lokalizacji, najlepiej w chmurze, gdzie można ją łatwo odtworzyć w razie czego. Właśnie dlatego backup w chmurze firmowej to dziś praktycznie oczywistość, jeśli chodzi o bezpieczeństwo danych rozproszonych organizacji.

Pytanie 38

Funkcja failover usługi DHCP umożliwia

A. filtrowanie adresów MAC.
B. konfigurację zapasowego serwera DHCP.
C. konfigurację rezerwacji adresów IP.
D. wyświetlanie statystyk serwera DHCP.
Prawidłowo – funkcja failover w usłudze DHCP służy właśnie do skonfigurowania zapasowego serwera DHCP i zapewnienia wysokiej dostępności przydzielania adresów IP. W praktyce chodzi o to, żeby w sieci zawsze był przynajmniej jeden serwer zdolny do odpowiadania na żądania DHCPDISCOVER i DHCPREQUEST od klientów. Jeśli serwer główny ulegnie awarii, to drugi – partnerski – przejmuje jego rolę zgodnie z ustalonym wcześniej trybem pracy. Najczęściej stosuje się model load balance (obciążenie dzielone mniej więcej po równo) albo hot-standby (jeden serwer aktywny, drugi w gotowości). W systemach takich jak Windows Server konfiguracja failover polega na powiązaniu konkretnego zakresu (scope) z drugim serwerem DHCP, uzgodnieniu wspólnego stanu bazy dzierżaw (leases), ustawieniu czasu MCLT (Maximum Client Lead Time) i parametrów typu state switchover. Dzięki temu oba serwery mają zsynchronizowane informacje o tym, które adresy są już przydzielone, więc nie dochodzi do konfliktów IP. Z punktu widzenia dobrych praktyk sieciowych, w sieciach produkcyjnych – szczególnie w firmach, gdzie przerwa w działaniu sieci jest kosztowna – failover DHCP to praktycznie standard. Nie opiera się już na starym modelu split-scope (rozbijanie puli na dwie części ręcznie), tylko na mechanizmie opisanym w RFC 2131 i rozszerzeniach producentów, gdzie serwery regularnie wymieniają komunikaty o stanie dzierżaw. Moim zdaniem warto pamiętać, że failover nie tylko daje „zapasowy serwer”, ale też poprawia ciągłość działania przy konserwacjach, aktualizacjach i restartach – można spokojnie wyłączyć jeden serwer, a klienci dalej dostają adresy IP z drugiego, bez paniki w sieci.

Pytanie 39

Na ilustracji przedstawiono konfigurację przełącznika z utworzonymi sieciami VLAN. Którymi portami można przesyłać oznaczone ramki z różnych sieci VLAN?

Ilustracja do pytania
A. 5 i 6
B. 2 i 3
C. 1 i 5
D. 1 i 8
Poprawna odpowiedź to porty 1 i 8, ponieważ na zrzucie ekranu w kolumnie „Link Type” widać, że tylko te dwa porty mają ustawiony typ TRUNK. W przełącznikach zgodnych z IEEE 802.1Q właśnie port trunk służy do przesyłania ramek oznaczonych tagiem VLAN (czyli z dołączonym znacznikiem 802.1Q). Porty skonfigurowane jako ACCESS obsługują tylko jedną, nieoznakowaną sieć VLAN – przełącznik zdejmuje z ramek ewentualny tag przychodzący i wysyła je dalej jako ruch z jednej, przypisanej VLAN (PVID). Dlatego przez porty ACCESS nie powinny przechodzić ramki tagowane z wielu VLAN-ów. Na praktycznym przykładzie: jeśli łączysz dwa przełączniki, które mają kilka VLAN-ów (np. VLAN 10 – biuro, VLAN 20 – serwis, VLAN 30 – goście), to łącze między przełącznikami konfigurujesz jako TRUNK. Wtedy po jednym kablu idą ramki z wielu VLAN-ów, a dzięki tagom 802.1Q każdy przełącznik wie, do której sieci logicznej przypisać daną ramkę. Porty access zostawiasz do podłączania pojedynczych hostów, drukarek, kamer IP itd., które zazwyczaj nie muszą znać pojęcia VLAN. Moim zdaniem warto zapamiętać prostą zasadę: tagowane ramki = trunk, nietagowane dla końcówek = access. W wielu firmowych sieciach standardem jest, że wszystkie połączenia między przełącznikami, routerami, serwerami wirtualizacji itp. są trunkami, a gniazdka do komputerów użytkowników pracują jako access. Takie podejście ułatwia segmentację sieci, poprawia bezpieczeństwo i zgodne jest z dobrymi praktykami projektowania sieci LAN. Widać to dokładnie na tym przykładzie – tylko porty 1 i 8 nadają się do przenoszenia wielu VLAN-ów w formie oznakowanej.

Pytanie 40

Bezprzewodową komunikację komputerów w sieci lokalnej zapewnia

A. most.
B. punkt dostępowy.
C. przełącznik.
D. brama.
Punkt dostępowy to dokładnie to urządzenie, które w sieci lokalnej odpowiada za bezprzewodową komunikację komputerów i innych urządzeń. W praktyce mówimy o tzw. Access Point (AP), często wbudowanym w domowy router Wi‑Fi. Jego główne zadanie to zamiana medium przewodowego (skrętka Ethernet) na medium bezprzewodowe (fala radiowa w standardach IEEE 802.11: b/g/n/ac/ax itd.). Dzięki temu laptopy, smartfony, tablety czy drukarki Wi‑Fi mogą dołączać do sieci lokalnej bez potrzeby ciągnięcia kabli. Z mojego doświadczenia w pracowniach szkolnych i biurach standardem jest stosowanie kilku punktów dostępowych, które są podłączone przewodowo do przełącznika, a dopiero one rozgłaszają sieć bezprzewodową i obsługują klientów Wi‑Fi. To jest taka warstwa pośrednia między światem kabli a światem radia. W dobrych praktykach sieciowych konfiguruje się na AP m.in. SSID, szyfrowanie WPA2/WPA3, kanały radiowe oraz moc nadawania, tak żeby zminimalizować zakłócenia i zapewnić stabilny zasięg. W większych instalacjach stosuje się tzw. kontrolery punktów dostępowych, które centralnie zarządzają dziesiątkami AP, umożliwiają roaming (płynne przełączanie między nadajnikami) i separację sieci (np. oddzielna sieć dla gości, VLAN‑y). Moim zdaniem warto kojarzyć, że punkt dostępowy działa głównie w warstwie 2 modelu OSI, podobnie jak przełącznik, ale dodatkowo obsługuje specyfikę medium radiowego i protokołów 802.11, co czyni go kluczowym elementem każdej sensownej sieci Wi‑Fi.