Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 12 maja 2026 08:59
  • Data zakończenia: 12 maja 2026 09:05

Egzamin zdany!

Wynik: 23/40 punktów (57,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Przerywając działalność na komputerze, możemy szybko wrócić do pracy, wybierając w systemie Windows opcję:

A. ponownego uruchomienia
B. wylogowania
C. stanu wstrzymania
D. zamknięcia systemu
Wybór zamknięcia systemu, ponownego uruchomienia lub wylogowania to podejścia, które nie zapewniają efektywnego i szybkiego powrotu do pracy. Zamknięcie systemu to proces, który wymaga wyłączenia wszystkich działających programów, co wiąże się z utratą niezapisanych danych. To podejście jest zwykle stosowane, gdy użytkownik kończy swoje sesje pracy, a nie podczas przerwy. Ponowne uruchomienie systemu jest również czasochłonne i angażuje więcej zasobów, ponieważ cały system operacyjny i wszystkie zainstalowane aplikacje muszą być załadowane od nowa, co może zająć kilka minut. Często prowadzi to do frustracji użytkowników, którzy chcą szybko wrócić do pracy. Wylogowanie, natomiast, kończy sesję użytkownika, co również wymaga ponownego logowania, a tym samym wydłuża czas potrzebny na kontynuację pracy. Z perspektywy zarządzania czasem i efektywności, wybór stanu wstrzymania jest zdecydowanie preferowany dla użytkowników, którzy chcą zminimalizować przestoje i utrzymać płynność w pracy. Często błędne decyzje wynikają z niepełnego zrozumienia funkcji oferowanych przez system operacyjny oraz ich zastosowania w codziennej pracy. Użytkownicy mogą zakładać, że zamknięcie lub ponowne uruchomienie jest jedynym sposobem na zabezpieczenie pracy, co nie jest prawdą. Dlatego kluczowe jest zrozumienie, jakie opcje są dostępne w systemie i ich odpowiednie zastosowanie w praktyce.

Pytanie 2

Która operacja może skutkować nieodwracalną utratą danych w przypadku awarii systemu plików?

A. wykonanie skanowania scandiskiem
B. uruchomienie systemu operacyjnego
C. przeskanowanie programem antywirusowym
D. formatowanie dysku
Włączenie systemu operacyjnego jest procesem, który zazwyczaj nie prowadzi do utraty danych, nawet jeśli system plików jest uszkodzony. W wielu przypadkach system operacyjny będzie próbował załadować dostępne informacje i może nawet zainicjować procedury naprawcze. Użytkownicy często myślą, że uruchomienie systemu w przypadku uszkodzenia dysku twardego automatycznie skutkuje utratą danych, co jest błędem. W rzeczywistości, system operacyjny ma różne mechanizmy, które mogą pomóc w przywróceniu dostępu do danych, takie jak automatyczne skanowanie i naprawa uszkodzonych sektorów. Skanowanie programem antywirusowym również nie prowadzi do utraty danych, a wręcz przeciwnie, jego celem jest identyfikacja i eliminacja złośliwego oprogramowania, które może wpłynąć na integralność danych. Użytkownicy powinni być świadomi, że regularne skanowanie jest kluczowym elementem zarządzania bezpieczeństwem danych. Analogicznie, przeprowadzenie skanowania scandiskiem jest procedurą diagnostyczną, która ma na celu wykrycie i naprawienie błędów na dysku, nie prowadząc do utraty danych. Użytkownicy często błędnie zakładają, że każda interakcja z systemem plików może prowadzić do usunięcia danych, jednak w rzeczywistości działania te mają na celu raczej ochronę i zabezpieczenie danych niż ich utratę. Warto zaznaczyć, że najlepszym sposobem na zminimalizowanie ryzyka utraty danych jest regularne wykonywanie kopii zapasowych oraz edukacja w zakresie właściwego zarządzania systemami plików.

Pytanie 3

Menedżer usług IIS (Internet Information Services) w systemie Windows stanowi graficzny interfejs do konfiguracji serwera

A. WWW
B. wydruku
C. terminali
D. DNS
Odpowiedź WWW jest poprawna, ponieważ Menedżer usług IIS (Internet Information Services) to narzędzie umożliwiające zarządzanie publikowaniem aplikacji i stron internetowych na serwerze. IIS jest serwerem WWW stworzonym przez firmę Microsoft, który obsługuje protokoły HTTP, HTTPS, FTP i inne, umożliwiając użytkownikom dostęp do treści internetowych. Menedżer usług IIS pozwala administratorom na konfigurację i monitorowanie serwera, zarządzanie witrynami internetowymi, a także konfigurowanie zabezpieczeń oraz wydajności. Praktycznym zastosowaniem IIS jest hostowanie stron internetowych dla firm, co może obejmować korzystanie z ASP.NET do tworzenia dynamicznych aplikacji webowych. Ponadto, IIS wspiera różnorodne technologie, takie jak PHP czy Node.js, co czyni go bardzo elastycznym narzędziem w kontekście serwerów. Stosowanie IIS w zgodzie z najlepszymi praktykami branżowymi obejmuje regularne aktualizacje oraz monitorowanie logów serwera w celu optymalizacji wydajności i bezpieczeństwa.

Pytanie 4

Jakie zakresy zostaną przydzielone przez administratora do adresów prywatnych w klasie C, przy użyciu maski 24 bitowej dla komputerów w lokalnej sieci?

A. 192.168.0.1 - 192.168.0.254
B. 192.168.0.1 - 192.168.10.254
C. 172.168.0.1 - 172.168.255.254
D. 172.16.0.1 - 172.16.255.254
Adresy prywatne w klasie C są zdefiniowane w standardzie RFC 1918, który określa zakresy adresów dostępnych do użycia w sieciach lokalnych, niezależnych od publicznego routingu w Internecie. Zakres 192.168.0.0/24, z maską 255.255.255.0, umożliwia przypisanie adresów od 192.168.0.1 do 192.168.0.254 dla urządzeń w lokalnej sieci. Użycie adresów prywatnych to standardowa praktyka w zarządzaniu sieciami, ponieważ pozwala na redukcję kosztów związanych z zakupem adresów publicznych, a także zwiększa bezpieczeństwo sieci lokalnej, ograniczając dostęp do niej z zewnątrz. Przykład zastosowania to konfiguracja domowego routera, który często przypisuje adresy z tej puli do różnych urządzeń, takich jak komputery, drukarki czy smartfony, co umożliwia utworzenie lokalnej sieci bez potrzeby pozyskiwania publicznych adresów IP. Dodatkowo, stosowanie NAT (Network Address Translation) pozwala na maskowanie wewnętrznych adresów prywatnych w stosunku do zewnętrznych, co dalej wzmacnia bezpieczeństwo. Takie podejście jest zgodne z zaleceniami wielu organizacji zajmujących się bezpieczeństwem sieciowym.

Pytanie 5

Thunderbolt jest typem interfejsu:

A. równoległym, asynchronicznym i przewodowym
B. szeregowym, asynchronicznym i bezprzewodowym
C. równoległym, dwukanałowym, dwukierunkowym i bezprzewodowym
D. szeregowym, dwukanałowym, dwukierunkowym i przewodowym
Thunderbolt to naprawdę fajny interfejs, który działa na zasadzie szeregowego przesyłania danych. W praktyce oznacza to, że przesyłane są dane po jednej linii, co sprawia, że wszystko działa znacznie szybciej i sprawniej. Dzięki temu, że korzysta z dwóch kanałów, Thunderbolt może jednocześnie wysyłać i odbierać dane, co jest super, bo to zwiększa wydajność. Jest to zresztą przewodowy interfejs, a to znaczy, że połączenie jest stabilniejsze i z mniejszymi opóźnieniami niż w przypadku rozwiązań bezprzewodowych. Thunderbolt świetnie sprawdza się z różnymi urządzeniami, jak zewnętrzne dyski twarde czy monitory o wysokiej rozdzielczości. Używa się go coraz częściej w pracy z wideo i grafiką, co nie jest zaskoczeniem. Standardy Thunderbolt 3 i 4, które wprowadził Intel, jeszcze bardziej poprawiają jego funkcjonalność, bo można podłączyć różne sprzęty przez jeden kabel i dodatkowo ładować urządzenia. Warto to znać, bo to ułatwia życie w biurze czy podczas pracy kreatywnej.

Pytanie 6

Urządzenie elektryczne lub elektroniczne, które zostało zużyte i posiada znak widoczny na ilustracji, powinno być

Ilustracja do pytania
A. Wyrzucone do pojemników z tym oznaczeniem
B. Wyrzucone do kontenerów na odpady komunalne
C. Przekazane do punktu skupującego złom
D. Przekazane do miejsca odbioru zużytej elektroniki
Znak przekreślonego kosza na śmieci umieszczony na urządzeniach elektrycznych i elektronicznych oznacza, że nie wolno ich wyrzucać do zwykłych pojemników na odpady komunalne. Jest to zgodne z dyrektywą WEEE (Waste Electrical and Electronic Equipment Directive) obowiązującą w krajach Unii Europejskiej. Celem dyrektywy jest minimalizacja negatywnego wpływu e-odpadów na środowisko oraz promowanie ich recyklingu i odzysku. Zużyte urządzenia mogą zawierać substancje szkodliwe dla środowiska, takie jak ołów, rtęć czy kadm, które mogą przedostać się do gleby i wody. Oddawanie ich do punktów odbioru zużytej elektroniki gwarantuje, że zostaną odpowiednio przetworzone i poddane recyklingowi. Dzięki temu możliwe jest odzyskanie cennych surowców, takich jak metale szlachetne, i ograniczenie zużycia surowców pierwotnych. Oddawanie sprzętu do odpowiednich punktów jest także zgodne z zasadami gospodarki o obiegu zamkniętym, która dąży do minimalizacji odpadów i optymalizacji użycia zasobów.

Pytanie 7

Który układ mikroprocesora jest odpowiedzialny między innymi za pobieranie rozkazów z pamięci oraz generowanie sygnałów sterujących?

A. IU
B. FPU
C. EU
D. ALU
IU, czyli jednostka sterująca (ang. Instruction Unit, czasem nazywana też Control Unit), to kluczowy element architektury każdego mikroprocesora. To właśnie ona odpowiada za pobieranie instrukcji z pamięci operacyjnej, dekodowanie ich oraz generowanie odpowiednich sygnałów sterujących dla pozostałych części procesora. Moim zdaniem to coś w rodzaju "dyrygenta orkiestry" – reszta jednostek wykonuje konkretne operacje, ale bez IU nie byłoby wiadomo, co i kiedy mają robić. W praktyce bez dobrze zaprojektowanej jednostki sterującej nawet najbardziej zaawansowane ALU czy FPU nie wykorzystałyby swojego potencjału, bo nie wiedziałyby, kiedy mają się uruchomić. Z mojego doświadczenia wynika, że IU to często niedoceniana część CPU, a przecież to ona odpowiada za obsługę cyklu rozkazowego (fetch-decode-execute). W nowoczesnych procesorach stosuje się rozbudowane mechanizmy IU, często z pipeline'm czy logiką predykcji rozgałęzień, żeby zwiększyć wydajność pracy całego układu. Według uznanych standardów projektowania układów cyfrowych, rozdział funkcji pomiędzy IU a wyspecjalizowane jednostki wykonawcze zapewnia elastyczność i łatwiejsze skalowanie mikroarchitektury. W zastosowaniach praktycznych – na przykład w systemach wbudowanych czy komputerach PC – optymalizacja działania IU bezpośrednio przekłada się na szybsze wykonywanie programów. Dobrze rozumieć rolę IU, bo to podstawa przy analizowaniu działania dowolnego procesora, od najprostszych mikrokontrolerów aż po zaawansowane CPU dla serwerów.

Pytanie 8

Jakim protokołem jest realizowana kontrola poprawności transmisji danych w sieciach Ethernet?

A. HTTP
B. UDP
C. TCP
D. IP
Protokół TCP (Transmission Control Protocol) jest kluczowym elementem w architekturze modelu OSI, odpowiedzialnym za zapewnienie niezawodnej transmisji danych w sieciach komputerowych, w tym Ethernet. TCP działa na poziomie transportu i zapewnia kontrolę poprawności przesyłania danych poprzez mechanizmy takie jak segmentacja, numerowanie sekwencyjne pakietów, kontroli błędów oraz retransmisji utraconych danych. Dzięki tym mechanizmom, TCP eliminuje problem duplikacji oraz umożliwia odbiorcy potwierdzenie odbioru danych, co jest kluczowe w aplikacjach wymagających wysokiej niezawodności, takich jak przesyłanie plików czy strumieniowanie wideo. W praktyce, TCP jest wykorzystywany w protokołach wyższego poziomu, takich jak HTTP, FTP czy SMTP, co podkreśla jego znaczenie w globalnej komunikacji internetowej. Standardy RFC definiują szczegółowe zasady działania tego protokołu, a jego implementacja jest powszechna w wielu systemach operacyjnych, co czyni go fundamentem współczesnych sieci komputerowych.

Pytanie 9

W tablecie graficznym bez wyświetlacza pióro nie ustala położenia kursora ekranowego, można jedynie korzystać z jego końcówki do przesuwania kursora ekranowego oraz klikania. Wskaż możliwą przyczynę nieprawidłowej pracy urządzenia.

A. Zwiększono wartość parametru regulującego nacisk końcówki.
B. Uszkodzone przyciski znajdujące się na panelu monitora.
C. Uszkodzona bateria zainstalowana w tablecie.
D. Zainstalowany niepoprawny sterownik urządzenia.
Instalacja nieprawidłowego sterownika tabletu graficznego bardzo często prowadzi właśnie do takich objawów, jakie opisano w tym pytaniu. Pióro może wtedy działać częściowo: końcówka pozwala przesuwać kursor i klikać, ale pozycjonowanie kursora względem powierzchni tabletu (czyli mapowanie współrzędnych tabletu na ekran) jest zaburzone lub w ogóle nie funkcjonuje. To jest dość typowa sytuacja, gdy system operacyjny próbuje obsłużyć pióro jako zwykłą mysz zamiast wyspecjalizowanego urządzenia wejściowego. Osobiście miałem sytuacje, gdy po aktualizacji systemu Windows domyślnie podmienił sterownik Wacom na ogólny sterownik HID i wtedy wszystko działało trochę „na pół gwizdka”. Najbezpieczniej jest zawsze korzystać z najnowszych wersji sterowników dostarczanych przez producenta tabletu i regularnie je aktualizować, bo często poprawiają one nie tylko funkcjonalność, ale też zgodność z popularnymi programami graficznymi typu Photoshop czy Krita. Branżowe dobre praktyki wskazują, by po zmianie systemu lub dużej aktualizacji odinstalować stare sterowniki i zainstalować świeżą wersję – to eliminuje konflikt sterowników oraz różne dziwne „glitche” z obsługą tabletu. Trochę osób zapomina też, że niektóre tablety graficzne wymagają dedykowanego panelu konfiguracyjnego – bez niego nie działają niestandardowe funkcje pióra, a niektóre przyciski mogą w ogóle nie odpowiadać. Samo zainstalowanie tabletu na domyślnym sterowniku systemowym praktycznie zawsze skutkuje ograniczoną funkcjonalnością.

Pytanie 10

Jakie typy połączeń z Internetem mogą być współdzielone w sieci lokalnej?

A. Połączenie o prędkości przesyłu co najmniej 56 kb/s
B. Wszystkie rodzaje połączeń
C. Tylko tzw. szybkie połączenia, czyli te powyżej 64 kb/s
D. Wszystkie połączenia oprócz analogowych modemów
Wszystkie rodzaje połączeń z Internetem mogą być udostępniane w sieci lokalnej, co oznacza, że niezależnie od rodzaju technologii dostępu do Internetu, można ją współdzielić z innymi użytkownikami w ramach lokalnej sieci. Przykładem mogą być połączenia DSL, kablowe, światłowodowe, a także mobilne połączenia LTE czy 5G. W praktyce, routery sieciowe są w stanie obsługiwać różne typy połączeń i umożliwiają ich udostępnianie. To podejście jest zgodne z normami branżowymi, które wskazują na elastyczność w projektowaniu rozwiązań sieciowych. Warto również zauważyć, że niezależnie od szybkości transmisji, kluczowym czynnikiem jest stabilność i jakość połączenia, co ma wpływ na doświadczenia użytkowników. Dzięki odpowiedniej konfiguracji routera, możliwe jest nie tylko udostępnianie połączenia, ale także zarządzanie priorytetami ruchu sieciowego, co jest szczególnie ważne w biurach i domach, gdzie wiele urządzeń korzysta z Internetu jednocześnie.

Pytanie 11

Pamięć, która działa jako pośrednik pomiędzy pamięcią operacyjną a procesorem o dużej prędkości, to

A. FDD
B. CACHE
C. ROM
D. SSD
Pamięć CACHE jest kluczowym elementem architektury komputerowej, służącym jako bufor pomiędzy procesorem a wolną pamięcią operacyjną (RAM). Działa na zasadzie przechowywania najczęściej używanych danych i instrukcji, co pozwala na znaczne przyspieszenie operacji obliczeniowych. Procesor, mając dostęp do pamięci CACHE, może znacznie szybciej wykonać operacje niż w przypadku konieczności odwoływania się do pamięci RAM. Przykładowo, w przypadku gier komputerowych, które wymagają szybkiego przetwarzania dużych ilości danych, pamięć CACHE umożliwia płynniejsze działanie i szybsze ładowanie zasobów. Dobrą praktyką w projektowaniu systemów komputerowych jest optymalizacja wykorzystania pamięci CACHE, co może obejmować techniki takie jak lokalność odniesień, gdzie dane są grupowane w sposób, który zwiększa prawdopodobieństwo ich ponownego wykorzystania. Warto również dodać, że pamięć CACHE występuje w różnych poziomach (L1, L2, L3), z których L1 jest najszybsza i najbliższa procesorowi, co dodatkowo podkreśla znaczenie tego komponentu w architekturze komputerowej.

Pytanie 12

Zaproponowany fragment ustawień zapory sieciowej umożliwia przesył danych przy użyciu protokołów ```iptables -A INPUT --protocol tcp --dport 443 -j ACCEPT iptables -A INPUT --protocol tcp --dport 143 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 443 -j ACCEPT iptables -A OUTPUT --protocol tcp --dport 143 -j ACCEPT```

A. FTP, SSH
B. HTTPS, IMAP
C. HTTP, SMPT
D. POP3, TFTP
Fragment konfiguracji zapory sieciowej wskazuje na zezwolenie na ruch dotyczący protokołów HTTPS oraz IMAP. W szczególności reguły iptables określają porty TCP 443 oraz 143. Port 443 jest standardowym portem używanym przez protokół HTTPS, który zapewnia bezpieczną komunikację w sieci, chroniąc dane przesyłane między klientem a serwerem za pomocą szyfrowania SSL/TLS. W kontekście praktycznym, jest on szeroko stosowany w serwisach internetowych wymagających zabezpieczenia danych, takich jak bankowość online czy e-commerce. Z kolei port 143 jest używany przez protokół IMAP, który umożliwia dostęp do wiadomości e-mail na serwerze, pozwalając na zarządzanie nimi w czasie rzeczywistym. IMAP jest preferowany w środowiskach, gdzie użytkownicy potrzebują dostępu do swoich wiadomości z różnych urządzeń, co przyczynia się do zwiększenia efektywności pracy. Znajomość tych protokołów oraz ich właściwe konfigurowanie w zaporze sieciowej jest kluczowe dla zapewnienia bezpieczeństwa oraz właściwego działania aplikacji webowych.

Pytanie 13

Który z podanych adresów należy do kategorii publicznych?

A. 192.168.255.1
B. 10.0.0.1
C. 172.31.0.1
D. 11.0.0.1
Adres 11.0.0.1 to jeden z tych adresów publicznych, które można znaleźć w Internecie. To znaczy, że można go używać do komunikacji z innymi urządzeniami, które są podłączone do sieci globalnej. Takie adresy są unikalne i przydzielane przez organizacje, jak IANA. To różni je od adresów prywatnych, które są zdefiniowane w standardzie RFC 1918, i tak naprawdę nie mogą być używane w Internecie. Na przykład, adresy w zakresach 10.0.0.0/8, 172.16.0.0/12 i 192.168.0.0/16 to prywatne numery, które są dostępne tylko w lokalnych sieciach. W sytuacjach, gdy urządzenie ma być widoczne z zewnątrz, jak na przykład serwery, potrzebuje właśnie publicznego adresu IP. Przykładowo, różne webserwisy czy aplikacje wymagają takich adresów, by mogły działać z klientami. W skrócie, jeśli chcesz, aby coś było dostępne w sieci, musisz mieć publiczny adres.

Pytanie 14

Katalog Nakładów Rzeczowych w projektowaniu sieci służy do

A. tworzenia schematów sieci
B. określenia wytycznych dla wykonawcy
C. przygotowywania pomiarów powykonawczych
D. kosztorysowania prac
Wybór odpowiedzi dotyczącej rysowania schematów sieci, definiowania wytycznych dla wykonawcy lub opracowywania powykonawczych pomiarów nie uwzględnia podstawowych funkcji Katalogu Nakładów Rzeczowych. Rysowanie schematów sieci to proces inżynieryjny, który koncentruje się na przedstawianiu wizualnym projektu, a nie na szacowaniu kosztów. Katalog nakładów nie służy do tworzenia graficznych reprezentacji, co prowadzi do błędnego założenia, że estetyka i projektowanie wizualne są jego głównymi zastosowaniami. Definiowanie wytycznych dla wykonawcy może być wynikiem analizy kosztów, ale to nie katalog, lecz dokumentacja projektowa określa szczegółowe wymagania dotyczące realizacji projektu. Opracowywanie powykonawczych pomiarów ma za zadanie weryfikację wykonania robót i ich zgodności z projektem, co również nie jest funkcją katalogu. Niezrozumienie roli katalogu prowadzi do błędnych konkluzji, gdzie oceniane są aspekty niewłaściwe w kontekście jego przeznaczenia. Właściwe podejście do wykorzystania katalogu jest kluczowe dla efektywności kosztowej i zgodności z normami branżowymi, co podkreśla znaczenie precyzyjnego zrozumienia jego funkcji.

Pytanie 15

Który rodzaj kopii zapasowej należy wybrać, aby wykonać przyrostową kopię danych?

A. mirror
B. differential
C. incremental
D. full
Poprawną odpowiedzią jest „incremental”, bo właśnie ten typ tworzy przyrostową kopię zapasową – czyli zapisuje tylko te pliki (lub bloki danych), które zmieniły się od OSTATNIEJ wykonanej kopii przyrostowej lub pełnej. W praktyce wygląda to tak: najpierw robisz jedną kopię pełną (full backup), a potem codziennie np. o 22:00 uruchamiasz backup incremental, który „dokleja” tylko zmiany. Dzięki temu oszczędzasz miejsce na nośniku i skracasz czas wykonywania backupu. Z mojego doświadczenia to jest bardzo popularne podejście w firmach, gdzie dane zmieniają się codziennie, ale nie ma sensu codziennie robić pełnej kopii wszystkiego. W standardowych rozwiązaniach backupowych (np. Veeam, Acronis, Bacula, narzędzia w systemach serwerowych Windows czy Linux) incremental jest traktowany jako dobra praktyka do kopii dziennych, a pełna kopia jest robiona rzadziej, np. raz w tygodniu. Warto też wiedzieć, że przy odtwarzaniu danych z backupów przyrostowych musisz mieć ostatnią kopię pełną oraz cały łańcuch kopii incremental aż do wybranego dnia. To jest taki kompromis: zyskujesz szybkość i mniejsze zużycie przestrzeni, ale odtwarzanie może być trochę dłuższe i bardziej wrażliwe na uszkodzenie pojedynczej kopii w łańcuchu. Mimo to, według dobrych praktyk bezpieczeństwa i kopii zapasowych (np. zasada 3-2-1 backupu), przyrostowe backupy są jednym z podstawowych narzędzi do zabezpieczania systemów, serwerów plików, baz danych czy nawet stacji roboczych w firmie.

Pytanie 16

Jakie porty powinny być odblokowane w ustawieniach firewalla na komputerze, na którym działa usługa serwera WWW?

A. 80 i 1024
B. 20 i 1024
C. 80 i 443
D. 20 i 21
Porty 20 i 21 są stosowane głównie przez protokół FTP (File Transfer Protocol), który służy do przesyłania plików pomiędzy klientem a serwerem. Choć FTP jest ważny w kontekście transferu plików, nie ma bezpośredniego związku z działaniem serwera sieci Web i obsługą stron internetowych. W przypadku odblokowania portów 20 i 21, użytkownicy mogą mieć możliwość przesyłania plików na serwer, ale nie będą mogli z niego korzystać do przeglądania zawartości stron internetowych, co jest głównym celem serwera WWW. Porty 20 i 1024 również nie są odpowiednie, ponieważ port 1024 jest nieprzewidywalny i nie jest standardowo używany przez protokoły związane z serwerami WWW. Podobnie, port 80 i 1024 nie jest odpowiedni, ponieważ jak wcześniej wspomniano, port 1024 nie pełni specyficznej funkcji w kontekście serwerów WWW. Niezrozumienie roli poszczególnych portów i protokołów jest typowym błędem, który może prowadzić do problemów z konfiguracją zapory sieciowej. Właściwe zrozumienie protokołów oraz ich przypisanych portów jest kluczowe dla prawidłowego zarządzania bezpieczeństwem i dostępnością serwerów internetowych.

Pytanie 17

Jak wygląda kolejność przewodów w wtyczce RJ-45 zgodnie z normą TIA/EIA-568 dla zakończeń typu T568B?

A. Biało-niebieski, niebieski, biało-brązowy, brązowy, biało-zielony, zielony, biało-pomarańczowy, pomarańczowy
B. Biało-zielony, zielony, biało-pomarańczowy, pomarańczowy, niebieski, biało-niebieski, biało-brązowy, brązowy
C. Biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony, biało-brązowy, brązowy
D. Biało-brązowy, brązowy, biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony
Odpowiedź "Biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony, biało-brązowy, brązowy" jest właściwa zgodnie z normą TIA/EIA-568 dla zakończeń typu T568B. Standard ten określa kolory przewodów, które powinny być używane do tworzenia kabli sieciowych Ethernet. Przewody są rozmieszczone według określonej kolejności, aby zapewnić poprawną transmisję danych, co jest kluczowe w kontekście zarówno wydajności, jak i niezawodności sieci. Przykładowo, w przypadku błędnego podłączenia, może dojść do zakłóceń w komunikacji, co wpływa na przepustowość i stabilność połączenia. Stosowanie normy T568B jest powszechną praktyką w instalacjach sieciowych, co ułatwia identyfikację i diagnozowanie problemów. Zrozumienie tego standardu jest niezbędne dla specjalistów zajmujących się instalacją i konserwacją sieci, a także dla tych, którzy projektują infrastrukturę sieciową w różnych środowiskach, takich jak biura, szkoły czy obiekty przemysłowe. Poprawna kolejność przewodów ma wpływ na specyfikację zasilania PoE, co jest istotne w kontekście nowoczesnych rozwiązań sieciowych.

Pytanie 18

W systemie Linux, polecenie usermod -s dla danego użytkownika umożliwia

A. zmianę jego powłoki systemowej
B. przypisanie go do innej grupy
C. zmianę jego katalogu domowego
D. blokadę jego konta
Polecenie usermod -s w systemie Linux jest używane do zmiany powłoki systemowej (shell) dla określonego użytkownika. Powłoka systemowa to program, który interpretuje polecenia wprowadzane przez użytkownika, a jej zmiana ma duże znaczenie w kontekście zarządzania użytkownikami oraz bezpieczeństwa. Przykładem zastosowania może być sytuacja, gdy administrator chce, aby użytkownik korzystał z innej powłoki, takiej jak /bin/bash zamiast domyślnej powłoki. Zmiana powłoki może wpływać na dostęp do różnych narzędzi czy skryptów, które są specyficzne dla danej powłoki. Dobre praktyki w zarządzaniu kontami użytkowników zalecają, aby powłoka była odpowiednia do zadań, jakie użytkownik ma wykonywać. Warto również zauważyć, że zmiana powłoki może wymagać ponownego zalogowania się użytkownika, aby zmiany mogły być w pełni zastosowane, co jest istotne w kontekście użytkowania systemu. Przykład użycia polecenia: 'usermod -s /bin/bash username', gdzie 'username' to nazwa konta użytkownika, którego powłokę chcemy zmienić.

Pytanie 19

Jaki poziom macierzy RAID umożliwia równoległe zapisywanie danych na wielu dyskach działających jako jedno urządzenie?

A. RAID 1
B. RAID 2
C. RAID 0
D. RAID 3
RAID 0 to poziom macierzy, który łączy wiele dysków twardych w jeden logiczny wolumin, wykorzystując technikę stripingu. Oznacza to, że dane są dzielone na bloki, które są następnie rozdzielane równolegle na dostępne dyski. Taki sposób organizacji danych pozwala na zwiększenie wydajności, ponieważ operacje odczytu i zapisu mogą być wykonywane jednocześnie na kilku dyskach, co znacznie przyspiesza transfer danych. RAID 0 jest szczególnie przydatny w zastosowaniach wymagających dużej przepustowości, na przykład w edytowaniu wideo, grach komputerowych oraz w sytuacjach, w których kluczowa jest szybkość dostępu do danych. Należy jednak pamiętać, że RAID 0 nie oferuje żadnej redundancji: w przypadku awarii jednego z dysków dane przechowywane na wszystkich dyskach są nieodwracalnie utracone. Dlatego w zastosowaniach, gdzie bezpieczeństwo danych jest priorytetem, zaleca się stosowanie RAID-u z możliwością odzyskiwania, jak RAID 1 lub RAID 5.

Pytanie 20

Zarządzanie partycjami w systemach operacyjnych Windows

A. umożliwiają określenie maksymalnej wielkości przestrzeni dyskowej dla kont użytkowników
B. oferują podstawowe funkcje diagnostyczne, defragmentację oraz checkdisk
C. przydzielają etykietę (np. C) dla konkretnej partycji
D. przydzielają partycje na nośnikach
Analizując pozostałe odpowiedzi, można zauważyć, że niektóre z nich wprowadzają w błąd, dotyczące funkcji przydziałów dyskowych. Na przykład, stwierdzenie, że przydziały dyskowe przydzielają etykietę dla danej partycji, jest nieścisłe. Etykieta partycji to nazwa nadawana dyskom i partycjom w celu identyfikacji, ale nie jest to funkcja przydziałów dyskowych. Przydziały są bardziej związane z kontrolą zasobów niż z etykietowaniem. Inna koncepcja dotycząca przydzielania partycji na dyskach jest również myląca. Przydziały dyskowe nie są odpowiedzialne za tworzenie czy zarządzanie partycjami, co jest zadaniem administratora systemu operacyjnego oraz narzędzi do partycjonowania dysków. Funkcjonalności takie jak diagnostyka, defragmentacja i checkdisk dotyczą utrzymania i konserwacji systemu plików, ale nie są związane bezpośrednio z przydziałami dyskowymi. Wprowadzanie w błąd i mylenie tych pojęć może prowadzić do nieefektywnego zarządzania zasobami dyskowymi, co w dłuższym okresie może wpływać na wydajność systemu i zadowolenie użytkowników. Dlatego zrozumienie różnicy między tymi konceptami jest kluczowe dla prawidłowego zarządzania systemami Windows.

Pytanie 21

Interfejs HDMI w komputerze umożliwia transfer sygnału

A. cyfrowego audio i video
B. tylko cyfrowego video
C. analogowego audio i video
D. tylko cyfrowego audio
Wybór odpowiedzi dotyczącej wyłącznie cyfrowego wideo lub cyfrowego audio tłumaczy się często nieprecyzyjnym zrozumieniem funkcjonalności interfejsu HDMI. Interfejs HDMI został zaprojektowany z myślą o przesyłaniu zarówno sygnałów audio, jak i wideo w formie cyfrowej, co odróżnia go od starszych technologii, które wymagały osobnych połączeń dla audio i wideo. Wybór odpowiedzi wskazującej na analogowe audio i wideo również jest błędny, ponieważ HDMI nie obsługuje sygnałów analogowych. W praktyce, korzystanie z HDMI pozwala na uproszczenie całego procesu podłączenia urządzeń, redukując liczbę potrzebnych kabli. Warto również podkreślić, że istnieją inne standardy, jak VGA czy RCA, które mogą przesyłać sygnały analogowe, ale są one przestarzałe w kontekście nowoczesnych urządzeń. Osoby, które wybierają te nieprawidłowe odpowiedzi, mogą mylić pojęcia związane z różnymi formatami przesyłania sygnałów oraz ich zastosowaniami w różnych kontekstach, co prowadzi do nieporozumień. Zrozumienie różnic między sygnałem cyfrowym a analogowym, a także znajomość funkcji HDMI, są kluczowe dla efektywnego korzystania z nowoczesnych technologii multimedialnych.

Pytanie 22

W wyniku wykonania przedstawionych poleceń systemu Linux interfejs sieciowy eth0 otrzyma:

ifconfig eth0 10.0.0.100 netmask 255.255.255.0 broadcast 10.0.0.255 up
route add default gw 10.0.0.10
A. adres IP 10.0.0.100, maskę /22, bramę 10.0.0.10
B. adres IP 10.0.0.100, maskę /24, bramę 10.0.0.10
C. adres IP 10.0.0.10, maskę /24, bramę 10.0.0.255
D. adres IP 10.0.0.10, maskę /16, bramę 10.0.0.100
Wybór błędnych odpowiedzi związany jest z nieporozumieniami dotyczącymi podstawowych pojęć związanych z adresacją IP i routingiem. W przypadku pierwszej odpowiedzi, która wskazuje na adres IP 10.0.0.10, maskę /24 oraz bramę 10.0.0.255, można zauważyć, że adres IP przypisany do interfejsu nie może być równy adresowi bramy. W rzeczywistości, adres bramy powinien znajdować się w tej samej podsieci, co adres IP interfejsu, co w tym przypadku nie ma miejsca. Kolejna odpowiedź sugerująca adres IP 10.0.0.10 oraz maskę /16 jest całkowicie niepoprawna, ponieważ maska /16 nie jest zgodna z założeniami podanymi w poleceniu, gdzie użyto maski /24. Ostatnia odpowiedź, która podaje adres IP 10.0.0.100, maskę /22 oraz bramę 10.0.0.10, również jest błędna, ponieważ maska /22 nie odpowiada podanym w poleceniu ustawieniom. Użytkownicy często mylą pojęcia związane z maskami podsieci i ich zastosowaniem, co prowadzi do nieprawidłowego ustawienia granic komunikacji w sieciach. Zrozumienie, jak działa adresacja IP i jak ustawiać odpowiednie maski oraz bramy, jest kluczowe dla efektywnego zarządzania sieciami oraz eliminowania problemów z komunikacją w środowisku sieciowym.

Pytanie 23

W hierarchicznym modelu sieci komputery użytkowników stanowią część warstwy

A. rdzenia
B. szkieletowej
C. dostępu
D. dystrybucji
W modelu sieciowym warstwy rdzenia, dystrybucji i szkieletowej pełnią różne funkcje, które są często mylone z rolą warstwy dostępu. Warstwa rdzenia jest odpowiedzialna za zapewnienie dużej przepustowości i szybkiego przesyłania danych między różnymi segmentami sieci. Obejmuje ona infrastruktury, które łączą warstwę dostępu z warstwą dystrybucji, co jest niezbędne dla efektywnej komunikacji na dużych odległościach. Użytkownicy mogą błędnie myśleć, że komputery znajdują się w warstwie rdzenia, ponieważ są one centralnymi elementami, ale w rzeczywistości są jedynie klienci podłączonymi do sieci. Warstwa dystrybucji, z kolei, służy do agregacji ruchu z różnych segmentów sieci dostępu oraz podejmuje decyzje dotyczące routingu i bezpieczeństwa. Użytkownicy mogą mylić tę warstwę z dostępem, jednak to ona nie zajmuje się bezpośrednim podłączeniem urządzeń końcowych. Warstwa szkieletowa jest najwyższą warstwą, która zapewnia ogólną strukturę i architekturę sieci, odpowiadając za połączenia między dużymi sieciami, natomiast urządzenia końcowe, takie jak komputery, są zawsze częścią warstwy dostępu. Zrozumienie funkcji poszczególnych warstw w modelu hierarchicznym jest kluczowe dla poprawnego projektowania i wdrażania rozwiązań sieciowych, co niestety może być mylnie interpretowane bez odpowiedniej wiedzy o ich zadaniach.

Pytanie 24

Wskaż błędny sposób podziału dysku MBR na partycje

A. 1 partycja podstawowa i dwie rozszerzone
B. 2 partycje podstawowe i jedna rozszerzona
C. 3 partycje podstawowe oraz jedna rozszerzona
D. 1 partycja podstawowa oraz jedna rozszerzona
W przypadku podziału dysku MBR istnieje wiele błędnych koncepcji dotyczących liczby partycji podstawowych i rozszerzonych, które mogą prowadzić do nieporozumień. Zgodnie z zasadami MBR, maksymalnie można stworzyć cztery partycje podstawowe lub trzy partycje podstawowe oraz jedną partycję rozszerzoną. W przypadku podziału na dwie partycje rozszerzone i jedną podstawową, powstaje problem, ponieważ partycja rozszerzona jest strukturą, która jedynie umożliwia utworzenie wielu partycji logicznych. Partycja rozszerzona nie może występować w liczbie większej niż jedna. Typowym błędem jest mylenie partycji podstawowych z logicznymi – partycje logiczne są zawarte wewnątrz partycji rozszerzonej i nie mogą istnieć samodzielnie bez odpowiedniej struktury rozszerzonej. Z tego powodu, odpowiedzi sugerujące możliwość utworzenia więcej niż jednej partycji rozszerzonej są nieprawidłowe. Warto również zauważyć, że wybór MBR jako systemu partycjonowania jest czasami ograniczający, szczególnie w przypadku nowoczesnych dysków twardych, gdzie lepszym rozwiązaniem może być GPT, które oferuje bardziej zaawansowane funkcje, takie jak większa liczba partycji oraz lepsze wsparcie dla większych dysków. Zrozumienie tych zasad jest kluczowe dla właściwego zarządzania danymi i projektowania struktur dyskowych.

Pytanie 25

Czym dokonuje się przekształcenia kodu źródłowego w program do wykonania?

A. debugger.
B. kompilator.
C. emulator.
D. interpreter.
Komplator, znany również jako kompilator, to program, który tłumaczy kod źródłowy, napisany w języku wysokiego poziomu, na kod maszynowy, który jest wykonywalny przez procesor. Proces kompilacji polega na analizie składniowej, semantycznej i generacji kodu. Przykładem zastosowania komplatora jest kompilacja programów napisanych w języku C lub C++ do plików wykonywalnych, które mogą być uruchamiane na systemach operacyjnych. Dzięki kompilacji programy mogą osiągnąć wysoką wydajność, ponieważ kod maszynowy jest bezpośrednio zrozumiały dla procesora, co eliminuje potrzebę interpretacji w czasie rzeczywistym. W branży programistycznej korzysta się z wielu standardów kompilacji, takich jak ANSI C, które zapewniają zgodność między różnymi platformami. Używanie komplatora jest również dobrą praktyką, gdyż umożliwia optymalizację kodu oraz jego weryfikację pod kątem błędów jeszcze przed uruchomieniem programu.

Pytanie 26

Które z urządzeń sieciowych jest przedstawione na grafice?

Ilustracja do pytania
A. Hub
B. Switch
C. Access Point
D. Router
Symbol graficzny, który widzisz, to router. To bardzo ważne urządzenie w sieciach komputerowych. Router działa jak pośrednik między różnymi częściami sieci i przekazuje dane w taki sposób, żeby było to jak najbardziej efektywne. Korzysta z tablic routingu, które są na bieżąco aktualizowane, więc potrafi kierować pakiety tam, gdzie powinny trafić. Co ciekawe, routery mogą łączyć różne typy sieci, na przykład lokalne sieci LAN z rozległymi WAN, czego inne urządzenia sieciowe nie potrafią. Dzisiaj routery obsługują różne protokoły, jak OSPF, RIPv2 czy BGP, co naprawdę pozwala na lepsze zarządzanie ruchem sieciowym. Mają też różne funkcje zabezpieczeń, na przykład firewalle i VPN, co znacznie poprawia bezpieczeństwo i prywatność użytkowników. W domach często pełnią dodatkowo rolę punktu dostępowego Wi-Fi, co pozwala nam bezprzewodowo połączyć się z siecią. Myślę, że bez routerów dzisiaj nie wyobrazimy sobie nowoczesnych sieci, zarówno w domach, jak i w firmach. Kiedy korzystasz z routerów zgodnie z ich przeznaczeniem, możesz nie tylko lepiej zarządzać ruchem, ale też poprawić bezpieczeństwo oraz stabilność sieci.

Pytanie 27

Do konserwacji elementów łożyskowanych oraz ślizgowych w urządzeniach peryferyjnych stosuje się

A. sprężone powietrze.
B. smar syntetyczny.
C. powłokę grafitową.
D. tetrową szmatkę.
Smar syntetyczny to zdecydowanie najrozsądniejszy wybór, jeśli chodzi o konserwację elementów łożyskowanych i ślizgowych w urządzeniach peryferyjnych. W praktyce technicznej smary syntetyczne mają przewagę nad tradycyjnymi olejami czy smarami mineralnymi, głównie dzięki swojej wytrzymałości na temperatury, stabilności chemicznej i mniejszemu zużyciu podczas pracy. To właśnie one pozwalają na wydłużenie okresów międzyserwisowych, ograniczają tarcie oraz chronią przed korozją i zużyciem. Często spotyka się je w drukarkach, skanerach czy nawet napędach optycznych, bo tam chodzi nie tylko o dobre smarowanie, ale też o to, żeby smar nie rozpryskiwał się i nie brudził innych elementów – a syntetyki mają właśnie taką strukturę, że trzymają się powierzchni. Z mojego doświadczenia wynika, że stosowanie smaru syntetycznego znacząco ogranicza ryzyko awarii i pozwala zaoszczędzić sporo czasu na naprawach. Warto też pamiętać, że wielu producentów – np. według zaleceń serwisowych HP czy Brother – wyraźnie zastrzega konieczność używania smarów syntetycznych do prowadnic i łożysk. To już taki branżowy standard. No i – jak ktoś się kiedyś napracował przy czyszczeniu powłok grafitowych albo usuwaniu resztek starych smarów, ten wie, że odpowiedni smar naprawdę robi różnicę.

Pytanie 28

Jakie adresy mieszczą się w zakresie klasy C?

A. 1.0.0.1 - 126.255.255.254
B. 192.0.0.0 - 223.255.255.255
C. 224.0.0.1 - 239.255.255.0
D. 128.0.0.1 - 191.255.255.254
Adresy klasy C obejmują zakres od 192.0.0.0 do 223.255.255.255, co oznacza, że są one przeznaczone głównie dla małych i średnich sieci. Ta klasa addressów IP charakteryzuje się tym, że pierwsze trzy oktety (192-223) są wykorzystywane do identyfikacji sieci, a ostatni oktet służy do identyfikacji hostów w tej sieci. Dzięki temu, możliwe jest zdefiniowanie do 2^21 (około 2 miliony) unikalnych adresów sieciowych, co jest wystarczające dla wielu organizacji. Klasa C jest szeroko stosowana w praktyce, szczególnie w środowiskach lokalnych (LAN), gdzie niezbędne są ograniczone zasoby adresowe dla komputerów i urządzeń sieciowych. Warto również zauważyć, że w klasycznej hierarchii adresacji IP, klasa C wspiera protokoły takie jak TCP/IP oraz standardy routingu, co czyni ją kluczowym elementem w budowie sieci komputerowych.

Pytanie 29

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. dodaniem drugiego dysku twardego.
C. wybraniem pliku z obrazem dysku.
D. konfigurowaniem adresu karty sieciowej.
W konfiguracji maszyny wirtualnej bardzo łatwo pomylić różne opcje, bo wszystko jest w jednym oknie i wygląda na pierwszy rzut oka dość podobnie. Ustawienia pamięci wideo, dodawanie dysków, obrazy ISO, karty sieciowe – to wszystko siedzi zwykle w kilku zakładkach i początkujący użytkownicy mieszają te pojęcia. Ustawienie rozmiaru pamięci wirtualnej karty graficznej dotyczy tylko tego, ile pamięci RAM zostanie przydzielone emulatorowi GPU. Ta opcja znajduje się zazwyczaj w sekcji „Display” lub „Ekran” i pozwala poprawić płynność pracy środowiska graficznego, ale nie ma nic wspólnego z wybieraniem pliku obrazu dysku czy instalacją systemu operacyjnego. To jest po prostu parametr wydajnościowy. Z kolei dodanie drugiego dysku twardego polega na utworzeniu nowego wirtualnego dysku (np. nowy plik VDI, VHDX) lub podpięciu już istniejącego i przypisaniu go do kontrolera dyskowego w maszynie. Ta operacja rozszerza przestrzeń magazynową VM, ale nie wskazuje konkretnego obrazu instalacyjnego – zwykle nowy dysk jest pusty i dopiero system w maszynie musi go sformatować. Kolejne częste nieporozumienie dotyczy sieci: konfigurowanie adresu karty sieciowej w maszynie wirtualnej to zupełnie inna para kaloszy. W ustawieniach hypervisora wybieramy tryb pracy interfejsu (NAT, bridge, host‑only, internal network itd.), a adres IP najczęściej i tak ustawia się już wewnątrz systemu operacyjnego, tak samo jak na zwykłym komputerze. To nie ma żadnego związku z plikami obrazów dysków – sieć służy do komunikacji, a nie do uruchamiania czy montowania nośników. Typowy błąd myślowy polega na tym, że użytkownik widząc „dysk”, „pamięć” albo „kontroler”, zakłada, że każda z tych opcji musi dotyczyć tego samego obszaru konfiguracji. W rzeczywistości standardowe podejście w wirtualizacji jest takie, że wybór pliku obrazu dysku odbywa się w sekcji pamięci masowej: tam dodaje się wirtualny napęd (HDD lub CD/DVD) i dopiero przy nim wskazuje konkretny plik obrazu. Oddzielenie tych funkcji – grafiki, dysków, sieci – jest kluczowe, żeby świadomie konfigurować maszyny i unikać później dziwnych problemów z uruchamianiem systemu czy brakiem instalatora.

Pytanie 30

Aby chronić sieć WiFi przed nieautoryzowanym dostępem, należy między innymi

A. korzystać tylko z kanałów wykorzystywanych przez inne sieci WiFi
B. wybrać nazwę identyfikatora sieci SSID o długości co najmniej 16 znaków
C. dezaktywować szyfrowanie informacji
D. włączyć filtrowanie adresów MAC
Wyłączenie szyfrowania danych to jedno z najgorszych rozwiązań w kontekście zabezpieczania sieci bezprzewodowej. Szyfrowanie jest kluczowym elementem ochrony przesyłanych informacji, a jego brak naraża dane na podsłuch i przechwycenie przez nieautoryzowane osoby. Współczesne standardy zabezpieczeń, takie jak WPA3, zapewniają silne szyfrowanie, które znacząco utrudnia dostęp do danych osobom trzecim. Kolejny błąd to stosowanie nazwy identyfikatora sieci SSID o długości min. 16 znaków, co samo w sobie nie stanowi skutecznego zabezpieczenia. Choć dłuższe SSID jest mniej przewidywalne, nie zapewnia rzeczywistej ochrony, jeśli sieć jest nadal dostępna publicznie i bez odpowiednich dodatkowych zabezpieczeń. Wreszcie, korzystanie wyłącznie z kanałów używanych przez inne sieci WiFi jest mylnym podejściem. Takie działanie może prowadzić do przeciążenia sygnału i obniżenia jakości połączenia, a nie do poprawy bezpieczeństwa. Kanały te mogą być także łatwiejsze do wykrycia przez potencjalnych intruzów, co może zredukować skuteczność strategii bezpieczeństwa. Dlatego kluczowe jest, aby przy zabezpieczaniu sieci bezprzewodowej stosować złożone, wielowarstwowe podejścia, a nie polegać na pojedynczych rozwiązaniach, które mogą wprowadzać w błąd i dawać fałszywe poczucie bezpieczeństwa.

Pytanie 31

Jakie parametry można śledzić w przypadku urządzenia przy pomocy S.M.A.R.T.?

A. Dysku twardego
B. Płyty głównej
C. Procesora
D. Chipsetu
S.M.A.R.T., czyli Self-Monitoring, Analysis and Reporting Technology, to technologia, która działa w dyskach twardych oraz SSD. Dzięki niej możemy śledzić, w jakim stanie są nasze nośniki. To mega ważne, bo dzięki informacjom o błędach odczytu czy temperaturze, możemy zareagować, zanim coś pójdzie nie tak. Moim zdaniem, to naprawdę przydatne narzędzie, zwłaszcza w dużych firmach, gdzie przechowuje się masę danych. Taki system do automatycznego raportowania stanu dysków to istna must-have dla każdego administratora. Powinno się regularnie sprawdzać raporty S.M.A.R.T., żeby uniknąć niespodzianek i zwiększyć pewność działania naszych systemów.

Pytanie 32

Po stwierdzeniu przypadkowego usunięcia ważnych danych na dysku twardym, aby odzyskać usunięte pliki, najlepiej

A. zainstalować na tej samej partycji co pliki program do odzyskiwania usuniętych danych np. Recuva.
B. podłączyć dysk do zestawu komputerowego z zainstalowanym programem typu recovery.
C. odinstalować oraz ponownie zainstalować sterowniki dysku twardego, zalecane przez producenta.
D. przeskanować system programem antywirusowym, a następnie użyć narzędzia chkdsk.
W przypadkach przypadkowego usunięcia ważnych danych niezwykle łatwo popełnić błąd, który bezpowrotnie pogrzebie szansę na ich odzyskanie. Jednym z najczęstszych błędów jest próba instalowania nowych programów do odzyskiwania bezpośrednio na tej samej partycji, z której dane zostały skasowane. To niestety bardzo ryzykowne – każda instalacja może nadpisać fragmenty usuniętych plików, nawet jeśli wydaje się, że miejsca na dysku jest sporo. System operacyjny nie ostrzega, gdzie dokładnie wędrują nowe pliki, a nadpisane sektory są praktycznie niemożliwe do przywrócenia nawet dla drogich narzędzi laboratoryjnych. Kolejnym nietrafionym pomysłem jest odinstalowywanie czy reinstalowanie sterowników dysku twardego – takie działania nie mają żadnego realnego wpływu na zawartość danych na dysku. To raczej mity, które często powtarzają się na forach, ale w praktyce niczego nie odzyskują, a mogą tylko przedłużyć czas bez konkretnego działania. Czasem pojawia się przekonanie, że skan antywirusowy albo narzędzie typu chkdsk mogą pomóc w odzyskiwaniu – tak naprawdę żadne z nich nie zostały zaprojektowane do takich celów. Chkdsk naprawia strukturę logiczną systemu plików, ale może nawet pogorszyć sprawę, bo potrafi trwale usunąć informacje o plikach uznanych za uszkodzone. Antywirus natomiast służy do wykrywania złośliwego oprogramowania, nie do odzyskiwania przypadkowo utraconych danych. W takich sytuacjach najważniejsze jest natychmiastowe zaprzestanie pracy na danym dysku i skorzystanie ze sprawdzonych metod – najlepiej podłączyć dysk do innego systemu i działać narzędziami odzysku bez ryzyka nadpisu. Często to właśnie zwykłe, niewinne działania na partycji z utraconymi danymi prowadzą do ich całkowitej nieodwracalności. Warto o tym pamiętać i nie dać się zwieść pozornie prostym rozwiązaniom, które w rzeczywistości nie mają szans zadziałać.

Pytanie 33

Jak skrót wskazuje na rozległą sieć komputerową, która obejmuje swoim zasięgiem miasto?

A. PAN
B. LAN
C. MAN
D. WAN
Wybór WAN (Wide Area Network) wskazuje na mylne zrozumienie zasięgu sieci. WAN definiuje sieci, które obejmują duże terytoria, takie jak całe kraje lub kontynenty, a nie konkretne obszary miejskie. Aplikacje takie jak wirtualne sieci prywatne (VPN) mogą działać w ramach WAN, jednak nie odpowiadają na wymagania dotyczące zasięgu miejskiego, które są kluczowe dla definicji MAN. PAN (Personal Area Network) odnosi się do minimalnych zasięgów, zazwyczaj obejmujących obszar od kilku centymetrów do kilku metrów, co czyni go zastosowaniem do połączeń między osobistymi urządzeniami, takimi jak smartfony i laptopy, ale nie nadaje się do opisu sieci miejskich. LAN (Local Area Network) natomiast, charakteryzuje się ograniczonym zasięgiem, zwykle w ramach pojedynczego budynku lub kampusu, i nie jest wystarczająco rozbudowany, aby odpowiadać na potrzeby dużej sieci miejskiej. Typowym błędem myślowym jest mylenie funkcji i zasięgów różnych typów sieci komputerowych, co prowadzi do niewłaściwego stosowania terminologii oraz koncepcji związanych z infrastrukturą sieciową.

Pytanie 34

Podaj polecenie w systemie Windows Server, które umożliwia usunięcie jednostki organizacyjnej z katalogu.

A. adprep
B. dsadd
C. redircmp
D. dsrm
Odpowiedzi 'dsadd', 'adprep' oraz 'redircmp' reprezentują zupełnie inne funkcje w ekosystemie Active Directory, co może prowadzić do nieporozumień w kontekście zarządzania strukturą katalogu. 'Dsadd' to polecenie służące do dodawania nowych obiektów do Active Directory, takich jak użytkownicy, grupy czy jednostki organizacyjne, co sprawia, że nie ma możliwości zastosowania go do usuwania obiektów. Z kolei 'adprep' jest narzędziem wykorzystywanym do przygotowywania bazy danych Active Directory przed migracją lub aktualizacją serwera, ale również nie ma związku z procesem usuwania jakichkolwiek obiektów. 'Redircmp' natomiast jest używane do zmiany lokalizacji, do której kierowane są nowe konta użytkowników, co również nie ma zastosowania w kontekście usuwania jednostek organizacyjnych. Te błędne odpowiedzi wynikają często z braku zrozumienia różnorodności poleceń dostępnych w narzędziach administracyjnych systemów Windows. Właściwe zarządzanie Active Directory wymaga znajomości nie tylko poleceń, ale również ich funkcji, co z kolei podkreśla znaczenie szkoleń i dokumentacji w pracy administratorów. Kluczowe jest zrozumienie, że każde polecenie ma swoją specyfikę i zastosowanie, a nieprawidłowy wybór narzędzia może prowadzić do dewastacji struktury AD lub stworzenia niepożądanych sytuacji w organizacji.

Pytanie 35

Czym jest MFT w systemie plików NTFS?

A. główny plik indeksowy partycji
B. plik zawierający dane o poszczególnych plikach i folderach na danym woluminie
C. tablica partycji dysku twardego
D. główny rekord bootowania dysku
MFT, czyli Master File Table, jest kluczowym elementem systemu plików NTFS (New Technology File System). Pełni rolę centralnego pliku, który przechowuje wszystkie informacje dotyczące plików i folderów na danym woluminie, w tym ich atrybuty, lokalizację na dysku oraz inne istotne metadane. Dzięki MFT system operacyjny może szybko uzyskać dostęp do informacji o plikach, co znacząco poprawia wydajność operacji na plikach. Przykładem zastosowania MFT jest szybkie wyszukiwanie plików, co jest niezwykle istotne w środowiskach, gdzie użytkownicy często przeszukują duże ilości danych. W praktyce dobre zrozumienie działania MFT jest kluczowe dla administratorów systemów, którzy muszą zarządzać pamięcią masową oraz optymalizować wydajność systemu. Warto również zauważyć, że MFT jest częścią standardu NTFS, który zapewnia większą niezawodność i funkcjonalność w porównaniu do starszych systemów plików, takich jak FAT32.

Pytanie 36

Program typu recovery, w warunkach domowych, pozwala na odzyskanie danych z dysku twardego w przypadku

A. uszkodzenia silnika dysku.
B. zalania dysku.
C. uszkodzenia elektroniki dysku.
D. przypadkowego usunięcia danych.
Wiele osób zakłada, że programy do odzyskiwania danych są magicznym narzędziem, które poradzą sobie ze wszystkimi rodzajami awarii dysku. Niestety, rzeczywistość jest zupełnie inna. Takie aplikacje radzą sobie wyłącznie w przypadkach, gdy dane zostały utracone przez błędy logiczne, na przykład przypadkowe usunięcie plików lub sformatowanie partycji, ale nie w sytuacji poważnych uszkodzeń fizycznych. Jeśli dysk został zalany, uszkodzony mechanicznie (np. silnik nie startuje) albo doszło do awarii elektroniki, typowe rozwiązania software’owe nie mają szans – komputer nawet nie wykryje nośnika lub będzie on działał niestabilnie. W takich przypadkach profesjonalne firmy stosują zaawansowane narzędzia i czyste pomieszczenia klasy clean room, by rozebrać dysk i próbować odczytać dane bezpośrednio z talerzy lub chipów pamięci. Wielu użytkowników mylnie wiąże pojęcie recovery z ratowaniem dysku po zalaniu czy spadku, co jest dość powszechnym błędem. W praktyce skuteczne recovery software wymaga, by nośnik był sprawny pod względem elektronicznym i mechanicznym – tylko wtedy interwencja programowa ma sens. Oczywiście, zawsze warto pamiętać o kopiach zapasowych, bo nawet najlepsze programy recovery nie poradzą sobie z poważnymi uszkodzeniami sprzętu. To, co może zmylić, to fakt, że czasem po zalaniu czy uszkodzeniu mechaniki niewielkie dane da się odzyskać, ale wyłącznie po naprawie dysku lub przez specjalistyczny serwis. Natomiast w warunkach domowych, bez odpowiedniego sprzętu i wiedzy, nie ma na to szans. Warto mieć tego świadomość, zanim zaczniemy eksperymentować z różnymi narzędziami i ryzykować trwałą utratę danych.

Pytanie 37

Które dwa urządzenia sieciowe CISCO wyposażone w moduły z portami smart serial można połączyć przy użyciu kabla szeregowego?

A. Ruter - ruter.
B. Ruter - komputer.
C. Przełącznik - ruter.
D. Przełącznik - przełącznik.
W tym zadaniu łatwo wpaść w pułapkę skojarzeń, że skoro mówimy o kablu i porcie, to prawie każde urządzenie da się jakoś podłączyć do komputera albo przełącznika. W sieciach CISCO tak to jednak nie działa. Port smart serial to specjalistyczne złącze stosowane w modułach interfejsów szeregowych routerów, przeznaczone do realizacji połączeń WAN. Nie jest to uniwersalne złącze typu USB czy RJ-45, tylko element stricte sieciowy, związany z konkretnymi standardami transmisji szeregowej (V.35, EIA-530, X.21). Połączenie ruter – komputer kablem szeregowym smart serial nie ma sensu, bo typowy komputer PC nie ma interfejsu smart serial ani karty WAN tego typu. Do podłączenia komputera do rutera używa się standardowo Ethernetu (skrętka z wtykiem RJ-45) lub ewentualnie konsoli szeregowej (RS-232/USB–RJ-45) do zarządzania, ale to zupełnie inna klasa połączeń niż łącza WAN między routerami. Z mojego doświadczenia wielu uczniów myli też pojęcie „kabel szeregowy” z „kablem konsolowym”, a to są dwa różne światy. Przełączniki CISCO z kolei pracują głównie w warstwie 2 modelu OSI i wyposażone są w porty Ethernet (FastEthernet, GigabitEthernet, SFP dla światłowodów). Nie montuje się w nich modułów smart serial, bo ich rolą nie jest zakończanie łączy WAN, tylko przełączanie ramek w sieci lokalnej. Dlatego połączenia przełącznik – ruter czy przełącznik – przełącznik realizuje się zazwyczaj za pomocą Ethernetu, trunków 802.1Q, agregacji łączy itp., a nie za pomocą kabli szeregowych smart serial. Typowym błędem myślowym jest tu wrzucanie wszystkich kabli „do jednego worka” i założenie, że skoro przełącznik i ruter są urządzeniami sieciowymi, to każde specjalistyczne złącze będzie działało między nimi. W praktyce dobrym nawykiem jest zawsze sprawdzanie, do jakiej warstwy OSI należy interfejs, jaki standard fizyczny obsługuje i jakie urządzenia producent przewidział do jego wykorzystania. W przypadku smart serial odpowiedź jest jednoznaczna: służy do łączenia urządzeń klasy router–router w ramach łączy szeregowych WAN lub ich symulacji w laboratorium.

Pytanie 38

Zestaw narzędzi niezbędnych do instalacji okablowania miedzianego typu "skrętka" w lokalnej sieci powinien obejmować

A. narzędzie uderzeniowe, nóż montażowy, spawarkę światłowodową, tester okablowania
B. zestaw wkrętaków, narzędzie uderzeniowe, tester okablowania, lutownicę
C. ściągacz izolacji, zaciskarkę do złączy modularnych, nóż montażowy, miernik uniwersalny
D. zaciskarkę do złączy modularnych, ściągacz izolacji, narzędzie uderzeniowe, tester okablowania
Zestaw narzędzi do montażu okablowania miedzianego typu 'skrętka' w sieci lokalnej powinien zawierać zaciskarkę złączy modularnych, ściągacz izolacji, narzędzie uderzeniowe oraz tester okablowania. Zaciskarka jest kluczowym narzędziem do prawidłowego łączenia przewodów z wtyczkami RJ-45, co jest niezbędne w instalacjach LAN. Użycie ściągacza izolacji pozwala na precyzyjne usunięcie izolacji z przewodów bez ich uszkodzenia, co jest ważne dla zapewnienia wysokiej jakości połączenia. Narzędzie uderzeniowe (impact tool) jest wykorzystywane do montażu wtyków na gniazdach typu keystone oraz do wpinania wtyczek w panelach krosowych, co jest istotne dla zachowania integralności sygnału. Tester okablowania pozwala na weryfikację poprawności połączeń oraz identyfikację ewentualnych błędów, co jest kluczowe dla zapewnienia niezawodności sieci. Dobre praktyki branżowe zalecają używanie zestawu narzędzi, który umożliwia przeprowadzenie instalacji zgodnie z normami, co wpływa na stabilność i wydajność całej sieci.

Pytanie 39

Ataki na systemy komputerowe, które odbywają się poprzez podstępne pozyskiwanie od użytkowników ich danych osobowych, często wykorzystywane są w postaci fałszywych komunikatów z różnych instytucji lub od dostawców usług e-płatności i innych znanych organizacji, to

A. phishing
B. DDoS
C. SYN flooding
D. brute force
Phishing to technika oszustwa internetowego, która ma na celu wyłudzenie poufnych informacji, takich jak hasła czy dane osobowe, poprzez podszywanie się pod zaufane instytucje. Atakujący często stosują fałszywe e-maile lub strony internetowe, które wyglądają na autentyczne. Na przykład, użytkownik może otrzymać e-mail rzekomo od banku, w którym znajduje się link do strony, która imituje stronę logowania. Kliknięcie w ten link może prowadzić do wprowadzenia danych logowania na nieautoryzowanej stronie, co skutkuje ich przejęciem przez cyberprzestępców. Aby zabezpieczyć się przed phishingiem, należy stosować dobre praktyki, takie jak sprawdzanie adresu URL przed wprowadzeniem danych oraz korzystanie z dwuskładnikowej autoryzacji. Znajomość tej techniki jest kluczowa w kontekście ochrony danych osobowych i bezpieczeństwa transakcji online, a organizacje powinny regularnie szkolić swoich pracowników w zakresie rozpoznawania i reagowania na takie zagrożenia.

Pytanie 40

Który z podanych adresów IP jest adresem publicznym?

A. 172.168.0.16
B. 10.99.15.16
C. 172.18.0.16
D. 192.168.168.16
Wszystkie pozostałe odpowiedzi wskazują na adresy IP, które są zarezerwowane dla prywatnych sieci lokalnych, co sprawia, że nie mogą być używane jako publiczne adresy IP. Adres 10.99.15.16 należy do zakresu 10.0.0.0/8, który jest całkowicie zarezerwowany dla prywatnych sieci. Oznacza to, że urządzenia z tym adresem mogą komunikować się tylko w obrębie tej samej sieci lokalnej, a nie w Internecie. Podobnie, adres 172.18.0.16 jest częścią zakresu 172.16.0.0 do 172.31.255.255, także przeznaczonego dla sieci prywatnych. Ostatni adres, 192.168.168.16, również należy do zarezerwowanego zakresu 192.168.0.0/16 dla prywatnych sieci, co ogranicza jego użycie do lokalnych rozwiązań. Typowe błędy myślowe, które prowadzą do takich niepoprawnych wniosków, często wynikają z braku zrozumienia różnicy między adresacją publiczną i prywatną. Użytkownicy mogą mylić te adresy z publicznymi z powodu podobieństw w ich formacie, jednak istotne jest, aby wiedzieć, że tylko adresy spoza zarezerwowanych zakresów mogą zostać użyte w sieci globalnej. Zrozumienie tych zasad jest kluczowe dla efektywnego zarządzania sieciami oraz zapewnienia ich bezpieczeństwa.