Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 29 kwietnia 2026 10:09
  • Data zakończenia: 29 kwietnia 2026 10:19

Egzamin zdany!

Wynik: 34/40 punktów (85,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Złośliwe programy komputerowe, które potrafią replikować się same i wykorzystują luki w systemie operacyjnym, a także mają zdolność modyfikowania oraz uzupełniania swojej funkcjonalności, nazywamy

A. wirusy
B. robaki
C. trojany
D. rootkity
Jest sporo pomyłek, gdy chodzi o wirusy i robaki, bo to całkiem różne rzeczy. Wirus to program, który potrzebuje, żeby ktoś go aktywował albo musiałby być w inny program wbudowany, żeby się rozprzestrzenić. Wirus może uszkodzić pliki, przez co jest groźniejszy, ale nie potrafi się sam przemieszczać po sieci. Trojany też nie działają jak robaki, bo one udają normalne programy, żeby wkręcić użytkownika, ale też nie rozprzestrzeniają się same. Rootkity to zestaw narzędzi, które pozwalają na dostęp do systemu bez zezwolenia, ale również nie mają zdolności do kopiowania. Ważne jest, żeby umieć rozróżnić te wszystkie różnice, bo to klucz do skutecznych zabezpieczeń. Nie można mylić robaków z wirusami lub innymi rodzajami złośliwego oprogramowania, bo to może prowadzić do błędnych decyzji w ochronie komputerów.

Pytanie 2

Tworzenie obrazu dysku ma na celu

A. ochronę danych przed nieuprawnionym dostępem
B. zabezpieczenie systemu, aplikacji oraz danych przed poważną awarią komputera
C. przyspieszenie pracy z wybranymi plikami znajdującymi się na tym dysku
D. ochronę aplikacji przed nieuprawnionymi użytkownikami
Obraz dysku, znany również jako obraz systemu, jest kopią wszystkich danych zgromadzonych na dysku twardym, w tym systemu operacyjnego, aplikacji oraz plików użytkownika. Tworzy się go głównie w celu zabezpieczenia całego systemu przed nieprzewidzianymi awariami, takimi jak uszkodzenie dysku twardego, wirusy czy inne formy uszkodzeń. Gdy obraz dysku jest dostępny, użytkownik może szybko przywrócić system do stanu sprzed awarii, co znacznie zmniejsza ryzyko utraty ważnych danych. Przykładem zastosowania obrazu dysku może być regularne wykonywanie kopii zapasowych na serwerach oraz komputerach stacjonarnych, co jest zgodne z najlepszymi praktykami w zarządzaniu danymi. Dzięki odpowiedniej strategii tworzenia obrazów dysku, organizacje mogą zapewnić ciągłość działania i minimalizować przestoje. Standardy takie jak ISO 22301 podkreślają znaczenie planowania kontynuacji działania, w tym zabezpieczeń w postaci kopii zapasowych. Warto również pamiętać o regularnym testowaniu procesu przywracania z obrazu, aby mieć pewność, że w przypadku awarii odzyskanie danych będzie skuteczne.

Pytanie 3

Ustawa z dnia 14 grudnia 2012 roku dotycząca odpadów zobowiązuje

A. poddanie odpadów przede wszystkim odzyskowi
B. neutralizację odpadów w sposób dowolny w możliwie najkrótszym czasie
C. przechowywanie odpadów maksymalnie przez rok
D. spalanie odpadów w jak najwyższej temperaturze
Ustawa z dnia 14 grudnia 2012 roku o odpadach kładzie szczególny nacisk na hierarchię postępowania z odpadami, w której odzysk zajmuje priorytetową pozycję. To oznacza, że odpady powinny być poddawane odzyskowi, co może obejmować recykling, kompostowanie czy inne formy ponownego wykorzystania materiałów. Praktyczne zastosowanie tej zasady można zaobserwować w programach segregacji odpadów, które wdrażane są w wielu gminach i przedsiębiorstwach. Odpowiednie wdrożenie procedur odzysku nie tylko przyczynia się do ograniczenia ilości odpadów kierowanych na składowisko, ale także sprzyja zrównoważonemu rozwojowi i oszczędności surowców naturalnych. Na przykład, w przypadku odpadów papierowych, ich recykling pozwala na zmniejszenie zużycia drzew oraz energii potrzebnej do produkcji nowego papieru. Zgodnie z najlepszymi praktykami branżowymi, kluczowe jest podejście oparte na zasadzie „zero waste”, które promuje maksymalne wykorzystanie zasobów i minimalizowanie ich odpadów, co jest zgodne z dyrektywami Unii Europejskiej w zakresie gospodarki odpadami.

Pytanie 4

Gdy w przeglądarce internetowej wpiszemy adres HTTP, pojawia się błąd "403 Forbidden", co oznacza, że

A. wielkość wysyłanych danych przez klienta została ograniczona.
B. adres IP karty sieciowej jest niewłaściwie przypisany.
C. użytkownik nie dysponuje uprawnieniami do żądanego zasobu.
D. brak pliku docelowego na serwerze.
Błąd 403 Forbidden wskazuje, że serwer rozumie żądanie, ale odmawia jego wykonania z powodu braku odpowiednich uprawnień użytkownika do dostępu do zasobu. W praktyce oznacza to, że nawet jeśli plik lub zasób istnieje na serwerze, użytkownik nie ma wystarczających uprawnień, aby go zobaczyć lub wykonać. Może to być spowodowane ustawieniami na poziomie serwera, takimi jak reguły w plikach .htaccess, które kontrolują dostęp do określonych katalogów lub plików. W przypadku aplikacji webowych, ważne jest, aby odpowiednio zarządzać uprawnieniami użytkowników, aby zapewnić bezpieczeństwo danych i zasobów. Na przykład, w systemie zarządzania treścią (CMS) można ustawić różne poziomy dostępu dla administratorów, redaktorów i zwykłych użytkowników, co jest zgodne z najlepszymi praktykami w zakresie zabezpieczeń. W kontekście RESTful API, odpowiednie zarządzanie uprawnieniami jest kluczowe dla ochrony danych i zapobiegania nieautoryzowanym dostępom. Zrozumienie błędu 403 Forbidden oraz sposobów zarządzania uprawnieniami użytkowników jest zatem niezbędne dla każdego, kto pracuje z aplikacjami webowymi i zabezpieczeniami sieciowymi.

Pytanie 5

Oprogramowanie, które jest dodatkiem do systemu Windows i ma na celu ochronę przed oprogramowaniem szpiegującym oraz innymi niechcianymi elementami, to

A. Windows Defender
B. Windows Azure
C. Windows Home Server
D. Windows Embedded
Windows Defender jest wbudowanym programem zabezpieczającym w systemie Windows, który odgrywa kluczową rolę w ochronie komputerów przed oprogramowaniem szpiegującym oraz innymi zagrożeniami, takimi jak wirusy czy trojany. Jego zadaniem jest monitorowanie systemu w czasie rzeczywistym oraz skanowanie plików i aplikacji w poszukiwaniu potencjalnych zagrożeń. Windows Defender stosuje zaawansowane mechanizmy heurystyczne, co oznacza, że może identyfikować nowe, wcześniej nieznane zagrożenia poprzez analizę ich zachowania. Przykładowo, jeśli program próbuje uzyskać dostęp do poufnych danych bez odpowiednich uprawnień, Defender może zablokować jego działanie. Warto również wspomnieć, że Windows Defender regularnie aktualizuje swoją bazę sygnatur, co pozwala na skuteczną obronę przed najnowszymi zagrożeniami. Standardy branżowe, takie jak NIST SP 800-53, zalecają stosowanie rozwiązań zabezpieczających, które zapewniają ciągłą ochronę i aktualizację, co dokładnie spełnia Windows Defender, czyniąc go odpowiednim narzędziem do zabezpieczenia systemów operacyjnych Windows.

Pytanie 6

Jakie oprogramowanie zabezpieczające przed nieautoryzowanym dostępem do sieci powinno być zainstalowane na serwerze, który udostępnia dostęp do internetu?

A. DNS
B. Active Directory
C. DHCP
D. FireWall
FireWall, czyli zapora sieciowa, jest kluczowym elementem bezpieczeństwa w sieciach komputerowych, pełniąc rolę filtra, który kontroluje ruch przychodzący i wychodzący na serwerze udostępniającym połączenie z internetem. Jego głównym zadaniem jest ochrona przed nieautoryzowanym dostępem oraz atakami z sieci, takimi jak DDoS czy próby włamań. Działanie Firewalla opiera się na regułach, które określają, jakie połączenia są dozwolone, a jakie zablokowane. Dzięki temu można skutecznie minimalizować ryzyko ataków. Przykładem zastosowania Firewalla może być konfiguracja reguł blokujących dostęp do portów, które nie są używane przez aplikacje działające na serwerze, co znacząco zwiększa jego bezpieczeństwo. W kontekście standardów branżowych, wiele organizacji stosuje najlepsze praktyki, takie jak regularne aktualizacje oprogramowania zapory oraz audyty bezpieczeństwa, aby zapewnić, że FireWall skutecznie chroni przed nowymi zagrożeniami.

Pytanie 7

Narzędzie używane do przechwytywania oraz analizy danych przesyłanych w sieci, to

A. keylogger
B. spywer
C. sniffer
D. viewer
Sniffer to narzędzie używane do przechwytywania i analizy ruchu w sieci komputerowej. Jego głównym zadaniem jest monitorowanie danych, które są przesyłane przez sieć, co pozwala na diagnozowanie problemów z komunikacją oraz analiza bezpieczeństwa. Sniffery są wykorzystywane zarówno w celach administracyjnych, jak i w badaniach i analizie ruchu sieciowego. Przykładowo, administratorzy sieci mogą wykorzystać sniffery do identyfikacji wąskich gardeł w komunikacji lub do wykrywania nieautoryzowanego dostępu do sieci. Popularnymi narzędziami tego typu są Wireshark oraz tcpdump. Zgodnie z najlepszymi praktykami branżowymi, sniffery powinny być używane odpowiedzialnie i zgodnie z politykami bezpieczeństwa organizacji, aby nie naruszać prywatności użytkowników ani regulacji prawnych dotyczących ochrony danych. Może to obejmować szyfrowanie danych przesyłanych przez sieć oraz stosowanie zasad dostępu do informacji.

Pytanie 8

Jaki protokół umożliwia nawiązywanie szyfrowanych połączeń terminalowych z zdalnym komputerem?

A. SSL
B. SSH
C. Telnet
D. SIP
SSH, czyli Secure Shell, to protokół komunikacyjny zaprojektowany w celu bezpiecznego łączenia się z zdalnymi komputerami. Oferuje szyfrowane połączenie, które chroni przesyłane dane przed podsłuchiwaniem, co jest kluczowe w kontekście bezpieczeństwa informacji. Protokół SSH jest szeroko stosowany do zarządzania serwerami, co pozwala administratorom na zdalne wykonywanie poleceń oraz transfer plików w sposób bezpieczny. Przykładem zastosowania może być administracja serwerami Linux, gdzie SSH jest standardem pozwalającym na zdalne logowanie i konfigurację systemu. Ponadto, SSH wspiera różne metody uwierzytelniania, w tym klucze publiczne, co zwiększa bezpieczeństwo w porównaniu do tradycyjnych metod, takich jak hasła. Warto również zwrócić uwagę, że SSH stanowi podstawowy element w najlepszych praktykach bezpieczeństwa, a jego użycie jest zalecane w każdym środowisku, które wymaga zdalnego dostępu do zasobów informatycznych.

Pytanie 9

Podczas realizacji projektu sieci komputerowej, pierwszym krokiem powinno być

A. opracowanie kosztorysu
B. przygotowanie dokumentacji powykonawczej
C. wybranie urządzeń sieciowych
D. przeprowadzenie analizy biznesowej
Przeprowadzenie analizy biznesowej jest kluczowym krokiem w procesie tworzenia projektu sieci komputerowej. To etap, w którym identyfikowane są wymagania organizacji, cele, oraz problematyka, którą sieć ma rozwiązać. W ramach analizy biznesowej należy zrozumieć, jakie usługi i aplikacje będą wykorzystywane w sieci, jakie są oczekiwania użytkowników oraz jakie są budżet i zasoby dostępne na realizację projektu. Przykładem może być firma, która planuje wprowadzenie rozwiązań zdalnego dostępu dla pracowników. W tym przypadku analiza biznesowa pomoże określić, jakie protokoły bezpieczeństwa będą potrzebne oraz jak dużą przepustowość i niezawodność musi zapewnić sieć. Dobre praktyki w branży, takie jak metodyka ITIL czy TOGAF, podkreślają znaczenie przemyślanej analizy na początku projektowania, co prowadzi do bardziej efektywnego i dostosowanego do potrzeb rozwiązania.

Pytanie 10

Do wykonania obrazu dysku twardego można użyć programu

A. Digital Image Recovery
B. Acronis True Image
C. HW Monitor
D. SpeedFan
Acronis True Image to jeden z najbardziej rozpoznawalnych programów do wykonywania obrazów dysku twardego, czyli tzw. klonowania lub backupu całego nośnika. Działa to tak, że program tworzy wierną kopię wszystkich danych zapisanych na dysku, łącznie z partycjami, systemem operacyjnym, sterownikami i wszystkimi ustawieniami. Dzięki temu można potem szybko przywrócić cały system do wcześniejszego stanu po awarii, ataku wirusa czy jakiejś innej katastrofie. Moim zdaniem, korzystanie z takich narzędzi to dziś niemal obowiązek, jeśli ktoś dba o bezpieczeństwo danych – szczególnie w firmach, ale i w domu, jak ktoś nie chce tracić zdjęć czy dokumentów. W praktyce Acronis True Image pozwala nie tylko robić obrazy lokalnie, ale też wysyłać je na chmurę, co dodatkowo chroni przed utratą danych w wyniku np. kradzieży lub pożaru. To software, który spełnia branżowe standardy zarządzania kopiami zapasowymi, a jego interfejs jest przyjazny nawet dla mniej zaawansowanych użytkowników. Takie rozwiązania są rekomendowane przez wielu specjalistów IT, bo po prostu działają i pomagają spać spokojnie – wiem to z autopsji, bo nie raz już odzyskiwałem cały system właśnie z backupu obrazu.

Pytanie 11

Jaką funkcjonalność oferuje program tar?

A. administrowanie pakietami
B. archiwizowanie plików
C. pokazywanie listy aktualnych procesów
D. ustawianie karty sieciowej
Program tar (tape archive) jest narzędziem, które umożliwia archiwizowanie plików, co oznacza, że potrafi łączyć wiele plików w jeden plik archiwum, często stosowany w celu łatwiejszego zarządzania danymi oraz ich przenoszenia. Jest to niezwykle przydatne w systemach Unix i Linux, gdzie użytkownicy często muszą wykonywać kopie zapasowe, przesyłać pliki przez sieć lub przechowywać dane w sposób zorganizowany. Narzędzie tar obsługuje różne formaty kompresji, co pozwala na zmniejszenie rozmiaru archiwum, a także na ich szybsze przesyłanie i przechowywanie. W praktyce, archiwizacja za pomocą tar jest standardową procedurą, stosowaną w wielu firmach do zabezpieczania danych krytycznych. Na przykład, archiwizacja kodu źródłowego projektu przed jego wdrożeniem pozwala na łatwe przywrócenie wcześniejszej wersji w razie potrzeby. Dodatkowo, tar wspiera operacje takie jak rozpakowywanie archiwów, co czyni go wszechstronnym narzędziem do zarządzania plikami. W branży IT, zarządzanie danymi i archiwizacja stanowią kluczowy element strategii w zakresie bezpieczeństwa danych oraz ciągłości biznesowej.

Pytanie 12

Po przeprowadzeniu eksportu klucza HKCR zostanie utworzona kopia rejestru, zawierająca dane dotyczące konfiguracji

A. powiązań między typami plików a aplikacjami
B. sprzętu komputera
C. pulpitu aktualnie zalogowanego użytkownika
D. kont użytkowników
Niepoprawne odpowiedzi sugerują różne aspekty, które nie są związane z rzeczywistą funkcją klucza HKCR w rejestrze systemu Windows. Przykładowo, konta użytkowników nie mają związku z tym kluczem, ponieważ HKCR koncentruje się na tym, jak system operacyjny interpretuje i zarządza różnymi typami plików, a nie na specyficznych ustawieniach użytkowników. Odnośnie sprzętu komputera, również nie ma to zastosowania w kontekście klucza HKCR, gdyż ten klucz nie przechowuje informacji o sprzęcie. Natomiast pulpity zalogowanych użytkowników to również temat niezwiązany z HKCR, ponieważ klucz ten nie dotyczy ustawień związanych z interfejsem użytkownika, a jedynie z powiązaniami plików. Wszystkie te nieporozumienia mogą wynikać z błędnego rozumienia roli rejestru systemowego w zarządzaniu konfiguracjami systemowymi i aplikacjami. Właściwe zrozumienie, że HKCR dotyczy kojarzenia typów plików z aplikacjami, to klucz do efektywnego wykorzystania wiedzy o rejestrze, co jest zgodne z najlepszymi praktykami w zakresie zarządzania systemami Windows.

Pytanie 13

W ramach zalecanych działań konserwacyjnych użytkownicy dysków SSD powinni unikać wykonywania

A. systematycznych kopii zapasowych danych
B. czyszczenia wnętrza jednostki centralnej z kurzu
C. defragmentacji dysku
D. systematycznego sprawdzania dysku programem antywirusowym
Defragmentacja dysku jest procesem, który ma na celu uporządkowanie fragmentów danych na tradycyjnych dyskach HDD, aby poprawić ich wydajność. Dyski SSD działają jednak na zupełnie innej zasadzie. W odróżnieniu od HDD, które wykorzystują ruchome części do odczytu i zapisu danych, SSD korzystają z pamięci flash, co oznacza, że dostęp do danych jest bardzo szybki, niezależnie od ich fizycznego rozmieszczenia na nośniku. Proces defragmentacji, który w przypadku HDD może przyspieszyć dostęp do danych, w przypadku SSD nie tylko nie przynosi korzyści, ale może również prowadzić do przedwczesnego zużycia komórek pamięci. Ponieważ SSD mają ograniczoną liczbę cykli zapisu i kasowania, narażanie ich na dodatkowe operacje zapisu, jakimi są działania defragmentacyjne, jest niewskazane. Zamiast tego, użytkownicy SSD powinni skupić się na regularnym aktualizowaniu oprogramowania systemowego oraz korzystaniu z technologii TRIM, które pozwala na lepsze zarządzanie przestrzenią pamięci. Dobre praktyki zarządzania dyskami SSD obejmują również monitorowanie ich stanu za pomocą odpowiednich narzędzi diagnostycznych, co pozwala na wczesne wykrycie potencjalnych problemów.

Pytanie 14

Jaki standard szyfrowania powinien być wybrany przy konfiguracji karty sieciowej, aby zabezpieczyć transmisję w sieci bezprzewodowej?

A. EAP
B. MAC
C. PPP
D. WPA
WPA (Wi-Fi Protected Access) to standard szyfrowania, który został opracowany w celu poprawy bezpieczeństwa sieci bezprzewodowych. Jest on następcą wcześniejszych protokołów, takich jak WEP, które okazały się nieefektywne w ochronie przed nieautoryzowanym dostępem. WPA wykorzystuje silniejsze algorytmy szyfrowania, w tym TKIP (Temporal Key Integrity Protocol), co znacząco zwiększa poziom bezpieczeństwa. W praktyce, zastosowanie WPA w konfiguracji karty sieciowej pozwala na szyfrowanie danych przesyłanych w sieci bezprzewodowej, co zminimalizuje ryzyko podsłuchiwania i ataków typu „man-in-the-middle”. Oprócz WPA, istnieje również WPA2 i WPA3, które oferują jeszcze większe bezpieczeństwo dzięki zastosowaniu AES (Advanced Encryption Standard) oraz bardziej zaawansowanym mechanizmom uwierzytelniania. Wybierając WPA, Administratorzy powinni również pamiętać o stosowaniu silnych haseł oraz regularnych aktualizacjach oprogramowania, aby zapewnić maksymalne bezpieczeństwo systemu.

Pytanie 15

Po dokonaniu eksportu klucza HKCU powstanie kopia rejestru zawierająca dane dotyczące ustawień

A. aktualnie zalogowanego użytkownika
B. wszystkich aktywnie załadowanych profili użytkowników systemu
C. sprzętu komputera dla wszystkich użytkowników systemu
D. procedur startujących system operacyjny
Odpowiedź wskazująca na aktualnie zalogowanego użytkownika jest prawidłowa, ponieważ klucz HKCU (HKEY_CURRENT_USER) w rejestrze Windows zawiera informacje specyficzne dla bieżącego profilu użytkownika. Wszelkie ustawienia, takie jak preferencje aplikacji, ustawienia personalizacji oraz inne konfiguracje, są przechowywane w tym kluczu. Eksportując klucz HKCU, użytkownik tworzy kopię tych danych, co pozwala na ich łatwe przywrócenie po reinstalacji systemu, migracji do innego komputera lub dokonaniu zmian w konfiguracji. Przykładem zastosowania może być przeniesienie ulubionych ustawień przeglądarki internetowej lub preferencji edytora tekstu na nowy komputer. Stosowanie eksportu rejestru zgodnie z dobrymi praktykami branżowymi, takimi jak tworzenie kopii zapasowych przed wprowadzeniem istotnych zmian, jest kluczowe dla uniknięcia utraty danych i minimalizowania ryzyka błędów systemowych. Ponadto, zrozumienie struktury rejestru Windows oraz jego logiki pozwala na lepsze zarządzanie konfiguracją systemu i aplikacji.

Pytanie 16

Część programu antywirusowego działająca w tle jako kluczowy element zabezpieczeń, mająca na celu nieustanne monitorowanie ochrony systemu komputerowego, to

A. firewall
B. skaner skryptów
C. monitor antywirusowy
D. moduł przeciwspywaczowy
Monitor antywirusowy to naprawdę ważny kawałek oprogramowania, który działa w tle i cały czas pilnuje naszego komputera. Jego zadanie to śledzenie, co się dzieje w systemie, a także wykrywanie zagrożeń w czasie rzeczywistym i blokowanie wirusów, zanim zdążą nam namieszać w plikach. Na przykład, jak ściągasz coś z netu, to monitor automatycznie skanuje ten plik, żeby sprawdzić, czy nie ma tam jakichś wirusów. To bardzo rozsądne podejście, bo w branży IT zaleca się, żeby mieć różne warstwy ochrony, a monitor to właśnie ta pierwsza linia obrony. W nowoczesnych systemach antywirusowych często używa się sztucznej inteligencji, co znacząco podnosi skuteczność ochrony. Szczególnie w firmach, gdzie bezpieczeństwo danych jest na pierwszym miejscu, taki monitor jest niezbędny.

Pytanie 17

W komputerze połączonym z Internetem, w oprogramowaniu antywirusowym aktualizację bazy wirusów powinno się przeprowadzać minimum

A. raz w tygodniu
B. raz w miesiącu
C. raz dziennie
D. raz do roku
Zarządzanie bezpieczeństwem systemów komputerowych wymaga świadomego podejścia do aktualizacji programów antywirusowych, a wybór interwałów aktualizacji jest kluczowy. Wybór aktualizacji bazy wirusów raz w miesiącu lub raz do roku stawia system w poważnym niebezpieczeństwie, ponieważ złośliwe oprogramowanie rozwija się w zastraszającym tempie. Nieaktualna baza wirusów może nie wykrywać nowych zagrożeń, co prowadzi do potencjalnych infekcji. Co więcej, w przypadku zaproponowanej odpowiedzi o aktualizacji raz w tygodniu, istnieje znaczne ryzyko, że wirusy lub złośliwe oprogramowanie, które pojawiły się w ciągu tygodnia, nie zostaną zidentyfikowane na czas. Takie podejście opiera się na błędnym przekonaniu, że zagrożenia są stabilne i nie zmieniają się dramatycznie w krótkim okresie, co nie jest zgodne z rzeczywistością. W praktyce, codzienna aktualizacja to najlepsza praktyka, którą zaleca wiele instytucji zajmujących się bezpieczeństwem IT, takich jak CERT. Ignorowanie tych wytycznych może prowadzić do poważnych konsekwencji, w tym utraty danych, kradzieży tożsamości oraz uszkodzenia reputacji firmy lub osoby. Dlatego kluczowe jest wdrożenie strategii, która zapewnia regularne, codzienne aktualizacje, aby zminimalizować ryzyko i skutecznie chronić system przed dynamicznie zmieniającym się krajobrazem zagrożeń.

Pytanie 18

Aby osiągnąć wysoką jakość połączeń głosowych VoIP kosztem innych przesyłanych informacji, konieczne jest włączenie i skonfigurowanie na routerze usługi

A. SSL
B. DMZ
C. QoS
D. NAT
QoS, czyli Quality of Service, to kluczowy mechanizm stosowany w zarządzaniu ruchem sieciowym, który ma na celu priorytetyzację pakietów danych w celu zapewnienia wysokiej jakości połączeń głosowych VoIP. Dzięki QoS możliwe jest nadanie wyższego priorytetu dla pakietów głosowych, co minimalizuje opóźnienia, zniekształcenia i utraty pakietów, które mogą negatywnie wpływać na jakość rozmowy. Przykładem zastosowania QoS jest konfiguracja routera, który może przydzielać określoną przepustowość dla połączeń VoIP, ograniczając jednocześnie zasoby dla mniej krytycznych aplikacji, takich jak pobieranie plików czy streamowanie wideo. W praktyce oznacza to, że podczas rozmowy telefonicznej VoIP, nawet jeśli w sieci występują skoki obciążenia, jakość połączenia pozostaje na wysokim poziomie. Warto również zaznaczyć, że stosowanie QoS jest zgodne z najlepszymi praktykami sieciowymi, które zalecają zarządzanie zasobami w taki sposób, aby utrzymać stabilność i jakość kluczowych usług, zwłaszcza w środowiskach, gdzie przesył danych jest intensywny.

Pytanie 19

Zidentyfikuj powód pojawienia się komunikatu, który widoczny jest na ilustracji.

Ilustracja do pytania
A. Brak zainstalowanego oprogramowania antywirusowego
B. Nieodpowiednia przeglądarka
C. Wyłączony Firewall
D. Problem z weryfikacją certyfikatu bezpieczeństwa
Komunikat o problemie z weryfikacją certyfikatu bezpieczeństwa pojawia się, gdy przeglądarka nie może potwierdzić ważności certyfikatu SSL serwera. SSL (Secure Sockets Layer) oraz jego następca TLS (Transport Layer Security) to protokoły zapewniające szyfrowane połączenie między serwerem a klientem. Certyfikaty SSL są wydawane przez zaufane urzędy certyfikacji (CA) i mają na celu potwierdzenie tożsamości serwera oraz zabezpieczenie przesyłanych danych. Praktyczne zastosowanie tego mechanizmu obejmuje bankowość internetową, sklepy online oraz inne witryny wymagające przesyłania danych osobowych. Jeśli certyfikat jest nieaktualny, niepochodzący od zaufanego CA lub jego konfiguracja jest niewłaściwa, przeglądarka wyświetla ostrzeżenie o niezabezpieczonym połączeniu. Standardy branżowe, takie jak PCI DSS, wymagają używania aktualnych i poprawnie skonfigurowanych certyfikatów SSL/TLS w celu ochrony danych użytkowników. Użytkownik, widząc taki komunikat, powinien zachować ostrożność, unikać przesyłania poufnych informacji i sprawdzić poprawność certyfikatu na stronie dostawcy usługi internetowej. Regularne aktualizowanie certyfikatów oraz stosowanie odpowiednich praktyk zarządzania nimi są kluczowe dla bezpieczeństwa online.

Pytanie 20

Tworzenie zaszyfrowanych połączeń pomiędzy hostami przez publiczną sieć Internet, wykorzystywane w rozwiązaniach VPN (Virtual Private Network), to

A. tunelowanie
B. mostkowanie
C. mapowanie
D. trasowanie
Tunelowanie to technika stosowana w architekturze sieciowej do tworzenia zaszyfrowanych połączeń między hostami przez publiczny internet. W kontekście VPN, umożliwia zdalnym użytkownikom bezpieczny dostęp do zasobów sieciowych tak, jakby znajdowali się w lokalnej sieci. Tunelowanie działa poprzez encapsulację danych w protokole, który jest następnie przesyłany przez sieć. Przykładowo, protokół PPTP (Point-to-Point Tunneling Protocol) oraz L2TP (Layer 2 Tunneling Protocol) są powszechnie używane w tunelowaniu. Warto zauważyć, że tunelowanie nie tylko zapewnia bezpieczeństwo, ale także umożliwia zarządzanie ruchem sieciowym, co jest kluczowe w kontekście zabezpieczania komunikacji między różnymi lokalizacjami. Dobrą praktyką w korzystaniu z tunelowania jest stosowanie silnych algorytmów szyfrowania, takich jak AES (Advanced Encryption Standard), aby zapewnić poufność i integralność przesyłanych danych. W związku z rosnącymi zagrożeniami w sieci, znajomość i umiejętność implementacji tunelowania staje się niezbędna dla specjalistów IT.

Pytanie 21

Którego wbudowanego narzędzia w systemie Windows 8 Pro można użyć do szyfrowania danych?

A. WinLocker
B. OneLocker
C. BitLocker
D. AppLocker
BitLocker to wbudowane narzędzie w systemie Windows 8 Pro, które umożliwia szyfrowanie danych na dyskach twardych, co znacząco zwiększa bezpieczeństwo przechowywanych informacji. BitLocker używa algorytmów szyfrowania opartych na standardzie AES, co zapewnia wysoki poziom ochrony przed nieautoryzowanym dostępem. Funkcjonalność ta jest szczególnie przydatna w środowisku biznesowym, gdzie dostęp do wrażliwych danych musi być ściśle kontrolowany. Przykładowo, jeśli pracownik straci laptopa, dane zaszyfrowane za pomocą BitLockera pozostaną niedostępne dla osób trzecich. Dodatkowo BitLocker jest zgodny z najlepszymi praktykami zarządzania bezpieczeństwem informacji, takimi jak standardy ISO/IEC 27001, które podkreślają znaczenie ochrony danych w organizacjach. Warto również zwrócić uwagę na to, że BitLocker może być używany w połączeniu z TPM (Trusted Platform Module), co zwiększa bezpieczeństwo kluczy szyfrujących oraz zapewnia dodatkowe zabezpieczenia podczas rozruchu systemu.

Pytanie 22

Programy antywirusowe mogą efektywnie zabezpieczać komputer. Istotne jest, aby wybrać możliwość uruchamiania aplikacji razem z komputerem oraz opcję

A. automatycznego usuwania zainfekowanych plików
B. automatycznego odłączenia od sieci w razie wykrycia infekcji
C. monitorowania w czasie rzeczywistym (skanowania w tle)
D. skanowania ostatnio uruchamianych aplikacji
Monitorowanie w czasie rzeczywistym, zwane również skanowaniem w tle, jest kluczowym elementem nowoczesnych rozwiązań antywirusowych. Dzięki tej funkcji program antywirusowy może nieprzerwanie analizować aktywność systemu operacyjnego oraz uruchamiane aplikacje, wykrywając potencjalne zagrożenia w momencie ich pojawienia się. Działa to na zasadzie ciągłego skanowania plików i procesów, co pozwala na natychmiastową reakcję na złośliwe oprogramowanie. Przykładowo, gdy użytkownik pobiera plik z internetu, program antywirusowy sprawdza jego zawartość w czasie rzeczywistym, co minimalizuje ryzyko infekcji przed pełnym uruchomieniem pliku. Standardy branżowe, takie jak te określone przez AV-TEST oraz AV-Comparatives, podkreślają znaczenie tej funkcji, zalecając, aby oprogramowanie antywirusowe oferowało ciągłą ochronę jako podstawową cechę. Również dobre praktyki zarządzania bezpieczeństwem IT zakładają, że monitorowanie w czasie rzeczywistym powinno być standardem w każdej organizacji, aby zapewnić odpowiedni poziom ochrony przed różnorodnymi zagrożeniami z sieci.

Pytanie 23

Użytkownicy dysków SSD powinni unikać wykonywania następujących działań konserwacyjnych

A. Regularnego sprawdzania dysku przy użyciu programu antywirusowego
B. Usuwania kurzu z wnętrza jednostki centralnej
C. Defragmentacji dysku
D. Regularnego tworzenia kopii zapasowych danych
Defragmentacja dysku jest procesem, który polega na reorganizacji danych na nośniku, aby zwiększyć wydajność dostępu do plików. Jednak w przypadku dysków SSD (Solid State Drive) jest to zbędne i wręcz szkodliwe. Dyski SSD działają na zasadzie pamięci flash, gdzie dane są przechowywane w komórkach pamięci. Ich architektura eliminuje problem fragmentacji, ponieważ odczyt i zapis danych nie zależy od fizycznej lokalizacji plików na nośniku. Dodatkowo, proces defragmentacji generuje zbędne cykle zapisu, co skraca żywotność dysków SSD. Zaleca się zamiast tego wykorzystywanie technologii TRIM, która optymalizuje zarządzanie przestrzenią na dysku. Na przykład, użytkownicy mogą ustawić automatyczne aktualizacje oprogramowania systemowego, które obsługują TRIM, co pozwala na optymalizację wydajności SSD bez konieczności ręcznej defragmentacji. W branży IT uznaje się, że najlepszym podejściem do konserwacji SSD jest unikanie defragmentacji, co jest zgodne z zaleceniami producentów tych nośników.

Pytanie 24

Który z podanych adresów należy do kategorii publicznych?

A. 11.0.0.1
B. 172.31.0.1
C. 192.168.255.1
D. 10.0.0.1
Adresy jak 10.0.0.1, 172.31.0.1 i 192.168.255.1 to przykłady adresów prywatnych. Zdefiniowane w standardzie RFC 1918, używa się ich głównie w lokalnych sieciach i nie są dostępne w Internecie. Na przykład 10.0.0.1 to część bloku 10.0.0.0/8, który jest sporym zasięgiem adresów wykorzystywanym często w różnych firmach. Z kolei 172.31.0.1 należy do zakresu 172.16.0.0/12 i też jest przeznaczony do użycia wewnętrznego. Natomiast adres 192.168.255.1 to część bardzo popularnego zakresu 192.168.0.0/16, który znajdziemy w domowych routerach. Wiele osób myli te adresy z publicznymi, bo wyglądają jak każdy inny adres IP. Typowe jest myślenie, że jak adres wygląda jak IP, to można go używać w Internecie. Tylko, żeby to działało, potrzebna jest technika NAT, która tłumaczy te prywatne adresy na publiczny adres, co umożliwia im komunikację z Internetem. Warto też pamiętać, że używanie adresów prywatnych jest ważne dla efektywnego zarządzania przestrzenią adresową IP, co staje się coraz bardziej kluczowe w dzisiejszych czasach, biorąc pod uwagę rosnącą liczbę urządzeń w sieci.

Pytanie 25

Czym jest kopia różnicowa?

A. polega na kopiowaniu jedynie tej części plików, która została dodana od czasu utworzenia ostatniej kopii pełnej
B. polega na kopiowaniu jedynie plików, które zostały stworzone od momentu ostatniej kopii pełnej
C. polega na kopiowaniu jedynie plików, które zostały stworzone lub zmienione od momentu utworzenia ostatniej kopii pełnej
D. polega na kopiowaniu jedynie plików, które zostały zmodyfikowane od chwili utworzenia ostatniej kopii pełnej
Kopia różnicowa to technika backupu, która polega na kopiowaniu wyłącznie tych plików, które zostały utworzone lub zmienione od momentu ostatniej pełnej kopii zapasowej. To podejście jest korzystne, ponieważ znacznie zmniejsza czas potrzebny na wykonanie kopii oraz ilość zajmowanego miejsca na nośniku. Przykładem zastosowania kopii różnicowej jest sytuacja, w której użytkownik wykonuje pełną kopię zapasową w każdy poniedziałek, a następnie różnicowe kopie w pozostałe dni. Dzięki temu, w przypadku awarii systemu, wystarczy przywrócić pełną kopię z poniedziałku oraz najnowszą różnicową, co jest szybszym i bardziej efektywnym procesem niż przywracanie wielu pełnych kopii. Warto zauważyć, że standardy branżowe, takie jak ITIL czy COBIT, podkreślają znaczenie regularnych kopii zapasowych i ich różnorodności w kontekście zarządzania ryzykiem i bezpieczeństwem danych.

Pytanie 26

Jakie zabezpieczenie w dokumentacji technicznej określa mechanizm zasilacza komputerowego zapobiegający przegrzaniu urządzenia?

A. SCP
B. OPP
C. OTP
D. UVP
OTP, czyli Over Temperature Protection, to taki system, który chroni zasilacz w komputerze przed przegrzaniem. Kiedy temperatura w zasilaczu za mocno rośnie, to ten mechanizm automatycznie wyłącza zasilanie. Dzięki temu sprzęt nie ulega uszkodzeniom, a użytkowanie go staje się bezpieczniejsze. To jest naprawdę ważne, bo zasilacze pracują w różnych warunkach, a ich wydajność może być mocno ograniczona przez wysoką temperaturę. Weźmy na przykład sytuację, gdy intensywnie gramy w gry 3D albo renderujemy grafikę - wtedy zasilacz generuje sporo ciepła. To właśnie dlatego takie zabezpieczenia jak OTP są tak istotne, zwłaszcza że branża ma swoje normy, które sugerują, że trzeba je stosować, żeby sprzęt był niezawodny na dłużej. Dobrym przykładem są zasilacze 80 PLUS, które muszą mieć wysoką efektywność energetyczną i różne dodatkowe zabezpieczenia, w tym OTP, co wpływa na ich solidność i stabilną pracę.

Pytanie 27

Trzech użytkowników komputera z systemem operacyjnym Windows XP Pro posiada swoje foldery z dokumentami w głównym katalogu dysku C:. Na dysku znajduje się system plików NTFS. Użytkownicy mają utworzone konta z ograniczonymi uprawnieniami. Jak można zabezpieczyć folder każdego z użytkowników, aby inni nie mieli możliwości modyfikacji jego zawartości?

A. Przydzielić uprawnienia NTFS do edytowania folderu jedynie odpowiedniemu użytkownikowi
B. Ustawić dla dokumentów atrybut Ukryty w ustawieniach folderów
C. Zmierzyć każdemu z użytkowników typ konta na konto z ograniczeniami
D. Nie udostępniać dokumentów w sekcji Udostępnianie w ustawieniach folderu
Przypisanie odpowiednich uprawnień NTFS do folderów użytkowników jest kluczowym krokiem w zabezpieczaniu danych w systemie Windows XP. NTFS, jako nowoczesny system plików, oferuje zaawansowane możliwości zarządzania uprawnieniami, które pozwalają kontrolować, kto może modyfikować, odczytywać lub wykonywać pliki i foldery. W przypadku, gdy każdy z trzech użytkowników ma swój własny folder z dokumentami, należy skonfigurować uprawnienia tak, aby tylko dany użytkownik miał możliwość ich edytowania. Przykładowo, jeśli użytkownik A ma folder 'Dokumenty użytkownika A', to tylko on powinien mieć przyznane uprawnienia do zapisu, natomiast użytkownicy B i C powinni mieć te uprawnienia odrzucone. Dzięki temu, nawet jeśli inni użytkownicy mają dostęp do systemu, nie będą w stanie zmieniać zawartości folderów innych osób. Tego rodzaju praktyka jest zgodna z zasadą minimalnych uprawnień, która jest jedną z podstawowych zasad bezpieczeństwa IT, pomagając w ochronie danych przed nieautoryzowanym dostępem i modyfikacjami.

Pytanie 28

Użytkownik chce zabezpieczyć mechanicznie dane na karcie pamięci przed przypadkowym skasowaniem. Takie zabezpieczenie umożliwia karta

A. SD
B. CF
C. MS
D. MMC
W kwestii zabezpieczania danych przed przypadkowym skasowaniem bardzo łatwo dać się zmylić różnym oznaczeniom i podobieństwom między kartami pamięci. Wbrew pozorom, nie każda popularna karta posiada fizyczne zabezpieczenie w postaci przełącznika write-protect. Karty CF (CompactFlash) to starszy, nadal ceniony standard, szczególnie w profesjonalnych aparatach, ale tam nigdy nie stosowano mechanicznych blokad zapisu – użytkownik polega wyłącznie na zabezpieczeniach na poziomie systemu plików albo sprzętu hosta. Memory Stick (MS), czyli autorski format Sony, również nie doczekał się w swoich wersjach typowego, fizycznego przełącznika blokady zapisu – mimo że niektóre wersje miały programowe tryby ochrony, to nie jest to rozwiązanie mechaniczne. Znowu MMC (MultiMediaCard) wyglądem i konstrukcją przypomina SD, ale w ogóle nie przewidziano tam podobnego zabezpieczenia. Często spotykanym błędem jest utożsamianie wszystkich prostokątnych kart z SD i zakładanie, że każda z nich daje taką ochronę – to skrót myślowy, który prowadzi do nietrafionych decyzji, szczególnie gdy zależy nam na bezpieczeństwie danych w praktyce. Rynek kart pamięci jest naprawdę zróżnicowany, ale tylko SD ma fizyczny przełącznik write-protect, który umożliwia szybkie i łatwe zabezpieczenie przed skasowaniem – moim zdaniem to bardzo wygodne rozwiązanie i dlatego ten standard dominuje w aparatach czy rejestratorach. Warto pamiętać, że nawet jeśli karta wygląda znajomo, nie warto zakładać, że mechaniczne zabezpieczenia są dostępne wszędzie – to typowa pułapka, w którą wpada wielu początkujących użytkowników sprzętu elektronicznego. Dobrą praktyką jest zawsze sprawdzanie, czy karta rzeczywiście ma taką opcję, zanim zaczniemy na niej przechowywać ważne materiały.

Pytanie 29

Połączenia typu point-to-point, realizowane za pośrednictwem publicznej infrastruktury telekomunikacyjnej, oznacza się skrótem

A. VPN
B. PAN
C. VLAN
D. WLAN
VPN, czyli Virtual Private Network, to technologia, która umożliwia tworzenie bezpiecznych połączeń punkt-punkt przez publiczną infrastrukturę telekomunikacyjną. Dzięki użyciu protokołów szyfrujących, takich jak IPSec czy SSL, VPN zapewnia poufność i integralność przesyłanych danych, co czyni go idealnym rozwiązaniem dla firm, które chcą zdalnie łączyć swoich pracowników z siecią lokalną. Przykładem zastosowania VPN może być umożliwienie pracownikom pracy zdalnej z bezpiecznym dostępem do wewnętrznych zasobów firmy, takich jak serwery plików czy aplikacje. Standardy VPN, takie jak L2TP (Layer 2 Tunneling Protocol) czy OpenVPN, są szeroko stosowane w branży, co potwierdza ich niezawodność i bezpieczeństwo. W praktyce, wdrożenie VPN przyczynia się do zwiększenia mobilności pracowników, a także pozwala na ochronę wrażliwych informacji podczas korzystania z publicznych sieci Wi-Fi. Współczesne firmy coraz częściej sięgają po te rozwiązania, aby zwiększyć bezpieczeństwo danych oraz umożliwić płynny dostęp do zasobów bez względu na lokalizację użytkownika.

Pytanie 30

Główny księgowy powinien mieć możliwość przywracania zawartości folderów z kopii zapasowej plików. Do jakiej grupy użytkowników w systemie MS Windows XP powinien zostać przypisany?

A. Użytkownicy zdalnego dostępu
B. Użytkownicy z restrykcjami
C. Operatorzy ustawień sieciowych
D. Operatorzy kopii zapasowych
Operatorzy kopii zapasowych to grupa użytkowników w systemie Windows XP, która ma uprawnienia do wykonywania operacji związanych z tworzeniem i przywracaniem kopii zapasowych. Główny księgowy, jako kluczowy pracownik w każdej organizacji, potrzebuje dostępu do mechanizmów zabezpieczających dane finansowe, co obejmuje możliwość odzyskiwania plików z kopii zapasowej. Przykładowo, w przypadku utraty danych spowodowanej awarią systemu lub błędami ludzkimi, dostęp do kopii zapasowych pozwala na szybkie przywrócenie pracy bez większych strat. Dobre praktyki zarządzania danymi w organizacjach podkreślają rolę regularnych kopii zapasowych oraz odpowiednich uprawnień dla użytkowników, co jest zgodne z zasadą minimalnych uprawnień. Operatorzy kopii zapasowych mogą również przeprowadzać audyty kopii zapasowych, co dodatkowo zwiększa bezpieczeństwo danych.

Pytanie 31

Aby zorganizować pliki na dysku w celu poprawy wydajności systemu, należy:

A. usunąć pliki tymczasowe
B. przeskanować dysk programem antywirusowym
C. wykonać defragmentację
D. odinstalować programy, które nie są używane
Defragmentacja dysku to proces optymalizacji zapisu danych na nośniku magnetycznym. W systemach operacyjnych, które wykorzystują tradycyjne dyski twarde (HDD), pliki są często rozproszone po powierzchni dysku. Gdy plik jest zapisany, może zająć więcej niż jedną lokalizację, co prowadzi do fragmentacji. Defragmentacja reorganizuje te fragmenty, tak aby pliki były zapisane w pojedynczych, sąsiadujących ze sobą lokalizacjach. Dzięki temu głowica dysku twardego ma mniejszą odległość do przebycia, co przyspiesza ich odczyt i zapis. Przykładem zastosowania defragmentacji może być regularne jej przeprowadzanie co kilka miesięcy w przypadku intensywnego użytkowania komputera, co znacznie poprawia wydajność systemu. Warto również wspomnieć, że w przypadku dysków SSD (Solid State Drive) defragmentacja jest niezalecana, ponieważ nie działają one na zasadzie mechanicznego ruchu głowicy. W takich przypadkach zamiast defragmentacji stosuje się inne metody, takie jak TRIM, aby utrzymać wydajność dysku. Dobre praktyki branżowe sugerują, aby defragmentację przeprowadzać na systemach plików NTFS, które są bardziej podatne na fragmentację.

Pytanie 32

Jaki protokół wykorzystuje usługa VPN do hermetyzacji pakietów IP w publicznej sieci?

A. HTTP
B. PPTP
C. SMTP
D. SNMP
PPTP, czyli Point-to-Point Tunneling Protocol, jest jednym z najstarszych protokołów używanych w usługach VPN. Jego głównym zadaniem jest tworzenie zabezpieczonych tuneli dla pakietów IP, co jest kluczowe w kontekście przesyłania danych przez publiczne sieci, takie jak Internet. Protokół ten wykorzystuje mechanizmy enkrypcji, aby chronić dane przed nieautoryzowanym dostępem, co czyni go szczególnie przydatnym w środowiskach, gdzie bezpieczeństwo informacji jest priorytetem. Przykładowo, wiele organizacji korzysta z PPTP do zdalnego dostępu do swoich sieci wewnętrznych, co pozwala pracownikom na bezpieczne łączenie się z firmowymi zasobami z dowolnego miejsca na świecie. Warto również zauważyć, że PPTP jest zgodny z wieloma systemami operacyjnymi, co ułatwia jego implementację i integrację z istniejącymi infrastrukturami. Mimo że dziś istnieją nowsze i bardziej zaawansowane protokoły, takie jak L2TP czy OpenVPN, PPTP nadal jest popularnym wyborem dla prostych zastosowań związanych z VPN, głównie ze względu na swoją łatwość konfiguracji i użycia.

Pytanie 33

Analizując ruch w sieci, zauważono, że na adres serwera kierowano tysiące zapytań DNS na sekundę z różnych adresów IP, co doprowadziło do zawieszenia systemu operacyjnego. Przyczyną tego zjawiska był atak typu

A. Mail Bombing
B. DNS snooping
C. Flooding
D. DDoS (Distributed Denial of Service)
Wybór innych odpowiedzi nie oddaje złożoności sytuacji i nie uwzględnia charakterystyki ataków sieciowych. DNS snooping to technika polegająca na zbieraniu informacji o nazwach domen poprzez analizowanie zapytań DNS, co nie ma związku z przeciążeniem serwera. Ta metoda jest bardziej związana z bezpieczeństwem informacji, a nie bezpośrednim atakiem mającym na celu zablokowanie usługi. Mail Bombing odnosi się do wysyłania dużej liczby e-maili do danego odbiorcy, co jest innym rodzajem ataku i nie ma wpływu na serwery DNS. Flooding, jako termin, może być używany w kontekście różnych ataków, jednak w kontekście DDoS jest zbyt ogólny, aby właściwie zdefiniować rozpoznany problem. Zrozumienie tych różnic jest kluczowe dla skutecznego zabezpieczenia infrastruktury IT. Typowe błędy myślowe mogą wynikać z pomylenia różnych technik ataku oraz ich skutków. Właściwe rozpoznanie i klasyfikacja ataków jest fundamentalne dla wdrażania skutecznych strategii obronnych. Bez znajomości specyfiki DDoS, zapobieganie takim atakom staje się znacznie trudniejsze, dlatego kluczowe jest ciągłe kształcenie się w zakresie aktualnych zagrożeń i najlepszych praktyk w dziedzinie cyberbezpieczeństwa.

Pytanie 34

Jeżeli użytkownik zaznaczy opcję wskazaną za pomocą strzałki, będzie miał możliwość instalacji aktualizacji

Ilustracja do pytania
A. dotyczące krytycznych luk w zabezpieczeniach
B. eliminujące krytyczną usterkę, niezwiązaną z bezpieczeństwem
C. prowadzące do uaktualnienia Windows 8.1 do wersji Windows 10
D. związane ze sterownikami lub nowym oprogramowaniem od Microsoftu
Opcjonalne aktualizacje wskazane strzałką w Windows Update mogą obejmować sterowniki oraz nowe oprogramowanie firmy Microsoft. Takie aktualizacje są często mniej krytyczne z punktu widzenia bezpieczeństwa systemu, ale mogą znacząco poprawić funkcjonalność i wydajność komputera. Przykładowo instalacja nowych sterowników może zwiększyć kompatybilność sprzętową, a także rozwiązać problemy z działaniem urządzeń peryferyjnych. Ponadto, opcjonalne aktualizacje mogą zawierać nowe wersje oprogramowania Microsoft, takie jak aplikacje biurowe czy narzędzia systemowe, które wprowadzają dodatkowe funkcje, poprawki błędów lub usprawnienia w interfejsie użytkownika. W praktyce, regularne korzystanie z tych aktualizacji jest zgodne z dobrymi praktykami zarządzania systemem IT, ponieważ pomaga utrzymać system w pełnej funkcjonalności i zgodności z najnowszymi standardami technologicznymi. Warto pamiętać, że opcjonalne aktualizacje, mimo iż nie są krytyczne, mogą znacząco wpłynąć na doświadczenie użytkownika oraz stabilność działania aplikacji, co ma szczególne znaczenie w środowisku komercyjnym, gdzie każdy element infrastruktury IT powinien funkcjonować optymalnie.

Pytanie 35

W systemie Windows 7 narzędzie linii poleceń Cipher.exe jest wykorzystywane do

A. zarządzania uruchamianiem systemu
B. wyświetlania plików tekstowych
C. szyfrowania i odszyfrowywania plików i katalogów
D. przełączania monitora w stan uśpienia
Narzędzie Cipher.exe w systemie Windows 7 jest dedykowane do szyfrowania oraz odszyfrowywania plików i katalogów, co jest kluczowe dla zapewnienia bezpieczeństwa danych. Użytkownicy mogą wykorzystać to narzędzie do ochrony poufnych informacji, takich jak dokumenty finansowe lub dane osobowe, poprzez szyfrowanie ich w systemie plików NTFS. Przykładowo, używając polecenia 'cipher /e C:\folder', użytkownik może zaszyfrować wszystkie pliki w określonym folderze, co uniemożliwia dostęp do nich osobom nieuprawnionym. Cipher wspiera także zarządzanie kluczami szyfrowania i pozwala na łatwe odszyfrowanie plików za pomocą polecenia 'cipher /d C:\folder'. W kontekście dobrych praktyk branżowych, szyfrowanie danych to standard w ochronie informacji, spełniający wymagania regulacji dotyczących ochrony danych, takich jak RODO. Dodatkowo, znajomość narzędzi takich jak Cipher jest niezbędna dla administratorów systemów w celu zabezpieczenia infrastruktury IT.

Pytanie 36

Wskaż usługę, którą należy skonfigurować na serwerze aby blokować ruch sieciowy?

A. Zapora sieciowa.
B. Zarządca SMNP.
C. DNS
D. IIS
Prawidłowo – aby blokować ruch sieciowy na serwerze, konfigurujemy zaporę sieciową (firewall). To właśnie firewall decyduje, które pakiety sieciowe są przepuszczane, a które odrzucane, na podstawie zdefiniowanych reguł. Można filtrować ruch po adresach IP, portach, protokołach (TCP/UDP/ICMP), kierunku (ruch przychodzący/wychodzący), a nawet po aplikacjach. W praktyce administracji serwerami to jedno z absolutnie podstawowych narzędzi bezpieczeństwa. W systemach Windows rolę tę pełni „Zapora systemu Windows z zabezpieczeniami zaawansowanymi” albo firewall wbudowany w rozwiązania typu Windows Server, często zarządzany przez zasady grup (GPO). W Linuksie najczęściej używa się iptables, nftables, firewalld czy ufw. Niezależnie od konkretnego narzędzia, idea zawsze jest ta sama: domyślnie zamykamy wszystko, a otwieramy tylko to, co jest naprawdę potrzebne (np. port 80/443 dla serwera WWW, 22 dla SSH, 3389 dla RDP). To jest taka podstawowa dobra praktyka – zasada najmniejszych uprawnień, ale w kontekście ruchu sieciowego. W środowiskach produkcyjnych zapora sieciowa bywa warstwowa: mamy firewalle sprzętowe na brzegu sieci (np. w routerach, UTM-ach) oraz lokalne zapory programowe na każdym serwerze. Moim zdaniem sensownie skonfigurowany firewall to jedna z najskuteczniejszych i najtańszych form ochrony – chroni przed skanowaniem portów, prostymi atakami z zewnątrz, ogranicza skutki przejęcia jednego hosta, bo nie pozwala mu swobodnie gadać z całą resztą sieci. Standardy bezpieczeństwa, takie jak dobre praktyki CIS Benchmarks czy wytyczne OWASP, wyraźnie wskazują na konieczność stosowania filtracji ruchu sieciowego i separacji usług właśnie poprzez zapory. W codziennej pracy administratora konfiguracja firewall’a to chleb powszedni przy wystawianiu nowych serwerów do sieci lokalnej lub Internetu.

Pytanie 37

Aby system operacyjny był skutecznie chroniony przed atakami złośliwego oprogramowania, po zainstalowaniu programu antywirusowego należy

A. nie podawać swojego hasła dostępowego oraz wykonywać defragmentację dysków twardych.
B. zainstalować drugi program antywirusowy, aby poprawić bezpieczeństwo.
C. wykupić licencję na oprogramowanie antywirusowe i używać programu chkdsk.
D. aktualizować program i bazy wirusów oraz regularnie skanować system.
Prawidłowa odpowiedź odnosi się do jednego z najważniejszych aspektów skutecznej ochrony systemu operacyjnego przed złośliwym oprogramowaniem, czyli do regularnego aktualizowania programu antywirusowego oraz jego bazy sygnatur wirusów i systematycznego skanowania komputera. Z mojego doświadczenia wynika, że nawet najlepszy antywirus bez świeżych definicji zagrożeń bardzo szybko staje się praktycznie bezużyteczny – cyberprzestępcy nieustannie opracowują nowe wirusy i exploity, a aktualizacje pozwalają programowi wykrywać te najnowsze. Regularne skanowanie systemu to z kolei praktyczny sposób na znajdowanie zagrożeń, które mogły się przedostać mimo zabezpieczeń. To nie jest tylko teoria; w prawdziwym życiu, w firmach i domach, samo zainstalowanie antywirusa to tak naprawdę dopiero początek – ważna jest konsekwencja i wyrobienie sobie nawyku aktualizacji. Takie podejście jest zgodne z zaleceniami większości producentów oprogramowania zabezpieczającego oraz normami bezpieczeństwa informacji, na przykład ISO/IEC 27001. Warto też wspomnieć, że niektóre wirusy potrafią się ukrywać i działać w tle przez długi czas, dlatego regularne skanowanie naprawdę ma sens nawet wtedy, gdy na pierwszy rzut oka wszystko działa poprawnie. Branżowe dobre praktyki wyraźnie podkreślają, że aktualizacje i skanowanie to fundament, bez którego inne działania mogą być po prostu nieskuteczne. Szczerze mówiąc, trochę się dziwię, że niektórzy to ignorują – to podstawy higieny cyfrowej, tak samo ważne jak mycie rąk w ochronie zdrowia!

Pytanie 38

Główną metodą ochrony sieci komputerowej przed zagrożeniem z zewnątrz jest zastosowanie

A. blokady portu 80
B. serwera Proxy
C. programu antywirusowego
D. zapory sieciowej
Zapora sieciowa, znana również jako firewall, jest kluczowym elementem ochrony sieci komputerowych przed atakami z zewnątrz. Działa jako filtr, który kontroluje ruch przychodzący i wychodzący w sieci, na podstawie ustalonych reguł bezpieczeństwa. Dzięki zaporze sieciowej można blokować nieautoryzowane połączenia oraz monitorować i rejestrować aktywność sieciową. Przykładem zastosowania zapory jest skonfigurowanie jej tak, aby restrykcyjnie zezwalała na ruch tylko z określonych adresów IP, co znacząco zwiększa bezpieczeństwo. W praktyce, wiele organizacji korzysta z zapór sprzętowych, które są zainstalowane pomiędzy siecią lokalną a Internetem, a także zapór programowych, które mogą być zainstalowane na serwerach i komputerach osobistych. Warto pamiętać, że skuteczna zapora powinna być regularnie aktualizowana i skonfigurowana zgodnie z najlepszymi praktykami branżowymi, takimi jak standardy opublikowane przez organizacje takie jak NIST (National Institute of Standards and Technology).

Pytanie 39

Atak typu hijacking na serwer internetowy charakteryzuje się

A. zbieraniem danych na temat atakowanej sieci oraz poszukiwaniem jej słabości
B. przeciążeniem aplikacji, która udostępnia konkretne dane
C. łamaniem zabezpieczeń, które chronią przed nieautoryzowanym dostępem do programów
D. przejęciem kontroli nad połączeniem pomiędzy komputerami, które się komunikują
Atak typu hijacking na serwer sieciowy polega na przejęciu kontroli nad połączeniem między komunikującymi się komputerami. Tego rodzaju ataki mogą wykorzystywać różne metody, takie jak ataki typu Man-in-the-Middle, w których atakujący wstawia się między dwie strony komunikujące się, uzyskując dostęp do przesyłanych danych i mogąc je modyfikować. Przykładem tego rodzaju ataku może być przechwycenie sesji HTTPS, co pozwala na kradzież danych uwierzytelniających, takich jak hasła czy numery kart kredytowych. Ważne jest, aby stosować odpowiednie środki zabezpieczające, takie jak szyfrowanie komunikacji (np. TLS), autoryzację dwuetapową oraz regularne audyty bezpieczeństwa, aby minimalizować ryzyko takich incydentów. Przemysł IT zaleca także stosowanie certyfikatów SSL/TLS oraz unikanie korzystania z publicznych sieci Wi-Fi do przesyłania wrażliwych danych, co jest zgodne z najlepszymi praktykami w zakresie cyberbezpieczeństwa.

Pytanie 40

Które z poniższych zdań charakteryzuje protokół SSH (Secure Shell)?

A. Sesje SSH nie umożliwiają weryfikacji autentyczności punktów końcowych
B. Sesje SSH prowadzą do przesyłania danych w formie zwykłego tekstu, bez szyfrowania
C. Protokół do pracy zdalnej na odległym komputerze nie zapewnia szyfrowania transmisji
D. Bezpieczny protokół terminalu sieciowego oferujący usługi szyfrowania połączenia
Protokół SSH (Secure Shell) jest bezpiecznym protokołem terminalu sieciowego, który umożliwia zdalne logowanie się i zarządzanie systemami w sposób zaszyfrowany. W przeciwieństwie do wielu innych protokołów, które przesyłają dane w formie niezaszyfrowanej, SSH zapewnia integralność danych oraz poufność poprzez zastosowanie silnego szyfrowania. Przykładowo, SSH wykorzystuje algorytmy szyfrujące takie jak AES (Advanced Encryption Standard) do ochrony przesyłanych informacji, co czyni go kluczowym narzędziem w administracji systemami. Organizacje korzystają z SSH do zdalnego zarządzania serwerami, co minimalizuje ryzyko przechwycenia danych przez osoby trzecie. Dodatkowo, SSH obsługuje uwierzytelnianie kluczem publicznym, co zwiększa bezpieczeństwo połączenia eliminując ryzyko ataków typu „man-in-the-middle”. Dobrą praktyką jest również korzystanie z SSH w konfiguracji, która wymusza użycie kluczy zamiast haseł, co znacząco zwiększa poziom bezpieczeństwa. Doświadczeni administratorzy systemów powinni być zaznajomieni z konfiguracją SSH, aby maksymalnie wykorzystać jego możliwości i zabezpieczyć swoje środowisko.