Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 6 maja 2026 11:51
  • Data zakończenia: 6 maja 2026 11:58

Egzamin zdany!

Wynik: 20/40 punktów (50,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Na pliku z uprawnieniami zapisanymi w systemie liczbowym: 740 przeprowadzono polecenie chmod g-r. Jakie będą nowe uprawnienia pliku?

A. 700
B. 710
C. 750
D. 720
Odpowiedzi 750, 720 i 710 są nieprawidłowe z powodu błędnej interpretacji uprawnień po wykonaniu polecenia chmod g-r. Odpowiedź 750 sugeruje, że grupa wciąż ma uprawnienia do odczytu, co jest sprzeczne z efektem polecenia g-r, które wyraźnie usuwa prawo dostępu do odczytu dla grupy. Odpowiedź 720 również zakłada, że grupa zachowuje pewne uprawnienia, co jest błędne, ponieważ polecenie całkowicie pozbawia grupę dostępu. W przypadku odpowiedzi 710, przyjęto błędne założenie, że uprawnienia dla grupy pozostają niezmienione, co w praktyce oznacza, że wciąż istnieje możliwość dostępu, co jest sprzeczne z zamiarem wykonania polecenia. Ogólnie rzecz biorąc, błędne odpowiedzi w dużej mierze wynikają z niepełnego zrozumienia sposobu działania komendy chmod oraz jej wpływu na uprawnienia plików. Warto zwrócić uwagę na konsekwencje zmian uprawnień, by uniknąć sytuacji, w której nieautoryzowani użytkownicy uzyskują dostęp do wrażliwych danych lub, przeciwnie, użytkownicy z niezbędnymi uprawnieniami są ograniczeni w pracy. Zrozumienie logiki przydzielania uprawnień jest kluczowe dla efektywnego zarządzania systemem plików i bezpieczeństwem danych.

Pytanie 2

Jednym z rezultatów wykonania poniższego polecenia jest:

sudo passwd -n 1 -x 5 test
A. Wymuszenie konieczności stosowania haseł o długości minimum pięciu znaków.
B. Zmiana aktualnego hasła użytkownika na "test".
C. Ustawienie możliwości zmiany hasła po jednym dniu.
D. Automatyczne zablokowanie konta użytkownika "test" po pięciokrotnym wprowadzeniu błędnego hasła.
Odpowiedź dotycząca ustawienia możliwości zmiany hasła po upływie jednego dnia jest poprawna, ponieważ polecenie 'sudo passwd -n 1 -x 5 test' ustawia parametry polityki haseł dla użytkownika 'test'. Opcja '-n 1' oznacza, że użytkownik będzie mógł zmienić swoje hasło po jednym dniu od ostatniej zmiany, co sprzyja bezpieczeństwu, umożliwiając regularne aktualizowanie haseł. Z kolei '-x 5' określa maksymalny czas ważności hasła, wynoszący pięć dni, po którym hasło musi być zmienione. Tego typu regulacje są zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem w systemach operacyjnych, które zalecają regularną wymianę haseł, aby ograniczyć ryzyko naruszeń. Przykładem zastosowania tej komendy może być zarządzanie kontami dostępu w organizacjach, gdzie bezpieczeństwo danych jest kluczowe, a użytkownicy są zobowiązani do regularnej zmiany haseł, co redukuje ryzyko nieautoryzowanego dostępu.

Pytanie 3

Wpis w dzienniku zdarzeń przedstawiony na ilustracji należy zakwalifikować do zdarzeń typu

Ilustracja do pytania
A. błędy
B. informacje
C. inspekcja niepowodzeń
D. ostrzeżenia
Wpis w dzienniku zdarzeń oznaczony jako poziom Informacje informuje o prawidłowo przeprowadzonym procesie lub operacji bez problemów. Takie wpisy są ważne dla administratorów systemów i specjalistów IT ponieważ dostarczają dowodów na poprawne funkcjonowanie systemu i przeprowadzonych procesów. Na przykład wpis informacyjny może dokumentować pomyślną instalację aktualizacji systemu co jest istotne przy audytach i przy rozwiązywaniu problemów. Dokumentacja tego typu zdarzeń jest zgodna z dobrymi praktykami zarządzania IT takimi jak ITIL które kładą nacisk na monitorowanie i dokumentowanie stanu systemów. Regularne przeglądanie takich wpisów może pomóc w identyfikacji trendów i potencjalnych problemów zanim jeszcze wpłyną na działanie systemu. Ponadto tego typu logi mogą być używane do generowania raportów i analiz wydajności co jest kluczowe w większych środowiskach IT gdzie monitorowanie dużej liczby systemów jest niezbędne do zapewnienia ciągłości działania.

Pytanie 4

Aby Jan mógł zmienić właściciela drukarki w systemie Windows, musi mu zostać przypisane prawo do w opcjach zabezpieczeń

A. modyfikacji uprawnień do drukowania
B. administrowania drukarkami
C. uprawnień specjalnych
D. manipulacji dokumentami
Nieprawidłowe odpowiedzi sugerują niepełne zrozumienie struktury uprawnień w systemie Windows, co może prowadzić do problemów z zarządzaniem zasobami IT. Odpowiedź "zmiany uprawnień drukowania" wskazuje na pewne ograniczenie, ponieważ dotyczy jedynie dostępu do funkcji drukowania, a nie do zarządzania drukarką jako całością. Użytkownik nie może przyznać ani zmienić uprawnień innym użytkownikom, co jest kluczowe w kontekście zarządzania środowiskiem wieloużytkownikowym. Z kolei odpowiedź "zarządzania dokumentami" jest myląca, ponieważ dotyczy jedynie dokumentów w kolejce drukowania, a nie samej drukarki. Oznacza to, że użytkownik wciąż może mieć ograniczony dostęp do modyfikacji ustawień drukarki. Odpowiedź "zarządzania drukarkami" może wydawać się logiczna, ale nie zapewnia pełnej kontroli nad systemem zarządzania uprawnieniami, co jest konieczne do zmiany właściciela drukarki. Wiele osób nie docenia znaczenia uprawnień specjalnych i myli je z bardziej podstawowymi opcjami, co prowadzi do typowych błędów myślowych w przydzielaniu uprawnień. W rzeczywistości, zarządzanie uprawnieniami wymaga precyzyjnego zrozumienia hierarchii i dostępności uprawnień, a także ich wpływu na codzienne operacje drukowania w środowisku pracy.

Pytanie 5

Oznaczenie CE świadczy o tym, że

A. wyrób spełnia wymagania dotyczące bezpieczeństwa użytkowania, ochrony zdrowia oraz ochrony środowiska
B. producent ocenił produkt pod kątem wydajności i ergonomii
C. wyrób jest zgodny z normami ISO
D. wyrób został wyprodukowany na terenie Unii Europejskiej
Często tam, gdzie wybiera się błędne odpowiedzi, pojawia się zamieszanie związane z tym, co tak naprawdę znaczy oznaczenie CE. Odpowiedzi mówiące, że produkt musi być zgodny z normami ISO albo że musi być wyprodukowany w UE, są w błędzie. CE nie ma nic wspólnego z normami ISO, które są dobrowolne, a nie obowiązkowe. To znaczy, że coś może być zgodne z ISO, ale nie spełniać wymogów CE. A także warto wiedzieć, że produkt może mieć oznaczenie CE nawet jeśli powstał poza Unią Europejską, byleby spełniał unijne wymagania. Wartościowym tematem do zrozumienia jest to, że oznaczenie CE angażuje się przede wszystkim w bezpieczeństwo i zdrowie, a nie w wydajność czy ergonomię, co to się ocenia na podstawie innych norm. Często te błędne myśli wynikają z nieznajomości różnicy między normami bezpieczeństwa a innymi rzeczami jak wydajność czy komfort. Fajnie by było bardziej zgłębić temat tych dyrektyw unijnych oraz związanych z nimi norm, żeby w pełni ogarnąć, co tak naprawdę oznacza oznakowanie CE i dlaczego jest tak ważne dla naszego bezpieczeństwa.

Pytanie 6

Jakie działanie może skutkować nieodwracalną utratą danych w przypadku awarii systemu plików?

A. Uruchomienie systemu operacyjnego
B. Przeskanowanie przy użyciu programu antywirusowego
C. Wykonanie skanowania za pomocą scandiska
D. Formatowanie dysku
Formatowanie dysku to proces, który polega na usunięciu wszystkich danych z nośnika oraz przygotowaniu go do ponownego zapisu. W praktyce oznacza to, że podczas formatowania system plików jest resetowany, co prowadzi do nieodwracalnej utraty wszelkich danych zgromadzonych na dysku. Standardowe formatowanie może być przeprowadzone na różne sposoby, w tym przez system operacyjny lub narzędzia do zarządzania dyskami. Dobrą praktyką przed formatowaniem jest wykonanie kopii zapasowej wszystkich ważnych danych, co pozwala uniknąć utraty informacji. Formatowanie jest często stosowane, gdy dysk ma problemy z systemem plików lub gdy chcemy przygotować go do nowej instalacji systemu operacyjnego. Należy jednak pamiętać, że nie należy formatować dysku, jeśli istnieje jakakolwiek możliwość przywrócenia danych korzystając z narzędzi do odzyskiwania danych, ponieważ każda operacja na dysku po formatowaniu może dodatkowo utrudnić ich odzyskanie.

Pytanie 7

W systemie Windows 7 program Cipher.exe w trybie poleceń jest używany do

A. sterowania rozruchem systemu
B. szyfrowania i odszyfrowywania plików oraz katalogów
C. wyświetlania plików tekstowych
D. przełączania monitora w tryb uśpienia
Wybór odpowiedzi związanych z podglądem plików tekstowych, zarządzaniem rozruchem systemu oraz przełączaniem monitora w trybie oczekiwania sugeruje pewne nieporozumienia dotyczące funkcji narzędzi w systemie Windows 7. Podgląd plików tekstowych nie jest funkcją Cipher.exe, lecz bardziej odpowiednie dla edytorów tekstowych lub narzędzi typu 'notepad'. Zarządzanie rozruchem systemu dotyczy bardziej narzędzi takich jak msconfig lub bcdedit, które umożliwiają konfigurację opcji rozruchowych systemu operacyjnego. Z kolei przełączanie monitora w trybie oczekiwania jest związane z ustawieniami zasilania, a nie z szyfrowaniem danych. Takie pomyłki mogą wynikać z braku zrozumienia celów i funkcji konkretnych narzędzi w systemie, co jest istotne dla administratorów systemów oraz użytkowników zaawansowanych. Zrozumienie różnicy między funkcjami zarządzania danymi a zarządzaniem systemem operacyjnym jest kluczowe w kontekście efektywnego wykorzystania dostępnych narzędzi i zapewnienia bezpieczeństwa informacji. Warto również zaznaczyć, że szyfrowanie danych to tylko jeden z aspektów szerokiego podejścia do bezpieczeństwa, które powinno obejmować także polityki dostępu, audyty oraz zabezpieczenia fizyczne.

Pytanie 8

Jak najlepiej chronić zebrane dane przed dostępem w przypadku kradzieży komputera?

A. przygotować punkt przywracania systemu
B. ochronić konta za pomocą hasła
C. wdrożyć szyfrowanie partycji
D. ustawić atrybut ukryty dla wszystkich istotnych plików
Zastosowanie atrybutu ukrytego dla plików nie zapewnia odpowiedniego poziomu ochrony danych. Chociaż pliki z atrybutem ukrytym są mniej widoczne dla przeciętnego użytkownika, nie są one chronione przed dostępem, a to oznacza, że osoba z odpowiednią wiedzą techniczną może je łatwo odkryć. Z kolei punkt przywracania systemu służy głównie do przywracania stanu systemu operacyjnego w przypadku awarii, co nie ma bezpośredniego wpływu na bezpieczeństwo danych w kontekście ich kradzieży. Zabezpieczenie kont hasłem również nie jest wystarczające, ponieważ w przypadku kradzieży sprzętu, fizyczny dostęp do komputera umożliwia potencjalnemu złodziejowi ominięcie zabezpieczeń systemowych. Oparcie się tylko na hasłach nie chroni przed atakami typu brute force czy phishing, które mogą prowadzić do utraty dostępu do danych. Dlatego ważne jest, aby podejść do ochrony danych w sposób kompleksowy, stosując szyfrowanie, które nie tylko ukrywa dane, ale i skutecznie je zabezpiecza przed nieautoryzowanym dostępem. Współczesne standardy bezpieczeństwa wskazują, że szyfrowanie jest podstawowym elementem każdego systemu ochrony informacji, co czyni je niezastąpionym narzędziem w ochronie danych.

Pytanie 9

Aby poprawić bezpieczeństwo zasobów sieciowych, administrator sieci komputerowej w firmie został zobowiązany do podziału istniejącej lokalnej sieci komputerowej na 16 podsieci. Pierwotna sieć miała adres IP 192.168.20.0 z maską 255.255.255.0. Jaką maskę sieci powinien zastosować administrator?

A. 255.255.255.248
B. 255.255.255.224
C. 255.255.255.192
D. 255.255.255.240
Wybór maski 255.255.255.240 jest prawidłowy, ponieważ pozwala podzielić sieć 192.168.20.0 na 16 podsieci, zgodnie z wymaganiem administratora. Maska 255.255.255.240 (w notacji CIDR to /28) oznacza, że 4 bity są używane do identyfikacji podsieci, co umożliwia stworzenie 2^4 = 16 podsieci. Każda z tych podsieci ma 16 adresów, z czego 14 jest dostępnych dla hostów (dwa adresy są zarezerwowane – jeden dla identyfikatora sieci, a drugi dla adresu rozgłoszeniowego). W praktyce, podział na podsieci poprawia zarządzanie ruchem sieciowym oraz zwiększa bezpieczeństwo, ograniczając zasięg potencjalnych ataków. W sieciach lokalnych istotne jest stosowanie takich technik jak VLANy oraz segmentacja, co jest zgodne z najlepszymi praktykami w inżynierii sieci. Taki podział umożliwia administratorom lepsze kontrolowanie dostępu do zasobów oraz monitorowanie ruchu w sieci, co jest kluczowe w kontekście bezpieczeństwa IT.

Pytanie 10

Jakie miejsce nie powinno być wykorzystywane do przechowywania kopii zapasowych danych z dysku twardego komputera?

A. Zewnętrzny dysk
B. Inna partycja tego samego dysku
C. Płyta CD/DVD
D. Nośnik USB
Wybór opcji 'Inna partycja dysku tego komputera' jako miejsca przechowywania kopii bezpieczeństwa danych jest niewłaściwy, ponieważ w przypadku awarii głównego dysku twardego, cała zawartość, w tym dane na innych partycjach, może zostać utracona. Standardowe praktyki związane z tworzeniem kopii zapasowych opierają się na zasadzie, że kopie powinny być przechowywane w lokalizacjach fizycznie oddzielonych od oryginalnych danych. Przykładowo, stosowanie pamięci USB, płyt CD/DVD czy zewnętrznych dysków twardych to sprawdzone metody, które zapewniają ochronę przed utratą danych. Zewnętrzny dysk twardy, jako nośnik, zapewnia nie tylko mobilność, ale także możliwość korzystania z różnych standardów przechowywania danych, takich jak RAID, co zwiększa bezpieczeństwo kopii. W praktyce, zaleca się wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach, z jedną kopią przechowywaną w chmurze lub w innej lokalizacji fizycznej. Dzięki temu, nawet w przypadku całkowitego usunięcia danych z głównego dysku, istnieje możliwość ich łatwego odzyskania.

Pytanie 11

Który z poniższych mechanizmów zagwarantuje najwyższy poziom ochrony w sieciach bezprzewodowych opartych na standardzie 802.11n?

A. WEP
B. WPA
C. WPA2
D. Autoryzacja
Wybór WEP jako mechanizmu zabezpieczeń sieci bezprzewodowych wiąże się z poważnymi lukami w bezpieczeństwie. WEP wykorzystuje statyczne klucze szyfrujące, co sprawia, że jest niezwykle podatny na ataki, takie jak przechwytywanie pakietów czy ataki związane z analizy kryptograficznej. Hakerzy mogą łatwo złamać ten mechanizm w krótkim czasie, co czyni go nieodpowiednim dla jakiejkolwiek poważnej aplikacji. Z kolei WPA, mimo że jest krokiem naprzód w porównaniu do WEP, wciąż opiera się na algorytmie TKIP, który nie zapewnia wystarczającej odporności na współczesne zagrożenia. Protokół ten był narażony na różne ataki, takie jak ataki deautoryzacyjne czy przechwytywanie kluczy. Dlatego wybór WPA nie jest wystarczającą gwarancją bezpieczeństwa, zwłaszcza w kontekście rozwoju technologii i wzrastających umiejętności cyberprzestępców. Dodatkowo, autoryzacja, jako koncepcja, nie jest mechanizmem szyfrowania danych, lecz procesem weryfikacji tożsamości użytkowników, co nie odnosi się bezpośrednio do ochrony samego połączenia. W efekcie, wybór WEP lub WPA może prowadzić do znaczącego zagrożenia dla bezpieczeństwa sieci, co jest niezgodne z aktualnymi standardami i najlepszymi praktykami w dziedzinie cyberbezpieczeństwa. Ważne jest, aby organizacje dostrzegały te różnice i stosowały najnowsze protokoły, takie jak WPA2, aby skutecznie chronić swoje zasoby przed nowoczesnymi cyberzagrożeniami.

Pytanie 12

Aby poprawić niezawodność oraz efektywność przesyłania danych na serwerze, należy

A. stworzyć punkt przywracania systemu
B. ustawić automatyczne wykonywanie kopii zapasowej
C. zainstalować macierz dyskową RAID1
D. trzymać dane na innym dysku niż systemowy
Zainstalowanie macierzy dyskowej RAID1 jest jedną z najskuteczniejszych metod zwiększania niezawodności i wydajności transmisji danych na serwerze. RAID1, znany również jako mirroring, polega na tworzeniu kopii zapasowej danych na dwóch fizycznych dyskach. W przypadku awarii jednego z dysków, system automatycznie przełącza się na drugi, co minimalizuje ryzyko utraty danych i przestojów. W praktyce, implementacja RAID1 jest stosunkowo prosta i często zalecana dla serwerów, które wymagają wysokiej dostępności danych, na przykład w środowiskach produkcyjnych czy w zastosowaniach biznesowych. Dodatkowo, macierze RAID przyczyniają się do poprawy wydajności odczytu, ponieważ dane mogą być jednocześnie odczytywane z dwóch dysków. Standardy branżowe, takie jak te opracowane przez Storage Networking Industry Association (SNIA), podkreślają znaczenie stosowania technologii RAID w kontekście ochrony danych. Warto również zaznaczyć, że RAID1 jest tylko jednym z wielu poziomów RAID, a jego zastosowanie zależy od specyficznych wymagań systemu i budżetu. W przypadku większych potrzeb można rozważyć inne konfiguracje RAID, takie jak RAID5 czy RAID10, które oferują jeszcze lepszą wydajność i redundancję.

Pytanie 13

Aby dezaktywować transmitowanie nazwy sieci Wi-Fi, należy w punkcie dostępowym wyłączyć opcję

A. Filter IDENT
B. Wide Channel
C. UPnP AV
D. SSID
Odpowiedź SSID (Service Set Identifier) jest prawidłowa, ponieważ to właśnie ta funkcja pozwala na rozgłaszanie lub ukrywanie nazwy sieci bezprzewodowej. W przypadku, gdy administratorzy sieci chcą zwiększyć bezpieczeństwo, decydują się na wyłączenie rozgłaszania SSID, co sprawia, że nazwa sieci nie jest widoczna dla użytkowników próbujących połączyć się z siecią. W praktyce oznacza to, że urządzenia muszą znać dokładną nazwę sieci, aby nawiązać połączenie, co może chronić przed nieautoryzowanym dostępem. Zgodnie z najlepszymi praktykami w branży, takie działanie ogranicza możliwość dostępu do sieci tylko dla znanych urządzeń, co jest szczególnie ważne w środowiskach, gdzie bezpieczeństwo danych jest kluczowe. Wyłączenie rozgłaszania SSID jest często stosowane w sieciach korporacyjnych oraz w miejscach publicznych, gdzie ochrona prywatności i danych jest priorytetem.

Pytanie 14

Który z parametrów w ustawieniach punktu dostępowego działa jako login używany podczas próby połączenia z punktem dostępowym w sieci bezprzewodowej?

Ilustracja do pytania
A. Transmission Rate
B. Channel Width
C. Wireless Network Name
D. Wireless Channel
Wireless Network Name znany również jako SSID czyli Service Set Identifier odgrywa kluczową rolę w konfiguracji punktu dostępowego sieci bezprzewodowej. SSID to unikalna nazwa, która identyfikuje określoną sieć bezprzewodową wśród wielu innych w zasięgu użytkownika. Jest to pierwsze co widzi urządzenie próbujące połączyć się z siecią dlatego można go porównać do loginu w kontekście sieci bezprzewodowych. W praktyce użytkownik wybiera właściwy SSID z listy dostępnych sieci aby nawiązać połączenie. Jest to standardowa praktyka w konfiguracji sieci bezprzewodowych oparta na specyfikacjach IEEE 802.11. Dobre praktyki zarządzania sieciami zalecają nadanie unikalnej nazwy SSID unikanie domyślnych nazw oraz regularną aktualizację zabezpieczeń sieciowych. SSID może być ustawiony jako widoczny lub ukryty co wpływa na sposób w jaki urządzenia mogą go znaleźć. Ukrycie SSID może zwiększyć bezpieczeństwo ale nie jest ono jedynym środkiem ochrony. Większość routerów i punktów dostępowych pozwala na modyfikację SSID co jest jednym z podstawowych kroków podczas konfiguracji nowego urządzenia sieciowego.

Pytanie 15

Jakie porty powinny być odblokowane w ustawieniach firewalla na komputerze, na którym działa usługa serwera WWW?

A. 80 i 443
B. 20 i 1024
C. 80 i 1024
D. 20 i 21
Porty 20 i 21 są stosowane głównie przez protokół FTP (File Transfer Protocol), który służy do przesyłania plików pomiędzy klientem a serwerem. Choć FTP jest ważny w kontekście transferu plików, nie ma bezpośredniego związku z działaniem serwera sieci Web i obsługą stron internetowych. W przypadku odblokowania portów 20 i 21, użytkownicy mogą mieć możliwość przesyłania plików na serwer, ale nie będą mogli z niego korzystać do przeglądania zawartości stron internetowych, co jest głównym celem serwera WWW. Porty 20 i 1024 również nie są odpowiednie, ponieważ port 1024 jest nieprzewidywalny i nie jest standardowo używany przez protokoły związane z serwerami WWW. Podobnie, port 80 i 1024 nie jest odpowiedni, ponieważ jak wcześniej wspomniano, port 1024 nie pełni specyficznej funkcji w kontekście serwerów WWW. Niezrozumienie roli poszczególnych portów i protokołów jest typowym błędem, który może prowadzić do problemów z konfiguracją zapory sieciowej. Właściwe zrozumienie protokołów oraz ich przypisanych portów jest kluczowe dla prawidłowego zarządzania bezpieczeństwem i dostępnością serwerów internetowych.

Pytanie 16

Który z protokołów umożliwia terminalowe połączenie ze zdalnymi urządzeniami, zapewniając jednocześnie transfer danych w zaszyfrowanej formie?

A. Remote
B. SSH (Secure Shell)
C. SSL (Secure Socket Layer)
D. Telnet
SSH (Secure Shell) to protokół wykorzystywany do bezpiecznego łączenia się z zdalnymi urządzeniami, który zapewnia szyfrowanie danych przesyłanych w sieci. W przeciwieństwie do Telnetu, który przesyła dane w formie niezaszyfrowanej, SSH chroni poufność informacji, co jest kluczowe w dzisiejszym świecie cyberzagrożeń. Protokół ten stosuje zaawansowane techniki kryptograficzne, w tym szyfrowanie symetryczne oraz asymetryczne, co sprawia, że jest niezwykle trudny do przechwycenia przez osoby trzecie. SSH jest powszechnie wykorzystywany przez administratorów systemów do zdalnego zarządzania serwerami i innymi urządzeniami, umożliwiając im bezpieczne wykonywanie poleceń w trybie terminalowym. Przykładem może być sytuacja, w której administrator zarządza serwerem Linux, łącząc się z nim za pomocą polecenia `ssh user@server_ip`, co zapewnia bezpieczny dostęp do powłoki systemu. Dzięki swojej elastyczności, SSH znajduje także zastosowanie w tunelowaniu portów oraz wykorzystywaniu przekierowań X11, co pozwala na uruchamianie aplikacji graficznych w trybie zdalnym przy zachowaniu bezpieczeństwa. Warto również zwrócić uwagę, że SSH jest standardem w branży IT, co sprawia, że jego znajomość jest niezbędna dla specjalistów zajmujących się administracją systemami i bezpieczeństwem IT.

Pytanie 17

Jakie jest zastosowanie maty antystatycznej oraz opaski podczas instalacji komponentu?

A. neutralizacji ładunków elektrostatycznych
B. polepszenia warunków higienicznych serwisanta
C. zwiększenia komfortu naprawy
D. usunięcia zanieczyszczeń
Mata antystatyczna oraz opaska antystatyczna są kluczowymi elementami ochrony podczas pracy z wrażliwymi podzespołami elektronicznymi. Głównym celem ich stosowania jest neutralizacja ładunków elektrostatycznych, które mogą powstać podczas manipulacji komponentami. Ładunki te mogą prowadzić do uszkodzenia delikatnych układów elektronicznych, co jest szczególnie istotne w przypadku sprzętu komputerowego, telefonów czy innych urządzeń wysokiej technologii. Przykładem praktycznym jest użycie maty antystatycznej w warsztacie podczas składania lub naprawy sprzętu. Dzięki jej zastosowaniu, serwisant ma pewność, że potencjalne ładunki elektrostatyczne są skutecznie uziemione, co minimalizuje ryzyko uszkodzenia podzespołów. W branży elektroniki stosuje się normy, takie jak IEC 61340-5-1, które podkreślają konieczność ochrony przed elektrycznością statyczną w obszarach pracy z komponentami wrażliwymi. Takie procedury są standardem w profesjonalnych serwisach i laboratoriach, co podkreśla ich znaczenie w zapewnieniu jakości i bezpieczeństwa pracy.

Pytanie 18

AppLocker to funkcjonalność dostępna w systemach Windows Server, która umożliwia

A. szyfrowanie partycji systemowej, z wyjątkiem partycji rozruchowej
B. tworzenie reguł zarządzających uruchamianiem aplikacji dla użytkowników lub grup
C. administrację partycjami dysków twardych przy pomocy interpretera poleceń PowerShell
D. przyznawanie uprawnień do plików i katalogów zawierających dane użytkowników
Pierwsza z odpowiedzi sugeruje, że AppLocker służy do szyfrowania partycji systemowej, co jest całkowicie niezgodne z jego funkcjonalnością. Szyfrowanie partycji, w tym partycji systemowej, jest realizowane przez inne narzędzia, takie jak BitLocker, które oferują zabezpieczanie danych przed nieautoryzowanym dostępem poprzez szyfrowanie całych dysków. Drugie podejście wskazuje na nadawanie uprawnień do plików i katalogów, co również nie jest zadaniem AppLocker. Uprawnienia do plików i folderów w systemach Windows są zarządzane przez system kontroli dostępu (DAC), który operuje na zasadzie list kontroli dostępu (ACL). Trzecia odpowiedź dotyczy zarządzania partycjami dysków twardych przy pomocy PowerShell, co jest zupełnie odmienną funkcjonalnością i nie ma związku z celami AppLocker. PowerShell jest narzędziem do automatyzacji zadań administracyjnych, ale nie jest bezpośrednio związane z kontrolą uruchamiania aplikacji. Te błędne odpowiedzi pokazują typowe nieporozumienia w zakresie funkcji narzędzi dostępnych w systemach Windows Server, co może prowadzić do niewłaściwego ich stosowania i braku efektywności w zarządzaniu bezpieczeństwem i dostępem do systemów. Zrozumienie specyfiki narzędzi oraz ich zastosowań jest kluczowe dla skutecznego zarządzania infrastrukturą IT.

Pytanie 19

Oznaczenie CE wskazuje, że

A. produkt jest zgodny z normami ISO
B. towar został wytworzony w obrębie Unii Europejskiej
C. wyrób spełnia normy bezpieczeństwa użytkowania, ochrony zdrowia oraz ochrony środowiska
D. producent ocenił towar pod kątem wydajności i ergonomii
Wielu ludzi myli oznakowanie CE z różnymi innymi koncepcjami, co prowadzi do nieporozumień. Na przykład, pierwsza z błędnych odpowiedzi sugeruje, że wyrób musi być zgodny z normami ISO. Chociaż normy ISO są istotne dla wielu branż, oznakowanie CE nie odnosi się bezpośrednio do tych standardów. ISO to międzynarodowy zestaw standardów dobrowolnych, które mogą, ale nie muszą być stosowane w produkcie. Z kolei CE jest obowiązkowe dla określonych kategorii wyrobów w Europie. Następnie, odpowiedź mówiąca o tym, że producent sprawdził produkt pod względem wydajności i ergonomii, również jest myląca. Oznakowanie CE koncentruje się głównie na bezpieczeństwie i ochronie zdrowia, a nie na wydajności, która może być oceniana według innych standardów lub norm. Ostatni błąd dotyczy przekonania, że oznakowanie CE oznacza, iż produkt został wyprodukowany w Unii Europejskiej, co jest fałszywe. W rzeczywistości, wiele produktów spoza UE może posiadać oznaczenie CE, o ile spełniają one wymagania unijne. Zrozumienie tych różnic jest kluczowe dla skutecznego poruszania się w złożonym świecie regulacji i standardów, które wpływają na bezpieczeństwo produktów na rynku europejskim.

Pytanie 20

Jednym z zaleceń w zakresie ochrony przed wirusami jest przeprowadzanie skanowania całego systemu. W związku z tym należy skanować komputer

A. jedynie w sytuacji, gdy w systemie nie działa monitor antywirusowy
B. tylko po zaktualizowaniu baz danych oprogramowania antywirusowego
C. wyłącznie w przypadkach, gdy istnieje podejrzenie infekcji wirusem
D. regularnie, na przykład co siedem dni
Skanowanie komputera jedynie po aktualizacji baz programu antywirusowego, wyłącznie w sytuacji podejrzenia infekcji, czy tylko wtedy, gdy nie działa monitor antywirusowy, to podejścia, które mogą prowadzić do poważnych luk w zabezpieczeniach. Ograniczanie skanowania wyłącznie do momentów aktualizacji baz wirusów jest błędne, ponieważ złośliwe oprogramowanie może zaatakować system w dowolnym momencie, a nie tylko po aktualizacji. Takie podejście stawia użytkowników w sytuacji, gdzie mogą być nieświadomi istniejących zagrożeń, co jest sprzeczne z zasadą proaktywnej ochrony. Dodatkowo, skanowanie jedynie w sytuacji podejrzenia infekcji oznacza, że użytkownik może przegapić subtelne objawy złośliwego oprogramowania, które nie zawsze są od razu widoczne. Często ataki są skryte i mogą działać w tle przez długi czas, zanim zostaną zauważone. Ostatnia koncepcja, związana z działaniem monitora antywirusowego, jest również mylna; nawet jeśli monitor nie zgłasza aktywnych zagrożeń, nie oznacza to, że system jest bezpieczny. W praktyce, skuteczne zabezpieczenia wymaga regularnych, kompleksowych skanów, które identyfikują i eliminują zagrożenia przed ich eskalacją. Dlatego kluczowe jest, aby stosować się do zalecenia o systematycznym skanowaniu komputera, co stanowi podstawowy element strategii bezpieczeństwa systemów informatycznych.

Pytanie 21

Jakie narzędzie w systemie Windows umożliwia kontrolę prób logowania do systemu?

A. zabezpieczeń
B. programów
C. systemu
D. instalacji
Wybór odpowiedzi dotyczących dziennika aplikacji, systemu lub setupu wskazuje na niezrozumienie roli, jaką odgrywają różne dzienniki w systemie Windows. Dziennik aplikacji rejestruje zdarzenia generowane przez aplikacje uruchomione na komputerze, co nie jest związane bezpośrednio z próbami logowania i zabezpieczeniami systemu. W przypadku dziennika systemu, rejestruje on ogólne zdarzenia systemowe, takie jak uruchamianie i zatrzymywanie usług, co również nie obejmuje szczegółowych informacji o próbach logowania. Dziennik setupu natomiast zawiera informacje dotyczące instalacji oprogramowania oraz zmian w konfiguracji systemu, co również nie ma związku z bezpieczeństwem logowania. Typowym błędem jest mylenie funkcji dzienników oraz ich celów: każdy typ dziennika ma swoje specyficzne zadania i zastosowania, co należy uwzględnić przy wyborze odpowiednich narzędzi do monitorowania systemu. Aby efektywnie zarządzać bezpieczeństwem, konieczne jest korzystanie ze wszystkich dostępnych narzędzi zgodnie z ich przeznaczeniem, co pozwala na pełniejszą analizy i lepsze zabezpieczenie danych. W kontekście bezpieczeństwa informacji, kluczowe jest posiadanie systemu monitorowania zdarzeń i ich analizy, co umożliwia identyfikację oraz odpowiedź na zagrożenia w czasie rzeczywistym. Każde z tych narzędzi, jeżeli jest używane w nieodpowiedni sposób, może prowadzić do luk w zabezpieczeniach i utraty danych, dlatego ważne jest, aby administratorzy systemów byli świadomi różnic w funkcjach dzienników i potrafili je odpowiednio wykorzystać.

Pytanie 22

Gdy użytkownik zauważy, że ważne pliki zniknęły z dysku twardego, powinien

A. zainstalować oprogramowanie diagnostyczne
B. zabezpieczyć dysk przed zapisaniem nowych danych
C. przeprowadzić test S.M.A.R.T. na tym dysku
D. wykonać defragmentację tego dysku
Podjęcie działań takich jak przeprowadzenie testu S.M.A.R.T., defragmentacja dysku czy instalacja programów diagnostycznych nie jest odpowiednie w sytuacji utraty plików. Test S.M.A.R.T. (Self-Monitoring, Analysis, and Reporting Technology) ma na celu monitorowanie stanu technicznego dysku twardego, ale nie jest narzędziem do odzyskiwania danych. Pomimo że może wskazać na potencjalne problemy z dyskiem, nie zatrzyma procesu zapisu danych, który może prowadzić do ich nadpisania. Defragmentacja, z kolei, jest operacją mającą na celu uporządkowanie fragmentów plików na dysku, co w sytuacji utraty danych jest zupełnie nieodpowiednie. W trakcie defragmentacji również może dojść do nadpisania obszarów pamięci, gdzie znajdowały się utracone pliki. Zainstalowanie programów diagnostycznych, choć może być przydatne w długofalowym monitorowaniu stanu dysku, również nie jest działaniem, które powinno się podjąć natychmiast po zauważeniu utraty danych. Właściwe podejście w takiej sytuacji polega na minimalizacji ryzyka nadpisania danych, co wymaga natychmiastowego zaprzestania wszelkich operacji zapisu, a nie ich monitorowania czy reorganizacji. Ignorowanie tych zasad może prowadzić do trwałej utraty ważnych informacji, co potwierdzają standardy najlepszych praktyk w zakresie odzyskiwania danych.

Pytanie 23

Nowe komponenty komputerowe, takie jak dyski twarde czy karty graficzne, są umieszczane w metalizowanych opakowaniach foliowych, których głównym celem jest zabezpieczenie

A. komponentów przed wilgocią
B. elementów elektronicznych przed promieniowaniem słonecznym
C. elementów elektronicznych przed ładunkami elektrostatycznymi
D. komponentów przed nagłymi zmianami temperatur w trakcie transportu
Odpowiedzi, które mówią o wilgoci, temperaturze czy słońcu, nie do końca rozumieją, po co są te metalizowane opakowania. Ochrona przed wilgocią jest ważna, ale to nie jest główny cel takiego pakowania. Często podzespoły komputerowe pakowane są w hermetyczne torebki, które lepiej chronią przed wilgocią. Zmiany temperatury też mogą być problemem, ale te opakowania nie są do tego przystosowane; tutaj lepiej sprawdzają się jakieś izotermiczne kontenery. Jeśli chodzi o światło słoneczne, to może szkodzić materiałom wrażliwym na UV, ale w transporcie podzespołów nie jest to kluczowa kwestia. Największym zagrożeniem są ładunki elektrostatyczne, ale jeżeli nie uwzględniamy ochrony przed innymi czynnikami, to można źle zrozumieć, jak działają normy i procedury pakowania. Dlatego ważne, by w logistyce i produkcji pamiętać o zasadach ochrony przed ESD, żeby nie narażać inwestycji w nowe technologie i utrzymywać dobrą jakość produktów.

Pytanie 24

Jest to najnowsza edycja klienta wieloplatformowego, docenianego przez użytkowników na całym świecie, serwera wirtualnej sieci prywatnej, umożliwiającego nawiązanie połączenia między hostem a komputerem lokalnym, obsługującego uwierzytelnianie z wykorzystaniem kluczy, certyfikatów, nazwy użytkownika oraz hasła, a także, w wersji dla Windows, dodatkowych zakładek. Który z programów został wcześniej opisany?

A. Ethereal
B. Putty
C. OpenVPN
D. TinghtVNC
OpenVPN to wiodący projekt oprogramowania typu open source, który zapewnia bezpieczne połączenia VPN (Virtual Private Network). Najnowsza wersja klienta OpenVPN wyposaża użytkowników w możliwość korzystania z silnych protokołów szyfrujących, co zapewnia wysoką ochronę danych przesyłanych pomiędzy hostem a komputerem lokalnym. Wspiera on autoryzację z użyciem kluczy publicznych oraz certyfikatów, a także umożliwia logowanie przy użyciu nazw użytkowników i haseł. Dzięki temu OpenVPN jest często stosowany w środowiskach korporacyjnych oraz przez osoby prywatne pragnące zwiększyć swoje bezpieczeństwo w Internecie. Użytkownicy mogą korzystać z dodatkowych funkcji, takich jak obsługa wielu protokołów oraz integracja z różnymi systemami operacyjnymi, co czyni go niezwykle elastycznym rozwiązaniem. Przykładowe zastosowanie obejmuje zdalny dostęp do zasobów firmowych, zabezpieczanie połączeń podczas korzystania z publicznych sieci Wi-Fi czy też obejście geoblokad. OpenVPN jest zgodny z najlepszymi praktykami branżowymi dotyczącymi bezpieczeństwa, co czyni go preferowanym wyborem dla wielu profesjonalistów.

Pytanie 25

Jakie miejsce nie jest zalecane do przechowywania kopii zapasowej danych z dysku twardego komputera?

A. Dysk zewnętrzny
B. Pamięć USB
C. Płyta CD/DVD
D. Inna partycja dysku tego komputera
Przechowywanie kopii bezpieczeństwa danych na innej partycji dysku tego samego komputera jest niezalecane z powodu ryzyka jednoczesnej utraty danych. W przypadku awarii systemu operacyjnego, usunięcia plików lub ataku złośliwego oprogramowania, dane na obu partycjach mogą być zagrożone. Dlatego najlepszym praktycznym podejściem do tworzenia kopii bezpieczeństwa jest używanie fizycznych nośników zewnętrznych, takich jak dyski zewnętrzne, pamięci USB czy płyty CD/DVD, które są oddzielne od głównego systemu. Zgodnie z zasadą 3-2-1, zaleca się posiadanie trzech kopii danych, na dwóch różnych nośnikach, z jedną kopią przechowywaną w lokalizacji zewnętrznej. Takie podejście znacząco zwiększa bezpieczeństwo danych i minimalizuje ryzyko ich utraty w wyniku awarii sprzętu lub cyberataków. Dobre praktyki obejmują również regularne aktualizowanie kopii zapasowych oraz ich szyfrowanie w celu ochrony przed nieautoryzowanym dostępem.

Pytanie 26

Do jakiej grupy w systemie Windows Server 2008 powinien być przypisany użytkownik odpowiedzialny wyłącznie za archiwizację danych przechowywanych na serwerowym dysku?

A. Operatorzy kopii zapasowych
B. Użytkownicy zaawansowani
C. Użytkownicy domeny
D. Użytkownicy pulpitu zdalnego
Wybór innych grup, takich jak 'Użytkownicy zaawansowani', 'Użytkownicy domeny' czy 'Użytkownicy pulpitu zdalnego', nie jest odpowiedni w kontekście przypisania użytkownika odpowiedzialnego za archiwizowanie danych. Użytkownicy zaawansowani, mimo że mogą mieć dodatkowe umiejętności, nie posiadają domyślnie uprawnień do wykonywania kopii zapasowych. Ich rola jest bardziej związana z codzienną administracją i korzystaniem z zasobów systemu. Użytkownicy domeny są członkami grupy, która ma dostęp do zasobów w sieci, jednak niekoniecznie są uprawnieni do zarządzania backupem. Z kolei użytkownicy pulpitu zdalnego mają uprawnienia do zdalnego logowania się do serwera, ale nie mają związku z archiwizacją danych. Wybór tych opcji może wynikać z nieporozumienia dotyczącego ról i uprawnień w systemie Windows Server. Kluczowe jest zrozumienie, że do archiwizacji danych potrzebne są specyficzne uprawnienia, które są przydzielane tylko grupie operatorów kopii zapasowych. Ignorowanie tych różnic prowadzi do niewłaściwego zarządzania danymi, co może skutkować poważnymi konsekwencjami w przypadku utraty informacji.

Pytanie 27

Aby zminimalizować ryzyko wyładowań elektrostatycznych podczas wymiany komponentów komputerowych, technik powinien wykorzystać

A. matę i opaskę antystatyczną
B. odzież poliestrową
C. rękawice gumowe
D. okulary ochronne
Stosowanie maty i opaski antystatycznej jest kluczowym środkiem zapobiegawczym w procesie wymiany podzespołów komputerowych. Mata antystatyczna służy do uziemienia sprzętu i osób pracujących, co skutecznie minimalizuje ryzyko powstania ładunków elektrostatycznych. Opaska antystatyczna, noszona na nadgarstku, również jest podłączona do uziemienia, co zapewnia ciągłe odprowadzanie ładunków. W praktyce oznacza to, że gdy technik dotyka podzespołów, takich jak płyty główne czy karty graficzne, nie stwarza ryzyka uszkodzenia związanego z wyładowaniami elektrostatycznymi (ESD). W branży IT stosowanie tych środków ochrony jest szeroko rekomendowane, jako część dobrych praktyk w zakresie bezpiecznego zarządzania sprzętem. Zgodnie z normą ANSI/ESD S20.20, przedsiębiorstwa powinny wdrażać odpowiednie procedury ESD, aby ochronić swoje zasoby. Dbanie o zapobieganie ESD nie tylko chroni sprzęt, ale również wydłuża jego żywotność i stabilność działania, co jest kluczowe w kontekście zarządzania infrastrukturą IT.

Pytanie 28

Program wirusowy, którego zasadniczym zamiarem jest samoistne rozprzestrzenianie się w sieci komputerowej, to:

A. robak
B. trojan
C. keylogger
D. backdoor
W kontekście złośliwego oprogramowania ważne jest zrozumienie różnic między różnymi jego typami, co pozwala na skuteczniejsze zarządzanie zagrożeniami. Trojany to programy, które podszywają się pod legalne oprogramowanie, aby oszukać użytkowników do ich zainstalowania. Nie rozprzestrzeniają się samodzielnie, co czyni je mniej niebezpiecznymi w kontekście masowego rozprzestrzeniania, ale grożą kradzieżą danych. Keyloggery, z drugiej strony, są narzędziami służącymi do rejestrowania naciśnięć klawiszy użytkownika, co prowadzi do kradzieży danych logowania. Backdoory to rodzaj oprogramowania, które tworzy nieautoryzowany dostęp do systemu, ale także nie mają zdolności do samodzielnego rozprzestrzeniania się. Typowym błędem myślowym jest utożsamianie wszystkich złośliwych programów z wirusami, co prowadzi do nieefektywnych strategii obronnych. Aby skutecznie zabezpieczać systemy, organizacje powinny stosować podejście wielowarstwowe, które obejmuje nie tylko detekcję i usuwanie złośliwego oprogramowania, ale także edukację użytkowników na temat różnych typów zagrożeń i ich charakterystyki, co jest zgodne z najlepszymi praktykami w dziedzinie cyberbezpieczeństwa.

Pytanie 29

Osoba korzystająca z lokalnej sieci musi mieć możliwość dostępu do dokumentów umieszczonych na serwerze. W tym celu powinna

A. posiadać konto użytkownika bez uprawnień administracyjnych na tym serwerze
B. połączyć komputer z tym samym przełącznikiem, do którego podłączony jest serwer
C. zalogować się do domeny serwera oraz dysponować odpowiednimi uprawnieniami do plików znajdujących się na serwerze
D. należeć do grupy administratorzy na tym serwerze
Aby użytkownik mógł korzystać z plików znajdujących się na serwerze sieciowym, musi zalogować się do domeny serwera oraz posiadać odpowiednie uprawnienia do tych plików. Logowanie do domeny jest kluczowe, ponieważ umożliwia centralne zarządzanie kontami użytkowników i ich uprawnieniami. Administracja w kontekście sieciowym często opiera się na modelu kontrolera domeny, co zapewnia wysoki poziom bezpieczeństwa i organizacji. Przykładem może być zdalny dostęp do współdzielonego folderu, gdzie użytkownicy muszą być autoryzowani przez system operacyjny serwera, aby móc otworzyć lub edytować pliki. Ponadto, użytkownicy mogą być przypisani do grup, które mają określone prawa dostępu. W praktyce, organizacje wdrażają polityki bezpieczeństwa, aby zapewnić, że tylko odpowiedni pracownicy mają dostęp do wrażliwych danych, co jest zgodne z zasadą minimalnych uprawnień. Warto również zaznaczyć, że korzystanie z takich rozwiązań pozwala na łatwiejsze zarządzanie i audytowanie dostępu do zasobów sieciowych.

Pytanie 30

Wpis przedstawiony na ilustracji w dzienniku zdarzeń klasyfikowany jest jako zdarzenie typu

Ilustracja do pytania
A. Informacje
B. Inspekcja niepowodzeń
C. Ostrzeżenia
D. Błędy
Wpisy w dzienniku zdarzeń są kluczowym elementem zarządzania systemem informatycznym i służą do monitorowania jego stanu oraz analizy jego działania. Poprawna odpowiedź Informacje dotyczy zdarzeń, które rejestrują normalne operacje systemu. W przeciwieństwie do błędów czy ostrzeżeń zdarzenia informacyjne nie wskazują na jakiekolwiek problemy lecz dokumentują pomyślne wykonanie akcji lub rozpoczęcie usług systemowych jak w przypadku startu usługi powiadamiania użytkownika. Takie informacje są istotne w kontekście audytu systemu i analizy wydajności ponieważ umożliwiają administratorom systemów IT śledzenie działań i optymalizację procesów. Zgodnie z dobrymi praktykami branżowymi regularne monitorowanie zdarzeń informacyjnych pozwala na wczesne wykrycie potencjalnych problemów zanim przekształcą się w poważniejsze awarie. Przykładowo wiedza o czasie uruchamiania usług może pomóc w diagnozowaniu opóźnień lub nieefektywności systemu. Standardy takie jak ITIL zalecają szczegółową dokumentację tego typu zdarzeń aby zapewnić pełną transparentność i możliwość późniejszej analizy co jest nieocenione w dużych środowiskach korporacyjnych.

Pytanie 31

Kluczowym mechanizmem zabezpieczającym dane przechowywane na serwerze jest

A. generowanie punktu przywracania systemu
B. uruchomienie ochrony systemu
C. automatyczne realizowanie kompresji danych
D. tworzenie kopii bezpieczeństwa
Tworzenie kopii bezpieczeństwa to fundamentalny element strategii ochrony danych na serwerze. Umożliwia to zabezpieczenie danych przed ich utratą w wyniku awarii sprzętu, błędów ludzkich czy ataków złośliwego oprogramowania. W praktyce, regularne tworzenie kopii bezpieczeństwa, na przykład codziennie lub co tydzień, powinno być integralną częścią procedur zarządzania danymi. W przypadku incydentu, administratorzy mogą szybko przywrócić dane do stanu sprzed awarii. Dobrą praktyką jest stosowanie zasady 3-2-1, która zaleca posiadanie trzech kopii danych na dwóch różnych nośnikach, z jedną kopią przechowywaną w innym miejscu. Standardy takie jak ISO/IEC 27001 kładą nacisk na zarządzanie ryzykiem związanym z utratą danych, a regularne kopie bezpieczeństwa są kluczowym elementem tego procesu. Warto również brać pod uwagę różne metody tworzenia kopii zapasowych, takie jak pełne, przyrostowe i różnicowe, aby optymalizować czas i miejsce przechowywania.

Pytanie 32

Który z protokołów zapewnia bezpieczne połączenie między klientem a witryną internetową banku, zachowując prywatność użytkownika?

A. SFTP (SSH File Transfer Protocol)
B. FTPS (File Transfer Protocol Secure)
C. HTTP (Hypertext Transfer Protocol)
D. HTTPS (Hypertext Transfer Protocol Secure)
HTTPS (Hypertext Transfer Protocol Secure) jest protokołem, który zapewnia bezpieczne połączenie między klientem a serwerem, co jest szczególnie istotne w kontekście bankowości internetowej. W porównaniu do podstawowego protokołu HTTP, HTTPS stosuje warstwę bezpieczeństwa opartą na protokołach SSL (Secure Sockets Layer) lub TLS (Transport Layer Security). Dzięki temu przesyłane dane są szyfrowane, co uniemożliwia ich przechwycenie przez osoby trzecie. W praktyce oznacza to, że podczas logowania się do banku, dane takie jak hasła i numery kont są chronione. Wiele przeglądarek internetowych wyświetla także symbol kłódki obok adresu URL, co informuje użytkowników o tym, że połączenie jest zabezpieczone. Przy korzystaniu z usług bankowości online, odnalezienie adresu URL zaczynającego się od 'https://' jest kluczowe, aby upewnić się, że transakcje są dokonywane w bezpiecznym środowisku. Korzystanie z HTTPS jest obecnie standardem w branży i jest rekomendowane przez organizacje zajmujące się bezpieczeństwem sieciowym.

Pytanie 33

Aby wymusić na użytkownikach lokalnych systemów z rodziny Windows Server regularną zmianę haseł oraz stosowanie haseł o odpowiedniej długości, które spełniają kryteria złożoności, należy ustawić

A. zasady blokady konta w zasadach grupowych
B. zasady haseł w lokalnych zasadach zabezpieczeń
C. parametry konta użytkownika w narzędziu zarządzania komputerem
D. konta użytkowników w Ustawieniach
Odpowiedź "zasady haseł w zasadach zabezpieczeń lokalnych" jest poprawna, ponieważ to w tym miejscu można skonfigurować wymogi dotyczące złożoności haseł oraz okresowej zmiany haseł dla kont użytkowników w systemach Windows Server. Umożliwia to administratorom kontrolowanie polityki haseł, co jest kluczowym elementem zabezpieczeń w środowiskach IT. Przykładowo, można ustalić minimalną długość hasła, wymusić użycie znaków specjalnych, cyfr oraz wielkich liter, co znacząco zwiększa odporność na ataki brute-force. W dobrych praktykach bezpieczeństwa IT, takich jak standardy NIST, podkreśla się znaczenie silnych haseł oraz regularnej ich zmiany. Dzięki odpowiednim ustawieniom w zasadach zabezpieczeń lokalnych można również wprowadzić blokady konta po kilku nieudanych próbach logowania, co dodatkowo zwiększa bezpieczeństwo. To podejście jest zgodne z politykami bezpieczeństwa wielu organizacji, które mają na celu minimalizację ryzyka naruszeń danych.

Pytanie 34

Co nie wpływa na utratę z pamięci masowej HDD?

A. Sformatowanie partycji dysku.
B. Zniszczenie talerzy dysku.
C. Utworzona macierz dyskowa RAID 5.
D. Fizyczne uszkodzenie dysku.
Temat utraty danych z HDD wydaje się prosty, ale w praktyce daje spore pole do pomyłek. Zniszczenie talerzy dysku to najpoważniejszy przypadek fizycznego uszkodzenia – jeśli talerze zostaną porysowane, nadpalone czy zgniecione, to praktycznie nie ma szans na odzyskanie danych nawet przez specjalistyczne firmy. Z moich obserwacji wynika, że ludzie często mylą logiczne awarie z fizycznymi, ale w przypadku zniszczenia talerzy mamy klasyczną, nieodwracalną utratę. Podobnie jest z fizycznym uszkodzeniem dysku, czyli np. awarią głowic, silnika czy elektroniki – czasem odzyskanie danych się udaje, ale bywa to bardzo kosztowne i często niepełne. Sformatowanie partycji to z kolei przykład typowej awarii logicznej – dane są wtedy zazwyczaj oznaczane jako usunięte, a ich przywrócenie jest możliwe tylko do momentu nadpisania tych sektorów. W praktyce każdy administrator wie, że formatowanie bez backupu to ogromne ryzyko utraty cennych plików. Typowym błędem jest zakładanie, że w takich przypadkach dane są zawsze do odzyskania – niestety, nie zawsze to działa. Problem zaczyna się, kiedy brakuje pod ręką kopii zapasowej. Natomiast utworzenie macierzy RAID 5 nie prowadzi samo w sobie do utraty danych z pojedynczego HDD, wręcz przeciwnie – RAID 5 to rozwiązanie poprawiające bezpieczeństwo danych przez zastosowanie rozproszonego zapisu i sum kontrolnych. Ludzie czasem mylą pojęcia i zakładają, że każda zmiana w konfiguracji dysków to potencjalna strata, ale w rzeczywistości RAID 5 to przykład branżowej dobrej praktyki. Podsumowując, trzy pierwsze przypadki realnie wpływają na utratę danych z HDD, natomiast tylko RAID 5 jej nie powoduje, a wręcz przed nią chroni. Najlepiej zawsze stosować backupy i nie liczyć, że RAID czy odzyskiwanie po formacie rozwiążą wszystkie problemy.

Pytanie 35

Procesem nieodwracalnym, całkowicie uniemożliwiającym odzyskanie danych z dysku twardego, jest

A. zalanie dysku.
B. przypadkowe usunięcie plików.
C. zatarcie łożyska dysku.
D. zerowanie dysku.
Wiele osób sądzi, że zwykłe usunięcie plików z dysku oznacza ich nieodwracalne utracenie, lecz w rzeczywistości taki proces jedynie usuwa wskaźniki do danych w systemie plików. Fizycznie, pliki nadal istnieją na sektorach dysku i do momentu ich nadpisania można je dość łatwo odzyskać za pomocą popularnych narzędzi do odzyskiwania danych. Mechaniczna awaria, taka jak zatarcie łożyska dysku, co prawda uniemożliwia normalne korzystanie z urządzenia, ale dane wciąż pozostają zapisane na talerzach. Firmy specjalizujące się w odzyskiwaniu potrafią rozmontować dysk i odczytać te informacje w warunkach laboratoryjnych – miałem okazję widzieć takie przypadki, gdzie po poważnej awarii mechanicznej ludzie byli w szoku, że „martwy” dysk dalej zdradzał swoje sekrety. Zalanie nośnika również nie daje żadnej gwarancji trwałego zniszczenia danych – przy odpowiedniej wiedzy i sprzęcie możliwe jest nawet odzyskanie danych z nośnika po dłuższym kontakcie z wodą. Praktyka branżowa, zwłaszcza w firmach IT czy sektorze publicznym, jasno pokazuje, że jedynym pewnym sposobem na nieodwracalne usunięcie informacji jest kontrolowane, programowe nadpisanie całej powierzchni dysku – czyli właśnie zerowanie. Warto pamiętać, że korzystanie z półśrodków często prowadzi do poważnych naruszeń bezpieczeństwa danych, o czym przekonało się już wiele instytucji na świecie. Zamiast polegać na awariach czy przypadkowych usunięciach, lepiej zawsze stosować rozwiązania sprawdzone i zgodne z najlepszymi praktykami – a zerowanie właśnie takim sposobem jest.

Pytanie 36

Aktualizacja systemów operacyjnych to proces, którego głównym zadaniem jest

A. instalacja nowych aplikacji użytkowych.
B. zmniejszenie fragmentacji danych.
C. naprawa luk systemowych, które zmniejszają poziom bezpieczeństwa systemu.
D. obniżenie bezpieczeństwa danych użytkownika.
Aktualizacje systemu operacyjnego to jeden z takich tematów, który wydaje się nudny, a jest naprawdę kluczowy. Główna idea behind tego procesu to właśnie usuwanie luk bezpieczeństwa – czyli tzw. patchowanie dziur, przez które cyberprzestępcy mogliby przejąć kontrolę nad naszym komputerem, wykradać dane albo zainfekować sprzęt szkodliwym oprogramowaniem. Z mojego doświadczenia wynika, że większość ataków na systemy informatyczne polega właśnie na wykorzystywaniu niezałatanych błędów. Praktycznym przykładem może być atak ransomware, który rozprzestrzenia się przez znane luki w Windows – odpowiednia aktualizacja systemu praktycznie eliminuje ten problem. Zresztą, nawet największe firmy na świecie, jak Microsoft czy Apple, zalecają regularne aktualizowanie systemów, bo to standard branżowy, właściwie podstawa bezpieczeństwa w każdej firmie i u użytkowników domowych. Tak naprawdę, aktualizacje oprócz łatania dziur często przynoszą też poprawki wydajności i czasem nowe funkcje, ale ochrona przed zagrożeniami to jest absolutna podstawa. Zawsze lepiej poświęcić chwilę na update niż później godzinami walczyć ze skutkami ataku. W IT mówi się, że człowiek jest najsłabszym ogniwem, ale nieaktualny system to zaraz za nami na podium. Moim zdaniem lepiej nie ryzykować – każda niezałatana luka to zaproszenie dla cyberprzestępców.

Pytanie 37

Aby w edytorze Regedit przywrócić stan rejestru systemowego za pomocą wcześniej utworzonej kopii zapasowej, należy użyć funkcji

A. Importuj
B. Eksportuj
C. Kopiuj nazwę klucza.
D. Załaduj gałąź rejestru.
Wiele osób podczas pracy z edytorem rejestru może przez pomyłkę wybrać nieodpowiednią funkcję, myśląc, że w ten sposób przywróci stan rejestru. Funkcja „Eksportuj” służy nie do przywracania, ale do tworzenia kopii zapasowej – pozwala zapisać wybraną gałąź lub cały rejestr do pliku .reg. To jest trochę jak robienie zdjęcia tego, co mamy obecnie w rejestrze, natomiast nie daje możliwości cofnięcia zmian, jeśli coś pójdzie źle. Tylko plik utworzony przez eksport może być później zaimportowany, ale sam eksport nie przywraca żadnych danych do rejestru. „Kopiuj nazwę klucza” to bardzo przydatne narzędzie dla administratorów, gdy chcą szybko przekleić ścieżkę do konkretnego klucza, chociażby do dokumentacji, skryptów czy zapytań technicznych – jednak nie ma to nic wspólnego z operacjami na zawartości rejestru. Z kolei „Załaduj gałąź rejestru” jest używane w bardzo specyficznych sytuacjach, głównie podczas pracy offline z plikami rejestru innego systemu (na przykład podczas naprawy uszkodzonego systemu z zewnętrznego środowiska). Pozwala to tymczasowo dołączyć plik hive do rejestru aktywnej instancji Windows, ale nie nadaje się do typowego przywracania ustawień z kopii zapasowej. Często spotykam się z opinią, że załaduj gałąź jest „lekiem na wszystko”, ale to trochę przesada i w codziennych zadaniach administracyjnych ta funkcja raczej się nie pojawia. Podsumowując: tylko „Importuj” bezpośrednio służy do przywracania rejestru z wcześniej przygotowanej kopii, a reszta opcji ma zupełnie inne zastosowania. Mylenie tych funkcji prowadzi często do strat czasu lub co gorsza – utraty danych, dlatego warto dobrze rozumieć ich przeznaczenie i używać zgodnie z dokumentacją oraz dobrymi praktykami Microsoft.

Pytanie 38

Do wykonania obrazu dysku twardego można użyć programu

A. SpeedFan
B. Digital Image Recovery
C. HW Monitor
D. Acronis True Image
Temat wykonywania obrazów dysków twardych bywa mylący, szczególnie jeśli patrzy się tylko po nazwie programu albo jego popularności w internetowych poradnikach. Digital Image Recovery to program do odzyskiwania utraconych zdjęć i plików multimedialnych, ale on nie potrafi zrobić pełnego obrazu dysku – raczej próbuje uratować pojedyncze pliki po przypadkowym skasowaniu lub awarii karty pamięci. To zupełnie inna funkcjonalność niż backup całościowy. Z tego co zauważyłem, wielu uczniów myli te dwa pojęcia, bo oba dotyczą danych i mają w nazwie „image”. Z kolei HW Monitor i SpeedFan to aplikacje, które służą do monitoringu sprzętu – HW Monitor pokazuje temperatury, napięcia i prędkości wentylatorów, a SpeedFan dodatkowo pozwala sterować obrotami wentylatorów i odczytywać SMART dysków, ale ani jeden, ani drugi nie mają narzędzi do robienia backupów czy obrazów dysków. To są programy stricte diagnostyczno-monitorujące, użyteczne w rozwiązywaniu problemów z przegrzewaniem się lub awarią sprzętu, ale zupełnie nieprzydatne w kontekście bezpieczeństwa danych czy ich odzyskiwania w całości. Typowym błędem myślowym jest tutaj utożsamianie narzędzi do odzysku lub monitoringu z narzędziami do backupu systemowego – to dwie różne kategorie oprogramowania i warto mieć tę różnicę w głowie, bo tylko specjalistyczne programy takie jak Acronis True Image umożliwiają wykonanie kompletnego obrazu dysku zgodnie z dobrymi praktykami branżowymi.

Pytanie 39

Najefektywniejszym zabezpieczeniem danych firmy, której siedziby znajdują się w różnych, odległych od siebie lokalizacjach, jest zastosowanie

A. kopii przyrostowych.
B. kopii analogowych.
C. backupu w chmurze firmowej.
D. kompresji strategicznych danych.
Backup w chmurze firmowej to aktualnie najbardziej praktyczne i nowoczesne rozwiązanie dla firm, które mają biura rozrzucone po różnych miejscach, nawet na różnych kontynentach. Chodzi tu głównie o to, że dane są przechowywane w bezpiecznych, profesjonalnych centrach danych, najczęściej w kilku lokalizacjach jednocześnie, więc nawet jeśli w jednym miejscu dojdzie do awarii lub katastrofy, to kopie danych są dalej dostępne. Z mojego doświadczenia wynika, że chmura daje też elastyczność – można łatwo ustalić poziomy dostępu, szyfrować pliki czy ustawić automatyczne harmonogramy backupów. To jest zgodne z zasadą 3-2-1, którą poleca większość specjalistów od bezpieczeństwa IT: trzy kopie danych, na dwóch różnych nośnikach, jedna poza siedzibą firmy. Dodatkowo zdalny dostęp znacznie przyspiesza odzyskiwanie informacji po awarii i obniża koszty związane z tradycyjną infrastrukturą IT. Moim zdaniem to też mniej stresu dla administratora – nie trzeba ręcznie przenosić dysków czy taśm, wszystko jest zautomatyzowane i dobrze monitorowane. Warto dodać, że dobre chmurowe rozwiązania oferują zaawansowane mechanizmy szyfrowania, a także zgodność z normami RODO czy ISO 27001 i to jest dziś, zwłaszcza w większych organizacjach, wręcz wymagane.

Pytanie 40

Który rodzaj kopii zapasowej należy wybrać, aby wykonać przyrostową kopię danych?

A. differential
B. incremental
C. mirror
D. full
W temacie kopii zapasowych bardzo łatwo się pomylić, bo nazwy typów backupów brzmią podobnie, a różnice są dość techniczne. Żeby dobrze zrozumieć, dlaczego poprawna odpowiedź to „incremental”, warto przejść przez pozostałe możliwości i zobaczyć, co one tak naprawdę robią. Kopia typu full to pełna kopia zapasowa wszystkich wybranych danych, niezależnie od tego, czy się zmieniły, czy nie. Jest podstawą całej strategii backupu, bo to od niej zaczyna się większość harmonogramów. Jednak pełna kopia nie jest przyrostowa z definicji – ona za każdym razem kopiuje wszystko od zera. W praktyce oznacza to duże zużycie miejsca i długi czas wykonywania, dlatego w firmowych środowiskach nie robi się jej codziennie, tylko np. raz w tygodniu lub rzadziej. Częsty błąd myślowy jest taki: skoro full zawiera wszystko, to „na pewno obejmuje też przyrost”, więc może jest to kopia przyrostowa. Niestety, to tak nie działa – przyrostowa kopia zawsze odnosi się do zmian względem poprzedniego backupu, a nie do całości. Kopia typu mirror to coś innego niż klasyczny backup. To bardziej bieżące odwzorowanie źródła na drugi dysk lub zasób, często 1:1. Jeśli coś usuniesz ze źródła, zwykle zostanie to też usunięte z kopii lustrzanej. Dlatego mirror nadaje się do redundancji lub wysokiej dostępności, ale słabo się sprawdza jako właściwa kopia zapasowa z punktu widzenia bezpieczeństwa – nie chroni przed błędami użytkownika czy ransomware w taki sposób, jak kopie wersjonowane. Differential, czyli kopia różnicowa, zapisuje wszystkie zmiany w stosunku do ostatniej kopii pełnej, ale nie względem poprzedniej kopii różnicowej. To bardzo częsta pułapka: wiele osób myli differential z incremental, bo oba typy nie kopiują wszystkiego. Różnica jest kluczowa – differential rośnie z każdym dniem, bo zbiera wszystkie zmiany od ostatniego full, natomiast incremental bierze tylko to, co się zmieniło od poprzedniego backupu (pełnego lub przyrostowego). Z technicznego punktu widzenia tylko incremental spełnia ścisłą definicję kopii przyrostowej. Dobre praktyki branżowe mówią wprost: jeśli mówimy o przyrostowej kopii zapasowej, mamy na myśli typ „incremental”, a nie full, mirror czy differential.