Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 16 kwietnia 2026 14:41
  • Data zakończenia: 16 kwietnia 2026 14:52

Egzamin zdany!

Wynik: 26/40 punktów (65,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Sieci lokalne o architekturze klient-serwer cechują się tym, że

A. żaden z komputerów nie pełni funkcji dominującej w stosunku do innych.
B. wszystkie komputery w sieci mają równorzędny status.
C. istnieje jeden dedykowany komputer, który udostępnia zasoby w sieci.
D. wszystkie komputery klienckie mogą korzystać z zasobów innych komputerów.
W modelu sieci lokalnych, w którym każdy komputer jest równoprawny z pozostałymi, mamy do czynienia z architekturą typu peer-to-peer. W takim modelu, wszystkie urządzenia mają równy status i mogą zarówno udostępniać, jak i pobierać zasoby, co prowadzi do trudności w zarządzaniu i zabezpieczaniu zasobów. Ta koncepcja może prowadzić do dezorganizacji, ponieważ brak centralnego zarządzania utrudnia utrzymanie porządku i kontroli dostępu. W sytuacji, gdy żaden komputer nie pełni roli nadrzędnej, zyskujemy większą elastyczność, lecz kosztem wydajności oraz bezpieczeństwa. Przekłada się to na szereg problemów, takich jak trudności w aktualizacji oprogramowania czy synchronizacji danych, ponieważ każda zmiana musi być przeprowadzona na każdym komputerze z osobna. Kolejnym błędem w myśleniu jest przekonanie, że wszystkie komputery klienckie mogą w pełni korzystać z zasobów innych komputerów. W praktyce, w architekturze klient-serwer, dostęp do zasobów jest ściśle kontrolowany przez serwer, co zapewnia bezpieczeństwo i właściwe zarządzanie danymi. Warto zaznaczyć, że w modelu peer-to-peer mogą występować problemy z wydajnością, zwłaszcza przy dużej liczbie użytkowników, co nie jest problemem w dobrze zorganizowanej sieci klient-serwer, gdzie serwer jest zoptymalizowany do obsługi wielu jednoczesnych połączeń.

Pytanie 2

Która z kopii w trakcie archiwizacji plików pozostawia ślad archiwizacji?

A. Całkowita
B. Różnicowa
C. Przyrostowa
D. Zwykła
Wybór kopii normalnej, całkowitej lub przyrostowej w kontekście archiwizacji plików często prowadzi do mylnego rozumienia mechanizmów przechowywania danych. Kopia normalna jest pełnym zbiorem danych w danym momencie, co oznacza, że zawiera wszystkie pliki. Chociaż jest to podejście bardzo proste, ma wady, ponieważ każda operacja wymaga znacznej ilości czasu i przestrzeni dyskowej. Przyrostowa kopia zapasowa, z drugiej strony, zapisuje tylko te zmiany, które zaszły od ostatniej kopii zapasowej, co czyni ją efektywną, ale nie oznacza pozostawienia znacznika archiwizacji. Z kolei kopia całkowita archiwizuje wszystkie dane, co w praktyce wystarcza do zachowania ich integralności, ale również generuje duże obciążenie dla systemu. W związku z tym, wiele osób myli te różne metody, nie zdając sobie sprawy z ich fundamentalnych różnic. Kluczowym błędem jest założenie, że każda kopia może pełnić tę samą rolę, co prowadzi do nieefektywności w zarządzaniu danymi. W branży IT, zrozumienie tych różnic jest kluczowe dla skutecznego zarządzania danymi oraz zapewnienia ich bezpieczeństwa, a także zgodności z najlepszymi praktykami archiwizacji.

Pytanie 3

Jeżeli w konfiguracji karty graficznej zostanie wybrane odświeżanie obrazu większe od zalecanego, monitor CRT spełniający normy TCO 99

A. nie wyłączy się, wyświetli czarny ekran
B. może ulec uszkodzeniu
C. nie wyłączy się, jedynie wyświetli fragment obrazu
D. przejdzie w tryb uśpienia lub wyświetli okno z powiadomieniem
Wybór odświeżania obrazu większego od zalecanego przez producenta monitora CRT może skutkować przejściem urządzenia w stan uśpienia lub wyświetleniem okna informacyjnego z komunikatem. Monitory CRT, które spełniają normy TCO 99, są zaprojektowane z myślą o ochronie użytkowników i samego sprzętu przed szkodliwymi skutkami zbyt dużego odświeżania. W sytuacji, gdy sygnał od karty graficznej nie jest zgodny z tym, co monitor może obsłużyć, monitor rozpoznaje problem i podejmuje działania ochronne. Przykładem może być sytuacja, w której użytkownik ustawia odświeżanie na 100 Hz, podczas gdy maksymalna wartość obsługiwana przez monitor wynosi 85 Hz. Monitor, zamiast generować zniekształcenia obrazu, które mogłyby prowadzić do uszkodzenia, przechodzi w stan uśpienia, co jest zgodne z zasadami projektowania zabezpieczeń. Takie podejście nie tylko chroni sprzęt, ale także zwiększa bezpieczeństwo użytkownika, minimalizując ryzyko długotrwałego eksponowania na nieprzyjemne efekty wizualne. Właściwe ustawienia odświeżania są kluczowe dla stabilności obrazu oraz komfortu pracy, dlatego zawsze warto dostosować je do specyfikacji monitora.

Pytanie 4

Na ilustracji ukazano narzędzie systemu Windows 7 służące do

Ilustracja do pytania
A. tworzenia kopii systemu
B. konfiguracji ustawień użytkownika
C. przeprowadzania migracji systemu
D. rozwiązywania problemów z systemem
Narzędzie systemu Windows 7 pokazane na obrazku to sekcja Wygląd i personalizacja z Panelu sterowania. Jest to miejsce, gdzie użytkownik może konfigurować różnorodne ustawienia związane z interfejsem graficznym systemu. W ramach konfiguracji ustawień użytkownika można zmieniać kompozycje systemowe, co pozwala na dostosowanie wyglądu okien, kolorów, dźwięków, a nawet kursorów. Zmiana tła pulpitu, która jest częścią tego narzędzia, pozwala na personalizację ekranu głównego, co ma znaczenie szczególnie w środowiskach biurowych, gdzie estetyka i ergonomia pracy są kluczowe. Dopasowanie rozdzielczości ekranu wpływa na jakość wyświetlanego obrazu i może być istotne dla wydajności pracy, szczególnie w aplikacjach wymagających precyzyjnego odwzorowania grafiki. Korzystanie z tych funkcji zgodne jest z dobrymi praktykami administracyjnymi, które zakładają stworzenie użytkownikowi komfortowego środowiska pracy. Zrozumienie i umiejętność obsługi tych ustawień są kluczowe dla osób zajmujących się wsparciem technicznym oraz administracją systemów.

Pytanie 5

Instalacja systemów Linux oraz Windows 7 odbyła się bez żadnych problemów. Systemy zainstalowały się prawidłowo z domyślnymi konfiguracjami. Na tym samym komputerze, przy tej samej specyfikacji, podczas instalacji systemu Windows XP pojawił się komunikat o braku dysków twardych, co może sugerować

A. brak sterowników
B. uszkodzenie logiczne dysku twardego
C. nieodpowiednio ustawione bootowanie urządzeń
D. nieprawidłowe ułożenie zworek na dysku twardym
Brak sterowników w czasie instalacji systemu Windows XP jest najczęściej spotykaną przyczyną problemów z wykrywaniem dysków twardych. W przeciwieństwie do nowszych systemów operacyjnych, takich jak Windows 7, które posiadają wbudowane sterowniki dla współczesnych urządzeń, Windows XP może nie zawierać odpowiednich sterowników dla nowszych kontrolerów SATA lub RAID. W takim przypadku, gdy instalator systemu nie odnajduje dysków, użytkownicy powinni dostarczyć odpowiednie sterowniki za pomocą zewnętrznego nośnika, takiego jak pendrive, lub dyskietka. Dobrą praktyką przy instalacji starszych systemów operacyjnych jest posiadanie najnowszych sterowników dostarczanych przez producentów sprzętu. Warto również sprawdzić, czy w BIOSie komputera nie ma ustawień, które mogą wpływać na wykrywanie dysków, takich jak tryb pracy kontrolera SATA (np. IDE vs AHCI).

Pytanie 6

W systemie Windows, gdzie należy ustalić wymagania dotyczące złożoności hasła?

A. w panelu sterowania
B. w zasadach zabezpieczeń lokalnych
C. w autostarcie
D. w BIOS-ie
Wymagania dotyczące złożoności haseł w Windows ustalasz w zasadach zabezpieczeń lokalnych, które znajdziesz w narzędziu 'Zasady zabezpieczeń lokalnych' (z ang. secpol.msc). To narzędzie umożliwia administratorom definiowanie różnych zasad dotyczących bezpieczeństwa, w tym haseł. Przykładowo, możesz ustawić, że hasła muszą zawierać duże litery, cyfry i znaki specjalne. To naprawdę dobra praktyka, bo zwiększa bezpieczeństwo danych użytkowników. W kontekście regulacji jak RODO czy HIPAA ważne jest, żeby te zasady były dobrze skonfigurowane, aby chronić dane osobowe. Dobrze przemyślane zasady zabezpieczeń lokalnych mogą znacznie zmniejszyć ryzyko naruszenia bezpieczeństwa w organizacji, co w efekcie podnosi ogólny poziom zabezpieczeń systemu operacyjnego.

Pytanie 7

Aby odzyskać dane ze sformatowanego dysku twardego, należy wykorzystać program

A. RECUVA
B. CD Recovery Toolbox Free
C. CDTrack Rescue
D. Acronis True Image
Program RECUVA to naprawdę konkretne narzędzie do odzyskiwania danych z nośników takich jak dyski twarde, pendrive’y czy nawet karty pamięci. Z mojego doświadczenia wynika, że warto znać jego możliwości, bo w praktyce szkolnej czy na stażu w serwisie komputerowym nie raz miałem okazję widzieć, jak Recuva radzi sobie z plikami usuniętymi przypadkowo albo po wstępnym formatowaniu partycji. To narzędzie działa na zasadzie przeszukiwania wolnych sektorów dysku i odnajdywania pozostałości po plikach, które nie zostały nadpisane. Ważne, że program działa z różnymi systemami plików, np. FAT, exFAT czy NTFS – co jest standardem w branży, bo przecież nie zawsze wiemy, z jakim dyskiem przyjdzie nam pracować. Praktyka pokazuje, że odzyskiwanie danych trzeba zaczynać jak najszybciej po utracie plików, zanim system nadpisze je nowymi danymi. Recuva jest często polecany przez specjalistów od informatyki śledczej czy administratorów IT właśnie dlatego, że jest stosunkowo prosty i nie wymaga specjalistycznej wiedzy. No i jeszcze jedno – zgodnie z dobrymi praktykami, zawsze warto korzystać z narzędzi, które działają tylko w trybie odczytu na uszkodzonym dysku, żeby nie pogorszyć sytuacji. Recuva tę zasadę spełnia, więc to wybór zgodny z profesjonalnym podejściem do odzyskiwania danych.

Pytanie 8

Technologia opisana w systemach należących do rodziny Windows to

Jest to technologia obsługująca automatyczną konfigurację komputera PC i wszystkich zainstalowanych w nim urządzeń. Umożliwia ona rozpoczęcie korzystania z nowego urządzenia (na przykład karty dźwiękowej lub modemu) natychmiast po jego zainstalowaniu bez konieczności przeprowadzania ręcznej jego konfiguracji. Technologia ta jest implementowana w warstwach sprzętowej i systemu operacyjnego, a także przy użyciu sterowników urządzeń i BIOS-u.
A. Wywołanie systemowe
B. Hardware Abstraction Layer
C. File Allocation Table
D. Plug and Play
Plug and Play to naprawdę fajna technologia! Umożliwia ona szybkie i łatwe podłączanie nowych urządzeń do komputera z systemem Windows. Dzięki niej nie musisz się martwić o ręczne instalowanie sterowników, bo system sam od razu rozpozna nowe sprzęty, jak drukarki czy karty dźwiękowe. To według mnie spory plus, bo oszczędza czas i unika różnych błędów przy konfiguracji. Plug and Play działa w Windows od wersji 95, więc jest już dobrze znana i wspiera sporo różnych urządzeń. Kiedy na przykład podłączysz nową drukarkę, Windows sam zainstaluje potrzebne sterowniki, więc możesz od razu zacząć ją używać. Dzisiaj, kiedy mamy tyle różnych urządzeń, ta technologia jest naprawdę przydatna i daje dużą elastyczność, bo użytkownicy często montują i demontują różny sprzęt.

Pytanie 9

Jak nazywa się złącze wykorzystywane w sieciach komputerowych, pokazane na zamieszczonym obrazie?

Ilustracja do pytania
A. LC
B. ST
C. BNC
D. FC
Złącze BNC (Bayonet Neill-Concelman) jest powszechnie stosowane w sieciach komputerowych oraz systemach telekomunikacyjnych. Jego charakterystyczna budowa z mechanizmem bagnetowym umożliwia szybkie i pewne połączenie, co jest szczególnie ważne w zastosowaniach wymagających częstych podłączeń i odłączeń. Złącza BNC używane są głównie w starszych sieciach opartych na kablach koncentrycznych w standardzie 10BASE2, znanych jako Ethernet cienki. Zapewniają one stosunkowo niskie straty sygnału, co sprawia, że są także popularne w systemach monitoringu wideo i transmisji sygnałów analogowych. W zastosowaniach profesjonalnych złącza BNC są zgodne z normami branżowymi dotyczącymi impedancji 50 omów dla transmisji danych oraz 75 omów w systemach wideo. Ich prostota i niezawodność czynią je wyborem preferowanym w wielu scenariuszach wymagających szybkiej instalacji i minimalnej obsługi technicznej. Dzięki trwałemu materiałowi złącza te charakteryzują się długowiecznością oraz odpornością na uszkodzenia mechaniczne, co jest istotne w środowiskach przemysłowych oraz zewnętrznych.

Pytanie 10

Aby sprawdzić dysk twardy w systemie Linux na obecność uszkodzonych sektorów, użytkownik może zastosować program

A. chkdisk
B. fsck
C. defrag
D. scandisk
W kontekście sprawdzania dysku twardego pod kątem uszkodzonych sektorów, kluczowe jest zrozumienie, które narzędzia są przeznaczone do takich zadań. Odpowiedzi takie jak chkdisk, defrag i scandisk są narzędziami, które są specyficzne dla systemów Windows. Chkdisk, na przykład, jest używany w systemie Windows do sprawdzania błędów systemu plików i naprawiania ich, ale nie jest dostępny ani nie działa w systemach Linux. Podobnie, defrag (defragmentacja) jest narzędziem optymalizacyjnym, które porządkuje dane na dysku, aby poprawić wydajność, ale nie sprawdza integralności systemu plików ani uszkodzonych sektorów. Scandisk również odnosi się do narzędzia Windows, które jest zbliżone do chkdisk, a jego funkcjonalność nie jest dostępna w systemach Linux. Użytkownicy często mylą te narzędzia z fsck, myśląc, że są one uniwersalne, co prowadzi do nieporozumień. Właściwe podejście do zarządzania dyskami w systemie Linux wymaga użycia dedykowanych narzędzi, takich jak fsck, które są dostosowane do specyfiki systemów plików w tych środowiskach, co jest zgodne z zaleceniami branżowymi dotyczącymi zarządzania danymi i bezpieczeństwa systemów.

Pytanie 11

Impulsator pozwala na diagnozowanie uszkodzonych układów logicznych komputera między innymi poprzez

A. sprawdzenie stanu wyjściowego układu
B. analizę stanów logicznych obwodów cyfrowych
C. wprowadzenie na wejście układu stanu wysokiego
D. kalibrację mierzonych parametrów elektrycznych
Odczytanie stanu wyjściowego układu nie jest funkcją impulsatora, lecz jest zadaniem narzędzi pomiarowych, takich jak multimetru lub oscyloskopu. Te urządzenia pozwalają na bezpośredni pomiar napięcia na wyjściu układów logicznych, jednak nie są skonstruowane do wprowadzania sygnałów na wejście. Podawanie na wejście układu stanu wysokiego jest kluczowe dla testów, ale samo odczytanie stanu wyjściowego nie dostarcza informacji o wydajności układu w reakcji na zmiany sygnałów. Kalibracja mierzonych wielkości elektrycznych dotyczy raczej precyzyjnych pomiarów parametrów elektrycznych, a nie testowania logiki układów. Kalibracja jest procesem dostosowywania urządzenia pomiarowego, by uzyskać dokładne wyniki, ale nie ma związku z bezpośrednim testowaniem układów logicznych. Badanie stanów logicznych obwodów cyfrowych jest ogólnym określeniem działań związanych z analizą, lecz nie odnosi się bezpośrednio do funkcji impulsatora. Typowym błędem jest mylenie funkcji testowania z pomiarem, co prowadzi do nieprawidłowych wniosków dotyczących zastosowania impulsatorów. W rzeczywistości, impulsator koncentruje się na wprowadzaniu sygnałów, a nie na pasywnym obserwowaniu wyjść układów.

Pytanie 12

Jaką funkcjonalność oferuje program tar?

A. ustawianie karty sieciowej
B. archiwizowanie plików
C. administrowanie pakietami
D. pokazywanie listy aktualnych procesów
Program tar (tape archive) jest narzędziem, które umożliwia archiwizowanie plików, co oznacza, że potrafi łączyć wiele plików w jeden plik archiwum, często stosowany w celu łatwiejszego zarządzania danymi oraz ich przenoszenia. Jest to niezwykle przydatne w systemach Unix i Linux, gdzie użytkownicy często muszą wykonywać kopie zapasowe, przesyłać pliki przez sieć lub przechowywać dane w sposób zorganizowany. Narzędzie tar obsługuje różne formaty kompresji, co pozwala na zmniejszenie rozmiaru archiwum, a także na ich szybsze przesyłanie i przechowywanie. W praktyce, archiwizacja za pomocą tar jest standardową procedurą, stosowaną w wielu firmach do zabezpieczania danych krytycznych. Na przykład, archiwizacja kodu źródłowego projektu przed jego wdrożeniem pozwala na łatwe przywrócenie wcześniejszej wersji w razie potrzeby. Dodatkowo, tar wspiera operacje takie jak rozpakowywanie archiwów, co czyni go wszechstronnym narzędziem do zarządzania plikami. W branży IT, zarządzanie danymi i archiwizacja stanowią kluczowy element strategii w zakresie bezpieczeństwa danych oraz ciągłości biznesowej.

Pytanie 13

Który z protokołów służy do weryfikacji poprawności połączenia pomiędzy dwoma hostami?

A. RIP (Routing Information Protocol)
B. ICMP (Internet Control Message Protocol)
C. UDP (User DatagramProtocol)
D. RARP (ReverseA ddress Resolution Protocol)
UDP (User Datagram Protocol) jest protokołem transportowym, który umożliwia przesyłanie danych w sposób niepołączeniowy. Chociaż pozwala na szybkie przesyłanie informacji, nie oferuje mechanizmów sprawdzania poprawności połączenia ani potwierdzania odbioru danych. Użytkownicy mogą zakładać, że UDP jest odpowiedni do diagnostyki sieci, jednak w rzeczywistości nie dostarcza on informacji o stanie połączenia ani o błędach w transmisji. Z drugiej strony, RIP (Routing Information Protocol) jest protokołem używanym do wymiany informacji o trasach w sieciach komputerowych, a jego głównym celem jest ustalenie najlepszej drogi do przesyłania danych. Nie jest on zaprojektowany do sprawdzania osiągalności hostów ani ich komunikacji. RARP (Reverse Address Resolution Protocol) z kolei służy do tłumaczenia adresów IP na adresy MAC, co jest całkowicie inną funkcją i nie ma związku z diagnozowaniem połączeń. Typowe błędy myślowe prowadzące do błędnych odpowiedzi często związane są z nieodróżnieniem funkcji protokołów transportowych i kontrolnych. Użytkownicy mogą mylić UDP z ICMP, nie dostrzegając, że ICMP jest odpowiedzialny za operacje kontrolne, a UDP za przesył danych. Właściwe zrozumienie ról poszczególnych protokołów jest kluczowe dla efektywnego zarządzania i diagnozowania problemów w sieciach komputerowych.

Pytanie 14

Co robi polecenie Gpresult?

A. prezentuje wynikowy zbiór zasad dla użytkownika lub komputera
B. resetuje domyślne zasady grup dla kontrolera
C. pokazuje szczegóły dotyczące kontrolera
D. modyfikuje konfigurację zasad grupy
Wybór odpowiedzi dotyczącej aktualizacji ustawień zasad grupy, informacji o kontrolerze lub przywracania domyślnych zasad grup dla kontrolera jest niepoprawny, ponieważ każde z tych podejść nie odzwierciedla rzeczywistego działania polecenia Gpresult. Zasadniczo, aktualizacja zasad grupy odbywa się przez polecenie gpupdate, które wymusza synchronizację ustawień z kontrolerem domeny. Natomiast Gpresult nie zmienia żadnych ustawień; jego funkcja polega na prezentowaniu wyników, które już zostały zaaplikowane. Informacje o kontrolerze są dostępne przez inne komendy, takie jak nltest lub dsquery, które dostarczają szczegółowych danych dotyczących stanu i konfiguracji kontrolera domeny, ale nie są to funkcje Gpresult. Z kolei przywracanie domyślnych zasad grup dla kontrolera to proces, który wymaga zastosowania narzędzi administracyjnych do modyfikacji ustawień w Active Directory, a nie działania Gpresult. Typowym błędem myślowym przy wyborze takich odpowiedzi jest pomylenie narzędzi do zarządzania politykami z tymi, które tylko raportują ich stan. Kluczowe jest zrozumienie, że Gpresult to narzędzie diagnostyczne, a nie konfiguracyjne, co czyni jego rolę w zarządzaniu politykami grupowymi fundamentalnie inną.

Pytanie 15

Jakie jest najbardziej typowe dla topologii gwiazdy?

A. niskie zużycie kabli
B. zatrzymanie sieci wskutek awarii terminala
C. trudności w lokalizacji usterek
D. centralne zarządzanie siecią
Topologia gwiazdy charakteryzuje się tym, że wszystkie węzły sieci są podłączone do centralnego punktu, którym najczęściej jest przełącznik lub koncentrator. Taki układ umożliwia łatwe zarządzanie siecią, ponieważ centralny punkt kontroluje wszystkie połączenia oraz komunikację pomiędzy urządzeniami. W przypadku awarii jednego z terminali, nie wpływa to na działanie pozostałych węzłów, co zwiększa niezawodność całego systemu. Przykładem zastosowania topologii gwiazdy jest sieć lokalna (LAN) w biurze, gdzie wszystkie komputery są podłączone do jednego switcha. Taki sposób organizacji sieci pozwala na łatwą lokalizację problemów, ponieważ można szybko zidentyfikować uszkodzenie konkretnego urządzenia bez wpływu na resztę sieci. Zgodnie z najlepszymi praktykami branżowymi, topologia gwiazdy jest często preferowana w nowoczesnych instalacjach sieciowych, ponieważ łączy w sobie wydajność, łatwość w zarządzaniu oraz bezpieczeństwo.

Pytanie 16

Jakie miejsce nie powinno być wykorzystywane do przechowywania kopii zapasowych danych z dysku twardego komputera?

A. Inna partycja tego samego dysku
B. Nośnik USB
C. Zewnętrzny dysk
D. Płyta CD/DVD
Wybór opcji 'Inna partycja dysku tego komputera' jako miejsca przechowywania kopii bezpieczeństwa danych jest niewłaściwy, ponieważ w przypadku awarii głównego dysku twardego, cała zawartość, w tym dane na innych partycjach, może zostać utracona. Standardowe praktyki związane z tworzeniem kopii zapasowych opierają się na zasadzie, że kopie powinny być przechowywane w lokalizacjach fizycznie oddzielonych od oryginalnych danych. Przykładowo, stosowanie pamięci USB, płyt CD/DVD czy zewnętrznych dysków twardych to sprawdzone metody, które zapewniają ochronę przed utratą danych. Zewnętrzny dysk twardy, jako nośnik, zapewnia nie tylko mobilność, ale także możliwość korzystania z różnych standardów przechowywania danych, takich jak RAID, co zwiększa bezpieczeństwo kopii. W praktyce, zaleca się wdrożenie strategii 3-2-1, która zakłada posiadanie trzech kopii danych, na dwóch różnych nośnikach, z jedną kopią przechowywaną w chmurze lub w innej lokalizacji fizycznej. Dzięki temu, nawet w przypadku całkowitego usunięcia danych z głównego dysku, istnieje możliwość ich łatwego odzyskania.

Pytanie 17

W systemie Linux, co oznacza znak "~" w ścieżce dostępu do plików?

A. Katalog root
B. Katalog główny
C. Katalog tymczasowy
D. Katalog domowy użytkownika
W systemie Linux istnieje kilka specjalnych symboli, które mają swoje specyficzne znaczenie w kontekście ścieżek plików. Znak "~" jest jednym z nich i odnosi się do katalogu domowego użytkownika, ale istnieje pokusa, by mylić go z innymi, bardziej ogólnymi katalogami. Katalog główny, oznaczony jako "/", jest fundamentem struktury systemu plików w Linuxie. To miejsce, od którego zaczynają się wszystkie inne katalogi, takie jak "/bin", "/etc", czy "/var". Jest to mylne, gdyż "~" nie odnosi się do tej lokalizacji, ale do bardziej spersonalizowanego miejsca. Z kolei katalog tymczasowy, często oznaczany jako "/tmp", jest używany do przechowywania tymczasowych plików, które mogą być usunięte po restarcie systemu lub po określonym czasie. Nie ma on żadnego związku z "~", który jest stałym punktem odniesienia dla każdego użytkownika. Katalog root, oznaczony jako "/root", jest katalogiem domowym użytkownika root, czyli superużytkownika systemu. Choć jest to katalog domowy, to specyficzny dla tylko jednego użytkownika, root, a nie dla bieżącego użytkownika, dlatego "~" nie odnosi się do niego, chyba że jesteśmy zalogowani jako root. Rozróżnianie tych ścieżek jest kluczowe dla zrozumienia, jak działa system plików w Linuxie i jak możemy efektywnie nawigować i zarządzać plikami.

Pytanie 18

Jakie polecenie należy wydać, aby skonfigurować statyczny routing do sieci 192.168.10.0?

A. route 192.168.10.1 MASK 255.255.255.0 192.168.10.0 5
B. static route 92.168.10.1 MASK 255.255.255.0 192.168.10.0 5
C. route ADD 192.168.10.0 MASK 255.255.255.0 192.168.10.1 5
D. static 192.168.10.0 MASK 255.255.255.0 192.168.10.1 5 route
Wszystkie inne odpowiedzi zawierają błędne formy polecenia lub nieprawidłowe składnie, co prowadzi do niepoprawnej konfiguracji tras statycznych. Odpowiedź "route 192.168.10.1 MASK 255.255.255.0 192.168.10.0 5" sugeruje niepoprawną kolejność argumentów, gdyż pierwszym argumentem musi być adres sieci, a nie adres bramy. Z kolei opcja "static route 92.168.10.1 MASK 255.255.255.0 192.168.10.0 5" używa niepoprawnej składni, gdyż 'static route' nie jest uznawane za właściwe polecenie w wielu systemach operacyjnych, a ponadto użycie '92.168.10.1' wprowadza dodatkowy błąd - adres IP nie jest zgodny z zadaną siecią. Natomiast ostatnia odpowiedź, "static 192.168.10.0 MASK 255.255.255.0 192.168.10.1 5 route", ma złą konstrukcję i myli pojęcia. W rzeczywistości, 'static' nie jest samodzielnym poleceniem w kontekście konfigurowania tras, a błędne umiejscowienie słowa 'route' na końcu nie tylko utrudnia zrozumienie, ale również sprawia, że polecenie jest syntaktycznie niewłaściwe. Te niepoprawne podejścia często wynikają z braku zrozumienia struktury polecenia routingu oraz nieświadomości, że każda część polecenia ma ściśle określone miejsce i znaczenie. Właściwe zrozumienie i stosowanie syntaktyki poleceń routingu jest kluczowe dla utrzymania stabilności i efektywności sieci.

Pytanie 19

Ile maksymalnie podstawowych partycji możemy stworzyć na dysku twardym używając MBR?

A. 8
B. 26
C. 4
D. 24
W przypadku partycji podstawowych na dysku twardym wykorzystującym schemat partycjonowania MBR (Master Boot Record), maksymalna liczba, jaką możemy utworzyć, wynosi cztery. MBR jest standardowym schematem partycjonowania, który jest używany od dziesięcioleci i jest powszechnie stosowany w starszych systemach operacyjnych. W MBR każda partycja podstawowa zajmuje określoną przestrzeń na dysku i jest bezpośrednio adresowalna przez system operacyjny. W praktyce, aby utworzyć więcej niż cztery partycje, można zastosować dodatkową partycję rozszerzoną, która może zawierać wiele partycji logicznych. To podejście pozwala na elastyczność w zarządzaniu danymi, zwłaszcza w systemach, w których różne aplikacje wymagają odrębnych przestrzeni do przechowywania. Jest to zgodne z dobrymi praktykami, które zalecają wykorzystanie partycji logicznych do organizacji danych w sposób przejrzysty i uporządkowany. Ponadto, warto zaznaczyć, że MBR obsługuje dyski o pojemności do 2 TB i nie jest w stanie wykorzystać dużych pojemności nowszych dysków, co jest ograniczeniem, które z kolei prowadzi do rozważenia zastosowania GPT (GUID Partition Table) w nowoczesnych systemach.

Pytanie 20

Aby połączyć dwa przełączniki oddalone o 200 m i osiągnąć minimalną przepustowość 200 Mbit/s, jakie rozwiązanie należy zastosować?

A. światłowód
B. skrętkę STP
C. skrętkę UTP
D. kabel koncentryczny 50 Ω
Światłowód to świetny wybór, gdy chcemy połączyć dwa przełączniki na dystansie 200 m, zwłaszcza, że potrzebujemy minimalnej przepustowości 200 Mbit/s. W porównaniu do skrętki UTP czy STP, które mają ograniczenia do 100 m i są bardziej podatne na zakłócenia, światłowody pozwalają na przesył danych na znacznie większe odległości bez żadnych strat jakości sygnału. Co więcej, światłowody oferują dużo wyższą przepustowość, co jest mega ważne w miejscach z dużym ruchem, jak serwery czy biura z wieloma osobami. W praktyce coraz częściej widzimy, że technologie światłowodowe stają się standardem w sieciach LAN, szczególnie w aplikacjach, które potrzebują wysokiej wydajności i niezawodności, na przykład przy transmisji wideo czy w chmurze. Z tego co wiem, światłowody zgodne z normami IEEE 802.3 wspierają różne standardy, jak 100BASE-FX czy 1000BASE-LX, co daje dużą elastyczność w rozwoju sieci.

Pytanie 21

Jakie porty powinny być odblokowane w ustawieniach firewalla na komputerze, na którym działa usługa serwera WWW?

A. 20 i 21
B. 80 i 1024
C. 20 i 1024
D. 80 i 443
Odpowiedź 80 i 443 jest poprawna, ponieważ port 80 jest standardowym portem dla protokołu HTTP, który jest używany do przesyłania stron internetowych, a port 443 jest standardowym portem dla protokołu HTTPS, który zapewnia bezpieczne połączenia za pomocą szyfrowania SSL/TLS. Aby serwer sieci Web mógł prawidłowo funkcjonować i odpowiadać na żądania z przeglądarek internetowych, konieczne jest, aby te porty były otwarte w zaporze sieciowej. W praktyce, jeśli porty te są zablokowane, użytkownicy będą mieli problem z dostępem do stron internetowych, co skutkuje utratą ruchu i potencjalnych klientów. Większość współczesnych aplikacji internetowych korzysta z HTTPS dla zapewnienia bezpieczeństwa, dlatego otwarcie portu 443 jest kluczowe w środowisku produkcyjnym. Dobre praktyki zalecają również monitorowanie dostępności tych portów oraz stosowanie dodatkowych zabezpieczeń, takich jak firewall aplikacyjny oraz regularne aktualizacje oprogramowania serwera, aby zminimalizować ryzyko ataków.

Pytanie 22

Oprogramowanie, które często przerywa działanie przez wyświetlanie komunikatu o konieczności dokonania zapłaty, a które spowoduje zniknięcie tego komunikatu, jest dystrybuowane na podstawie licencji

A. crippleware
B. careware
C. nagware
D. greenware
Nagware to termin odnoszący się do oprogramowania, które regularnie przerywa działanie, wyświetlając komunikaty żądające zapłaty za licencję. Oprogramowanie to może w pewnym momencie zablokować dostęp do pełnej funkcjonalności, jeśli użytkownik nie zdecyduje się na uiszczenie opłaty. Przykłady nagware to aplikacje, które oferują pełne funkcje przez ograniczony czas, a następnie wprowadzają ograniczenia, dopóki użytkownik nie wykupi pełnej wersji. Warto zauważyć, że nagware różni się od innych typów oprogramowania, takich jak crippleware, które ogranicza funkcjonalność bez wyświetlania komunikatów o płatności. W branży technologicznej nagware jest często wykorzystywane w modelach freemium, gdzie użytkownik ma możliwość przetestowania produktu przed podjęciem decyzji o zakupie. Praktyki te są zgodne z podejściem do maksymalizacji wartości dla klienta, co jest kluczowe w strategiach marketingowych wielu firm, w tym producentów oprogramowania. Ta forma licencjonowania może być korzystna dla obu stron, pod warunkiem, że jest stosowana w przejrzysty sposób, co odzwierciedla dobre praktyki branżowe w zakresie zasadności i etyki w sprzedaży oprogramowania.

Pytanie 23

Kto jest odpowiedzialny za alokację czasu procesora dla konkretnych zadań?

A. System operacyjny
B. Pamięć RAM
C. Chipset
D. Cache procesora
System operacyjny jest kluczowym oprogramowaniem, które zarządza zasobami sprzętowymi komputera, w tym przydzielaniem czasu procesora do różnych zadań. Jego głównym zadaniem jest zapewnienie efektywnej i sprawnej komunikacji między sprzętem a aplikacjami, co obejmuje zarządzanie procesami, pamięcią i urządzeniami wejściowymi oraz wyjściowymi. Zarządzanie czasem procesora, nazywane również planowaniem procesów, odbywa się poprzez różne algorytmy, takie jak planowanie priorytetowe czy równoważenie obciążenia. Na przykład, w systemach operacyjnych Windows i Linux stosowane są różne strategie planowania, które dostosowują się do wymagań aplikacji, co pozwala na optymalne wykorzystanie dostępnych zasobów. Oprócz tego, systemy operacyjne implementują mechanizmy, które pozwalają na przełączanie kontekstu pomiędzy różnymi procesami, dzięki czemu użytkownik może jednocześnie uruchamiać wiele aplikacji. Dobrą praktyką w zarządzaniu procesami jest minimalizowanie czasu, w którym CPU jest nieaktywny, co poprawia wydajność systemu.

Pytanie 24

Jakie polecenie należy użyć w wierszu poleceń systemu Windows, aby utworzyć nowy katalog?

A. mv
B. md
C. dir
D. rmdir
Komenda 'md' w Windows to naprawdę fajne narzędzie do tworzenia nowych katalogów. W praktyce, jeśli chcesz zrobić folder o nazwie 'Dokumenty', wystarczy, że wpiszesz 'md Dokumenty' w wierszu poleceń. To się przydaje, zwłaszcza gdy masz dużo plików do ogarnięcia. Co więcej, 'md' działa na różnych wersjach Windows, więc nie musisz się martwić, że to nie zadziała na starszym sprzęcie. Z mojego doświadczenia, warto dbać o to, żeby nazwy katalogów były sensowne – to naprawdę ułatwia późniejsze szukanie. No i pamiętaj, że możesz też tworzyć złożone struktury folderów, na przykład 'md folder1\folder2', co jest super, gdy chcesz mieć wszystko dobrze poukładane.

Pytanie 25

Litera S w protokole FTPS oznacza zabezpieczenie danych podczas ich przesyłania poprzez

A. logowanie
B. autoryzację
C. szyfrowanie
D. uwierzytelnianie
Protokół FTPS (File Transfer Protocol Secure) to rozszerzenie standardowego protokołu FTP, które dodaje warstwę zabezpieczeń poprzez szyfrowanie przesyłanych danych. Litera 'S' oznacza, że wszystkie dane przesyłane pomiędzy klientem a serwerem są szyfrowane. Użycie szyfrowania chroni informacje przed nieautoryzowanym dostępem w trakcie transmisji, co jest kluczowe w kontekście bezpieczeństwa danych. W praktyce oznacza to, że nawet jeśli dane zostaną przechwycone przez złośliwego użytkownika, nie będą one czytelne bez odpowiedniego klucza szyfrującego. W branży IT stosuje się różne protokoły szyfrowania, takie jak SSL (Secure Sockets Layer) lub TLS (Transport Layer Security), które są powszechnie uznawane za standardy zabezpieczeń. Przy korzystaniu z FTPS, szczególnie w środowiskach, gdzie przesyłane są wrażliwe dane, jak dane osobowe czy informacje finansowe, szyfrowanie staje się niezbędnym elementem polityki bezpieczeństwa. Wdrożenie FTPS z odpowiednią konfiguracją szyfrowania jest zgodne z najlepszymi praktykami w zakresie ochrony danych, co czyni go godnym zaufania rozwiązaniem do bezpiecznej wymiany plików.

Pytanie 26

Symbol graficzny przedstawiony na ilustracji oznacza jaką bramkę logiczną?

Ilustracja do pytania
A. OR
B. AND
C. NAND
D. NOR
Zrozumienie działania bramek logicznych jest kluczowe dla projektowania układów cyfrowych. W tym pytaniu trzy z czterech odpowiedzi dotyczą bramek które są często mylone z bramką AND. Bramka NAND jest odwrotnością bramki AND i działa na zasadzie że wyjście jest w stanie logicznym 0 tylko wtedy gdy wszystkie wejścia są w stanie 1. Jest szeroko stosowana w generowaniu sygnałów resetujących i układach pamięci ponieważ jej działanie pozwala na efektywne implementowanie funkcji logicznych. Bramka NOR z kolei to odwrotność bramki OR i jej wyjście jest 1 tylko wtedy gdy wszystkie wejścia są 0 co jest przydatne w projektowaniu pamięci i przerzutników. Bramka OR przekazuje stan logiczny 1 na wyjściu gdy przynajmniej jedno z wejść jest w stanie 1 co jest użyteczne w obwodach wyboru sygnałów. Mylenie bramek NAND NOR i OR z bramką AND wynika często z podobieństw w ich symbolach graficznych oraz złożoności ich funkcji logicznych. Ważne jest aby inżynierowie dokładnie analizowali zarówno działanie jak i zastosowania każdej z tych bramek aby unikać błędów w projektowaniu i implementacji układów cyfrowych. Dobra znajomość tych różnic jest niezbędna do tworzenia poprawnych i efektywnych rozwiązań technologicznych.

Pytanie 27

Okablowanie pionowe w systemie strukturalnym łączy się

A. w gnieździe abonenckim
B. w głównym punkcie rozdziału z pośrednimi punktami rozdziału
C. w głównym punkcie rozdziału z gniazdem abonenckim
D. w pośrednim punkcie rozdziału z gniazdem abonenckim
Okablowanie pionowe w sieciach strukturalnych to coś naprawdę ważnego, jeśli chodzi o przesyłanie danych. Musi być dobrze połączone w głównym punkcie rozdzielczym z tymi pośrednimi punktami, żeby wszystko działało jak należy. Główny punkt najczęściej znajduje się w serwerowni, tam zbierają się sygnały z różnych miejsc. Pośrednie punkty to już inna sprawa – one rozprowadzają sygnały do gniazd abonenckich. Taka struktura daje nam większą elastyczność w rozbudowie, co jest super ważne, bo technologia ciągle się zmienia. W praktyce ułatwia to też zarządzanie kablami i zmniejsza ryzyko zakłóceń. Z tego, co wiem, wszystko powinno być zgodne z normą ANSI/TIA-568, bo wtedy sieć działa bez zarzutu.

Pytanie 28

Co oznacza skrót "DNS" w kontekście sieci komputerowych?

A. Digital Network Stream
B. Data Network Service
C. Dynamic Network Server
D. Domain Name System
Skrót "DNS" oznacza <strong>Domain Name System</strong>, czyli system nazw domenowych. Jest to kluczowy element infrastruktury internetowej, który umożliwia przekształcanie przyjaznych dla człowieka nazw domenowych, takich jak przykład.com, na adresy IP, które są zrozumiałe dla komputerów. Dzięki DNS użytkownicy Internetu mogą łatwo uzyskiwać dostęp do stron internetowych, wpisując prostą nazwę zamiast zapamiętywania skomplikowanych adresów IP. System DNS działa na zasadzie hierarchicznej bazy danych rozproszonej, co oznacza, że dane są przechowywane w różnych lokalizacjach, co zapewnia skalowalność i redundancję. Każde zapytanie DNS jest przetwarzane przez szereg serwerów, począwszy od lokalnego serwera DNS, przez serwery główne, aż po serwery odpowiedzialne za daną domenę. Dzięki temu, DNS jest skalowalnym i niezawodnym rozwiązaniem, które umożliwia płynne działanie Internetu. Zastosowanie DNS obejmuje również funkcje związane z bezpieczeństwem, takie jak DNSSEC, które dodaje warstwę zabezpieczeń poprzez cyfrowe podpisywanie danych DNS, zapobiegając atakom typu man-in-the-middle.

Pytanie 29

W specyfikacji technicznej płyty głównej znajduje się zapis Supports up to Athlon XP 3000+ processor. Co to oznacza w kontekście obsługi procesorów przez tę płytę główną?

A. wszystkie o częstotliwości mniejszej niż 3000 MHz
B. nie nowsze niż Athlon XP 3000+
C. zgodnie z mobile Athlon 64
D. wszystkie o częstotliwości większej niż 3000 MHz
Odpowiedź, że płyta główna obsługuje procesory nie nowsze niż Athlon XP 3000+ jest poprawna, ponieważ zapis w dokumentacji technicznej wskazuje na maksymalny poziom wsparcia dla procesorów w tej rodzinie. Oznacza to, że płyta główna została zaprojektowana do pracy z procesorami Athlon XP do modelu 3000+, który jest określony jako górna granica. W praktyce oznacza to, że przy użyciu tej płyty głównej można zainstalować procesory o niższej wydajności, takie jak Athlon XP 2800+ czy 2500+, ale nie ma gwarancji, że procesory wydane po tym modelu (np. Athlon 64) będą działały prawidłowo. W kontekście budowy komputera, znajomość specyfikacji płyty głównej jest kluczowa przy wyborze odpowiednich komponentów, aby uniknąć problemów z kompatybilnością, co jest zgodne z dobrymi praktykami inżynieryjnymi. Warto również zauważyć, że procesory Athlon XP są bardziej energochłonne, co również może mieć wpływ na wybór zasilacza, a tym samym na stabilność systemu.

Pytanie 30

Wskaż złącze, które nie jest obecne w zasilaczach ATX?

A. DE-15/HD-15
B. PCI-E
C. SATA Connector
D. MPC
Złącza, takie jak MPC, PCI-E oraz SATA Connector, są standardowymi interfejsami w zasilaczach ATX, co sprawia, że ich wybór w tym kontekście może prowadzić do nieporozumień. MPC, czyli Multi-Purpose Connector, jest używane do zasilania różnych komponentów, takich jak wentylatory czy kontrolery RGB. PCI-E, natomiast, to złącze wykorzystywane do zasilania kart graficznych, które są kluczowe dla wydajności w grach i aplikacjach graficznych. Z kolei SATA Connector jest standardem do zasilania dysków twardych i SSD, co odzwierciedla rozwój technologii pamięci masowej w komputerach. Wiele osób mylnie utożsamia złącza z ich zastosowaniem w przesyłaniu sygnałów wideo, co skutkuje pomyłkami w identyfikacji złącz występujących w zasilaczach ATX. Zrozumienie funkcji poszczególnych złączy w kontekście architektury komputerowej jest kluczowe dla prawidłowego doboru komponentów oraz ich efektywnego użytkowania. Dlatego ważne jest, aby nie mylić złączy do zasilania z złączami do transmisji sygnału, co może prowadzić do błędnych założeń w budowie systemów komputerowych.

Pytanie 31

Jakie urządzenie powinno zostać wykorzystane do podłączenia komputerów, aby mogły funkcjonować w odrębnych domenach rozgłoszeniowych?

A. Mostu
B. Rutera
C. Regeneratora
D. Koncentratora
Ruter to takie urządzenie, które pozwala na przepuszczanie danych między różnymi sieciami. Działa na wyższej warstwie niż mosty czy koncentratory, więc ma możliwość zarządzania adresami IP i trasami danych. Dzięki temu ruter może skutecznie oddzielać różne domeny rozgłoszeniowe, co jest mega ważne w dużych sieciach. Na przykład w firmie z wieloma działami, każdy dział może mieć swoją odrębną sieć, co zwiększa bezpieczeństwo i zmniejsza ryzyko nieautoryzowanego dostępu. Moim zdaniem, ruter w takich sytuacjach to kluczowa sprawa, bo lepiej zarządza ruchem i poprawia wydajność sieci. Z praktyki wiem, że dobrze skonfigurowany ruter to podstawa w inżynierii sieciowej.

Pytanie 32

Użycie trunkingowego połączenia między dwoma przełącznikami umożliwia

A. ustawienie agregacji portów, która zwiększa przepustowość między przełącznikami
B. zwiększenie wydajności połączenia poprzez użycie dodatkowego portu
C. przesyłanie w jednym łączu ramek pochodzących od wielu wirtualnych sieci lokalnych
D. zablokowanie wszelkich niepotrzebnych połączeń na danym porcie
Połączenie typu trunk umożliwia przesyłanie ramek z wielu wirtualnych sieci lokalnych (VLAN) przez jedno łącze. Dzięki temu administratorzy sieci mogą efektywniej wykorzystać dostępne zasoby, eliminując potrzebę posiadania oddzielnych połączeń dla każdej VLAN. W praktyce, gdy dwa przełączniki są połączone w trybie trunk, mogą wymieniać dane z różnych VLAN-ów, co jest kluczowe w dużych, złożonych środowiskach sieciowych. Umożliwia to zminimalizowanie kosztów związanych z okablowaniem i uproszczenie architektury sieci, co jest zgodne z najlepszymi praktykami w zakresie projektowania sieci. Standardy takie jak IEEE 802.1Q definiują sposób tagowania ramek dla różnych VLAN-ów, co jest niezbędne do prawidłowego funkcjonowania trunków. To podejście jest szeroko stosowane w sieciach korporacyjnych oraz w centrach danych, gdzie zarządzanie wieloma sieciami lokalnymi jest kluczowe dla zapewnienia wydajności i bezpieczeństwa. W efekcie, trunking stanowi fundament nowoczesnych architektur sieciowych, umożliwiając elastyczne i skalowalne rozwiązania.

Pytanie 33

Jaką maksymalną długość kabla typu skrętka pomiędzy panelem krosowniczym a gniazdem abonenckim przewiduje norma PN-EN 50174-2?

A. 90 m
B. 50 m
C. 100 m
D. 10 m
Długości 10 m i 50 m są znacznie poniżej wymagań określonych w normach dla kabli skrętkowych, co może prowadzić do nieprawidłowych założeń dotyczących instalacji sieciowych. Krótsze kable mogą wydawać się bardziej efektywne, jednak w praktyce mogą ograniczać elastyczność układu sieci. Na przykład, w biurze zaprojektowanym na 10 m długości kabli, może być trudno dostosować rozmieszczenie stanowisk pracy, co prowadzi do zwiększenia kosztów związanych z rozbudową lub przelokowaniem instalacji. Z drugiej strony, długość 100 m przekracza dopuszczalne limity określone przez normę PN-EN 50174-2, co może skutkować degradacją sygnału i obniżeniem wydajności sieci. Długie kable mogą generować większe straty sygnału, co jest szczególnie zauważalne w sieciach działających na wyższych prędkościach, takich jak 1 Gbps czy nawet 10 Gbps. Przekroczenie dopuszczalnej długości może prowadzić do błędów w transmisji danych, co w wielu sytuacjach kończy się koniecznością przeprowadzenia kosztownych napraw lub modyfikacji instalacji. Właściwe zrozumienie długości segmentów kabli i ich wpływu na jakość sieci jest kluczowe dla efektywnego projektowania i wdrażania systemów okablowania strukturalnego.

Pytanie 34

IMAP to protokół

A. wysyłania wiadomości e-mail
B. nadzoru nad urządzeniami sieciowymi
C. synchronizowania czasu z serwerami
D. odbierania wiadomości e-mail
IMAP, czyli Internet Message Access Protocol, jest protokołem, który umożliwia dostęp do poczty elektronicznej przechowywanej na serwerze. Kluczową cechą IMAP jest to, że umożliwia użytkownikom zarządzanie wiadomościami e-mail w sposób, który synchronizuje zmiany dokonywane na różnych urządzeniach. Oznacza to, że jeśli użytkownik odczyta lub usunie wiadomość na jednym urządzeniu, zmiany te będą widoczne na wszystkich innych urządzeniach połączonych z tym samym kontem. IMAP wspiera również foldery, co pozwala na organizację wiadomości w sposób bardziej zorganizowany. W praktyce IMAP jest powszechnie wykorzystywany w aplikacjach pocztowych takich jak Microsoft Outlook, Apple Mail czy Thunderbird, a także w mobilnych aplikacjach pocztowych. Dobrą praktyką jest korzystanie z IMAP, gdyż zapewnia większą elastyczność i umożliwia łatwiejszy dostęp do poczty z różnych lokalizacji oraz urządzeń.

Pytanie 35

W systemie NTFS do zmiany nazwy pliku konieczne jest posiadanie uprawnienia

A. modyfikacji
B. odczytu oraz wykonania
C. odczytania
D. zapisania
Odpowiedzi sugerujące uprawnienia do zapisu, odczytu oraz odczytu i wykonania jako podstawowe do zmiany nazwy pliku w systemie NTFS opierają się na nieporozumieniach dotyczących funkcji tych uprawnień. Uprawnienie do zapisu pozwala na dodawanie lub zmienianie zawartości pliku, jednak nie obejmuje ono operacji dotyczących metadanych pliku, takich jak jego nazwa. Odczyt z kolei uprawnia użytkownika tylko do przeglądania zawartości pliku, a nie do wprowadzania jakichkolwiek zmian. Odpowiedź wskazująca na konieczność posiadania zarówno uprawnienia do odczytu, jak i wykonania, również nie jest właściwa, ponieważ uprawnienie do wykonania dotyczy uruchamiania plików wykonywalnych, a nie zarządzania plikami ogólnego przeznaczenia. Typowe błędy w myśleniu przy wyborze tych odpowiedzi wynikają z błędnego założenia, że uprawnienia do zapisu lub odczytu są wystarczające dla pełnej kontroli nad plikiem. W rzeczywistości, aby móc zmieniać nazwy plików, użytkownik musi mieć przyznane uprawnienia do modyfikacji, które są bardziej złożone i obejmują szerszy zakres działań. Zrozumienie różnicy pomiędzy tymi poziomami uprawnień jest kluczowe dla skutecznego zarządzania systemem plików w NTFS oraz zapewnienia bezpieczeństwa danych.

Pytanie 36

Jak skonfigurować dziennik w systemie Windows Server, aby rejestrować zarówno udane, jak i nieudane próby logowania użytkowników oraz działania na zasobach dyskowych?

A. systemu.
B. zabezpieczeń.
C. aplikacji i usług.
D. ustawień.
Odpowiedzi "systemu", "ustawień" oraz "aplikacji i usług" są nieprawidłowe, ponieważ nie odpowiadają wymaganiom dotyczącym rejestrowania prób logowania i operacji na zasobach dyskowych. Dziennik systemu rejestruje zdarzenia związane z samym systemem operacyjnym, takie jak błędy systemowe czy problemy z urządzeniami, ale nie zawiera szczegółowych informacji dotyczących zabezpieczeń lub aktywności użytkowników. Dziennik ustawień natomiast nie istnieje jako osobna kategoria w Windows Server i nie jest używany do monitorowania zdarzeń związanych z bezpieczeństwem. Dziennik aplikacji i usług rejestruje zdarzenia specyficzne dla aplikacji i usług, które mogą być pomocne, ale nie dostarcza informacji na temat prób logowania, które są kluczowe dla bezpieczeństwa systemu. Typowym błędem myślowym jest mylenie różnych typów dzienników i ich funkcji, co prowadzi do niepoprawnych wniosków o odpowiednich narzędziach do monitorowania bezpieczeństwa. W kontekście bezpieczeństwa informacji, kluczowe jest zrozumienie, które logi są odpowiednie do analizy zdarzeń związanych z dostępem i jak wykorzystać te informacje do ochrony zasobów organizacji.

Pytanie 37

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 38

Do automatycznej synchronizacji dokumentów redagowanych przez kilka osób w tym samym czasie, należy użyć

A. serwera DNS.
B. chmury sieciowej.
C. poczty elektronicznej.
D. serwera IRC.
W tym pytaniu łatwo się zasugerować ogólną komunikacją w sieci i pomyśleć, że skoro kilka osób ma się „dogadać” co do treści dokumentu, to wystarczy jakikolwiek serwer komunikacyjny czy poczta elektroniczna. Technicznie jednak to zupełnie inna klasa rozwiązań niż narzędzia do współdzielonej edycji i automatycznej synchronizacji plików. Serwer IRC służy do komunikacji tekstowej w czasie rzeczywistym, coś jak bardzo rozbudowany czat. Dobrze się sprawdza do szybkiej wymiany informacji, prostych konsultacji, czasem do koordynacji pracy zespołu, ale sam w sobie nie przechowuje wersji dokumentów ani nie obsługuje mechanizmów edycji współdzielonej. Użytkownicy mogliby co najwyżej wysyłać sobie linki lub fragmenty tekstu, ale cała logika synchronizacji pliku musiałaby być realizowana ręcznie albo przez inne narzędzie. To jest klasyczny błąd myślowy: „skoro mogę gadać na czacie o dokumencie, to czat rozwiązuje problem współedytowania”. Niestety nie. Serwer DNS z kolei to element infrastruktury sieciowej, który tłumaczy nazwy domenowe (np. example.com) na adresy IP. Jest absolutnie krytyczny dla działania Internetu, ale nie ma żadnego związku z obsługą dokumentów, ich wersji czy współpracy użytkowników. Czasem uczniowie zakładają, że skoro coś jest „serwerem” w sieci, to może służyć do wszystkiego. W praktyce serwer DNS realizuje bardzo wąską, niskopoziomową funkcję i nie „wie” nic o plikach, a tym bardziej o edycji dokumentów. Poczta elektroniczna faktycznie bywa używana do wymiany dokumentów, ale to rozwiązanie zupełnie nie spełnia wymogu automatycznej synchronizacji. Przy wysyłaniu załączników powstają osobne kopie pliku u każdego odbiorcy. Jeśli trzy osoby wprowadzą zmiany niezależnie, to potem trzeba ręcznie scalać treść, co generuje chaos i ryzyko nadpisania czyjejś pracy. To typowy problem: pliki „raport_v2_poprawiony_przez_ania.docx”, „raport_ostateczny_marek.docx” krążą po skrzynkach, a nikt nie wie, która wersja jest aktualna. E-mail jest narzędziem asynchronicznym, bez kontroli wersji, bez edycji w czasie rzeczywistym i bez mechanizmów blokowania konfliktów. Z mojego doświadczenia to raczej antywzorzec, jeśli chodzi o współedytowanie. Kluczowe jest zrozumienie, że do automatycznej synchronizacji dokumentów potrzeba rozwiązania z centralnym repozytorium danych, wersjonowaniem oraz mechanizmami współpracy w czasie rzeczywistym lub quasi-rzeczywistym. Tym właśnie są usługi chmurowe do pracy grupowej, a nie ogólne serwery komunikacyjne czy systemy nazw domen. Mylenie warstwy aplikacyjnej (narzędzia do edycji dokumentów) z warstwą transportową lub usługami infrastrukturalnymi (DNS) to dość częsty błąd na początku nauki sieci i systemów – warto mieć to rozgraniczenie dobrze poukładane w głowie.

Pytanie 39

Na ilustracji przedstawiono konfigurację dostępu do sieci bezprzewodowej, która dotyczy

Ilustracja do pytania
A. nadania SSID sieci i określenia ilości dostępnych kanałów.
B. ustawienia zabezpieczeń przez wpisanie adresów MAC urządzeń mających dostęp do tej sieci.
C. podziału pasma przez funkcję QoS.
D. ustawienia zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi-Fi.
Na zrzucie ekranu widać typowy panel konfiguracyjny routera w sekcji „Zabezpieczenia sieci bezprzewodowej”. Kluczowe elementy to wybór metody zabezpieczeń (Brak zabezpieczeń, WPA/WPA2-Personal, WPA/WPA2-Enterprise, WEP), wybór rodzaju szyfrowania (np. AES) oraz przede wszystkim pole „Hasło”, w którym definiuje się klucz dostępu do sieci Wi‑Fi. To właśnie ta konfiguracja decyduje, czy użytkownik, który widzi SSID sieci, będzie musiał podać poprawne hasło, żeby się połączyć. Dlatego poprawna odpowiedź mówi o ustawieniu zabezpieczeń poprzez nadanie klucza dostępu do sieci Wi‑Fi. W standardach Wi‑Fi (IEEE 802.11) przyjęło się, że najbezpieczniejszym rozwiązaniem dla użytkownika domowego i małego biura jest tryb WPA2-Personal (lub nowszy WPA3-Personal), z szyfrowaniem AES i silnym hasłem. Tutaj dokładnie to widzimy: wybrany jest WPA/WPA2-Personal, szyfrowanie AES i pole na hasło o długości od 8 do 63 znaków ASCII. To hasło jest w praktyce kluczem pre-shared key (PSK), z którego urządzenia wyliczają właściwe klucze kryptograficzne używane w transmisji radiowej. Z mojego doświadczenia warto stosować hasła długie, przypadkowe, z mieszanką liter, cyfr i znaków specjalnych, a unikać prostych fraz typu „12345678” czy „mojawifi”. W małych firmach i domach to jest absolutna podstawa bezpieczeństwa – bez poprawnie ustawionego klucza każdy sąsiad mógłby podłączyć się do sieci, wykorzystać nasze łącze, a nawet próbować ataków na inne urządzenia w LAN. Dobrą praktyką jest też okresowa zmiana hasła oraz wyłączenie przestarzałych metod, jak WEP, które są uznawane za złamane kryptograficznie. W środowiskach bardziej zaawansowanych stosuje się dodatkowo WPA2-Enterprise z serwerem RADIUS, ale tam również fundamentem jest poprawne zarządzanie kluczami i uwierzytelnianiem użytkowników. Patrząc na panel, widać też opcję częstotliwości aktualizacji klucza grupowego – to dodatkowy mechanizm bezpieczeństwa, który co jakiś czas zmienia klucz używany do ruchu broadcast/multicast. W praktyce w sieciach domowych rzadko się to rusza, ale w sieciach firmowych ma to znaczenie. Cały ten ekran jest więc klasycznym przykładem konfiguracji zabezpieczeń Wi‑Fi opartej właśnie na nadaniu i zarządzaniu kluczem dostępu.

Pytanie 40

W komputerze połączonym z Internetem, w oprogramowaniu antywirusowym aktualizację bazy wirusów powinno się przeprowadzać minimum

A. raz do roku
B. raz w miesiącu
C. raz w tygodniu
D. raz dziennie
Aktualizacja bazy wirusów w programie antywirusowym co najmniej raz dziennie jest kluczowym elementem w zabezpieczeniu systemu komputerowego przed najnowszymi zagrożeniami. W ciągu jednego dnia może pojawić się wiele nowych wirusów oraz złośliwego oprogramowania, które mogą być skutecznie neutralizowane tylko przez najświeższe definicje wirusów. Programy antywirusowe, takie jak Norton, Kaspersky czy Bitdefender, często automatyzują ten proces, co ułatwia użytkownikom utrzymanie ochrony na najwyższym poziomie. Rekomendacje branżowe, takie jak te publikowane przez organizacje zajmujące się bezpieczeństwem IT, podkreślają znaczenie codziennej aktualizacji, aby zminimalizować ryzyko infekcji. Przykładowo, ataki typu ransomware mogą wykorzystać niezaaktualizowane luki w zabezpieczeniach, co podkreśla, jak istotne jest posiadanie aktualnych baz wirusów na bieżąco. Codzienna aktualizacja nie tylko zwiększa szanse na wykrycie i zneutralizowanie nowych zagrożeń, ale także pozwala na lepsze monitorowanie i zabezpieczanie sieci w sposób proaktywny.