Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 5 kwietnia 2026 18:50
  • Data zakończenia: 5 kwietnia 2026 19:01

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Thunderbolt to interfejs

A. równoległy, asynchroniczny, przewodowy.
B. szeregowy, dwukanałowy, dwukierunkowy, przewodowy.
C. równoległy, dwukanałowy, dwukierunkowy, bezprzewodowy.
D. szeregowy, asynchroniczny, bezprzewodowy.
Thunderbolt bywa czasem mylony z innymi interfejsami komputerowymi, głównie przez skojarzenia z „nowoczesnością” lub fakt, że niektóre technologie coraz częściej rezygnują z przewodów. Jednak spojrzenie na jego architekturę pokazuje, skąd biorą się te nieporozumienia. Zacznijmy od określenia go jako interfejsu równoległego — to jednak mijanie się z prawdą, bo równoległe interfejsy (np. klasyczne porty LPT czy starsze typy SCSI) wykorzystują wiele linii sygnałowych do przesyłania danych, przez co są większe, bardziej podatne na zakłócenia i nie sprawdzają się przy długich przewodach. Thunderbolt, podobnie jak USB czy PCI Express, korzysta z transmisji szeregowej – pojedyncze kanały umożliwiają transfer danych z dużo większą prędkością i stabilnością, zwłaszcza na większe odległości. Pojawia się też wątpliwość co do asynchroniczności – Thunderbolt jest de facto interfejsem opartym na transferach synchronicznych z bardzo precyzyjnym taktowaniem, bo chodzi tu o wysoką jakość i niezawodność przesyłu danych multimedialnych. Jeśli chodzi o bezprzewodowość — to dopiero poważne nieporozumienie, bo cała idea Thunderbolta opiera się na niezwykle wydajnym, fizycznym kablu, który zapewnia stabilność i bezpieczeństwo transmisji, jakiej nie dają fale radiowe, szczególnie przy dużych przepływnościach. Pojęcie dwukanałowości czy dwukierunkowości bywa też mylone – nie każdy protokół, który jest dwukanałowy, jest automatycznie Thunderboltem. W praktyce dla Thunderbolta istotne jest, że po jednym kablu można przesłać różne typy sygnałów (np. obraz i dane), a to czyni go elastycznym w branży IT. Typowe błędy wynikają tu z analogii do Wi-Fi, Bluetooth czy dawnych portów równoległych — a to zupełnie inne technologie. Thunderbolt to przewodowy, szeregowy standard, często z wykorzystaniem złącza USB-C, i nie należy go utożsamiać z żadną formą bezprzewodowych czy równoległych interfejsów. Takie uproszczenia potrafią utrudnić zrozumienie, jak naprawdę działa profesjonalny sprzęt komputerowy. Według mnie warto dokładnie przeanalizować nie tylko nazwy standardów, ale także ich techniczne założenia – to bardzo pomaga w praktyce, zwłaszcza przy pracy z nowoczesnym sprzętem.

Pytanie 2

Zbiór usług sieciowych dla systemów z rodziny Microsoft Windows jest reprezentowany przez skrót

A. IIS
B. HTTPS
C. HTTP
D. FTPS
FTPS, HTTP i HTTPS to protokoły sieciowe, które pełnią różne funkcje, ale nie są serwerami internetowymi samymi w sobie jak IIS. FTPS to rozszerzenie protokołu FTP, które wprowadza warstwę szyfrowania, co czyni go bardziej bezpiecznym rozwiązaniem do przesyłania plików, ale nie jest zbiorem usług internetowych, a jedynie jednym z protokołów. HTTP, czyli Hypertext Transfer Protocol, jest to protokół komunikacyjny używany do przesyłania danych w sieci WWW, jednak sam w sobie nie jest usługą ani systemem, lecz standardem, który musi być obsługiwany przez serwer, taki jak IIS. HTTPS to z kolei wariant HTTP, który zapewnia szyfrowanie danych za pomocą protokołu SSL/TLS, co również czyni go bardziej bezpiecznym, ale podobnie jak HTTP, nie jest to system usług internetowych. Typowym błędem myślowym jest utożsamianie protokołów z całymi systemami serwerowymi. Odpowiednie zrozumienie różnic między serwerami a protokołami jest kluczowe dla efektywnego projektowania i zarządzania systemami sieciowymi. W praktyce, korzystając z IIS, można wykorzystać standardowe protokoły, takie jak HTTP i HTTPS, ale w kontekście pytania, to IIS jest właściwą odpowiedzią jako serwer, który obsługuje te protokoły.

Pytanie 3

Jakie jest najbardziej typowe dla topologii gwiazdy?

A. niskie zużycie kabli
B. centralne zarządzanie siecią
C. zatrzymanie sieci wskutek awarii terminala
D. trudności w lokalizacji usterek
Topologia gwiazdy charakteryzuje się tym, że wszystkie węzły sieci są podłączone do centralnego punktu, którym najczęściej jest przełącznik lub koncentrator. Taki układ umożliwia łatwe zarządzanie siecią, ponieważ centralny punkt kontroluje wszystkie połączenia oraz komunikację pomiędzy urządzeniami. W przypadku awarii jednego z terminali, nie wpływa to na działanie pozostałych węzłów, co zwiększa niezawodność całego systemu. Przykładem zastosowania topologii gwiazdy jest sieć lokalna (LAN) w biurze, gdzie wszystkie komputery są podłączone do jednego switcha. Taki sposób organizacji sieci pozwala na łatwą lokalizację problemów, ponieważ można szybko zidentyfikować uszkodzenie konkretnego urządzenia bez wpływu na resztę sieci. Zgodnie z najlepszymi praktykami branżowymi, topologia gwiazdy jest często preferowana w nowoczesnych instalacjach sieciowych, ponieważ łączy w sobie wydajność, łatwość w zarządzaniu oraz bezpieczeństwo.

Pytanie 4

Typ profilu użytkownika w systemie Windows Serwer, który nie zapisuje zmian wprowadzonych na bieżącym pulpicie ani na serwerze, ani na stacji roboczej po wylogowaniu, to profil

A. zaufany
B. tymczasowy
C. lokalny
D. mobilny
Lokalny profil użytkownika to taki, który jest przypisany do konkretnego komputera. Oznacza to, że zmiany, jakie robisz, zostaną zapisane na tym urządzeniu. Jak ktoś używa lokalnych profili, to może być pewien, że jego ustawienia będą dostępne za każdym razem, gdy się zaloguje na tym samym komputerze. Dlatego takie profile często stosuje się w miejscach, gdzie nie trzeba się dzielić komputerami i użytkownicy potrzebują stałego dostępu do swoich ustawień. A mobilny profil pozwala na synchronizację ustawień na różnych komputerach, co jest super dla osób, które często zmieniają miejsce pracy. Profil zaufany w ogóle jest inny, bo ma specjalne uprawnienia i zabezpieczenia, więc nie pasuje do tej sytuacji. Czasem ludzie mylą profile lokalne czy mobilne z tymczasowymi, co prowadzi do pomyłek. Ważne jest, aby zrozumieć, że profile tymczasowe nie są do przechowywania ustawień, co jest kluczową różnicą w porównaniu do lokalnych i mobilnych. Umiejętność rozróżniania tych profili to podstawa, żeby dobrze zarządzać systemami operacyjnymi i zapewnić odpowiednie bezpieczeństwo w organizacji.

Pytanie 5

Jak skrót wskazuje na rozległą sieć komputerową, która obejmuje swoim zasięgiem miasto?

A. MAN
B. PAN
C. WAN
D. LAN
MAN (Metropolitan Area Network) to termin odnoszący się do dużej sieci komputerowej, która obejmuje zasięgiem całe miasto lub jego znaczną część. MAN łączy w sobie cechy zarówno lokalnych sieci komputerowych (LAN), jak i rozległych sieci (WAN), oferując połączenia o wyższej prędkości i większej przepustowości w porównaniu do WAN. Przykładowe zastosowania MAN obejmują sieci wykorzystywane przez uczelnie lub instytucje rządowe, które muszą połączyć różne budynki w obrębie jednego miasta. Standardy takie jak IEEE 802.3 oraz technologie takie jak Ethernet są często wykorzystywane w MAN, co pozwala na korzystanie z wysokiej jakości połączeń optycznych oraz kablowych. Dodatkowo, MAN może integrować różne usługi, takie jak VoIP, video conferencing oraz dostęp do internetu, co czyni go kluczowym elementem infrastruktury miejskiej. W miastach inteligentnych MAN może wspierać różne aplikacje, takie jak zarządzanie ruchem, monitorowanie jakości powietrza czy systemy bezpieczeństwa miejskiego.

Pytanie 6

Który adres IP jest zaliczany do klasy B?

A. 198.15.10.112
B. 134.192.16.1
C. 100.10.10.2
D. 96.15.2.4
Adres IP 134.192.16.1 należy do klasy B, co jest wyznaczane przez pierwszą oktetową wartość tego adresu. Klasa B obejmuje adresy IP od 128.0.0.0 do 191.255.255.255. W tym przypadku, pierwszy oktet wynosi 134, co mieści się w tym zakresie. Klasa B jest często wykorzystywana w dużych organizacjach, które potrzebują znacznej liczby adresów IP, ponieważ pozwala na przypisanie od 16,382 do 65,534 adresów hostów w danej sieci. Przykładowo, w przypadku dużych instytucji edukacyjnych lub korporacji, klasa B może być użyta do podziału różnych działów na mniejsze podsieci, co ułatwia zarządzanie i zwiększa bezpieczeństwo. Oprócz tego, standardy dotyczące adresacji IP, takie jak RFC 791, definiują zasady dotyczące klasyfikacji adresów IP w kontekście routingu i zarządzania sieciami, co jest kluczowe dla projektowania infrastruktury sieciowej.

Pytanie 7

Polecenie uname -s w systemie Linux służy do identyfikacji

A. ilości dostępnej pamięci.
B. nazwa jądra systemu operacyjnego.
C. stanu aktywnych interfejsów sieciowych.
D. dostępnego miejsca na dysku twardym.
Wybór innych odpowiedzi może wynikać z nieporozumienia dotyczącego funkcji polecenia 'uname'. Na przykład, pierwsza odpowiedź dotycząca wolnej pamięci może być myląca; do monitorowania pamięci w systemie Linux używa się zazwyczaj poleceń takich jak 'free' lub 'top', które dostarczają informacji o aktualnym stanie pamięci operacyjnej. Odpowiedź dotycząca wolnego miejsca na dyskach twardych również jest niewłaściwa. W tym przypadku odpowiednie polecenia to 'df' (disk free) lub 'lsblk', które pokazują, ile miejsca pozostało na dyskach i jakie partycje są dostępne. Natomiast odpowiedź dotycząca statusu aktywnych interfejsów sieciowych można zweryfikować przez polecenia takie jak 'ifconfig' lub 'ip a', które umożliwiają dostęp do informacji o interfejsach sieciowych i ich konfiguracji. Te nieprawidłowe odpowiedzi wynikają z typowych błędów myślowych, gdzie użytkownicy mogą mylić różne narzędzia używane do monitorowania i zarządzania systemem Linux. Zrozumienie, które polecenie służy do jakiego celu, jest kluczowe w efektywnym zarządzaniu systemem oraz unikaniu nieporozumień, które mogą prowadzić do błędnej interpretacji danych lub niewłaściwego zarządzania zasobami systemowymi.

Pytanie 8

Które z wymienionych mediów nie jest odpowiednie do przesyłania danych teleinformatycznych?

A. sieć15KV
B. skrętka
C. światłowód
D. sieć 230V
Wybór niewłaściwego medium do przesyłania danych teleinformatycznych często oparty jest na nieporozumieniu dotyczącym funkcji i zastosowania danego medium. Światłowód oraz skrętka to sprawdzone technologie telekomunikacyjne. Światłowody są wykorzystywane w sieciach o dużych wymaganiach dotyczących przepustowości, a ich zastosowanie jest zgodne z normami takim jak ITU-T G.652, które definiują parametry światłowodów jednomodowych i wielomodowych. Z drugiej strony, skrętka, jak w standardzie Ethernet, zapewnia dobrą wydajność w lokalnych sieciach komputerowych. Wybór sieci 230V jako medium do przesyłania danych może być mylący, ponieważ chociaż prąd przemienny 230V jest używany do zasilania urządzeń telekomunikacyjnych, nie jest przeznaczony do przesyłania danych. Przesyłanie danych przez sieć energetyczną wymaga specjalnych protokołów i technologii, takich jak Power Line Communication (PLC), które są zupełnie innymi rozwiązaniami. Użytkownicy często mylą te pojęcia, co prowadzi do błędnych przekonań o możliwościach przesyłania danych w sieciach energetycznych. Dlatego istotne jest znajomość standardów oraz dobrych praktyk, które definiują odpowiednie medium do transmisji informacji, aby unikać niebezpiecznych sytuacji oraz zapewnić niezawodną komunikację.

Pytanie 9

W których nośnikach pamięci masowej jedną z najczęstszych przyczyn uszkodzeń jest uszkodzenie powierzchni?

A. W kartach pamięci SD
B. W dyskach SSD
C. W dyskach twardych HDD
D. W pamięciach zewnętrznych Flash
Każdy z wymienionych nośników ma swoją specyfikę, jeśli chodzi o awaryjność i typowe przyczyny uszkodzeń. SSD oraz pamięci flash, jak np. karty SD, nie mają ruchomych części ani powierzchni, po których porusza się głowica (tak jak w HDD). Ich awarie najczęściej wynikają z zużycia komórek pamięci, problemów z kontrolerem lub uszkodzeń elektroniki, a nie fizycznego zarysowania czy uszkodzenia powierzchni. To jest bardzo częsty mit, że każdy nośnik da się „porysować” – w rzeczywistości SSD i flash działają na zasadzie zapisu elektronicznego, więc mechaniczne uszkodzenie powierzchni praktycznie nie występuje. Pamięci typu SD są dość odporne na wstrząsy i upadki, a jeśli już się psują, to głównie przez przepięcia, złe warunki pracy albo zwyczajne zużycie cykli zapisu/odczytu. Z mojego doświadczenia, to dość częsty błąd myślowy: wiele osób wrzuca wszystkie nośniki do jednego worka i traktuje jak delikatne płyty CD, a przecież konstrukcja SSD czy kart SD to zupełnie inna technologia niż stare, mechaniczne HDD. W branży uznaje się, że typowe uszkodzenia dla SSD i flash to błędy logiczne, np. bad blocki czy awarie kontrolera, a nie uszkodzenia powierzchni. Dlatego odpowiedź wskazująca na SSD, karty SD czy pamięci flash jako podatne na uszkodzenia powierzchni nie znajduje potwierdzenia ani w praktyce serwisowej, ani w dokumentacji technicznej producentów. Warto oddzielać technologie mechaniczne od elektronicznych – to klucz do zrozumienia, jak i dlaczego psują się różne typy nośników.

Pytanie 10

Jakie urządzenie jest używane do pomiaru wartości rezystancji?

A. watomierz
B. woltomierz
C. amperomierz
D. omomierz
Omomierz to przyrząd elektroniczny lub analogowy, który służy do pomiaru rezystancji elektrycznej. Wykorzystuje prawo Ohma, które stanowi, że napięcie (U) jest równe iloczynowi natężenia prądu (I) i rezystancji (R). Omomierz umożliwia szybkie i precyzyjne mierzenie oporu elektrycznego, co jest istotne w diagnostyce i konserwacji układów elektronicznych oraz elektrycznych. Przykładowo, w trakcie naprawy urządzeń, takich jak komputery czy sprzęt AGD, technicy stosują omomierze do sprawdzania ciągłości obwodów oraz identyfikowania uszkodzonych komponentów. W przemysłowych zastosowaniach, pomiar rezystancji izolacji jest kluczowy dla zapewnienia bezpieczeństwa urządzeń elektrycznych. Standardy takie jak IEC 61010 określają wymagania dotyczące bezpieczeństwa przyrządów pomiarowych, co czyni omomierz nieodłącznym narzędziem w pracy inżynierów i techników.

Pytanie 11

Cechą charakterystyczną transmisji za pomocą interfejsu równoległego synchronicznego jest to, że

A. dane są przesyłane bit po bicie w określonych odstępach czasu, które są wyznaczane przez sygnał zegarowy CLK
B. w określonych odstępach czasu wyznaczanych przez sygnał zegarowy CLK dane przesyłane są jednocześnie kilkoma przewodami
C. początek i koniec przesyłanych danych odbywa się bit po bicie i jest oznaczony bitem startu oraz stopu
D. dane są przesyłane w tym samym czasie całą szerokością magistrali, a początek oraz zakończenie transmisji oznaczają bity startu i stopu
Pierwsza odpowiedź sugeruje, że dane są przesyłane jednocześnie całą szerokością magistrali, ale nie uwzględnia przy tym kluczowego aspektu synchronizacji, która jest istotna w przypadku interfejsów równoległych synchronicznych. Nie wystarczy, aby dane były przesyłane równocześnie; ich przesył musi być również zsynchronizowany z sygnałem zegarowym, co jest istotnym elementem w zapewnieniu integralności przesyłanych informacji. Z kolei druga odpowiedź koncentruje się na przesyłaniu bit po bicie z użyciem bitów startu i stopu, co jest bardziej charakterystyczne dla transmisji szeregowej, a nie równoległej. W interfejsach równoległych przesyłanie danych następuje równocześnie, eliminując potrzebę oznaczania początku i końca transmisji pojedynczymi bitami. Trzecia odpowiedź odnosi się do transmisji bit po bicie, co jest sprzeczne z zasadą działania interfejsu równoległego, gdzie wiele bitów jest przesyłanych jednocześnie w ramach jednego cyklu zegarowego. Ostatecznie, błędne wnioski mogą wynikać z niepełnego zrozumienia różnic między transmisją równoległą a szeregową, co prowadzi do mylnych interpretacji na temat sposobu przesyłania danych w różnych typach interfejsów.

Pytanie 12

Według modelu TCP/IP, protokoły DNS, FTP oraz SMTP zaliczają się do warstwy

A. aplikacji
B. transportowej
C. dostępu do sieci
D. internetowej
Protokół DNS (Domain Name System), FTP (File Transfer Protocol) oraz SMTP (Simple Mail Transfer Protocol) są kluczowymi elementami warstwy aplikacji w modelu TCP/IP. Warstwa aplikacji odpowiada za interakcję użytkowników z aplikacjami i umożliwia przesyłanie danych między różnymi aplikacjami poprzez sieć. Protokół DNS służy do tłumaczenia nazw domen na adresy IP, co jest niezbędne do lokalizacji zasobów w sieci. FTP pozwala na transfer plików pomiędzy komputerami w sieci, a SMTP jest wykorzystywany do przesyłania wiadomości e-mail. Znajomość tych protokołów jest niezwykle istotna w kontekście zarządzania siecią oraz tworzenia aplikacji opartych na standardach internetowych. Przykładowo, w każdej aplikacji webowej, która wymaga przesyłania danych lub plików, wykorzystanie protokołów aplikacyjnych jest niezbędne dla zapewnienia prawidłowego i efektywnego działania. Zastosowanie tych protokołów zgodnie z dobrymi praktykami branżowymi przyczynia się do poprawy wydajności oraz bezpieczeństwa komunikacji w sieci.

Pytanie 13

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 8 GB.
B. 1 modułu 16 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 14

Jaki jest adres broadcastowy dla sieci posiadającej adres IP 192.168.10.0/24?

A. 192.168.10.0
B. 192.168.0.255
C. 192.168.10.255
D. 192.168.0.0
Adres rozgłoszeniowy sieci o adresie IP 192.168.10.0/24 to 192.168.10.255, ponieważ w przypadku adresu klasy C z maską /24 ostatni bajt (osiem bitów) jest używany do identyfikacji hostów w sieci. Maski sieciowe, takie jak /24, oznaczają, że pierwsze 24 bity adresu (czyli trzy pierwsze bajty) są stałe dla danej sieci, a ostatnie 8 bitów może być zmieniane, co oznacza, że mamy 2^8 = 256 możliwych adresów hostów w tej sieci, od 192.168.10.0 do 192.168.10.255. Adres 192.168.10.0 jest zarezerwowany jako adres identyfikujący sieć, a adres 192.168.10.255 jest używany jako adres rozgłoszeniowy, który pozwala na wysyłanie pakietów do wszystkich urządzeń w tej sieci. Użycie adresów rozgłoszeniowych jest istotne, gdyż umożliwia efektywne zarządzanie sieciami lokalnymi oraz komunikację między urządzeniami. Przykładem zastosowania adresów rozgłoszeniowych jest wysyłanie informacji o aktualizacjach do wszystkich komputerów w lokalnej sieci jednocześnie, co pozwala na oszczędność czasu i zasobów.

Pytanie 15

Aby osiągnąć przepustowość 4 GB/s w obydwie strony, konieczne jest zainstalowanie w komputerze karty graficznej używającej interfejsu

A. PCI - Express x 1 wersja 3.0
B. PCI - Express x 16 wersja 1.0
C. PCI - Express x 4 wersja 2.0
D. PCI - Express x 8 wersja 1.0
Odpowiedzi wskazujące na karty graficzne z interfejsem PCI-Express x1, x4 lub x8 nie są adekwatne do osiągnięcia wymaganej przepustowości 4 GB/s w każdą stronę. Interfejs PCI-Express x1 wersji 3.0 oferuje maksymalną przepustowość zaledwie 1 GB/s, co jest zdecydowanie niewystarczające dla nowoczesnych aplikacji wymagających dużych prędkości transferu, takich jak gry komputerowe czy programy do obróbki grafiki. Z kolei PCI-Express x4 wersji 2.0 zapewnia 2 GB/s, co również nie spełnia zadanych kryteriów. Interfejs PCI-Express x8 wersji 1.0, mimo iż teoretycznie oferuje 4 GB/s, nie jest optymalnym wyborem, gdyż wykorzystuje starszą wersję standardu, a zatem jego rzeczywista wydajność może być ograniczona przez inne czynniki, takie jak architektura płyty głównej i interfejsowe przeciążenia. Często popełnianym błędem jest zakładanie, że wystarczy wybrać interfejs o minimalnej wymaganej przepustowości, bez uwzględnienia przyszłych potrzeb rozwojowych systemu. Rekomenduje się stosowanie komponentów, które przewyższają aktualne wymagania, co zapewni długoterminową wydajność i elastyczność konfiguracji. Dlatego kluczowe jest, aby przy wyborze karty graficznej brać pod uwagę nie tylko bieżące potrzeby, ale także możliwe przyszłe rozszerzenia systemu.

Pytanie 16

Tworzenie obrazu dysku ma na celu

A. przyspieszenie pracy z wybranymi plikami znajdującymi się na tym dysku
B. ochronę danych przed nieuprawnionym dostępem
C. zabezpieczenie systemu, aplikacji oraz danych przed poważną awarią komputera
D. ochronę aplikacji przed nieuprawnionymi użytkownikami
Obraz dysku, znany również jako obraz systemu, jest kopią wszystkich danych zgromadzonych na dysku twardym, w tym systemu operacyjnego, aplikacji oraz plików użytkownika. Tworzy się go głównie w celu zabezpieczenia całego systemu przed nieprzewidzianymi awariami, takimi jak uszkodzenie dysku twardego, wirusy czy inne formy uszkodzeń. Gdy obraz dysku jest dostępny, użytkownik może szybko przywrócić system do stanu sprzed awarii, co znacznie zmniejsza ryzyko utraty ważnych danych. Przykładem zastosowania obrazu dysku może być regularne wykonywanie kopii zapasowych na serwerach oraz komputerach stacjonarnych, co jest zgodne z najlepszymi praktykami w zarządzaniu danymi. Dzięki odpowiedniej strategii tworzenia obrazów dysku, organizacje mogą zapewnić ciągłość działania i minimalizować przestoje. Standardy takie jak ISO 22301 podkreślają znaczenie planowania kontynuacji działania, w tym zabezpieczeń w postaci kopii zapasowych. Warto również pamiętać o regularnym testowaniu procesu przywracania z obrazu, aby mieć pewność, że w przypadku awarii odzyskanie danych będzie skuteczne.

Pytanie 17

Profil użytkownika systemu Windows, który można wykorzystać do logowania na dowolnym komputerze w sieci, przechowywany na serwerze i mogący być edytowany przez użytkownika, to profil

A. tymczasowy
B. lokalny
C. mobilny
D. obowiązkowy
Wybór niepoprawnych odpowiedzi wynika z pomylenia różnych typów profili użytkownika w systemie Windows. Profil tymczasowy jest tworzony podczas sesji, ale po jej zakończeniu nie zachowuje żadnych zmian ani danych użytkownika. To oznacza, że po zakończeniu pracy na komputerze, wszystkie ustawienia i pliki zostaną utracone, co czyni go niewłaściwym wyborem dla osób potrzebujących dostępu do swoich informacji na różnych urządzeniach. Z kolei profil lokalny jest przypisany do konkretnego komputera i nie może być używany na innych urządzeniach, co ogranicza mobilność użytkownika. Użytkownik może logować się tylko na tym samym komputerze, co również stoi w sprzeczności z ideą profilu mobilnego. Natomiast profil obowiązkowy, choć może być przechowywany na serwerze, ma na celu zapewnienie jednolitości środowiska użytkownika poprzez ograniczenie jego możliwości modyfikacji. Użytkownicy z tym profilem nie mogą dokonywać zmian w swoich ustawieniach, co czyni go nieodpowiednim dla osób, które chcą dostosować swoje środowisko robocze. Typowe błędy myślowe, które prowadzą do niepoprawnych wyborów, to mylenie funkcji i możliwości, jakie oferują poszczególne typy profili. Zrozumienie różnic między tymi profilami jest kluczowe dla efektywnego korzystania z systemów operacyjnych oraz zarządzania użytkownikami w organizacji.

Pytanie 18

Które z urządzeń sieciowych funkcjonuje w warstwie fizycznej modelu ISO/OSI, transmitując sygnał z jednego portu do wszystkich pozostałych portów?

A. Karta sieciowa
B. Modem
C. Przełącznik
D. Koncentrator
Koncentrator to takie urządzenie sieciowe, które działa na poziomie warstwy fizycznej w modelu ISO/OSI. Jego główna rola to przesyłanie sygnału z jednego portu na wszystkie inne porty. Krótko mówiąc, kiedy jeden port dostaje sygnał, to koncentrator go powiela i rozsyła wszędzie, co pozwala różnym urządzeniom w sieci lokalnej na komunikację. Używa się go często w prostych sieciach, gdzie nie potrzebujemy skomplikowanego zarządzania ruchem. Dzięki niskiej cenie, jest to popularne rozwiązanie w małych biurach czy domowych sieciach. Warto jednak pamiętać, że koncentratory działają w trybie półdupleksowym, co oznacza, że jednocześnie mogą wysyłać dane tylko w jedną stronę. To może trochę ograniczać wydajność w większych sieciach. Choć teraz częściej korzysta się z przełączników, koncentratory wciąż mają swoje miejsce w sytuacjach, gdy ważniejsza jest prostota i niskie koszty.

Pytanie 19

Aby sygnały pochodzące z dwóch routerów w sieci WiFi pracującej w standardzie 802.11g nie wpływały na siebie nawzajem, należy skonfigurować kanały o numerach

A. 2 i 7
B. 5 i 7
C. 3 i 6
D. 1 i 5
Ustawienie kanałów 2 i 7 w sieci WiFi standardu 802.11g jest zgodne z zasadami minimalizacji zakłóceń między sygnałami. W standardzie 802.11g, który operuje w paśmie 2,4 GHz, dostępnych jest 14 kanałów, z których tylko pięć (1, 6, 11) jest tak zwanych 'nienakładających się'. To oznacza, że użycie kanałów 2 i 7, które są oddalone od siebie, znacząco zmniejsza ryzyko interferencji. Przykładem może być sytuacja, w której dwa routery znajdują się w bliskiej odległości od siebie; ustawienie ich na kanały 2 i 7 pozwoli na współdzielenie pasma bez zauważalnego pogorszenia jakości sygnału. W praktyce, stosując takie ustawienia, można zrealizować lepszą wydajność sieci w środowiskach o dużym zagęszczeniu urządzeń bezprzewodowych, co jest szczególnie istotne w biurach czy mieszkaniach wielorodzinnych. Dobrą praktyką jest również regularne monitorowanie jakości sygnału i kanałów, aby dostosować ustawienia w razie potrzeby.

Pytanie 20

Reprezentacja koloru RGB(255, 170, 129) odpowiada formatowi

A. #81AAFF
B. #AA18FF
C. #FFAA81
D. #18FAAF
RGB(255, 170, 129) w zapisie szesnastkowym wygląda jak #FFAA81. Wiesz, że kolory w RGB mają trzy składowe: czerwoną, zieloną i niebieską, z wartościami od 0 do 255? No więc, w szesnastkowej notacji 255 to FF, 170 to AA, a 129 to 81. Jak to połączysz, to masz #FFAA81. To przydaje się w projektach stron i grafice, bo znajomość takiej konwersji naprawdę oszczędza czas. Myślę, że jak robisz palety kolorów na stronę, to umiejętność szybkiego przeliczania kolorów między formatami jest bardzo na plus. Spoko, że szesnastkowy zapis jest zgodny z najlepszymi praktykami, szczególnie jeśli chodzi o responsywność i ładne interfejsy użytkownika.

Pytanie 21

Wykonując polecenie ipconfig /flushdns, można przeprowadzić konserwację urządzenia sieciowego, która polega na

A. zwolnieniu dzierżawy przydzielonej przez DHCP
B. aktualizacji konfiguracji nazw interfejsów sieciowych
C. wyczyszczeniu pamięci podręcznej systemu nazw domenowych
D. odnowieniu dzierżawy adresu IP
Wybór odpowiedzi dotyczących aktualizacji ustawień nazw interfejsów sieciowych, odnowienia dzierżawy adresu IP czy zwolnienia dzierżawy adresu uzyskanego z DHCP, wskazuje na pewne nieporozumienia dotyczące funkcji polecenia 'ipconfig /flushdns'. Aktualizacja ustawień nazw interfejsów sieciowych dotyczy zarządzania konfiguracją interfejsów sieciowych, co nie ma związku z buforem DNS. Użytkownicy często mylą te terminy, co prowadzi do błędnych wniosków. Odnowienie dzierżawy adresu IP jest procesem związanym z protokołem DHCP, który ma na celu uzyskanie nowego adresu IP od serwera DHCP. Z kolei zwolnienie dzierżawy adresu uzyskanego z DHCP dotyczy procesu, w którym klient informuje serwer o zakończeniu używania danego adresu IP. Te operacje są związane z zarządzaniem adresami IP w sieci, a nie z buforem DNS. W praktyce, nieprawidłowe wybranie odpowiedzi na takie pytanie może prowadzić do problemów w diagnostyce i rozwiązywaniu problemów z siecią. Zrozumienie roli polecenia 'ipconfig /flushdns' w kontekście zarządzania DNS jest kluczowe dla prawidłowego funkcjonowania sieci, dlatego warto poświęcić czas na zapoznanie się z jego działaniem oraz innymi poleceniami z rodziny 'ipconfig', które odnoszą się do konfiguracji sieci.

Pytanie 22

Dokumentacja końcowa zaprojektowanej sieci LAN powinna zawierać między innymi

A. spis rysunków wykonawczych
B. raport pomiarowy torów transmisyjnych
C. założenia projektowe sieci lokalnej
D. kosztorys robót instalatorskich
Wybór odpowiedzi, która nie dotyczy raportu pomiarowego, pokazuje, że może być jakieś nieporozumienie odnośnie tego, co powinno być w dokumentacji powykonawczej. Owszem, założenia projektowe są ważne, ale odnoszą się głównie do wstępnego planowania, a nie do tego, jak działa zainstalowana sieć. W czasie instalacji może się wszystko zmieniać, więc branie pod uwagę tylko założeń to za mało. Z kolei spis rysunków wykonawczych to tylko grafiki projektu i nie mówi nic o tym, jak system będzie działał po montażu. Kosztorys też nie ma bezpośredniego związku z jakością sieci - jest bardziej do wsparcia finansowego projektu. Dlatego tak ważne jest, aby dokumentacja po wykonaniu zawierała informacje, które oceniają działanie i jakość systemu, a do tego idealnie nadaje się raport pomiarowy torów transmisyjnych. Zrozumienie, jak ważne są te raporty, jest kluczowe, żeby sieć LAN spełniała wymagania użytkowników i standardy branżowe.

Pytanie 23

Program o nazwie dd, którego przykład użycia przedstawiono w systemie Linux, umożliwia:

dd if=/dev/sdb of=/home/uzytkownik/Linux.iso
A. zmianę systemu plików z ext3 na ext4
B. utworzenie dowiązania symbolicznego do pliku Linux.iso w katalogu
C. stworzenie obrazu nośnika danych
D. ustawianie konfiguracji interfejsu karty sieciowej
Niektóre odpowiedzi mogą wydawać się podobne do działania programu dd jednak nie są one poprawne w kontekście jego funkcji Program dd nie służy do konwersji systemu plików z ext3 do ext4 co jest procesem wymagającym narzędzi takich jak tune2fs które mogą zmieniać struktury systemów plików na poziomie dzienników i metadanych Nie jest to zadanie do którego używa się dd ponieważ dd kopiuje dane w surowej formie bez interpretacji ich zawartości Podobnie konfigurowanie interfejsu karty sieciowej jest zadaniem narzędzi takich jak ifconfig czy ip dd nie ma żadnych funkcji sieciowych i nie może modyfikować ani konfigurować ustawień sieciowych w systemie Dlatego też użycie dd do takich celów jest nieprawidłowe Również tworzenie dowiązań symbolicznych Linux.iso do katalogu wymaga polecenia ln a nie dd Dowiązania symboliczne to specjalne typy plików które wskazują na inne pliki lub katalogi w systemie plików dd nie oferuje funkcji tworzenia ani zarządzania dowiązaniami Symboliczne dowiązania są używane do organizacji plików i nie mają związku z kopiowaniem danych na niskim poziomie jak to robi dd Zrozumienie ograniczeń i możliwości narzędzi takich jak dd jest kluczowe dla efektywnej administracji systemami operacyjnymi

Pytanie 24

Jakiego rodzaju fizyczna topologia sieci komputerowej jest zobrazowana na rysunku?

Ilustracja do pytania
A. Topologia gwiazdowa
B. Połączenie Punkt-Punkt
C. Topologia pełnej siatki
D. Siatka częściowa
Topologia pełnej siatki jest jedną z najbardziej niezawodnych fizycznych topologii sieci komputerowych. W tym modelu każdy komputer jest połączony bezpośrednio z każdym innym komputerem, co daje najwyższy poziom redundancji i minimalizuje ryzyko awarii sieci. Dzięki temu, nawet jeśli jedno z połączeń zostanie przerwane, dane mogą być przesyłane innymi ścieżkami, co zapewnia ciągłość działania sieci. Taki układ znajduje zastosowanie w krytycznych systemach, takich jak sieci bankowe czy infrastruktura lotniskowa, gdzie niezawodność jest kluczowa. Zgodnie ze standardami branżowymi, pełna siatka jest uważana za wysoce odporną na awarie, choć koszty implementacji mogą być wysokie z powodu dużej liczby wymaganych połączeń. W praktyce, pełna siatka może być używana w segmentach sieci, które wymagają wysokiej przepustowości i niskiej latencji, jak centra danych lub systemy o wysokiej dostępności. Takie podejście zapewnia również równomierne obciążenie sieci, co jest zgodne z najlepszymi praktykami w projektowaniu niezawodnych systemów informatycznych.

Pytanie 25

W systemie Windows, gdzie należy ustalić wymagania dotyczące złożoności hasła?

A. w panelu sterowania
B. w BIOS-ie
C. w zasadach zabezpieczeń lokalnych
D. w autostarcie
Wymagania dotyczące złożoności haseł w Windows ustalasz w zasadach zabezpieczeń lokalnych, które znajdziesz w narzędziu 'Zasady zabezpieczeń lokalnych' (z ang. secpol.msc). To narzędzie umożliwia administratorom definiowanie różnych zasad dotyczących bezpieczeństwa, w tym haseł. Przykładowo, możesz ustawić, że hasła muszą zawierać duże litery, cyfry i znaki specjalne. To naprawdę dobra praktyka, bo zwiększa bezpieczeństwo danych użytkowników. W kontekście regulacji jak RODO czy HIPAA ważne jest, żeby te zasady były dobrze skonfigurowane, aby chronić dane osobowe. Dobrze przemyślane zasady zabezpieczeń lokalnych mogą znacznie zmniejszyć ryzyko naruszenia bezpieczeństwa w organizacji, co w efekcie podnosi ogólny poziom zabezpieczeń systemu operacyjnego.

Pytanie 26

Na rysunku ukazano diagram

Ilustracja do pytania
A. zasilacza impulsowego
B. przetwornika DAC
C. karty graficznej
D. przełącznika kopułkowego
Schematy elektroniczne mogą być mylące, zwłaszcza gdy brak jest doświadczenia w ich interpretacji. Zasilacz impulsowy, jak przedstawiony na rysunku, różni się znacząco od innych urządzeń takich jak karta graficzna, przetwornik DAC czy przełącznik kopułkowy. Karta graficzna składa się z elementów takich jak procesor graficzny (GPU), pamięć RAM i układy zasilania, ale nie zawiera typowych elementów zasilacza impulsowego, jak mostek prostowniczy czy tranzystor kluczujący. Przetwornik DAC (Digital-to-Analog Converter) to urządzenie zamieniające sygnał cyfrowy na analogowy, używane w systemach audio i wideo, które nie wymaga kondensatorów filtrujących i diod prostowniczych charakterystycznych dla zasilaczy. Przełącznik kopułkowy, stosowany w klawiaturach, to mechaniczny element składający się z kopułki przewodzącej, który nie ma związku z przetwarzaniem sygnałów elektrycznych jak zasilacz impulsowy. Typowym błędem jest mylenie komponentów, co podkreśla znaczenie zrozumienia funkcji każdego elementu w schemacie. Kluczowe jest skupienie się na sygnaturze działania zasilacza, takiej jak przetwornica DC-DC, aby poprawnie identyfikować urządzenia na podstawie ich schematów i zastosowań.

Pytanie 27

Jakiego rodzaju złącze powinna mieć płyta główna, aby użytkownik był w stanie zainstalować kartę graficzną przedstawioną na rysunku?

Ilustracja do pytania
A. PCI
B. PCIe x1
C. AGP
D. PCIe x16
AGP (Accelerated Graphics Port) był poprzednim standardem złącz stosowanym do podłączania kart graficznych, który obecnie jest już przestarzały i nie stosuje się go w nowoczesnych płytach głównych. AGP oferował niższą przepustowość w porównaniu do PCIe, co ograniczało możliwości obsługi nowoczesnych gier i aplikacji graficznych. Z kolei PCI (Peripheral Component Interconnect) jest również starszym standardem, który nie jest wystarczająco szybki dla współczesnych kart graficznych, ponieważ oferuje znacznie niższą przepustowość danych. PCI był stosowany do różnych kart rozszerzeń, ale jego możliwości są ograniczone w porównaniu do PCIe. PCIe x1, choć jest wariantem interfejsu PCIe, oferuje tylko jedną linię danych, co oznacza, że nie jest wystarczający do obsługi kart graficznych, które wymagają większej przepustowości i wielu linii danych do przesyłania informacji. Typowym błędem jest zakładanie, że każda karta graficzna może działać na dowolnym złączu PCIe, jednak w rzeczywistości karty graficzne potrzebują większej liczby linii PCIe, zazwyczaj dostępnych w złączu PCIe x16. Prawidłowe zrozumienie różnic między tymi standardami jest kluczowe dla poprawnego doboru komponentów komputerowych i zapewnienia maksymalnej wydajności systemu. Wybór złącza niewłaściwego dla danej karty może prowadzić do jej niewłaściwej pracy lub wręcz do niemożności jej zainstalowania, co może wpłynąć na stabilność i funkcjonalność całego systemu komputerowego.

Pytanie 28

Na podstawie oznaczenia pamięci DDR3 PC3-16000 można stwierdzić, że pamięć ta

A. pracuje z częstotliwością 16000 MHz
B. pracuje z częstotliwością 160 MHz
C. ma przepustowość 16 GB/s
D. ma przepustowość 160 GB/s
Oznaczenie DDR3 PC3-16000 jasno określa, że ta pamięć RAM ma przepustowość na poziomie 16 GB/s. Sposób kodowania tych wartości wynika ze standardów JEDEC, gdzie liczba po „PC3-” oznacza właśnie maksymalną teoretyczną przepustowość modułu, wyrażoną w MB/s (czyli 16000 MB/s, co daje 16 GB/s). W praktyce chodzi o to, ile danych pamięć jest w stanie przesłać w ciągu sekundy – im więcej, tym szybsze działanie komputera, zwłaszcza przy operacjach wymagających intensywnej komunikacji z RAM-em, jak np. edycja wideo, gry, czy praca na wielu aplikacjach jednocześnie. Jeśli ktoś składa komputer do bardziej wymagających zadań, patrzenie na parametry typu przepustowość jest kluczowe – co ciekawe, same taktowanie (częstotliwość) nie mówi wszystkiego o wydajności. Warto też pamiętać, że przepustowość zależy nie tylko od zegara, ale również od szerokości magistrali. Te 16 GB/s to wartość teoretyczna i w praktyce rzadko osiągana, ale daje dobre porównanie między modelami. Spotyka się też określenia typu PC3-12800 (12,8 GB/s) czy PC3-10600 (10,6 GB/s) – im wyższa liczba, tym wyższa potencjalna wydajność. Pamięć DDR3, mimo że dziś wypierana przez DDR4 i DDR5, nadal jest szeroko używana w starszych komputerach i serwerach. Moim zdaniem, umiejętność czytania takich oznaczeń naprawdę się przydaje, bo pozwala uniknąć nietrafionych zakupów lub niepotrzebnego przepłacania za parametry, które nie mają znaczenia w typowych zastosowaniach.

Pytanie 29

Urządzenie pokazane na ilustracji służy do zgrzewania wtyków

Ilustracja do pytania
A. RJ 45
B. SC
C. BNC
D. E 2000
Narzędzie przedstawione na rysunku to zaciskarka do wtyków RJ 45 wykorzystywana w sieciach komputerowych opartych na kablach typu skrętka. Wtyki RJ 45 są standardowymi złączami stosowanymi w kablach ethernetowych kategorii 5 6 i wyższych umożliwiającymi połączenia w sieciach LAN. Zaciskarka umożliwia właściwe umiejscowienie przewodów w złączu oraz zapewnia odpowiednie połączenie elektryczne dzięki zaciskaniu metalowych styków na izolacji przewodów. Proces ten wymaga precyzyjnego narzędzia które pozwala na równomierne rozłożenie siły co minimalizuje ryzyko uszkodzenia złącza. Przy prawidłowym użyciu zaciskarki możliwe jest uzyskanie niezawodnych połączeń które charakteryzują się wysoką odpornością na zakłócenia elektromagnetyczne. Warto również zwrócić uwagę na zastosowanie odpowiedniej kategorii kabli zgodnie z obowiązującymi standardami branżowymi jak np. ANSI TIA EIA 568 co zapewnia optymalne parametry transmisji danych. W codziennej praktyce instalatora sieciowego znajomość i umiejętność używania takiego narzędzia jest kluczowa dla zapewnienia jakości i niezawodności połączeń sieciowych.

Pytanie 30

Podstawowym zadaniem mechanizmu Plug and Play jest:

A. wykrycie nowego sprzętu i automatyczne przypisanie mu zasobów
B. automatyczne uruchomienie ostatnio używanej gry
C. automatyczne wykonywanie kopii zapasowych danych na nowo podłączonym nośniku
D. automatyczne usunięcie sterowników, które nie były wykorzystywane przez dłuższy czas
Twoja odpowiedź o tym, jak nowy sprzęt jest automatycznie rozpoznawany, jest jak najbardziej trafna. Mechanizm Plug and Play to naprawdę fajna rzecz, bo sprawia, że podłączanie różnych urządzeń do komputera jest prostsze. Kiedy podłączysz coś nowego, system od razu to widzi i instaluje potrzebne sterowniki, więc nie musisz nic ręcznie robić. Dobrym przykładem jest drukarka USB: wystarczy, że ją podepniesz, a komputer sam zajmie się resztą. Dzięki PnP podłączenie sprzętu jest szybkie i bezproblemowe, co jest ogromnym ułatwieniem dla każdego użytkownika. W dzisiejszych czasach, kiedy wszyscy chcemy mieć wszystko pod ręką, to naprawdę istotna funkcja, żeby wszystko działało jak należy.

Pytanie 31

Na ilustracji przedstawiono okno konfiguracji rutera. Wskaż opcję, która wpływa na zabezpieczenie urządzenia przed atakami DDoS.

Ilustracja do pytania
A. Filtruj anonimowe żądania dotyczące Internetu.
B. Filtruj protokół IDENT (port 113).
C. Filtruj przekierowania internetowe NAT tylko dla IPv4.
D. Filtruj komunikaty typu multicast.
Intuicyjnie wiele osób kojarzy różne opcje filtrowania w panelu rutera z bezpieczeństwem i łatwo założyć, że każda z nich w jakiś sposób chroni przed atakami DDoS. W rzeczywistości jednak te ustawienia mają różne cele i nie wszystkie są powiązane z ochroną przed masowym zalewaniem ruchem. Filtracja komunikatów typu multicast dotyczy głównie ruchu wewnątrz sieci lokalnej, np. transmisji IPTV, protokołów automatycznego wykrywania urządzeń czy różnych usług sieciowych. Jej zadaniem jest ograniczenie niepotrzebnego rozgłaszania pakietów do wszystkich hostów w LAN, co wpływa na wydajność i porządek w sieci, ale nie stanowi realnej bariery dla ataku DDoS z Internetu na interfejs WAN. To bardziej kwestia optymalizacji ruchu niż klasyczne bezpieczeństwo perymetryczne. Podobnie opcja filtrowania protokołu IDENT (port 113) dotyczy bardzo konkretnej, historycznej usługi identyfikacji użytkownika, używanej kiedyś m.in. przez niektóre serwery IRC czy pocztowe. Zablokowanie tego portu jest sensowne ze względów bezpieczeństwa i prywatności, ale nie ma związku z typowymi scenariuszami DDoS – napastnicy nie potrzebują portu 113, żeby zalać łącze lub wyczerpać zasoby urządzenia. To raczej dokładanie kolejnej cegiełki do ogólnej polityki zamykania nieużywanych portów. Filtr przekierowań internetowych NAT tylko dla IPv4 bywa nieco mylący. NAT i przekierowania portów służą do wystawiania usług z sieci LAN do Internetu. Ograniczenie lub filtrowanie tych przekierowań może zmniejszyć liczbę dostępnych z zewnątrz usług, co ogólnie jest dobre z punktu widzenia bezpieczeństwa, ale samo w sobie nie jest mechanizmem anty-DDoS. Ataki rozproszone bardzo często celują w sam adres IP lub w otwarty, dozwolony serwis (np. HTTP, HTTPS), a nie w sam mechanizm NAT. Typowym błędem myślowym jest założenie, że „im więcej filtrów, tym lepiej przeciwko DDoS”, bez zrozumienia, jaki typ ruchu dana opcja faktycznie blokuje. W ochronie przed DDoS kluczowe jest ograniczanie anonimowych, niezamówionych żądań z Internetu, stosowanie zapór stanowych, ewentualnie filtrów po stronie operatora lub usług typu scrubbing center. Pozostałe wymienione opcje mogą poprawić ogólne bezpieczeństwo lub porządek w sieci, ale nie są bezpośrednią odpowiedzią na problem ataków DDoS, dlatego wybór ich jako głównego mechanizmu ochrony jest merytorycznie chybiony.

Pytanie 32

Mechanizm, który pozwala na podłączenie urządzeń peryferyjnych do systemu komputerowego, w którym każde urządzenie jest identyfikowane przez przypisany mu numer, to

A. BootLoader
B. Plug and Play
C. Hot Swap
D. CrossFire
Wybór odpowiedzi CrossFire jest błędny, ponieważ odnosi się do technologii firmy AMD, która pozwala na łączenie kilku kart graficznych w celu zwiększenia wydajności. To rozwiązanie jest zatem związane z wydajnością grafiki i nie ma zastosowania do identyfikacji i konfiguracji urządzeń peryferyjnych. Z kolei Hot Swap dotyczy możliwości wymiany komponentów systemu, takich jak dyski twarde, bez potrzeby wyłączania zasilania. Choć to podejście zwiększa wygodę operacyjną w kontekście serwerów czy urządzeń sieciowych, nie jest ono związane z automatycznym rozpoznawaniem urządzeń. BootLoader z kolei jest programem uruchamiającym system operacyjny na komputerze, a jego funkcja nie ma nic wspólnego z podłączaniem urządzeń peryferyjnych. Typowe błędy myślowe prowadzące do takich niepoprawnych wyborów to mylenie różnych mechanizmów i ich funkcji. Warto zauważyć, że prawidłowe rozpoznanie urządzeń poprzez mechanizm Plug and Play oszczędza czas użytkowników, eliminując konieczność ręcznego instalowania sterowników, co jest kluczowe w szybko zmieniającym się świecie technologii. Zrozumienie różnicy między tymi terminami jest istotne dla każdego, kto chce efektywnie zarządzać sprzętem komputerowym.

Pytanie 33

Po włączeniu komputera wyświetlił się komunikat: "non-system disk or disk error. Replace and strike any key when ready". Jakie mogą być przyczyny?

A. brak pliku ntldr
B. skasowany BIOS komputera
C. uszkodzony kontroler DMA
D. dyskietka umieszczona w napędzie
Odpowiedź 'dyskietka włożona do napędu' jest prawidłowa, ponieważ komunikat o błędzie 'non-system disk or disk error' często pojawia się, gdy komputer nie może znaleźć prawidłowego nośnika systemowego do uruchomienia. W sytuacji, gdy w napędzie znajduje się dyskietka, a komputer jest skonfigurowany do rozruchu z napędu dyskietek, system operacyjny może próbować załadować z niej dane, co skutkuje błędem, jeśli dyskietka nie zawiera odpowiednich plików rozruchowych. Praktyka wskazuje, że należy sprawdzić, czy napęd nie jest zablokowany innym nośnikiem, co często jest pomijane przez użytkowników. Utrzymanie porządku w napędach oraz ich regularna kontrola jest zgodne z dobrymi praktykami zarządzania systemem i minimalizuje ryzyko wystąpienia podobnych problemów. Dobrze jest również znać opcje BIOS/UEFI, które pozwalają na modyfikację kolejności rozruchu, aby uniknąć tego typu komplikacji.

Pytanie 34

Jak nazywa się kod kontrolny, który służy do wykrywania błędów oraz potwierdzania poprawności danych odbieranych przez stację końcową?

A. CAT
B. CNC
C. IRC
D. CRC
Odpowiedzi IRC, CAT i CNC w ogóle nie odnoszą się do kodów CRC, co może być mylące. IRC to po prostu protokół do czatowania w internecie, a nie coś, co zajmuje się sprawdzaniem błędów. W IRC nie ma mechanizmów, które by weryfikowały integralność danych, więc to się zupełnie nie zgadza z koncepcją CRC. Z kolei CAT dotyczy tomografii komputerowej, a to też nie ma nic wspólnego z kontrolą danych. Może to wynikać z podobieństw w nazwach, ale w praktyce nie obejmują one detekcji błędów. No a CNC, to technologia do kontrolowania maszyn przez komputery, która w ogóle nie zajmuje się sprawdzaniem danych, a raczej kierowaniem procesami produkcyjnymi. Czasami ludzie mylą te pojęcia, co sprawia, że odpowiedzi są nieprecyzyjne. Ważne jest, żeby zrozumieć, czym różnią się te terminy i jak działa CRC, jeśli chce się ogarnąć temat zabezpieczania danych.

Pytanie 35

Proces, który uniemożliwia całkowicie odzyskanie danych z dysku twardego, to

A. zerowanie dysku
B. niespodziewane usunięcie plików
C. zalanie dysku
D. zatarcie łożyska dysku
Przypadkowe usunięcie plików nie jest procesem nieodwracalnym, ponieważ w wielu przypadkach istnieją narzędzia do odzyskiwania danych, które mogą przywrócić usunięte pliki. Po usunięciu pliku, system operacyjny oznacza przestrzeń, którą plik zajmował, jako dostępną do zapisania nowych danych, ale sam plik może być odzyskany, dopóki nowe dane go nie nadpiszą. Dlatego często użytkownicy mogą przywrócić przypadkowo usunięte pliki, co czyni ten proces mniej drastycznym. Z kolei zalanie dysku może prowadzić do fizycznego uszkodzenia komponentów, co w rzeczywistości nie oznacza utraty danych na poziomie logicznym. W takich przypadkach możliwe jest odzyskanie danych, choć może wymagać to profesjonalnej interwencji, a sama naprawa uszkodzonego dysku bywa kosztowna. Zatarcie łożyska dysku to kolejny przypadek, który prowadzi do awarii sprzętu, ale niekoniecznie wiąże się z nieodwracalnością danych. Zawiedzione łożyska mogą skutkować błędami odczytu i zapisu, co wpływa na dostępność danych, ale nie prowadzi do ich permanentnej utraty. W związku z tym, koncepcje te są mylne, ponieważ nie uwzględniają różnicy między usunięciem danych a ich fizyczną utratą, co prowadzi do nieprawidłowych wniosków dotyczących procesów skasowania informacji.

Pytanie 36

Co robi polecenie Gpresult?

A. resetuje domyślne zasady grup dla kontrolera
B. prezentuje wynikowy zbiór zasad dla użytkownika lub komputera
C. modyfikuje konfigurację zasad grupy
D. pokazuje szczegóły dotyczące kontrolera
Odpowiedź 'wyświetla wynikowy zestaw zasad dla użytkownika lub komputera' jest poprawna, ponieważ polecenie Gpresult jest narzędziem systemowym w systemach Windows, które umożliwia administratorom uzyskanie szczegółowych informacji na temat zasad grupy, które zostały zastosowane do konkretnego użytkownika lub komputera. Gpresult pozwala na identyfikację, które zasady grupy są aktywne, a także ich priorytety oraz źródła. To narzędzie jest niezwykle przydatne w kontekście rozwiązywania problemów z zasobami i dostępem do polityk bezpieczeństwa w organizacjach. Przykładowo, administratorzy mogą używać Gpresult do weryfikacji, czy nowe zasady grupy zostały poprawnie zastosowane po ich wprowadzeniu, co jest kluczowe dla zapewnienia bezpieczeństwa i zgodności z regulacjami. Good practices sugerują, aby regularnie sprawdzać wyniki zasad grupy, aby upewnić się, że wszyscy użytkownicy i komputery są zgodni z aktualnymi politykami.

Pytanie 37

CommView oraz WireShark to aplikacje wykorzystywane do

A. badania zasięgu sieci bezprzewodowej
B. określania wartości tłumienia w kanale transmisyjnym
C. analizowania pakietów przesyłanych w sieci
D. ochrony przesyłania danych w sieci
CommView i WireShark to narzędzia wykorzystywane do analizy ruchu sieciowego, umożliwiające monitorowanie pakietów transmitowanych w sieci w czasie rzeczywistym. Dzięki tym programom można dokładnie zobaczyć, jakie dane są przesyłane, co jest kluczowe przy diagnozowaniu problemów z wydajnością sieci, monitorowaniu bezpieczeństwa, czy optymalizacji usług sieciowych. Przykładowo, WireShark pozwala na filtrowanie pakietów według różnych kryteriów, co może być niezwykle przydatne w przypadku identyfikacji niepożądanych połączeń lub analizowania ruchu do i z określonych adresów IP. Zastosowanie tych narzędzi znajduje się w standardach branżowych, takich jak ITIL czy ISO/IEC 27001, gdzie monitoring i analiza ruchu sieciowego są kluczowymi elementami zarządzania bezpieczeństwem informacji oraz zapewnienia jakości usług.

Pytanie 38

Symbol graficzny przedstawiony na ilustracji oznacza złącze

Ilustracja do pytania
A. DVI
B. COM
C. HDMI
D. FIRE WIRE
Symbol przedstawiony na rysunku to oznaczenie złącza FireWire znanego również jako IEEE 1394 Interfejs FireWire jest używany do przesyłania danych między urządzeniami elektronicznymi najczęściej w kontekście urządzeń multimedialnych takich jak kamery cyfrowe i zewnętrzne dyski twarde FireWire charakteryzuje się wysoką przepustowością i szybkością transmisji danych co czyni go idealnym do przesyłania dużych plików multimedialnych w czasie rzeczywistym Standard IEEE 1394 umożliwia podłączenie wielu urządzeń do jednego kontrolera co ułatwia tworzenie rozbudowanych systemów multimedialnych bez potrzeby stosowania skomplikowanych ustawień Dzięki szerokiej zgodności z wieloma systemami operacyjnymi FireWire jest ceniony w branżach kreatywnych takich jak produkcja filmowa i dźwiękowa choć w ostatnich latach jego popularność nieco zmalała z powodu wzrostu zastosowań USB i Thunderbolt Mimo to zrozumienie jego użycia jest kluczowe dla profesjonalistów zajmujących się archiwizacją cyfrową i edycją multimediów szczególnie w kontekście starszych urządzeń które nadal wykorzystują ten standard

Pytanie 39

Którego protokołu działanie zostało zobrazowane na załączonym rysunku?

Ilustracja do pytania
A. Dynamic Host Configuration Protocol (DHCP)
B. Domain Name System(DNS)
C. Telnet
D. Security Shell (SSH)
Dynamic Host Configuration Protocol (DHCP) jest protokołem sieciowym używanym do automatycznego przypisywania adresów IP oraz innych parametrów konfiguracyjnych urządzeniom w sieci. Proces przedstawiony na rysunku to typowa sekwencja DHCP, która składa się z czterech głównych etapów: DISCOVER, OFFER, REQUEST i ACKNOWLEDGMENT. Na początku klient DHCP wysyła wiadomość DISCOVER, aby znaleźć dostępne serwery DHCP. Serwer DHCP odpowiada wiadomością OFFER, w której proponuje adres IP i inne parametry konfiguracyjne. Następnie klient wysyła wiadomość REQUEST, aby formalnie zażądać przyznania oferowanego adresu IP. Proces kończy się wiadomością ACKNOWLEDGMENT, którą serwer potwierdza przypisanie adresu IP i wysyła dodatkowe informacje konfiguracyjne. Praktyczne zastosowanie DHCP pozwala na uproszczenie zarządzania adresami IP w dużych sieciach, eliminując potrzebę ręcznego przypisywania adresów każdemu urządzeniu. Zapewnia również elastyczność i optymalizację wykorzystania dostępnych adresów IP oraz minimalizuje ryzyko konfliktów adresów. DHCP jest zgodny z wieloma standardami branżowymi, co czyni go uniwersalnym rozwiązaniem dla organizacji różnej wielkości. Warto również zaznaczyć, że DHCP oferuje funkcje takie jak dzierżawa adresów, co umożliwia efektywne zarządzanie czasem przypisania zasobów sieciowych.

Pytanie 40

Aby uporządkować dane pliku na dysku twardym, zapisane w klastrach, które nie sąsiadują ze sobą, tak aby znajdowały się w sąsiadujących klastrach, należy przeprowadzić

A. defragmentację dysku
B. program chkdsk
C. oczyszczanie dysku
D. program scandisk
Defragmentacja dysku to proces, który reorganizuje dane na dysku twardym w taki sposób, aby pliki zajmowały sąsiadujące ze sobą klastrów, co znacząco zwiększa wydajność systemu. W miarę jak pliki są tworzone, modyfikowane i usuwane, mogą one być zapisywane w różnych, niesąsiadujących ze sobą lokalizacjach. To prowadzi do fragmentacji, co z kolei powoduje, że głowica dysku musi przemieszczać się w różne miejsca, aby odczytać pełny plik. Defragmentacja eliminuje ten problem, co skutkuje szybszym dostępem do danych. Przykładowo, regularne przeprowadzanie defragmentacji na komputerach z systemem Windows, zwłaszcza na dyskach HDD, może poprawić czas ładowania aplikacji i systemu operacyjnego, jak również zwiększyć ogólną responsywność laptopa lub komputera stacjonarnego. Warto pamiętać, że w przypadku dysków SSD defragmentacja nie jest zalecana z powodu innej architektury działania, która nie wymaga reorganizacji danych w celu poprawy wydajności. Zamiast tego, w SSD stosuje się technologię TRIM, która zarządza danymi w inny sposób.