Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 22 kwietnia 2026 19:48
  • Data zakończenia: 22 kwietnia 2026 20:08

Egzamin zdany!

Wynik: 24/40 punktów (60,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby połączyć cyfrową kamerę z interfejsem IEEE 1394 (FireWire) z komputerem, wykorzystuje się kabel z wtykiem zaprezentowanym na fotografii

Ilustracja do pytania
A. C
B. A
C. D
D. B
Kiedy wybiera się niepoprawne odpowiedzi, trzeba przede wszystkim zrozumieć różnorodność interfejsów i ich właściwości. Na przykład złącze HDMI, widoczne na zdjęciu B, jest popularne do przesyłania nieskompresowanego sygnału audio i wideo, głównie w telewizorach i monitorach, ale nie ma za bardzo nic wspólnego z IEEE 1394. Jego budowa i zastosowanie są inne niż w FireWire, bo HDMI nie obsługuje transferu danych między komputerem a kamerą, tylko przesyła obraz i dźwięk. Z drugiej strony, USB, pokazane na zdjęciu C, jest bardzo uniwersalne i używane w wielu różnych urządzeniach, ale ma swoje ograniczenia w porównaniu do FireWire pod względem przepustowości i sposobu przesyłania danych. Chociaż USB jest wszechobecne w nowoczesnych sprzętach, nie zadziała z kamerami cyfrowymi, które mają interfejs IEEE 1394. RCA, które widać na zdjęciu D, to standardowe analogowe złącze, używane głównie do audio i wideo, ale nie ma nic wspólnego z cyfrowym transferem danych, jak FireWire. Źle dobrane złącze może prowadzić do problemów z kompatybilnością i ograniczeń w prędkości przesyłania danych, co może być kłopotliwe w profesjonalnej pracy z multimediami. Fajnie jest zrozumieć, jakie są różnice między tymi standardami, żeby dobrze wykorzystać urządzenia multimedialne i zapewnić efektywną pracę w zawodzie.

Pytanie 2

Elementem, który umożliwia wymianę informacji pomiędzy procesorem a magistralą PCI-E, jest

A. układ Super I/O
B. chipset
C. cache procesora
D. pamięć RAM
Chipset jest kluczowym elementem płyty głównej, który zarządza komunikacją między procesorem a innymi komponentami, w tym magistralą PCI-E. Jego zadaniem jest koordynacja transferu danych, co jest niezbędne do efektywnego działania systemu komputerowego. Chipset działa jako swoisty punkt pośredni, umożliwiając synchronizację i optymalizację przepływu informacji między procesorem, pamięcią RAM, a urządzeniami peryferyjnymi podłączonymi do magistrali PCI-E, takimi jak karty graficzne czy dyski SSD. W praktyce oznacza to, że dobrze zaprojektowany chipset może znacznie poprawić wydajność systemu, umożliwiając szybki i niezawodny transfer danych. Na przykład, w systemach z intensywnym przetwarzaniem grafiki, odpowiedni chipset pozwala na efektywne wykorzystanie możliwości nowoczesnych kart graficznych, co jest kluczowe dla zadań takich jak renderowanie 3D czy obróbka wideo. W branży IT standardem stało się projektowanie chipsetów, które wspierają najnowsze technologie komunikacyjne, takie jak PCIe 4.0 czy 5.0, co pozwala na jeszcze wyższe prędkości transferu danych.

Pytanie 3

W przypadku zalania układu elektronicznego klawiatury słodkim napojem należy natychmiast odłączyć ją od zestawu komputerowego, a następnie

A. wypłukać klawiaturę w wodzie destylowanej z detergentem i podłączyć ją do komputera.
B. przeczyścić całą klawiaturę w alkoholu izopropylowym i pozostawić na 24 h do wyschnięcia.
C. zdemontować klawisze i pozostawić do wyschnięcia na minimum 48 h.
D. zdemontować każdy z klawiszy, przesmarować elementy ruchome smarem łożyskowym i podłączyć klawiaturę do komputera.
Wybrałeś najlepszą możliwą opcję. Czyszczenie klawiatury po zalaniu słodkim napojem powinno być przeprowadzone bardzo dokładnie, a alkohol izopropylowy jest tu prawdziwym bohaterem. Jest to środek, który nie przewodzi prądu, odparowuje szybko i nie zostawia żadnych osadów, a co najważniejsze – bardzo dobrze rozpuszcza resztki cukru oraz inne zanieczyszczenia organiczne. Praktyka mówi jasno: po odłączeniu klawiatury od zasilania należy ją zdemontować na tyle, na ile pozwala konstrukcja, a potem przemyć obficie alkoholem izopropylowym – można to zrobić np. miękkim pędzelkiem nasączonym w alkoholu. Warto zostawić klawiaturę na minimum 24 godziny do pełnego wyschnięcia, bo nawet niewielka ilość wilgoci może później powodować zwarcia czy korozję ścieżek. Z własnej praktyki wiem, że często po takim zabiegu klawiatura działa jeszcze przez długie lata. Warto wiedzieć, że takie postępowanie zgadza się ze standardami serwisowymi większości producentów sprzętu elektronicznego. Alkohol izopropylowy to podstawa każdego serwisu elektroniki – nie dość, że czyści, to jeszcze dezynfekuje, a przy tym nie rozpuszcza plastiku. Gdyby użyć wody lub zwykłego detergentu, to ryzyko trwałego uszkodzenia byłoby dużo większe. Pamiętaj, żeby nie spieszyć się z podłączaniem klawiatury po czyszczeniu – lepiej poczekać te 24 godziny, niż potem żałować.

Pytanie 4

Usługa umożliwiająca przechowywanie danych na zewnętrznym serwerze, do którego dostęp możliwy jest przez Internet to

A. żadna z powyższych
B. PSTN
C. Cloud
D. VPN
Cloud, czyli chmura obliczeniowa, to usługa przechowywania danych oraz zasobów na zewnętrznych serwerach, które są dostępne przez Internet. Dzięki temu użytkownicy nie muszą inwestować w drogi sprzęt ani konfigurować lokalnych serwerów, co znacznie obniża koszty infrastruktury IT. W praktyce, usługi chmurowe oferują elastyczność oraz skalowalność, co oznacza, że użytkownicy mogą szybko dostosowywać swoje zasoby do zmieniających się potrzeb. Przykłady popularnych rozwiązań chmurowych to Amazon Web Services (AWS), Microsoft Azure czy Google Cloud Platform, które stosują standardy takie jak ISO/IEC 27001 dla zarządzania bezpieczeństwem informacji. Chmura obliczeniowa wspiera także zdalną współpracę, umożliwiając zespołom pracę zdalną oraz dostęp do zasobów z dowolnego miejsca na świecie. Warto także zwrócić uwagę na modele chmurowe, takie jak IaaS (Infrastructure as a Service), PaaS (Platform as a Service) i SaaS (Software as a Service), które oferują różne poziomy zarządzania i kontroli nad zasobami.

Pytanie 5

Prezentowane wbudowane narzędzie systemów Windows w wersji Enterprise lub Ultimate jest przeznaczone do

Ilustracja do pytania
A. integracji danych na dyskach
B. kompresji przestrzeni dyskowej
C. kryptograficznej ochrony informacji na dyskach
D. tworzenia kopii zapasowej dysku
BitLocker to wbudowane narzędzie dostępne w systemach Windows w wersjach Enterprise i Ultimate które służy do kryptograficznej ochrony danych na dyskach. Umożliwia pełne szyfrowanie dysków co oznacza że wszystkie dane na dysku są zabezpieczone przy użyciu zaawansowanych algorytmów szyfrowania. Zastosowanie BitLockera jest szczególnie istotne w kontekście ochrony danych przed nieautoryzowanym dostępem na przykład w przypadku kradzieży laptopa. Dzięki zastosowaniu modułu TPM (Trusted Platform Module) BitLocker zapewnia dodatkowy poziom bezpieczeństwa przechowując klucze kryptograficzne. Praktyczne zastosowanie BitLockera obejmuje ochronę danych wrażliwych na urządzeniach przenośnych i stacjonarnych co jest zgodne z najlepszymi praktykami branżowymi w zakresie bezpieczeństwa informacji. BitLocker wspiera także zarządzanie kluczami odzyskiwania co pozwala na odzyskanie dostępu do zaszyfrowanych danych w sytuacjach awaryjnych. Implementacja BitLockera jest zgodna z międzynarodowymi standardami bezpieczeństwa takimi jak ISO 27001 co czyni go efektywnym rozwiązaniem dla firm dążących do spełnienia wymogów regulacyjnych dotyczących ochrony danych osobowych i poufnych informacji.

Pytanie 6

Metoda przesyłania danych pomiędzy urządzeniami CD/DVD a pamięcią komputera w trybie bezpośredniego dostępu do pamięci to

A. SATA
B. IDE
C. PIO
D. DMA
Wybór odpowiedzi PIO (Programmed Input/Output), SATA (Serial Advanced Technology Attachment) oraz IDE (Integrated Drive Electronics) pokazuje pewne nieporozumienia dotyczące mechanizmów transferu danych w systemach komputerowych. PIO i IDE to metody komunikacji, które nie korzystają z bezpośredniego dostępu do pamięci. PIO polega na tym, że procesor kontroluje każdy transfer danych, co staje się wąskim gardłem w przypadku większych transferów. Użycie PIO w nowoczesnych systemach jest ograniczone, ponieważ przyczynia się do większego obciążenia CPU oraz wydłużenia czasu transferu, co jest nieefektywne w porównaniu do DMA. Z drugiej strony, SATA to standard interfejsu, który określa, w jaki sposób urządzenia podłącza się do komputera, ale nie jest techniką transferu danych w sensie dostępu do pamięci. Podczas gdy SATA oferuje szybsze transfery niż starsze standardy, takie jak PATA (Parallel ATA), nie zmienia fundamentalnej zasady, że transfery danych mogą być zrealizowane bezpośrednio do pamięci przy użyciu DMA. Wybór jednej z tych opcji pokazuje brak zrozumienia fundamentalnych różnic pomiędzy różnymi typami dostępu do pamięci i ich wpływu na wydajność systemu. Kluczowe jest zrozumienie, że techniki takie jak DMA są zaprojektowane z myślą o minimalizowaniu obciążenia CPU i optymalizacji transferów danych, co czyni je bardziej odpowiednimi w kontekście współczesnych aplikacji wymagających wysokiej wydajności.

Pytanie 7

Które z poniższych urządzeń jest przykładem urządzenia peryferyjnego wejściowego?

A. Monitor
B. Projektor
C. Klawiatura
D. Drukarka
Urządzenie peryferyjne wejściowe to sprzęt, który służy do wprowadzania danych do systemu komputerowego. Klawiatura jest doskonałym przykładem takiego urządzenia. Umożliwia użytkownikowi wprowadzanie danych tekstowych, poleceń oraz interakcji z oprogramowaniem. Jest niezbędna w wielu zastosowaniach, od codziennego użytku po profesjonalne programowanie. Klawiatury mogą mieć różne układy i funkcje, w tym klawiatury numeryczne, multimedialne, czy mechaniczne, które są popularne wśród graczy i programistów. Klawiatura jest jednym z najważniejszych narzędzi w arsenale każdego użytkownika komputera. Wprowadza dane w sposób precyzyjny i szybki, co jest kluczowe w świecie informatyki. Przy projektowaniu interfejsów użytkownika oraz oprogramowania, uwzględnia się ergonomię i funkcjonalność klawiatur, co odzwierciedla ich znaczenie w codziennym użytkowaniu komputerów. W kontekście administracji systemów komputerowych, klawiatura jest fundamentalna, umożliwiając zarządzanie systemem, wprowadzanie poleceń i konfigurację urządzeń.

Pytanie 8

Jakie parametry otrzyma interfejs sieciowy eth0 po wykonaniu poniższych poleceń w systemie Linux?

ifconfig eth0 10.0.0.100
netmask 255.255.255.0
broadcast 10.0.0.255 up
route add default gw 10.0.0.10
A. adres IP 10.0.0.10, maskę /24, bramę 10.0.0.255
B. adres IP 10.0.0.100, maskę /22, bramę 10.0.0.10
C. adres IP 10.0.0.10, maskę /16, bramę 10.0.0.100
D. adres IP 10.0.0.100, maskę /24, bramę 10.0.0.10
Dobra robota! Odpowiedź, którą wybrałeś, dobrze określa, jak wygląda konfiguracja sieci w tym przypadku. Interfejs eth0 dostaje adres IP 10.0.0.100 oraz maskę podsieci /24, co oznacza, że mamy do czynienia z 255.255.255.0. To całkiem standardowe ustawienie dla wielu lokalnych sieci. Z pomocą komendy ifconfig ustalamy nasz adres IP i maskę dla interfejsu. Fajnie, że to wiesz. A co do polecenia route – dodaje ono bramę domyślną, przez którą przechodzą pakiety, gdy chcą wyjść z naszej lokalnej sieci. To wszystko jest bardzo istotne dla administratorów sieci, bo często zdarza się, że muszą oni wszystko ustawiać ręcznie. Automatyczne przypisywanie przez DHCP nie zawsze wystarcza, więc manualna konfiguracja daje pełną kontrolę nad tym, co się dzieje w sieci.

Pytanie 9

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. wybraniem pliku z obrazem dysku.
C. dodaniem drugiego dysku twardego.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 10

Jeśli w określonej przestrzeni będą funkcjonowały równocześnie dwie sieci WLAN w standardzie 802.11g, to aby zredukować ryzyko wzajemnych zakłóceń, należy przypisać im kanały o numerach różniących się o

A. 3
B. 5
C. 4
D. 2
Wybór kanałów o numerach różniących się o 4, 3 lub 2 prowadzi do zwiększonego ryzyka interferencji w sieciach WLAN, szczególnie w przypadku standardu 802.11g. Kanały w paśmie 2,4 GHz nakładają się na siebie, co oznacza, że użycie kanałów zbyt bliskich siebie nie tylko nie eliminuje, ale wręcz może potęgować zakłócenia. Na przykład, jeśli jedna sieć działa na kanale 1, a druga na kanale 4, to część pasma będzie się pokrywać, co spowoduje spadek wydajności i jakości sygnału. Obliczając odpowiednie odstępy między kanałami, ważne jest, aby pamiętać, że w przypadku 802.11g najbardziej efektywne są kanały oddalone od siebie o co najmniej 5. Przydzielanie kanałów o mniejszych różnicach sugeruje brak zrozumienia zasad działania technologii sieci bezprzewodowych oraz ich specyfiki, co może prowadzić do frustracji użytkowników z powodu niestabilnych połączeń i zakłóceń. Użytkownicy sieci powinni być świadomi, że poprawne dobranie kanałów to kluczowy element zarządzania sieciami WLAN, a ignorowanie tych zasad może prowadzić do obniżenia wydajności całego systemu.

Pytanie 11

Aby komputery mogły udostępniać dane w sieci, NIE powinny mieć tych samych

A. masek podsieci.
B. adresów IP.
C. grup roboczych.
D. serwerów DNS.
Adresy IP są unikalnymi identyfikatorami, które pozwalają na komunikację między urządzeniami w sieci. Każde urządzenie podłączone do sieci lokalnej lub Internetu musi mieć przypisany unikalny adres IP, aby mogło być zidentyfikowane i aby dane mogły być prawidłowo przesyłane. Jeśli dwa urządzenia miałyby ten sam adres IP, prowadziłoby to do konfliktów, ponieważ sieć nie byłaby w stanie określić, które urządzenie powinno odbierać dane adresowane do tego adresu. W praktyce, w sieciach lokalnych stosuje się różne metody przydzielania adresów IP, na przykład DHCP (Dynamic Host Configuration Protocol), który automatycznie przypisuje dostępne adresy IP urządzeniom w sieci. Zalecane jest również stosowanie standardów IPv4 i IPv6, które definiują zasady przydzielania adresów IP oraz zapewniają odpowiednią przestrzeń adresową. Wiedza na temat adresacji IP jest kluczowa w kontekście planowania sieci, konfiguracji routerów oraz zarządzania zasobami w sieci.

Pytanie 12

W przypadku awarii którego urządzenia w sieci lokalnej, cała sieć przestaje działać w topologii magistrali?

A. Kabel magistrali
B. Serwer DHCP
C. Router
D. Dowolny komputer kliencki
W topologii magistrali, uszkodzenie kabla magistrali skutkuje całkowitym zanikiem komunikacji w sieci, ponieważ wszystkie urządzenia korzystają z tego samego medium do przesyłania danych. Uszkodzenie dowolnego komputera klienckiego nie wpłynie na działanie całej sieci, ponieważ inne urządzenia nadal będą mogły komunikować się przez magistralę. Chociaż awaria routera lub serwera DHCP może wpłynąć na funkcjonalność sieci, to nie doprowadzi do całkowitego zaniku komunikacji w topologii magistrali. Router jest zazwyczaj używany do łączenia różnych sieci, a jego awaria może uniemożliwić połączenie z siecią zewnętrzną, ale nie wpłynie na komunikację w ramach samej magistrali. Z kolei serwer DHCP jest odpowiedzialny za dynamiczne przydzielanie adresów IP, a jego awaria mogłaby uniemożliwić nowym urządzeniom dołączenie do sieci, ale nie zablokuje komunikacji między już podłączonymi urządzeniami. W topologii magistrali to właśnie kabel magistrali pełni kluczową rolę i jego uszkodzenie wpływa na całą sieć, podczas gdy inne elementy mogą mieć wpływ jedynie na pewne aspekty funkcjonalności sieci.

Pytanie 13

Na płycie głównej doszło do awarii zintegrowanej karty sieciowej. Komputer nie ma dysku twardego ani innych napędów, takich jak stacja dysków czy CD-ROM. Klient informuje, że w sieci firmowej komputery nie mają napędów, a wszystko "czyta" się z serwera. Aby przywrócić utraconą funkcjonalność, należy zainstalować

A. dysk twardy w komputerze
B. kartę sieciową samodzielnie wspierającą funkcję Preboot Execution Environment w gnieździe rozszerzeń
C. kartę sieciową samodzielnie wspierającą funkcję Postboot Execution Enumeration w gnieździe rozszerzeń
D. napęd CD-ROM w komputerze
Zastosowanie napędu CD-ROM czy dysku twardego w opisanej sytuacji jest nieodpowiednie z kilku kluczowych powodów. Komputer, który nie ma dostępu do lokalnych napędów, nie może korzystać z tradycyjnych metod rozruchu. Napęd CD-ROM, jako urządzenie optyczne, wymaga fizycznego dostępu do nośników danych, co stoi w sprzeczności z twierdzeniem klienta, że wszystkie operacje są wykonywane z serwera. Ponadto, instalacja dysku twardego nie zaspokaja potrzeby rozruchu zdalnego; wymagałoby to lokalnego systemu operacyjnego, co w opisanej sytuacji jest niemożliwe. Karty sieciowe wspierające funkcje Postboot Execution Enumeration (PBE) są także niewłaściwym wyborem, ponieważ ta technologia jest związana z późniejszym etapem rozruchu, a nie z jego inicjacją, co sprawia, że nie adresuje problemu z brakiem funkcjonalności spowodowanego uszkodzeniem zintegrowanej karty. W takich sytuacjach kluczowe jest zrozumienie, jak różne technologie są ze sobą powiązane oraz jakie są ich konkretne zastosowania w praktyce. Nieprawidłowe podejście do rozwiązywania problemów w takich sytuacjach może prowadzić do znacznych opóźnień w przywracaniu operacyjności systemu, co w środowisku firmowym może być szczególnie kosztowne.

Pytanie 14

W którym miejscu w edytorze tekstu należy wprowadzić tekst lub ciąg znaków, który ma być widoczny na wszystkich stronach dokumentu?

A. W polu tekstowym
B. W przypisach końcowych
C. W przypisach dolnych
D. W nagłówku lub stopce
Wprowadzenie informacji lub ciągów znaków, które mają pojawiać się na wszystkich stronach dokumentu, odbywa się w nagłówku lub stopce. Nagłówek to obszar, który znajduje się na górze każdej strony, natomiast stopka znajduje się na dole. Umożliwia to umieszczanie takich elementów jak numer strony, tytuł dokumentu czy nazwisko autora w sposób automatyczny, co jest nie tylko estetyczne, ale również praktyczne. Przykładem zastosowania nagłówków i stopek może być wprowadzenie numeracji stron w długich dokumentach, takich jak raporty, prace dyplomowe czy publikacje. Używanie nagłówków i stopek jest zgodne z zasadami dobrego projektowania dokumentów, co sprawia, że są one bardziej czytelne i zorganizowane. Warto również zaznaczyć, że różne edytory tekstu, takie jak Microsoft Word czy Google Docs, oferują łatwe narzędzia do edytowania tych obszarów, co pozwala na łatwe dostosowanie treści do potrzeb użytkownika. Taka funkcjonalność jest kluczowa dla profesjonalnych dokumentów, gdzie spójność i estetyka mają ogromne znaczenie.

Pytanie 15

Użytkownik chce zabezpieczyć mechanicznie dane na karcie pamięci przed przypadkowym skasowaniem. Takie zabezpieczenie umożliwia karta

A. MMC
B. MS
C. SD
D. CF
Karta SD (Secure Digital) jest jedynym spośród wymienionych rozwiązań, które posiada fizyczny przełącznik blokady zapisu, zwany często „mechanicznym suwakiem write-protect”. To taki malutki przesuwak z boku karty, którym można manualnie zablokować możliwość zapisu lub kasowania danych na karcie. Moim zdaniem to bardzo praktyczne, zwłaszcza jeśli ktoś przenosi ważne zdjęcia lub dokumenty i boi się przypadkowego skasowania – wystarczy przesunąć suwak i system operacyjny powinien zablokować zapis. Takie zabezpieczenie jest zgodne z branżowymi standardami i często wykorzystywane w aparatach fotograficznych, rejestratorach dźwięku, a nawet niektórych drukarkach. Z mojego doświadczenia wynika, że profesjonaliści często korzystają z tej opcji podczas pracy w terenie czy na ważnych wydarzeniach, żeby mieć 100% pewności, że dane nie zostaną usunięte przez przypadek. Warto wiedzieć, że chociaż przełącznik na samej karcie nie daje absolutnej ochrony (bo niektóre czytniki mogą go ignorować), to jednak jest to jedna z najprostszych i najczęściej spotykanych metod mechanicznej ochrony przed zapisem. Takiego rozwiązania nie mają karty CF, MS ani MMC – tam nie znajdziemy żadnego fizycznego przełącznika blokującego zapis danych. To jest właśnie ten drobny detal, który w praktyce potrafi uratować dużo nerwów i pracy. Jeśli zależy Ci na bezpieczeństwie danych na kartach pamięci, wybór SD z blokadą write-protect zdecydowanie ułatwia życie.

Pytanie 16

Wskaż nieprawidłowy sposób podziału dysków MBR na partycje?

A. 1 partycja podstawowa oraz 2 rozszerzone
B. 1 partycja podstawowa oraz 1 rozszerzona
C. 2 partycje podstawowe oraz 1 rozszerzona
D. 3 partycje podstawowe oraz 1 rozszerzona
Podział dysków MBR na partycje jest tematem złożonym, a wiele osób ma tendencję do nieprawidłowego rozumienia zasadniczych zasad tego systemu. Odpowiedź sugerująca utworzenie 1 partycji podstawowej i 1 rozszerzonej nie ma sensu, ponieważ w takim przypadku nie ma możliwości utworzenia dodatkowych partycji logicznych, które są kluczowe w rozwiązywaniu problemów z ograniczeniami podziału. Ponadto, koncepcja posiadania dwóch partycji rozszerzonych jest błędna, ponieważ standard MBR zezwala tylko na jedną partycję rozszerzoną, która sama w sobie może zawierać do 128 partycji logicznych. Użytkownicy często mylą terminologię i nie rozumieją, że partycje rozszerzone służą do przechowywania większej liczby partycji logicznych, co jest niezbędne w przypadku, gdy potrzebne są dodatkowe systemy operacyjne lub aplikacje. Podobnie, stwierdzenie o trzech partycjach podstawowych i jednej rozszerzonej jest mylone, ponieważ przy takim podziale istnieje jeszcze możliwość utworzenia jedynie jednej rozszerzonej, co ogranicza elastyczność. Zrozumienie tych podziałów jest kluczowe, aby uniknąć problemów z zarządzaniem danymi i systemami operacyjnymi, co często prowadzi do frustracji i błędów w konfiguracji. Edukacja na temat standardów MBR pomaga w zrozumieniu ograniczeń oraz optymalizacji struktury dysków, co jest niezbędne w każdym środowisku informatycznym.

Pytanie 17

Jakie urządzenie w sieci lokalnej nie wydziela segmentów sieci komputerowej na kolizyjne domeny?

A. Most
B. Koncentrator
C. Router
D. Przełącznik
Router, most, a także przełącznik, to urządzenia, które w pewnym stopniu dzielą obszar sieci na domeny kolizyjne, co jest kluczowym aspektem w zarządzaniu ruchem w sieciach komputerowych. Router działa na wyższych warstwach modelu OSI, umożliwiając kierowanie pakietów między różnymi sieciami, co oznacza, że może dzielić sieci na różne podsieci, redukując kolizje. Most, również pracujący na warstwie 2, segmentuje sieć w celu redukcji ruchu, co z kolei poprawia wydajność całej sieci. Przełącznik, z kolei, to zaawansowane urządzenie, które przekazuje dane tylko do konkretnego portu, co znacząco ogranicza liczbę kolizji i zwiększa przepustowość. Typowym błędem myślowym jest mylenie koncentratora z tymi bardziej zaawansowanymi urządzeniami, które są kluczowe w optymalizacji ruchu sieciowego. Wybierając odpowiednie urządzenie do sieci lokalnej, ważne jest zrozumienie, jak każde z nich wpływa na strukturę sieci oraz wydajność komunikacji między urządzeniami. Współczesne sieci preferują przełączniki z uwagi na ich zdolność do zarządzania ruchem w sposób bardziej efektywny, co jest zgodne z dobrymi praktykami w projektowaniu i zarządzaniu infrastrukturą sieciową.

Pytanie 18

Wskaż symbol, który znajduje się na urządzeniach elektrycznych przeznaczonych do handlu w Unii Europejskiej?

Ilustracja do pytania
A. D
B. C
C. B
D. A
Znak CE jest symbolem potwierdzającym, że produkt spełnia wymagania unijnych dyrektyw związanych z bezpieczeństwem zdrowiem i ochroną środowiska. Jest to obligatoryjne oznakowanie dla wielu produktów sprzedawanych na rynku EOG co obejmuje Unię Europejską oraz Islandię Norwegię i Liechtenstein. Umieszczenie znaku CE na produkcie wskazuje na to że producent przeprowadził ocenę zgodności i produkt spełnia wszystkie istotne wymogi prawne dotyczące oznakowania CE. Praktycznie oznacza to że produkty takie jak urządzenia elektryczne muszą być zgodne z dyrektywami takimi jak LVD Dyrektywa Niskonapięciowa czy EMC Dyrektywa kompatybilności elektromagnetycznej. Dzięki temu konsumenci i użytkownicy mają pewność że produkt spełnia określone standardy bezpieczeństwa i jakości. Producent zobowiązany jest do przechowywania dokumentacji technicznej potwierdzającej zgodność z dyrektywami na wypadek kontroli. Znak CE nie jest znakiem jakości czy pochodzenia ale zapewnia swobodny przepływ towarów na terenie EOG co jest kluczowe dla jednolitego rynku.

Pytanie 19

Polecenie to zostało wydane przez Administratora systemu operacyjnego w trakcie ręcznej konfiguracji sieciowego interfejsu. Wynikiem wykonania tego polecenia jest ```netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1```

A. ustawienie maski 24-bitowej
B. aktywacja dynamicznego przypisywania adresów IP
C. dezaktywacja interfejsu
D. przypisanie adresu 151.10.0.1 jako domyślnej bramy
Polecenie wydane za pomocą komendy 'netsh interface ip set address name="Glowna" static 151.10.10.2 255.255.0.0 151.10.0.1' ustawia adres IP oraz maskę podsieci dla interfejsu o nazwie 'Glowna'. W tym przypadku adres '151.10.0.1' został określony jako brama domyślna, co jest kluczowe w kontekście routingu. Brama domyślna jest to adres IP routera, przez który urządzenie komunikuje się z innymi sieciami, w tym z internetem. Ustawienie bramy domyślnej jest niezbędne, aby urządzenie mogło wysyłać pakiety do adresów spoza swojej lokalnej podsieci. Dobre praktyki dotyczące konfiguracji sieci zalecają, aby brama domyślna była zawsze odpowiednio skonfigurowana, co zapewnia prawidłowe funkcjonowanie komunikacji w sieci. Przykładem praktycznego zastosowania tej komendy może być sytuacja, gdy administrator sieci konfiguruje nowe urządzenie, które musi uzyskać dostęp do zewnętrznych zasobów. Bez poprawnie ustawionej bramy domyślnej, urządzenie nie będzie mogło komunikować się z innymi sieciami.

Pytanie 20

Funkcja Intel Turbo Boost w mikroprocesorze umożliwia

A. wykonywanie skomplikowanych obliczeń przez dwa niezależne rdzenie, z których każdy może realizować do czterech pełnych instrukcji równocześnie
B. aktywizację oraz dezaktywizację komponentów mikroprocesora w celu oszczędzania energii
C. automatyczne dostosowywanie częstotliwości działania mikroprocesora w zależności od obciążenia
D. przeprowadzanie większej liczby instrukcji w jednym cyklu zegara
Funkcje mikroprocesorów są złożonymi mechanizmami, które wymagają precyzyjnego zrozumienia ich działania. Odpowiedzi, które sugerują, że Turbo Boost wiąże się z włączaniem i wyłączaniem elementów mikroprocesora w celu oszczędzania energii, są mylne. Choć oszczędzanie energii jest ważnym aspektem nowoczesnych mikroprocesorów, Turbo Boost nie polega na prostym włączaniu lub wyłączaniu rdzeni. Zamiast tego, technologia ta wpływa na regulację częstotliwości pracy istniejących rdzeni, co pozwala na elastyczne dopasowanie do obciążenia. Kiedy procesor nie potrzebuje pełnej mocy, nie oznacza to, że można go po prostu wyłączyć; zamiast tego, jego częstotliwość jest obniżana, co prowadzi do zmniejszenia zużycia energii. Inna odpowiedź wskazująca na wykonywanie rozległych obliczeń przez dwa niezależne rdzenie jest również błędna. Turbo Boost nie zwiększa liczby rdzeni, lecz optymalizuje wydajność już istniejących rdzeni poprzez zwiększenie ich częstotliwości. Ponadto, stwierdzenie, że pozwala na wykonywanie większej liczby instrukcji w jednym cyklu zegara, jest nieprecyzyjne. W rzeczywistości, Turbo Boost nie zmienia architektury procesora ani nie pozwala na równoległe przetwarzanie w sposób, który zwiększa liczbę wykonywanych instrukcji na cykl. Zrozumienie tych mechanizmów jest kluczowe dla efektywnego wykorzystania technologii mikroprocesorowej oraz prawidłowego podejścia do optymalizacji wydajności systemów komputerowych.

Pytanie 21

Element płyty głównej, który jest odpowiedzialny za wymianę danych między procesorem a innymi komponentami płyty, to

A. chipset
B. pamięć RAM
C. BIOS ROM
D. układ chłodzenia
Chipset jest naprawdę ważnym elementem płyty głównej. Odpowiada za to, jak różne części komputera ze sobą rozmawiają, na przykład procesor, pamięć RAM czy karty graficzne. Można powiedzieć, że to taki pośrednik, który sprawia, że wszystko działa razem. Weźmy na przykład gry komputerowe - bez chipsetu przesyłanie danych między procesorem a kartą graficzną byłoby chaosem, a przecież każdy chce płynnej grafiki. Chipsety są różne, bo mają różne architektury, co ma potem wpływ na to, jak działają z różnymi procesorami. W branży mamy standardy jak Intel czy AMD, które mówią, jakie chipsety są dostępne i co potrafią. Moim zdaniem, dobrze dobrany chipset to podstawa, żeby cały system działał stabilnie i wydajnie, zwłaszcza gdy korzystamy z aplikacji wymagających sporo mocy obliczeniowej.

Pytanie 22

Kabel sieciowy z końcówkami RJ45 był testowany za pomocą diodowego urządzenia do sprawdzania okablowania. Na tym urządzeniu diody LED włączały się po kolei, z wyjątkiem diod oznaczonych numerami 2 i 3, które świeciły jednocześnie na jednostce głównej testera, natomiast nie świeciły na jednostce zdalnej. Jaka była tego przyczyna?

A. Nieciągłość kabla
B. Zwarcie
C. Pary odwrócone
D. Pary skrzyżowane
Pojęcie zwarcia jest często mylone z innymi typami błędów w okablowaniu, co może prowadzić do niepoprawnej diagnostyki. Parowanie odwrócone, czyli niewłaściwe przyporządkowanie przewodów w wtyku, może prowadzić do braku połączenia, ale nie spowoduje sytuacji, w której diody na jednostce głównej świecą się, a na jednostce zdalnej nie. W przypadku par skrzyżowanych, mówimy o sytuacji, w której przewody są połączone w sposób, który eliminuje przesyłanie sygnału; również nie jest to przyczyna błędu w opisywanym teście. Z kolei nieciągłość kabla oznacza, że jeden z przewodów jest uszkodzony lub przerwany; wówczas nie powinny zapalać się diody na żadnej jednostce testera, ponieważ sygnał nie dotarłby do żadnej z nich. W każdej z tych sytuacji nieprawidłowe myślenie prowadzi do nieefektywnej diagnozy problemu. Kluczem do skutecznego rozwiązywania problemów z okablowaniem jest zrozumienie, jak różne rodzaje uszkodzeń wpływają na sygnał. Wiedza ta pomaga nie tylko w diagnostyce, ale także w projektowaniu i instalacji sieci, gdzie przestrzeganie standardów okablowania, takich jak TIA/EIA, może znacznie zredukować ryzyko wystąpienia problemów.

Pytanie 23

Ustawa z dnia 14 grudnia 2012 roku dotycząca odpadów zobowiązuje

A. poddanie odpadów przede wszystkim odzyskowi
B. spalanie odpadów w jak najwyższej temperaturze
C. neutralizację odpadów w sposób dowolny w możliwie najkrótszym czasie
D. przechowywanie odpadów maksymalnie przez rok
Ustawa z dnia 14 grudnia 2012 roku o odpadach kładzie szczególny nacisk na hierarchię postępowania z odpadami, w której odzysk zajmuje priorytetową pozycję. To oznacza, że odpady powinny być poddawane odzyskowi, co może obejmować recykling, kompostowanie czy inne formy ponownego wykorzystania materiałów. Praktyczne zastosowanie tej zasady można zaobserwować w programach segregacji odpadów, które wdrażane są w wielu gminach i przedsiębiorstwach. Odpowiednie wdrożenie procedur odzysku nie tylko przyczynia się do ograniczenia ilości odpadów kierowanych na składowisko, ale także sprzyja zrównoważonemu rozwojowi i oszczędności surowców naturalnych. Na przykład, w przypadku odpadów papierowych, ich recykling pozwala na zmniejszenie zużycia drzew oraz energii potrzebnej do produkcji nowego papieru. Zgodnie z najlepszymi praktykami branżowymi, kluczowe jest podejście oparte na zasadzie „zero waste”, które promuje maksymalne wykorzystanie zasobów i minimalizowanie ich odpadów, co jest zgodne z dyrektywami Unii Europejskiej w zakresie gospodarki odpadami.

Pytanie 24

Optyczna rozdzielczość to jeden z właściwych parametrów

A. modemu
B. skanera
C. drukarki
D. monitora
Rozdzielczość optyczna to kluczowy parametr skanera, który określa zdolność urządzenia do rozróżniania szczegółów na zeskanowanym obrazie. Mierzy się ją w punktach na cal (dpi - dots per inch). Im wyższa rozdzielczość, tym więcej szczegółów jest w stanie uchwycić skaner, co jest niezwykle istotne w kontekście cyfryzacji dokumentów, archiwizacji zdjęć czy skanowania dzieł sztuki. Na przykład, skanery o rozdzielczości 300 dpi są zazwyczaj wystarczające do skanowania dokumentów tekstowych, natomiast wartości 600 dpi lub wyższe są rekomendowane do skanowania fotografii, gdzie detale mają kluczowe znaczenie. W zastosowaniach profesjonalnych, takich jak grafika komputerowa czy medycyna, rozdzielczość optyczna ma znaczenie dla jakości końcowego obrazu. Standardy branżowe, takie jak ISO 16067-1, definiują metody pomiarów rozdzielczości, co pozwala na porównywanie wydajności różnych modeli skanerów. Zrozumienie tego parametru jest niezbędne dla użytkowników poszukujących sprzętu najlepiej odpowiadającego ich potrzebom.

Pytanie 25

Przedstawiony skaner należy podłączyć do komputera przy użyciu złącza

Ilustracja do pytania
A. Micro USB
B. Mini USB
C. USB-B
D. USB-A
Wybór innego rodzaju złącza niż Mini USB często wynika z kilku mylnych założeń lub potocznych skojarzeń z innymi urządzeniami. W praktyce bardzo często spotykamy się ze złączami USB-A, USB-B, Micro USB czy Mini USB, jednak trzeba umieć je rozróżniać według konkretnych zastosowań i epoki, w której urządzenie zostało wyprodukowane. USB-A to najbardziej klasyczny port znany z komputerów, laptopów, a także starszych ładowarek – ale stosuje się go tylko po stronie komputera jako gniazdo, nigdy jako wejście do urządzenia peryferyjnego. USB-B z kolei kojarzy się głównie z drukarkami i większymi skanerami biurowymi – jest masywny, wytrzymały, ale praktycznie nie występuje w urządzeniach mobilnych i kieszonkowych. Micro USB natomiast to standard wprowadzony trochę później, szczególnie popularny w smartfonach i małych gadżetach – faktycznie jest jeszcze mniejszy od Mini USB, ale konstrukcyjnie nie pasuje do starszych skanerów. Częstym błędem jest wrzucanie do jednego worka Mini i Micro USB, mimo że różnią się one wyraźnie wymiarami i kształtem końcówki. Praktyka pokazuje, że niewłaściwe rozpoznanie portu prowadzi do nieudanego podłączenia lub nawet uszkodzenia gniazda. Moim zdaniem, zanim wybierzesz przewód czy adapter do danego urządzenia, warto dokładnie przyjrzeć się fizycznemu kształtowi portu i sprawdzić specyfikację producenta. Standardy branżowe jasno określają, że Mini USB był przez wiele lat podstawowym wyborem wszędzie tam, gdzie liczył się kompromis między wielkością a wytrzymałością. W przypadku tego skanera wybór innego portu niż Mini USB nie zapewni kompatybilności ani poprawnego działania.

Pytanie 26

Jak wygląda sekwencja w złączu RJ-45 według normy TIA/EIA-568 dla zakończenia typu T568B?

A. Biało-zielony, zielony, biało-pomarańczowy, pomarańczowy, niebieski, biało-niebieski, biało-brązowy, brązowy
B. Biało-niebieski, niebieski, biało-brązowy, brązowy, biało-zielony, zielony, biało-pomarańczowy, pomarańczowy
C. Biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony, biało-brązowy, brązowy
D. Biało-brązowy, brązowy, biało-pomarańczowy, pomarańczowy, biało-zielony, niebieski, biało-niebieski, zielony
Odpowiedź jest zgodna z normą TIA/EIA-568, która definiuje standardy okablowania sieciowego, w tym kolejność przewodów dla zakończenia typu T568B. W tej konfiguracji sekwencja przewodów zaczyna się od biało-pomarańczowego, następnie pomarańczowy, a potem biało-zielony, niebieski, biało-niebieski, zielony, biało-brązowy i na końcu brązowy. Zastosowanie właściwej kolejności przewodów jest kluczowe dla zapewnienia poprawnej komunikacji w sieciach Ethernet. Każdy przewód odpowiada za przesyłanie sygnałów w określony sposób, a ich niewłaściwe ułożenie może prowadzić do problemów z transmisją danych, takich jak zakłócenia, utrata pakietów czy zmniejszenie prędkości połączenia. W praktyce, prawidłowe zakończenie kabli RJ-45 według T568B jest standardem w wielu instalacjach sieciowych, co zapewnia interoperacyjność urządzeń oraz ułatwia przyszłe modyfikacje i konserwację sieci. Dodatkowo, znajomość tej normy jest istotna dla specjalistów zajmujących się projektowaniem i wdrażaniem infrastruktury sieciowej, co czyni ją niezbędnym elementem ich kompetencji zawodowych.

Pytanie 27

Na ilustracji ukazano port

Ilustracja do pytania
A. HDMI
B. DVI
C. SATA
D. DisplayPort
Gniazdo DisplayPort to cyfrowy interfejs służący do przesyłania sygnału audio-wideo. Jest szeroko stosowany w nowoczesnych komputerach, monitorach i telewizorach. W przeciwieństwie do HDMI, DisplayPort oferuje mechanizm blokady zapobiegający przypadkowemu odłączeniu. Dzięki technologii DisplayPort można uzyskać wyższą przepustowość, co pozwala na przesyłanie obrazu o wyższej rozdzielczości i częstotliwości odświeżania. DisplayPort obsługuje również technologie takie jak FreeSync i G-Sync, które synchronizują częstotliwość odświeżania monitora z kartą graficzną, eliminując zjawisko rozrywania obrazu. DisplayPort jest również kompatybilny z innymi interfejsami, takimi jak HDMI czy DVI, za pomocą odpowiednich adapterów. Dzięki swojej wszechstronności i wysokiej wydajności DisplayPort jest wybierany w profesjonalnych środowiskach graficznych i gamingowych, gdzie wymagane są wysoka jakość obrazu i elastyczność konfiguracji. Standard ten jest również kluczowy w zastosowaniach wielomonitorowych, gdzie przesyłanie dużej ilości danych jest niezbędne do utrzymania jednolitego obrazu na wielu ekranach.

Pytanie 28

Jaki akronim oznacza program do tworzenia graficznych wykresów ruchu, który odbywa się na interfejsach urządzeń sieciowych?

A. SMTP
B. CDP
C. ICMP
D. MRTG
Wybór innych akronimów, takich jak CDP, ICMP czy SMTP, wskazuje na pewne nieporozumienia dotyczące funkcji oraz zastosowania tych protokołów w kontekście monitorowania ruchu sieciowego. CDP, czyli Cisco Discovery Protocol, jest używany do zbierania informacji o urządzeniach Cisco w sieci, ale nie służy do graficznego przedstawiania danych o ruchu. ICMP, czyli Internet Control Message Protocol, jest protokołem używanym głównie do diagnostyki i informowania o błędach w transmisji danych, a nie do monitorowania obciążenia interfejsów. Z kolei SMTP, czyli Simple Mail Transfer Protocol, jest protokołem do wysyłania wiadomości e-mail i nie ma żadnego zastosowania w kontekście monitorowania ruchu sieciowego. Wybierając niewłaściwy akronim, możemy popełnić podstawowy błąd myślowy, polegający na myleniu różnych warstw i funkcji protokołów w architekturze sieci. Zrozumienie, jakie są podstawowe różnice między tymi technologiami oraz ich rolą w zarządzaniu siecią, jest kluczowe dla skutecznego monitorowania i optymalizacji zasobów sieciowych. Uczy to również, jak ważne jest właściwe dobieranie narzędzi oraz protokołów do konkretnego zadania, co stanowi fundament efektywnego zarządzania infrastrukturą IT.

Pytanie 29

Jakie protokoły przesyłają cykliczne kopie tablic routingu do sąsiadującego rutera i NIE ZAWIERAJĄ pełnych informacji o dalekich ruterach?

A. OSPF, RIP
B. RIP, IGRP
C. EIGRP, OSPF
D. EGP, BGP
Wybór protokołów RIP (Routing Information Protocol) i IGRP (Interior Gateway Routing Protocol) jako odpowiedzi nie jest prawidłowy ze względu na różnice w sposobie wymiany informacji o routingu. RIP jest protokołem wektora odległości, który działa na zasadzie cyklicznego przesyłania pełnych tablic routingu co 30 sekund. Chociaż jest prosty w implementacji, jego architektura nie pozwala na efektywne przekazywanie tylko zmienionych informacji, co prowadzi do znacznego obciążenia sieci. IGRP, pomimo że jest bardziej zaawansowanym protokołem, również opiera się na przesyłaniu pełnych informacji o tablicach routingu, co czyni go mniej odpowiednim w kontekście efektywności. Z kolei OSPF i EIGRP, które są w stanie działać w bardziej dynamicznych środowiskach, wykorzystują techniki przesyłania zaktualizowanych informacji o stanie łączy i metrykach, co prowadzi do lepszej optymalizacji tras w sieci. Wybór EGP (Exterior Gateway Protocol) oraz BGP (Border Gateway Protocol) również nie jest poprawny, ponieważ te protokoły są zaprojektowane do działania na granicach systemów autonomicznych i nie stosują mechanizmu okresowego przesyłania tablic rutingu. Często błędne rozumienie różnic między protokołami wewnętrznymi, a zewnętrznymi prowadzi do nieporozumień w ich zastosowaniu. Kluczowe jest zrozumienie, że efektywność routingu w dużych sieciach zależy nie tylko od wyboru protokołu, ale również od jego odpowiedniej konfiguracji i implementacji zgodnie z potrzebami danej infrastruktury.

Pytanie 30

Którą czynność należy wykonać podczas konfiguracji rutera, aby ukryta sieć bezprzewodowa była widoczna dla wszystkich użytkowników znajdujących się w jej zasięgu?

A. Zmienić numer kanału.
B. Zmienić nazwę sieci.
C. Ustawić szerokość kanału.
D. Włączyć opcję rozgłaszania sieci.
Poprawna odpowiedź dotyczy włączenia opcji rozgłaszania sieci (broadcast SSID) w konfiguracji rutera. To właśnie ta funkcja decyduje, czy nazwa sieci Wi‑Fi (SSID) będzie widoczna na liście dostępnych sieci na laptopach, smartfonach czy innych urządzeniach. Jeśli SSID jest ukryty, sieć formalnie istnieje i działa, ale nie pojawia się w typowym skanowaniu, więc użytkownik musi ręcznie wpisać jej nazwę oraz hasło. Włączenie rozgłaszania powoduje, że ruter zaczyna wysyłać w ramkach beacon informacje o nazwie sieci, kanale, typie szyfrowania itp., zgodnie ze standardem IEEE 802.11. Moim zdaniem w praktyce, w większości domowych i małych firmowych sieci, lepiej jest mieć SSID jawny, a skupić się na mocnym szyfrowaniu (WPA2‑PSK lub WPA3‑Personal) oraz sensownym haśle. Ukrywanie SSID nie jest realnym zabezpieczeniem, bo i tak da się je bardzo łatwo podejrzeć przy użyciu prostych narzędzi do analizy ruchu Wi‑Fi. Dobra praktyka branżowa mówi jasno: bezpieczeństwo opieramy na silnym uwierzytelnianiu i szyfrowaniu, a nie na „maskowaniu” nazwy sieci. W konfiguracji rutera opcja ta bywa opisana jako „Broadcast SSID”, „Rozgłaszanie nazwy sieci”, „Ukryj SSID” (z możliwością odznaczenia). Żeby sieć była widoczna dla wszystkich w zasięgu, trzeba wyłączyć ukrywanie (czyli włączyć rozgłaszanie). Przykładowo: w typowym routerze domowym logujesz się do panelu WWW, przechodzisz do ustawień Wi‑Fi, zaznaczasz opcję „Włącz rozgłaszanie SSID” i zapisujesz zmiany. Od tego momentu każdy użytkownik w zasięgu zobaczy nazwę sieci na liście i będzie mógł się do niej podłączyć, oczywiście pod warunkiem, że zna hasło. To jest standardowe i poprawne podejście rekomendowane przez producentów sprzętu sieciowego i zgodne z typową konfiguracją w środowiskach firmowych, gdzie ważna jest zarówno wygoda użytkownika, jak i poprawne działanie mechanizmów roamingu i zarządzania siecią.

Pytanie 31

Program wirusowy, którego zasadniczym zamiarem jest samoistne rozprzestrzenianie się w sieci komputerowej, to:

A. trojan
B. keylogger
C. backdoor
D. robak
Robaki komputerowe to samodzielne programy, które mają zdolność do rozprzestrzeniania się w sieciach komputerowych, najczęściej bez interakcji użytkownika. Główną charakterystyką robaka jest to, że potrafi kopiować swoje własne instancje i przesyłać je do innych urządzeń, co czyni je szczególnie niebezpiecznymi w kontekście bezpieczeństwa sieci. W przeciwieństwie do trojanów, które udają legalne oprogramowanie i zależą od użytkowników, aby je uruchomić, robaki działają automatycznie. Przykładem robaka jest Blaster, który zainfekował tysiące komputerów w 2003 roku, wykorzystując lukę w zabezpieczeniach systemu Windows. Zrozumienie mechanizmów działania robaków jest kluczowe dla wdrażania skutecznych strategii obronnych, takich jak aktualizacje oprogramowania, instalacja zapór ogniowych oraz monitorowanie ruchu sieciowego, co jest zgodne z najlepszymi praktykami w zakresie zarządzania bezpieczeństwem IT.

Pytanie 32

Elementem płyty głównej, który odpowiada za wymianę informacji pomiędzy procesorem a innymi komponentami płyty, jest

A. pamięć RAM
B. system chłodzenia
C. chipset
D. pamięć BIOS
Chipset to kluczowy element płyty głównej odpowiedzialny za zarządzanie komunikacją pomiędzy procesorem a innymi komponentami systemu, takimi jak pamięć RAM, karty rozszerzeń oraz urządzenia peryferyjne. Działa jako mostek, który umożliwia transfer danych oraz kontrolę dostępu do zasobów. Współczesne chipsety są podzielone na dwa główne segmenty: północny mostek (Northbridge), który odpowiada za komunikację z procesorem oraz pamięcią, oraz południowy mostek (Southbridge), który zarządza interfejsami peryferyjnymi, takimi jak SATA, USB i PCI. Zrozumienie roli chipsetu jest istotne dla projektowania systemów komputerowych, ponieważ jego wydajność i możliwości mogą znacząco wpłynąć na ogólną efektywność komputera. Dla przykładu, wybierając chipset o wyższej wydajności, użytkownik może poprawić parametry pracy systemu, co jest kluczowe w zastosowaniach wymagających dużej mocy obliczeniowej, takich jak renderowanie grafiki czy obróbka wideo. W praktyce, chipsety są również projektowane z uwzględnieniem standardów branżowych, takich jak PCI Express, co zapewnia ich kompatybilność z najnowszymi technologiami.

Pytanie 33

Przedstawiony zestaw komputerowy jest niekompletny. Który element nie został uwzględniony w tabeli, a jest niezbędny do prawidłowego działania zestawu i należy go dodać?

Lp.Nazwa podzespołu
1.Cooler Master obudowa komputerowa CM Force 500W czarna
2.Gigabyte GA-H110M-S2H, Realtek ALC887, DualDDR4-2133, SATA3, HDMI, DVI, D-Sub, LGA1151, mATX
3.Intel Core i5-6400, Quad Core, 2.70GHz, 6MB, LGA1151, 14nm, 65W, Intel HD Graphics, VGA, TRAY/OEM
4.Patriot Signature DDR4 2x4GB 2133MHz
5.Seagate BarraCuda, 3.5", 1TB, SATA/600, 7200RPM, 64MB cache
6.LG SuperMulti SATA DVD+/-R24x,DVD+RW6x,DVD+R DL 8x, bare bulk (czarny)
7.Gembird Bezprzewodowy Zestaw Klawiatura i Mysz
8.Monitor Iiyama E2083HSD-B1 19.5inch, TN, HD+, DVI, głośniki
9.Microsoft OEM Win Home 10 64Bit Polish 1pk DVD
A. Karta graficzna.
B. Pamięć RAM.
C. Wentylator procesora.
D. Zasilacz.
Często przy analizie specyfikacji komputerów skupiamy się na najważniejszych i najbardziej kosztownych elementach, jak pamięć RAM czy karta graficzna, zapominając o drobniejszych, ale równie kluczowych podzespołach. Zasilacz, choć jest fundamentem całego zestawu, został już uwzględniony w nazwie obudowy – Cooler Master CM Force 500W – co jest typową praktyką, szczególnie w segmentach budżetowych. Pamięć RAM także figuruje na liście (Patriot Signature DDR4 2x4GB 2133MHz), więc system będzie miał czym operować. Karta graficzna natomiast w tym przypadku nie została ujęta osobno, ale procesor Intel Core i5-6400 posiada zintegrowane GPU (Intel HD Graphics), które w zupełności wystarcza do podstawowych zastosowań i umożliwia korzystanie z komputera bez dedykowanej karty graficznej. Brak dedykowanej karty graficznej jest zupełnie akceptowalny w komputerach biurowych lub domowych, gdzie nie planuje się wymagających graficznie gier czy pracy z grafiką 3D. Najczęstszym błędem myślowym prowadzącym do pominięcia chłodzenia procesora jest przyjmowanie założenia, że "obudowa wszystko zawiera", albo że "procesor sam się schłodzi", bo jest "tylko 65W". W rzeczywistości jednak wentylator procesora jest niezbędny – nawet do uruchomienia komputera. Bez niego płyta główna często w ogóle nie pozwoli wystartować systemowi, wykrywając zagrożenie przegrzania. To ważna lekcja: zawsze trzeba sprawdzić, czy zestaw zawiera wszystkie elementy, które są niezbędne nie tylko do uruchomienia, ale i bezpiecznego, długotrwałego użytkowania.

Pytanie 34

Jaki skrót odpowiada poniższej masce podsieci: 255.255.248.0?

A. /22
B. /23
C. /21
D. /24
Wybór skrótu /24, /23 lub /22 wskazuje na nieporozumienie związane z interpretacją maski podsieci oraz jej wpływem na liczbę dostępnych adresów IP w danej podsieci. Na przykład, maska /24, odpowiadająca masce 255.255.255.0, rezerwuje 24 bity dla identyfikacji podsieci, co ogranicza liczbę hostów do 254 (2^8 - 2). Z kolei /23 (255.255.254.0) pozwala na utworzenie 510 hostów, a /22 (255.255.252.0) umożliwia 1022 hosty. Te wybory mogą sugerować, że użytkownik nie dostrzega kluczowego znaczenia bity w masce podsieci oraz ich bezpośredniego związku z projektowaniem architektury sieci. Ponadto, mogą wystąpić typowe błędy myślowe, takie jak założenie, że maski o większej liczbie bitów oznaczają większą liczbę hostów, co jest nieprawdziwe. Maski o wyższych wartościach bitów oznaczają mniejszą liczbę dostępnych adresów IP, co jest odwrotnością tego, co może być intuicyjnie zrozumiane. Niezrozumienie reguł dotyczących adresacji oraz ich praktycznego zastosowania w projektach sieciowych może prowadzić do nieefektywności oraz problemów w zarządzaniu siecią.

Pytanie 35

"Gorące podłączenie" ("Hot plug") oznacza, że urządzenie, które jest podłączane, ma

A. gotowość do działania zaraz po podłączeniu, bez potrzeby wyłączania ani restartowania systemu.
B. ważność po zainstalowaniu odpowiednich sterowników.
C. zgodność z komputerem.
D. kontrolę temperatury.
Termin "gorące podłączenie" (ang. "hot plug") odnosi się do możliwości podłączania urządzeń do systemu komputerowego bez konieczności jego wyłączania lub restartowania. Ta funkcjonalność jest szczególnie istotna w kontekście zarządzania infrastrukturą IT, gdzie minimalizacja przestojów jest kluczowa. Na przykład, podczas pracy z serwerami w centrum danych, administratorzy mogą dodawać lub wymieniać dyski SSD i inne komponenty, takie jak karty graficzne, bez wpływu na działanie systemu operacyjnego. Wspierają to standardy takie jak PCI Express, które zostały zaprojektowane z myślą o gorącym podłączaniu. W przypadku urządzeń peryferyjnych, takich jak drukarki czy skanery, ich podłączenie po włączeniu komputera automatycznie rozpozna urządzenie, co ułatwia i przyspiesza proces konfigurowania sprzętu. Dzięki gorącemu podłączaniu, użytkownicy zyskują większą elastyczność, co pozwala na sprawniejsze zarządzanie zasobami oraz polepsza efektywność operacyjną.

Pytanie 36

Wskaż wtyk zasilający, który podczas montażu zestawu komputerowego należy podłączyć do napędu optycznego.

A. Wtyk zasilający 1
Ilustracja do odpowiedzi A
B. Wtyk zasilający 3
Ilustracja do odpowiedzi B
C. Wtyk zasilający 4
Ilustracja do odpowiedzi C
D. Wtyk zasilający 2
Ilustracja do odpowiedzi D
Właściwy wybór to wtyk zasilający SATA, widoczny na pierwszym zdjęciu. To właśnie ten typ złącza obecnie najczęściej stosuje się do podłączania napędów optycznych – na przykład nagrywarek DVD albo stacji Blu-ray – w nowych komputerach. Standard SATA pojawił się już wiele lat temu, ale do dziś jest powszechnie spotykany w serwisach komputerowych i sklepach branżowych. To złącze jest wyjątkowe nie tylko ze względu na swoją płaską budowę i łatwość montażu, ale też na fakt, że zapewnia stabilne zasilanie 12V, 5V oraz 3.3V, choć to ostatnie jest rzadko wykorzystywane w praktyce. Z mojego doświadczenia wynika, że montaż tego typu wtyku eliminuje większość problemów z niekompatybilnością, które zdarzały się na starszych złączach typu Molex. Warto wiedzieć, że standard SATA jest obecnie wymagany w nowych napędach optycznych, a dokładne osadzenie złącza minimalizuje ryzyko zwarć i uszkodzeń sprzętu. Zdecydowanie polecam zawsze korzystać ze złączy dedykowanych, bo podpinanie czegokolwiek innego może skończyć się nieprzyjemną niespodzianką, a nawet trwałym uszkodzeniem napędu. W świecie komputerów szybka identyfikacja złącza SATA podczas składania lub serwisowania zestawu to absolutna podstawa – tak wynika z praktyki, nie tylko teorii.

Pytanie 37

Która funkcja serwera Windows umożliwia użytkownikom końcowym sieci pokazanej na rysunku dostęp do Internetu?

Ilustracja do pytania
A. Usługa rutingu
B. Usługa drukowania
C. Usługa LDS
D. Usługa dzielenia
Usługa rutingu na serwerze Windows umożliwia przesyłanie danych między różnymi sieciami, co jest kluczowe dla zapewnienia użytkownikom dostępu do Internetu. Dzięki tej usłudze serwer działa jako router, który kieruje pakiety danych pomiędzy siecią lokalną a globalną siecią Internet. Ruting jest kluczowy w kontekście dużych sieci, w których konieczne jest zarządzanie ruchem sieciowym, zapewniając optymalną wydajność i bezpieczeństwo. Implementacja rutingu w Windows Server opiera się na protokołach takich jak RIP czy OSPF, które pomagają w dynamicznej aktualizacji tras. Administracja usługą rutingu obejmuje konfigurację interfejsów sieciowych, tabel routingu oraz polityk trasowania, co jest zgodne z najlepszymi praktykami branżowymi. Praktyczne zastosowanie takiej usługi obejmuje złożone sieci korporacyjne, gdzie kilka oddzielnych sieci LAN musi współdzielić wspólne połączenie do Internetu. Dzięki rutingowi nie tylko możliwe jest efektywne zarządzanie ruchem, ale także implementacja zaawansowanych funkcji takich jak NAT, które dodatkowo zwiększają bezpieczeństwo i elastyczność infrastruktury sieciowej. Wiedza o usługach rutingu pozwala inżynierom sieciowym projektować skalowalne i niezawodne sieci oparte na Windows Server.

Pytanie 38

W ustawieniach haseł w systemie Windows Server aktywowano opcję, że hasło musi spełniać wymagania dotyczące złożoności. Z jakiej minimalnej liczby znaków musi składać się hasło użytkownika?

A. 5 znaków
B. 10 znaków
C. 12 znaków
D. 6 znaków
Wybór niewłaściwej długości hasła może wynikać z nieporozumienia dotyczącego zasad złożoności haseł, które są istotnym elementem bezpieczeństwa systemu. Odpowiedzi sugerujące hasła o długości 5, 10 lub 12 znaków nie uwzględniają specyfikacji wskazanych w standardach bezpieczeństwa. Hasło o długości 5 znaków jest zbyt krótkie, aby spełnić wymogi dotyczące złożoności. Tego rodzaju hasła są łatwiejsze do złamania poprzez metody takie jak ataki brute-force, które polegają na systematycznym testowaniu różnych kombinacji. Odpowiedź sugerująca 10 znaków, mimo że jest bliższa wymogom, nadal nie jest poprawna, ponieważ nie uwzględnia minimalnej wymagań. Ponadto, 12 znaków, choć może być korzystne z punktu widzenia bezpieczeństwa, nie odpowiada rzeczywistym wymaganiom systemu Windows Server, które dotyczą minimalnej długości haseł. Praktyczne podejście do tworzenia haseł wymaga zrozumienia, że nie chodzi tylko o długość, ale także o złożoność, która obejmuje różnorodność używanych znaków. Przyjmowanie zbyt długich haseł może prowadzić do nieprzemyślanych praktyk, takich jak stosowanie łatwych do zapamiętania, ale przewidywalnych ciągów, co zwiększa ryzyko naruszenia bezpieczeństwa. Warto inwestować czas w tworzenie silnych haseł, które będą zarówno trudne do odgadnięcia, jak i łatwe do zapamiętania, co jest kluczowym elementem polityki bezpieczeństwa w każdej organizacji.

Pytanie 39

Co należy zrobić, aby chronić dane przesyłane w sieci przed działaniem sniffera?

A. Skanowanie komputerów za pomocą programu antywirusowego
B. Użycie antydialera
C. Szyfrowanie danych w sieci
D. Zmiana hasła konta
Szyfrowanie danych w sieci jest kluczowym mechanizmem ochrony informacji przesyłanych pomiędzy urządzeniami. Dzięki zastosowaniu algorytmów szyfrujących, takie jak AES (Advanced Encryption Standard) czy TLS (Transport Layer Security), dane stają się nieczytelne dla osób, które mogą próbować je przechwycić za pomocą snifferów. W praktyce, szyfrowanie danych zapewnia poufność komunikacji, co jest szczególnie istotne w kontekście transmisji informacji wrażliwych, takich jak hasła czy dane osobowe. Przykładem zastosowania szyfrowania jest korzystanie z HTTPS podczas przeglądania stron internetowych, co zapewnia, że wszelkie dane przesyłane pomiędzy przeglądarką a serwerem są chronione przed nieautoryzowanym dostępem. Warto również pamiętać, że szyfrowanie nie tylko zabezpiecza dane w trakcie ich przesyłania, ale również może być stosowane do ochrony danych w spoczynku, co jest zgodne z najlepszymi praktykami w zakresie bezpieczeństwa danych.

Pytanie 40

Z jakiego oprogramowania NIE można skorzystać, aby przywrócić dane w systemie Windows na podstawie wcześniej wykonanej kopii?

A. Clonezilla
B. Acronis True Image
C. Norton Ghost
D. FileCleaner
Wybór Acronis True Image jako narzędzia do odzyskiwania danych jest poprawny, ponieważ oprogramowanie to oferuje pełne wsparcie w zakresie tworzenia kopii zapasowych, które można następnie przywrócić w razie awarii systemu lub utraty danych. Użytkownicy mogą tworzyć obrazy dysków, które zawierają wszystkie dane oraz konfiguracje systemowe, co znacznie ułatwia proces odzyskiwania. Podobnie Clonezilla jest narzędziem, które pozwala na klonowanie dysków i partycji oraz ich późniejsze przywracanie, co czyni je użytecznym w sytuacji, gdy zachodzi potrzeba odzyskania danych. Norton Ghost, choć nieco starsze, nadal jest popularne w środowisku IT jako jedno z rozwiązań do tworzenia obrazów dysków. Często użytkownicy mylą te programy z FileCleaner ze względu na mylne przeświadczenie, że każdy program, który ma w swojej ofercie jakiekolwiek funkcje związane z danymi, musi również obsługiwać ich odzyskiwanie. W rzeczywistości FileCleaner jest narzędziem o zupełnie innym przeznaczeniu, skupiającym się na optymalizacji dysku poprzez usuwanie niepotrzebnych plików, co jest niezbędne dla utrzymania sprawności systemu, ale nie ma to nic wspólnego z odzyskiwaniem danych. Kluczowym błędem jest zatem utożsamianie funkcji czyszczenia z funkcjami odzyskiwania, co prowadzi do nieporozumień w zakresie wyboru odpowiednich narzędzi dla różnych zadań.