Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 27 kwietnia 2026 11:52
  • Data zakończenia: 27 kwietnia 2026 12:02

Egzamin zdany!

Wynik: 28/40 punktów (70,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Aby wyświetlić listę wszystkich zainstalowanych urządzeń w systemie Windows lub zmienić ich właściwości, należy skorzystać z narzędzia

A. devmgmt.msc
B. diskmgmt.msc
C. dhcpmgmt.msc
D. dnsmgmt.msc
Użycie narzędzia devmgmt.msc pozwala na zarządzanie urządzeniami w systemie Windows. Jest to Menedżer urządzeń, który wyświetla listę wszystkich zainstalowanych komponentów sprzętowych, umożliwiając użytkownikom łatwe zarządzanie nimi. Dzięki temu narzędziu można aktualizować sterowniki, wyłączać lub włączać urządzenia oraz diagnozować problemy z wykrywanym sprzętem. Przykładowo, jeśli zauważysz, że jakiś sprzęt nie działa poprawnie, możesz otworzyć Menedżera urządzeń, zlokalizować dany komponent, a następnie sprawdzić jego status oraz zaktualizować sterownik. W kontekście dobrych praktyk, regularne przeglądanie Menedżera urządzeń w celu aktualizacji sterowników jest kluczowe dla zapewnienia optymalnej wydajności systemu oraz zgodności z nowym oprogramowaniem. Narzędzie to jest zgodne z standardami zarządzania sprzętem w systemach operacyjnych Windows, co czyni je niezbędnym w codziennym użytkowaniu komputera.

Pytanie 2

Wskaż komponent, który nie jest zgodny z płytą główną o parametrach przedstawionych w tabeli

PodzespółParametry
Płyta główna GIGABYTE4x DDR4, 4x PCI-E 16x, RAID,
HDMI, D-Port, D-SUB, 2x USB 3.1,
8 x USB 2.0, S-AM3+
A. Pamięć RAM: Corsair Vengeance LPX, DDR4, 2x16GB, 3000MHz, CL15 Black
B. Monitor: Dell, 34", 1x DisplayPort, 1x miniDP, 2x USB 3.0 Upstream, 4x USB 3.0 Downstream
C. Procesor: INTEL CORE i3-4350, 3.60 GHz, x2/4, 4 MB, 54W, HD 4600, BOX, s-1150
D. Karta graficzna: Gigabyte GeForce GTX 1050 OC, 2GB, GDDR5, 128 bit, PCI-Express 3.0 x16
Procesor INTEL CORE i3-4350 jest niekompatybilny z płytą główną o przedstawionych parametrach, ponieważ używa gniazda LGA 1150, które nie pasuje do gniazda S-AM3+ wspieranego przez płytę główną. Gniazdo procesora to kluczowy element w kompatybilności między płytą główną a procesorem. W przypadku niezgodności nie ma fizycznej możliwości zamontowania procesora w płycie głównej. Dobre praktyki branżowe wskazują na konieczność szczegółowego sprawdzenia kompatybilności przed zakupem części komputerowych, aby uniknąć niepotrzebnych kosztów i opóźnień w montażu. Praktycznie, jeśli użytkownik nie sprawdzi kompatybilności komponentów, może to prowadzić do sytuacji, gdzie cała inwestycja w komputer staje się problematyczna, ponieważ wymiana płyty głównej lub procesora pociąga za sobą dodatkowe koszty. Dlatego zawsze zaleca się konsultację specyfikacji technicznych i ewentualnie kontakt z producentem lub ekspertem, aby upewnić się, że wszystkie części są zgodne. Warto również korzystać z narzędzi online, które pomagają w weryfikacji kompatybilności komponentów komputerowych.

Pytanie 3

Zgodnie z wytycznymi dotyczącymi karty graficznej, jej możliwości pracy z systemem AGP 2X/4X pozwalają na

A. działanie z maksymalną częstotliwością taktowania 44 MHz
B. transfer danych z maksymalną prędkością 1066 MB/s
C. działanie z maksymalną częstotliwością taktowania 55 MHz
D. transfer danych z maksymalną prędkością 256 MB/s
Odpowiedzi, które mówią o częstotliwościach jak 55 MHz czy 44 MHz, mogą być trochę mylące. To dlatego, że częstotliwość to nie wszystko, co powinno się brać pod uwagę przy AGP. Te wartości dotyczą podstawowego taktowania magistrali, ale nie pokazują pełnych możliwości. AGP, w przeciwieństwie do PCI, ma inną metodę przesyłania danych, która daje mu wyższą przepustowość przez szerszą magistralę i różne tryby pracy. Odpowiedzi, które mówią o 256 MB/s, też są nietrafione, bo to mogą być wartości dla starszych standardów, jak PCI, które oferują znacznie słabsze prędkości. W rzeczywistości, AGP 4X ma o wiele lepsze transfery, co jest kluczowe, gdy pracujemy z dużymi danymi. Dlatego ważne jest, żeby dobrze zrozumieć te parametry, bo błędne ich ocenienie może prowadzić do złego wyboru sprzętu, a to przecież wpływa na wydajność całego komputera. Częstotliwość i przepustowość są istotne, i warto wiedzieć, jak je oceniać, żeby mądrze dobierać komponenty.

Pytanie 4

Aby procesor działał poprawnie, konieczne jest podłączenie złącza zasilania 4-stykowego lub 8-stykowego o napięciu

A. 3,3 V
B. 12 V
C. 7 V
D. 24 V
Odpowiedź 12 V jest prawidłowa, ponieważ procesory komputerowe wymagają zasilania o odpowiednim napięciu, które pozwala na ich prawidłowe działanie. Większość nowoczesnych płyt głównych korzysta z 4-stykowych lub 8-stykowych złączy zasilania CPU, które są standardem w branży. Standardowe napięcie 12 V jest niezbędne do zasilania nie tylko procesora, ale także innych komponentów systemu, takich jak karty graficzne i dyski twarde. W przypadku niewłaściwego napięcia, na przykład 3,3 V, system nie będzie działał poprawnie, gdyż nie dostarczy wystarczającej mocy do prawidłowego działania procesora. W praktyce, przy podłączaniu zasilacza do płyty głównej, warto zwrócić uwagę na właściwe złącza oraz upewnić się, że zasilacz spełnia wymagania prądowe określone przez producenta komponentów. Przykładem może być sytuacja, w której zasilacz o zbyt niskim napięciu lub niewystarczającej mocy może prowadzić do niestabilności systemu, a nawet jego awarii.

Pytanie 5

Który protokół przesyła datagramy bez gwarancji ich dostarczenia?

A. HTTP
B. TCP
C. UDP
D. ICMP
UDP (User Datagram Protocol) to protokół komunikacyjny, który charakteryzuje się brakiem gwarancji dostarczenia przesyłanych datagramów. Oznacza to, że nie zapewnia on mechanizmów kontroli błędów ani retransmisji, co prowadzi do sytuacji, w których datagramy mogą zostać zgubione, zduplikowane lub dotrzeć w niewłaściwej kolejności. Taki model jest szczególnie przydatny w aplikacjach, gdzie szybkość przesyłania danych jest kluczowa, a małe opóźnienia są akceptowalne. Przykładem zastosowania UDP jest transmisja strumieniowa audio i wideo, gdzie utrata kilku pakietów nie wpływa znacząco na jakość odbioru. Inne zastosowania to gry online i protokoły takie jak DNS (Domain Name System), które wymagają szybkiego przesyłania niewielkich ilości danych. Warto pamiętać, że dzięki swojej prostocie i wydajności, UDP jest często wybierany w sytuacjach, gdzie priorytetem jest czas, a nie niezawodność dostarczenia.

Pytanie 6

Na świeżo zainstalowanym komputerze program antywirusowy powinno się zainstalować

A. podczas instalacji systemu operacyjnego
B. przed instalacją systemu operacyjnego
C. po zainstalowaniu programów pobranych z Internetu
D. zaraz po zakończeniu instalacji systemu operacyjnego
Zainstalowanie programu antywirusowego zaraz po zainstalowaniu systemu operacyjnego jest kluczowym krokiem w zapewnieniu bezpieczeństwa nowego komputera. Po pierwszej instalacji systemu operacyjnego, komputer jest zazwyczaj narażony na zagrożenia, ponieważ może już mieć dostęp do Internetu, co czyni go podatnym na malware, wirusy i inne typy ataków. Dotyczy to szczególnie sytuacji, gdy użytkownik zaczyna instalować inne oprogramowanie, pobierać pliki lub odwiedzać strony internetowe. Program antywirusowy działa jako bariera ochronna, identyfikując i neutralizując zagrożenia, zanim zdążą one wyrządzić szkody. Dobre praktyki branżowe zalecają, aby użytkownicy zawsze instalowali oprogramowanie zabezpieczające na początku używania nowego urządzenia, co jest zgodne ze standardami bezpieczeństwa IT. Dodatkowo, regularne aktualizowanie oprogramowania antywirusowego po jego zainstalowaniu jest niezbędne do utrzymania skutecznej ochrony, gdyż nowe zagrożenia pojawiają się nieustannie.

Pytanie 7

Jakie czynności należy wykonać, aby przygotować nowego laptopa do użytkowania?

A. Zainstalowanie baterii, podłączenie zasilania zewnętrznego, uruchomienie laptopa, instalacja systemu, wyłączenie laptopa po zakończeniu instalacji systemu operacyjnego
B. Podłączenie zasilania zewnętrznego, uruchomienie laptopa, instalacja systemu, zainstalowanie baterii, wyłączenie laptopa po zakończeniu instalacji systemu operacyjnego
C. Podłączenie zasilania zewnętrznego, uruchomienie laptopa, zainstalowanie baterii, instalacja systemu, wyłączenie laptopa po zakończeniu instalacji systemu operacyjnego
D. Uruchomienie laptopa, zainstalowanie baterii, instalacja systemu operacyjnego, podłączenie zasilania zewnętrznego, wyłączenie laptopa po zakończeniu instalacji systemu operacyjnego
Montaż baterii przed przystąpieniem do podłączania zewnętrznego zasilania sieciowego jest kluczowy, ponieważ pozwala na uruchomienie laptopa w przypadku braku dostępu do źródła energii. Wprowadzenie laptopa w tryb działania z baterią jako pierwszym krokiem zapewnia, że urządzenie nie straci energii podczas początkowej konfiguracji. Następnie, po podłączeniu zasilania, można włączyć laptopa, co jest niezbędne do rozpoczęcia procesu instalacji systemu operacyjnego. Instalacja systemu powinna być przeprowadzana w pełni naładowanym urządzeniu, by uniknąć problemów związanych z zasilaniem w trakcie instalacji. Po zakończeniu instalacji, wyłączenie laptopa to standardowa procedura, która pozwala na zakończenie wszystkich procesów związanych z konfiguracją. Dobre praktyki w zakresie przygotowania sprzętu do pracy wskazują, że zawsze należy upewnić się, że urządzenie jest w pełni skonfigurowane i gotowe do użycia przed rozpoczęciem pracy, aby zapewnić optymalną wydajność i stabilność systemu operacyjnego.

Pytanie 8

W usłudze, jaką funkcję pełni protokół RDP?

A. poczty elektronicznej w systemie Linux
B. terminalowej w systemie Linux
C. pulpitu zdalnego w systemie Windows
D. SCP w systemie Windows
Protokół RDP (Remote Desktop Protocol) jest standardowym rozwiązaniem opracowanym przez firmę Microsoft, które umożliwia zdalny dostęp do pulpitu systemu operacyjnego Windows. Dzięki RDP użytkownicy mogą łączyć się z komputerem zdalnym, co pozwala na zdalne wykonywanie zadań, zarządzanie systemem oraz korzystanie z aplikacji, jak gdyby znajdowali się fizycznie przy tym urządzeniu. Protokół RDP obsługuje wiele funkcji, takich jak kompresja danych, szyfrowanie oraz zarządzanie sesjami, co czyni go bezpiecznym i wydajnym rozwiązaniem dla użytkowników oraz administratorów systemów. Przykładowo, w przypadku pracy zdalnej, RDP pozwala na dostęp do zasobów firmy bez konieczności fizycznej obecności w biurze, co jest szczególnie istotne w kontekście rosnącej popularności pracy zdalnej i hybrydowej. Warto zaznaczyć, że RDP jest zgodny z wieloma dobrami praktykami, takimi jak zastosowanie silnych haseł oraz wieloskładnikowej autoryzacji, co znacznie podnosi poziom bezpieczeństwa zdalnych połączeń.

Pytanie 9

Podczas normalnego działania systemu operacyjnego w laptopie pojawił się komunikat o konieczności formatowania wewnętrznego dysku twardego. Wskazuje on na

A. przegrzewanie się procesora.
B. niezainicjowany lub nieprzygotowany do pracy nośnik.
C. uszkodzoną pamięć RAM.
D. błędy systemu operacyjnego spowodowane szkodliwym oprogramowaniem.
Komunikat o konieczności formatowania wewnętrznego dysku twardego w trakcie normalnej pracy systemu operacyjnego zazwyczaj świadczy o tym, że nośnik danych jest niezainicjowany lub nieprzygotowany do pracy. Z mojego doświadczenia wynika, że często taki komunikat pojawia się, gdy partycja systemowa została uszkodzona logicznie albo tablica partycji jest nieczytelna. System operacyjny w takiej sytuacji nie potrafi zidentyfikować struktury plików na dysku i traktuje go jak pusty lub nowy nośnik, przez co proponuje sformatowanie. W praktyce można to spotkać np. po nieprawidłowym odłączeniu dysku, uszkodzeniu sektora zerowego lub gdy pojawi się błąd podczas aktualizacji oprogramowania układowego. Najczęściej taki problem rozwiązuje się narzędziami do naprawy partycji lub próbą odzyskania danych przed formatowaniem, jeśli są one ważne. Moim zdaniem warto od razu zrobić backup, gdy tylko pojawią się takie anomalie, bo to najczęściej zwiastuje poważniejsze usterki sprzętowe lub logiczne. Branżowe dobre praktyki podpowiadają, żeby regularnie sprawdzać stan SMART dysku oraz korzystać z narzędzi diagnostycznych, zanim wykonamy jakiekolwiek operacje destrukcyjne typu formatowanie. Przypomina to, jak ważna jest profilaktyka i monitorowanie kondycji nośników, szczególnie w laptopach, które bywają narażone na wstrząsy i gwałtowne odcięcia zasilania.

Pytanie 10

Przedmiot widoczny na ilustracji to

Ilustracja do pytania
A. narzędzie uderzeniowe typu krone
B. tester diodowy kabla UTP
C. złączarka wtyków RJ45
D. miernik długości kabli
Tester diodowy przewodu UTP to narzędzie używane do sprawdzania poprawności połączeń kablowych w sieciach komputerowych. Jego główną funkcją jest identyfikacja błędów w połączeniach, takich jak przerwy, zwarcia czy odwrócenia par przewodów. Urządzenie to składa się z dwóch części: jednostki głównej i jednostki zdalnej. Po podłączeniu kabli UTP do portów, tester wysyła sygnał elektryczny przez przewody, a diody LED wskazują stan każdego z nich. W praktyce tester jest niezastąpiony przy instalacji i konserwacji sieci, ponieważ pozwala szybko zdiagnozować problemy związane z okablowaniem. Dobre praktyki branżowe zalecają regularne testowanie kabli sieciowych, co pomaga w utrzymaniu ich niezawodności. Warto również wspomnieć, że testery mogą różnić się zaawansowaniem – niektóre modele oferują dodatkowe funkcje, takie jak pomiar długości kabla czy identyfikacja uszkodzonych par. Użycie testera diodowego UTP jest zgodne ze standardami telekomunikacyjnymi, jak TIA/EIA, co gwarantuje zgodność z innymi urządzeniami sieciowymi.

Pytanie 11

W systemie Windows, po dezaktywacji domyślnego konta administratora i ponownym uruchomieniu komputera

A. jest niedostępne, gdy system włączy się w trybie awaryjnym
B. jest dostępne po starcie systemu w trybie awaryjnym
C. pozwala na uruchamianie niektórych usług z tego konta
D. nie umożliwia zmiany hasła do konta
W kontekście systemu Windows, istnieje wiele mitów dotyczących funkcji konta administratora, które mogą prowadzić do nieporozumień. Z jednej strony, twierdzenie, że konto administratora nie pozwala na zmianę hasła dostępu, jest błędne. W rzeczywistości administratorzy mają pełną kontrolę nad zarządzaniem użytkownikami, w tym możliwości Resetowania haseł innych kont, co jest kluczowe dla utrzymania bezpieczeństwa systemu. Kolejnym nieporozumieniem jest myślenie, że konto administratora po wyłączeniu jest niedostępne w trybie awaryjnym. Jak już wspomniano, konto to jest dostępne w trybie awaryjnym, co ma na celu umożliwienie rozwiązywania problemów, a nie ograniczenie dostępu do zarządzania systemem. Użytkownicy często nie zdają sobie sprawy z tego, że tryb awaryjny działa jako narzędzie diagnostyczne, co powinno skłonić ich do wnikliwego zapoznania się z dokumentacją systemu. Zrozumienie, jak i dlaczego konto administratora zachowuje dostępność w trybie awaryjnym, jest kluczowe w kontekście zarządzania bezpieczeństwem systemu. Prawidłowe podejście do zarządzania kontami użytkowników oraz zrozumienie ich funkcji w różnych trybach operacyjnych jest istotną umiejętnością, którą każdy administrator powinien posiadać.

Pytanie 12

Jaki procesor pasuje do płyty głównej o podanej specyfikacji?

Ilustracja do pytania
A. C
B. D
C. A
D. B
Procesor Intel Celeron z odpowiedzi A jest kompatybilny z płytą główną, ponieważ oba posiadają gniazdo socket 1150. Socket jest fizycznym i elektrycznym interfejsem pomiędzy procesorem a płytą główną. Użycie odpowiedniego gniazda jest kluczowe, aby zapewnić prawidłowe działanie całego systemu. Płyty główne z gniazdem 1150 są zgodne z procesorami Intel wyprodukowanymi w technologii Haswell. Jest to ważne, gdyż dobór kompatybilnych komponentów wpływa na stabilność i wydajność systemu. Praktyczne zastosowanie tej wiedzy obejmuje składanie komputerów, gdzie wybór odpowiednich części zapewnia optymalne działanie. Socket 1150 obsługuje również pamięć DDR3, co jest zgodne z opisem płyty głównej. Wybór odpowiedniego procesora jest kluczowym elementem w projektowaniu systemów komputerowych, a zastosowanie standardów i dobrych praktyk, takich jak dopasowanie socketu, minimalizuje ryzyko problemów z kompatybilnością, co jest istotne w kontekście profesjonalnej budowy komputerów.

Pytanie 13

Podstawowy rekord uruchamiający na dysku twardym to

A. NTLDR
B. FDISK
C. BOOT
D. MBR
FDISK to narzędzie do partycjonowania dysków, ale to nie jest główny rekord rozruchowy. Jego zadaniem jest robienie partycji - tworzenie, usuwanie czy modyfikowanie ich, ale nie ma to bezpośrednio związku z rozruchem. NTLDR, czyli NT Loader, to program, który odpowiada za ładowanie systemu Windows NT i jego pochodnych. Chociaż jest ważny w procesie rozruchu Windows, to nie jest samym rekordem rozruchowym dysku. NTLDR jest uruchamiany przez MBR, więc w rzeczywistości to MBR uruchamia cały proces. Boot to ogólny termin dotyczący rozruchu, ale nie mówi ci o konkretnym elemencie jak MBR. Często ludzie mylą narzędzia i terminologię związaną z rozruchem systemu i zarządzaniem partycjami. Zrozumienie, co to jest MBR i jak działa z innymi elementami systemu rozruchowego, jest kluczowe dla każdej osoby, która ma do czynienia z komputerami. Umiejętność ogarniania tych wszystkich rzeczy jest podstawą administracji systemów i wsparcia technicznego, co pomaga w rozwiązywaniu problemów związanych z uruchamianiem systemu i zarządzaniem danymi.

Pytanie 14

Aby serwer z systemem Linux mógł udostępniać pliki i drukarki komputerom klienckim z systemem Windows, należy zainstalować na nim

A. protokół SSH.
B. usługę IIS.
C. usługę Samba.
D. serwer Apache.
Poprawna odpowiedź to Samba, bo jest to dedykowana usługa w systemach Linux/Unix do udostępniania zasobów w sieciach z komputerami z systemem Windows. Samba implementuje protokoły SMB/CIFS, czyli dokładnie ten sam mechanizm, z którego korzysta Windows przy udostępnianiu folderów sieciowych i drukarek. Dzięki temu stacja z Linuksem może „udawać” serwer plików Windows, do którego użytkownik podłącza się normalnie przez Eksplorator Windows (np. wpisując \\serwer\udział). Z mojego doświadczenia, w małych firmach i szkołach Samba bardzo często pracuje jako główny serwer plików, domeny lub prosty kontroler logowania, bo jest darmowa, stabilna i dobrze udokumentowana. W praktyce administrator konfiguruje plik smb.conf, definiuje udziały (tzw. shares), ustawia uprawnienia, mapowanie użytkowników i ewentualnie integrację z usługą katalogową (np. Active Directory). Użytkownicy Windows widzą wtedy zasoby linuksowego serwera tak, jakby to był zwykły serwer Windows – mogą podłączać dyski sieciowe, zapisywać dokumenty, korzystać z drukarek sieciowych, stosować uprawnienia oparte o konta domenowe. Dobrą praktyką jest łączenie Samby z systemem uprawnień Linuksa (UID, GID, prawa dostępu) oraz stosowanie szyfrowania połączeń, silnych haseł i aktualnych wersji protokołu SMB (np. wyłączenie starych, dziurawych wersji SMB1). W wielu środowiskach stosuje się też rozdzielenie ról: Samba jako serwer plików i wydruku, a inne serwisy (WWW, SSH) na osobnych maszynach lub kontenerach, co zwiększa bezpieczeństwo i ułatwia administrację. Moim zdaniem znajomość podstaw konfiguracji Samby to absolutny must-have dla każdego, kto myśli poważnie o administracji mieszanymi sieciami Windows/Linux.

Pytanie 15

Komputer jest połączony z siecią Internetową i nie posiada zainstalowanego oprogramowania antywirusowego. Jak można sprawdzić, czy ten komputer jest zainfekowany wirusem, nie wchodząc w ustawienia systemowe?

A. aktywowanie zapory sieciowej
B. skorzystanie ze skanera on-line
C. zainstalowanie skanera pamięci
D. uruchomienie programu chkdsk
Skanowanie komputera za pomocą skanera online to naprawdę fajny sposób na sprawdzenie, czy nie mamy do czynienia z jakimś wirusem. Te skanery działają przez przeglądarkę, więc nie musimy nic instalować. Analizują pliki i procesy, używając baz danych wirusów, co pozwala szybko zidentyfikować ewentualne zagrożenia. Dobrym przykładem jest VirusTotal – można tam przesłać pliki lub linki, a narzędzie powie nam, czy coś jest nie tak. Moim zdaniem, korzystanie ze skanera online to świetny wybór, zwłaszcza gdy nie mamy zainstalowanego programu antywirusowego. Takie narzędzia pomagają też, gdy podejrzewamy, że nasz komputer może być zarażony jakimś złośliwym oprogramowaniem.

Pytanie 16

Wskaż cechę platformy wirtualizacji Hyper-V.

A. Brak kompatybilności z systemami z rodziny Windows.
B. Bezpośrednie funkcjonowanie na sprzęcie fizycznym.
C. Brak integracji z chmurą.
D. Bezpośrednie uruchamianie aplikacji na systemie Linux.
Poprawnie wskazana cecha Hyper‑V to bezpośrednie funkcjonowanie na sprzęcie fizycznym. Hyper‑V jest tzw. hipernadzorcą typu 1 (bare‑metal), co oznacza, że działa bezpośrednio na warstwie sprzętowej, a nie jako zwykła aplikacja w systemie operacyjnym. W praktyce wygląda to tak, że po włączeniu serwera startuje najpierw hypervisor, a system Windows (np. Windows Server z rolą Hyper‑V) jest traktowany jako jedna z maszyn wirtualnych – tzw. partycja nadrzędna. Dzięki temu Hyper‑V ma bezpośredni dostęp do CPU, pamięci RAM, kontrolerów dyskowych i kart sieciowych, co znacząco poprawia wydajność i stabilność całego środowiska wirtualizacji. Z mojego doświadczenia w środowiskach produkcyjnych to właśnie ta architektura pozwala na bezpieczne uruchamianie wielu maszyn wirtualnych, z izolacją zasobów i możliwością stosowania takich funkcji jak migracja na żywo (Live Migration), wirtualne przełączniki, czy zaawansowane mechanizmy wysokiej dostępności oparte o klaster Windows Server. W dobrych praktykach administracji serwerami przyjmuje się, że hypervisor typu 1, taki jak Hyper‑V, instaluje się na dedykowanym sprzęcie, bez „śmieciowego” oprogramowania, żeby nie obniżać wydajności warstwy wirtualizacji. W firmach wykorzystuje się Hyper‑V m.in. do konsolidacji serwerów (kilkanaście serwerów logicznych na jednym fizycznym), tworzenia środowisk testowych, a także budowy prywatnej chmury. To bezpośrednie działanie na sprzęcie jest fundamentem tych zastosowań i odróżnia Hyper‑V od prostych rozwiązań typu „virtual PC” działających jak zwykłe programy.

Pytanie 17

Które z poniższych stwierdzeń odnosi się do sieci P2P – peer to peer?

A. Udostępnia jedynie zasoby na dysku
B. Jest to sieć zorganizowana w strukturę hierarchiczną
C. Komputer w tej sieci może jednocześnie działać jako serwer i klient
D. Wymaga istnienia centralnego serwera z odpowiednim oprogramowaniem
Sieci P2P (peer to peer) charakteryzują się tym, że każdy komputer w sieci może pełnić zarówno rolę klienta, jak i serwera. W praktyce oznacza to, że użytkownicy mogą zarówno udostępniać swoje zasoby, jak i korzystać z zasobów innych użytkowników. Przykładem zastosowania tej architektury jest popularny system wymiany plików BitTorrent, w którym każdy uczestnik pobiera fragmenty pliku od innych użytkowników, jednocześnie dzieląc się swoimi fragmentami z innymi. Ta decentralizacja przyczynia się do większej efektywności oraz odporności na awarie, ponieważ nie ma jednego punktu, którego awaria mogłaby zakłócić cały system. Dzięki temu P2P jest często wykorzystywane w aplikacjach takich jak gry online, komunikatory, a także w systemach blockchain. Z praktycznego punktu widzenia, wykorzystanie modelu P2P pozwala na zwiększenie przepustowości sieci oraz lepsze wykorzystanie posiadanych zasobów, co jest zgodne z nowoczesnymi standardami zarządzania sieciami.

Pytanie 18

Wyższą efektywność aplikacji multimedialnych w systemach z rodziny Windows zapewnia technologia

A. GPU
B. jQuery
C. CUDA
D. DirectX
Technologia DirectX to zestaw aplikacji programistycznych (API) opracowanych przez firmę Microsoft, które umożliwiają wykorzystanie sprzętowej akceleracji w aplikacjach multimedialnych, szczególnie w grach i programach graficznych. DirectX zapewnia jednolitą platformę dla rozwoju gier i aplikacji 3D, co pozwala programistom na tworzenie bardziej zaawansowanych oraz wydajnych rozwiązań. Dzięki DirectX, programy mogą lepiej zarządzać zasobami sprzętowymi, co przekłada się na wyższą jakość grafiki oraz płynność działania. Przykładem mogą być gry komputerowe, które wykorzystują DirectX do renderowania trójwymiarowych światów, co pozwala na realizację złożonych efektów wizualnych, takich jak cienie, oświetlenie czy tekstury. Warto również zauważyć, że standardy DirectX są regularnie aktualizowane, co oznacza, że programiści mają dostęp do najnowszych technologii i funkcji, które poprawiają wydajność i jakość dźwięku oraz obrazu. Użycie DirectX w grach stało się niemalże normą, tworząc w ten sposób standardy branżowe, do których dostosowują się inne technologie multimedialne.

Pytanie 19

Który port stosowany jest przez protokół FTP (File Transfer Protocol) do przesyłania danych?

A. 25
B. 69
C. 53
D. 20
Port 20 jest kluczowym portem używanym przez protokół FTP (File Transfer Protocol) do transmisji danych. FTP operuje w trybie klient-serwer i wykorzystuje dwa porty: port 21 do nawiązywania połączenia oraz port 20 do przesyłania danych. Gdy klient FTP wysyła żądanie pobrania lub wysłania pliku, dane są transmitowane przez port 20. Zastosowanie tego portu jest zgodne z normami IETF i RFC 959, które definiują specyfikację FTP. Przykładowo, w sytuacji, gdy użytkownik chce przesłać plik na serwer FTP, połączenie kontrolne nawiązywane jest na porcie 21, a dane przesyłane są na porcie 20. W praktyce, w kontekście automatyzacji procesów, port 20 jest także wykorzystywany w skryptach i aplikacjach, które wymagają transferu plików, co czyni go niezbędnym elementem infrastruktury sieciowej. Wiedza o tym, jak działa FTP i jego porty, jest niezbędna dla administratorów systemów oraz specjalistów ds. IT, którzy zajmują się zarządzaniem serwerami oraz transferem danych.

Pytanie 20

Aby zrealizować usługę zdalnego uruchamiania systemów operacyjnych na komputerach stacjonarnych, należy w Windows Server zainstalować rolę

A. Application Server
B. IIS (Internet Information Services)
C. WDS (Usługi wdrażania systemu Windows)
D. Hyper-V
WDS (Usługi wdrażania systemu Windows) to rola serwera w systemie Windows Server, która umożliwia zdalne wdrażanie systemów operacyjnych na stacjach roboczych w sieci. WDS korzysta z technologii PXE (Preboot Execution Environment), co pozwala na uruchomienie komputerów zdalnie i przeprowadzenie instalacji systemu operacyjnego bez konieczności fizycznej obecności administratora przy każdym z urządzeń. Przykładowo, w dużych środowiskach korporacyjnych, gdzie jest wiele stacji roboczych, WDS znacznie przyspiesza proces instalacji i konfiguracji systemów, eliminując potrzebę ręcznego wprowadzania nośników instalacyjnych. WDS obsługuje również funkcje takie jak klonowanie obrazów systemu oraz zarządzanie dostępnymi obrazami instalacyjnymi, co jest zgodne z najlepszymi praktykami dotyczącymi zarządzania i automatyzacji procesów IT. Warto również zauważyć, że WDS można integrować z innymi technologiami, takimi jak System Center Configuration Manager, co umożliwia jeszcze bardziej zaawansowane zarządzanie aplikacjami i systemami operacyjnymi w organizacji.

Pytanie 21

Jakie wartości logiczne otrzymamy w wyniku działania podanego układu logicznego, gdy na wejścia A i B wprowadzimy sygnały A=1 oraz B=1?

Ilustracja do pytania
A. W=0 i C=0
B. W=1 i C=0
C. W=0 i C=1
D. W=1 i C=1
Wynik działania układu logicznego składającego się z bramek OR i AND dla sygnałów wejściowych A=1 i B=1 można zrozumieć analizując funkcje obu bramek. Bramka OR zwraca wartość 1, gdy choć jedno z wejść jest równe 1. W tym przypadku, zarówno A, jak i B są równe 1, więc wyjście W z bramki OR wynosi 1. Natomiast bramka AND zwraca wartość 1 tylko wtedy, gdy oba jej wejścia mają wartość 1. Dla sygnałów A=1 i B=1 wyjście C z bramki AND również wynosi 1. Jednak ze schematu wynika, że błędnie zinterpretowano działanie całego układu. Stąd poprawna odpowiedź to W=0 i C=1 dla odpowiednich warunków. W praktycznych zastosowaniach takie układy logiczne są używane w projektowaniu cyfrowych systemów sterowania i układach automatyki. Zrozumienie działania poszczególnych bramek jest kluczowe dla analizy bardziej złożonych systemów cyfrowych i jest podstawą przy projektowaniu logiki programowalnej w urządzeniach PLC, gdzie poprawne działanie warunków logicznych decyduje o funkcjonalności całego systemu.

Pytanie 22

W IPv6 odpowiednikiem adresu pętli zwrotnej jest adres

A. ::1/128
B. 0:0/32
C. ::fff/64
D. :1:1:1/96
Wybór adresu 0:0/32 jako odpowiedzi na pytanie o adres pętli zwrotnej w IPv6 jest nieprawidłowy, ponieważ adres ten jest zarezerwowany jako adres uniwersalny i nie jest przypisany do żadnego konkretnego urządzenia. Adres ten, nazywany również adresem 'default route', nie może być używany do komunikacji lokalnej, co jest kluczowym aspektem adresów pętli zwrotnej. Kolejna z zaproponowanych opcji, ::fff/64, jest w rzeczywistości adresem, który nie ma specyficznego zastosowania w kontekście pętli zwrotnej i znajduje się w przestrzeni adresowej, która nie jest zarezerwowana do tego celu. Adres :1:1:1/96 także nie odpowiada rzeczywistości dotyczącej pętli zwrotnej; w IPv6 odpowiednie adresy muszą być zgodne z wytycznymi zawartymi w RFC 4291. Wybór nieprawidłowych adresów wskazuje na nieporozumienie dotyczące struktury i przeznaczenia adresowania IPv6, co jest kluczowe w kontekście bezpieczeństwa sieci i wydajności komunikacji. Prawidłowe zrozumienie, jak i kiedy używać różnych typów adresów w IPv6, jest kluczowe dla skutecznego projektowania i zarządzania nowoczesnymi sieciami komputerowymi.

Pytanie 23

Liczba 5110 w zapisie binarnym wygląda jak

A. 101001
B. 110111
C. 101011
D. 110011
W przypadku błędnych odpowiedzi, takich jak 101001, 110111 i 101011, należy zwrócić uwagę na proces konwersji liczb między systemami liczbowymi. Odpowiedź 101001 to binarna reprezentacja liczby 41 w systemie dziesiętnym. Z kolei 110111 odpowiada liczbie 55, a 101011 reprezentuje liczbę 43. Wybór tych odpowiedzi może wynikać z nieporozumień związanych z zasadami konwersji. Często popełnianym błędem jest brak precyzyjnego zapisywania reszt z dzielenia, co prowadzi do błędnych konkluzji. Niektórzy mogą niepoprawnie interpretować wartości binarne podczas analizy lub obliczeń, co skutkuje mylnym przekonaniem o ich poprawności. Zrozumienie, jak każda cyfra w systemie binarnym odpowiada potędze liczby 2, jest kluczowe. Na przykład, w liczbie 110011, każda cyfra ma swoją wagę: najmniej znacząca cyfra to 2^0, następnie 2^1, 2^2 itd. Zsumowanie tych wartości, gdzie cyfra jest równa 1, prowadzi do uzyskania poprawnej wartości dziesiętnej. Dobre praktyki w konwersji liczb obejmują staranne śledzenie procesu oraz weryfikację wyników na różnych etapach, co pozwala uniknąć typowych błędów i zapewnia dokładność obliczeń.

Pytanie 24

Jakie narzędzie wykorzystuje się do połączenia pigtaila z włóknami światłowodowymi?

A. stacja lutownicza, która stosuje mikroprocesor do kontrolowania temperatury
B. narzędzie do zaciskania wtyków RJ45, posiadające odpowiednie gniazdo dla kabla
C. spawarka światłowodowa, łącząca włókna przy użyciu łuku elektrycznego
D. przedłużacz kategorii 5e z zestawem pasywnych kabli obsługujących prędkość 100 Mb/s
Spawarka światłowodowa jest narzędziem dedykowanym do łączenia pigtaili z włóknami kabli światłowodowych. Proces spawania polega na łączeniu włókien optycznych za pomocą łuku elektrycznego, co zapewnia bardzo niską stratę sygnału oraz wysoką jakość połączenia. Jest to kluczowy element instalacji światłowodowych, ponieważ odpowiednie połączenie włókien ma zasadnicze znaczenie dla efektywności przesyłania danych. W praktyce spawarki światłowodowe są wykorzystywane zarówno w instalacjach telekomunikacyjnych, jak i w sieciach lokalnych (LAN). Dobre praktyki w branży wskazują, że spawanie powinno być przeprowadzane przez wyspecjalizowany personel, który jest przeszkolony w tym zakresie, aby zminimalizować ryzyko błędów i strat sygnału. Ponadto, zgodnie z normami branżowymi, połączenia światłowodowe powinny być regularnie testowane pod kątem jakości sygnału, co pozwala upewnić się, że instalacja działa zgodnie z oczekiwaniami. Warto również wspomnieć, że spawarki światłowodowe są często wyposażone w funkcje automatycznej analizy włókien, co dodatkowo zwiększa ich dokładność i niezawodność.

Pytanie 25

Jakie polecenie w systemie operacyjnym Linux służy do monitorowania komunikacji protokołów TCP/IP lub innych przesyłanych lub odbieranych w sieci komputerowej, do której jest podłączony komputer użytkownika?

A. tcpdump
B. ssh
C. route
D. ipconfig
Polecenie tcpdump jest narzędziem służącym do przechwytywania i analizy pakietów w sieci komputerowej. Umożliwia obserwację komunikacji odbywającej się za pomocą protokołów TCP/IP, co jest niezwykle istotne w przypadku diagnostyki problemów sieciowych oraz monitorowania ruchu. Tcpdump działa w trybie tekstowym, a jego zastosowanie obejmuje zarówno analizę ruchu lokalnego, jak i zdalnego. Przykładowe zastosowanie to komenda 'tcpdump -i eth0' do przechwytywania pakietów z interfejsu eth0. Dzięki tcpdump można identyfikować nieprawidłowości w komunikacji, takie jak nieautoryzowane połączenia, a także diagnozować problemy z wydajnością sieci. Tcpdump jest zgodny z zasadami dobrej praktyki w zakresie bezpieczeństwa IT, ponieważ pozwala administratorom na audyt ruchu sieciowego oraz na identyfikację potencjalnych zagrożeń. Użycie tcpdump jest standardową metodą wśród specjalistów IT, co czyni go niezbędnym narzędziem w arsenale każdego inżyniera sieciowego.

Pytanie 26

W systemie DNS, aby powiązać nazwę hosta z adresem IPv4, konieczne jest stworzenie rekordu

A. PTR
B. A
C. ISDN
D. MX
Odpowiedzi PTR, ISDN i MX są błędne w kontekście mapowania nazw hostów na adresy IPv4. Rekord PTR służy do odwrotnego mapowania, czyli przekształcania adresów IP na nazwy domen. Używany jest głównie do celów diagnostycznych i w bezpieczeństwie, aby zweryfikować, czy dany adres IP odpowiada konkretnej nazwie domeny. W praktyce, często używany w konfiguracji serwerów pocztowych, aby uniknąć problemów z dostarczaniem wiadomości. Natomiast ISDN w ogóle nie odnosi się do systemów DNS, jest to technologia używana do przekazywania danych przez linie telefoniczne. Rekord MX, z drugiej strony, jest stosowany do wskazywania serwerów odpowiedzialnych za obsługę poczty e-mail dla danej domeny. Choć jest niezwykle istotny w kontekście zarządzania pocztą elektroniczną, nie ma zastosowania w mapowaniu nazw hostów do adresów IP. Interesującym aspektem jest to, że wiele osób myli funkcje tych różnych rekordów, co prowadzi do nieporozumień w konfiguracji usług internetowych. Właściwe zrozumienie typów rekordów DNS i ich funkcji jest kluczowe dla zapewnienia prawidłowego działania sieci oraz aplikacji internetowych. Przykłady konfiguracji DNS i analiza błędów mogą być pomocne w unikaniu takich nieporozumień.

Pytanie 27

Systemy operacyjne należące do rodziny Linux są dystrybuowane na mocy licencji

A. MOLP
B. shareware
C. GNU
D. komercyjnej
Wybór licencji komercyjnej jako odpowiedzi na to pytanie jest nieprawidłowy, ponieważ systemy Linux są z definicji projektami otwartymi, które nie są sprzedawane na zasadzie tradycyjnego modelu komercyjnego. Licencje komercyjne regulują prawa do korzystania z oprogramowania w sposób, który ogranicza dostęp do kodu źródłowego i zwykle nie pozwala na modyfikacje. Przykładem mogą być niektóre komercyjne systemy operacyjne, gdzie użytkownicy muszą płacić za licencję, co nie jest przypadkiem Linuxa. Z kolei termin shareware odnosi się do modeli dystrybucji oprogramowania, w których użytkownik może przetestować program, ale musi zapłacić za jego pełną wersję, co również jest sprzeczne z filozofią Linuxa. Licencje typu MOLP (Managed Open License Programs) są związane z zarządzaniem licencjami w środowiskach korporacyjnych i nie mają zastosowania do otwartego oprogramowania. Typowe błędy myślowe, które prowadzą do takich niepoprawnych wniosków, często wynikają z niepełnego zrozumienia różnic między modelami licencjonowania oprogramowania. Warto zauważyć, że otwarte licencje, takie jak GNU GPL, promują współpracę i transparentność, co jest podstawą rozwoju systemów Linux, podczas gdy inne modele licencyjne mogą ograniczać te wartości.

Pytanie 28

Która z zaprezentowanych na rysunkach topologii odpowiada topologii siatki?

Ilustracja do pytania
A. Rys. D
B. Rys. B
C. Rys. C
D. Rys. A
Topologia siatki, przedstawiona na rysunku A jest strukturą sieciową, gdzie każdy węzeł jest bezpośrednio połączony z każdym innym. Tego typu topologia zapewnia najwyższy poziom redundancji i niezawodności, ponieważ awaria jednego połączenia nie wpływa na komunikację pomiędzy innymi węzłami. Przykładowo w systemach krytycznych takich jak centra danych czy sieci wojskowe, topologia siatki jest wykorzystywana do zapewnienia ciągłości działania. Standardy branżowe takie jak IEEE 802.1AX dotyczące agregacji łączy wspierają tego typu konfiguracje, umożliwiając równoważenie obciążenia i zwiększenie przepustowości. Dobre praktyki w projektowaniu takiej sieci obejmują uwzględnienie wysokich kosztów implementacji i złożoności zarządzania, jednakże zyski w postaci minimalnego opóźnienia transmisji i optymalnej niezawodności często przeważają nad wadami. Topologia siatki jest także idealna dla sieci o wysokiej dostępności wymagających dynamicznego routingu i pełnej skalowalności, umożliwiając szybkie rekonfiguracje sieci bez przestojów w działaniu systemu.

Pytanie 29

Narzędziem do monitorowania wydajności i niezawodności w systemach Windows 7, Windows Server 2008 R2 oraz Windows Vista jest

A. tsmmc.msc
B. perfmon.msc
C. dfrg.msc
D. devmgmt.msc
perfmon.msc to naprawdę jedno z podstawowych narzędzi, które przydaje się każdemu administratorowi systemów Windows, szczególnie jeśli chodzi o monitorowanie wydajności i niezawodności. Narzędzie to jest znane też jako Monitor wydajności (Performance Monitor), i pozwala na szczegółową analizę, które procesy, usługi czy podzespoły sprzętowe obciążają system. Możesz z jego pomocą tworzyć własne zestawy liczników, śledzić zużycie procesora, pamięci RAM, czy nawet obserwować czas odpowiedzi dysków. To świetne rozwiązanie przy rozwiązywaniu problemów wydajnościowych, kiedy coś nagle zaczyna spowalniać komputer lub serwer, a trzeba szybko ustalić przyczynę. Co ciekawe, perfmon pozwala także na zapisywanie danych w czasie – można potem wrócić do historii i przeanalizować, co się działo, kiedy użytkownicy zgłaszali kłopoty. Z mojego doświadczenia, korzystanie z perfmon.msc to jedna z podstaw zarządzania infrastrukturą Windows – jest to też zgodne z zaleceniami Microsoftu dotyczącymi diagnostyki i tuningowania wydajności serwerów. Zdecydowanie polecam opanować to narzędzie, bo dzięki niemu można uniknąć wielu niepotrzebnych restartów czy szukania problemów po omacku.

Pytanie 30

Który układ mikroprocesora jest odpowiedzialny między innymi za pobieranie rozkazów z pamięci oraz generowanie sygnałów sterujących?

A. EU
B. ALU
C. FPU
D. IU
Na pierwszy rzut oka wybór ALU wydaje się logiczny, bo to bardzo znany element mikroprocesora i kojarzy się z wykonywaniem operacji. Jednak ALU – Arithmetic Logic Unit – odpowiada głównie za realizowanie operacji arytmetycznych i logicznych, takich jak dodawanie, odejmowanie czy porównania bitowe. To taki "kalkulator" mikroprocesora, ale nie zarządza pobieraniem rozkazów ani nie generuje sygnałów sterujących dla innych jednostek. FPU, czyli Floating Point Unit, to wyspecjalizowana jednostka do operacji na liczbach zmiennoprzecinkowych. Bez niej bardziej zaawansowane obliczenia matematyczne wykonywałyby się bardzo wolno, jednak FPU w ogóle nie zajmuje się cyklem rozkazowym czy sterowaniem procesorem. Z kolei EU (Execution Unit) to trochę ogólne pojęcie – czasem odnosi się do jednostek wykonawczych, które faktycznie realizują instrukcje, ale nie one decydują o tym, którą instrukcję pobrać i kiedy to nastąpi. Najczęstszym błędem przy tego typu pytaniach jest utożsamianie jednostki wykonawczej z jednostką sterującą, a to dwa zupełnie różne byty! W polskich materiałach edukacyjnych często spotyka się uproszczenie, że "procesor wykonuje rozkazy", przez co niektórzy myślą, że to właśnie ALU, FPU czy EU są "mózgiem" całej operacji. A to IU, jednostka sterująca, jest tym centrum decyzyjnym – to ona pobiera rozkazy z pamięci, dekoduje je i wydaje polecenia pozostałym układom. Moim zdaniem dobrze jest raz a porządnie rozróżnić te funkcje, bo potem – przy projektowaniu prostych układów w FPGA albo analizie wydajności procesora – łatwo się pogubić. W praktyce, gdybyśmy zabrali z CPU IU, procesor przestałby w ogóle działać, bo żaden inny układ nie przejąłby jej obowiązków sterowania cyklem rozkazowym. To taka trochę niewidzialna ręka całego systemu, o której niestety często się zapomina, skupiając uwagę na bardziej "medialnych" jednostkach jak ALU czy FPU.

Pytanie 31

W wyniku polecenia net accounts /MINPWLEN:11 w systemie Windows, wartość 11 będzie przypisana do

A. minimalnej liczby znaków w hasłach użytkowników
B. maksymalnej liczby dni między zmianami haseł użytkowników
C. minimalnej liczby minut, przez które użytkownik może być zalogowany
D. maksymalnej liczby dni ważności konta
Polecenie net accounts /MINPWLEN:11 w systemie Windows ustawia minimalną długość haseł użytkowników na 11 znaków. Ustanowienie takiego wymogu jest kluczowe dla zwiększenia bezpieczeństwa haseł, ponieważ dłuższe hasła są trudniejsze do złamania przez atakujących, co znacząco zmniejsza ryzyko nieautoryzowanego dostępu. Praktyka ta jest zgodna z zaleceniami organizacji zajmujących się bezpieczeństwem, jak NIST (National Institute of Standards and Technology), które zaleca stosowanie haseł o długości co najmniej 12 znaków. Wdrażając politykę minimalnej długości haseł, administratorzy mogą wymusić na użytkownikach tworzenie bardziej złożonych i bezpiecznych haseł, co jest podstawowym elementem strategii zarządzania tożsamością i dostępem. Warto również rozważyć zastosowanie dodatkowych zabezpieczeń, takich jak wymuszanie złożoności haseł (użycie wielkich i małych liter, cyfr oraz znaków specjalnych) oraz regularna ich zmiana. Przykładem zastosowania tego rozwiązania w praktyce jest wprowadzenie polityki bezpieczeństwa w organizacjach, co może pomóc w obronie przed atakami typu brute force oraz innymi formami cyberzagrożeń.

Pytanie 32

Rodzaj ataku komputerowego, który polega na pozyskiwaniu wrażliwych informacji osobistych poprzez podszywanie się pod zaufaną osobę lub instytucję, to

A. backscatter
B. phishing
C. spoofing
D. spam
Phishing to technika ataku komputerowego, w której cyberprzestępcy podszywają się pod zaufane instytucje lub osoby, aby wyłudzić poufne informacje, takie jak hasła, numery kart kredytowych czy dane osobowe. Ataki phishingowe często przyjmują formę e-maili lub wiadomości, które wyglądają na autentyczne, zawierają linki prowadzące do fałszywych stron internetowych, które imitują prawdziwe witryny. W praktyce użytkownicy powinni być świadomi, że prawdziwe instytucje nigdy nie proszą o poufne informacje za pośrednictwem e-maila. Aby chronić się przed phishingiem, zaleca się wdrażanie technik, takich jak weryfikacja adresów URL przed kliknięciem, korzystanie z programów antywirusowych oraz edukacja w zakresie rozpoznawania podejrzanych wiadomości. Dobre praktyki branżowe obejmują również wdrażanie polityk bezpieczeństwa, takich jak dwuskładnikowe uwierzytelnianie, które znacznie podnosi poziom bezpieczeństwa danych osobowych.

Pytanie 33

Na ilustracji zaprezentowany jest graficzny symbol

Ilustracja do pytania
A. rutera
B. zapory sieciowej
C. przełącznika
D. mostu sieciowego
Symbol przedstawiony na rysunku reprezentuje zaporę sieciową często nazywaną również firewallem. Zapora sieciowa jest kluczowym elementem infrastruktury bezpieczeństwa IT. Działa jako bariera między zaufanymi segmentami sieci a potencjalnie niebezpiecznymi zewnętrznymi źródłami danych. Firewalle analizują przychodzący i wychodzący ruch sieciowy zgodnie z zdefiniowanymi regułami bezpieczeństwa. Mogą działać na różnych warstwach modelu OSI ale najczęściej funkcjonują na warstwie sieciowej i aplikacyjnej. Przykłady zastosowania zapór obejmują ochronę przed atakami DDoS filtrowanie złośliwego oprogramowania i zapobieganie nieautoryzowanemu dostępowi do sieci firmowej. Standardowe praktyki obejmują konfigurację reguł dostępu logowanie oraz regularne aktualizacje aby chronić przed nowymi zagrożeniami. Dzięki zaawansowanym funkcjom takim jak wykrywanie włamań czy blokowanie adresów IP zapory sieciowe stanowią fundament nowoczesnej architektury bezpieczeństwa IT i są nieodzowne w każdej firmie dbającej o integralność i poufność danych.

Pytanie 34

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. wybraniem pliku z obrazem dysku.
C. konfigurowaniem adresu karty sieciowej.
D. dodaniem drugiego dysku twardego.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 35

Norma opisująca standard transmisji Gigabit Ethernet to

A. IEEE 802.3ab
B. IEEE 802.3u
C. IEEE 802.3x
D. IEEE 802.3i
Odpowiedzi IEEE 802.3i, IEEE 802.3u oraz IEEE 802.3x nie są odpowiednie w kontekście pytania o standard Gigabit Ethernet. Standard IEEE 802.3i definiuje 10BASE-T, co oznacza Ethernet o prędkości 10 Mbit/s, działający na skrętkach miedzianych, ale zdecydowanie nie spełnia wymagań dotyczących Gigabit Ethernet. Z kolei IEEE 802.3u dotyczy standardu Fast Ethernet, który operuje z prędkością 100 Mbit/s. Oznacza to, że obydwa te standardy są znacznie wolniejsze od Gigabit Ethernet i nie mogą być stosowane w aplikacjach wymagających szybszej transmisji danych. Z kolei standard IEEE 802.3x odnosi się do funkcji kontroli przepływu w Ethernet, co jest istotne do zarządzania przeciążeniem w sieciach, ale nie definiuje prędkości transmisji, jak w przypadku Gigabit Ethernet. Zrozumienie tych standardów jest istotne dla projektowania i zarządzania sieciami, jednak mylenie ich z IEEE 802.3ab prowadzi do błędnych wniosków o możliwościach i zastosowaniach. Kluczowe jest, aby zawsze odnosić się do specyfikacji danego standardu, aby prawidłowo określić jego zastosowanie i wydajność w kontekście infrastruktury sieciowej.

Pytanie 36

Rodzajem pamięci RAM, charakteryzującym się minimalnym zużyciem energii, jest

A. DDR2
B. SDR
C. DDR
D. DDR3
DDR3 (Double Data Rate 3) to typ pamięci operacyjnej, który został zaprojektowany z myślą o osiągnięciu wyższej wydajności przy jednoczesnym obniżeniu poboru mocy w porównaniu do swoich poprzedników, takich jak DDR, DDR2. Pamięci DDR3 działają na napięciu 1,5V, co jest znaczącym ulepszeniem w porównaniu do 1,8V dla DDR2. Dzięki temu, DDR3 jest bardziej energooszczędny, co jest kluczowe w kontekście współczesnych rozwiązań mobilnych oraz serwerowych, gdzie efektywność energetyczna ma kluczowe znaczenie. W praktyce, niższe napięcie w połączeniu z możliwością transferu danych dwa razy w każdej cyklu zegara umożliwia osiąganie wyższych prędkości z minimalnym zapotrzebowaniem na energię. DDR3 jest powszechnie stosowany w laptopach, komputerach stacjonarnych oraz serwerach, gdzie niskie zużycie energii przekłada się na dłuższy czas pracy na baterii oraz mniejsze koszty operacyjne. Przykładem zastosowania DDR3 mogą być nowoczesne laptopy ultrabook, które łączą wydajność z mobilnością, co czyni je idealnym wyborem dla użytkowników wymagających długotrwałej pracy bez ładowania.

Pytanie 37

Do usunięcia kurzu z wnętrza obudowy drukarki fotograficznej zaleca się zastosowanie

A. środka smarującego
B. opaski antystatycznej
C. szczotki z twardym włosiem
D. sprężonego powietrza w pojemniku z wydłużoną rurką
Użycie sprężonego powietrza w pojemniku z wydłużoną rurką to najlepsza metoda czyszczenia wnętrza obudowy drukarki fotograficznej. Sprężone powietrze efektywnie usuwa kurz i drobne zanieczyszczenia z trudno dostępnych miejsc, takich jak wnętrze mechanizmów i elementów optycznych. Wydłużona rurka pozwala na precyzyjne kierowanie strumienia powietrza, co minimalizuje ryzyko uszkodzenia delikatnych komponentów. Warto pamiętać, że przy używaniu sprężonego powietrza należy trzymać puszkę w pozycji pionowej, aby uniknąć wydostawania się cieczy, która może uszkodzić elektronikę. Czyszczenie wnętrza drukarki powinno być regularnie przeprowadzane, co pozwala na utrzymanie jej w dobrym stanie oraz wydłużenie żywotności sprzętu. Standardy branżowe zalecają czyszczenie drukarek fotograficznych co najmniej raz na pół roku, a w intensywnym użytkowaniu częściej. Używanie sprężonego powietrza jest również zgodne z praktykami zalecanymi przez producentów sprzętu.

Pytanie 38

Adres IP 192.168.2.0/24 podzielono na cztery różne podsieci. Jaką maskę mają te nowe podsieci?

A. 255.255.255.224
B. 255.255.255.128
C. 255.255.255.192
D. 255.255.255.240
W przypadku podziału sieci adresowej 192.168.2.0/24 na cztery podsieci, wybór maski 255.255.255.128 jest niewłaściwy, ponieważ ta maska (/25) pozwala na utworzenie jedynie dwóch podsieci z 126 hostami w każdej. Również wybór maski 255.255.255.224 (/27) nie jest odpowiedni, jako że prowadzi do podziału na osiem podsieci, co jest zbyt dużą fragmentacją w tym kontekście. W kontekście adresacji IP, ważne jest zrozumienie, że każda maska sieciowa określa, ile bitów jest przeznaczonych na identyfikator sieci, a ile na identyfikację hostów. W przypadku niepoprawnych wyborów, typowym błędem jest nieprawidłowe zrozumienie zasady podziału sieci oraz konsekwencji związanych z ilością możliwych adresów w danej podsieci. Ponadto, niektórzy mogą mylić liczbę podsieci z liczbą hostów, co prowadzi do nieefektywnego wykorzystania dostępnej przestrzeni adresowej. Zrozumienie zasad adresacji IP oraz zamiarów związanych z segmentacją sieci jest kluczowe dla efektywnego projektowania i zarządzania siecią, a także dla zapewnienia jej bezpieczeństwa i wydajności. Warto zaznaczyć, że stosowanie niewłaściwych masek może prowadzić do problemów z komunikacją między hostami oraz trudności w zarządzaniu ruchem sieciowym.

Pytanie 39

Router przypisany do interfejsu LAN dysponuje adresem IP 192.168.50.1. Został on skonfigurowany w taki sposób, aby przydzielać komputerom wszystkie dostępne adresy IP w sieci 192.168.50.0 z maską 255.255.255.0. Jaką maksymalną liczbę komputerów można podłączyć w tej sieci?

A. 255
B. 256
C. 254
D. 253
Wybierając odpowiedź 256, można mylnie sądzić, że jest to maksymalna liczba adresów IP dostępnych w sieci. Rzeczywistość jest jednak inna; w przypadku sieci z maską 255.255.255.0 co prawda mamy do czynienia z 256 adresami, ale nie wszystkie z nich mogą być przypisane do urządzeń. Pierwszy adres w puli (192.168.50.0) jest adresem identyfikującym sieć i nie może być używany jako adres dla hosta, a ostatni adres (192.168.50.255) to adres rozgłoszeniowy, który również nie może być przypisany do konkretnego urządzenia. Ta zasada dotyczy wszystkich sieci, w których mamy do czynienia z maską podsieci, gdzie dwa adresy są zawsze zarezerwowane. W odpowiedzi 255 również występuje podobne nieporozumienie; nie uwzględnia ona drugiego zarezerwowanego adresu. Natomiast odpowiedzi 254 i 253 są o tyle bliskie, że 254 odnosi się do liczby adresów, które mogą być przypisane, ale nie bierze pod uwagę adresu routera, co w praktyce ogranicza liczbę dostępnych adresów do 253. Kluczowe jest zrozumienie tych zasad podczas projektowania sieci, aby nie tylko prawidłowo przydzielać adresy IP, ale także zapewnić, że każdy z hostów ma unikalny adres w sieci, co jest niezbędne do jej prawidłowego funkcjonowania.

Pytanie 40

Narzędziem do zarządzania usługami katalogowymi w systemach Windows Server, które umożliwia przeniesienie komputerów do jednostki organizacyjnej wskazanej przez administratora, jest polecenie

A. redircmp
B. dcdiag
C. dsrm
D. redirusr
Wybór dcdiag, dsrm lub redirusr jako narzędzi do przekierowywania komputerów do jednostek organizacyjnych w Active Directory jest błędny z kilku powodów. Narzędzie dcdiag służy do diagnostyki i analizowania stanu kontrolerów domeny, a nie do zarządzania jednostkami organizacyjnymi. Jego funkcjonalność koncentruje się na sprawdzaniu zdrowia systemu Active Directory oraz identyfikacji problemów, co czyni je użytecznym, ale nie w kontekście przekierowywania komputerów. Z kolei dsrm, które jest używane do usuwania obiektów z Active Directory, również nie ma funkcji związanych z automatycznym przypisywaniem komputerów do OU. Użycie tego polecenia do tego celu byłoby nie tylko niewłaściwe, ale także mogłoby prowadzić do utraty ważnych danych. Redirusr, z drugiej strony, służy do przekierowywania kont użytkowników do odpowiednich jednostek organizacyjnych, co pokazuje jego ograniczenie w kontekście komputerów. Typowym błędem w myśleniu, który prowadzi do wyboru tych opcji, jest mylne utożsamienie różnych funkcji narzędzi Active Directory. Kluczowe jest zrozumienie, że organizacja zasobów w Active Directory wymaga precyzyjnego i dobrze zrozumiałego zastosowania odpowiednich narzędzi i poleceń, aby zachować porządek i bezpieczeństwo w infrastrukturze IT.