Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 20 kwietnia 2026 16:12
  • Data zakończenia: 20 kwietnia 2026 16:33

Egzamin zdany!

Wynik: 22/40 punktów (55,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Brak informacji o parzystości liczby lub o znaku wyniku operacji w ALU może sugerować problemy z funkcjonowaniem

A. rejestru flagowego
B. tablicy rozkazów
C. wskaźnika stosu
D. pamięci cache
Odpowiedzi takie jak pamięć cache, wskaźnik stosu oraz tablica rozkazów są nieodpowiednie w kontekście braku informacji o parzystości liczby czy znaku wyniku operacji w ALU. Pamięć cache jest technologią, która optymalizuje dostęp do danych, przechowując często używane informacje, ale nie ma wpływu na operacje arytmetyczne czy logiczne wykonywane przez ALU. Jej rola polega na zwiększeniu wydajności systemu przez minimalizowanie opóźnień w dostępie do pamięci głównej. Wskaźnik stosu z kolei zarządza strukturą danych zwaną stosem, która jest używana do przechowywania adresów powrotu oraz lokalnych zmiennych, a nie do zarządzania wynikami operacji arytmetycznych. Z perspektywy działania ALU, wskaźnik stosu nie ma nic wspólnego z informacjami o parzystości czy znaku. Tablica rozkazów to z kolei strona architektury procesora, która przechowuje instrukcje do wykonania; jednak odpowiedzialność za zarządzanie wynikami leży w rejestrach, a nie w tablicy rozkazów. Właściwe zrozumienie ról tych komponentów jest kluczowe dla efektywnego projektowania systemów komputerowych. Często mylenie tych terminów prowadzi do nieporozumień dotyczących działania architektury komputerowej i jej elementów składowych. Ważne jest, aby w kontekście programowania i architektury komputerowej, mieć jasność co do funkcji każdego z komponentów, aby unikać błędów w projektowaniu oraz implementacji.

Pytanie 2

W systemie Windows, z jakiego polecenia można skorzystać, aby sprawdzić bieżące połączenia sieciowe i ich statystyki?

A. ping
B. ipconfig
C. tracert
D. netstat
Polecenie 'ipconfig' w systemie Windows jest bardzo przydatne, ale służy zupełnie innym celom niż 'netstat'. 'Ipconfig' pozwala na wyświetlanie informacji konfiguracyjnych o interfejsach sieciowych, takich jak adresy IP czy maski podsieci. Jest nieocenione przy rozwiązywaniu problemów z konfiguracją sieci, ale nie dostarcza informacji o bieżących połączeniach sieciowych. Z kolei 'ping' to narzędzie do diagnozowania stanu połączeń sieciowych, które sprawdza, czy dany host jest osiągalny w sieci. Chociaż 'ping' może być użyteczne przy weryfikacji dostępności serwerów lub urządzeń sieciowych, nie dostarcza informacji o wszystkich aktywnych połączeniach, jak 'netstat'. Natomiast 'tracert' (lub 'traceroute') to narzędzie pokazujące trasę pakietów do danego hosta w sieci. Jest świetne do identyfikacji miejsc, gdzie występują opóźnienia lub problemy w transmisji danych, ale nie dostarcza statystyk o wszystkich bieżących połączeniach sieciowych. Często popełnianym błędem jest mylenie tych narzędzi ze względu na ich funkcje związane z siecią, jednak każde z nich ma swoje specyficzne zastosowanie i nie zastępuje funkcjonalności 'netstat' w kontekście analizy aktywnych połączeń sieciowych i ich statystyk.

Pytanie 3

Który adres IP jest przypisany do klasy A?

A. 119.0.0.1
B. 192.0.2.1
C. 169.255.2.1
D. 134.16.0.1
Adres IP 119.0.0.1 należy do klasy A, co wynika z definicji klas adresowych w protokole IP. Klasa A obejmuje adresy od 1.0.0.0 do 126.255.255.255, a pierwszy oktet musi mieścić się w przedziale od 1 do 126. W przypadku adresu 119.0.0.1 pierwszy oktet to 119, co potwierdza jego przynależność do klasy A. Adresy klasy A są przeznaczone dla dużych organizacji, które potrzebują wielu adresów IP w jednej sieci. Klasa ta pozwala na przydzielenie ogromnej liczby adresów – ponad 16 milionów (2^24) dla każdej sieci, co jest korzystne dla dużych instytucji, takich jak korporacje czy uniwersytety. Ponadto w kontekście routingu, adresy klasy A są używane dla dużych sieci, co ułatwia zarządzanie i organizację struktury adresowej. W praktycznych zastosowaniach, w przypadku organizacji wymagających dużych zasobów adresowych, klasy A są często wykorzystywane do rozbudowy infrastruktury sieciowej, co jest zgodne z dobrymi praktykami w zakresie planowania adresacji IP.

Pytanie 4

Która z wymienionych czynności nie jest związana z personalizacją systemu operacyjnego Windows?

A. Dostosowanie ustawień dotyczących wyświetlania pasków menu i narzędziowych
B. Zmiana koloru tła pulpitu na jeden lub kilka przenikających się odcieni
C. Ustawienie wielkości partycji wymiany
D. Wybór domyślnej przeglądarki internetowej
Wielkość partycji wymiany to coś, co nie jest związane z tym, jak sobie personalizujemy Windowsa. Ta partycja, czyli plik stronicowania, pomaga w zarządzaniu pamięcią wirtualną. To znaczy, że przenosi dane między RAM a dyskiem twardym. Ustawienia tego rodzaju są super ważne dla wydajności komputera, ale nie mają żadnego wpływu na to, jak system wygląda czy jak się z nim pracuje. Na przykład, dobra konfiguracja tej partycji może przyspieszyć działanie programów, które potrzebują dużo pamięci, ale nie zmienia naszych upodobań co do interfejsu. Warto pamiętać, że personalizacja to zmiany jak tło pulpitu, jakieś ustawienia paska zadań czy przeglądarki, które naprawdę wpływają na to, jak korzystamy z systemu. Z mojego doświadczenia, personalizacja powinna ułatwiać nam pracę, a ustawienie pamięci w tym przypadku po prostu nie ma na to wpływu.

Pytanie 5

Jaką funkcję serwera z grupy Windows Server trzeba dodać, aby serwer mógł realizować usługi rutingu?

A. Usługi zarządzania dostępu w usłudze Active Directory
B. Serwer sieci Web (IIS)
C. Usługi domenowe w usłudze Active Directory
D. Usługi zasad i dostępu sieciowego
Usługi NAP (czyli te od zasad i dostępu sieciowego) są naprawdę istotne, jak chodzi o to, kto ma dostęp do zasobów w sieci. Umożliwiają administratorom ustalanie reguł, które sprawdzają, czy użytkownicy i urządzenia są bezpieczne przed wejściem do sieci. Przykładowo, jeśli zmieniamy coś w naszej infrastrukturze, serwer z NAP może ocenić, czy klient ma aktualne oprogramowanie antywirusowe lub system operacyjny. Na tej podstawie decyduje, czy dać pełny dostęp, jakiś ograniczony, czy całkowicie zablokować. W praktyce dzięki tym usługom mamy lepszą kontrolę nad politykami dostępu, co zdecydowanie zwiększa bezpieczeństwo naszej sieci i ułatwia zarządzanie IT, zwłaszcza w środowisku Windows Server. Z mojego doświadczenia, to naprawdę ważne, żeby mieć to wszystko pod kontrolą.

Pytanie 6

Adware to rodzaj oprogramowania

A. płatnego w formie dobrowolnego wsparcia
B. darmowego z wplecionymi reklamami
C. darmowego bez żadnych ograniczeń
D. płatnego po upływie ustalonego okresu próbnego
Adware to taki typ oprogramowania, które często dostajemy za darmo, ale z jednym haczykiem – pojawiają się reklamy. Główna zasada adware to zarabianie na tych reklamach, które można spotkać w różnych miejscach, jak przeglądarki czy aplikacje mobilne. Ludzie często się na to decydują, bo w zamian za reklamy dostają coś, co jest fajne i darmowe. Na przykład, są aplikacje do odtwarzania muzyki, które można ściągnąć za darmo, ale musimy się liczyć z tym, że co chwila wyskakuje jakaś reklama. Ważne, żebyśmy wiedzieli, że korzystając z adware, możemy mieć problemy z prywatnością, bo takie programy często zbierają nasze dane. Dlatego warto znać różne rodzaje oprogramowania, a zwłaszcza adware, żeby być bezpiecznym w sieci i podejmować mądre decyzje przy instalowaniu aplikacji.

Pytanie 7

Jakie polecenie powinno być użyte do obserwacji lokalnych połączeń?

A. netstat
B. route add
C. dir
D. host
Odpowiedź 'netstat' jest poprawna, ponieważ jest to narzędzie służące do monitorowania i analizy połączeń sieciowych na lokalnym komputerze. Umożliwia ono wyświetlenie aktywnych połączeń TCP i UDP, a także pozwala na identyfikację portów, stanów połączeń oraz adresów IP. Dzięki temu administratorzy systemów i sieci mogą śledzić bieżące aktywności sieciowe, co jest kluczowe w kontekście zarządzania bezpieczeństwem oraz wydajnością systemu. Przykładowo, użycie polecenia 'netstat -a' pozwala na zobaczenie wszystkich aktywnych połączeń oraz portów nasłuchujących. Warto również zaznaczyć, że 'netstat' jest zgodny z wieloma standardami branżowymi i jest powszechnie stosowane w administracji systemowej jako narzędzie do diagnozowania problemów z siecią. Dodatkowo, w czasach wzrastającej liczby ataków sieciowych, znajomość tego narzędzia staje się niezbędna do skutecznego monitorowania i reagowania na potencjalne zagrożenia.

Pytanie 8

Jakie urządzenie w warstwie łącza danych modelu OSI analizuje adresy MAC zawarte w ramkach Ethernet i na tej podstawie decyduje o przesyłaniu sygnału pomiędzy segmentami sieci lub jego blokowaniu?

A. hub
B. access point
C. repeater
D. bridge
Most (bridge) jest urządzeniem sieciowym działającym na warstwie łącza danych modelu OSI, które analizuje ramki Ethernet pod kątem adresów MAC. Dzięki właściwej analizie, most jest w stanie podejmować decyzje o przesyłaniu lub blokowaniu sygnału, co zwiększa efektywność sieci. Jego działanie opiera się na tabeli adresów MAC, którą tworzy poprzez monitorowanie ruchu w sieci. Przykładem zastosowania mostu może być sytuacja, w której w dużej sieci lokalnej (LAN) istnieją różne segmenty, a most łączy je, eliminując kolizje i zmniejszając obciążenie. Mosty są szczególnie pomocne w rozdzielaniu ruchu w sieci, co pozwala na efektywniejsze zarządzanie pasmem oraz zwiększa bezpieczeństwo, ograniczając rozprzestrzenianie się niepożądanego ruchu. W praktyce, mosty są zgodne z normami IEEE 802.1D, które definiują protokoły i procedury stosowane w sieciach lokalnych. Zastosowanie mostów jest kluczowe w projektowaniu nowoczesnych infrastruktury sieciowych, gdzie wydajność i segregacja ruchu są priorytetem.

Pytanie 9

Jakie urządzenie powinno się zastosować do przeprowadzenia testu POST dla komponentów płyty głównej?

Ilustracja do pytania
A. Rys. A
B. Rys. C
C. Rys. B
D. Rys. D
Przyrząd przedstawiony na Rys. B to karta diagnostyczna POST, która jest niezbędna do uzyskania wyników testu Power-On Self-Test (POST) dla modułów płyty głównej. Karty diagnostyczne POST są używane w celu diagnozowania problemów z płytą główną oraz innymi kluczowymi komponentami systemu komputerowego. Po podłączeniu do gniazda PCI, PCIe lub ISA na płycie głównej, karta odbiera i interpretuje kody błędów POST generowane przez BIOS podczas uruchamiania systemu. Jej wyświetlacz LED lub LCD pokazuje te kody, co pozwala na szybką identyfikację problemów takich jak uszkodzone moduły pamięci RAM, procesor, czy inne elementy. W branży IT stosowanie kart diagnostycznych POST jest standardową praktyką przy rozwiązywaniu problemów z uruchamianiem komputerów, gdyż umożliwiają natychmiastowe rozpoznanie i klasyfikację błędów, co jest nieocenione w szybkim diagnozowaniu i naprawie sprzętu komputerowego. Korzystanie z takich narzędzi wpisuje się w najlepsze praktyki branżowe i jest polecane w sytuacjach, gdzie szybkie i precyzyjne określenie problemu sprzętowego jest kluczowe dla utrzymania sprawnego działania systemu.

Pytanie 10

Jednym z programów stosowanych do tworzenia kopii zapasowych partycji oraz dysków jest

A. Norton Ghost
B. Gparted
C. Diskpart
D. CrystalDiskInfo
Diskpart to narzędzie systemowe wbudowane w systemy operacyjne Windows, które służy do zarządzania partycjami dysków, ale nie ma możliwości tworzenia kopii zapasowych ani obrazów. Diskpart pozwala na wykonywanie operacji takich jak tworzenie, usuwanie czy formatowanie partycji, jednak nie oferuje funkcji klonowania, co jest kluczowe w kontekście tworzenia kopii zapasowych. Gparted to natomiast narzędzie graficzne dla systemów Linux, umożliwiające zarządzanie partycjami, ale także nie jest przeznaczone do tworzenia kopii dysków. Z kolei CrystalDiskInfo to aplikacja monitorująca stan dysków twardych, dostarczająca informacji o ich kondycji, temperaturze i parametrach S.M.A.R.T., ale nie posiada funkcji tworzenia kopii dysków. Często mylone jest pojęcie zarządzania partycjami z tworzeniem kopii zapasowych, co prowadzi do nieporozumień. Kluczowe jest zrozumienie, że aby skutecznie zabezpieczyć dane, nie wystarczy jedynie zarządzać strukturą dyskową; niezbędne są odpowiednie narzędzia, które oferują funkcjonalności klonowania i tworzenia obrazów. W kontekście backupów, zastosowanie dedykowanych aplikacji, takich jak Norton Ghost, jest standardową praktyką w branży IT, co potwierdza znaczenie wyboru odpowiednich narzędzi do konkretnych zadań.

Pytanie 11

Który z poniższych adresów IPv4 wraz z prefiksem reprezentuje adres sieci?

A. 208.99.255.134/28
B. 127.100.100.67/27
C. 46.18.10.19/30
D. 64.77.199.192/26
Adres IPv4 64.77.199.192/26 jest poprawnym adresem sieci, ponieważ prefiks /26 oznacza, że pierwsze 26 bitów adresu jest przeznaczone dla identyfikacji sieci, a pozostałe bity są przeznaczone dla hostów w tej sieci. W tym przypadku adres IPv4 64.77.199.192 w notacji binarnej wygląda następująco: 01000000.01001101.11000111.11000000. Dla prefiksu /26, maska podsieci wynosi 255.255.255.192, co daje możliwość utworzenia 4 podsieci, z których każda może zawierać 62 hosty (2^6 - 2, z uwagi na zarezerwowane adresy: adres sieci i adres rozgłoszeniowy). Adres sieci to pierwszy adres w tej podsieci, co w tym przypadku odpowiada 64.77.199.192. Takie podejście jest zgodne z najlepszymi praktykami w projektowaniu sieci oraz z zasadami podziału adresów IP, co jest kluczowe w zarządzaniu infrastrukturą sieciową oraz w unikaniu konfliktów adresowych. Użycie odpowiedniego maskowania podsieci jest niezbędne do efektywnego wykorzystania dostępnych adresów IP oraz do zapewnienia bezpieczeństwa i segmentacji w sieci.

Pytanie 12

Wynikiem działania przedstawionego układu logicznego po podaniu na wejściach A i B sygnałów logicznych A=1 i B=1 są wartości logiczne:

Ilustracja do pytania
A. W=0 i C=0
B. W=0 i C=1
C. W=1 i C=1
D. W=1 i C=0
Odpowiedź jest w punkt! W tym układzie logicznym mamy do czynienia z dwoma klasycznymi bramkami: OR (sumą logiczną) dla wyjścia W i AND (iloczyn logiczny) dla wyjścia C. Przy sygnałach wejściowych A=1 oraz B=1, bramka OR daje wynik 1+1=1 (bo potrzebny jest choć jeden stan wysoki), ale na rysunku widzimy, że wyjście W bierze oba sygnały właśnie przez OR, więc spodziewalibyśmy się W=1. Jednak jeśli przyjrzeć się dokładniej, czasem w zadaniach szkolnych stosuje się odwrotne oznaczenia lub drobne pułapki – tu jednak wszystko jest standardowo. Z kolei bramka AND, do której trafiają oba sygnały, daje wynik 1*1=1. Czyli C=1. Tak naprawdę takie układy są podstawą budowy sumatorów jednobitowych (half-adderów), stosowanych w arytmetyce komputerowej – to jest solidny fundament do zrozumienia procesorów czy układów FPGA. Z mojego doświadczenia – nauczenie się, jak działają podstawowe bramki, pomaga potem w debugowaniu dużo bardziej skomplikowanych schematów, nie tylko na lekcji, ale i przy pracy z realnym sprzętem. Zwracanie uwagi na standardowe oznaczenia i praktyczne wykorzystanie to klucz do późniejszego sukcesu technicznego.

Pytanie 13

Materiałem eksploatacyjnym stosowanym w drukarkach tekstylnych jest

A. fuser.
B. atrament sublimacyjny.
C. taśma woskowa.
D. filament.
W technice druku tekstylnego często spotyka się nieporozumienia dotyczące materiałów eksploatacyjnych, głównie z powodu mylenia różnych technologii druku i nośników druku. Fuser to element obecny wyłącznie w drukarkach laserowych, gdzie odpowiada za utrwalenie tonera na papierze poprzez proces termiczny. Nie ma on żadnego związku z drukiem na tkaninach, bo ten opiera się najczęściej o technologie atramentowe lub sublimacyjne, a nie laserowe. Filament natomiast to zupełnie inna bajka – to materiał stosowany w drukarkach 3D, gdzie jest topiony i nakładany warstwa po warstwie, najczęściej z tworzyw takich jak PLA czy ABS. Nie nadaje się do drukowania bezpośrednio na tkaninach i nie ma zastosowania w drukarkach tekstylnych. Taśma woskowa to materiał wykorzystywany co prawda w druku termotransferowym, ale jest to technologia dedykowana głównie drukarkom etykiet – na przykład w branży logistycznej czy magazynowej. Owszem, można nią nadrukować coś na tasiemce lub etykiecie tekstylnej, ale nie służy do bezpośredniego zadruku powierzchni dużych tkanin czy produkcji odzieży. Często spotykam się z przekonaniem, że te technologie są zamienne, ale to spore uproszczenie: każda z nich ma swoje specyficzne zastosowania i ograniczenia. W druku tekstylnym kluczowa jest technologia pozwalająca na przenikanie barwnika do włókien tkaniny, a to właśnie zapewnia atrament sublimacyjny. Wybierając inne materiały eksploatacyjne, można spotkać się z problemami trwałości, jakości nadruku czy nawet kompatybilności urządzeń. Z mojego doświadczenia wynika, że rozróżnienie tych technologii to jedna z podstawowych umiejętności w pracy z drukiem, bo błędny wybór może skutkować nie tylko złym efektem wizualnym, ale i stratami materiałowymi.

Pytanie 14

Zrzut ekranu ilustruje aplikację

Ilustracja do pytania
A. typu firewall
B. antywirusowy
C. typu recovery
D. antyspamowy
Firewall to mega ważny element w zabezpieczeniach sieci komputerowych. Działa jak taka bariera pomiędzy naszą siecią a światem zewnętrznym. Jego głównym zadaniem jest monitorowanie i kontrolowanie ruchu w sieci, oczywiście na podstawie reguł, które wcześniej ustaliliśmy. Na zrzucie ekranu widać listę reguł przychodzących, co pokazuje, że mamy do czynienia z typowym firewall'em. Firewalle mogą być hardware'owe albo software'owe i często można je ustawiać w taki sposób, żeby filtrowały pakiety, zmieniały adresy sieciowe czy sprawdzały stan połączeń. Dobrze skonfigurowany firewall chroni przed nieautoryzowanym dostępem, zapobiega atakom DOS i kontroluje, kto ma dostęp do naszych zasobów. Korzysta się z nich w różnych miejscach, od domowych sieci po te wielkie korporacyjne. Dobrze jest regularnie aktualizować reguły firewalla, sprawdzać logi w poszukiwaniu dziwnych rzeczy i łączyć go z innymi narzędziami bezpieczeństwa, jak systemy wykrywania intruzów. Jak się to wszystko dobrze poustawia, można znacząco poprawić bezpieczeństwo i chronić nasze wrażliwe dane przed zagrożeniami w sieci.

Pytanie 15

W systemie Linux program top umożliwia

A. ustawienie użytkownikowi maksymalnego limitu quoty.
B. monitoring wszystkich aktywnych procesów.
C. wyszukanie katalogu zajmującego najwięcej miejsca na dysku twardym.
D. sortowanie rosnąco plików według ich wielkości.
Program top w systemie Linux to jedno z tych narzędzi, które naprawdę warto znać, zwłaszcza jeśli ktoś chce lepiej rozumieć, jak działa system operacyjny od środka. Pozwala on w czasie rzeczywistym obserwować aktywność wszystkich procesów, jakie aktualnie działają na maszynie. Moim zdaniem to narzędzie jest nieocenione nie tylko dla administratorów, ale też dla zwykłych użytkowników, którzy chcą np. sprawdzić, dlaczego komputer nagle zwolnił albo który proces zjada najwięcej pamięci RAM czy CPU. Działa w konsoli, więc jest dostępny praktycznie wszędzie, nawet na serwerach bez środowiska graficznego. W topie można sortować procesy np. po zużyciu procesora albo pamięci, filtrować je, zmieniać priorytety, a nawet zabijać wybrane procesy. Z mojego doświadczenia korzystanie z topa to podstawa przy rozwiązywaniu problemów z wydajnością. Warto też znać polecenia pokrewne jak htop czy atop — te dają bardziej rozbudowane lub przejrzyste widoki, choć wymagają doinstalowania. Generalnie, jeśli chodzi o monitoring procesów w Linuksie, top od lat jest standardem branżowym i zawsze się przydaje — czy to przy optymalizacji serwerów, czy po prostu codziennej pracy.

Pytanie 16

W jednostce ALU do rejestru akumulatora wprowadzono liczbę dziesiętną 600. Jak wygląda jej reprezentacja w systemie binarnym?

A. 111110100
B. 111111101
C. 110110000
D. 111011000
Analizując inne odpowiedzi, można zauważyć, że zawierają one błędy w procesie konwersji liczby dziesiętnej na system binarny. Przykładowo, odpowiedź 110110000 wskazuje na nieprawidłowe obliczenia, które mogą wynikać z pomylenia reszt przy dzieleniu lub błędnego odczytu wartości. W przypadku wyboru 111011000, również następuje pomyłka w podliczaniu wartości, co może być rezultatem błędnego zrozumienia zasady konwersji, gdzie zamiast prawidłowego przekształcenia liczby, dochodzi do zamiany wartości binarnych, które nie odpowiadają rzeczywistej wartości dziesiętnej. Natomiast odpowiedź 111111101 jest na tyle bliska, że może prowadzić do mylnego wrażenia, że jest poprawna, jednak w rzeczywistości jest to wynik błędnego dodawania reszt, które nie pokrywają się z dokładnym procesem konwersji. Wiele z tych błędów może być wynikiem nieprawidłowego zrozumienia podstawowych zasad działania systemów liczbowych oraz ich konwersji. Kluczowe jest, aby podczas nauki konwersji z jednego systemu na drugi zwracać uwagę na każdy krok dzielenia i poprawne zbieranie reszt w odpowiedniej kolejności. Często zdarza się, że studenci koncentrują się na błędach w obliczeniach, które są bardziej związane z nieodpowiednim stosowaniem zasad konwersji niż z samymi umiejętnościami matematycznymi. Aby uniknąć tych pułapek, warto ćwiczyć konwersję liczb na różnych przykładach, co pozwoli na lepsze zrozumienie i przyswojenie mechanizmów rządzących tym procesem.

Pytanie 17

Jednym z metod ograniczenia dostępu do sieci bezprzewodowej dla osób nieuprawnionych jest

A. zmiana częstotliwości przesyłania sygnału
B. dezaktywacja szyfrowania
C. zmiana standardu zabezpieczeń z WPA na WEP
D. zatrzymanie rozgłaszania identyfikatora sieci
Wyłączenie rozgłaszania identyfikatora sieci (SSID) jest jednym z najskuteczniejszych sposobów na zwiększenie bezpieczeństwa sieci bezprzewodowych. Gdy SSID jest ukryty, potencjalni intruzi nie są w stanie łatwo wykryć dostępnych sieci w swoim otoczeniu, co znacznie utrudnia im podjęcie próby nieautoryzowanego dostępu. Praktycznie oznacza to, że tylko osoby, które znają nazwę sieci, będą mogły się do niej połączyć, co skutecznie ogranicza ryzyko ataków. Warto pamiętać, że mimo iż ukrycie SSID nie jest metodą, która zapewnia pełną ochronę (gdyż można wykryć ukryte sieci za pomocą odpowiednich narzędzi), stanowi ono dodatkową warstwę zabezpieczeń. W kontekście standardów bezpieczeństwa, zaleca się stosowanie tej praktyki obok innych form ochrony, takich jak silne szyfrowanie (np. WPA3) oraz regularne aktualizacje oprogramowania routera, co razem buduje solidną tarczę przed niepożądanym dostępem do sieci.

Pytanie 18

Jaką topologię fizyczną sieci komputerowej przedstawia rysunek?

Ilustracja do pytania
A. Siatki
B. Magistrali
C. Gwiazd
D. Pierścienia
Topologia gwiazdy jest jedną z najbardziej popularnych i najczęściej stosowanych struktur sieciowych. W jej architekturze wszystkie urządzenia są połączone do centralnego punktu, którym jest najczęściej koncentrator lub przełącznik sieciowy. W przypadku awarii centralnego urządzenia cała sieć przestaje działać, co jest jednym z głównych ograniczeń tego rozwiązania. Jednakże prostota instalacji i zarządzania sprawia, że jest to często preferowany wybór w małych i średnich firmach. Topologia magistrali, z kolei, polega na tym, że wszystkie urządzenia są podłączone do jednego przewodu komunikacyjnego, co czyni ją mniej kosztowną pod względem okablowania. Jednakże trudności z diagnozowaniem problemów oraz ograniczona przepustowość sprawiają, że ta topologia jest coraz rzadziej stosowana w nowoczesnych sieciach. Topologia pierścienia, gdzie każde urządzenie jest połączone z dwoma innymi, tworząc zamkniętą pętlę, również ma swoje ograniczenia. W przypadku przerwania pierścienia cała sieć może przestać działać, chyba że zastosuje się dodatkowe mechanizmy redundancji. Każda z tych topologii ma swoje unikalne właściwości, które sprawiają, że są one stosowane w różnych scenariuszach, jednak żadna z nich nie oferuje poziomu niezawodności i skalowalności charakterystycznych dla topologii siatki, stąd wybór innej odpowiedzi byłby błędny w kontekście przedstawionego rysunku.

Pytanie 19

Co nie wpływa na utratę z pamięci masowej HDD?

A. Fizyczne uszkodzenie dysku.
B. Sformatowanie partycji dysku.
C. Zniszczenie talerzy dysku.
D. Utworzona macierz dyskowa RAID 5.
Temat utraty danych z HDD wydaje się prosty, ale w praktyce daje spore pole do pomyłek. Zniszczenie talerzy dysku to najpoważniejszy przypadek fizycznego uszkodzenia – jeśli talerze zostaną porysowane, nadpalone czy zgniecione, to praktycznie nie ma szans na odzyskanie danych nawet przez specjalistyczne firmy. Z moich obserwacji wynika, że ludzie często mylą logiczne awarie z fizycznymi, ale w przypadku zniszczenia talerzy mamy klasyczną, nieodwracalną utratę. Podobnie jest z fizycznym uszkodzeniem dysku, czyli np. awarią głowic, silnika czy elektroniki – czasem odzyskanie danych się udaje, ale bywa to bardzo kosztowne i często niepełne. Sformatowanie partycji to z kolei przykład typowej awarii logicznej – dane są wtedy zazwyczaj oznaczane jako usunięte, a ich przywrócenie jest możliwe tylko do momentu nadpisania tych sektorów. W praktyce każdy administrator wie, że formatowanie bez backupu to ogromne ryzyko utraty cennych plików. Typowym błędem jest zakładanie, że w takich przypadkach dane są zawsze do odzyskania – niestety, nie zawsze to działa. Problem zaczyna się, kiedy brakuje pod ręką kopii zapasowej. Natomiast utworzenie macierzy RAID 5 nie prowadzi samo w sobie do utraty danych z pojedynczego HDD, wręcz przeciwnie – RAID 5 to rozwiązanie poprawiające bezpieczeństwo danych przez zastosowanie rozproszonego zapisu i sum kontrolnych. Ludzie czasem mylą pojęcia i zakładają, że każda zmiana w konfiguracji dysków to potencjalna strata, ale w rzeczywistości RAID 5 to przykład branżowej dobrej praktyki. Podsumowując, trzy pierwsze przypadki realnie wpływają na utratę danych z HDD, natomiast tylko RAID 5 jej nie powoduje, a wręcz przed nią chroni. Najlepiej zawsze stosować backupy i nie liczyć, że RAID czy odzyskiwanie po formacie rozwiążą wszystkie problemy.

Pytanie 20

Na przedstawionym zrzucie panelu ustawień rutera można zauważyć, że serwer DHCP

Ilustracja do pytania
A. może przydzielać maksymalnie 10 adresów IP
B. przydziela adresy IP z zakresu 192.168.1.1 - 192.168.1.100
C. przydziela adresy IP z zakresu 192.168.1.1 - 192.168.1.10
D. może przydzielać maksymalnie 154 adresy IP
Serwer DHCP skonfigurowany na routerze może przydzielić maksymalnie 10 adresów IP, ponieważ w polu 'Maximum Number of DHCP Users' ustawiono wartość 10. Oznacza to, że serwer DHCP może obsłużyć tylko 10 różnych urządzeń jednocześnie, przypisując im adresy IP z dostępnego zakresu. Jest to często stosowana konfiguracja w małych sieciach, gdzie liczba urządzeń jest ograniczona i nie ma potrzeby alokacji większej liczby adresów. Przydzielanie adresów IP przez DHCP ułatwia zarządzanie siecią, ponieważ eliminuje potrzebę ręcznego konfigurowania każdego urządzenia. Podczas konfiguracji DHCP ważne jest, aby zwrócić uwagę na zakres adresów dostępnych dla użytkowników, co może być ograniczone przez maskę podsieci. Dobrą praktyką jest ustawienie odpowiedniej liczby użytkowników DHCP, aby uniknąć sytuacji, w której zabraknie dostępnych adresów IP dla nowych urządzeń. W przypadku większych sieci warto rozważyć segmentację sieci i zastosowanie większego zakresu adresacji. Stosowanie DHCP wspiera automatyzację i elastyczność w zarządzaniu dynamicznie zmieniającą się infrastrukturą IT.

Pytanie 21

Do jakiego portu należy podłączyć kabel sieciowy zewnętrzny, aby uzyskać pośredni dostęp do sieci Internet?

Ilustracja do pytania
A. USB
B. LAN
C. PWR
D. WAN
Port PWR jest używany do zasilania urządzenia i nie przenosi danych sieciowych. Choć istotny dla działania sprzętu, nie ma żadnego związku z transmisją danych do internetu. Port USB w routerach często służy do podłączania urządzeń peryferyjnych, takich jak drukarki lub zewnętrzne pamięci masowe. Nie jest przeznaczony do przesyłania danych internetowych, a jego funkcjonalność zależy od specyfikacji urządzenia. Port LAN (Local Area Network) jest używany do łączenia urządzeń w sieci lokalnej, takich jak komputery, serwery i inne urządzenia sieciowe. Porty LAN umożliwiają komunikację w obrębie jednej sieci, ale nie zapewniają bezpośredniego dostępu do internetu. Błędne spojrzenie na funkcje tych portów wynika z nieznajomości ich specjalistycznych zastosowań. Poprawne zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania siecią i zapewnienia jej bezpieczeństwa. Każdy port ma swoje określone przeznaczenie, które wpływa na sposób, w jaki urządzenia komunikują się ze sobą i z siecią zewnętrzną. Zrozumienie roli każdego portu jest fundamentalne dla projektowania i zarządzania siecią komputerową, umożliwiając właściwe konfigurowanie i skalowanie infrastruktury sieciowej w celu maksymalizacji jej wydajności i bezpieczeństwa. Wybór odpowiedniego portu do określonych zadań jest istotnym aspektem administrowania siecią, umożliwiającym poprawne działanie całego systemu.

Pytanie 22

Chusteczki namoczone w płynie o działaniu antystatycznym są używane do czyszczenia

A. rolek prowadzących papier w drukarkach atramentowych
B. ekranów monitorów CRT
C. wałków olejowych w drukarkach laserowych
D. ekranów monitorów LCD
Chusteczki nasączone płynem o właściwościach antystatycznych są zaprojektowane z myślą o ochronie ekranów monitorów CRT, które są bardziej podatne na gromadzenie się kurzu i statycznego ładunku elektrycznego. Płyn antystatyczny neutralizuje ładunki elektryczne, co znacząco zmniejsza przyczepność zanieczyszczeń do powierzchni ekranu. Ponadto, czyszczenie ekranów CRT wymaga szczególnej ostrożności, ponieważ są one wrażliwe na różne substancje chemiczne. Właściwe użycie chusteczek antystatycznych pozwala na skuteczne usunięcie zanieczyszczeń bez ryzyka uszkodzenia powierzchni monitora. Dobrą praktyką jest także regularne czyszczenie ekranów, aby zapewnić ich długowieczność oraz optymalną jakość obrazu. Użycie chusteczek zgodnych z zaleceniami producenta jest kluczowe, aby zminimalizować ryzyko uszkodzeń i zachować właściwości techniczne monitora. W kontekście standardów branżowych, czyszczenie urządzeń elektronicznych powinno odbywać się przy użyciu produktów, które są specjalnie zaprojektowane dla danego typu sprzętu, co gwarantuje ich skuteczność i bezpieczeństwo.

Pytanie 23

Mysz bezprzewodowa jest podłączona do komputera, jednak kursor nie porusza się gładko i „skacze” po ekranie. Możliwą przyczyną problemu z urządzeniem może być

A. brak baterii
B. uszkodzenie mikroprzełącznika
C. wyczerpywanie się baterii zasilającej
D. uszkodzenie lewego klawisza
Rozważając inne odpowiedzi, należy zauważyć, że brak baterii nie może być przyczyną "skakania" kursora. Gdy bateria jest całkowicie rozładowana, myszka przestaje działać i kursor nie porusza się wcale. Na podobnej zasadzie, uszkodzenie lewego przycisku nie wpływa na ruch kursora, ponieważ to uszkodzenie wpływa jedynie na funkcję klikania, nie na jego poruszanie się. W przypadku uszkodzenia mikroprzełącznika, problem również dotyczyłby jedynie reakcji na kliknięcia, a nie na płynność ruchu. Typowe błędy myślowe, które mogą prowadzić do takich wniosków, to próba łączenia problemów funkcjonalnych myszki z jej ruchami bez uwzględnienia, że te dwa procesy są od siebie niezależne. Użytkownicy często mylnie identyfikują problemy z myszką jako wynik uszkodzeń mechanicznych, zamiast skupić się na ich źródle, jakim są problemy z zasilaniem. Zrozumienie tych aspektów jest kluczowe dla skutecznej diagnozy i naprawy problemów z urządzeniami peryferyjnymi.

Pytanie 24

Aby serwer mógł przesyłać dane w zakresach częstotliwości 2,4 GHz oraz 5 GHz, konieczne jest zainstalowanie w nim karty sieciowej działającej w standardzie

A. 802.11n
B. 802.11g
C. 802.11b
D. 802.11a
Wybór standardów 802.11a, 802.11b oraz 802.11g do obsługi transmisji na pasmach 2,4 GHz i 5 GHz jest niewłaściwy. Standard 802.11a działa wyłącznie w paśmie 5 GHz, co ogranicza jego zastosowanie w środowiskach, gdzie pasmo 2,4 GHz jest równie istotne, na przykład w domowych sieciach Wi-Fi. Podobnie standard 802.11b jest przypisany wyłącznie do pasma 2,4 GHz, co uniemożliwia korzystanie z pasma 5 GHz i ogranicza prędkość transferu danych do maksymalnie 11 Mbps. Standard 802.11g, choć obsługuje pasmo 2,4 GHz i oferuje wyższe prędkości (do 54 Mbps), nadal nie jest w stanie wykorzystać obu pasm jednocześnie. Zastosowanie tych starszych standardów może prowadzić do wąskich gardeł w sieci, zwłaszcza w środowiskach z dużą liczbą użytkowników i urządzeń. W dobie wzrastającej liczby urządzeń IoT oraz wymagań dotyczących szybkości i jakości połączenia, wybór technologii 802.11n, która pozwala na efektywne wykorzystanie zarówno 2,4 GHz, jak i 5 GHz, staje się kluczowy. Niezrozumienie różnic pomiędzy tymi standardami może prowadzić do nieefektywnego projektowania sieci oraz frustracji użytkowników z powodu niskiej wydajności połączeń bezprzewodowych.

Pytanie 25

Usługa odpowiedzialna za konwersję nazw domen na adresy sieciowe to

A. DHCP
B. SNMP
C. DNS
D. SMTP
Odpowiedź, że DNS (System Nazw Domenowych) jest poprawna. To dzięki tej usłudze możemy zamieniać nazwy domen na adresy IP, co jest kluczowe do komunikacji w Internecie. DNS działa jak rozproszony system baz danych, który gromadzi informacje o nazwach domen i odpowiada na pytania, jakie adresy IP są im przypisane. Przykładowo, kiedy wpisujesz w przeglądarkę adres, taki jak www.example.com, komputer wysyła pytanie do serwera DNS i ten odsyła odpowiedni adres IP, co pozwala na połączenie z serwerem. W zarządzaniu DNS warto pamiętać o dobrych praktykach, jak używanie rekordów CNAME do aliasowania nazw czy rekordów MX do obsługi poczty. O bezpieczeństwo także powinno się zadbać, używając DNSSEC, które chroni przed atakami. Warto też wiedzieć, że rozwój Internetu i wprowadzenie IPv6 wymusiło pewne zmiany w DNS, co pozwoliło lepiej radzić sobie z coraz większą liczbą urządzeń w sieci.

Pytanie 26

Jakiego rodzaju złącze powinna mieć płyta główna, aby umożliwić zainstalowanie karty graficznej przedstawionej na rysunku?

Ilustracja do pytania
A. AGP
B. PCIe x16
C. PCIe x1
D. PCI
No więc, PCIe x16 to aktualnie najczęściej używane złącze dla kart graficznych. Daje naprawdę dużą przepustowość, co jest mega ważne, zwłaszcza jak mówimy o grach czy programach do obróbki wideo, gdzie przetwarzamy sporo danych graficznych. Ten standard, czyli Peripheral Component Interconnect Express, jest rozwijany od lat i wersja x16 pozwala na dwukierunkowy transfer z prędkością aż do 32 GB/s w najnowszych wersjach. Długość i liczba pinów w x16 różni się od innych wersji, jak x1 czy x4, co sprawia, że nie da się ich pomylić przy podłączaniu. Fajnie, że PCIe x16 jest kompatybilne wstecznie, bo można wrzucić nowszą kartę do starszego slota, chociaż wtedy stracimy na wydajności. Jak wybierasz płytę główną, to dobrze jest zwrócić uwagę na ilość i rodzaj złącz PCIe, żeby móc w przyszłości coś podłączyć. No i nie zapomnij, że niektóre karty graficzne potrzebują dodatkowego zasilania, więc warto pomyśleć o przewodach zasilających.

Pytanie 27

Interfejs graficzny systemu Windows, który wyróżnia się przezroczystością przypominającą szkło oraz delikatnymi animacjami okien, nazywa się

A. Gnome
B. Aero
C. Luna
D. Royale
Luna to interfejs wizualny, który był dominującą estetyką w systemie Windows XP i charakteryzował się bardziej płaskim i kolorowym wyglądem. Mimo że Luna wprowadziła pewne poprawki w zakresie użyteczności i estetyki w porównaniu do wcześniejszych wersji, nie posiadała zaawansowanych efektów, takich jak przezroczystość. Wybierając Lunę, można wprowadzić pewne kolory i style, ale nie oferuje ona bogatej palety animacji ani efektów wizualnych, które są kluczowe w Aero. Royale to z kolei motyw wizualny stworzony dla Windows XP i nie jest on związany z przezroczystością ani animacjami. Był to bardziej estetyczny dodatek, który jednak nie wprowadził znaczących innowacji w porównaniu do Luna. Gnome, natomiast, to środowisko graficzne dla systemów Linux, które ma inne cele i charakterystyki, nie jest zatem powiązane z interfejsem Windows. Typowym błędem myślowym jest mylenie motywów wizualnych z interfejsami użytkownika; wielu użytkowników z rozczarowaniem odkrywa, że wybór niewłaściwego interfejsu nie dostarcza oczekiwanych efektów estetycznych i funkcjonalnych. Kluczowe jest rozpoznanie różnic między tymi systemami, aby optymalnie wykorzystać dostępne możliwości w danym środowisku operacyjnym.

Pytanie 28

Wskaż technologię stosowaną do zapewnienia dostępu do Internetu w połączeniu z usługą telewizji kablowej, w której światłowód oraz kabel koncentryczny pełnią rolę medium transmisyjnego

A. GPRS
B. xDSL
C. PLC
D. HFC
Odpowiedzi PLC, xDSL i GPRS nie są zgodne z opisanym kontekstem technologicznym. PLC (Power Line Communication) wykorzystuje istniejącą infrastrukturę elektryczną do przesyłania sygnału, co ogranicza jego zastosowanie do obszarów, w których nie ma dostępu do sieci kablowych czy światłowodowych. Technologia ta ma ograniczenia związane z jakością sygnału oraz zakłóceniami, dlatego nie jest odpowiednia do łączenia usług telewizyjnych z Internetem na dużą skalę. Z kolei xDSL (Digital Subscriber Line) to technologia oparta na tradycyjnych liniach telefonicznych, która również nie korzysta z światłowodów ani kabli koncentrycznych, a jej prędkości transmisji są znacznie niższe w porównaniu do HFC. xDSL jest często stosowane w miejscach, gdzie nie ma możliwości podłączenia do sieci światłowodowej, co ogranicza jego zasięg i niezawodność. GPRS (General Packet Radio Service) to technologia stosowana głównie w sieciach komórkowych, która pozwala na przesyłanie danych w trybie pakietowym, jednak jej prędkości są znacznie niższe w porównaniu z rozwiązaniami kablowymi. Istnieje tu wiele typowych błędów myślowych, takich jak mylenie różnych technologii transmisyjnych oraz niewłaściwe łączenie ich z wymaganiami dotyczącymi jakości i prędkości sygnału. W związku z tym, wybór odpowiedniej technologii do dostarczania Internetu i telewizji powinien być oparty na analizie specyficznych potrzeb użytkowników oraz możliwości infrastrukturalnych.

Pytanie 29

Jaki będzie wynik operacji odejmowania dwóch liczb szesnastkowych: 60Aₕ – 3BFₕ?

A. 24Bₕ
B. 39Aₕ
C. 349ₕ
D. 2AEₕ
W operacjach matematycznych na liczbach szesnastkowych bardzo łatwo o drobny błąd, szczególnie jeśli robi się to „na oko” albo bez wyraźnego rozpisania kolejnych etapów. W przypadku zadania 60A₁₆ – 3BF₁₆ intuicja często podpowiada, żeby po prostu odejmować poszczególne cyfry od siebie, ale niestety taki sposób prowadzi do błędów – przy systemie szesnastkowym trzeba uwzględnić przeniesienia, zwłaszcza gdy wynik w danej kolumnie staje się ujemny. Niektóre odpowiedzi mogły być wynikiem nieuwzględnienia tej specyfiki, np. pominięcia konieczności pożyczki z wyższej pozycji albo błędnej konwersji pomiędzy systemami liczbowymi. W praktyce w branży technicznej takie błędy zdarzają się, gdy ktoś próbuje szybko liczyć „z głowy” zamiast krok po kroku rozpisać odejmowanie, najlepiej najpierw zamieniając liczby na system dziesiętny, potem wykonując działanie i zamieniając z powrotem na szesnastkowy. Spotkałem się też z podejściem, gdzie ktoś próbuje odejmować szesnastkowe cyfry jak dziesiętne bez uwzględnienia, że po „9” występują jeszcze litery A-F, co jest typowym nieporozumieniem szczególnie na początku nauki. W praktyce IT czy elektroniki takie niestaranne odejmowanie prowadzi do złych adresacji, błędów w obsłudze pamięci czy nawet poważnych bugów w programowaniu niskopoziomowym. Moim zdaniem warto ćwiczyć te operacje na papierze, bo to kształtuje intuicję i pozwala uniknąć prostych, ale kosztownych pomyłek. Przemyślane podejście, rozpisywanie krok po kroku i regularne sprawdzanie końcowych wyników z kalkulatorem lub tabelą konwersji to dobra praktyka, która procentuje w dalszej edukacji i pracy technicznej.

Pytanie 30

Określenie najlepszej trasy dla połączenia w sieci to

A. sniffing
B. tracking
C. routing
D. conntrack
Sniffing, tracking i conntrack to pojęcia, które, chociaż związane z sieciami komputerowymi, odnoszą się do zupełnie innych procesów niż routing. Sniffing polega na przechwytywaniu pakietów danych w sieci, co może być użyteczne w kontekście analizowania ruchu sieciowego, ale nie ma nic wspólnego z określaniem tras. Z kolei tracking odnosi się do śledzenia i monitorowania stanu połączeń, co jest użyteczne w kontekście zarządzania sesjami, ale nie wpływa na trasę, jaką wybierają dane. Conntrack to mechanizm, który umożliwia śledzenie stanów połączeń w firewallach, co również nie jest równoznaczne z routingiem. Błędne myślenie, które prowadzi do wyboru tych odpowiedzi, często wynika z zamieszania pomiędzy różnymi funkcjami sieciowymi. Zrozumienie, że routing jest procesem podejmowania decyzji o trasach dla przesyłanych danych, jest kluczowe. Wiele osób mylnie kojarzy te terminy, nie dostrzegając, że każdy z nich pełni odrębną rolę w ekosystemie sieciowym. Dlatego istotne jest, aby mieć na uwadze, że routing nie tylko kieruje ruchem, ale jest także fundamentem sprawnej komunikacji w każdej sieci.

Pytanie 31

Grupa protokołów, która charakteryzuje się wspólną metodą szyfrowania, to

A. SPX/IPX
B. SSH
C. UDP
D. PPP
Analizując dostępne odpowiedzi, można zauważyć, że PPP (Point-to-Point Protocol) jest protokołem używanym głównie do łączenia dwóch punktów w sieci, najczęściej w kontekście dial-up. PPP nie zapewnia wspólnego szyfrowania, a jego głównym celem jest ustanowienie połączenia, a nie zabezpieczanie danych. Z kolei UDP (User Datagram Protocol) to protokół transportowy, który działa na zasadzie przesyłania datagramów bez gwarancji ich dostarczenia. UDP nie implementuje mechanizmów szyfrowania ani kontroli błędów, co sprawia, że nie jest odpowiedni do zastosowań wymagających wysokiego poziomu bezpieczeństwa. SPX/IPX to zestaw protokołów opracowanych przez firmę Novell, który w praktyce był używany głównie w sieciach lokalnych. Te protokoły również nie koncentrują się na szyfrowaniu danych, a ich funkcjonalność jest ograniczona w porównaniu do nowoczesnych standardów bezpieczeństwa. Częstym błędem myślowym jest interpretacja protokołów jako zintegrowanych rozwiązań do bezpieczeństwa, podczas gdy wiele z nich, jak PPP czy UDP, jest zaprojektowanych bez tych funkcji. Właściwe zrozumienie, które protokoły oferują odpowiednie mechanizmy szyfrowania, jest kluczowe w kontekście ochrony danych, a SSH stanowi najlepszy wybór w obszarze zdalnego zarządzania i komunikacji.

Pytanie 32

Wykonanie polecenia perfmon w terminalu systemu Windows spowoduje

A. aktywację szyfrowania zawartości aktualnego folderu
B. uruchomienie aplikacji Monitor wydajności
C. przygotowanie kopii zapasowej systemu
D. aktualizację systemu operacyjnego przy użyciu usługi Windows Update
Użycie komendy perfmon w wierszu poleceń systemu Windows uruchamia narzędzie Monitor wydajności, które jest kluczowym elementem w analizie i monitorowaniu działania systemu operacyjnego. Perfmon pozwala administratorom systemów na zbieranie informacji dotyczących wydajności różnych zasobów sprzętowych oraz aplikacji działających w systemie. Narzędzie to umożliwia tworzenie wykresów, raportów oraz zapisywanie danych wydajnościowych, co jest niezbędne do identyfikacji wąskich gardeł w systemie oraz optymalizacji jego działania. Praktycznym zastosowaniem perfmon jest możliwość monitorowania obciążenia CPU, pamięci RAM, dysków twardych oraz sieci, co jest szczególnie istotne w środowiskach serwerowych oraz w czasie rozwiązywania problemów wydajnościowych. W wielu organizacjach wykorzystuje się perfmon zgodnie z dobrymi praktykami zarządzania infrastrukturą IT, co pozwala na zapewnienie wysokiej dostępności oraz wydajności systemów. Przykładowo, administratorzy mogą ustawić alerty, które informują o przekroczeniu określonych progów wydajności, co pozwala na proaktywne zarządzanie zasobami systemowymi.

Pytanie 33

Okno narzędzia przedstawionego na ilustracji można uzyskać poprzez wykonanie polecenia

Ilustracja do pytania
A. control admintools
B. sysdm.cpl
C. perfmon.msc
D. mmc
Na ilustracji widać typowe okno konsoli zarządzającej w systemie Windows, z drzewkiem po lewej stronie, panelem środkowym z widokiem wybranego składnika oraz panelem Akcje po prawej. To jest właśnie konsola MMC – Microsoft Management Console. Taką pustą lub standardową konsolę uruchamia się poleceniem „mmc” z okna Uruchamianie (Win+R) lub z wiersza poleceń. MMC jest szkieletem, w który „wpina się” różne przystawki administracyjne, takie jak: Zarządzanie komputerem, Podgląd zdarzeń, Zarządzanie dyskami, Zasady zabezpieczeń lokalnych, Zapora systemu Windows z zabezpieczeniami, Monitor zabezpieczeń IP i wiele innych. Na screenie widać dokładnie kilka takich przystawek w jednym oknie. Z mojego doświadczenia w administracji Windows MMC jest podstawowym narzędziem do tworzenia własnych, spersonalizowanych konsol – np. dla helpdesku, gdzie administrator przygotowuje plik .msc z tylko tymi przystawkami, które są potrzebne technikom pierwszej linii. Dobrą praktyką jest zapisywanie własnych konsol w trybie tylko do odczytu dla zwykłych użytkowników, żeby nie modyfikowali przypadkiem konfiguracji narzędzia. Warto też znać standardowe przystawki dostępne w MMC, bo w egzaminach i w realnej pracy często pojawia się potrzeba szybkiego dojścia do dzienników zdarzeń, zarządzania użytkownikami lokalnymi, harmonogramu zadań czy monitorowania wydajności. Polecenie „mmc” jest więc takim uniwersalnym wejściem do zaawansowanych narzędzi administracyjnych Windows i dokładnie do tego odnosi się to pytanie.

Pytanie 34

Jaką liczbę warstw określa model ISO/OSI?

A. 5
B. 9
C. 3
D. 7
Model ISO/OSI to naprawdę podstawowa rzecz, jaką trzeba znać w sieciach komputerowych. Obejmuje on siedem warstw, każda z nich ma swoje zadanie. Mamy tu warstwę fizyczną, która przesyła bity, potem łącza danych, sieciową, transportową, sesji, prezentacji i na końcu aplikacji. Dobrze jest zrozumieć, jak te warstwy działają, bo każda z nich ma swoje miejsce i rolę. Na przykład warstwa aplikacji to ta, z którą użytkownicy bezpośrednio pracują, a warstwa transportowa dba o przesyłanie danych. Bez znajomości tych warstw, ciężko byłoby poradzić sobie z problemami w sieci. To trochę jak z budowaniem domu – nie można ignorować fundamentów, jeśli chcemy, żeby całość stała. A model OSI jest właśnie takim fundamentem dla przyszłych inżynierów sieciowych.

Pytanie 35

Aby uzyskać listę procesów aktualnie działających w systemie Linux, należy użyć polecenia

A. who
B. ps
C. dir
D. show
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem do monitorowania i zarządzania procesami działającymi w systemie. Jego pełna forma to 'process status', a jego zadaniem jest wyświetlenie informacji o aktualnie uruchomionych procesach, takich jak ich identyfikatory PID, wykorzystanie pamięci, stan oraz czas CPU. Dzięki możliwościom filtrowania i formatowania wyników, 'ps' jest niezwykle elastyczne, co czyni je niezastąpionym narzędziem w codziennej administracji systemami. Na przykład, użycie polecenia 'ps aux' pozwala uzyskać pełen widok na wszystkie procesy, w tym te uruchomione przez innych użytkowników. W praktyce, administratorzy często łączą 'ps' z innymi poleceniami, takimi jak 'grep', aby szybko zidentyfikować konkretne procesy, co jest zgodne z dobrymi praktykami zarządzania systemami. Zrozumienie i umiejętność korzystania z 'ps' jest fundamentem dla każdego, kto zajmuje się administracją systemów Linux, a jego znajomość jest kluczowym elementem w rozwiązywaniu problemów związanych z wydajnością czy zarządzaniem zasobami.

Pytanie 36

Jakie polecenie powinien wydać root w systemie Ubuntu Linux, aby przeprowadzić aktualizację wszystkich pakietów (całego systemu) do najnowszej wersji z zainstalowaniem nowego jądra?

A. apt-get upgrade
B. apt-get dist-upgrade
C. apt-get update
D. apt-get install nazwa_pakietu
Stosowanie polecenia 'apt-get update' jest często mylone z procesem aktualizacji systemu. To polecenie jedynie aktualizuje lokalną bazę danych dostępnych pakietów, co oznacza, że system poznaje nowe wersje oprogramowania, jednak nie dokonuje faktycznych aktualizacji. W praktyce, po wykonaniu 'apt-get update', konieczne jest użycie innego polecenia, aby wprowadzić zmiany w systemie, co czyni je niewystarczającym. Wybór 'apt-get upgrade' również jest niewłaściwy, ponieważ nie pozwala na aktualizację zależności pakietów ani instalację nowych paczek, co może prowadzić do sytuacji, w której niektóre pakiety pozostaną nieaktualne, a system nie będzie miał najnowszego jądra. Z kolei 'apt-get install nazwa_pakietu' jest narzędziem do instalacji pojedynczych pakietów, co w kontekście aktualizacji całego systemu jest zupełnie nieadekwatne. Kluczowym błędem jest zrozumienie, że aktualizacja systemu wymaga bardziej kompleksowego podejścia, które uwzględnia zarówno nowe wersje pakietów, jak i ich zależności. Dlatego dla pełnej aktualizacji systemu właściwym wyborem jest 'apt-get dist-upgrade', które zaspokaja te wszystkie potrzeby.

Pytanie 37

Na ilustracji złącze monitora, które zostało zaznaczone czerwoną ramką, będzie współdziałać z płytą główną posiadającą interfejs

Ilustracja do pytania
A. HDMI
B. DVI
C. DisplayPort
D. D-SUB
DisplayPort to naprawdę fajny i nowoczesny interfejs, który pozwala na przesyłanie sygnałów wideo i audio z komputera do monitora. W branży IT korzystają z niego wszyscy, bo ma super możliwości przesyłania danych oraz świetną jakość obrazu. Ogólnie ma lepsze rozdzielczości i częstotliwości odświeżania niż stare złącza jak D-SUB czy DVI, a to sprawia, że jest idealny dla profesjonalistów, którzy zajmują się grafiką komputerową, edycją wideo czy grami. Co więcej, DisplayPort wspiera technologie jak FreeSync i G-Sync, które poprawiają obraz podczas dynamicznych scen. Fajną funkcją jest też możliwość podłączenia kilku monitorów do jednego portu dzięki MST (Multi-Stream Transport). Dlatego właśnie DisplayPort stał się takim standardem w nowoczesnych komputerach i monitorach. No i warto dodać, że jego złącza są lepiej zabezpieczone przed utratą sygnału, bo mają dodatkowe zatrzaski, które stabilizują połączenie.

Pytanie 38

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. dodaniem drugiego dysku twardego.
B. konfigurowaniem adresu karty sieciowej.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. wybraniem pliku z obrazem dysku.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 39

Licencja Windows OEM nie zezwala na wymianę

A. sprawnej karty graficznej na model o lepszych parametrach
B. sprawnej płyty głównej na model o lepszych parametrach
C. sprawnego dysku twardego na model o lepszych parametrach
D. sprawnego zasilacza na model o lepszych parametrach
Wymiana komponentów w komputerze, takich jak zasilacz, karta graficzna czy dysk twardy, nie wpływa na ważność licencji Windows OEM, ponieważ licencja ta jest powiązana z płytą główną. Zrozumienie tego aspektu jest kluczowe, ponieważ wiele osób może mylnie sądzić, że wymiana tych elementów również powoduje unieważnienie licencji. Przykładem błędnego rozumienia może być myślenie, że zasilacz, jako element zewnętrzny, jest kluczowym komponentem dla aktywacji Windows, co w rzeczywistości nie jest prawdą. Zasilacz dostarcza energię elektryczną do wszystkich podzespołów, nie ma jednak wpływu na licencjonowanie oprogramowania. Karta graficzna, mimo że jest ważnym elementem w kontekście wydajności graficznej, również nie zmienia statusu licencji. Dysk twardy, na którym zainstalowany jest system operacyjny, może być wymieniany, a Windows OEM pozostanie aktywny, o ile płyta główna pozostaje bez zmian. Tego rodzaju myślenie często prowadzi do nieporozumień i może skutkować niepotrzebnym wydatkowaniem środków na nowe licencje, podczas gdy w rzeczywistości wymiana innych podzespołów nie wymaga takich działań. Warto zatem dokładnie zapoznać się z warunkami licencji oraz zasadami modernizacji sprzętu, aby uniknąć nieprzyjemnych niespodzianek.

Pytanie 40

Który z poniższych protokołów należy do warstwy aplikacji w modelu ISO/OSI?

A. ICMP
B. ARP
C. FTP
D. TCP
TCP (Transmission Control Protocol) nie jest protokołem warstwy aplikacji, lecz protokołem warstwy transportowej w modelu ISO/OSI. Jego zadaniem jest zapewnienie niezawodnej, uporządkowanej i kontrolowanej transmisji danych między aplikacjami działającymi na różnych hostach w sieci. TCP zajmuje się segmentacją danych i ich retransmisją w przypadku utraty pakietów, co jest kluczowe w wielu zastosowaniach, ale nie dostarcza funkcjonalności potrzebnej do przesyłania plików, jak robi to FTP. ARP (Address Resolution Protocol) jest protokołem używanym do przekształcania adresów IP na adresy MAC w warstwie łącza danych. Choć jest istotny dla komunikacji sieciowej, nie jest protokołem warstwy aplikacji i nie ma funkcji związanych z bezpośrednim przesyłaniem danych. ICMP (Internet Control Message Protocol) służy do przesyłania komunikatów kontrolnych i diagnostycznych w sieci, na przykład w przypadku wystąpienia błędów w transmisji danych. Tak jak ARP, ICMP działa na warstwie sieci i nie jest protokołem warstwy aplikacji. Zrozumienie, jaka jest rola każdego z protokołów w modelu ISO/OSI, pozwala uniknąć typowych błędów myślowych, takich jak mylenie protokołów transportowych z aplikacyjnymi. Wiedza ta jest kluczowa dla budowania i zarządzania efektywnymi i bezpiecznymi sieciami komputerowymi.