Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 16 kwietnia 2026 19:41
  • Data zakończenia: 16 kwietnia 2026 19:56

Egzamin zdany!

Wynik: 29/40 punktów (72,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Zaprezentowany tylny panel płyty głównej zawiera następujące interfejsy:

Ilustracja do pytania
A. 2 x USB 3.0; 4 x USB 2.0, 1.1, 1 x D-SUB
B. 2 x USB 3.0; 2 x USB 2.0, 1.1; 2 x DP, 1 x DVI
C. 2 x HDMI, 1 x D-SUB, 1 x RJ11, 6 x USB 2.0
D. 2 x PS2; 1 x RJ45; 6 x USB 2.0, 1.1
Odpowiedź 3 jest prawidłowa, ponieważ przedstawiony panel tylny płyty głównej rzeczywiście posiada 2 porty USB 3.0, które charakteryzują się niebieskim wnętrzem, oraz 4 porty USB 2.0, 1.1, których wnętrza są zazwyczaj czarne lub białe. Dodatkowo znajduje się tam port D-SUB, znany również jako VGA, który jest używany do przesyłania analogowego sygnału wideo do monitorów lub projektorów. USB 3.0 to standard, który zapewnia prędkość przesyłania danych do 5 Gb/s, co jest około dziesięciokrotnie szybsze niż USB 2.0. Jest to istotne w przypadku przesyłania dużych plików lub korzystania z szybkich urządzeń zewnętrznych, takich jak dyski SSD na USB. Porty USB 2.0, choć wolniejsze, są nadal powszechnie używane do podłączania urządzeń peryferyjnych takich jak klawiatury, myszy, czy drukarki. Użycie portów D-SUB jest coraz rzadsze, ale nadal występuje w starszych monitorach i projektorach. Poprawne rozpoznanie i wykorzystanie tych interfejsów jest kluczowe dla efektywnej obsługi urządzeń komputerowych, zapewniając kompatybilność i optymalną wydajność.

Pytanie 2

Komunikat tekstowy BIOS POST od firmy Award o treści "Display switch is set incorrectly" sugeruje

A. problem z pamięcią operacyjną
B. brak urządzenia do bootowania
C. nieprawidłowy tryb wyświetlania obrazu
D. usterkę podczas inicjalizacji dysku twardego
Komunikat BIOS POST 'Display switch is set incorrectly' wskazuje na problem z konfiguracją trybu wyświetlania obrazu. Zazwyczaj oznacza to, że system operacyjny nie jest w stanie prawidłowo zainicjować karty graficznej, co może być spowodowane błędną konfiguracją w BIOS-ie. Użytkownicy często mogą napotkać ten problem po zmianie karty graficznej lub po aktualizacji sterowników. Aby rozwiązać ten problem, warto upewnić się, że ustawienia dotyczące wyjścia wideo w BIOS-ie są zgodne z posiadanym sprzętem, na przykład, czy wybrany jest odpowiedni port wyjściowy (HDMI, DVI, VGA). Można również przeprowadzić reset ustawień BIOS do wartości domyślnych, co może pomóc w przywróceniu prawidłowej konfiguracji. Dobrą praktyką jest również aktualizacja BIOS-u, co może rozwiązać problemy z kompatybilnością sprzętu. Warto pamiętać, że prawidłowe ustawienia wyświetlania są kluczowe dla stabilności działania systemu oraz jego wydajności.

Pytanie 3

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 1 modułu 32 GB.
B. 2 modułów, każdy po 16 GB.
C. 1 modułu 16 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 4

Przedstawiony schemat przedstawia zasadę działania

Ilustracja do pytania
A. drukarki 3D.
B. drukarki laserowej.
C. plotera grawerującego.
D. skanera płaskiego.
Schemat, który widzisz, w prosty, ale bardzo techniczny sposób pokazuje zasadę działania skanera płaskiego. Cały proces zaczyna się od umieszczenia dokumentu lub zdjęcia na szklanej powierzchni – to jest właśnie ten charakterystyczny „flatbed”. Lampa podświetla oryginał, a odbite światło kierowane jest przez system luster do soczewki, która skupia obraz na matrycy CCD. To właśnie ta matryca CCD (Charge-Coupled Device) zamienia światło na sygnał elektryczny – to taki standardowy element w profesjonalnych urządzeniach biurowych, bo daje dobrą jakość i odwzorowanie kolorów. Potem sygnał ten trafia do przetwornika analogowo-cyfrowego (ADC), który tłumaczy go na postać rozumianą przez komputer. Cały ten układ – lampa, lustro, CCD, ADC – jest wręcz książkowym przykładem konstrukcji skanera płaskiego, zgodnym z normami ISO dotyczącymi urządzeń peryferyjnych. W praktyce takie skanery są wykorzystywane niemal wszędzie: w biurach, do archiwizacji dokumentów, w grafice komputerowej i przy digitalizacji zdjęć. Moim zdaniem, znajomość schematu i zasady działania skanera płaskiego to absolutna podstawa dla każdego, kto chce rozumieć, jak przebiega konwersja dokumentu papierowego na plik cyfrowy. Warto wiedzieć, że dobre skanery płaskie pozwalają uzyskać bardzo dużą rozdzielczość i świetną jakość barw, co ma znaczenie chociażby w poligrafii czy muzealnictwie. Typowa rozdzielczość optyczna takich urządzeń to minimum 600 dpi, co spełnia wymagania większości zastosowań profesjonalnych. Sam kiedyś próbowałem rozebrać taki skaner – prosta mechanika, ale precyzja wykonania luster i prowadnic robi wrażenie.

Pytanie 5

Jaką rolę pełni usługa NAT działająca na ruterze?

A. Przekształcanie adresów stosowanych w sieci LAN na jeden lub więcej publicznych adresów
B. Autoryzacja użytkownika z wykorzystaniem protokołu NTLM oraz jego danych logowania
C. Przesył danych korekcyjnych RTCM z wykorzystaniem protokołu NTRIP
D. Synchronizacja czasu z serwerem NTP w internecie
Usługa NAT (Network Address Translation) realizuje tłumaczenie adresów IP używanych w sieci lokalnej (LAN) na adresy publiczne, co jest kluczowe w kontekście współczesnych sieci komputerowych. Główną funkcją NAT jest umożliwienie wielu urządzeniom w sieci lokalnej korzystania z jednego lub kilku adresów IP w Internecie. Jest to niezwykle istotne, zwłaszcza w obliczu ograniczonej puli adresów IPv4. NAT pozwala na ukrycie struktury wewnętrznej sieci, co zwiększa bezpieczeństwo, ponieważ zewnętrzni użytkownicy nie mają dostępu do prywatnych adresów IP. Przykładem zastosowania NAT jest sytuacja, gdy domowy router łączy różne urządzenia, takie jak smartfony, laptopy i tablety, z Internetem, używając jednego publicznego adresu IP. Dodatkowo NAT ułatwia zarządzanie ruchami sieciowymi, a także pozwala na łatwiejsze wdrażanie polityk bezpieczeństwa i priorytetów ruchu. Zgodnie z dobrymi praktykami, NAT powinien być skonfigurowany w sposób minimalizujący opóźnienia oraz maksymalizujący przepustowość, co jest kluczowe dla wydajności sieci.

Pytanie 6

Pamięć RAM pokazana na ilustracji jest instalowana na płycie głównej posiadającej gniazdo

Ilustracja do pytania
A. DDR2
B. DDR3
C. DDR
D. DDR4
Pamięć RAM DDR3 ma charakterystyczny układ pinów i nacięcie, co wyróżnia ją spośród innych rodzajów. Wprowadzono ją w 2007 roku i szybko zyskała popularność, bo oferuje lepszy współczynnik wydajności do zużycia energii w porównaniu do DDR2. Pracuje na wyższych zegarach, co oznacza lepszą przepustowość danych. Częstotliwości DDR3 zaczynają się od 800 MHz, a czasem dochodzą nawet do 2133 MHz, co daje dużą elastyczność dla różnych użytkowników. Znajdziemy ją w komputerach, serwerach i różnorodnych urządzeniach sieciowych. Dodatkowo, moduły DDR3 działają na niższym napięciu - mają 1,5 V, a te niskonapięciowe to nawet 1,35 V. Dzięki tym cechom, DDR3 sprzyja budowie bardziej energooszczędnych i wydajnych systemów. Z mojego doświadczenia, lepiej jest wybierać pamięci o wysokiej częstotliwości i niskim opóźnieniu, żeby uzyskać jak najlepszą wydajność.

Pytanie 7

Na którym z przedstawionych rysunków ukazano topologię sieci typu magistrala?

Ilustracja do pytania
A. Rys. D
B. Rys. C
C. Rys. A
D. Rys. B
Topologia typu magistrala charakteryzuje się jedną linią komunikacyjną, do której podłączone są wszystkie urządzenia sieciowe. Rysunek B pokazuje właśnie taką konfigurację gdzie komputery są podłączone do wspólnej magistrali liniowej. Tego typu sieć jest prosta w implementacji i wymaga minimalnej ilości kabli co czyni ją ekonomiczną opcją dla małych sieci. Wadą może być jednak to że awaria pojedynczego fragmentu przewodu może prowadzić do przerwania działania całej sieci. W rzeczywistości topologia magistrali była popularna w czasach klasycznych sieci Ethernet jednak obecnie jest rzadziej stosowana na rzecz topologii bardziej odpornych na awarie takich jak gwiazda. Niemniej jednak zrozumienie tej topologii jest kluczowe ponieważ koncepcja wspólnej magistrali jest podstawą wielu nowoczesnych architektur sieciowych gdzie wspólne medium służy do przesyłania danych pomiędzy urządzeniami. Dlatego znajomość jej zasad działania może być przydatna w projektowaniu rozwiązań sieciowych szczególnie w kontekście prostych systemów telemetrii czy monitoringu które mogą korzystać z tego typu struktury. Praktyczne zastosowanie znajduje się również w sieciach rozgłoszeniowych gdzie skutecznie wspiera transmisję danych do wielu odbiorców jednocześnie.

Pytanie 8

Jaką usługę należy zainstalować na systemie Linux, aby umożliwić bezpieczny zdalny dostęp?

A. ssh
B. tftp
C. telnet
D. rlogin
Usługa SSH (Secure Shell) jest kluczowym narzędziem do bezpiecznego zdalnego dostępu do serwerów Linux. Umożliwia ona szyfrowanie połączeń, co zapewnia ochronę przesyłanych danych przed podsłuchiwaniem i atakami. SSH działa poprzez protokół, który zapewnia zarówno poufność, jak i integralność danych, co czyni go standardem w branży do bezpiecznej administracji systemami. Przykładem praktycznego zastosowania SSH może być zdalne logowanie się do serwera, edytowanie plików konfiguracyjnych lub wykonywanie poleceń administracyjnych. Przy pomocy SSH można również tworzyć tunelowanie portów, co pozwala na zabezpieczony dostęp do innych usług, takich jak bazy danych czy serwery aplikacyjne, które nie są bezpośrednio wystawione na zewnątrz. Warto podkreślić, że w środowisku produkcyjnym SSH jest często używane w połączeniu z innymi technologiami, takimi jak SFTP do bezpiecznego przesyłania plików. Stosowanie SSH jest zgodne z najlepszymi praktykami bezpieczeństwa, które zalecają używanie protokołów szyfrujących w celu ochrony komunikacji sieciowej.

Pytanie 9

W systemie Linux komenda, która pozwala na wyświetlenie informacji o aktywnych procesach, to

A. rm
B. ls
C. su
D. ps
Polecenie 'ps' w systemie Linux jest kluczowym narzędziem służącym do wyświetlania informacji o aktualnie uruchomionych procesach. Jego pełna forma to 'process status', co dosłownie odnosi się do statusu procesów. Dzięki temu poleceniu możemy uzyskać szczegółowe dane, takie jak identyfikatory procesów (PID), zużycie pamięci, czas działania oraz stan procesów. Na przykład, użycie polecenia 'ps aux' pozwala na wyświetlenie wszystkich procesów działających na systemie wraz z dodatkowymi informacjami o użytkownikach, którzy je uruchomili. Jest to niezwykle przydatne w administracji systemem, umożliwiając monitorowanie obciążenia systemu i diagnostykę problemów. W praktyce, dobrą praktyką jest regularne sprawdzanie procesów, aby identyfikować ewentualne problemy z wydajnością. Narzędzie to jest zgodne z ogólnymi standardami administracji systemem i jest szeroko stosowane w różnych dystrybucjach systemów Unix/Linux.

Pytanie 10

W biurowcu należy podłączyć komputer do routera ADSL za pomocą przewodu UTP Cat 5e. Jaka powinna być maksymalna odległość między komputerem a routerem?

A. 185 m
B. 50 m
C. 100 m
D. 500 m
W przypadku odpowiedzi wskazujących na większe odległości, takie jak 185 m, 50 m czy 500 m, warto zwrócić uwagę na techniczne ograniczenia związane z przesyłem sygnału przez przewody UTP. Odpowiedzi te opierają się na błędnych założeniach dotyczących maksymalnych długości kabli oraz pojemności sygnałowej. Na przykład, długość 185 m nie jest zgodna z normami IEEE 802.3, które jasno określają limit do 100 m dla kabli Ethernet w standardzie 1 Gbps. Przekroczenie tych wartości prowadzi do znacznego spadku jakości sygnału, co skutkuje opóźnieniami, utratą pakietów oraz wydłużonym czasem reakcji przy korzystaniu z aplikacji sieciowych. Z kolei 50 m również nie jest optymalne, ponieważ nie wykorzystuje w pełni możliwości, jakie daje kategoria 5e. Ostatecznie, 500 m jest znacznie poza granicami akceptowalnych wartości, co może sugerować brak zrozumienia zasad działania sieci komputerowych. Wiedza na temat limitów długości kabli UTP jest kluczowa dla projektowania wydajnych i niezawodnych systemów sieciowych, a stosowanie się do tych zasad pozwala uniknąć wielu problemów podczas eksploatacji sieci.

Pytanie 11

Aby sprawdzić stan podłączonego kabla oraz zdiagnozować odległość do miejsca awarii w sieci, należy użyć funkcji przełącznika oznaczonej numerem

Ilustracja do pytania
A. 3
B. 4
C. 1
D. 2
Odpowiedź numer 3 jest prawidłowa, ponieważ funkcja oznaczona jako 'Cable Test' służy do sprawdzania stanu podłączonego kabla i diagnozowania odległości od miejsca awarii. Ta funkcja jest niezbędna w zarządzaniu siecią, gdyż umożliwia szybkie wykrywanie problemów z połączeniami kablowymi. Przełączniki sieciowe, takie jak TP-Link TL-SG108E, oferują wbudowane narzędzia diagnostyczne, które znacząco ułatwiają lokalizację usterek. Testowanie kabli pomaga w identyfikacji uszkodzeń mechanicznych, takich jak złamania, oraz problemów z połączeniami, na przykład zwarć czy przerw w obwodzie. Dzięki temu administratorzy sieci mogą szybko podjąć działania naprawcze. Test kablowy działa poprzez wysyłanie sygnałów testowych przez kabel i mierzenie czasu, jaki zajmuje sygnałowi powrót, co pozwala na oszacowanie odległości do miejsca usterki. Jest to standardowa praktyka w branży sieciowej i znajduje zastosowanie w wielu scenariuszach, od małych sieci domowych po duże sieci korporacyjne. Regularne testowanie kabli jest kluczowe dla utrzymania wysokiej wydajności i niezawodności sieci, co czyni tę funkcję nieocenionym narzędziem w arsenale każdego administratora sieciowego.

Pytanie 12

Na podstawie przedstawionej na ilustracji konfiguracji, w przypadku, gdy komputer żąda połączenia z inną siecią, w pierwszej kolejności dane zostaną wysłane do urządzenia o adresie

Ilustracja do pytania
A. 192.168.0.5
B. 10.100.1.232
C. 192.168.0.254
D. 10.100.1.200
Klucz do tego zadania leży w zrozumieniu roli bramy domyślnej i metryki w tablicy routingu. Wiele osób patrzy najpierw na adresy IP hostów i trochę intuicyjnie zakłada, że skoro komputer ma adres 192.168.0.5, to właśnie ten adres będzie „pierwszym” punktem wyjścia. Tymczasem adres 192.168.0.5 to po prostu adres samej karty sieciowej komputera, czyli źródło ruchu, a nie urządzenie, do którego on coś wysyła. Komputer nie może wysłać pakietów do innej sieci „do samego siebie” – on musi mieć wskazane urządzenie pośredniczące, czyli router lub inne urządzenie pełniące funkcję bramy. W podobny sposób mylący bywa adres 10.100.1.232. To również jest adres przypisany do interfejsu komputera (druga konfiguracja IP na tej samej karcie). Taki host z dwoma adresami IP może jednocześnie pracować w dwóch różnych podsieciach, co bywa przydatne np. przy migracjach sieci albo w środowiskach testowych. Jednak nadal są to adresy lokalne komputera, a nie docelowy punkt, do którego pakiety mają być wysyłane, gdy trzeba dotrzeć do zupełnie innych sieci. Adres 10.100.1.200 wygląda bardziej jak typowy adres routera i faktycznie w oknie konfiguracji widać go w sekcji „Bramy domyślne”. Problem polega na tym, że w systemach takich jak Windows, przy kilku bramach domyślnych wykorzystywana jest metryka, która określa priorytet. Niższa metryka oznacza wyższy priorytet. Tutaj 10.100.1.200 ma metrykę 2, a więc jest trasą mniej preferowaną, potencjalnie zapasową. Typowy błąd myślowy polega na tym, że ktoś patrzy tylko na sam fakt istnienia bramy, ignorując metrykę albo zakładając, że „nowszy” lub „bardziej rozbudowany” adres będzie użyty w pierwszej kolejności. W praktyce stosuje się zasadę, że przy wielu możliwych trasach zawsze wybierana jest ta o najniższym koszcie, czyli o najniższej metryce. Z mojego doświadczenia w sieciach firmowych takie pomyłki prowadzą później do trudnych do zdiagnozowania problemów: ruch idzie nie tą bramą, co trzeba, VPN działa raz przez jedno łącze, raz przez drugie, a użytkownik ma wrażenie, że „Internet raz jest, raz go nie ma”. Dlatego w konfiguracji IP warto zawsze patrzeć całościowo: które adresy są adresami hosta, które są bramami i jakie mają metryki. Dopiero wtedy widać, którędy realnie popłynie ruch do innych sieci.

Pytanie 13

Narzędziem systemu Windows, służącym do sprawdzenia wpływu poszczególnych procesów i usług na wydajność procesora oraz tego, w jakim stopniu generują one obciążenie pamięci czy dysku, jest

A. dcomcnfg
B. resmon
C. cleanmgr
D. credwiz
Dobrze wskazane – 'resmon' to narzędzie dostępne w systemie Windows, znane oficjalnie jako Monitor zasobów (Resource Monitor). Jego największą zaletą jest to, że pozwala na bardzo szczegółową analizę, jak konkretne procesy i usługi wpływają na poszczególne zasoby systemowe, takie jak procesor, pamięć RAM, dysk twardy czy sieć. W praktyce często używa się go, gdy sam Menedżer zadań to za mało, bo resmon daje głębszy wgląd w to, które procesy najbardziej obciążają system. Na przykład, jeśli komputer zwalnia i nie wiadomo co dokładnie go spowalnia, Monitor zasobów pokazuje, czy to procesy w tle, usługi systemowe czy może aplikacje użytkownika mocno wykorzystują CPU lub pamięć. W branży IT bardzo często korzysta się z tego narzędzia podczas diagnozowania problemów z wydajnością – to taka codzienna praktyka administratorów czy serwisantów. Co ciekawe, resmon pozwala nawet podejrzeć, które pliki są otwarte przez dane procesy albo jakie porty sieciowe są używane. Z mojego doświadczenia, wielu początkujących informatyków nie docenia tego narzędzia, a szkoda, bo często przyspiesza rozwiązywanie zawiłych problemów. Warto zapamiętać, że Monitor zasobów to taka „lupa” dla zaawansowanego użytkownika Windows i wpisuje się w dobre praktyki – szczegółowa analiza przed podjęciem jakichkolwiek działań naprawczych to podstawa skutecznej administracji.

Pytanie 14

Aby w systemie Windows ustawić właściwości wszystkich zainstalowanych urządzeń lub wyświetlić ich listę, należy użyć narzędzia

A. dnsmgmt.msc
B. devmgmt.msc
C. dhcpmgmt.msc
D. diskmgmt.msc
devmgmt.msc to zdecydowanie jedno z najważniejszych narzędzi w codziennej pracy z systemem Windows, zwłaszcza jeśli chodzi o zarządzanie sprzętem i sterownikami. Dzięki temu narzędziu możesz w jednym miejscu zobaczyć pełną listę wszystkich urządzeń zainstalowanych w komputerze – zarówno tych fizycznych, jak i wirtualnych. Co ważne, Device Manager umożliwia nie tylko przeglądanie, ale też szczegółowe konfigurowanie właściwości każdego elementu, np. aktualizowanie sterowników, wyłączanie lub deinstalowanie urządzeń, czy rozwiązywanie konfliktów sprzętowych. Moim zdaniem świetnie sprawdza się to nie tylko w przypadku klasycznych komputerów stacjonarnych, ale też laptopów, gdzie czasem sterowniki potrafią spłatać figla. Warto wiedzieć, że od czasów Windows XP aż po najnowsze wersje systemu, devmgmt.msc to standardowy i niezawodny sposób na szybki dostęp do menedżera urządzeń – można go uruchomić zarówno przez okno „Uruchom”, jak i przez konsolę MMC. Używanie menedżera urządzeń to podstawa dobrej diagnostyki i administracji, szczególnie według dobrych praktyk branżowych – oszczędza mnóstwo czasu w porównaniu do szukania problemów na oślep. To narzędzie bywa też niezastąpione podczas instalacji nowych komponentów lub przy rozwiązywaniu problemów po aktualizacjach systemu. Szczerze, trudno mi sobie wyobrazić efektywną opiekę nad komputerami bez regularnego używania devmgmt.msc.

Pytanie 15

Użytkownicy dysków SSD powinni unikać wykonywania następujących działań konserwacyjnych

A. Defragmentacji dysku
B. Regularnego sprawdzania dysku przy użyciu programu antywirusowego
C. Usuwania kurzu z wnętrza jednostki centralnej
D. Regularnego tworzenia kopii zapasowych danych
Ważne jest, aby zrozumieć, że przestrzeganie zasad konserwacji dysków SSD wpływa na ich trwałość i wydajność. Systematyczne sprawdzanie dysku programem antywirusowym jest kluczowe w kontekście bezpieczeństwa danych. Choć wiele osób uważa, że dyski SSD są mniej podatne na wirusy czy złośliwe oprogramowanie, to jednak nie są one całkowicie odporne. Regularne skanowanie dysku pomaga wykryć niepożądane oprogramowanie, które może wpływać na działanie systemu i bezpieczeństwo przechowywanych danych. Warto jednak pamiętać, że niektóre programy antywirusowe mogą powodować nadmierne obciążenie dysku, dlatego warto dobierać oprogramowanie z uwagą. Systematyczne tworzenie kopii zapasowych danych to kolejna kluczowa praktyka, która pozwala na zabezpieczenie informacji przed ich utratą. W przypadku awarii sprzętu lub infekcji wirusowej, możliwość odzyskania danych jest nieoceniona. Z kolei czyszczenie wnętrza jednostki centralnej z kurzu przyczynia się do lepszej wentylacji i chłodzenia komponentów, co jest niezbędne dla długowieczności wszystkich podzespołów, w tym dysków SSD. Zignorowanie tych praktyk może prowadzić do problemów z wydajnością, bezpieczeństwem danych oraz trwałością sprzętu. Warto zatem wszystkie wymienione działania traktować jako integralną część konserwacji systemu, a nie tylko jako opcjonalne czynności.

Pytanie 16

W systemie Linux program top umożliwia

A. sortowanie rosnąco plików według ich wielkości.
B. ustawienie użytkownikowi maksymalnego limitu quoty.
C. monitoring wszystkich aktywnych procesów.
D. wyszukanie katalogu zajmującego najwięcej miejsca na dysku twardym.
Wiele osób myli funkcje poszczególnych narzędzi systemowych w Linuksie, co jest zrozumiałe, bo narzędzi jest sporo i często brzmią podobnie. Program top służy wyłącznie do monitorowania aktywnych procesów w systemie operacyjnym i nie ma żadnych funkcji związanych z sortowaniem plików, ustawianiem quoty czy analizowaniem zajętości katalogów. Jeśli komuś chodzi o sortowanie plików według wielkości, to wybrałby raczej polecenia takie jak ls z odpowiednimi opcjami (np. ls -lS) albo nawet polecenie sort, które służy do przetwarzania i sortowania tekstu. Natomiast ustawianie limitów przestrzeni dyskowej (quota) dla użytkowników to zadanie dla zupełnie innych narzędzi, takich jak edquota, quotaon, czy setquota – tutaj top nie ma żadnego zastosowania, bo on głównie wyświetla listę procesów oraz ich statystyki wydajnościowe. Z kolei identyfikacja katalogu zajmującego najwięcej miejsca na dysku wymaga użycia polecenia du (np. du -sh *), ewentualnie dopełnionego sortem – to jest zupełnie inne zadanie i zakres działania niż to, co oferuje top. Często początkujący mylą narzędzia, bo nazwy nie zawsze są intuicyjne, jednak w praktyce każde ma bardzo określony cel. Rzetelna znajomość narzędzi systemowych, ich przeznaczenia i sposobu użycia jest kluczowa nie tylko przy codziennej pracy, ale także podczas rozwiązywania incydentów wydajnościowych. Moim zdaniem warto poświęcić chwilę na przegląd manuali (man top, man du, man quota), żeby uniknąć takich pomyłek – to pomaga rozwijać się jako administrator czy nawet zwykły użytkownik Linuksa.

Pytanie 17

Jakie narzędzie jest używane do diagnozowania łączności między hostami w systemie Windows?

A. route
B. ping
C. ipconfig
D. traceroute
Odpowiedź 'ping' jest poprawna, ponieważ jest to narzędzie diagnostyczne stosowane w systemach operacyjnych Windows, które pozwala na sprawdzenie połączenia z innym hostem w sieci. Ping działa na zasadzie wysyłania pakietów ICMP (Internet Control Message Protocol) Echo Request do docelowego hosta, a jego celem jest uzyskanie odpowiedzi w postaci pakietów ICMP Echo Reply. Jeśli host odpowiada, oznacza to, że jest dostępny w sieci, a także daje informacje o czasie, jaki potrzebny był na przesłanie pakietu. Narzędzie to jest niezwykle pomocne w rozwiązywaniu problemów związanych z połączeniami sieciowymi, pozwalając na weryfikację, czy dany adres IP jest osiągalny oraz na pomiar opóźnień w komunikacji. W praktyce, administratorzy sieci często używają polecenia 'ping', aby szybko zdiagnozować problemy z dostępnością serwerów lub innych urządzeń w sieci. Dobrą praktyką jest także używanie dodatkowych opcji, takich jak '-t', co umożliwia ciągłe pingowanie, co może pomóc w monitorowaniu stabilności połączenia przez dłuższy czas.

Pytanie 18

Aby uniknąć różnic w kolorystyce pomiędzy zeskanowanymi zdjęciami na wyświetlaczu komputera a ich oryginałami, konieczne jest przeprowadzenie

A. interpolację skanera
B. kadrowanie skanera
C. kalibrację skanera
D. modelowanie skanera
Kalibracja skanera to proces, w którym dostosowuje się parametry urządzenia, aby osiągnąć maksymalną zgodność kolorystyczną między zeskanowanymi obrazami a oryginałami. Proces ten jest niezbędny, ponieważ różnice w kolorach mogą wynikać z różnic w oprogramowaniu, sprzęcie, a także z ustawień skanera. Kalibracja polega na wykorzystaniu wzorców kolorystycznych, które pozwalają na dokładne odwzorowanie barw. Przykładem zastosowania kalibracji może być sytuacja, gdy grafika drukarska musi być zgodna z jej cyfrowym odpowiednikiem. Aby to osiągnąć, operator skanera wykonuje kalibrację na podstawie znanych standardów kolorów, takich jak sRGB czy Adobe RGB, co zapewnia spójność i powtarzalność kolorów. Ponadto, regularna kalibracja jest zalecana jako dobra praktyka w branży, aby zminimalizować błędy kolorystyczne, które mogą wystąpić z biegiem czasu.

Pytanie 19

Ile adresów urządzeń w sieci jest dostępnych dzięki zastosowaniu klasy adresowej C w systemach opartych na protokołach TCP/IP?

A. 100
B. 256
C. 200
D. 254
Klasa adresowa C w sieciach opartych na protokole TCP/IP jest jedną z klas adresowych, której głównym celem jest umożliwienie przypisania adresów dla stosunkowo niewielkich sieci. Adresy w klasie C mają format 24-bitowy dla części sieciowej i 8-bitowy dla części hosta, co oznacza, że adresy te zaczynają się od 192.0.0.0 do 223.255.255.255. W teorii, przy użyciu 8-bitowego segmentu dla hostów, teoretycznie moglibyśmy uzyskać 256 adresów. Jednak dwa z tych adresów są zarezerwowane: jeden dla adresu sieci (np. 192.168.1.0) i jeden dla adresu rozgłoszeniowego (np. 192.168.1.255). Dlatego rzeczywista liczba dostępnych adresów urządzeń w klasie C wynosi 254, co jest wystarczające dla małych sieci, takich jak biura czy oddziały firm. Umożliwia to przypisanie unikalnych adresów do urządzeń, zapewniając jednocześnie możliwość efektywnego zarządzania i organizacji sieci w zgodzie z najlepszymi praktykami administracyjnymi.

Pytanie 20

Na dysku należy umieścić 100 tysięcy oddzielnych plików, z których każdy ma rozmiar 2570 bajtów. W takim przypadku, zapisane pliki będą zajmować najmniej miejsca na dysku z jednostką alokacji wynoszącą

A. 3072 bajty
B. 2048 bajtów
C. 8192 bajty
D. 4096 bajtów
Odpowiedź 3072 bajty jest poprawna, ponieważ przy tej jednostce alokacji możemy zminimalizować marnotrawstwo miejsca na dysku. Każdy plik o rozmiarze 2570 bajtów zajmie 3072 bajty, co oznacza, że pozostanie 502 bajty niezajęte. W przypadku mniejszej jednostki alokacji, jak 2048 bajtów, każdy plik zajmie pełne 2048 bajtów, co prowadzi do większego marnotrawstwa przestrzeni dyskowej, ponieważ na dysku na każdym z tych plików pozostanie 522 bajty niewykorzystanego miejsca, a dodatkowo konieczne byłoby zarezerwowanie miejsca na przyszłe pliki. Wybór optymalnej wartości jednostki alokacji jest kluczowy w systemach plików, aby zminimalizować przestrzeń dyskową, co jest szczególnie ważne w środowiskach z ograniczonymi zasobami. Przykładowo, serwery baz danych często korzystają z odpowiednio dobranych jednostek alokacji, aby zapewnić efektywne przechowywanie dużej liczby małych plików. Przy zastosowaniu jednostki alokacji wynoszącej 3072 bajty, osiągamy równowagę między marnotrawstwem przestrzeni a wydajnością operacji zapisu i odczytu.

Pytanie 21

Program firewall nie zapewnia ochrony przed

A. uzyskaniem dostępu do komputera przez hakerów
B. szpiegowaniem oraz kradzieżą poufnych informacji użytkownika
C. wirusami rozprzestrzeniającymi się za pomocą poczty elektronicznej
D. atakami generującymi zwiększony ruch w sieci
Wiele osób myśli, że firewalle załatwiają wszystko, ale to nie do końca tak działa. Często mylą je z programami antywirusowymi. Firewalle pilnują, żeby nikt nie wchodził do systemu bez pozwolenia i czasem blokują dziwny ruch w sieci, ale nie potrafią prześwietlić plików z e-maili pod kątem wirusów. Są różne rodzaje ataków, jak DDoS, które firewalle mogą ograniczać, ale wirusy z e-maili mogą przebić się przez nie. Nawet przy włączonym firewallu hakerzy mogą zyskać dostęp, jeśli wykorzystają jakieś luki w oprogramowaniu lub zainstalują złośliwe oprogramowanie poprzez załączniki. A wykradanie danych to też coś, czym zajmuje się złośliwe oprogramowanie – i firewall tego nie zablokuje. Dlatego najlepiej połączyć firewalle z programami antywirusowymi i na bieżąco aktualizować wszystko, co mamy, a także uczyć się, jak rozpoznawać zagrożenia.

Pytanie 22

Protokół, który pozwala urządzeniom na uzyskanie od serwera informacji konfiguracyjnych, takich jak adres IP bramy sieciowej, to

A. RTP
B. HTTPS
C. NFS
D. DHCP
DHCP, czyli Dynamic Host Configuration Protocol, to protokół sieciowy, który automatycznie przypisuje adresy IP oraz inne istotne dane konfiguracyjne hostom w sieci. Dzięki jego zastosowaniu, administratorzy nie muszą ręcznie konfigurować każdego urządzenia podłączonego do sieci, co znacznie przyspiesza proces integracji nowych urządzeń. DHCP pozwala na dynamiczne przypisywanie adresów IP w oparciu o z góry zdefiniowany zakres adresów oraz polityki zarządzania, co jest zgodne z najlepszymi praktykami w zarządzaniu sieciami. Protokół ten działa na zasadzie wymiany komunikatów między klientem a serwerem, co pozwala na uzyskanie takich informacji jak adres IP bramy sieciowej, maska podsieci czy serwery DNS. Przykładem zastosowania DHCP jest biuro, gdzie wiele komputerów i urządzeń mobilnych łączy się z siecią, a serwer DHCP automatycznie przydziela im odpowiednie adresy IP, co minimalizuje ryzyko konfliktów adresów oraz błędów w konfiguracji.

Pytanie 23

Kluczowe znaczenie przy tworzeniu stacji roboczej, na której ma funkcjonować wiele maszyn wirtualnych, ma:

A. Mocna karta graficzna
B. Wysokiej jakości karta sieciowa
C. System chłodzenia wodnego
D. Ilość rdzeni procesora
Liczba rdzeni procesora jest kluczowym czynnikiem przy budowie stacji roboczej przeznaczonej do obsługi wielu wirtualnych maszyn. Wirtualizacja to technologia, która pozwala na uruchamianie wielu systemów operacyjnych na jednym fizycznym serwerze, co wymaga znacznej mocy obliczeniowej. Wielordzeniowe procesory, takie jak te oparte na architekturze x86 z wieloma rdzeniami, umożliwiają równoczesne przetwarzanie wielu zadań, co jest niezbędne w środowiskach wirtualnych. Przykładowo, jeśli stacja robocza ma 8 rdzeni, umożliwia to uruchomienie kilku wirtualnych maszyn, z których każda może otrzymać swój dedykowany rdzeń, co znacznie zwiększa wydajność. W kontekście standardów branżowych, rekomendowane jest stosowanie procesorów, które wspierają technologię Intel VT-x lub AMD-V, co pozwala na lepszą wydajność wirtualizacji. Odpowiednia liczba rdzeni nie tylko poprawia wydajność, ale także umożliwia lepsze zarządzanie zasobami, co jest kluczowe w zastosowaniach komercyjnych, takich jak serwery aplikacji czy platformy do testowania oprogramowania.

Pytanie 24

Jaką metodę stosuje się do dostępu do medium transmisyjnego z wykrywaniem kolizji w sieciach LAN?

A. IPX/SPX
B. NetBEUI
C. CSMA/CD
D. WINS
WINS (Windows Internet Name Service) to usługa, która umożliwia rozwiązywanie nazw NetBIOS do adresów IP w sieciach Windows. Nie ma jednak związku z metodą dostępu do medium transmisyjnego. WINS działa na wyższych warstwach modelu OSI i nie zajmuje się zarządzaniem dostępem do medium. IPX/SPX (Internetwork Packet Exchange/Sequenced Packet Exchange) to protokół stworzony dla sieci Novell, który również nie dotyczy dostępu do medium transmisyjnego, lecz jest to zestaw protokołów komunikacyjnych, który był wykorzystywany głównie w sieciach lokalnych do komunikacji między urządzeniami. NetBEUI (NetBIOS Extended User Interface) to również protokół komunikacyjny, który jest używany w sieciach lokalnych, ale nie obsługuje mechanizmów detekcji kolizji. Protokół ten jest zoptymalizowany do pracy w małych sieciach i nie nadaje się do skalowalnych rozwiązań, ponieważ nie jest routowalny. W konsekwencji, wybór WINS, IPX/SPX, czy NetBEUI jako metod dostępu do medium transmisyjnego jest błędny, ponieważ żaden z wymienionych protokołów nie wykorzystuje technologii detekcji kolizji do efektywnego zarządzania dostępem do medium, co jest kluczowe w sieciach LAN.

Pytanie 25

Jaką liczbę bitów posiada adres logiczny IPv6?

A. 128
B. 64
C. 16
D. 32
Adres logiczny IPv6 składa się z 128 bitów, co jest istotnym usprawnieniem w porównaniu do wcześniejszej wersji protokołu IP, IPv4, gdzie długość adresu wynosiła tylko 32 bity. Większa długość adresu w IPv6 umożliwia znacznie większą liczbę unikalnych adresów, co jest kluczowe w kontekście rosnącej liczby urządzeń podłączanych do Internetu. Dzięki zastosowaniu 128-bitowych adresów, IPv6 pozwala na adresowanie 340 undecylionów (10^36) unikalnych adresów, co jest wystarczające, aby zaspokoić potrzebę globalną w kontekście Internetu rzeczy (IoT) oraz globalnej sieci. W praktyce, organizacje i dostawcy usług internetowych już wykorzystują IPv6, aby zapewnić przyszłość swoich sieci. Standardy te są również zgodne z zaleceniami IETF (Internet Engineering Task Force), które promują przejście z IPv4 na IPv6, aby sprostać rosnącym wymaganiom adresowania w sieciach komputerowych. Użycie IPv6 staje się niezbędne w wielu nowoczesnych aplikacjach, takich jak chmurowe usługi, rozproszone systemy oraz różnorodne IoT, co czyni tę wiedzę niezwykle istotną dla każdego specjalisty IT.

Pytanie 26

Urządzenie klienckie automatycznie uzyskuje adres IP od serwera DHCP. W sytuacji, gdy serwer DHCP przestanie działać, karcie sieciowej przydzielony zostanie adres IP z przedziału

A. 169.254.0.1 ÷ 169.254.255.254
B. 127.0.0.1 ÷ 127.255.255.255.254
C. 192.168.0.1 ÷ 192.168.255.254
D. 224.0.0.1 ÷ 224.255.255.254
Wybór adresów spoza zakresu 169.254.0.1 ÷ 169.254.255.254 jest błędny z kilku powodów, które wynikają z niepełnego zrozumienia zasad przydzielania adresów IP oraz roli DHCP. Adresy 127.0.0.1 ÷ 127.255.255.254 są zarezerwowane dla lokalnego hosta, znane jako loopback addresses, które umożliwiają aplikacjom komunikację same ze sobą w obrębie jednej maszyny, ale nie służą do komunikacji w sieci lokalnej. W przypadku awarii serwera DHCP, adresy te nie mogą być używane do nawiązywania połączeń z innymi urządzeniami w sieci. Zakres 192.168.0.1 ÷ 192.168.255.254 to adresy prywatne, które są często wykorzystywane w sieciach lokalnych. Aby mogły zostać przypisane, urządzenie musiałoby mieć możliwość uzyskania adresu z routera lub DHCP, co w sytuacji jego braku jest niemożliwe. Natomiast adresy w zakresie 224.0.0.1 ÷ 224.255.255.254 są zarezerwowane dla multicastu, co oznacza, że są używane do komunikacji z grupą odbiorców, a nie dla pojedynczych hostów. Te niepoprawne odpowiedzi wskazują na typowe błędy w analizowaniu funkcji DHCP oraz mechanizmów przydzielania adresów IP, gdzie niezbędna jest znajomość zarówno zasad funkcjonowania protokołów sieciowych, jak i podstawowych standardów adresacji IP.

Pytanie 27

Który z poniższych protokołów jest używany do bezpiecznego przesyłania danych w sieci?

A. HTTPS
B. HTTP
C. TELNET
D. FTP
HTTPS, czyli HyperText Transfer Protocol Secure, to rozszerzenie protokołu HTTP, które dodaje warstwę bezpieczeństwa poprzez zastosowanie protokołu SSL/TLS. Dzięki temu dane przesyłane między klientem a serwerem są szyfrowane, co znacznie zwiększa ich bezpieczeństwo przed przechwyceniem przez osoby trzecie. W praktyce oznacza to, że nawet jeśli ktoś przechwyci pakiety danych w sieci, nie będzie w stanie ich odczytać bez odpowiedniego klucza deszyfrującego. To czyni HTTPS standardem w przypadku przesyłania wrażliwych informacji, takich jak dane logowania, informacje bankowe czy dane osobowe użytkowników. Warto zauważyć, że HTTPS jest obecnie podstawowym wymogiem dla wielu stron internetowych, szczególnie tych, które przetwarzają dane użytkowników, co ma na celu nie tylko ochronę danych, ale także budowanie zaufania użytkowników do serwisu. Stosowanie HTTPS jest również często wymagane przez przeglądarki internetowe, które mogą oznaczać strony bez HTTPS jako potencjalnie niebezpieczne.

Pytanie 28

Program antywirusowy oferowany przez Microsoft bezpłatnie dla posiadaczy legalnych wersji systemu operacyjnego Windows to

A. Windows Defender
B. Windows Antywirus
C. Microsoft Free Antywirus
D. Microsoft Security Essentials
Nie ma czegoś takiego jak Windows Antywirus od Microsoftu, więc wybór tej opcji nie jest dobry. Możliwe, że ludzie mylą to z innymi programami, które nie są ich własnością. Często zdarza się, że szukając zabezpieczeń, natykają się na nieoficjalne aplikacje, które mogą wydawać się ok, ale nie spełniają standardów branżowych. Teraz mamy Windows Defender, który jest już wbudowany w Windows 10 i 11, więc takie mylenie nazw może sprawiać problemy. Z kolei Microsoft Free Antywirus sugeruje, że jest jakaś inna darmowa wersja antywirusowa, co jest nieprawdą. To błędne wyobrażenie o dostępnych narzędziach może prowadzić do złych decyzji, a to może narażać na poważne problemy, jak infekcje. Lepiej korzystać z uznanych rozwiązań zabezpieczających, które są wspierane przez producentów systemów i przestrzegają aktualnych norm bezpieczeństwa, żeby mieć pewność, że nasze urządzenia są dobrze chronione.

Pytanie 29

W dokumentacji jednego z komponentów komputera zamieszczono informację, że to urządzenie obsługuje OpenGL. Jakiego elementu dotyczy ta dokumentacja?

A. mikroprocesora
B. karty graficznej
C. karty sieciowej
D. dysku twardego
Odpowiedź dotycząca karty graficznej jest poprawna, ponieważ OpenGL (Open Graphics Library) to standard API (Application Programming Interface) przeznaczony do renderowania grafiki 2D i 3D. Karty graficzne są zaprojektowane do obsługi tego typu aplikacji, co czyni je kluczowymi komponentami w systemach graficznych. OpenGL umożliwia programistom korzystanie z funkcji sprzętowych kart graficznych w celu tworzenia interaktywnych aplikacji wizualnych, takich jak gry, programy do modelowania 3D oraz aplikacje inżynieryjne. Przykładem zastosowania OpenGL jest tworzenie realistycznych scen w grach komputerowych, gdzie efekty świetlne, cienie oraz tekstury są generowane na podstawie obliczeń przeprowadzanych przez kartę graficzną. Warto również zauważyć, że standard OpenGL jest szeroko stosowany w branży gier oraz w aplikacjach CAD (Computer-Aided Design), co świadczy o jego znaczeniu w codziennej pracy programistów oraz inżynierów. Karty graficzne, które wspierają OpenGL, są zgodne z wieloma platformami oraz systemami operacyjnymi, co umożliwia ich szerokie zastosowanie.

Pytanie 30

Co jest przyczyną wysokiego poziomu przesłuchu zdalnego w kablu?

A. Ustabilizowanie się tłumienia kabla.
B. Wyłączenie elementu aktywnego w segmencie LAN.
C. Zmniejszanie częstotliwości przenoszonego sygnału.
D. Zbyt długi odcinek kabla.
Wysoki poziom przesłuchu zdalnego w kablu to typowy problem warstwy fizycznej w sieciach komputerowych i nie wynika z przypadkowych zjawisk, tylko z bardzo konkretnych właściwości kabla oraz sposobu propagacji sygnału. Przesłuch zdalny (FEXT) pojawia się po przeciwnej stronie kabla niż miejsce nadawania i rośnie wraz z długością odcinka, na którym pary przewodów biegną równolegle obok siebie. To właśnie dlatego zbyt długi fragment kabla jest główną przyczyną tego zjawiska. Warto tu odróżnić prawdziwe przyczyny od rzeczy, które brzmią logicznie, ale nie mają bezpośredniego wpływu na FEXT. Samo „ustabilizowanie się tłumienia kabla” nie powoduje przesłuchu. Tłumienie to stopniowe osłabianie amplitudy sygnału w miarę jego przebiegu przez kabel. Oczywiście, przy dłuższej linii i wyższych częstotliwościach tłumienie rośnie, ale jest to zjawisko niezależne od tego, że sygnał z jednej pary sprzęga się do drugiej. Można powiedzieć, że tłumienie i przesłuch to dwa różne parametry transmisyjne, które są mierzone oddzielnie przez profesjonalne testery okablowania zgodnie z normami TIA/EIA czy ISO/IEC. Częstym błędnym skojarzeniem jest też łączenie problemów z przesłuchem z pracą urządzeń aktywnych. Wyłączenie przełącznika, routera czy innego elementu aktywnego w segmencie LAN nie generuje przesłuchu w kablu. Może spowodować brak transmisji, brak linku, ale nie zmienia fizycznych właściwości przewodów miedzianych. Parametry FEXT są cechą samej instalacji kablowej: jakości skrętu, długości, kategorii kabla, sposobu ułożenia. Urządzenia aktywne mogą co najwyżej kompensować pewne zniekształcenia poprzez lepsze kodowanie czy autonegocjację prędkości, ale nie są źródłem zjawiska przesłuchu. Mylące bywa też myślenie, że zmniejszanie częstotliwości przenoszonego sygnału zwiększa przesłuch. W praktyce jest dokładnie odwrotnie: im wyższa częstotliwość, tym zwykle większy poziom przesłuchu i tłumienia. Dlatego standardy Ethernetu definiują konkretne kategorie kabli i maksymalne długości dla danych prędkości (np. 1 Gb/s, 10 Gb/s). Przy niższych częstotliwościach, czyli przy niższych prędkościach transmisji, okablowanie ma zwykle „łatwiejsze życie” i przesłuch jest mniejszym problemem. Typowy błąd myślowy polega na mieszaniu pojęć: ktoś widzi, że przy zmianie parametrów pracy sieci znikają błędy transmisji i wyciąga wniosek, że to częstotliwość lub stan urządzeń aktywnych był przyczyną przesłuchu. W rzeczywistości przyczyna leży w fizyce przewodnika, długości kabla i geometrii par, a zmiana parametrów transmisji jedynie łagodzi skutki, a nie źródło problemu.

Pytanie 31

Jaką funkcję pełni mechanizm umożliwiający przechowywanie fragmentów dużych plików programów i danych, które nie mogą być w pełni załadowane do pamięci?

A. menadżer zadań
B. plik stronicowania
C. edytor rejestru
D. schowek systemu
Plik stronicowania to mechanizm zarządzania pamięcią, który umożliwia systemowi operacyjnemu przechowywanie części danych i programów na dysku twardym, gdy nie mieszczą się one w pamięci RAM. Działa na zasadzie podziału pamięci na małe jednostki zwane stronami, które mogą być przenoszone między pamięcią operacyjną a plikiem stronicowania. Dzięki temu, programy mogą korzystać z większej ilości pamięci, niż fizycznie dostępna w RAM. Przykładem zastosowania pliku stronicowania jest otwieranie wielu aplikacji jednocześnie na komputerze – system operacyjny może dynamicznie ładować i zwalniać strony z pamięci, co zwiększa wydajność i elastyczność. Standardy zarządzania pamięcią sugerują, że plik stronicowania powinien być umiejscowiony na szybkim nośniku, aby zminimalizować czasy dostępu. W praktyce, dobrze skonfigurowany plik stronicowania pozwala na lepsze wykorzystanie zasobów systemowych, co jest szczególnie istotne w przypadku aplikacji wymagających dużej ilości pamięci, takich jak oprogramowanie do obróbki wideo czy gry komputerowe.

Pytanie 32

Który rodzaj pracy Access Pointa jest używany, aby umożliwić urządzeniom bezprzewodowym dostęp do przewodowej sieci LAN?

A. Punkt dostępowy
B. Most bezprzewodowy
C. Tryb klienta
D. Repeater
Odpowiedź "Punkt dostępowy" jest poprawna, ponieważ tryb ten jest kluczowy dla integracji sieci bezprzewodowej z przewodową. Punkt dostępowy (Access Point, AP) działa jako pomost, umożliwiając urządzeniom bezprzewodowym, takim jak laptopy, smartfony czy tablety, dostęp do zasobów sieci LAN. W praktyce, punkty dostępowe są używane w biurach, szkołach oraz w przestrzeniach publicznych, gdzie konieczne jest zapewnienie szerokiego zasięgu Wi-Fi. Działają one w oparciu o standardy IEEE 802.11, które definiują zasady komunikacji bezprzewodowej. Dzięki zastosowaniu punktów dostępowych, administratorzy sieci mogą lepiej zarządzać połączeniami, rozkładać obciążenie i zwiększać wydajność sieci. Dobrą praktyką jest strategiczne rozmieszczenie punktów dostępowych w celu zapewnienia optymalnego pokrycia sygnałem oraz minimalizacji martwych stref. Warto również zauważyć, że wiele nowoczesnych punktów dostępowych wspiera funkcje takie jak VLAN czy QoS, co pozwala na segregację ruchu oraz priorytetyzację pakietów w zależności od ich znaczenia dla użytkowników.

Pytanie 33

Jak nazywa się protokół warstwy transportowej modelu TCP/IP, który nie gwarantuje dostarczenia danych?

A. SPX
B. FTP
C. UDP
D. DNS
Poprawna odpowiedź w tym pytaniu to UDP, a nie SPX. W modelu TCP/IP tylko dwa główne protokoły działają w warstwie transportowej: TCP (Transmission Control Protocol) oraz UDP (User Datagram Protocol). Z tej dwójki właśnie UDP jest protokołem, który nie gwarantuje dostarczenia danych, nie zapewnia też kontroli kolejności ani ponownych transmisji. Mówi się, że UDP jest protokołem bezpołączeniowym i „best effort” – wysyła datagramy i nie sprawdza, czy dotarły. To jest świadomy wybór projektowy, opisany w dokumentach RFC (np. RFC 768). Dzięki temu UDP ma bardzo mały narzut, jest szybki i idealny tam, gdzie ważniejsza jest szybkość niż pełna niezawodność. W praktyce UDP stosuje się np. w transmisji strumieni audio/wideo (VoIP, streaming), w grach sieciowych czasu rzeczywistego, w DNS (zapytania zwykle lecą po UDP), w protokołach jak DHCP czy TFTP. Jeżeli jeden pakiet z pozycją gracza w grze online zginie, to zaraz przyjdzie następny – nie ma sensu go retransmitować. Z mojego doświadczenia w sieciach warto zapamiętać prostą zasadę: kiedy aplikacja sama ogarnia logikę błędów i może tolerować utratę części danych, często wybiera UDP. Gdy natomiast liczy się stuprocentowa poprawność i kolejność (np. HTTP, SMTP, FTP – choć same nie są „transportowe”), pod spodem zawsze pracuje TCP. Dlatego, patrząc na warstwę transportową w ujęciu TCP/IP, jedyną prawidłową odpowiedzią na to pytanie jest UDP jako protokół niegwarantujący dostarczenia danych.

Pytanie 34

Jaką maksymalną długość kabla typu skrętka pomiędzy panelem krosowniczym a gniazdem abonenckim przewiduje norma PN-EN 50174-2?

A. 10 m
B. 50 m
C. 100 m
D. 90 m
Odpowiedź 90 m jest zgodna z normą PN-EN 50174-2, która reguluje wymagania dotyczące instalacji okablowania strukturalnego. W kontekście długości kabla typu skrętka, norma ta określa maksymalną długość segmentu kabla U/FTP, która może wynosić do 90 m w przypadku kabli stosowanych w sieciach Ethernet. Długość ta odnosi się do segmentu pomiędzy panelem krosowniczym a gniazdem abonenckim, co jest istotne w projektowaniu sieci, aby zapewnić odpowiednią jakość sygnału i minimalizować straty. Przykładowo, w biurach czy budynkach użyteczności publicznej, instalacje kablowe często opierają się na tej długości, co pozwala na elastyczność w aranżacji biur i pomieszczeń. Przestrzeganie tych norm jest kluczowe, aby zminimalizować zakłócenia i degradację sygnału, co ma bezpośredni wpływ na wydajność sieci. Poza tym, zrozumienie tych norm może pomóc w optymalizacji kosztów projektów, ponieważ skracanie kabli poniżej dopuszczalnych wartości może prowadzić do niepotrzebnych wydatków na dodatkowe elementy aktywne w sieci.

Pytanie 35

Jakim parametrem definiuje się stopień zmniejszenia mocy sygnału w danej parze przewodów po przejściu przez cały tor kablowy?

A. tłumienie
B. przenik zdalny
C. długość
D. przenik zbliżny
Długość przewodów jest ważnym czynnikiem w telekomunikacji, jednak nie jest bezpośrednim parametrem określającym zmniejszenie mocy sygnału. W rzeczywistości, długość wpływa na tłumienie, ponieważ dłuższe przewody mają tendencję do wykazywania większych strat sygnału, ale to tłumienie jest właściwym terminem definiującym te straty. Przenik zdalny i przenik zbliżny odnoszą się do zjawisk związanych z crosstalkiem, czyli zakłóceniami między sąsiednimi torami transmisyjnymi. Przenik zdalny dotyczy zakłóceń, które występują na większej odległości, podczas gdy przenik zbliżny odnosi się do zakłóceń występujących w bezpośredniej bliskości. Oba te zjawiska mogą wpływać na jakość sygnału, ale nie definiują one strat mocy sygnału w torze kablowym. Typowym błędem jest mylenie tych pojęć z tłumieniem, co prowadzi do nieporozumień w ocenie jakości transmisji. Zrozumienie różnic między tymi parametrami jest kluczowe dla prawidłowego projektowania i eksploatacji systemów telekomunikacyjnych, a także dla oceny ich wydajności.

Pytanie 36

W systemie Windows konto użytkownika można założyć za pomocą polecenia

A. users
B. useradd
C. net user
D. adduser
Polecenie 'net user' jest prawidłowym sposobem na tworzenie kont użytkowników w systemie Windows. Umożliwia ono nie tylko dodawanie nowych użytkowników, ale także zarządzanie ich właściwościami, takimi jak hasła, członkostwo w grupach czy daty wygaśnięcia kont. Przykładowe użycie tego polecenia wygląda następująco: 'net user nowy_uzytkownik haslo /add', co tworzy nowe konto o nazwie 'nowy_uzytkownik' z podanym hasłem. To rozwiązanie jest zgodne z najlepszymi praktykami administracyjnymi w środowisku Windows, gdzie bezpieczeństwo i zarządzanie użytkownikami są kluczowe. Dodatkowo, polecenie 'net user' pozwala na wyświetlenie listy wszystkich kont w systemie oraz ich szczegółowych informacji, co może być przydatne w przypadku audytów czy monitorowania aktywności użytkowników. Stosowanie 'net user' zamiast innych narzędzi jest zalecane, ponieważ jest to wbudowane narzędzie systemowe, które zapewnia pełną kompatybilność z politykami bezpieczeństwa i uprawnieniami użytkowników.

Pytanie 37

Która funkcja serwera Windows umożliwia użytkownikom końcowym sieci pokazanej na rysunku dostęp do Internetu?

Ilustracja do pytania
A. Usługa LDS
B. Usługa drukowania
C. Usługa dzielenia
D. Usługa rutingu
Usługa rutingu na serwerze Windows umożliwia przesyłanie danych między różnymi sieciami, co jest kluczowe dla zapewnienia użytkownikom dostępu do Internetu. Dzięki tej usłudze serwer działa jako router, który kieruje pakiety danych pomiędzy siecią lokalną a globalną siecią Internet. Ruting jest kluczowy w kontekście dużych sieci, w których konieczne jest zarządzanie ruchem sieciowym, zapewniając optymalną wydajność i bezpieczeństwo. Implementacja rutingu w Windows Server opiera się na protokołach takich jak RIP czy OSPF, które pomagają w dynamicznej aktualizacji tras. Administracja usługą rutingu obejmuje konfigurację interfejsów sieciowych, tabel routingu oraz polityk trasowania, co jest zgodne z najlepszymi praktykami branżowymi. Praktyczne zastosowanie takiej usługi obejmuje złożone sieci korporacyjne, gdzie kilka oddzielnych sieci LAN musi współdzielić wspólne połączenie do Internetu. Dzięki rutingowi nie tylko możliwe jest efektywne zarządzanie ruchem, ale także implementacja zaawansowanych funkcji takich jak NAT, które dodatkowo zwiększają bezpieczeństwo i elastyczność infrastruktury sieciowej. Wiedza o usługach rutingu pozwala inżynierom sieciowym projektować skalowalne i niezawodne sieci oparte na Windows Server.

Pytanie 38

Jakie jest usytuowanie przewodów w złączu RJ45 według schematu T568A?

Ilustracja do pytania
A. C
B. D
C. A
D. B
Sekwencja połączeń T568A dla wtyku RJ45 jest normowana przez standardy telekomunikacyjne, a dokładnie przez normę TIA/EIA-568. Poprawna kolejność przewodów we wtyku RJ45 zgodnie z tym standardem to: 1) Biało-zielony 2) Zielony 3) Biało-pomarańczowy 4) Niebieski 5) Biało-niebieski 6) Pomarańczowy 7) Biało-brązowy 8) Brązowy. Taka kolejność ma na celu zapewnienie kompatybilności i efektywności połączeń sieciowych, przede wszystkim w systemach Ethernet. W praktyce zastosowanie tej sekwencji jest kluczowe w instalacjach sieciowych, gdzie wymagane jest zachowanie standardów, aby urządzenia różnych producentów mogły ze sobą współpracować bez problemów. Dostosowanie się do normy T568A jest powszechnie stosowane w instalacjach w budynkach mieszkalnych i biurowych. Poprawne okablowanie wg tego standardu minimalizuje zakłócenia sygnału i zwiększa niezawodność transmisji danych, co jest szczególnie istotne w środowiskach biurowych, gdzie wymagana jest wysoka przepustowość i stabilność połączeń.

Pytanie 39

Wskaż błędny podział dysku MBR na partycje?

A. 1 partycja podstawowa oraz 1 rozszerzona
B. 3 partycje podstawowe oraz 1 rozszerzona
C. 1 partycja podstawowa oraz 2 rozszerzone
D. 2 partycje podstawowe oraz 1 rozszerzona
Podział dysku MBR rzeczywiście ma swoje ograniczenia – możesz mieć 4 partycje podstawowe lub 3 podstawowe i jedną rozszerzoną. Wydaje mi się, że może miałeś jakiegoś zamieszania z tymi liczbami. Jeśli masz 3 podstawowe partycje, to nie ma już miejsca na rozszerzoną. To taki kluczowy błąd, który może trochę namieszać. I te odpowiedzi wskazujące na 2 podstawowe i 1 rozszerzoną też nie są do końca trafne. Bo w przypadku rozszerzonej można by było potem dodać partycje logiczne, co jest fajne, ale nie wykorzystuje w pełni możliwości. Także jedynka podstawowa i dwie rozszerzone to zła opcja, bo MBR nie pozwala na więcej niż jedną rozszerzoną. To wprowadza w błąd i może skomplikować zarządzanie danymi, dlatego warto to przemyśleć i dobrze zaplanować podział. Jednak rozumiem, że te zasady nie zawsze są jasne, więc warto się z nimi oswoić.

Pytanie 40

Użytkownik systemu Windows napotyka komunikaty o niewystarczającej pamięci wirtualnej. Jak można rozwiązać ten problem?

A. dodanie dodatkowej pamięci cache procesora
B. powiększenie rozmiaru pliku virtualfile.sys
C. dodanie nowego dysku
D. zwiększenie pamięci RAM
Zwiększenie pamięci RAM to kluczowy element w zarządzaniu pamięcią w systemach operacyjnych, w tym w Windows. Gdy użytkownik otrzymuje komunikaty o zbyt małej pamięci wirtualnej, oznacza to, że system operacyjny nie ma wystarczającej ilości dostępnej pamięci do uruchomienia aplikacji lub przetwarzania danych. Zwiększenie pamięci RAM pozwala na jednoczesne uruchamianie większej liczby programów oraz poprawia ogólną wydajność systemu. Przykładowo, przy intensywnym użytkowaniu programów do edycji wideo lub gier komputerowych, więcej pamięci RAM umożliwia płynniejsze działanie, ponieważ aplikacje mają bezpośredni dostęp do bardziej dostępnych zasobów. Warto również zaznaczyć, że standardowe praktyki w branży zalecają, aby dla systemów operacyjnych Windows 10 i nowszych co najmniej 8 GB RAM było minimum, aby zapewnić komfortową pracę. W kontekście rozwiązywania problemów z pamięcią wirtualną, zwiększenie RAM jest najbardziej efektywnym i bezpośrednim rozwiązaniem.