Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 13 maja 2026 20:42
  • Data zakończenia: 13 maja 2026 20:55

Egzamin zdany!

Wynik: 25/40 punktów (62,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Użycie polecenia net accounts w Wierszu poleceń systemu Windows, które ustawia maksymalny czas ważności hasła, wymaga zastosowania opcji

A. /MAXPWAGE
B. /TIMES
C. /FORCELOGOFF
D. /EXPIRES
Odpowiedzi, które nie dotyczą opcji /MAXPWAGE, pokazują powszechnie występujące nieporozumienia dotyczące polecenia net accounts oraz zarządzania hasłami w systemie Windows. Opcja /TIMES jest używana do definiowania godzin, w których konto użytkownika może być używane, co jest zupełnie inną funkcjonalnością. Jej zastosowanie nie wpływa na politykę wymiany haseł, ale raczej na dostępność konta w określonych porach. Z kolei opcja /EXPIRES, która ustala datę wygaśnięcia konta użytkownika, również nie ma bezpośredniego związku z zarządzaniem hasłami, a raczej dotyczy całkowitego zablokowania dostępu do konta. Natomiast /FORCELOGOFF to opcja, która wymusza wylogowanie użytkownika po upływie określonego czasu, co może być pomocne w zarządzaniu sesjami użytkowników, ale nie dotyczy mechanizmu wymiany haseł. Te nieprawidłowe odpowiedzi mogą prowadzić do błędnych wniosków na temat bezpieczeństwa systemów informatycznych. Administratorzy powinni zrozumieć, że skoncentrowanie się na zarządzaniu hasłami jako kluczowym elemencie polityki bezpieczeństwa to klucz do ochrony danych. Użycie niewłaściwych opcji przy konfiguracji haseł może prowadzić do luk w zabezpieczeniach, dlatego tak ważne jest, aby dobrze znać dostępne polecenia i ich funkcje.

Pytanie 2

Na którym z zewnętrznych nośników danych nie dojdzie do przeniknięcia wirusa podczas przeglądania jego zawartości?

A. na pamięć Flash
B. na kartę SD
C. na płytę DVD-ROM
D. na dysk zewnętrzny
Płyta DVD-ROM jest nośnikiem danych, który jest zapisywany raz i odczytywany wielokrotnie. W odróżnieniu od pamięci Flash, dysków zewnętrznych i kart SD, które są aktywnymi nośnikami danych, płyty DVD-ROM działają w oparciu o technologię optyczną. Oznacza to, że podczas odczytu danych, nie ma możliwości zapisania nowych danych ani modyfikacji istniejących, co ogranicza ryzyko przeniesienia wirusa. Wirusy komputerowe zazwyczaj wymagają środowiska, w którym mogą się zainstalować, co w przypadku DVD-ROM jest niemożliwe. W praktyce, korzystając z płyt DVD-ROM do przechowywania danych, możemy zminimalizować ryzyko infekcji, co jest zgodne z zaleceniami w zakresie bezpieczeństwa informatycznego. Dobrym przykładem użycia DVD-ROM może być archiwizacja ważnych dokumentów lub danych, które nie wymagają częstych aktualizacji, co zwiększa bezpieczeństwo ich przechowywania.

Pytanie 3

Jak nazywa się złącze wykorzystywane w sieciach komputerowych, pokazane na zamieszczonym obrazie?

Ilustracja do pytania
A. BNC
B. FC
C. LC
D. ST
Złącze BNC (Bayonet Neill-Concelman) jest powszechnie stosowane w sieciach komputerowych oraz systemach telekomunikacyjnych. Jego charakterystyczna budowa z mechanizmem bagnetowym umożliwia szybkie i pewne połączenie, co jest szczególnie ważne w zastosowaniach wymagających częstych podłączeń i odłączeń. Złącza BNC używane są głównie w starszych sieciach opartych na kablach koncentrycznych w standardzie 10BASE2, znanych jako Ethernet cienki. Zapewniają one stosunkowo niskie straty sygnału, co sprawia, że są także popularne w systemach monitoringu wideo i transmisji sygnałów analogowych. W zastosowaniach profesjonalnych złącza BNC są zgodne z normami branżowymi dotyczącymi impedancji 50 omów dla transmisji danych oraz 75 omów w systemach wideo. Ich prostota i niezawodność czynią je wyborem preferowanym w wielu scenariuszach wymagających szybkiej instalacji i minimalnej obsługi technicznej. Dzięki trwałemu materiałowi złącza te charakteryzują się długowiecznością oraz odpornością na uszkodzenia mechaniczne, co jest istotne w środowiskach przemysłowych oraz zewnętrznych.

Pytanie 4

Użytkownik systemu Windows napotyka komunikaty o zbyt małej ilości pamięci wirtualnej. W jaki sposób można rozwiązać ten problem?

A. zwiększenie rozmiaru pliku virtualfile.sys
B. dołożenie dodatkowego dysku
C. zwiększenie pamięci RAM
D. dołożenie dodatkowej pamięci cache procesora
Zamontowanie dodatkowej pamięci cache procesora nie rozwiązuje problemu z pamięcią wirtualną, ponieważ pamięć cache działa na zupełnie innym poziomie. Cache procesora jest pamięcią o wysokiej prędkości, która służy do tymczasowego przechowywania danych, które są często używane przez procesor, co przyspiesza ich przetwarzanie. Jednakże, zwiększenie pamięci cache nie wpływa na ogólną wydajność systemu w kontekście pamięci wirtualnej, gdyż ta ostatnia jest wykorzystywana głównie do zarządzania przestrzenią pamięci RAM i przechowywaniem danych, które nie mieszczą się w pamięci głównej. Zwiększenie rozmiaru pliku virtualfile.sys może chwilowo pomóc w rozwiązaniu problemów z pamięcią wirtualną, ale nie eliminuje podstawowej przyczyny problemu, jaką jest niewystarczająca ilość pamięci RAM. Montowanie dodatkowego dysku twardego także nie jest skutecznym rozwiązaniem w kontekście pamięci wirtualnej, ponieważ głównie służy do przechowywania danych, a nie poprawy wydajności pamięci operacyjnej. Typowym błędem jest myślenie, że zwiększenie pamięci podręcznej lub przestrzeni dyskowej bezpośrednio poprawi wydajność systemu. W rzeczywistości kluczowym aspektem jest zapewnienie odpowiedniej ilości pamięci RAM, co jest zgodne z zaleceniami dotyczącymi optymalizacji systemów operacyjnych. Stąd, aby skutecznie radzić sobie z problemami z pamięcią wirtualną, należy skupić się na zwiększeniu pamięci RAM, co jest najbardziej efektywnym podejściem w kontekście poprawy wydajności systemu.

Pytanie 5

Aby zweryfikować w systemie Windows działanie nowo zainstalowanej drukarki, co należy zrobić?

A. uruchomić narzędzie diagnostyczne dxdiag
B. sprawdzić status urządzenia w Menadżerze urządzeń
C. wydrukować stronę testową za pomocą zakładki Ogólne w oknie Właściwości drukarki
D. wykonać polecenie gpupdate /force w Wierszu poleceń
Wydrukowanie strony testowej za pomocą zakładki Ogólne w oknie Właściwości drukarki to najskuteczniejszy sposób na potwierdzenie, że nowo zainstalowana drukarka działa poprawnie. Proces ten polega na wejściu w ustawienia drukarki z poziomu systemu Windows, gdzie użytkownik może uzyskać dostęp do opcji takich jak wydrukowanie strony testowej. Strona testowa zazwyczaj zawiera różne elementy, takie jak kolory, tekst oraz grafiki, co pozwala na ocenę jakości wydruku oraz sprawności urządzenia. Jest to standardowa procedura, która jest często zalecana w dokumentacji producentów sprzętu. Wydrukowanie strony testowej jest również pomocne w diagnostyce, ponieważ pozwala zidentyfikować ewentualne problemy, takie jak brak kolorów, zacięcia papieru lub inne błędy, które mogą występować w trakcie drukowania. Tego rodzaju praktyki są kluczowe w profesjonalnym środowisku biurowym, gdzie niezawodność sprzętu drukującego ma bezpośredni wpływ na efektywność pracy.

Pytanie 6

Trudności w systemie operacyjnym Windows wynikające z konfliktów dotyczących zasobów sprzętowych, takich jak przydział pamięci, przerwań IRQ oraz kanałów DMA, najłatwiej zidentyfikować za pomocą narzędzia

A. menedżer urządzeń
B. przystawka Sprawdź dysk
C. chkdsk
D. edytor rejestru
Inne narzędzia, takie jak edytor rejestru, przystawka Sprawdź dysk czy chkdsk, mają swoje unikalne zastosowania, ale nie są dedykowane do diagnozowania konfliktów zasobów sprzętowych. Edytor rejestru to zaawansowane narzędzie, które umożliwia użytkownikom modyfikację ustawień rejestru systemu Windows. Chociaż edytor rejestru może być używany do naprawy problemów związanych z systemem, to jednak nie dostarcza on informacji o bieżących konfliktach sprzętowych, które są kluczowe dla poprawnego funkcjonowania urządzeń. Przystawka Sprawdź dysk i chkdsk to narzędzia służące do analizy i naprawy błędów dysku twardego. Chociaż mogą one pomóc w utrzymaniu zdrowia systemu plików i danych, nie są one w stanie zidentyfikować problemów z przydziałem pamięci czy przerwań IRQ. Użytkownicy, którzy polegają na tych narzędziach w kontekście wykrywania konfliktów sprzętowych, mogą wpaść w pułapkę błędnego myślenia, sądząc, że naprawa systemu plików rozwiąże problemy z urządzeniami, co rzadko jest prawdą. Każde z tych narzędzi ma swoje specyficzne zadania, jednak do rozwiązywania konfliktów zasobów sprzętowych najlepszym wyborem jest menedżer urządzeń, który dostarcza najbardziej precyzyjnych informacji i rozwiązań w tej dziedzinie.

Pytanie 7

W drukarce laserowej do trwałego utrwalania druku na papierze wykorzystuje się

A. promienie lasera
B. głowice piezoelektryczne
C. rozgrzane wałki
D. bęben transferowy
Wydawać by się mogło, że inne komponenty drukarki laserowej również pełnią ważne funkcje w procesie wydruku, jednak nie są one odpowiedzialne za utrwalanie obrazu na papierze. Głowice piezoelektryczne, które są elementem stosowanym głównie w drukarkach atramentowych, działają na zasadzie zmiany kształtu pod wpływem napięcia, co pozwala na precyzyjne wyrzucanie kropli atramentu na papier. To podejście nie znajduje zastosowania w technologii druku laserowego, gdzie zamiast tego wykorzystuje się tonery i proces elektrofotograficzny. Bęben transferowy pełni inną rolę – jest odpowiedzialny za przenoszenie obrazu z bębna światłoczułego na papier, ale nie jest on elementem, który utrwala toner na papierze. Promienie lasera, z drugiej strony, są kluczowe do naświetlania bębna światłoczułego i tworzenia obrazu, ale nie mają wpływu na sam proces utrwalania. Typowym błędem myślowym jest utożsamianie różnych funkcji komponentów drukujących, co może prowadzić do mylnego przekonania, że inne elementy, takie jak laser czy bęben transferowy, również przyczyniają się do trwałości wydruku. Zrozumienie, że każdy z elementów drukarki laserowej ma swoje unikalne zadanie, jest kluczowe dla efektywnego korzystania z tej technologii oraz dla optymalizacji procesów drukowania w środowisku biurowym.

Pytanie 8

W systemie Windows do instalacji aktualizacji oraz przywracania sterowników urządzeń należy użyć przystawki

A. devmgmt.msc
B. wmimgmt.msc
C. certmgr.msc
D. fsmgmt.msc
devmgmt.msc to przystawka Menedżera urządzeń w systemie Windows, która jest absolutnie kluczowa, jeśli chodzi o zarządzanie sterownikami oraz sprzętem w komputerze. To właśnie tutaj można łatwo zaktualizować sterowniki, a także – co bywa bardzo przydatne – przywrócić starszą wersję sterownika, jeśli po aktualizacji coś przestało działać. Z mojego doświadczenia najczęściej korzysta się z tej przystawki, gdy pojawiają się problemy ze zgodnością sprzętu albo system nagle nie widzi jakiegoś urządzenia. Branżowe standardy mówią, żeby zawsze przed aktualizacją krytycznych sterowników (np. karty graficznej, sieciowej) wykonać backup lub przynajmniej sprawdzić, czy opcja przywrócenia jest dostępna – i właśnie devmgmt.msc to umożliwia. Co ciekawe, za pomocą Menedżera urządzeń możesz też wyłączyć problematyczne urządzenia, odinstalować sterowniki czy sprawdzić szczegóły dotyczące identyfikatorów sprzętu, co ułatwia późniejsze szukanie odpowiednich driverów w internecie. Moim zdaniem każdy administrator lub technik powinien znać devmgmt.msc na pamięć, bo to podstawa w każdej firmie czy serwisie. To jest narzędzie pierwszego wyboru przy kłopotach ze sprzętem pod Windowsem i szczerze – trudno sobie bez niego radzić w codziennej pracy. Warto też wspomnieć, że inne przystawki Windowsa mają zupełnie inne przeznaczenie i żaden certmgr czy fsmgmt nie zastąpi devmgmt w tym konkretnym zakresie.

Pytanie 9

Narzędziem wykorzystywanym do diagnozowania połączeń między komputerami w systemie Windows jest

A. route
B. traceroute
C. ping
D. ipconfig
Odpowiedź 'ping' jest poprawna, ponieważ jest to podstawowe narzędzie diagnostyczne wykorzystywane do sprawdzania dostępności hostów w sieci IP. Ping działa na zasadzie wysyłania pakietów ICMP Echo Request do danego adresu IP i oczekiwania na odpowiedź w postaci ICMP Echo Reply. Dzięki temu administratorzy sieci mogą szybko ocenić, czy dany host jest osiągalny, a także zmierzyć czas odpowiedzi, co jest istotne w diagnostyce opóźnień sieciowych. Przykładowo, jeśli próbujesz nawiązać połączenie z serwerem i otrzymujesz odpowiedź ping, oznacza to, że serwer jest aktywny i dostępny w sieci. Narzędzie to jest powszechnie stosowane w praktykach monitorowania sieci oraz rozwiązywania problemów z połączeniami sieciowymi. Warto również dodać, że ping może być używane w różnych systemach operacyjnych, nie tylko w Windows, co czyni je wszechstronnym narzędziem w arsenale każdego specjalisty IT. Używanie ping jako pierwszego kroku w diagnostyce sieci jest zgodne z najlepszymi praktykami branżowymi, co podkreśla jego znaczenie w codziennej pracy administracyjnej.

Pytanie 10

Aby zwiększyć wydajność komputera, można zainstalować procesor obsługujący technologię Hyper-Threading, która pozwala na

A. podniesienie częstotliwości pracy zegara
B. przesył danych pomiędzy procesorem a dyskiem twardym z szybkością działania procesora
C. automatyczne dostosowanie częstotliwości rdzeni procesora w zależności od jego obciążenia
D. wykonywanie przez jeden rdzeń procesora dwóch niezależnych zadań równocześnie
Wiele z niepoprawnych odpowiedzi może wprowadzać w błąd, gdyż opierają się na nieporozumieniach dotyczących podstawowych funkcji procesorów. Na przykład, wymiana danych pomiędzy procesorem a dyskiem twardym z prędkością pracy procesora nie jest bezpośrednio związana z Hyper-Threading. Ta koncepcja odnosi się bardziej do interfejsów komunikacyjnych, takich jak SATA czy NVMe, które mają za zadanie maksymalizować przepustowość danych, a nie do wielowątkowości w procesorze. Z kolei zwiększenie szybkości pracy zegara odnosi się do taktowania procesora, które jest inną cechą wydajności. Zmiana częstotliwości pracy nie jest tożsama z obsługą wielu wątków; w rzeczywistości, podwyższanie taktowania może prowadzić do zwiększonego zużycia energii i generacji ciepła, co wymaga zaawansowanych systemów chłodzenia. Automatyczna regulacja częstotliwości rdzeni procesora, często nazywana technologią Turbo Boost, również nie ma związku z Hyper-Threading. Ta technologia pozwala na dynamiczne zwiększenie wydajności jednego lub więcej rdzeni w odpowiedzi na zapotrzebowanie, ale nie pozwala na równoległe przetwarzanie zadań na jednym rdzeniu. Zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania zasobami komputerowymi oraz dla podejmowania świadomych decyzji przy wyborze komponentów komputerowych.

Pytanie 11

Jakiej funkcji powinno się użyć, aby utworzyć kopię zapasową rejestru systemowego w programie regedit?

A. Importuj
B. Eksportuj
C. Załaduj gałąź rejestru
D. Skopiuj nazwę klucza
Odpowiedź 'Eksportuj' jest poprawna, ponieważ jest to funkcja w edytorze rejestru systemowego (regedit), która pozwala na utworzenie kopii zapasowej konkretnego klucza rejestru lub całej gałęzi rejestru. Proces eksportowania polega na zapisaniu wybranego klucza do pliku z rozszerzeniem .reg, co jest zgodne z dobrymi praktykami zarządzania systemem, pozwalając na łatwe przywrócenie ustawień rejestru w razie potrzeby. Aby wykonać eksport, najpierw należy zaznaczyć odpowiedni klucz lub gałąź, następnie wybiera się opcję 'Eksportuj' z menu 'Plik'. Po zapisaniu pliku można go otworzyć w dowolnym edytorze tekstowym, co ułatwia przeglądanie czy też edytowanie jego zawartości przed ewentualnym importem. Taki sposób tworzenia kopii zapasowej jest szczególnie przydatny przed wprowadzeniem istotnych zmian w rejestrze, co pozwala na minimalizację ryzyka uszkodzenia systemu. Warto również pamiętać, aby regularnie tworzyć kopie zapasowe rejestru, co jest standardem w dobrych praktykach administracji systemów.

Pytanie 12

Według normy PN-EN 50174 maksymalna całkowita długość kabla połączeniowego między punktem abonenckim a komputerem oraz kabla krosowniczego A+C) wynosi

Ilustracja do pytania
A. 3 m
B. 10 m
C. 6 m
D. 5 m
Zgodnie z normą PN-EN 50174 dopuszczalna łączna długość kabla połączeniowego pomiędzy punktem abonenckim a komputerem oraz kabla krosowniczego wynosi 10 m. Wynika to z optymalizacji parametrów transmisyjnych sieci, takich jak tłumienie i opóźnienie sygnału. Dłuższe kable mogą prowadzić do pogorszenia jakości sygnału, co wpływa na szybkość i stabilność połączenia. W praktyce oznacza to, że projektując sieci komputerowe, należy starannie planować układ okablowania, aby zmieścić się w tych ograniczeniach. Dzięki temu sieć działa zgodnie z oczekiwaniami i normami branżowymi. Standard PN-EN 50174 jest często stosowany w projektach infrastruktury IT, wspierając inżynierów w tworzeniu niezawodnych i wydajnych systemów. Utrzymanie tych długości kabli zapewnia zgodność z wymaganiami technicznymi i wpływa na poprawę ogólnej wydajności sieci. W związku z tym przestrzeganie tych norm jest nie tylko zalecane, ale wręcz konieczne dla zapewnienia sprawnego funkcjonowania infrastruktury sieciowej.

Pytanie 13

Jaki protokół jest stosowany wyłącznie w sieciach lokalnych, gdzie działają komputery z systemami operacyjnymi firmy Microsoft?

A. AppleTalk
B. IPX/SPX
C. TCP/IP
D. NetBEUI
TCP/IP to rodzina protokołów komunikacyjnych, która jest standardem de facto dla komunikacji w sieciach komputerowych na całym świecie. Choć TCP/IP jest stosowany w sieciach lokalnych, jego zastosowanie wykracza daleko poza środowiska Microsoftu, obejmując również systemy operacyjne innych producentów, takie jak Linux czy macOS. Może to prowadzić do błędnych wniosków, iż TCP/IP mogłoby być używane wyłącznie w kontekście systemów Microsoft, co jest nieprawdziwe, gdyż jest on uniwersalnym rozwiązaniem do komunikacji między różnorodnymi urządzeniami w różnych środowiskach. IPX/SPX jest protokołem stworzonym przez firmę Novell, typowo używanym w sieciach NetWare, i podobnie jak TCP/IP, nie jest ograniczony do systemów operacyjnych Microsoft. AppleTalk to protokół stworzony specjalnie dla komputerów Apple, również nie mający związku z Microsoft. Każdy z tych protokołów ma swoje unikalne zastosowania i funkcje, które czynią je mniej odpowiednimi dla ograniczonego środowiska Windows. Uznawanie ich za jedyne opcje dla sieci lokalnych z systemami Microsoft prowadzi do nieporozumień dotyczących architektury sieci oraz wyboru odpowiednich protokołów w zależności od wymagań użytkowników. Kluczowe jest rozumienie specyfiki i zastosowań różnych protokołów oraz ich miejsca w strukturze sieciowej.

Pytanie 14

Który z wymienionych adresów należy do klasy C?

A. 125.9.3.234
B. 176.18.5.26
C. 154.0.12.50
D. 196.74.6.29
Adres klasy C to adresy IP, które w głównym zakresie mają pierwszą oktet w przedziale od 192 do 223. Adres 196.74.6.29 spełnia ten warunek, ponieważ jego pierwsza oktet, 196, mieści się w tym przedziale. Adresy klasy C są powszechnie stosowane w mniejszych sieciach, gdzie organizacje potrzebują od 256 do 65 536 adresów IP do przypisania do swoich urządzeń. Dzięki podziałowi na podsieci, administratorzy mogą efektywnie zarządzać ruchem w sieci oraz zwiększać bezpieczeństwo poprzez ograniczenie komunikacji między różnymi podsieciami. Praktycznym zastosowaniem adresów klasy C jest np. przypisanie adresów IP dla małych biur, gdzie liczba urządzeń nie przekracza 254. Oprócz tego, zastosowanie CIDR (Classless Inter-Domain Routing) pozwala na bardziej elastyczne zarządzanie adresami IP, co jest zgodne z dobrymi praktykami w zakresie administracji sieci.

Pytanie 15

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 1 modułu 16 GB.
C. 1 modułu 32 GB.
D. 2 modułów, każdy po 8 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 16

Oblicz koszt brutto materiałów niezbędnych do połączenia w sieć w topologii gwiazdy 3 komputerów wyposażonych w karty sieciowe, wykorzystując przewody o długości 2m. Ceny materiałów podano w tabeli.

Nazwa elementuCena jednostkowa brutto
przełącznik80 zł
wtyk RJ-451 zł
przewód typu "skrętka"1 zł za 1 metr
A. 92 zł
B. 249 zł
C. 89 zł
D. 252 zł
Aby obliczyć koszt brutto materiałów do połączenia trzech komputerów w topologii gwiazdy, należy uwzględnić wszystkie wymagane elementy. W topologii gwiazdy każdy komputer łączy się z centralnym przełącznikiem za pomocą przewodów. W tym przypadku korzystamy z przewodów o długości 2 metrów. Mamy więc trzy komputery, co daje nam łącznie trzy przewody o długości 2 metrów każdy. Koszt przewodu wynosi 1 zł za metr, co oznacza, że koszt trzech przewodów o długości 2 metrów wyniesie 3 x 2 m x 1 zł = 6 zł. Dodatkowo potrzebujemy trzech wtyków RJ-45, z których każdy kosztuje 1 zł, co łącznie kosztuje 3 zł. Na końcu musimy uwzględnić koszt przełącznika, który wynosi 80 zł. Sumując wszystkie koszty: 80 zł (przełącznik) + 6 zł (przewody) + 3 zł (wtyki) = 89 zł. Warto jednak zwrócić uwagę, że w pytaniu hetuje o koszt brutto, co może obejmować dodatkowe opłaty lub podatki, które są wliczone w cenę brutto. Jednak, jeśli przyjmiemy, że wszystkie podane ceny już uwzględniają VAT, to całkowity koszt wynosi 89 zł, a nie 92 zł. Koszt łączny to 89 zł, co czyni tę odpowiedź poprawną.

Pytanie 17

Jaki rodzaj fizycznej topologii w sieciach komputerowych jest pokazany na ilustracji?

Ilustracja do pytania
A. Siatki
B. Podwójnego pierścienia
C. Magistrali
D. Gwiazdy
Topologia siatki w sieciach komputerowych charakteryzuje się tym że każdy węzeł jest połączony bezpośrednio z innymi węzłami co zapewnia wysoką niezawodność i odporność na awarie. W przypadku awarii jednego z połączeń transmisja danych może być realizowana alternatywną drogą co minimalizuje ryzyko utraty danych. Dzięki temu topologia siatki jest wykorzystywana w krytycznych aplikacjach takich jak centra danych czy sieci wojskowe gdzie niezakłócona komunikacja jest priorytetem. Standaryzacja takich sieci opiera się na protokołach dynamicznego routingu które pozwalają efektywnie zarządzać ruchem w sieci i optymalizować trasę danych. Mimo że wdrożenie takiej topologii jest kosztowne ze względu na dużą ilość połączeń to w dłuższej perspektywie zapewnia stabilność i elastyczność sieci. Współczesne technologie jak MPLS (Multiprotocol Label Switching) czerpią z zasad topologii siatki oferując podobne korzyści w kontekście zarządzania ruchem i niezawodności. Zrozumienie tych zalet jest kluczowe dla inżynierów sieci w projektowaniu skalowalnych i bezpiecznych rozwiązań.

Pytanie 18

Profil użytkownika systemu Windows, który można wykorzystać do logowania na dowolnym komputerze w sieci, przechowywany na serwerze i mogący być edytowany przez użytkownika, to profil

A. tymczasowy
B. lokalny
C. mobilny
D. obowiązkowy
Wybór niepoprawnych odpowiedzi wynika z pomylenia różnych typów profili użytkownika w systemie Windows. Profil tymczasowy jest tworzony podczas sesji, ale po jej zakończeniu nie zachowuje żadnych zmian ani danych użytkownika. To oznacza, że po zakończeniu pracy na komputerze, wszystkie ustawienia i pliki zostaną utracone, co czyni go niewłaściwym wyborem dla osób potrzebujących dostępu do swoich informacji na różnych urządzeniach. Z kolei profil lokalny jest przypisany do konkretnego komputera i nie może być używany na innych urządzeniach, co ogranicza mobilność użytkownika. Użytkownik może logować się tylko na tym samym komputerze, co również stoi w sprzeczności z ideą profilu mobilnego. Natomiast profil obowiązkowy, choć może być przechowywany na serwerze, ma na celu zapewnienie jednolitości środowiska użytkownika poprzez ograniczenie jego możliwości modyfikacji. Użytkownicy z tym profilem nie mogą dokonywać zmian w swoich ustawieniach, co czyni go nieodpowiednim dla osób, które chcą dostosować swoje środowisko robocze. Typowe błędy myślowe, które prowadzą do niepoprawnych wyborów, to mylenie funkcji i możliwości, jakie oferują poszczególne typy profili. Zrozumienie różnic między tymi profilami jest kluczowe dla efektywnego korzystania z systemów operacyjnych oraz zarządzania użytkownikami w organizacji.

Pytanie 19

Adres fizyczny karty sieciowej AC-72-89-17-6E-B2 zapisany jest w formacie

A. szesnastkowej
B. dziesiętnej
C. oktalnej
D. binarnej
Adres MAC (Media Access Control) przedstawiony jako AC-72-89-17-6E-B2 zapisany jest w systemie szesnastkowym. W tym systemie każda para znaków reprezentuje 8 bitów, co odpowiada jednemu bajtowi. Zatem w przypadku adresu MAC, który składa się z 6 par, otrzymujemy łącznie 48 bitów. Adresy MAC są używane do identyfikacji urządzeń w sieciach lokalnych i są kluczowe dla funkcjonowania protokołów komunikacyjnych, takich jak Ethernet. Z perspektywy praktycznej, urządzenia sieciowe, takie jak routery czy przełączniki, korzystają z adresów MAC, aby kierować ruch do odpowiednich odbiorców w sieci. Standard IEEE 802 definiuje format adresów MAC, a ich poprawne wykorzystanie jest niezbędne dla zapewnienia efektywnej i bezpiecznej komunikacji w sieciach komputerowych. W kontekście programowania, operacje na adresach MAC, takie jak filtrowanie czy monitorowanie ruchu, są powszechnie stosowane w aplikacjach sieciowych i narzędziach do analizy ruchu. Zrozumienie formatu szesnastkowego jest zatem kluczowe dla specjalistów zajmujących się sieciami komputerowymi.

Pytanie 20

Uruchomienie systemu Windows jest niemożliwe z powodu awarii oprogramowania. W celu przeprowadzenia jak najmniej inwazyjnej diagnostyki i usunięcia tej usterki, zaleca się

A. przeprowadzenie wymiany komponentów
B. uruchomienie komputera w trybie awaryjnym
C. przeprowadzenie diagnostyki komponentów
D. wykonanie reinstalacji systemu Windows
Uruchomienie komputera w trybie awaryjnym jest jedną z najskuteczniejszych metod diagnozowania problemów z systemem operacyjnym Windows, zwłaszcza w sytuacjach, gdy system nie uruchamia się poprawnie z powodu usterki programowej. Tryb awaryjny włącza system Windows w minimalnej konfiguracji, co oznacza, że załadowane są jedynie podstawowe sterowniki i usługi. Dzięki temu można zidentyfikować, czy problem wynika z konfliktów z oprogramowaniem lub niewłaściwych ustawień. Przykładowo, jeśli nowo zainstalowane oprogramowanie lub aktualizacja systemu spowodowały awarię, uruchomienie w trybie awaryjnym umożliwi odinstalowanie takich komponentów bez ryzyka uszkodzenia systemu. Dodatkowo, w tym trybie można wykonać skanowanie systemu w poszukiwaniu wirusów lub złośliwego oprogramowania, które mogłyby być przyczyną problemów. Warto również pamiętać, że standardy diagnostyki informatycznej sugerują stosowanie trybu awaryjnego jako pierwszego kroku w przypadku awarii, co czyni go istotnym narzędziem w arsenale każdego technika komputerowego.

Pytanie 21

Wirusy polimorficzne mają jedną charakterystyczną cechę, którą jest

A. zarażanie wszystkich komputerów w sieci lokalnej
B. atak na rekord startowy dysku
C. zdolność do modyfikowania swojego kodu
D. atak na tablicę FAT
Wirusy polimorficzne charakteryzują się zdolnością do modyfikowania swojego kodu, co pozwala im unikać wykrycia przez oprogramowanie antywirusowe. Ta cecha jest szczególnie istotna w kontekście cyberbezpieczeństwa, ponieważ wirusy te mogą przyjmować różne formy, co utrudnia ich identyfikację przez programy skanujące. Przykładem może być wirus, który w trakcie replikacji zmienia fragmenty swojego kodu, przez co każdy zainfekowany plik może wyglądać inaczej. Standardy branżowe, takie jak ISO/IEC 27001 dotyczące systemów zarządzania bezpieczeństwem informacji, podkreślają znaczenie ciągłego monitorowania zagrożeń oraz aktualizacji zabezpieczeń w odpowiedzi na zmieniające się techniki ataków. W praktyce, stosowanie oprogramowania do analizy i wykrywania polimorficznych wirusów wymaga zaawansowanych algorytmów heurystycznych i analizy zachowania, co pozwala na skuteczniejsze zabezpieczenie systemów przed nieznanymi zagrożeniami. W obliczu rosnącej liczby cyberataków, wiedza na temat wirusów polimorficznych jest kluczowa dla specjalistów zajmujących się bezpieczeństwem IT.

Pytanie 22

Który port stosowany jest przez protokół FTP (File Transfer Protocol) do przesyłania danych?

A. 53
B. 20
C. 69
D. 25
Port 20 jest kluczowym portem używanym przez protokół FTP (File Transfer Protocol) do transmisji danych. FTP operuje w trybie klient-serwer i wykorzystuje dwa porty: port 21 do nawiązywania połączenia oraz port 20 do przesyłania danych. Gdy klient FTP wysyła żądanie pobrania lub wysłania pliku, dane są transmitowane przez port 20. Zastosowanie tego portu jest zgodne z normami IETF i RFC 959, które definiują specyfikację FTP. Przykładowo, w sytuacji, gdy użytkownik chce przesłać plik na serwer FTP, połączenie kontrolne nawiązywane jest na porcie 21, a dane przesyłane są na porcie 20. W praktyce, w kontekście automatyzacji procesów, port 20 jest także wykorzystywany w skryptach i aplikacjach, które wymagają transferu plików, co czyni go niezbędnym elementem infrastruktury sieciowej. Wiedza o tym, jak działa FTP i jego porty, jest niezbędna dla administratorów systemów oraz specjalistów ds. IT, którzy zajmują się zarządzaniem serwerami oraz transferem danych.

Pytanie 23

Do zainstalowania serwera proxy w systemie Linux, konieczne jest zainstalowanie aplikacji

A. Postfix
B. Samba
C. Squid
D. Webmin
Samba to oprogramowanie, które umożliwia interakcję między systemami Windows a Linux, głównie w kontekście udostępniania plików i drukarek. Nie jest to jednak serwer proxy, więc nie może spełniać funkcji związanych z zarządzaniem ruchem internetowym. Webmin to narzędzie administracyjne, które pozwala na zarządzanie systemem Linux poprzez interfejs webowy. Chociaż ułatwia wiele zadań administracyjnych, nie jest projektowane jako serwer proxy i nie służy do kierowania ruchu internetowego. Postfix to serwer pocztowy, który obsługuje wysyłanie i odbieranie wiadomości e-mail, co również nie odnosi się do funkcji proxy. Użytkownicy mogą pomylić te programy z serwerem proxy, ponieważ każdy z nich ma specyficzne zastosowanie w zarządzaniu systemem lub ruchem, ale kluczowe różnice w ich funkcjonalności są istotne. Wybór niewłaściwego oprogramowania może prowadzić do nieefektywnego zarządzania ruchem sieciowym, co z kolei może skutkować wydłużonym czasem ładowania stron oraz zwiększonym zużyciem pasma. Dlatego istotne jest, aby dobrać odpowiednie narzędzia do konkretnych zadań, co w przypadku zarządzania ruchem proxy powinno koncentrować się na rozwiązaniach takich jak Squid.

Pytanie 24

Przedstawiony schemat sieci kampusowej zawiera

Ilustracja do pytania
A. 2 budynkowe punkty dystrybucyjne.
B. 6 budynkowych punktów dystrybucyjnych w 2 różnych obszarach.
C. 6 pośrednich punktów dystrybucyjnych.
D. 2 piętrowe punkty dystrybucyjne z 6 gniazdami abonenckimi.
Poprawnie wskazana odpowiedź „2 budynkowe punkty dystrybucyjne” wynika bezpośrednio z analizy schematu. Na rysunku widać jeden węzeł oznaczony jako CD (Campus Distributor – dystrybutor kampusowy, czasem nazywany też centralnym punktem dystrybucyjnym) oraz dokładnie dwa węzły oznaczone jako BD (Building Distributor – budynkowy punkt dystrybucyjny). Z każdego BD wychodzą połączenia do FD (Floor Distributor – piętrowy punkt dystrybucyjny). To jest klasyczny, trójpoziomowy model strukturalnego okablowania sieci kampusowej zgodny z normami ISO/IEC 11801 oraz EN 50173: poziom kampusowy (CD), poziom budynkowy (BD) i poziom piętrowy/obszarowy (FD). Moim zdaniem warto zwrócić uwagę, że w praktycznych projektach sieci w dużych szkołach, biurowcach czy szpitalach właśnie takie nazewnictwo często pojawia się w dokumentacji projektowej i w opisach szaf rackowych. BD to zazwyczaj główna szafa dystrybucyjna w danym budynku, gdzie zbiegają się pionowe kable z CD oraz kable do pięter. W dobrze zaprojektowanej sieci każdy budynek kampusu ma co najmniej jeden BD, czasem więcej, jeśli obiekt jest rozległy. Dzięki temu łatwiej zarządzać okablowaniem, planować redundancję i segmentację sieci (np. VLAN-y, podział na podsieci IP dla każdego budynku). W praktyce technik sieciowy, który przychodzi na obiekt, od razu pyta: gdzie jest CD i gdzie są BD, bo od tego zaczyna się diagnostyka i planowanie rozbudowy. Ten schemat dokładnie to pokazuje – jeden CD i dwa BD, żadnych dodatkowych „ukrytych” budynków, więc poprawna odpowiedź to właśnie 2 budynkowe punkty dystrybucyjne.

Pytanie 25

Jak nazywa się seria procesorów produkowanych przez firmę Intel, charakteryzująca się małymi wymiarami oraz niskim zużyciem energii, zaprojektowana z myślą o urządzeniach mobilnych?

A. Alpha
B. Radeon
C. Atom
D. Athlon
Rodzina procesorów Intel Atom została zaprojektowana z myślą o zastosowaniach mobilnych, co czyni je idealnym rozwiązaniem dla urządzeń takich jak netbooki, tablety czy inteligentne urządzenia IoT. Procesory te charakteryzują się niewielkimi rozmiarami oraz niskim poborem energii, co sprawia, że są szczególnie przydatne w sytuacjach, gdzie długotrwała praca na baterii jest kluczowa. W praktyce, procesory Atom są wykorzystywane w urządzeniach takich jak ultrabooki, co pozwala na efektywne zarządzanie energią oraz zapewnia wystarczającą moc obliczeniową do codziennych zadań, takich jak przeglądanie internetu czy edytowanie dokumentów. Dzięki zastosowaniu architektury x86, procesory Atom są w stanie obsługiwać szereg aplikacji i systemów operacyjnych, co czyni je wszechstronnym wyborem dla producentów sprzętu. Warto również zauważyć, że procesory Atom są zgodne z najnowszymi standardami bezpieczeństwa i wydajności, co wspiera ich zastosowanie w nowoczesnych rozwiązaniach technologicznych.

Pytanie 26

W systemie Linux polecenie touch jest używane do

A. stworzenia pliku lub zmiany daty edycji bądź daty ostatniego dostępu
B. znalezienia określonego wzorca w treści pliku
C. policzenia liczby linii, słów oraz znaków w pliku
D. przeniesienia lub zmiany nazwy pliku
Polecenie 'touch' w systemie Linux jest jednym z fundamentalnych narzędzi używanych do zarządzania plikami. Jego podstawową funkcją jest tworzenie nowych plików, a także aktualizowanie daty modyfikacji i daty ostatniego dostępu do istniejących plików. Kiedy wywołujemy 'touch', jeśli plik o podanej nazwie nie istnieje, zostaje on automatycznie utworzony jako pusty plik. To jest niezwykle przydatne w wielu scenariuszach, na przykład w skryptach automatyzacji, gdzie potrzebujemy szybko przygotować plik do dalszych operacji. Dodatkowo, zmiana daty modyfikacji pliku za pomocą 'touch' jest kluczowa w kontekście wersjonowania plików, gdyż pozwala na manipulowanie metadanymi plików w sposób, który może być zgodny z wymaganiami procesu. Dobrą praktyką jest również używanie opcji takich jak '-a' i '-m', które pozwalają odpowiednio na aktualizację daty ostatniego dostępu i daty modyfikacji bez zmiany pozostałych atrybutów. Warto zwrócić uwagę, że standardowe operacje na plikach, takie jak te wykonywane przez 'touch', są integralną częścią zarządzania systemem plików w Linuxie, co czyni zrozumienie ich działania kluczowym dla każdego administratora systemu.

Pytanie 27

Jakiego rodzaju fizycznej topologii sieci komputerowej dotyczy przedstawiony obrazek?

Ilustracja do pytania
A. Połączenia punkt-punkt
B. Wzór gwiazdy
C. Pełnej siatki
D. Częściowej siatki
Topologia pełnej siatki to aranżacja sieci, w której każdy węzeł jest bezpośrednio połączony z każdym innym węzłem. Taka struktura zapewnia wysoką redundancję i niezawodność, ponieważ awaria jednego połączenia nie wpływa na inne, a dane mogą być przesyłane różnymi ścieżkami. Jest to idealne rozwiązanie w sytuacjach, gdzie niezawodność i dostępność są kluczowe, na przykład w systemach finansowych czy komunikacji wojskowej. Koszty wdrożenia i utrzymania są jednak wysokie ze względu na dużą liczbę połączeń potrzebnych do pełnego pokrycia sieci. W praktyce, pełna siatka jest rzadko stosowana w fizycznej formie, ale jej koncepcja jest wykorzystywana w wirtualnych sieciach komputerowych, w których połączenia są realizowane za pomocą odpowiednich protokołów. Implementacja takiej topologii zgodna jest z dobrymi praktykami przemysłowymi w zakresie zapewnienia ciągłości działania i bezpieczeństwa transmisji danych.

Pytanie 28

Do utworzenia skompresowanego archiwum danych w systemie Linux można użyć polecenia

A. tar -zcvf
B. tar -xvf
C. tar -tvf
D. tar -jxvf
Wielu użytkowników tar myśli, że każda kombinacja opcji pozwoli osiągnąć upragniony efekt, czyli utworzenie skompresowanego archiwum. Jednak różnice są znaczące. Wariant z -jxvf wykorzystuje kompresję bzip2 (opcja -j), która jest nieco wydajniejsza kompresyjnie od gzipa, ale działa wolniej. W praktyce jednak, gdy oczekuje się domyślnej, szybkiej kompresji i szerokiej kompatybilności, branża poleca raczej gzip (-z), bo pliki .tar.gz są rozpoznawane w każdej dystrybucji Linuksa, a nawet na systemach Windows przez narzędzia takie jak 7-Zip. Bzip2 jest dobry przy archiwizacji większych danych, gdzie liczy się nieco lepszy stopień kompresji, ale na co dzień -z jest pewniejszy. Jeśli ktoś wybrał -tvf, to warto wiedzieć, że ta opcja wcale nie tworzy archiwum, tylko je przegląda (listuje zawartość). To często używany skrót do szybkiego podejrzenia, co siedzi w archiwum, ale nie do kompresowania. Z kolei -xvf wykorzystuje się do rozpakowywania archiwum – to bardzo częsty błąd początkujących: próbują użyć tej opcji do tworzenia archiwum, a dostają komunikat o błędzie lub efekt odwrotny do zamierzonego. Faktycznie, tar jest trochę specyficzny, bo te flagi są krótkie i łatwo je pomylić. W mojej opinii najwięcej problemów bierze się stąd, że ludzie zapamiętują tylko sekwencję liter, a nie faktyczne znaczenie opcji. Zawsze warto sięgać do man tar, żeby upewnić się, która opcja co robi. W środowisku zawodowym, niepoprawny wybór opcji może skutkować błędną automatyzacją backupów czy nawet utratą danych, więc dobrze kształtować nawyk świadomego korzystania z tych poleceń. Tar to potężne narzędzie, ale trzeba wiedzieć dokładnie, co się robi, bo potem konsekwencje mogą być bolesne.

Pytanie 29

Jaką kwotę trzeba będzie zapłacić za wymianę karty graficznej w komputerze, jeśli koszt karty wynosi 250 zł, czas wymiany to 80 minut, a cena za każdą rozpoczętą roboczogodzinę to 50 zł?

A. 250 zł
B. 300 zł
C. 400 zł
D. 350 zł
Odpowiedź 350 zł jest poprawna, ponieważ obejmuje zarówno koszt samej karty graficznej, jak i opłatę za robociznę. Karta graficzna kosztuje 250 zł. Wymiana karty zajmuje 80 minut, co w przeliczeniu na roboczogodziny wynosi 1,33 godziny (80 minut / 60 minut). Koszt robocizny wynosi 50 zł za każdą rozpoczętą roboczogodzinę, co oznacza, że za 1,33 godziny pracy serwisu zapłacimy 100 zł (50 zł x 2, ponieważ za 80 minut liczy się pełna godzina plus rozpoczęta druga godzina). Sumując koszt karty i robocizny, otrzymujemy 250 zł + 100 zł = 350 zł. To podejście do wyceny usług serwisowych jest zgodne z powszechnymi praktykami w branży, które zalecają uwzględnienie zarówno kosztów materiałów, jak i kosztów pracy przy kalkulacji całkowitych wydatków na serwis. Przykładem zastosowania tej wiedzy może być sytuacja, gdy przedsiębiorstwo planuje budżet na serwis komputerowy, gdzie precyzyjne oszacowanie kosztów jest kluczowe dla efektywnego zarządzania finansami.

Pytanie 30

Powszechnie stosowana forma oprogramowania, która funkcjonuje na zasadzie "najpierw wypróbuj, a potem kup", to

A. Software
B. Shareware
C. Freeware
D. OEM
Wybór jakiejkolwiek z pozostałych opcji prowadzi do mylnych wniosków o charakterze dystrybucji oprogramowania. Odpowiedź "Software" jest zbyt ogólna, ponieważ odnosi się do wszelkiego rodzaju programów komputerowych, niezależnie od ich modelu licencjonowania. Nie precyzuje, czy dane oprogramowanie jest dostępne na zasadzie próbnej, czy wymaga zakupu, co wprowadza w błąd. "OEM" (Original Equipment Manufacturer) to model, w którym oprogramowanie jest dostarczane z nowymi urządzeniami, zazwyczaj w niższej cenie, ale nie pozwala na próbne korzystanie przed zakupem. Oprogramowanie OEM jest ograniczone w zakresie przenoszenia licencji na inne urządzenia, co czyni go innym od shareware. Z kolei "Freeware" odnosi się do programów, które są dostępne bezpłatnie i bez ograniczeń, co nie zgadza się z zasadą „najpierw wypróbuj, a potem kup”. Freeware nie wymaga żadnych opłat, a jego użytkownicy mogą korzystać z pełnej wersji bez konieczności zakupu. Typowe błędy myślowe prowadzące do takich wniosków to zbytnie uproszczenie pojęcia dystrybucji oprogramowania oraz brak zrozumienia różnic między różnymi modelami licencjonowania. W obliczu różnorodności opcji, kluczowe jest zrozumienie, że każdy model ma swoje specyfikacje i zastosowania, co wpływa na wybór odpowiedniego oprogramowania w codziennym użytkowaniu.

Pytanie 31

Na rysunku znajduje się graficzny symbol

Ilustracja do pytania
A. punktu dostępowego
B. przełącznika
C. mostu
D. rutera
Symbol przełącznika w sieciach komputerowych jest powszechnie rozpoznawany jako prostokąt z kilkoma strzałkami biegnącymi równolegle. Przełącznik, zwany także switch, jest kluczowym komponentem w architekturze sieci komputerowej, który umożliwia komunikację między różnymi urządzeniami w tej samej sieci lokalnej. Działa na drugim poziomie modelu OSI, czyli warstwie łącza danych, co oznacza, że przełącza dane na podstawie adresów MAC urządzeń. Przełączniki przyczyniają się do optymalizacji przepływu danych, zmniejszając kolizje w sieci i umożliwiając jednoczesną komunikację wielu par urządzeń. Są szczególnie przydatne w sieciach firmowych, gdzie wymagane jest niezawodne i szybkie przesyłanie danych. Przełączniki zarządzalne oferują dodatkowe funkcje, takie jak monitoring ruchu, konfiguracja VLAN-ów oraz zarządzanie jakością usług QoS. W branży IT przełączniki są elementarną częścią infrastruktury sieciowej, a ich poprawne rozpoznawanie i konfiguracja są kluczowe dla specjalistów zajmujących się administrowaniem sieciami.

Pytanie 32

Aby poprawić bezpieczeństwo prywatnych danych sesji na stronie internetowej, zaleca się dezaktywację w ustawieniach przeglądarki

A. funkcji zapisywania haseł
B. blokady okienek wyskakujących
C. informowania o wygasłych certyfikatach
D. blokady działania skryptów
Blokowanie skryptów, informowanie o wygasłych certyfikatach i blokowanie wyskakujących okienek to rzeczywiście ważne rzeczy w zabezpieczeniach przeglądarek, ale tak naprawdę nie mają bezpośredniego wpływu na ochronę haseł. Blokowanie skryptów może podnieść bezpieczeństwo, ale czasami też ogranicza to, co strony internetowe mogą zrobić, bo wiele z nich naprawdę potrzebuje JavaScript, żeby działać prawidłowo. Jak się wyłączy skrypty, to witryny mogą działać nie tak, jak powinny. Powiadomienia o certyfikatach też są ważne, ale bardziej dotyczą samego połączenia, a nie danych osobowych. Certyfikaty SSL/TLS są po to, żeby szyfrować komunikację, co chroni nasze dane przy przesyłaniu. No i blokowanie wyskakujących okienek pomoże się ustrzec przed irytującymi reklamami, ale tak naprawdę niewiele zmienia w kontekście bezpieczeństwa haseł czy danych, które są zagrożone głównie wtedy, jak je przechowujemy na urządzeniu. Często ludzie myślą, że te funkcje wystarczą, żeby ich dane były bezpieczne, a to prowadzi do takiej lekkomyślności, która otwiera drogę do ataków. Lepiej by było podejść do zarządzania bezpieczeństwem danych w sposób bardziej kompleksowy.

Pytanie 33

Aby system operacyjny mógł szybciej uzyskiwać dostęp do plików zapisanych na dysku twardym, konieczne jest wykonanie

A. partycjonowania dysku
B. szyfrowania dysku
C. defragmentacji dysku
D. fragmentacji dysku
Szyfrowanie dysku to proces zabezpieczania danych poprzez ich kodowanie, co nie ma bezpośredniego wpływu na szybkość dostępu do plików. Zastosowanie szyfrowania przyczynia się do ochrony wrażliwych informacji, jednakże nie poprawia efektywności operacji odczytu i zapisu, co jest kluczowe w kontekście wydajności systemu. Fragmentacja dysku natomiast odnosi się do rozproszenia danych, które występuje w wyniku częstego dodawania i usuwania plików; jest to zjawisko negatywne i to właśnie defragmentacja ma na celu jego usunięcie. Partycjonowanie dysku służy do podziału przestrzeni dyskowej na odrębne jednostki, co może być użyteczne w zarządzaniu danymi, ale samo w sobie nie wpływa na szybkość dostępu do plików. Typowym błędem jest mylenie fragmentacji z innymi operacjami, co prowadzi do nieporozumień na temat ich funkcji. Właściwe zrozumienie tych pojęć jest kluczowe dla efektywnego zarządzania systemem operacyjnym i jego wydajnością, a ignorowanie ich może prowadzić do znacznych spadków prędkości oraz nieefektywności w operacjach z danymi.

Pytanie 34

Jaką usługę należy zainstalować na systemie Linux, aby umożliwić bezpieczny zdalny dostęp?

A. ssh
B. tftp
C. rlogin
D. telnet
Wybór usług do zdalnego dostępu na serwerze Linux wymaga zrozumienia różnic pomiędzy protokołami oraz ich bezpieczeństwa. TFTP (Trivial File Transfer Protocol) jest protokołem przesyłania plików, który nie oferuje żadnego szyfrowania ani zabezpieczeń, co czyni go nieodpowiednim do zastosowań wymagających bezpiecznego dostępu. Telnet to kolejny protokół, który, mimo że umożliwia zdalne logowanie, przesyła dane w postaci niezaszyfrowanej. To oznacza, że wszelkie informacje, w tym hasła, mogą być podsłuchiwane przez osoby trzecie, co stawia pod znakiem zapytania bezpieczeństwo takiej komunikacji. Rlogin, podobnie jak Telnet, również nie zapewnia odpowiednich środków ochrony i nie jest już powszechnie stosowany ze względu na swoje wady związane z bezpieczeństwem. Wybierając jakiekolwiek rozwiązanie do zdalnego dostępu, należy kierować się standardami branżowymi, które coraz bardziej preferują szyfrowane połączenia. Używanie protokołów takich jak SSH, które zapewniają szyfrowanie danych i uwierzytelnianie użytkowników, jest nie tylko zalecane, ale wręcz konieczne w kontekście ochrony danych i zasobów serwerowych. Wybór nieodpowiednich protokołów do komunikacji zdalnej prowadzi do poważnych luk w bezpieczeństwie, co może skutkować nieautoryzowanym dostępem oraz narażeniem poufnych informacji.

Pytanie 35

Podczas wyboru zasilacza do komputera kluczowe znaczenie

A. Maję specyfikację zainstalowanego systemu operacyjnego
B. Ma współczynnik kształtu obudowy
C. Ma rodzaj procesora
D. Ma łączna moc wszystkich komponentów komputera
Zgadza się, poprawna odpowiedź to 'Ma łączna moc wszystkich podzespołów komputerowych'. Wiesz, zasilacz w komputerze musi dawać taką moc, żeby wszystko działało jak trzeba. Każdy element, czyli procesor, karta graficzna, RAM i dyski twarde, potrzebują swojej energii, więc musimy to wszystko zsumować, żeby wiedzieć, jak mocny zasilacz musimy kupić. Rekomenduję wybierać zasilacz z zapasem, tak z 20-30% więcej niż całkowite zapotrzebowanie. Na przykład, jak wszystkie komponenty łącznie biorą 400 W, to lepiej wziąć zasilacz na 500-600 W. A jeśli do tego weźmiesz zasilacz z certyfikatem 80 Plus, to jeszcze zaoszczędzisz na rachunkach za prąd, bo mniej energii się zmarnuje. Czyli dobrze dobrany zasilacz to naprawdę kluczowa sprawa dla stabilności i długiego życia komputera.

Pytanie 36

Który z poniższych interfejsów powinien być wybrany do podłączenia dysku SSD do płyty głównej komputera stacjonarnego, aby uzyskać najwyższą szybkość zapisu oraz odczytu danych?

A. SATA Express
B. ATA
C. mSATA
D. PCI Express
Wybór interfejsu PCI Express do podłączenia dysku SSD jest najlepszym rozwiązaniem, gdyż oferuje on najwyższą prędkość transferu danych w porównaniu do innych interfejsów. Standard PCI Express (PCIe) pozwala na wielokanałowy transfer danych, co oznacza, że może obsługiwać wiele linii danych jednocześnie, co znacząco zwiększa przepustowość. W przypadku SSD, które potrafią osiągać prędkości rzędu kilku gigabajtów na sekundę, interfejs PCIe 3.0 czy 4.0 staje się kluczowy dla uzyskania optymalnej wydajności. Przykładowo, dyski NVMe (Non-Volatile Memory Express) korzystające z PCIe mogą z łatwością przewyższać prędkości SATA, które są ograniczone do około 600 MB/s. W praktyce, wybór PCIe dla SSD jest standardem w nowoczesnych komputerach stacjonarnych i laptopach, co zapewnia użytkownikom nie tylko lepszą wydajność, ale także przyszłościowe możliwości rozbudowy i aktualizacji systemu. Firmy zajmujące się produkcją komputerów oraz komponentów zawsze rekomendują korzystanie z interfejsu PCIe dla uzyskania maksymalnej wydajności, co potwierdzają liczne testy i analizy rynkowe.

Pytanie 37

Atak informatyczny, który polega na wyłudzaniu wrażliwych danych osobowych poprzez udawanie zaufanej osoby lub instytucji, nazywamy

A. spam
B. spoofing
C. phishing
D. backscatter
Phishing to technika ataku komputerowego, w której cyberprzestępcy podszywają się pod zaufane podmioty, aby wyłudzić poufne informacje, takie jak loginy, hasła czy dane osobowe. Przykładem phishingu są fałszywe e-maile, które imituje komunikację znanej instytucji finansowej, zachęcające użytkowników do kliknięcia w link i wprowadzenia swoich danych na stronie, która wygląda jak oryginalna. W przemyśle IT uznaje się, że edukacja użytkowników na temat rozpoznawania phishingu jest kluczowym elementem zabezpieczeń. Standardy dotyczące zarządzania ryzykiem, takie jak ISO/IEC 27001, podkreślają znaczenie świadomości dotyczącej zagrożeń związanych z phishingiem. Dlatego organizacje powinny regularnie organizować szkolenia dla pracowników i stosować rozwiązania technologiczne, takie jak filtry antyspamowe czy systemy wykrywania oszustw, aby zminimalizować ryzyko. Zrozumienie phishingu ma kluczowe znaczenie w kontekście ochrony danych i zapewnienia bezpieczeństwa informacji w każdej organizacji.

Pytanie 38

Najwyższą prędkość transmisji danych w sieci bezprzewodowej zapewnia standard

A. 802.11n
B. 802.11g
C. 802.11b
D. 802.11a
Standardy 802.11a, 802.11g i 802.11b, mimo że są częścią rodziny Wi-Fi, oferują znacznie niższe prędkości transmisji danych w porównaniu do 802.11n. Standard 802.11a, wprowadzony w 1999 roku, oferuje teoretyczną przepustowość do 54 Mbps, co jest znacznie mniej niż oferowane przez 802.11n. Często mylone z większą wydajnością, może prowadzić do błędnych wniosków, zwłaszcza w kontekście nowoczesnych wymagań dotyczących przepustowości. Z kolei 802.11g, który został wprowadzony w 2003 roku, również osiąga maksymalną prędkość do 54 Mbps, ale operuje na pasmie 2,4 GHz, co czyni go bardziej podatnym na zakłócenia z innych urządzeń. Standard 802.11b, będący jeszcze starszym rozwiązaniem z 1999 roku, osiąga maksymalną prędkość 11 Mbps, co jest zdecydowanie niewystarczające w dzisiejszych czasach, gdy wiele aplikacji wymaga szybkiej i stabilnej transmisji danych. Typowe błędy myślowe związane z wyborem tych standardów często wynikają z nieznajomości ich ograniczeń oraz rzeczywistych potrzeb użytkowników. Bez odpowiedniego zrozumienia różnic między nimi, użytkownicy mogą podejmować decyzje, które nie spełniają ich oczekiwań pod względem wydajności i niezawodności sieci.

Pytanie 39

Przedstawiony na ilustracji symbol oznacza

Ilustracja do pytania
A. ruter bezprzewodowy.
B. przełącznik.
C. koncentrator.
D. punkt dostępowy.
Symbol przedstawiony na ilustracji to klasyczny, podręcznikowy znak rutera bezprzewodowego, bardzo zbliżony do ikon używanych w materiałach Cisco czy w dokumentacji projektowej sieci. Charakterystyczny jest okrągły kształt z trzema strzałkami wskazującymi różne kierunki – to właśnie graficzne odwzorowanie funkcji rutowania, czyli przekazywania pakietów między różnymi sieciami. W wersji bezprzewodowej taki ruter zazwyczaj łączy w sobie kilka funkcji: jest bramą do Internetu (gateway), pełni rolę punktu dostępowego Wi‑Fi (AP), często ma wbudowany przełącznik Ethernet (switch) dla kilku portów LAN, a do tego realizuje NAT, DHCP i podstawowe funkcje firewall. W praktyce, w domu lub małym biurze, gdy mówimy „router Wi‑Fi”, mamy na myśli właśnie takie wielofunkcyjne urządzenie, które zapewnia zarówno łączność przewodową, jak i bezprzewodową. Od strony standardów warto kojarzyć, że część bezprzewodowa opiera się na normach IEEE 802.11 (np. 802.11n/ac/ax), natomiast samo rutowanie pakietów odbywa się na trzeciej warstwie modelu OSI (warstwa sieciowa), z użyciem protokołu IP. Moim zdaniem dobrze jest od początku odróżniać ruter od przełącznika i punktu dostępowego, mimo że w praktyce w jednym pudełku mamy wszystko naraz – na schematach i egzaminach te ikony reprezentują konkretne role w sieci, a nie marketingową nazwę urządzenia z marketu. W dobrych praktykach projektowania sieci przyjmuje się, że ruter wyznacza granicę między sieciami (np. LAN a Internetem), segmentuje ruch i może realizować zaawansowane polityki QoS, filtrowanie pakietów, tunelowanie VPN czy dynamiczne protokoły routingu. Dlatego poprawne rozpoznanie symbolu rutera to podstawa do czytania diagramów sieciowych i rozumienia, którędy faktycznie „płynie” ruch w sieci.

Pytanie 40

W celu zainstalowania serwera proxy w systemie Linux, należy wykorzystać oprogramowanie

A. Samba
B. Squid
C. Webmin
D. Postfix
Wybór programów takich jak Samba, Postfix czy Webmin do zainstalowania serwera proxy w systemie Linux jest błędny, ponieważ każde z tych narzędzi ma zupełnie inne zastosowania. Samba to oprogramowanie, które umożliwia współdzielenie plików oraz drukarek między systemami Windows a Linux. Oferuje możliwość integracji w środowisku Windows, ale nie ma funkcji serwera proxy, które są kluczowe do pośredniczenia w ruchu sieciowym. Postfix to z kolei system pocztowy, który służy do obsługi wiadomości email, pozwalając na zarządzanie przesyłaniem i odbieraniem poczty elektronicznej. Brak funkcji proxy sprawia, że jego zastosowanie w tej roli jest całkowicie nieadekwatne. Webmin to narzędzie do zarządzania różnymi aspektami systemu Linux z interfejsem webowym, które pozwala na administrację serwerem, ale nie pełni funkcji serwera proxy ani nie zapewnia buforowania ani filtrowania ruchu. Typowe błędy myślowe przy wyborze tych programów wynikają z mylenia funkcji i ról, które każde z nich odgrywa w ekosystemie Linux, co często prowadzi do nieefektywności w zarządzaniu infrastrukturą IT.