Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 19 lutego 2026 08:20
  • Data zakończenia: 19 lutego 2026 08:41

Egzamin zdany!

Wynik: 27/40 punktów (67,5%)

Wymagane minimum: 20 punktów (50%)

Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Symbol przedstawiony na ilustracji wskazuje na produkt

Ilustracja do pytania
A. biodegradowalny
B. niebezpieczny
C. nadający się do powtórnego przetworzenia
D. przeznaczony do ponownego użycia
Symbol, który widzisz na obrazku, to taki uniwersalny znak recyklingu, znany praktycznie wszędzie, jako znak produktów, które można przetworzyć ponownie. Składa się z trzech strzałek, które układają się w trójkąt, co nawiązuje do tego, że proces przetwarzania materiałów nigdy się nie kończy. Recykling to ważny sposób na odzyskiwanie surowców z odpadów, dzięki czemu można je znów wykorzystać do produkcji nowych rzeczy. Moim zdaniem, to kluczowy element w ochronie środowiska, bo pozwala zmniejszyć zużycie surowców naturalnych i zmniejsza ilość odpadów, które trafiają na wysypiska. Do często recyklingowanych materiałów zaliczają się papier, plastik, szkło i metale. Co ciekawe, są też różne międzynarodowe standardy, jak ISO 14001, które pomagają firmom w działaniu na rzecz środowiska. Dobrze jest projektować produkty z myślą o ich późniejszym recyklingu, wpisując się w ideę gospodarki o obiegu zamkniętym. Znajomość tego symbolu jest ważna nie tylko dla ekologów, ale też dla nas, konsumentów, bo dzięki naszym wyborom możemy wspierać zrównoważony rozwój.

Pytanie 2

W ustawieniach haseł w systemie Windows Server została dezaktywowana możliwość wymogu dotyczącego złożoności hasła. Z jakiej minimalnej liczby znaków powinno składać się hasło użytkownika?

A. 6 znaków
B. 12 znaków
C. 10 znaków
D. 5 znaków
Hasło użytkownika w systemie Windows Server, gdy opcja wymuszania złożoności haseł jest wyłączona, może składać się z minimum 6 znaków. Warto zauważyć, że chociaż nie ma obligatoryjnych wymagań dotyczących złożoności, to jednak z perspektywy bezpieczeństwa zaleca się stosowanie dłuższych haseł. Dobre praktyki w zakresie tworzenia haseł sugerują, że im dłuższe hasło, tym trudniejsze do złamania. W związku z tym, nawet w sytuacji braku wymogu co do złożoności, użytkownicy powinni dążyć do stosowania haseł o długości przynajmniej 12 znaków, które zawierają kombinacje liter, cyfr oraz znaków specjalnych. Pomaga to w ochronie kont przed atakami brute force oraz innymi formami ataków, które polegają na łamaniu haseł. Warto również pamiętać o regularnej zmianie haseł oraz stosowaniu unikalnych haseł dla różnych systemów i aplikacji, co zwiększa ogólny poziom bezpieczeństwa.

Pytanie 3

Jakim złączem zasilany jest wewnętrzny dysk twardy typu IDE?

A. PCIe
B. ATX
C. SATA
D. Molex
Złącze Molex jest standardowym złączem zasilającym, które było powszechnie stosowane w komputerach stacjonarnych do zasilania różnych komponentów, w tym dysków twardych IDE. Złącze to składa się z czterech pinów, które dostarczają napięcie 5V i 12V, co jest zgodne z wymaganiami zasilania dla dysków twardych IDE. W praktyce, złącza Molex charakteryzują się dużą wytrzymałością i prostotą konstrukcji, co czyni je idealnym rozwiązaniem do trwałego zasilania urządzeń. Wiele starszych komputerów oraz urządzeń peryferyjnych, takich jak napędy CD/DVD, również korzysta z tego typu złącza. Dobrą praktyką w branży jest dbanie o odpowiednie połączenie kabli zasilających, aby uniknąć problemów z zasilaniem komponentów oraz ich uszkodzeniem. Warto zauważyć, że choć standard Molex jest coraz rzadziej używany w nowoczesnych konstrukcjach, jego znajomość pozostaje istotna dla specjalistów serwisujących starsze systemy komputerowe.

Pytanie 4

Na przedstawionym schemacie wtyk (złącze męskie modularne) stanowi zakończenie kabla

Ilustracja do pytania
A. F/UTP
B. światłowodowego
C. koncentrycznego
D. U/UTP
Wtyk przedstawiony na rysunku to złącze RJ-45, które jest standardowym zakończeniem dla kabla typu F/UTP. F/UTP oznacza folię chroniącą nieekranowane pary skręcone. W praktyce oznacza to, że każda para przewodów nie jest indywidualnie ekranowana, ale cały kabel jest otoczony folią aluminiową, co zapewnia ochronę przed zakłóceniami elektromagnetycznymi. Tego typu kable są często używane w instalacjach sieciowych, gdzie istnieje potrzeba ochrony przed zakłóceniami, ale nie jest wymagana pełna izolacja każdej pary przewodów. Standardy takie jak TIA/EIA-568-B są stosowane do definiowania specyfikacji okablowania strukturalnego, a F/UTP jest zgodny z tymi wytycznymi. Dzięki temu kable te są cenione za elastyczność i stosunek ceny do jakości, szczególnie w środowiskach biurowych i przemysłowych, gdzie występują umiarkowane zakłócenia. Poprawne użycie złącz RJ-45 w połączeniu z kablami F/UTP zapewnia niezawodne połączenia w sieciach Ethernetowych, wspierając przepustowość do 1 Gb/s i więcej w zależności od specyfikacji kabla.

Pytanie 5

Jaką liczbę hostów można podłączyć w sieci o adresie 192.168.1.128/29?

A. 8 hostów
B. 6 hostów
C. 16 hostów
D. 12 hostów
Sieć o adresie 192.168.1.128/29 ma maskę podsieci wynoszącą 255.255.255.248, co oznacza, że w tej sieci dostępnych jest 8 adresów IP (2^3 = 8, gdzie 3 to liczba bitów przeznaczonych na adresy hostów). Jednakże, dwa z tych adresów są zarezerwowane: jeden dla adresu sieci (192.168.1.128) i jeden dla adresu rozgłoszeniowego (192.168.1.135), co pozostawia 6 adresów dostępnych dla hostów (192.168.1.129 do 192.168.1.134). W praktyce, taki układ jest często stosowany w małych sieciach lokalnych, gdzie liczba urządzeń nie przekracza 6, co pozwala na efektywne zarządzanie adresacją IP. Wiedza ta jest kluczowa przy projektowaniu sieci, ponieważ umożliwia dostosowanie liczby dostępnych adresów do rzeczywistych potrzeb organizacji, co jest zgodne z najlepszymi praktykami w zakresie inżynierii sieciowej.

Pytanie 6

Jakie polecenie w systemie operacyjnym Linux umożliwia sprawdzenie bieżącej konfiguracji interfejsu sieciowego na komputerze?

A. ping
B. tracert
C. ifconfig
D. ipconfig
Polecenie 'ifconfig' jest kluczowym narzędziem w systemie Linux, które pozwala na wyświetlenie aktualnej konfiguracji interfejsów sieciowych. Umożliwia ono administratorom i użytkownikom systemów operacyjnych monitorowanie i zarządzanie ustawieniami sieciowymi, takimi jak adresy IP, maski podsieci, adresy MAC oraz statystyki przesyłu danych. Przykładowo, wpisanie komendy 'ifconfig' w terminalu wyświetli listę wszystkich dostępnych interfejsów sieciowych oraz ich aktualne parametry, co jest nieocenione w diagnostyce problemów z połączeniem. Dodatkowo, 'ifconfig' może być używane do konfigurowania interfejsów, na przykład do przypisywania nowych adresów IP, co jest częstą praktyką w zarządzaniu serwerami i urządzeniami sieciowymi. Warto zaznaczyć, że w nowszych dystrybucjach Linuxa zaleca się korzystanie z narzędzia 'ip', które oferuje szersze możliwości zarządzania siecią, zwiększając elastyczność i efektywność konfiguracji.

Pytanie 7

Podczas normalnego działania systemu operacyjnego w laptopie pojawił się komunikat o konieczności formatowania wewnętrznego dysku twardego. Wskazuje on na

A. uszkodzoną pamięć RAM.
B. przegrzewanie się procesora.
C. błędy systemu operacyjnego spowodowane szkodliwym oprogramowaniem.
D. niezainicjowany lub nieprzygotowany do pracy nośnik.
Pojawienie się komunikatu o konieczności formatowania wewnętrznego dysku twardego może wprowadzać w błąd osoby mniej obeznane z technicznymi aspektami sprzętu komputerowego. Nierzadko pierwsze skojarzenie to poważna awaria sprzętowa, np. uszkodzona pamięć RAM czy przegrzewający się procesor. Fakty są jednak inne – uszkodzenia RAM-u objawiają się zazwyczaj błędami podczas ładowania systemu, zawieszaniem programów lub tzw. blue screenami (BSOD). RAM nie ma bezpośredniego wpływu na rozpoznawanie struktury partycji dysku, więc komunikat o formatowaniu nie będzie z tym związany. Z kolei przegrzewanie procesora prowadzi raczej do nagłych restartów lub spowolnień niż do problemów z wykrywaniem nośnika danych. Takie objawy są raczej typowe dla problemów z układem chłodzenia czy złą wentylacją, a nie dla kwestii logicznej organizacji dysku czy partycji. Jeśli chodzi o błędy spowodowane szkodliwym oprogramowaniem, to owszem, malware może namieszać w systemie plików, ale to bardzo rzadkie przypadki, by powodowało akurat komunikat o konieczności formatowania – częściej obserwuje się utratę dostępu do plików, szyfrowanie danych (ransomware) lub dziwne komunikaty systemowe. W zdecydowanej większości przypadków, gdy pojawia się prośba o formatowanie wewnętrznego dysku, przyczyną jest nieprawidłowa inicjalizacja nośnika lub uszkodzenie tablicy partycji. Warto w takich sytuacjach wykonać diagnostykę narzędziami takimi jak TestDisk, CrystalDiskInfo czy narzędzia producenta dysku, zanim zdecydujemy się na radykalne kroki typu format, bo to może prowadzić do nieodwracalnej utraty danych. Częsty błąd to szybkie podążanie za instrukcją systemu – a tu naprawdę lepiej chwilę się zastanowić i sprawdzić inne możliwości naprawy.

Pytanie 8

Użytkownik pragnie ochronić dane na karcie pamięci przed przypadkowym usunięciem. Taką zabezpieczającą cechę oferuje karta

A. MMC
B. CF
C. SD
D. MS
Karty pamięci SD (Secure Digital) są powszechnie stosowane w elektronice użytkowej i oferują mechaniczne zabezpieczenie przed przypadkowym skasowaniem danych. W przypadku kart SD, zabezpieczenie to jest realizowane poprzez fizyczny przełącznik, który można przestawić na pozycję "lock". Gdy przełącznik jest w tej pozycji, karta nie pozwala na zapis nowych danych ani na ich usuwanie, co chroni zawartość przed niezamierzonym skasowaniem. To funkcjonalność, która jest szczególnie przydatna w sytuacjach, gdy użytkownik nie chce ryzykować utraty ważnych danych, na przykład podczas przenoszenia plików między urządzeniami. Warto dodać, że standardy SD są zgodne z międzynarodowymi normami, co zapewnia kompatybilność z wieloma urządzeniami, takimi jak aparaty cyfrowe, smartfony, laptopy czy konsolki do gier. Karty SD są dostępne w różnych pojemnościach i klasach prędkości, co umożliwia ich szerokie zastosowanie w codziennym użytkowaniu i profesjonalnych aplikacjach.

Pytanie 9

Podaj adres rozgłoszeniowy dla podsieci 86.10.20.64/26?

A. 86.10.20.64
B. 86.10.20.127
C. 86.10.20.128
D. 86.10.20.63
Adres rozgłoszeniowy (broadcast) dla danej podsieci jest kluczowym elementem w zarządzaniu sieciami komputerowymi. Dla podsieci 86.10.20.64/26, maska podsieci wynosi 255.255.255.192. Oznacza to, że pierwsze 26 bitów jest przeznaczone na identyfikację sieci, a pozostałe 6 bitów jest dostępnych dla hostów. W związku z tym, liczba dostępnych adresów w tej podsieci wynosi 64 (2^6), z czego 62 adresy mogą być wykorzystane dla urządzeń, a dwa są zarezerwowane: jeden dla adresu sieci (86.10.20.64) i jeden dla adresu rozgłoszeniowego. Aby obliczyć adres rozgłoszeniowy, należy ustawić wszystkie bity hosta na „1”, co w tym przypadku daje 86.10.20.127. Adresy rozgłoszeniowe są używane do wysyłania pakietów do wszystkich hostów w danej podsieci, co jest istotnym aspektem w protokołach komunikacyjnych, takich jak UDP. Prawidłowe zrozumienie obliczeń związanych z adresami IP oraz maskami podsieci jest niezwykle ważne w kontekście projektowania i zarządzania sieciami, a także w kontekście bezpieczeństwa sieci. Standardy RFC 950 oraz RFC 4632 podkreślają znaczenie stosowania odpowiednich technik segmentacji i adresacji w sieciach IPv4.

Pytanie 10

Zasilacz UPS o mocy nominalnej 480 W nie powinien być używany do zasilania

A. modemu ADSL
B. monitora
C. urządzeń sieciowych typu router
D. drukarki laserowej
Drukarki laserowe zazwyczaj mają znacznie większe zapotrzebowanie na moc w chwili rozpoczęcia druku, co może znacznie przekraczać moc znamionową zasilacza UPS o mocy rzeczywistej 480 W. Wartości te są wynikiem zastosowania technologii grzewczej w drukarkach laserowych, która wymaga dużej ilości energii w krótkim czasie. W praktyce, podczas włączania lub przetwarzania dokumentu, pobór mocy może osiągnąć nawet 800-1000 W, co prowadzi do zbyt dużego obciążenia zasilacza. Z tego powodu, podłączanie drukarki laserowej do UPS o takiej mocy może skutkować jego uszkodzeniem oraz niewłaściwym funkcjonowaniem urządzenia. Stosując UPS, warto kierować się zasadą, że suma pobieranej mocy urządzeń nie powinna przekraczać 70-80% mocy znamionowej zasilacza, aby zapewnić optymalne warunki pracy i dłuższą żywotność sprzętu. Zamiast tego, do zasilacza UPS można podłączyć urządzenia o mniejszych wymaganiach energetycznych, takie jak monitory czy urządzenia sieciowe, co jest zgodne z najlepszymi praktykami w zakresie ochrony sprzętu przed skokami napięcia i przerwami w zasilaniu.

Pytanie 11

Jakie narzędzie w systemie Windows pozwala na kontrolowanie stanu sprzętu, aktualizowanie sterowników oraz rozwiązywanie problemów z urządzeniami?

A. devmgmt
B. perfmon
C. eventvwr
D. services
Odpowiedź "devmgmt" odnosi się do Menedżera urządzeń w systemie Windows, który jest kluczowym narzędziem dla administratorów systemów oraz użytkowników pragnących zarządzać sprzętem komputerowym. Menedżer urządzeń umożliwia sprawdzenie stanu sprzętu, w tym identyfikację i rozwiązywanie problemów z urządzeniami. W przypadku konfliktów sprzętowych użytkownik może łatwo wyłączyć lub odinstalować problematyczne sterowniki, a także zaktualizować je do najnowszej wersji, co jest istotne dla zapewnienia poprawnego działania systemu. Przykładowo, jeżeli po podłączeniu nowego urządzenia, takiego jak drukarka, występują problemy, Menedżer urządzeń umożliwi zidentyfikowanie, czy sterownik jest zainstalowany, czy wymaga aktualizacji. Ponadto, zgodnie z dobrymi praktykami zarządzania IT, regularne sprawdzanie Menedżera urządzeń pozwala na proaktywne utrzymywanie sprzętu w dobrym stanie, co jest kluczowe w kontekście minimalizacji przestojów i optymalizacji pracy systemu.

Pytanie 12

Jakie urządzenie powinno być użyte do podłączenia żył kablowych skrętki do gniazda Ethernet?

A. Zaciskarkę RJ-45
B. Zaciskarkę RJ-11
C. Zaciskarkę BNC
D. Wciskacz LSA
Wybór wciskacza LSA do podłączania żył kablowych skrętki do gniazda Ethernet jest jak najbardziej trafny. Wciskacz LSA, znany również jako narzędzie do zaciskania, jest specjalnie zaprojektowany do pracy z systemami okablowania strukturalnego, w tym do podłączania kabli typu U/FTP, U/UTP oraz S/FTP. Umożliwia on jednoczesne połączenie wielu żył z gniazdem, co jest istotne dla zachowania wysokiej jakości sygnału oraz minimalizacji zakłóceń elektromagnetycznych. Przykładem praktycznego zastosowania tego narzędzia może być instalacja gniazd Ethernet w biurach, gdzie wymagane jest podłączenie wielu stanowisk pracy do sieci. Warto zaznaczyć, że użycie wciskacza LSA zgodnie z normami T568A lub T568B zapewnia poprawne podłączenie i gwarantuje wysoką wydajność transmisji danych, co jest kluczowe w nowoczesnych systemach komunikacyjnych. Prawidłowe użycie tego narzędzia przyczynia się do zwiększenia niezawodności i trwałości infrastruktury sieciowej.

Pytanie 13

Podczas skanowania czarno-białego rysunku technicznego z maksymalną rozdzielczością optyczną skanera, na pochylonych i zaokrąglonych krawędziach można dostrzec schodkowe ułożenie pikseli. Aby poprawić jakość skanowanego obrazu, konieczne jest zastosowanie funkcji

A. odrastrowywania
B. skanowania według krzywej tonalnej
C. rozdzielczości interpolowanej
D. korekcji Gamma
Korekcja Gamma to technika stosowana w postprodukcji obrazów w celu dostosowania ich jasności i kontrastu. Chociaż może poprawić ogólną jakość wizualną obrazu, nie jest przeznaczona do rozwiązywania problemów związanych z ułożeniem pikseli na krawędziach. Jej zastosowanie w przypadku schodkowo ułożonych pikseli na pochylonych krawędziach nie przyniesie oczekiwanych rezultatów, ponieważ nie wpływa na rozdzielczość obrazu ani na jego interpolację. Skanowanie według krzywej tonalnej również nie adresuje problemów z rozdzielczością; ta technika dostosowuje zakres tonów w obrazach, co może prowadzić do lepszej percepcji jasności, ale nie eliminuje artefaktów wynikających z niskiej rozdzielczości skanowania. Odrastrowywanie, będące procesem przywracania detali w obrazie, również nie jest odpowiednią odpowiedzią w tym kontekście, ponieważ nie odnosi się bezpośrednio do problemu schodkowych krawędzi w skanowanym obrazie. Te techniki, mimo że użyteczne w innych kontekstach, nie stanowią rozwiązania dla problemu związanego z jakością skanowania i mogą prowadzić do mylnych wniosków o ich skuteczności w tym zakresie. Właściwe podejście polega na zwiększeniu rozdzielczości skanowania z wykorzystaniem interpolacji, co jest najlepszą praktyką w branży skanowania technicznego.

Pytanie 14

Protokołem umożliwiającym bezpołączeniowe przesyłanie datagramów jest

A. IP
B. TCP
C. UDP
D. ARP
UDP (User Datagram Protocol) to protokół komunikacji, który zapewnia bezpołączeniową transmisję datagramów w sieciach komputerowych. W przeciwieństwie do TCP (Transmission Control Protocol), UDP nie wymaga nawiązywania połączenia przed rozpoczęciem wymiany danych, co czyni go bardziej efektywnym w sytuacjach wymagających szybkiej wymiany informacji, takich jak strumieniowanie wideo, gry online czy VoIP. UDP jest również bardziej elastyczny, ponieważ pozwala na przesyłanie danych bez dodatkowych narzutów związanych z kontrolą błędów i potwierdzeniami dostarczenia. To sprawia, że jest idealny do zastosowań, gdzie minimalizacja opóźnień jest kluczowa, a utrata niektórych pakietów nie wpływa znacząco na ogólną jakość usługi. Protokół ten działa na bazie portów, co umożliwia jednoczesne działanie wielu aplikacji na jednym urządzeniu. W praktyce użycie UDP można zaobserwować w protokołach takich jak DNS czy DHCP, które wymagają szybkiej odpowiedzi, a niekoniecznie pełnej niezawodności.

Pytanie 15

Zaprezentowany tylny panel płyty głównej zawiera następujące interfejsy:

Ilustracja do pytania
A. 2 x USB 3.0; 4 x USB 2.0, 1.1, 1 x D-SUB
B. 2 x HDMI, 1 x D-SUB, 1 x RJ11, 6 x USB 2.0
C. 2 x PS2; 1 x RJ45; 6 x USB 2.0, 1.1
D. 2 x USB 3.0; 2 x USB 2.0, 1.1; 2 x DP, 1 x DVI
Wybór błędnych odpowiedzi mógł wynikać z niepełnego zrozumienia lub braku znajomości standardów interfejsów stosowanych na płytach głównych. Odpowiedź zawierająca 2 x PS2, 1 x RJ45 oraz 6 x USB 2.0, 1.1 jest nieprawidłowa, ponieważ na przedstawionym panelu widoczny jest jeden port PS2 służący do podłączenia tradycyjnych urządzeń wejściowych, jak klawiatura lub mysz, i nie ma aż sześciu portów USB 2.0. Co więcej, RJ45 to standardowy port sieciowy Ethernet, często obecny na płytach głównych, jednak liczba interfejsów USB w tej odpowiedzi była błędnie określona. Kolejne błędne rozpoznanie obejmowało porty HDMI oraz D-SUB, które są stosowane do przesyłania sygnałów wideo, jednak odpowiedź z HDMI jest błędna, gdyż na obrazie brak tego interfejsu, a obecny jest tylko port D-SUB. Z kolei odpowiedź z portami DP i DVI jest również niepoprawna, ponieważ na przedstawionym panelu nie są widoczne te cyfrowe interfejsy wideo, które służą do przesyłania sygnałów w wysokiej rozdzielczości i są wykorzystywane w nowoczesnych monitorach. Częste błędy myślowe podczas takiego rozpoznawania wynikają z niedostatecznej znajomości wyglądu i funkcji różnych portów, co może prowadzić do niewłaściwego przypisania ich nazw i zastosowań w praktyce komputerowej. Aby uniknąć takich pomyłek, warto zaznajomić się z najnowszymi standardami oraz ich fizycznymi cechami, co ułatwia ich poprawne identyfikowanie na egzaminach oraz w codziennej pracy z komputerami.

Pytanie 16

W sieci z maską 255.255.255.128 można przypisać adresy dla

A. 126 urządzeń
B. 128 urządzeń
C. 254 urządzenia
D. 127 urządzeń
Maska podsieci 255.255.255.128, której notacja CIDR to /25, pozwala na podział adresu IPv4 na dwie części: adres sieci oraz adres hosta. W przypadku maski /25, mamy 7 bitów przeznaczonych na adresy hostów (32 bity - 25 bity maski = 7 bity). Liczba dostępnych adresów hostów oblicza się za pomocą wzoru 2^n - 2, gdzie n to liczba bitów przeznaczonych dla hostów. W naszym przypadku to 2^7 - 2, co daje 128 - 2 = 126 adresów hostów. Odejmuje się 2 adresy: jeden dla adresu sieci (wszystkie bity hosta ustawione na 0) i jeden dla adresu rozgłoszeniowego (wszystkie bity hosta ustawione na 1). Przykładowo, w sieci 192.168.1.0/25, możliwe adresy hostów to od 192.168.1.1 do 192.168.1.126. Wiedza o adresowaniu i podsieciach jest kluczowa w zarządzaniu sieciami komputerowymi, a stosowanie odpowiednich masek sieciowych pozwala na efektywne wykorzystanie dostępnych adresów IP.

Pytanie 17

Jednym z narzędzi zabezpieczających system przed oprogramowaniem, które bez wiedzy użytkownika pozyskuje i wysyła jego autorowi dane osobowe, numery kart płatniczych, informacje o adresach stron WWW odwiedzanych przez użytkownika, hasła i używane adresy mailowe, jest program

A. Spyboot Search & Destroy
B. HDTune
C. FakeFlashTest
D. Reboot Restore Rx
Spybot Search & Destroy to narzędzie wyspecjalizowane w wykrywaniu i usuwaniu oprogramowania szpiegującego, znanego szerzej jako spyware. Takie zagrożenia potrafią działać całkowicie niezauważalnie, rejestrując aktywność użytkownika, zapisując hasła, numery kart płatniczych czy adresy odwiedzanych stron WWW i przesyłając je do cyberprzestępców. Moim zdaniem, nawet najlepszy antywirus nie zawsze wyłapie typowe spyware, bo ten typ zagrożenia bywa mocno wyspecjalizowany i często jest aktualizowany szybciej niż bazy klasycznych programów AV. Praktyka pokazuje, że Spybot Search & Destroy bywał nieoceniony na starszych komputerach, gdzie typowy użytkownik nie miał świadomości zagrożeń z sieci. To narzędzie analizuje rejestr systemu Windows, pliki, procesy działające w tle i pozwala usuwać niechciane komponenty. Co ważne, w branżowych środowiskach rekomenduje się używanie dedykowanych programów antyspyware jako uzupełnienie dla klasycznego antywirusa, bo każdy z nich wyłapuje inny typ zagrożeń. Warto też dodać, że Spybot był jednym z pionierskich programów tego typu – moim zdaniem, ciągle warto znać jego koncepcję i możliwości, nawet jeśli dziś coraz częściej korzysta się z rozwiązań zintegrowanych w systemie czy nowoczesnych pakietów bezpieczeństwa. Ochrona przed spyware to podstawa cyberhigieny – bez niej nasze dane osobowe są narażone na poważne ryzyko, a skutki mogą być dotkliwe zarówno prywatnie, jak i w środowisku pracy.

Pytanie 18

Jaki typ routingu jest najbardziej odpowiedni w złożonych, szybko ewoluujących sieciach?

A. Zewnętrzny
B. Lokalny
C. Dynamiczny
D. Statyczny
Routing dynamiczny jest najodpowiedniejszym rozwiązaniem dla rozbudowanych i szybko zmieniających się sieci, ponieważ automatycznie dostosowuje ścieżki przesyłania danych na podstawie aktualnych warunków w sieci. W przeciwieństwie do routingu statycznego, który opiera się na ręcznie skonfigurowanych trasach, routing dynamiczny wykorzystuje protokoły routingu, takie jak OSPF (Open Shortest Path First) czy EIGRP (Enhanced Interior Gateway Routing Protocol), które umożliwiają routerom wymianę informacji o dostępnych trasach. Dzięki temu, w razie awarii lub zmiany topologii sieci, routery mogą błyskawicznie zaktualizować swoje tabele routingu, co minimalizuje przestoje i zapewnia optymalne trasy przesyłania danych. Przykładem praktycznym może być sieć przedsiębiorstwa, w której zmiany w infrastrukturze, takie jak dodanie nowego segmentu sieci lub zmiana lokalizacji serwera, mogą być natychmiastowo uwzględnione przez routery, co zapewnia ciągłość działania usług. Warto również podkreślić, że routing dynamiczny jest zgodny z nowoczesnymi standardami oraz najlepszymi praktykami branżowymi, umożliwiając efektywne zarządzanie dużymi i złożonymi sieciami.

Pytanie 19

Aby zweryfikować połączenia kabla U/UTP Cat. 5e w systemie okablowania strukturalnego, jakiego urządzenia należy użyć?

A. testera okablowania
B. analizatora protokołów sieciowych
C. woltomierza
D. reflektometru optycznego OTDR
Tester okablowania to narzędzie służące do weryfikacji poprawności połączeń w kablach U/UTP, w tym w standardzie Cat. 5e. Umożliwia on sprawdzenie ciągłości przewodów, identyfikację uszkodzeń oraz ocenę jakości sygnału. Przykładowo, tester wykrywa błędy takie jak zgięcia, przerwy lub zwarcia, co jest kluczowe dla prawidłowego funkcjonowania sieci. W praktyce, tester okablowania jest często używany do instalacji oraz konserwacji sieci strukturalnych, co pozwala na szybkie diagnozowanie problemów i minimalizowanie przestojów. Zgodnie z normami EIA/TIA, regularne testowanie okablowania jest zalecane, aby zapewnić wysoką jakość i niezawodność instalacji. Zatem, stosowanie testera okablowania w kontekście kabla U/UTP Cat. 5e wpisuje się w najlepsze praktyki branżowe i jest niezbędne do utrzymania sprawności infrastruktury sieciowej.

Pytanie 20

Aby poprawić bezpieczeństwo prywatnych danych sesji na stronie internetowej, zaleca się dezaktywację w ustawieniach przeglądarki

A. bloku uruchamiania skryptów
B. powiadamiania o wygasłych certyfikatach
C. bloku wyskakujących okienek
D. funkcji zapamiętywania haseł
Powiadamianie o wygasłych certyfikatach, blokada wyskakujących okienek oraz blokada uruchamiania skryptów, choć mogą wydawać się istotnymi funkcjami związanymi z bezpieczeństwem, nie są odpowiedziami, które bezpośrednio przyczyniają się do ochrony prywatnych danych sesji. Wygasłe certyfikaty są sygnałem, że strona internetowa może być niebezpieczna, jednak wyłączenie powiadomień o tym nie zmienia samego faktu, że certyfikat jest nieważny. Użytkownicy powinni być świadomi, że ignorowanie takich powiadomień może prowadzić do interakcji z oszukańczymi lub zainfekowanymi stronami. Blokada wyskakujących okienek jest pomocna w unikaniu niechcianych reklam, ale nie wpływa na bezpieczeństwo przechowywania danych. Co więcej, blokada uruchamiania skryptów, choć może ograniczać pewne działania na stronie, również nie jest rozwiązaniem dla ochrony sesji. Skrypty są integralną częścią funkcjonalności większości nowoczesnych stron internetowych, a ich blokada może prowadzić do niedostatecznego działania strony, co może wprowadzać w błąd użytkowników co do poziomu jej bezpieczeństwa. Użytkownicy często popełniają błąd, myśląc, że proste wyłączenie takich funkcji wystarczy do ochrony ich danych. W rzeczywistości, skuteczne zabezpieczenia wymagają bardziej złożonych rozwiązań, takich jak stosowanie silnych haseł, uwierzytelniania wieloskładnikowego oraz świadomego korzystania z menedżerów haseł, co pozwala na bezpieczne i efektywne zarządzanie danymi logowania.

Pytanie 21

Jakim procesem jest nieodwracalne usunięcie możliwości odzyskania danych z hard dysku?

A. zalanie dysku
B. zerowanie dysku
C. uszkodzenie łożyska dysku
D. niezamierzone skasowanie plików
Każda z pozostałych odpowiedzi na to pytanie odnosi się do sytuacji, które mogą prowadzić do utraty danych, jednak nie są one procesami całkowicie nieodwracalnymi. Przypadkowe usunięcie plików to powszechny problem, z którym borykają się użytkownicy komputerów. Wiele systemów operacyjnych oferuje możliwość przywracania skasowanych plików, przynajmniej do momentu, w którym nie zostaną nadpisane nowymi danymi. W przypadku zatarcia łożyska dysku, uszkodzenie mechaniczne może prowadzić do utraty dostępu do danych, jednak w wielu przypadkach specjalistyczne laboratoria są w stanie przeprowadzić odzyskiwanie danych z uszkodzonych dysków. Z kolei zalanie dysku stwardnionym ciałem obcym może wpłynąć na jego działanie, ale nie zawsze oznacza całkowitą utratę danych. W zależności od stopnia uszkodzeń oraz zastosowanych technik odzyskiwania, niektóre dane mogą być uratowane. Kluczowym błędem jest zatem myślenie, że wszystkie te sytuacje są równoznaczne z całkowitą utratą danych. W praktyce, zrozumienie różnic między tymi sytuacjami może pomóc w podjęciu odpowiednich kroków w przypadku awarii i zastosowaniu działań naprawczych. Zamiast tego, kluczowe jest regularne wykonywanie kopii zapasowych, co pozwala na minimalizowanie ryzyka utraty cennych informacji.

Pytanie 22

Która funkcja przełącznika zarządzalnego umożliwia kontrolę przepustowości każdego z wbudowanych portów?

A. IP Security.
B. Bandwidth control.
C. Link aggregation.
D. Port Mirroring.
Prawidłowa odpowiedź to „Bandwidth control”, bo właśnie ta funkcja w przełącznikach zarządzalnych służy do precyzyjnego sterowania przepustowością pojedynczych portów. Mówiąc prościej: możesz każdemu portowi „przykręcić kurek” albo go trochę poluzować, ustawiając maksymalną prędkość, z jaką host może wysyłać lub odbierać dane. W praktyce robi się to np. w Mbps albo kbit/s, często osobno dla ruchu wychodzącego (egress) i przychodzącego (ingress). W porządniejszych switchach jest to realizowane jako traffic shaping lub rate limiting z wykorzystaniem kolejek i token bucket, zgodnie z typowymi mechanizmami QoS. W prawdziwych sieciach to nie jest teoria z książki. Na przykład w sieci szkolnej albo firmowej ograniczasz porty, do których podpięte są komputery uczniów lub zwykłych pracowników, żeby jeden użytkownik ściągający gry czy filmy nie zajął całego łącza. Możesz ustawić, że porty biurowe mają np. 10 Mb/s, a porty serwerowe 1 Gb/s bez ograniczeń. Często ustawia się też limit na portach przeznaczonych dla gości (guest VLAN), żeby ruch gościnny nie „zabił” krytycznych aplikacji. Z mojego doświadczenia bandwidth control jest jednym z podstawowych narzędzi do realizacji polityki QoS na brzegu sieci, szczególnie tam, gdzie nie ma zaawansowanych routerów. Dobrą praktyką jest łączenie kontroli przepustowości z VLAN-ami i klasyfikacją ruchu, tak żeby ważne usługi (np. VoIP, ERP) miały priorytet i odpowiednie pasmo. W dokumentacjach producentów (Cisco, HP, Mikrotik, TP-Link) ta funkcja może się nazywać np. „Rate Limit”, „Ingress/Egress Bandwidth Control” czy „Traffic Shaping”, ale idea jest ta sama: kontrola maksymalnej przepustowości na poziomie portu. Warto też pamiętać, że jest różnica między samą prędkością fizyczną portu (np. 1 Gb/s) a limitem nałożonym programowo. Port może fizycznie być gigabitowy, a logicznie ograniczony do 50 Mb/s. To właśnie daje elastyczność zarządzalnego przełącznika i pozwala dopasować sieć do polityki firmy, a nie odwrotnie.

Pytanie 23

Zarządzaniem czasem procesora dla różnych zadań zajmuje się

A. chipset.
B. pamięć RAM.
C. system operacyjny.
D. cache procesora.
Przydzielanie czasu procesora nie jest zadaniem chipsetu, pamięci RAM ani cache procesora. Chipset, będący złożonym układem scalonym, pełni rolę pośrednika między procesorem a innymi komponentami systemu, ale nie zajmuje się bezpośrednim zarządzaniem czasem procesora. Pamięć RAM, z kolei, służy jako miejsce przechowywania danych i programów, które są aktualnie używane przez procesor, a nie jako mechanizm zarządzający ich przydziałem. Cache procesora, będący szybkim rodzajem pamięci, ma na celu zwiększenie wydajności poprzez przechowywanie najczęściej używanych danych, jednak nie jest odpowiedzialny za alokację czasu procesora. Powoduje to częste nieporozumienia związane z rolą tych komponentów, co może prowadzić do błędnych wniosków o ich funkcjonalności. Zrozumienie, że to system operacyjny zarządza przydzielaniem czasu procesora, jest kluczowe dla prawidłowego pojęcia architektury komputerowej. Często mylone jest również pojęcie wielozadaniowości, co prowadzi do niezrozumienia, jak system operacyjny organizuje procesy i zasoby. Przykładowo, użytkownicy mogą błędnie sądzić, że to sprzęt odpowiada za efektywność działania aplikacji, podczas gdy w rzeczywistości kluczowym elementem jest oprogramowanie, które zarządza tymi zasobami.

Pytanie 24

Procesor RISC to procesor o

A. pełnej liście instrukcji
B. głównej liście instrukcji
C. rozbudowanej liście instrukcji
D. zmniejszonej liście instrukcji
Wielu użytkowników mylnie klasyfikuje procesory jako charakteryzujące się pełną lub kompleksową listą rozkazów, co jest związane z architekturą CISC. Procesory CISC, takie jak x86, mają na celu zapewnienie bogatego zestawu rozkazów, co może prowadzić do większej złożoności w ich projektowaniu i wykonaniu. Dla programistów oznacza to możliwość korzystania z bardziej zaawansowanych instrukcji, które mogą wykonywać skomplikowane operacje w jednym kroku, jednak wiąże się to z dłuższym czasem wykonania każdej z tych instrukcji. W rzeczywistości to skomplikowanie może prowadzić do trudności w optymalizacji oraz wydajności, szczególnie w kontekście nowoczesnych technologii, które dążą do uproszczenia procesów obliczeniowych. Kolejnym błędnym podejściem jest zrozumienie, że procesory powinny mieć 'główną' lub 'pełną' listę rozkazów. Takie sformułowania mogą wprowadzać w błąd, sugerując, że optymalizacja i efektywność są osiągane przez zwiększenie liczby dostępnych instrukcji. W rzeczywistości kluczem do wydajności w architekturach RISC jest ich prostota i efektywność, co zapewnia lepsze wykorzystanie zasobów systemowych oraz skrócenie czasu dostępu do pamięci. Typowe błędy myślowe prowadzące do takich niepoprawnych wniosków to nieporozumienia dotyczące zalet złożonych rozkazów i ich wpływu na ogólną efektywność systemów komputerowych.

Pytanie 25

Rekord typu A w systemie DNS

A. przechowuje alias dla danej nazwy domeny
B. mapuje nazwę hosta na odpowiadający jej 32-bitowy adres IPv4
C. przypisuje nazwę domeny DNS do adresu serwera pocztowego
D. zawiera dane o serwerze DNS nadrzędnym
Rekord typu A (Address Record) w systemie DNS jest kluczowym elementem, który umożliwia mapowanie nazw hostów na ich odpowiadające adresy IPv4. Oznacza to, że gdy użytkownik wpisuje nazwę domeny w przeglądarkę, serwer DNS, korzystając z rekordu A, przekształca tę nazwę w 32-bitowy adres IP, co pozwala na skuteczne nawiązanie połączenia z odpowiednim serwerem. Przykładem może być sytuacja, w której użytkownik wpisuje www.example.com. Serwer DNS zwraca jego adres IP, na przykład 192.0.2.1, co umożliwia przeglądarkom internetowym szybkie i efektywne dotarcie do zasobów tej domeny. Rekordy A są kluczowe dla funkcjonowania internetu, ponieważ pozwalają na łatwe korzystanie z nazw domenowych, które są bardziej przyjazne dla użytkowników niż numeryczne adresy IP. W praktyce, zarządzanie rekordami A jest częścią administracji serwerami DNS, co jest niezbędne dla zapewnienia dostępności usług online. Dobrą praktyką jest regularne sprawdzanie i aktualizowanie tych rekordów, aby zapobiec problemom z dostępem do zasobów sieciowych.

Pytanie 26

W komputerach stacjonarnych zamontowane są karty sieciowe Ethernet 10/100/1000 z gniazdem RJ45. Jakie medium transmisyjne powinno się zastosować w celu zbudowania sieci komputerowej zapewniającej najwyższą przepustowość?

A. Światłowód jednomodowy
B. Kabel UTP kategorii 5
C. Światłowód wielomodowy
D. Kabel UTP kategorii 5e
Wybór kabla UTP kategorii 5 nie jest optymalnym rozwiązaniem dla budowy sieci komputerowej obsługującej karty sieciowe Ethernet 10/100/1000. Chociaż kabel ten może obsługiwać prędkości do 100 Mbps, jego ograniczenia w zakresie jakości sygnału i podatności na zakłócenia sprawiają, że nie jest wystarczająco wydajny dla nowoczesnych aplikacji, które wymagają prędkości do 1 Gbps. Użytkownicy często zakładają, że kable kategorii 5 będą wystarczające do codziennych zadań, jednak w praktyce mogą napotkać problemy z jakością połączenia, co prowadzi do spadków prędkości i utraty danych. Z kolei wybór światłowodu wielomodowego jest odpowiedni do transmisji na większe odległości i w środowiskach przemysłowych, ale jest zbyteczny w biurach, gdzie kabel UTP 5e wystarczy. Światłowód jednomodowy, choć oferuje najwyższe prędkości i zasięg, jest również kosztowny i nieopłacalny w małych sieciach lokalnych. Powszechnym błędem jest zakładanie, że droższe rozwiązania zawsze są najlepsze; w rzeczywistości, dla stacji roboczych, kabel UTP kategorii 5e zapewnia najbardziej zrównoważoną opcję pod względem kosztów i wydajności. Zrozumienie wymagań sieci oraz standardów branżowych, takich jak TIA/EIA-568, jest kluczowe dla podejmowania właściwych decyzji dotyczących infrastruktury sieciowej.

Pytanie 27

Adware to program komputerowy

A. bezpłatny bez żadnych ograniczeń
B. bezpłatny z wbudowanymi reklamami
C. płatny na zasadzie dobrowolnych wpłat
D. płatny po upływie określonego okresu próbnego
Adware, czyli to oprogramowanie, które wyświetla reklamy, często jest dostępne za darmo. No, ale trzeba pamiętać, że to właśnie te reklamy sprawiają, że programiści mogą na tym zarabiać. Często spotkać można różne aplikacje na telefonach, które w ten sposób działają. Wiadomo, że jak korzystasz z adware, to możesz trafić na mnóstwo irytujących reklam. Z drugiej strony, część z nich zbiera też dane o tym, jak korzystasz z aplikacji, żeby pokazywać Ci reklamy, które mogą Cię bardziej interesować. To może być i fajne, i dziwne, zależnie od tego, jak na to patrzysz. Jak używasz takich aplikacji, to warto rzucić okiem na ich zasady i być świadomym, na co się zgadzasz. Fajnie też mieć jakieś oprogramowanie zabezpieczające, które nieco ochroni Cię przed tymi niechcianymi reklamami.

Pytanie 28

Industry Standard Architecture to standard magistrali, który określa, że szerokość szyny danych wynosi:

A. 16 bitów
B. 32 bitów
C. 128 bitów
D. 64 bitów
Odpowiedź z 16 bitami jest jak najbardziej trafna. To właśnie Industry Standard Architecture (ISA) określa architekturę komputerów, w której szerokość magistrali danych wynosi 16 bitów. Ten standard wymyślił Intel w latach 80., co było mega ważne dla rozwoju komputerów osobistych. Dzięki temu można było lepiej przetwarzać dane. Architektura 16-bitowa pozwalała na przechowywanie większej ilości informacji w jednym cyklu, a to naprawdę zwiększało moc obliczeniową. Dobrym przykładem są komputery PC bazujące na procesorach Intel 8086 i 80286, które były w tamtych czasach bardzo popularne. W porównaniu do starszych, 8-bitowych mikroprocesorów, 16-bitowa architektura dawała radę z większą pamięcią i bardziej skomplikowanymi aplikacjami. No i w końcu, rozwój ISA doprowadził do tego, że powstały nowsze standardy jak EISA czy PCI, które jeszcze bardziej podkręciły możliwości komputerów.

Pytanie 29

Zgodnie z przedstawionymi zaleceniami dla drukarki atramentowej, kolorowe dokumenty powinny być drukowane przynajmniej

„Czyszczenie głowicy drukarki ….

…..

W tym przypadku najskuteczniejszym rozwiązaniem jest wyczyszczenie głowicy drukarki z zaschniętego tuszu. Z reguły wystarcza przetarcie głównego źródła problemu wilgotnym ręcznikiem. Jeżeli to nie pomoże należy zassać tusz do dysz, co pozwoli usunąć z nich powietrze.

…..

Kiedy również i to nie pomoże należy przejść do ręcznego czyszczenia głowicy.

Drukarka….. powinna być wyłączana na noc, ponieważ po każdym włączeniu przeprowadzane są mini cykle czyszczenia. Warto również pamiętać o wydrukowaniu przynajmniej raz w tygodniu kolorowego dokumentu, dzięki czemu zminimalizujemy prawdopodobieństwo zaschnięcia tuszu."

Fragment instrukcji czyszczenia drukarki

A. raz na godzinę.
B. raz w miesiącu.
C. raz w tygodniu.
D. raz dziennie.
Prawidłowa odpowiedź to „raz w tygodniu”, dokładnie tak, jak jest zapisane w przytoczonym fragmencie instrukcji: „Warto również pamiętać o wydrukowaniu przynajmniej raz w tygodniu kolorowego dokumentu, dzięki czemu zminimalizujemy prawdopodobieństwo zaschnięcia tuszu”. Producent drukarki zwraca tu uwagę na typowy problem eksploatacyjny drukarek atramentowych – zaschnięcie tuszu w dyszach głowicy. Atrament na bazie wody ma tendencję do wysychania, szczególnie gdy drukarka stoi nieużywana przez dłuższy czas, a kolory nie są w ogóle wykorzystywane. Regularny, cotygodniowy wydruk w kolorze powoduje przepływ tuszu przez wszystkie kanały głowicy (CMYK), co działa jak delikatne, automatyczne „przepłukanie” układu. Z mojego doświadczenia to jest taka złota średnia: wystarczająco często, żeby tusz nie zasychał, ale jednocześnie nie marnuje się niepotrzebnie materiałów eksploatacyjnych. W praktyce w serwisach drukarek przyjmuje się podobną zasadę – jeśli urządzenie atramentowe stoi w biurze, gdzie rzadko drukuje się kolor, zaleca się choć raz na tydzień puścić stronę testową albo prosty wydruk z kolorową grafiką. Jest to zgodne z dobrymi praktykami konserwacji sprzętu: profilaktyka zamiast późniejszego, droższego czyszczenia ręcznego albo wymiany głowicy. Warto też pamiętać, że producenci często montują automatyczne cykle czyszczenia po włączeniu drukarki, ale one nie zastąpią całkowicie realnego przepływu tuszu podczas normalnego drukowania. Dlatego regularny wydruk kolorowy raz na tydzień to po prostu praktyczny sposób na utrzymanie głowicy w dobrej kondycji i uniknięcie typowych usterek, jak pasy na wydruku czy brak któregoś koloru. To ma znaczenie zarówno w domu, jak i w małym biurze, gdzie każda przerwa w pracy drukarki potrafi być uciążliwa.

Pytanie 30

Wskaż standard interfejsu stosowanego do przewodowego połączenia dwóch urządzeń.

A. WiMAX
B. IEEE 802.15.1
C. IrDA
D. IEEE 1394
IEEE 1394, znany szerzej jako FireWire, to faktycznie jeden z ważniejszych standardów przewodowych do łączenia urządzeń cyfrowych, szczególnie w profesjonalnych zastosowaniach multimedialnych. Moim zdaniem warto wiedzieć, że był on bardzo popularny szczególnie w komputerach Apple i w kamerach cyfrowych – tam gdzie potrzeba przesłać szybko duże pliki wideo lub audio bez strat jakości. FireWire miał tę przewagę nad USB, że przez długi czas oferował wyższą przepustowość (szczególnie w wersji 800) i bardziej stabilne zasilanie urządzeń. Z mojego doświadczenia – wiele rozwiązań do profesjonalnej edycji filmów czy nagrywania dźwięku opierało się właśnie na tym interfejsie, zanim standard USB 3.0 i nowsze zaczęły dominować. Warto też pamiętać, że IEEE 1394 pozwalał na tzw. połączenia daisy-chain, czyli szeregowe podłączanie kilku urządzeń do jednego portu, co znacznie ułatwiało organizację pracy w studio. Standard ten do dziś uchodzi za bezpieczny i niezawodny tam, gdzie liczy się stabilność transmisji i odporność na zakłócenia, zwłaszcza w środowiskach audio-wideo. Takie praktyczne zastosowania świetnie pokazują, dlaczego właśnie IEEE 1394 to typowy przykład przewodowego interfejsu do łączenia sprzętu cyfrowego.

Pytanie 31

Jakie zdanie charakteryzuje SSH Secure Shell?

A. Sesje SSH nie umożliwiają stwierdzenia, czy punkty końcowe są autentyczne
B. Protokół do pracy zdalnej na odległym komputerze, który nie zapewnia kodowania transmisji
C. Bezpieczny protokół terminalowy oferujący usługi szyfrowania połączenia
D. Sesje SSH powodują wysłanie zwykłego tekstu, niezaszyfrowanych danych
Niektóre pomysły zawarte w alternatywnych odpowiedziach mogą wprowadzać w błąd i mogą prowadzić do złego zrozumienia funkcji protokołu SSH. Na przykład, twierdzenie, że protokół nie zapewnia szyfrowania transmisji, jest nieprawdziwe, ponieważ jednym z kluczowych celów SSH jest właśnie ochrona danych przed nieautoryzowanym dostępem poprzez szyfrowanie. Protokół ten wykorzystuje silne metody szyfrowania, co oznacza, że dane przesyłane między klientem a serwerem są chronione przed podsłuchiwaniem i manipulacją. Innym błędnym stwierdzeniem jest to, że sesje SSH przesyłają niezaszyfrowane dane. W rzeczywistości, każda sesja SSH jest zabezpieczona, co jest kluczowym elementem jego działania. Również nieprawdziwe jest stwierdzenie, że sesje SSH nie umożliwiają weryfikacji autentyczności punktów końcowych. Protokół SSH implementuje mechanizmy weryfikacji, takie jak klucze publiczne, które pozwalają na potwierdzenie tożsamości serwera i klienta. Te błędne przekonania mogą wynikać z niezrozumienia podstawowych zasad działania protokołu SSH oraz roli, jaką odgrywa w zabezpieczaniu komunikacji w sieciach komputerowych. W związku z tym kluczowe jest, aby zrozumieć, że SSH nie tylko zapewnia zdalny dostęp, ale także chroni poufność i integralność danych, co jest fundamentalne w dzisiejszym świecie technologii informacyjnych.

Pytanie 32

W metodzie dostępu do medium CSMA/CD (Carrier Sense Multiple Access with Collision Detection) stacja, która planuje rozpocząć transmisję, nasłuchuje, czy w sieci występuje aktywność, a następnie

A. po zauważeniu ruchu w sieci czeka, aż medium stanie się dostępne
B. czeka na token umożliwiający rozpoczęcie nadawania
C. oczekuje na ustalenie priorytetu transmisji przez koncentrator
D. wysyła prośbę o zezwolenie na transmisję
Analizując podane odpowiedzi, warto zauważyć, że nie wszystkie koncepcje są zgodne z zasadami funkcjonowania metody CSMA/CD. Na przykład, sugerowanie, że stacja wysyła zgłoszenie żądania transmisji, jest mylące, ponieważ w metodzie CSMA/CD nie ma potrzeby formalnego zgłaszania zamiaru nadawania. Mechanizm ten polega na prostym nasłuchiwaniu medium, a nie na składaniu wniosków o zezwolenie. Oczekiwanie na żeton, jak sugeruje inna odpowiedź, dotyczy zupełnie innej metody dostępu do medium, jaką jest Token Ring. W tej metodzie, żeton jest specjalnym pakietem, który krąży w sieci, dając stacjom prawo do nadawania. Oczekiwanie na nadanie priorytetu transmisji przez koncentrator również jest niepoprawne, ponieważ CSMA/CD nie wykorzystuje centralnego zarządzania, a każdy węzeł ma równy dostęp do medium. Typowym błędem myślowym jest mylenie różnych metod dostępu do medium, co prowadzi do nieporozumień w zakresie ich działania. Zrozumienie różnic między CSMA/CD a innymi metodami dostępu jest kluczowe dla efektywnego projektowania i zarządzania sieciami komputerowymi. Umiejętność rozpoznania, które metody są odpowiednie w danym kontekście, jest niezbędna dla specjalistów zajmujących się sieciami, szczególnie w erze rosnącej liczby urządzeń podłączonych do sieci oraz konieczności zapewnienia ich płynnej i efektywnej komunikacji.

Pytanie 33

Tusz żelowy wykorzystywany jest w drukarkach

A. igłowych
B. sublimacyjnych
C. fiskalnych
D. termotransferowych
Tusz żelowy jest powszechnie stosowany w drukarkach sublimacyjnych, gdyż ta technika druku wymaga specjalnych tuszy, które w procesie sublimacji przekształcają się z fazy stałej w gazową, bez przechodzenia przez fazę ciekłą. Tusze sublimacyjne charakteryzują się wysoką jakością oraz żywymi kolorami, co czyni je idealnymi do wydruków na materiałach takich jak tekstylia czy twarde powierzchnie. Przykładem zastosowania tuszu żelowego w drukarkach sublimacyjnych jest produkcja odzieży, gdzie szczegółowe i intensywne kolory są niezbędne do uzyskania satysfakcjonujących efektów wizualnych. Warto również zwrócić uwagę, że zastosowanie tuszy sublimacyjnych w produkcji gadżetów reklamowych czy materiałów promocyjnych jest zgodne z aktualnymi standardami branżowymi, co podkreśla ich znaczenie w nowoczesnym druku cyfrowym. Dzięki właściwościom termicznym i chemicznym tuszy sublimacyjnych osiąga się wysoką odporność na blaknięcie oraz trwałość nadruków, co jest istotne w kontekście długotrwałego użytkowania produktów.

Pytanie 34

Na podstawie filmu wskaż z ilu modułów składa się zainstalowana w komputerze pamięć RAM oraz jaką ma pojemność.

A. 2 modułów, każdy po 16 GB.
B. 2 modułów, każdy po 8 GB.
C. 1 modułu 32 GB.
D. 1 modułu 16 GB.
Poprawnie wskazana została konfiguracja pamięci RAM: w komputerze zamontowane są 2 moduły, każdy o pojemności 16 GB, co razem daje 32 GB RAM. Na filmie zwykle widać dwa fizyczne moduły w slotach DIMM na płycie głównej – to są takie długie wąskie kości, wsuwane w gniazda obok procesora. Liczbę modułów określamy właśnie po liczbie tych fizycznych kości, a pojemność pojedynczego modułu odczytujemy z naklejki na pamięci, z opisu w BIOS/UEFI albo z programów diagnostycznych typu CPU‑Z, HWiNFO czy Speccy. W praktyce stosowanie dwóch modułów po 16 GB jest bardzo sensowne, bo pozwala uruchomić tryb dual channel. Płyta główna wtedy może równolegle obsługiwać oba kanały pamięci, co realnie zwiększa przepustowość RAM i poprawia wydajność w grach, programach graficznych, maszynach wirtualnych czy przy pracy z dużymi plikami. Z mojego doświadczenia lepiej mieć dwie takie same kości niż jedną dużą, bo to jest po prostu zgodne z zaleceniami producentów płyt głównych i praktyką serwisową. Do tego 2×16 GB to obecnie bardzo rozsądna konfiguracja pod Windows 10/11 i typowe zastosowania profesjonalne: obróbka wideo, programowanie, CAD, wirtualizacja. Warto też pamiętać, że moduły powinny mieć te same parametry: częstotliwość (np. 3200 MHz), opóźnienia (CL) oraz najlepiej ten sam model i producenta. Taka konfiguracja minimalizuje ryzyko problemów ze stabilnością i ułatwia poprawne działanie profili XMP/DOCP. W serwisie i przy montażu zawsze zwraca się uwagę, żeby moduły były w odpowiednich slotach (zwykle naprzemiennie, np. A2 i B2), bo to bezpośrednio wpływa na tryb pracy pamięci i osiąganą wydajność.

Pytanie 35

Jakie urządzenie sieciowe zostało pokazane na diagramie sieciowym?

Ilustracja do pytania
A. modem
B. ruter
C. koncentrator
D. przełącznik
Ruter to takie urządzenie, które pomaga zarządzać ruchem w sieciach komputerowych. Głównie zajmuje się tym, by dane znalazły najefektywniejszą drogę między różnymi sieciami. To naprawdę ważne, zwłaszcza w większych sieciach, bo dobrze skonfigurowany ruter sprawia, że wszystko działa sprawnie. Łączy na przykład sieci w naszych domach z Internetem albo zarządza ruchem w dużych firmach. Ciekawe, że nowoczesne rutery oferują różne dodatkowe funkcje, jak filtrowanie pakietów czy zarządzanie jakością usług, co może naprawdę poprawić wydajność. Chociaż trzeba pamiętać, że ważne jest, aby odpowiednio skonfigurować zabezpieczenia, regularnie aktualizować oprogramowanie i monitorować wydajność. To wszystko sprawia, że rutery są kluczowym elementem w dzisiejszych sieciach, zwłaszcza z rozwojem chmury i większymi wymaganiami co do szybkości przesyłu danych.

Pytanie 36

Na ilustracji przedstawiono symbol urządzenia cyfrowego

Ilustracja do pytania
A. multipleksera priorytetowego
B. kodera priorytetowego
C. dekodera priorytetowego
D. demultipleksera priorytetowego
Dekoder priorytetu, multiplekser priorytetu oraz demultiplekser priorytetu pełnią różne funkcje w systemach cyfrowych, które nie pasują do opisu kodera priorytetu. Dekoder priorytetu w rzeczywistości nie jest standardowym elementem układów cyfrowych. Dekoder ogólnie przekształca kod wejściowy na unikalny sygnał wyjściowy, ale nie jest stosowany do priorytetyzacji sygnałów. Multiplekser priorytetu łączy wiele wejść w jedno wyjście, wybierając jedno z wejść na podstawie sygnału sterującego, ale nie jest związany z hierarchią priorytetów. Jego funkcja to selekcja kanału, a nie ustalanie priorytetu. W przypadku demultipleksera priorytetu mamy do czynienia z procesem odwrotnym do multipleksera gdzie jeden sygnał wejściowy jest kierowany na jedno z wielu wyjść, ponownie bez uwzględnienia priorytetu. Błędne przypisanie funkcji może wynikać z braku zrozumienia, że priorytetyzacja jest specyficzna dla zastosowań, które wymagają rozstrzygania konfliktów między równoczesnymi żądaniami systemowymi co jest istotne w kontekście przerwań sprzętowych i zarządzania zasobami w systemach komputerowych. Zrozumienie różnic między tymi elementami jest kluczowe dla projektowania wydajnych układów cyfrowych zgodnie z najlepszymi praktykami inżynierskimi.

Pytanie 37

Na komputerze, na którym zainstalowane są dwa systemy – Windows i Linux, po przeprowadzeniu reinstalacji systemu Windows drugi system przestaje się uruchamiać. Aby ponownie umożliwić uruchamianie systemu Linux oraz aby zachować wszystkie dane i ustawienia w nim zawarte, co należy zrobić?

A. ponownie zainstalować bootloadera GRUB
B. wykonać ponowną instalację systemu Windows
C. wykonać reinstalację systemu Linux
D. przeprowadzić skanowanie dysku programem antywirusowym
Reinstalacja bootloadera GRUB (Grand Unified Bootloader) jest kluczowym krokiem w przywracaniu możliwości uruchamiania systemu Linux po reinstalacji Windows. Reinstalacja Windows zazwyczaj nadpisuje MBR (Master Boot Record) lub EFI (Extensible Firmware Interface), co sprawia, że bootloader Linuxa nie jest już dostępny. GRUB jest odpowiedzialny za zarządzanie wieloma systemami operacyjnymi na komputerze, umożliwiając użytkownikowi wybór, który system ma być uruchomiony. Aby ponownie zainstalować GRUB, można użyć nośnika instalacyjnego Linuxa (np. Live CD lub USB), uruchomić terminal i użyć komendy 'grub-install' w odpowiednim systemie plików. Praktycznie, po zainstalowaniu GRUB, można również zaktualizować jego konfigurację za pomocą 'update-grub', co zapewni, że wszystkie dostępne systemy operacyjne zostaną poprawnie wykryte. Dobrą praktyką jest regularne tworzenie kopii zapasowych ważnych danych, co pozwala uniknąć ich utraty w przypadku problemów z systemem operacyjnym.

Pytanie 38

Jak należy postąpić z wiadomością e-mail od nieznanej osoby, która zawiera podejrzany załącznik?

A. Otworzyć wiadomość i odpowiedzieć, pytając o zawartość załącznika
B. Nie otwierać wiadomości, od razu ją usunąć
C. Otworzyć załącznik i zapisać go na dysku, a następnie przeskanować plik programem antywirusowym
D. Otworzyć załącznik, a jeśli znajduje się w nim wirus, natychmiast go zamknąć
Otwieranie załączników z nieznanych źródeł, nawet w celu sprawdzenia ich zawartości, jest praktyką niezwykle ryzykowną. Choć może wydawać się, że skanowanie pliku programem antywirusowym przed jego otwarciem jest odpowiednim podejściem, w rzeczywistości wiele programów złośliwych jest zaprojektowanych tak, aby unikać wykrycia przez standardowe oprogramowanie zabezpieczające. Ponadto, nawet jeśli wirus nie uruchomi się od razu, wiele złośliwych programów może zainfekować system już w momencie otwarcia pliku. Odpowiadanie na wiadomości z pytaniem o zawartość załącznika również nie jest mądrą praktyką, ponieważ może to prowadzić do dalszej interakcji z potencjalnym oszustem, co z kolei zwiększa ryzyko wyłudzenia danych osobowych lub zainfekowania systemu. Ponadto, podejście polegające na otwieraniu wiadomości i sprawdzaniu ich zawartości może skutkować przypadkowym kliknięciem w niebezpieczny link, co może uruchomić złośliwy kod. W praktyce, edukacja użytkowników na temat rozpoznawania phishingowych wiadomości e-mail jest kluczowa, aby unikać tego rodzaju niebezpieczeństw. Współczesne standardy bezpieczeństwa zalecają natychmiastowe usuwanie wszelkich podejrzanych wiadomości oraz stosowanie zasad „lepiej zapobiegać niż leczyć”. Ignorowanie tych zasad w imię ciekawości lub chęci sprawdzenia sytuacji naraża użytkowników na poważne konsekwencje, takie jak utrata danych, kradzież tożsamości czy zainfekowanie całej sieci.

Pytanie 39

Jakiego narzędzia należy użyć do zakończenia końcówek kabla UTP w module keystone z złączami typu 110?

A. Narzędzia uderzeniowego
B. Śrubokręta płaskiego
C. Śrubokręta krzyżakowego
D. Zaciskarki do wtyków RJ45
Narzędzie uderzeniowe jest kluczowym narzędziem w procesie zarabiania końcówek kabla UTP w modułach keystone ze stykami typu 110. Działa ono na zasadzie mechanicznego wciśnięcia żył kabla w odpowiednie styki, co zapewnia solidne i trwałe połączenie. Użycie narzędzia uderzeniowego pozwala na szybkie i efektywne zakończenie kabli, eliminując ryzyko złego kontaktu, które może prowadzić do problemów z sygnałem. W praktyce, montaż modułów keystone z wykorzystaniem styków typu 110 jest powszechną praktyką w instalacjach sieciowych, zgodną z normami TIA/EIA-568, które określają standardy dla okablowania strukturalnego. Ponadto, dobrym zwyczajem jest stosowanie narzędzi uderzeniowych, które mają regulację siły uderzenia, co pozwala na dostosowanie do różnych typów kabli, zapewniając optymalną jakość połączenia. Warto również zaznaczyć, że efektywne zakończenie kabla przyczyni się do lepszej wydajności sieci, co jest kluczowe w środowiskach wymagających wysokiej przepustowości.

Pytanie 40

Aby sprawdzić dysk twardy w systemie Linux na obecność uszkodzonych sektorów, użytkownik może zastosować program

A. defrag
B. chkdisk
C. fsck
D. scandisk
W kontekście sprawdzania dysku twardego pod kątem uszkodzonych sektorów, kluczowe jest zrozumienie, które narzędzia są przeznaczone do takich zadań. Odpowiedzi takie jak chkdisk, defrag i scandisk są narzędziami, które są specyficzne dla systemów Windows. Chkdisk, na przykład, jest używany w systemie Windows do sprawdzania błędów systemu plików i naprawiania ich, ale nie jest dostępny ani nie działa w systemach Linux. Podobnie, defrag (defragmentacja) jest narzędziem optymalizacyjnym, które porządkuje dane na dysku, aby poprawić wydajność, ale nie sprawdza integralności systemu plików ani uszkodzonych sektorów. Scandisk również odnosi się do narzędzia Windows, które jest zbliżone do chkdisk, a jego funkcjonalność nie jest dostępna w systemach Linux. Użytkownicy często mylą te narzędzia z fsck, myśląc, że są one uniwersalne, co prowadzi do nieporozumień. Właściwe podejście do zarządzania dyskami w systemie Linux wymaga użycia dedykowanych narzędzi, takich jak fsck, które są dostosowane do specyfiki systemów plików w tych środowiskach, co jest zgodne z zaleceniami branżowymi dotyczącymi zarządzania danymi i bezpieczeństwa systemów.