Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 22 kwietnia 2026 19:58
  • Data zakończenia: 22 kwietnia 2026 20:04

Egzamin niezdany

Wynik: 18/40 punktów (45,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Jakie polecenie w systemie operacyjnym Linux umożliwia sprawdzenie bieżącej konfiguracji interfejsu sieciowego na komputerze?

A. tracert
B. ipconfig
C. ifconfig
D. ping
Polecenie 'ifconfig' jest kluczowym narzędziem w systemie Linux, które pozwala na wyświetlenie aktualnej konfiguracji interfejsów sieciowych. Umożliwia ono administratorom i użytkownikom systemów operacyjnych monitorowanie i zarządzanie ustawieniami sieciowymi, takimi jak adresy IP, maski podsieci, adresy MAC oraz statystyki przesyłu danych. Przykładowo, wpisanie komendy 'ifconfig' w terminalu wyświetli listę wszystkich dostępnych interfejsów sieciowych oraz ich aktualne parametry, co jest nieocenione w diagnostyce problemów z połączeniem. Dodatkowo, 'ifconfig' może być używane do konfigurowania interfejsów, na przykład do przypisywania nowych adresów IP, co jest częstą praktyką w zarządzaniu serwerami i urządzeniami sieciowymi. Warto zaznaczyć, że w nowszych dystrybucjach Linuxa zaleca się korzystanie z narzędzia 'ip', które oferuje szersze możliwości zarządzania siecią, zwiększając elastyczność i efektywność konfiguracji.

Pytanie 2

Jaką ochronę zapewnia program antyspyware?

A. programom typu robak
B. programom antywirusowym
C. programom szpiegującym
D. atakom typu DoS i DDoS (Denial of Service)
Wiele osób myli programy antyspyware z innymi rodzajami zabezpieczeń, co prowadzi do nieporozumień w kontekście ich funkcji. Programy typu robak to złośliwe oprogramowanie, które samodzielnie się replikuje i rozprzestrzenia, niekoniecznie ingerując w prywatność użytkowników. Choć programy te mogą być niebezpieczne, ich działanie jest różne od programów szpiegujących, które są zaprojektowane, aby gromadzić dane użytkowników. Ponadto, programy antywirusowe są ukierunkowane na wykrywanie i usuwanie złośliwego oprogramowania, w tym wirusów, robaków i trojanów, ale nie są tożsame z funkcjonalnością programów antyspyware, które koncentrują się na wykrywaniu narzędzi do szpiegowania. Z kolei ataki typu DoS i DDoS dotyczą obciążania serwerów w celu uniemożliwienia użytkownikom dostępu do usług, co jest zupełnie innym rodzajem zagrożenia, niewspółmiernym do działania programów szpiegujących. Dlatego ważne jest, aby zrozumieć, że różne rodzaje oprogramowania ochronnego mają różne cele i zastosowania, co jest kluczowe dla skutecznej ochrony przed zagrożeniami w sieci. Zrozumienie tej różnorodności pozwala na bardziej świadome podejmowanie decyzji dotyczących zabezpieczeń komputerowych.

Pytanie 3

Który z poniższych programów nie jest wykorzystywany do zdalnego administrowania komputerami w sieci?

A. Rdesktop
B. UltraVNC
C. Virtualbox
D. Team Viewer
VirtualBox to oprogramowanie służące do wirtualizacji, które pozwala na uruchamianie wielu systemów operacyjnych na jednym fizycznym komputerze. W odróżnieniu od programów do zdalnego zarządzania, takich jak TeamViewer, UltraVNC czy Rdesktop, które umożliwiają zdalny dostęp do już działających systemów, VirtualBox tworzy wirtualne maszyny. W praktyce oznacza to, że użytkownik może testować różne systemy operacyjne lub oprogramowanie w zamkniętym środowisku, co jest szczególnie przydatne w programowaniu, testowaniu oprogramowania, a także w edukacji, gdzie studenci mogą eksperymentować bez wpływu na główny system. Wirtualizacja staje się kluczowym elementem w infrastrukturze IT, pozwalając na efektywne wykorzystanie zasobów sprzętowych, zgodnie z zasadami zarządzania zasobami w środowiskach chmurowych. Warto zaznaczyć, że standardy takie jak ISO/IEC 27001 kładą nacisk na bezpieczeństwo i zarządzanie danymi, co w kontekście wirtualizacji również ma swoje znaczenie.

Pytanie 4

Jakie narzędzie służy do połączenia pigtaila z włóknami światłowodowymi?

A. przedłużacz kategorii 5e z zestawem pasywnych kabli o maksymalnej prędkości połączenia 100 Mb/s
B. spawarka światłowodowa, łącząca włókna przy użyciu łuku elektrycznego
C. narzędzie zaciskowe do wtyków RJ45, posiadające odpowiednie gniazdo dla kabla
D. stacja lutownicza, która wykorzystuje mikroprocesor do ustawiania temperatury
Spawarka światłowodowa to urządzenie, które łączy włókna światłowodowe poprzez spawanie ich za pomocą łuku elektrycznego. Jest to kluczowe narzędzie w instalacji i konserwacji systemów światłowodowych, gdyż umożliwia tworzenie połączeń o niskim tłumieniu i wysokiej wydajności, co jest niezbędne w kontekście przesyłania danych na dużych odległościach. Przykładowo, w przypadku budowy sieci FTTH (Fiber To The Home), precyzyjne łączenie włókien światłowodowych za pomocą spawarki jest krytyczne dla zapewnienia odpowiedniej jakości sygnału. Standardy branżowe, takie jak ITU-T G.657, podkreślają znaczenie prawidłowych połączeń w systemach światłowodowych, ponieważ błędne spawy mogą prowadzić do znacznych strat sygnału i obniżenia wydajności całej sieci. Dodatkowo, spawarki światłowodowe są wyposażone w zaawansowane technologie, takie jak automatyczne dopasowanie włókien i monitorowanie jakości spawów, co zwiększa efektywność procesu oraz zapewnia zgodność z najlepszymi praktykami w branży.

Pytanie 5

Użytkownik pragnie ochronić dane na karcie pamięci przed przypadkowym usunięciem. Taką zabezpieczającą cechę oferuje karta

A. MS
B. SD
C. MMC
D. CF
Karty pamięci SD (Secure Digital) są powszechnie stosowane w elektronice użytkowej i oferują mechaniczne zabezpieczenie przed przypadkowym skasowaniem danych. W przypadku kart SD, zabezpieczenie to jest realizowane poprzez fizyczny przełącznik, który można przestawić na pozycję "lock". Gdy przełącznik jest w tej pozycji, karta nie pozwala na zapis nowych danych ani na ich usuwanie, co chroni zawartość przed niezamierzonym skasowaniem. To funkcjonalność, która jest szczególnie przydatna w sytuacjach, gdy użytkownik nie chce ryzykować utraty ważnych danych, na przykład podczas przenoszenia plików między urządzeniami. Warto dodać, że standardy SD są zgodne z międzynarodowymi normami, co zapewnia kompatybilność z wieloma urządzeniami, takimi jak aparaty cyfrowe, smartfony, laptopy czy konsolki do gier. Karty SD są dostępne w różnych pojemnościach i klasach prędkości, co umożliwia ich szerokie zastosowanie w codziennym użytkowaniu i profesjonalnych aplikacjach.

Pytanie 6

Który procesor jest kompatybilny z płytą główną o przedstawionej specyfikacji?

ASUS micro-ATX, socket 1150, VT-d, DDR3 `1333, 1600 MHz), ATI Radeon X1250, 3 x PCI-Express x1, 3 x PCI-Express x16, 2 x Serial ATA III, USB 3.0, VGA, HDMI, DVI-D

A. Procesor Podstawka Taktowanie Intel Celeron  1150 3000 MHz
B. Procesor Podstawka Taktowanie Intel Core i7 1151 1150 MHz
C. Procesor Podstawka Taktowanie AMD FX1150n AM3+ 3900 MHz
D. Procesor Podstawka Taktowanie Athlon 64 FX AM2 160 MHz
Analiza niepoprawnych odpowiedzi ujawnia szereg powszechnych nieporozumień dotyczących kompatybilności procesorów z płytami głównymi. W przypadku odpowiedzi dotyczącej procesora Intel Core i7 z podstawką 1151, kluczowym błędem jest założenie, że płyta główna z gniazdem 1150 obsługuje procesory zaprojektowane dla gniazda 1151. Procesory te różnią się nie tylko fizycznym rozmiarem podstawki, ale także charakterystyką zasilania i architekturą, co czyni je niekompatybilnymi. Takie myślenie prowadzi do frustrujących prób uruchomienia systemu, które z reguły kończą się niepowodzeniem. Podobnie, procesory o gniazdach AM2 i AM3+, takie jak Athlon 64 FX i AMD FX1150n, są całkowicie niekompatybilne z płytą główną wyposażoną w gniazdo 1150. Warto zrozumieć, że każda generacja procesorów ma swoje specyficzne wymagania i standardy, które muszą być spełnione, aby zapewnić prawidłowe działanie systemu. Użytkownicy często popełniają błąd, koncentrując się tylko na parametrach technicznych, takich jak taktowanie, pomijając kluczowe informacje dotyczące podstawki. Kluczowe jest zatem, aby przed zakupem procesora zawsze weryfikować kompatybilność z płytą główną na podstawie dokumentacji producenta oraz sprawdzonych źródeł branżowych. To podejście nie tylko minimalizuje ryzyko błędnych zakupów, ale również zapewnia optymalną wydajność systemu.

Pytanie 7

Który z protokołów jest używany w komunikacji głosowej przez internet?

A. FTP
B. NetBEUI
C. SIP
D. HTTP
FTP (File Transfer Protocol) jest protokołem używanym do przesyłania plików w sieci. Jego głównym zastosowaniem jest umożliwienie przesyłania plików między klientem a serwerem, co jest zupełnie inną funkcjonalnością niż ta, którą oferuje telefonia internetowa. Protokół ten operuje na innej warstwie modelu OSI i nie jest przystosowany do zarządzania sesjami audio-wideo, co jest kluczowe dla SIP. HTTP (Hypertext Transfer Protocol) jest kolejnym protokołem, który koncentruje się na przesyłaniu danych, głównie w kontekście stron internetowych. Chociaż w niektórych przypadkach może wspierać komunikację wideo poprzez technologie takie jak WebRTC, nie jest on zaprojektowany specjalnie do zarządzania sesjami głosowymi czy wideokonferencjami. NetBEUI (NetBIOS Extended User Interface) to protokół sieciowy, który był używany głównie w sieciach lokalnych, ale nie ma zastosowania w kontekście szerokopasmowej telefonii internetowej. Typowym błędem jest utożsamianie różnych protokołów z ich zastosowaniem w określonych obszarach, co prowadzi do mylnych wniosków o ich funkcjonalności. W kontekście telefonii internetowej, kluczowe jest zrozumienie, że protokoły muszą być zaprojektowane do obsługi specyficznych funkcji, takich jak nawiązywanie i zarządzanie sesjami komunikacyjnymi, co jest domeną SIP.

Pytanie 8

Planując pierwsze uruchomienie i konfigurację rutera, należy w pierwszej kolejności

A. zalogować się do jego panelu konfiguracyjnego korzystając z klucza dostępu.
B. włączyć wszystkie odbiorniki, które mają w przyszłości z nim współpracować.
C. połączyć się z nim przy użyciu komputera.
D. dokonać wyboru trybu pracy z ustawień domyślnych.
W pytaniu chodzi o pierwszą czynność przy uruchamianiu i konfiguracji rutera, czyli o poprawną kolejność działań. Wiele osób odruchowo myśli: „to trzeba się zalogować do panelu konfiguracyjnego” albo „od razu wybiorę tryb pracy”, ale to są kroki późniejsze. Żeby w ogóle sensownie konfigurować ruter, trzeba mieć świadomość, jakie urządzenia będą w sieci i czy są one fizycznie dostępne oraz uruchomione. Stąd najpierw włącza się odbiorniki, a dopiero potem wykonuje się konfigurację. Logowanie do panelu administracyjnego przy użyciu hasła (czy tam klucza dostępu) jest oczywiście konieczne, ale to nie jest pierwszy krok w procesie planowania. Najpierw musi istnieć fizyczne i logiczne środowisko: ruter podłączony do zasilania, podstawowe okablowanie, włączone hosty. Dopiero mając to, administrator loguje się do interfejsu WWW lub CLI i zaczyna konfigurację parametrów sieci LAN, WAN, DHCP, Wi‑Fi czy zabezpieczeń. Podobnie z wyborem trybu pracy z ustawień domyślnych – tryb router, access point, repeater, bridge i inne tryby pracy dobieramy po analizie potrzeb sieci, a nie „w ciemno” na start. Z mojego doświadczenia wynika, że osoby, które od razu klikają w ustawieniach, często później muszą wszystko robić od nowa, bo nagle okazuje się, że w sieci mają np. drukarkę wymagającą statycznego IP albo urządzenia IoT, które potrzebują konkretnego zakresu adresów. Sama odpowiedź polegająca na „połączeniu się z ruterem przy użyciu komputera” też jest nieprecyzyjna jako pierwszy krok. Oczywiście, fizyczne podłączenie komputera do rutera (kablem Ethernet lub przez Wi‑Fi) jest wymagane, żeby wejść do panelu administracyjnego, ale zanim w ogóle zaczniemy się łączyć i klikać, sensownie jest przygotować środowisko: włączyć wszystkie urządzenia, sprawdzić, jakie interfejsy będą używane, gdzie będzie stał ruter, jakie są wymagania użytkowników. Typowym błędem myślowym jest traktowanie konfiguracji jako serii przypadkowych kliknięć bez planu. W praktyce sieci komputerowe projektuje się od końcówek (hostów) i ich potrzeb, a potem dobiera i ustawia urządzenia sieciowe. Dlatego pierwszeństwo ma uruchomienie odbiorników, a dopiero potem logowanie, wybór trybu i dalsza konfiguracja.

Pytanie 9

Czynność pokazana na rysunkach ilustruje mocowanie

Ilustracja do pytania
A. taśmy barwiącej w drukarce igłowej.
B. kartridża w drukarce atramentowej.
C. bębna zintegrowanego z tonerem w drukarce laserowej.
D. głowicy w drukarce rozetkowej.
Często spotykanym błędem jest mylenie mechanizmów mocowania elementów eksploatacyjnych w różnych typach drukarek. Mocowanie taśmy barwiącej w drukarce igłowej wygląda zupełnie inaczej – tam mamy do czynienia z wąską, tekstylną taśmą, którą zakłada się w specjalne prowadnice, a sama czynność odbywa się zazwyczaj przez niewielki otwór serwisowy. Z kolei kartridże w drukarkach atramentowych są znacznie mniejsze, a cała procedura polega na włożeniu niewielkiego pojemnika z tuszem do dedykowanego slotu, najczęściej przesuwanego mechanicznie przez drukarkę. Głowica w drukarce rozetkowej, choć brzmi bardzo technicznie, nie jest elementem wymienianym przez użytkownika w taki sposób, jak na ilustracji – te współczesne urządzenia praktycznie już nie występują w typowych biurach. Mylenie tych elementów najczęściej wynika z utożsamiania każdej większej części w drukarce z „kartridżem” lub „głowicą”. W praktyce jednak, tylko bęben zintegrowany z tonerem w drukarce laserowej ma ten charakterystyczny rozmiar i sposób montażu, jak pokazano na rysunku. Branżowe dobre praktyki podkreślają też, że każda technologia druku ma swoje własne procedury serwisowe i elementy eksploatacyjne. Moim zdaniem, znajomość tych różnic bardzo ułatwia nie tylko prawidłową obsługę drukarek, lecz także skraca czas reakcji w przypadku konieczności wymiany części. Największą pułapką logiczną jest tu założenie, że wszystkie typy drukarek mają podobne rozwiązania mechaniczne – a to po prostu nie jest prawda.

Pytanie 10

Na jakich licencjach są dystrybuowane wersje systemu Linux Ubuntu?

A. GNU GPL
B. MOLP
C. Freeware
D. Public Domain
Odpowiedzi takie jak 'Public Domain', 'Freeware' oraz 'MOLP' są nieprawidłowe, ponieważ każda z nich odnosi się do zupełnie innego modelu prawnego lub dystrybucyjnego, który nie ma zastosowania w kontekście dystrybucji Ubuntu. Public Domain odnosi się do dzieł, które nie są objęte żadnymi prawami autorskimi, co oznacza, że można je swobodnie wykorzystywać. W przypadku Ubuntu, oprogramowanie jest dostępne na licencji, co oznacza, że prawa autorskie nadal obowiązują, ale użytkownicy mają określone prawa, takie jak modyfikacja i dystrybucja. Freeware to oprogramowanie dostępne bezpłatnie, ale często z zamkniętym kodem źródłowym i ograniczonymi prawami użytkowników. W przeciwieństwie do tego, GNU GPL pozwala na modyfikacje i redystrybucję, co jest kluczowym elementem otwartego oprogramowania. Natomiast MOLP (Managed Online License Program) to model licencjonowania stosowany głównie w kontekście komercyjnych produktów oprogramowania, który również nie odnosi się do zasad dystrybucji open source. Błędne wnioski w zakresie tych odpowiedzi mogą wynikać z nieporozumienia dotyczącego różnicy między licencjami open source a innymi modelami dystrybucji, co jest istotne dla zrozumienia możliwości, jakie oferuje korzystanie z systemów opartych na Linuxie. Warto zaznaczyć, że zrozumienie tych koncepcji jest kluczowe dla każdego, kto chce swobodnie poruszać się w świecie technologii informacyjnej i efektywnie korzystać z dostępnych narzędzi.

Pytanie 11

Do weryfikacji integralności systemu plików w środowisku Linux trzeba zastosować polecenie

A. man
B. fstab
C. fsck
D. mkfs
Polecenie 'fsck' (File System Consistency Check) jest kluczowym narzędziem w systemie Linux, używanym do sprawdzania i naprawy błędów w systemie plików. W kontekście zarządzania danymi, utrzymanie integralności systemu plików jest niezwykle istotne, ponieważ może zapobiec utracie danych oraz zapewnić stabilność systemu operacyjnego. Przykładowe zastosowanie polecenia 'fsck' polega na uruchomieniu go na zamontowanej partycji, co pozwala na identyfikację i, jeśli to konieczne, automatyczne naprawienie błędów. Użytkownik może również skorzystać z opcji '-y', aby automatycznie akceptować wszystkie sugerowane poprawki. Warto podkreślić, że przed użyciem 'fsck' zalecane jest odmontowanie systemu plików, aby uniknąć dodatkowych problemów. Dobrą praktyką jest regularne sprawdzanie systemu plików, zwłaszcza po nieprawidłowym wyłączeniu systemu lub awarii sprzętu, co może prowadzić do uszkodzenia danych. W kontekście standardów branżowych, 'fsck' jest zgodne z podstawowymi zasadami zarządzania systemem plików i utrzymania wysokiej dostępności danych.

Pytanie 12

Równoległy interfejs, w którym magistrala składa się z 8 linii danych, 4 linii sterujących oraz 5 linii statusowych, nie zawiera linii zasilających i umożliwia transmisję na odległość do 5 metrów, pod warunkiem, że przewody sygnałowe są skręcane z przewodami masy; w przeciwnym razie limit wynosi 2 metry, nazywa się

A. AGP
B. EISA
C. USB
D. LPT
Odpowiedzi USB, EISA i AGP są po prostu błędne z kilku powodów. USB to interfejs szeregowy, więc działa inaczej niż równoległy, przesyłając dane jedną linią, co wpływa na wydajność przy większych odległościach. Choć USB oferuje świetne prędkości transmisji i różne standardy zasilania, nie spełnia wymagań opisanych w pytaniu. EISA to z kolei architektura, która łączy różne części komputera, ale nie jest interfejsem równoległym i nie ma podanych parametrów linii. EISA jest bardziej powiązana z wewnętrznymi magistralami, a nie z zewnętrznymi połączeniami, jak LPT. AGP to port, który ma trochę inny cel - służy do podłączania kart graficznych i też nie pasuje do specyfikacji. AGP robi swoje, przyspieszając transfer danych do karty graficznej, ale nie ma nic wspólnego z komunikacją równoległą ani tymi liniami sygnałowymi. Warto wiedzieć, że wiele osób myli te standardy, co może prowadzić do niejasności w zrozumieniu ich zastosowań. Dlatego dobrze jest zrozumieć różnice między tymi interfejsami, żeby móc je dobrze wykorzystywać w projektach i rozwiązywać problemy z komunikacją między urządzeniami.

Pytanie 13

GRUB, LILO oraz NTLDR to:

A. oprogramowanie dla dysku sieciowego
B. wersje podstawowego interfejsu sieciowego
C. programy rozruchowe
D. programy do aktualizacji BIOS-u
GRUB (GRand Unified Bootloader), LILO (LInux LOader) oraz NTLDR (NT Loader) to przykłady programów rozruchowych, które pełnią kluczową rolę w procesie uruchamiania systemów operacyjnych na komputerach. Programy te są odpowiedzialne za inicjowanie i kierowanie procesem ładowania systemu operacyjnego, co jest niezbędne dla prawidłowego funkcjonowania urządzeń. GRUB jest popularnym bootloaderem w systemach Linux, umożliwiającym uruchamianie różnych systemów operacyjnych z jednego menu. LILO, chociaż coraz mniej używany, również jest bootloaderem dla systemów Linux, jednak jego konfiguracja i obsługa są mniej elastyczne w porównaniu z GRUB. NTLDR z kolei jest bootloaderem dla systemów Windows NT i jego następnych wersji, odpowiedzialnym za załadowanie jądra systemu oraz wywołanie menedżera rozruchu. Znajomość tych programów jest istotna, szczególnie w kontekście zarządzania systemami operacyjnymi oraz diagnozowania problemów z uruchamianiem. W praktyce, administratorzy systemów często muszą konfigurować bootloadery, aby dostosować środowisko uruchomieniowe do potrzeb użytkowników oraz zapewnić zgodność z różnymi systemami operacyjnymi.

Pytanie 14

Jakie jest adres rozgłoszeniowy w podsieci o adresie IPv4 192.168.160.0/21?

A. 192.168.160.254
B. 192.168.167.255
C. 192.168.255.254
D. 192.168.7.255
W przypadku niepoprawnych odpowiedzi, istnieje kilka kluczowych błędów w rozumieniu koncepcji adresacji IP i podsieci. Na przykład, adres 192.168.7.255 nie należy do podsieci 192.168.160.0/21, a jego użycie by sugerowało, że jest on związany z inną podsiecią, ponieważ adresacja IP 192.168.7.X i 192.168.160.X są oddzielne. Podobnie, 192.168.160.254, mimo że jest adresem możliwym do użycia w danej podsieci, nie jest adresem rozgłoszeniowym, który zawsze kończy się na `255` w danej klasie. Adres 192.168.255.254 również jest błędny, ponieważ nie mieści się w zakresie określonym przez podsieć /21 i jest w innej klasie adresów. Często mylące może być przyjmowanie, że adresy kończące się na `254` mogą być adresami rozgłoszeniowymi, gdyż są to zwykle adresy przydzielone dla hostów, a nie dla celów broadcastu. Kluczowym błędem jest też niezrozumienie, że adres rozgłoszeniowy jest ostatnim adresem w danej podsieci, co oznacza, że należy zawsze obliczać go na podstawie maski podsieci i zakresu adresów hostów, a nie zgadywać na podstawie końcówki adresu. W praktyce, zrozumienie tych zasad jest niezbędne do efektywnego projektowania sieci oraz do zapobiegania problemom związanym z adresacją i komunikacją w sieci.

Pytanie 15

Najmniejszymi kątami widzenia charakteryzują się matryce monitorów typu

A. TN
B. IPS/S-IPS
C. PVA
D. MVA
Odpowiedzi dotyczące matryc IPS/S-IPS, MVA oraz PVA są raczej efektem mylenia pojęć dotyczących właściwości matryc LCD. IPS, czyli In-Plane Switching, od lat uznawane są za najlepsze pod względem szerokich kątów widzenia – zarówno w pionie, jak i w poziomie. Dotyczy to nie tylko ekranów profesjonalnych, ale nawet monitorów konsumenckich, gdzie różnice są już bardzo widoczne gołym okiem. Bardzo możliwe, że ktoś wybierając IPS lub jego odmiany sądził, że „mniejsze kąty widzenia” to coś pozytywnego – a tak naprawdę chodziło o to, że obraz pozostaje niemal niezmienny, nawet jeśli patrzymy pod dużym kątem. Drugi typ, czyli matryce MVA (Multi-domain Vertical Alignment) i PVA (Patterned Vertical Alignment), to rozwiązania pośrednie, stosowane m.in. w tańszych monitorach biurowych oraz niektórych telewizorach. Oferują one lepsze kąty widzenia niż TN, choć jednak nie aż tak dobre, jak IPS. Dodatkowo, czasami użytkownicy mylą pojęcie 'kątów widzenia' z innymi parametrami, jak kontrast czy odwzorowanie kolorów – to zupełnie inne właściwości! TN to najstarsza i najbardziej budżetowa technologia, cechująca się, niestety, bardzo ograniczonymi kątami – z boku czy z dołu obraz szybko staje się wyblakły lub wręcz nieczytelny. Jeśli ktoś używał laptopa z matrycą TN, na pewno kojarzy efekt zmieniających się kolorów przy lekkim poruszeniu głową. Standardy branżowe, szczególnie w sprzęcie graficznym, od dawna wymagają szerokich kątów widzenia właśnie po to, by praca była komfortowa dla każdego użytkownika – i tutaj TN niestety odstaje. Moim zdaniem warto zawsze sprawdzić specyfikację monitora przed zakupem, bo kąt widzenia to jeden z kluczowych parametrów wpływających na praktyczne użytkowanie sprzętu, niezależnie czy mówimy o biurze czy domowej rozrywce.

Pytanie 16

Jaki jest główny cel stosowania maski podsieci?

A. Rozdzielenie sieci na mniejsze segmenty
B. Szyfrowanie transmisji danych w sieci
C. Zwiększenie przepustowości sieci
D. Ochrona danych przed nieautoryzowanym dostępem
Stwierdzenie, że maska podsieci zwiększa przepustowość sieci, to częsty błąd wynikający z niezrozumienia jej funkcji. Maska podsieci nie wpływa bezpośrednio na przepustowość. Jej zadaniem jest logiczny podział sieci na mniejsze segmenty, co może pośrednio poprawić zarządzanie ruchem, ale nie zwiększa fizycznej przepustowości łączy. Kolejny błędny pogląd to przypisywanie masce podsieci roli w ochronie danych przed nieautoryzowanym dostępem. Maska sama w sobie nie zapewnia żadnych zabezpieczeń. Jej działanie polega tylko na zarządzaniu adresacją sieciową. Ochrona danych wymaga zastosowania innych metod, takich jak firewalle, szyfrowanie oraz polityki dostępu. Natomiast myśl, że maska podsieci zajmuje się szyfrowaniem transmisji danych, wynika z mylenia pojęć związanych z bezpieczeństwem sieci. Szyfrowanie to zupełnie odrębna funkcjonalność, realizowana przez protokoły takie jak SSL/TLS czy IPsec, i nie ma związku z funkcją maski podsieci. Maski podsieci są narzędziem do zarządzania przestrzenią adresową i organizacji sieci, a nie do szyfrowania czy zabezpieczania danych.

Pytanie 17

W celu zrealizowania instalacji sieciowej na stacjach roboczych z systemem operacyjnym Windows, należy na serwerze zainstalować usługi

A. plików
B. wdrażania systemu Windows
C. terminalowe
D. pulpitu zdalnego
Wdrażanie systemu Windows to usługa, która umożliwia instalację systemu operacyjnego Windows na stacjach roboczych w sieci. Aby zrealizować ten proces, serwer musi dysponować odpowiednimi narzędziami, które automatyzują i centralizują zarządzanie instalacjami. Przykładem takiego narzędzia jest Windows Deployment Services (WDS), które pozwala na rozsyłanie obrazów systemów operacyjnych przez sieć. Dzięki WDS możliwe jest zarówno wdrażanie systemu z obrazu, jak i przeprowadzanie instalacji w trybie Preboot Execution Environment (PXE), co znacznie ułatwia proces w dużych środowiskach, gdzie wiele stacji roboczych wymaga identycznej konfiguracji. Umożliwia to również oszczędność czasu oraz redukcję błędów związanych z ręcznym wprowadzaniem danych. Zgodnie z najlepszymi praktykami branżowymi, WDS jest rekomendowane do zarządzania dużymi flotami komputerów, ponieważ zapewnia jednorodność i kontrolę nad wdrażanymi systemami.

Pytanie 18

Dwie stacje robocze w tej samej sieci nie są w stanie się skomunikować. Która z poniższych okoliczności może być przyczyną opisanego problemu?

A. Inne bramy domyślne stacji roboczych
B. Tożsame nazwy użytkowników
C. Różne systemy operacyjne stacji roboczych
D. tożsame adresy IP stacji roboczych
W kontekście komunikacji w sieci komputerowej, sytuacje takie jak posiadanie takich samych nazw użytkowników nie wpływają na zdolność do komunikacji pomiędzy stacjami roboczymi. Nazwy użytkowników są istotne dla autoryzacji i kontroli dostępu, ale nie odgrywają roli w bezpośredniej komunikacji sieciowej. Z kolei różne bramy domyślne mogą prowadzić do problemów z dostępem do zewnętrznych sieci, ale nie blokują komunikacji wewnętrznej. Brama domyślna służy do kierowania ruchu do sieci, w której znajduje się adres IP, a nie do lokalnej komunikacji pomiędzy hostami w tej samej podsieci. Różne systemy operacyjne również nie są przeszkodą w komunikacji, ponieważ większość nowoczesnych protokołów sieciowych, takich jak TCP/IP, są platformowo niezależne. Typowym błędem myślowym jest założenie, że tylko jednorodność w nazewnictwie lub systemach operacyjnych zapewnia poprawną komunikację. Kluczowe jest zrozumienie, że problem z komunikacją jest najczęściej związany z unikalnością adresów IP, a nie z innymi aspektami, które nie mają bezpośredniego wpływu na warstwę sieciową. Właściwe podejście do zarządzania adresami IP w sieci jest fundamentalne dla sprawnego działania infrastruktury IT.

Pytanie 19

Przy realizacji projektu dotyczącego sieci LAN wykorzystano medium transmisyjne standardu Ethernet 1000Base-T. Które z poniższych stwierdzeń jest prawdziwe?

A. To standard sieci optycznych, którego maksymalny zasięg wynosi 1000 metrów
B. Standard ten pozwala na transmisję typu full-duplex przy maksymalnym zasięgu 100 metrów
C. To standard sieci optycznych działających na wielomodowych światłowodach
D. Standard ten umożliwia transmisję typu half-duplex przy maksymalnym zasięgu 1000 metrów
Pierwsza odpowiedź, która sugeruje, że 1000Base-T to standard sieci optycznych pracujących na wielomodowych światłowodach, jest błędna, ponieważ 1000Base-T jest standardem Ethernetowym, który odnosi się do kabli miedzianych, a nie światłowodowych. Istnieją inne standardy, takie jak 1000Base-LX, które dotyczą transmisji w sieciach optycznych, ale 1000Base-T nie ma z nimi nic wspólnego. Kolejna odpowiedź, która wskazuje na maksymalny zasięg 1000 metrów, również nie jest prawidłowa. Zasięg standardu 1000Base-T wynosi 100 metrów, co jest zgodne z parametrami dla kabli miedzianych, a nie 1000 metrów, co jest zasięgiem stosowanym w niektórych standardach światłowodowych, jak 1000Base-LX na przewodach jedno- lub wielomodowych. Argument sugerujący, że ten standard umożliwia transmisję half-duplex przy maksymalnym zasięgu 1000 metrów, jest także mylny. 1000Base-T standardowo działa w trybie full-duplex, co oznacza, że jednoczesna transmisja i odbiór danych jest możliwa, co jest kluczowe w nowoczesnych sieciach, gdzie wydajność i prędkość komunikacji są kluczowe. Zrozumienie różnicy między różnymi standardami Ethernet oraz ich specyfikacjami technicznymi jest niezbędne do prawidłowego projektowania i wdrażania sieci lokalnych.

Pytanie 20

Jakiej klasy adresów IPv4 dotyczą adresy, które mają dwa najbardziej znaczące bity ustawione na 10?

A. Klasy D
B. Klasy C
C. Klasy A
D. Klasy B
Wybór niewłaściwej klasy adresów IPv4 może wynikać z niepełnego zrozumienia struktury adresacji w tym protokole. Klasa A, na przykład, zaczyna się od bitów 0 i obejmuje adresy od 0.0.0.0 do 127.255.255.255, co oznacza, że jest przeznaczona głównie dla bardzo dużych organizacji. Adresy klasa C rozpoczynają się od 110, co odpowiada zakresowi od 192.0.0.0 do 223.255.255.255 i są najczęściej używane w mniejszych sieciach. Klasa D, z kolei, nie jest używana do adresowania hostów, lecz do multicastingu, zaczynając się od bitów 1110. Te pomyłki mogą wynikać z zamieszania dotyczącego tego, jak klasy adresów są definiowane oraz jakie zastosowania mają poszczególne klasy. Typowym błędem jest mylenie klas adresów z ich przeznaczeniem; na przykład, klasa C jest powszechnie mylona z klasą B, mimo że każda z nich ma swoje specyficzne zastosowanie w zależności od liczby hostów, które muszą być zaadresowane. Warto zatem dokładnie zapoznać się z zasadami przydzielania adresów IP oraz ich klasyfikacją, aby uniknąć nieporozumień i problemów związanych z zarządzaniem siecią. Rozumienie tych różnic jest kluczowe dla każdego, kto pracuje z technologiami sieciowymi oraz projektuje architekturę sieci.

Pytanie 21

Jaką topologię sieci przedstawia rysunek?

Ilustracja do pytania
A. gwiazda
B. szeregowa
C. pierścień
D. siatka
Topologia magistrali, czyli bus, charakteryzuje się jednym przewodem, do którego podłączone są wszystkie urządzenia sieciowe. Jest to rozwiązanie proste i tanie, jednak mało odporne na awarie, ponieważ problem z głównym przewodem oznacza problemy dla całej sieci. W kontekście nowoczesnych rozwiązań, magistrala jest rzadko stosowana ze względu na ograniczenia skalowalności i przepustowości. Gwiaździsta topologia, znana jako star, centralizuje połączenia w jednym punkcie, którym zazwyczaj jest przełącznik lub router. Choć ułatwia diagnozowanie i rozwiązywanie problemów, awaria centralnego urządzenia powoduje utratę łączności w całej sieci. Jest jednak popularna w sieciach lokalnych (LAN) ze względu na prostotę zarządzania i rozbudowy. Topologia pierścienia, ring, tworzy zamkniętą pętlę, gdzie dane przesyłane są w jednym kierunku. Ten układ również cierpi na problemy związane z przerwaniem jednego połączenia, jednak może być bardziej odporny dzięki zastosowaniu dwukierunkowego przesyłu. Dlatego w nowoczesnych sieciach często stosuje się podwójny pierścień. Jednak żadna z tych topologii nie oferuje tak wysokiej niezawodności i redundancji jak mesh, gdzie każdy węzeł ma wiele połączeń, co optymalizuje trasowanie i odporność na awarie, czyniąc ją najbardziej efektywną w krytycznych zastosowaniach.

Pytanie 22

Najskuteczniejszym sposobem na wykonanie codziennego archiwizowania pojedynczego pliku o wielkości 4,8 GB, na jednym komputerze bez dostępu do Internetu jest

A. korzystanie z pamięci USB z systemem plików FAT32
B. korzystanie z pamięci USB z systemem plików NTFS
C. zapisanie na płycie DVD-5 w formacie ISO
D. skompresowanie i zapisanie w lokalizacji sieciowej
Wybór opcji polegającej na spakowaniu i przechowywaniu pliku w lokalizacji sieciowej jest nieodpowiedni z uwagi na brak dostępu do sieci w przedstawionym scenariuszu. Nawet gdyby lokalizacja sieciowa była dostępna, archiwizacja w ten sposób nie rozwiązuje problemu przechowywania dużych plików, a także wiąże się z potencjalnym ryzykiem utraty danych w przypadku awarii sieci lub serwera. Nagranie pliku na płytę DVD-5 w standardzie ISO, mimo że dla wielu użytkowników może wydawać się praktycznym rozwiązaniem, jest niewłaściwą opcją, ponieważ standard DVD-5 obsługuje maksymalny rozmiar pliku wynoszący 4,7 GB. W związku z tym plik 4,8 GB nie zmieści się na takiej płycie, co prowadziłoby do problemów z archiwizacją. Z kolei użycie pamięci USB z systemem plików FAT32 również jest niewłaściwe, ponieważ ten system plików ma ograniczenie dotyczące maksymalnego rozmiaru pojedynczego pliku wynoszącego 4 GB. W przypadku pliku o rozmiarze 4,8 GB użytkownik napotkałby trudności przy próbie zapisu, co może prowadzić do frustracji i strat czasowych. Wybór odpowiedniego systemu plików i nośnika jest kluczowy dla efektywnego zarządzania danymi, a każdy z przedstawionych błędnych rozwiązań nie tylko nie rozwiązuje problemu archiwizacji, ale również naraża użytkownika na ryzyko utraty danych lub problemów technicznych.

Pytanie 23

Urządzenie, które pozwala na połączenie hostów w jednej sieci z hostami w różnych sieciach, to

A. hub.
B. router.
C. firewall.
D. switch.
Router to urządzenie sieciowe, które pełni kluczową rolę w komunikacji pomiędzy różnymi sieciami. Jego podstawowym zadaniem jest przekazywanie pakietów danych z jednej sieci do drugiej, co jest niezbędne w przypadku połączenia hostów znajdujących się w różnych lokalizacjach geograficznych. Routery wykorzystują tablice routingu, aby optymalizować trasę, jaką mają przebyć dane, co pozwala na efektywne zarządzanie ruchem sieciowym. Przykładem zastosowania routerów są połączenia internetowe, gdzie router łączy lokalną sieć domową lub biurową z Internetem, umożliwiając wymianę informacji z serwerami znajdującymi się w różnych częściach świata. Routery mogą również obsługiwać różne protokoły, takie jak TCP/IP, oraz wprowadzać dodatkowe funkcje, takie jak NAT (Network Address Translation), które pozwalają na oszczędność adresów IP i zwiększenie bezpieczeństwa. W branży IT routery są standardem w budowaniu sieci, a ich konfiguracja zgodnie z najlepszymi praktykami zapewnia niezawodność i wydajność komunikacji.

Pytanie 24

Sprzęt sieciowy umożliwiający połączenie pięciu komputerów w tej samej sieci, minimalizując ryzyko kolizji pakietów, to

A. koncentrator.
B. ruter.
C. przełącznik.
D. most.
Przełącznik, nazywany również switch, jest kluczowym urządzeniem w nowoczesnych sieciach komputerowych. Działa na poziomie drugiego (łącza danych) i trzeciego (sieci) modelu OSI, co pozwala mu skutecznie zarządzać przesyłem danych pomiędzy różnymi urządzeniami w tej samej sieci lokalnej. Przełącznik analizuje adresy MAC (Media Access Control) urządzeń podłączonych do portów, co umożliwia mu wysyłanie pakietów danych tylko do konkretnego urządzenia, a nie do wszystkich, jak ma to miejsce w przypadku koncentratora. Dzięki temu minimalizuje ryzyko kolizji pakietów, co przekłada się na wyższą wydajność całej sieci. W praktyce, przełączniki są powszechnie stosowane w biurach, szkołach oraz centrach danych, gdzie istnieje potrzeba efektywnego zarządzania dużymi ilościami ruchu sieciowego. Istnieją również zaawansowane przełączniki zarządzane, które pozwalają na konfigurację i monitorowanie ruchu sieciowego, co jest zgodne z najlepszymi praktykami zarządzania sieciami. W kontekście rozwoju technologii, przełączniki Ethernet stały się podstawowym elementem infrastruktury sieciowej, wspierając standardy takie jak IEEE 802.3.

Pytanie 25

Poprzez użycie polecenia ipconfig /flushdns można przeprowadzić konserwację urządzenia sieciowego, która polega na

A. wyczyszczeniu bufora systemu nazw domenowych
B. zwolnieniu dzierżawy adresu pozyskanego z DHCP
C. aktualizacji ustawień nazw interfejsów sieciowych
D. odnowieniu dzierżawy adresu IP
Wybór opcji dotyczącej odnowienia dzierżawy adresu IP lub zwolnienia tej dzierżawy z DHCP wskazuje na niepełne zrozumienie działania protokołu DHCP. Protokół ten jest odpowiedzialny za dynamiczne przydzielanie adresów IP urządzeniom w sieci. Odnowienie dzierżawy oznacza, że urządzenie wysyła żądanie do serwera DHCP w celu przedłużenia czasu, przez który może korzystać z danego adresu IP. Zwolnienie dzierżawy natomiast jest procesem, w którym adres IP zostaje uwolniony z zasobów DHCP, co pozwala innym urządzeniom na jego użycie. Oba te procesy są niezwiązane z pamięcią podręczną DNS. Aktualizacja ustawień nazw interfejsów sieciowych to kolejna niepoprawna odpowiedź, ponieważ nie ma bezpośredniego związku z poleceniem 'ipconfig /flushdns'. Ustawienia nazw interfejsów dotyczą konfiguracji samego interfejsu sieciowego, a nie pamięci podręcznej DNS. Typowym błędem myślowym jest mylenie funkcji związanych z DHCP i DNS, co prowadzi do nieprawidłowych wniosków na temat ich działania. Kluczowe jest zrozumienie, że każde z tych poleceń pełni inną rolę w zarządzaniu siecią, a mylenie ich może prowadzić do problemów z łącznością i funkcjonowaniem sieci.

Pytanie 26

Rodzajem złośliwego oprogramowania będącego programem rezydentnym, który działa, wykonując konkretną operację, nie powiela się przez sieć, a jedną z jego metod jest samoreplikacja aż do wyczerpania pamięci komputera, jest

A. Wabbit
B. Stealware
C. Rootkit
D. Backdoor
Wielu osobom rootkit, stealware czy backdoor wydają się pasować do opisu złośliwego oprogramowania, ale każda z tych kategorii ma swoje charakterystyczne cechy i działa zupełnie inaczej niż wabbit. Rootkit to w rzeczywistości złośliwy zestaw narzędzi służących do ukrywania obecności atakującego na zainfekowanym systemie – nie chodzi tu o samoreplikację czy wyczerpywanie pamięci, tylko raczej o długofalowe utrzymanie się w systemie i maskowanie innych szkodliwych procesów. Stealware, jak sama nazwa sugeruje, jest projektowane głównie po to, by wykradać dane lub przekierowywać środki, najczęściej przy pomocy manipulowania ruchem internetowym użytkownika. To złośliwe oprogramowanie jest raczej ciche i nie powoduje skokowego zużycia pamięci RAM czy przeciążenia procesora. Jeśli chodzi o backdoora, to mamy do czynienia z funkcją umożliwiającą pominięcie standardowych mechanizmów uwierzytelniania – backdoor pozwala atakującemu na dostęp do systemu, ale nie opiera się na masowej samoreplikacji i wyczerpywaniu zasobów sprzętowych. Moim zdaniem często powtarzanym błędem jest utożsamianie wszelkich poważniejszych objawów infekcji z rootkitami lub backdoorami, bo te określenia są popularne w mediach. Jednak w praktyce, jeśli widzimy objawy typowego wyczerpywania pamięci wskutek masowego namnażania się procesu, to należy pomyśleć właśnie o takich przypadkach jak wabbit. Standardy bezpieczeństwa, jak ISO/IEC 27002, zalecają, by analizować symptomy ataku z kilku perspektyw – nie tylko przez pryzmat wykradania danych lub zdalnej kontroli, ale też pod kątem anomalii w zarządzaniu zasobami systemowymi. W tej sytuacji, żadne z wymienionych błędnych odpowiedzi nie trafia w sedno mechanizmu działania złośliwego programu opisanego w pytaniu.

Pytanie 27

Jakiego typu rozbudowa serwera wymaga zainstalowania dodatkowych sterowników?

A. Montaż kolejnej karty sieciowej
B. Dodanie pamięci RAM
C. Dodanie dysków fizycznych
D. Instalacja kolejnego procesora
Montaż kolejnej karty sieciowej wymaga dodatkowych sterowników, ponieważ każda nowa karta sieciowa zazwyczaj posiada własny zestaw sterowników, które muszą być zainstalowane w systemie operacyjnym, aby zapewnić pełną funkcjonalność urządzenia. Sterowniki te pozwalają systemowi na komunikację z kartą, umożliwiając przesyłanie danych przez sieć. Na przykład, jeśli dodasz kartę sieciową obsługującą technologię Ethernet, musisz zainstalować odpowiednie sterowniki, aby system operacyjny mógł korzystać z jej funkcji, takich jak szybkie przesyłanie danych czy obsługa protokołów sieciowych. W praktyce, po zainstalowaniu nowej karty, użytkownicy często korzystają z płyty CD lub instalatorów dostępnych w Internecie, aby pobrać i zainstalować najnowsze sterowniki, co jest zgodne z zaleceniami producentów sprzętu. Ważne jest również, aby upewnić się, że sterowniki są aktualne, aby uniknąć problemów z kompatybilnością oraz zapewnić najwyższą wydajność i bezpieczeństwo systemu. Niektóre systemy operacyjne mogą automatycznie wykrywać i instalować niezbędne sterowniki, ale zawsze warto sprawdzić ich wersje i aktualizacje manualnie.

Pytanie 28

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. konfigurowaniem adresu karty sieciowej.
C. dodaniem drugiego dysku twardego.
D. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 29

Które z poniższych stwierdzeń na temat protokołu DHCP jest poprawne?

A. To jest protokół transferu plików
B. To jest protokół trasowania
C. To jest protokół konfiguracji hosta
D. To jest protokół dostępu do bazy danych
Zrozumienie roli protokołu DHCP wymaga jasnego odróżnienia jego funkcji od innych protokołów sieciowych. Protokół routingu, na przykład, jest odpowiedzialny za trasowanie danych pomiędzy różnymi sieciami i nie zajmuje się przydzielaniem adresów IP dla indywidualnych hostów. Zdecydowanie różni się od DHCP, które koncentruje się na konfiguracji hosta w sieci lokalnej. Z kolei protokół przesyłania plików, taki jak FTP, służy do transferu plików między komputerami, a nie do zarządzania adresami IP. W związku z tym nie może być mylony z DHCP, który jest kluczowy dla przypisywania dynamicznych adresów IP oraz konfigurowania związanych z nimi parametrów. Również pomylenie DHCP z protokołami dostępu do baz danych, które mają całkowicie inną funkcję, jest powszechnym błędem. Te protokoły są skoncentrowane na zarządzaniu danymi i interfejsami dla baz danych, co nie ma żadnego związku z mechanizmem przydzielania adresów IP. Właściwe zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania infrastrukturą sieciową i unikania typowych pułapek myślowych, które mogą prowadzić do błędnych przypuszczeń na temat roli i funkcji protokołów sieciowych.

Pytanie 30

Komputer A, który musi wysłać dane do komputera B znajdującego się w sieci z innym adresem IP, najpierw przekazuje pakiety do adresu IP

A. komputera docelowego
B. serwera DNS
C. bramy domyślnej
D. alternatywnego serwera DNS
Odpowiedź "bramy domyślnej" jest jak najbardziej trafna. Kiedy komputer A chce przesłać dane do komputera B w innej sieci, najpierw musi skontaktować się z bramą domyślną, czyli routerem. To właśnie ten router ma dostęp do różnych sieci. Brawo, brama domyślna kieruje ruch poza lokalną sieć. Więc kiedy komputer A wysyła pakiet do B, to najpierw ten pakiet trafia do bramy, która decyduje, gdzie te dane powinny dalej iść, zapewniając, że trafią na odpowiednią trasę. Właśnie to jest zgodne z modelem OSI, gdzie warstwa sieciowa odpowiada za to adresowanie. Dobrze jest wiedzieć, że jeśli na komputerze A zostanie ustawiona brama, to wszystkie pakiety do adresów IP zewnętrznych przejdą przez nią. To naprawdę istotny element w zarządzaniu ruchem w sieci, który jest kluczowy w projektowaniu i administrowaniu sieciami.

Pytanie 31

Rozmiar pliku wynosi 2 KiB. Co to oznacza?

A. 16384 bitów
B. 2000 bitów
C. 16000 bitów
D. 2048 bitów
Odpowiedź 16384 bitów jest poprawna, ponieważ 1 KiB (kibibajt) to 1024 bajty, a każdy bajt składa się z 8 bitów. Zatem, aby przeliczyć 2 KiB na bity, należy wykonać następujące obliczenia: 2 KiB * 1024 bajtów/KiB * 8 bitów/bajt = 16384 bitów. Znajomość jednostek miary danych jest kluczowa w informatyce, ponieważ pozwala na efektywne zarządzanie pamięcią oraz transferem danych. W praktyce, przy projektowaniu systemów informatycznych, programiści i inżynierowie muszą uwzględniać rozmiar danych, aby zoptymalizować wydajność systemu, zarówno pod względem szybkości przetwarzania, jak i zużycia zasobów. Stosowanie standardowych jednostek, takich jak KiB, MiB czy GiB, jest zgodne z normami ustalonymi przez Międzynarodową Organizację Normalizacyjną (ISO), co zapewnia spójność i jasność w komunikacji technicznej. Dlatego też, zrozumienie tego przelicznika jest niezbędne w codziennej pracy inżynierów oprogramowania, administratorów systemów oraz specjalistów IT.

Pytanie 32

Na wskazanej płycie głównej możliwe jest zainstalowanie procesora w obudowie typu

Ilustracja do pytania
A. PGA
B. SPGA
C. LGA
D. SECC
Wybierając niepoprawny typ gniazda można łatwo wpaść w pułapki niewłaściwego rozumienia architektury płyty głównej i procesora. PGA czyli Pin Grid Array to typ gniazda w którym piny znajdują się na procesorze a nie na płycie głównej jak w przypadku LGA. Procesory AMD często wykorzystują ten typ gniazda co może prowadzić do błędnych skojarzeń że każdy procesor może pasować do dowolnego gniazda. SECC czyli Single Edge Contact Cartridge to starszy typ obudowy procesora używany w procesorach Intel Pentium II i III gdzie procesor znajdował się w specjalnej kasecie co jest już rzadkością we współczesnych systemach i nie jest kompatybilne z nowoczesnymi płytami głównymi. SPGA czyli Staggered Pin Grid Array jest wariantem PGA z pinami ułożonymi w nieco inny sposób w celu zwiększenia ich liczby. Każda z tych opcji ma swoje specyficzne zastosowania i ograniczenia w zależności od producenta i modelu procesora. Zrozumienie różnic w konstrukcji gniazd procesorów jest kluczowe do prawidłowego doboru komponentów komputerowych co wpływa na ogólną wydajność stabilność i możliwości rozbudowy systemu komputerowego. Niezależnie od wyboru kluczowe jest aby zawsze dopasować procesor do odpowiedniego gniazda co zapewnia kompatybilność i optymalną pracę całego systemu komputerowego. Dlatego znajomość budowy i specyfikacji technicznych płyt głównych oraz procesorów jest niezbędna dla każdego technika IT.

Pytanie 33

W terminalu systemu Windows, do zarządzania parametrami konta użytkownika komputera, takimi jak okres ważności hasła, minimalna długość hasła, czas blokady konta i inne, wykorzystywane jest polecenie

A. NET CONFIG
B. NET USE
C. NET ACCOUNTS
D. NET USER
Polecenie NET USER w systemie Windows służy do zarządzania użytkownikami konta, w tym do ustawiania polityki haseł. Umożliwia administratorom konfigurowanie ważnych parametrów, takich jak minimalna długość hasła, czas ważności hasła oraz blokowanie konta po określonym czasie nieaktywności. Przykładowo, używając komendy 'NET USER [nazwa_użytkownika] /expires:[data]', administrator może ustawić datę, po której dane konto przestanie być aktywne. Dzięki temu można efektywnie zarządzać bezpieczeństwem systemu oraz dostosować polityki haseł do standardów branżowych, takich jak NIST SP 800-63. Dobre praktyki wskazują, że regularne aktualizowanie haseł oraz ich odpowiednia długość są kluczowe dla ochrony danych. Ponadto, polecenie NET USER pozwala na sprawdzenie stanu konta oraz jego ustawień, co jest niezbędne w kontekście audytów bezpieczeństwa.

Pytanie 34

Protokół transportowy bezpołączeniowy to

A. SSH
B. TCP
C. ARP
D. UDP
ARP (Address Resolution Protocol) nie jest protokołem warstwy transportowej, lecz protokołem warstwy łącza danych, który służy do tłumaczenia adresów IP na adresy MAC w sieciach lokalnych. Jego głównym zadaniem jest umożliwienie komunikacji w sieciach Ethernet, co czyni go fundamentalnym dla prawidłowego działania sieci lokalnych, ale nie ma zastosowania w kontekście przesyłania danych na wyższych warstwach. TCP (Transmission Control Protocol) to z kolei protokół warstwy transportowej, który zapewnia połączeniowe przesyłanie danych, co oznacza, że przed wysłaniem danych nawiązywane jest połączenie. TCP oferuje niezawodność dzięki mechanizmom takim jak retransmisja utraconych pakietów i kontrola przepływu, ale te cechy sprawiają, że jest wolniejszy w porównaniu do UDP. SSH (Secure Shell) to protokół służący do bezpiecznego zdalnego logowania oraz zarządzania systemami, działający na warstwie aplikacji. Choć używa protokołu TCP do przesyłania danych, nie jest samodzielnym protokołem warstwy transportowej. Zrozumienie różnic między tymi protokołami jest kluczowe, by unikać pomyłek w ich zastosowaniach. Typowym błędem jest przypisywanie funkcji protokołów z różnych warstw do jednego kontekstu, co prowadzi do nieporozumień i niewłaściwego ich wykorzystania w praktyce. W kontekście wyboru protokołu do przesyłania danych, ważne jest, aby znać różnice między protokołami połączeniowymi a bezpołączeniowymi, oraz ich odpowiednie zastosowania w zależności od wymagań aplikacji.

Pytanie 35

Urządzeniem wejściowym komputera, realizującym z najwyższą precyzją funkcje wskazujące w środowisku graficznym 3D, jest

A. mysz bezprzewodowa.
B. manipulator przestrzenny.
C. trackball.
D. touchpad.
Prawidłowa odpowiedź to manipulator przestrzenny, bo właśnie to urządzenie zostało stworzone specjalnie do precyzyjnego sterowania w środowiskach 3D. W odróżnieniu od klasycznej myszy, która działa głównie w dwóch osiach (X i Y) plus ewentualnie rolka, manipulator przestrzenny pozwala na jednoczesne sterowanie aż sześcioma stopniami swobody: przesunięciami w trzech osiach oraz obrotami wokół tych osi. W praktyce oznacza to, że w programach CAD 3D, systemach modelowania 3D, wizualizacjach architektonicznych czy przy obsłudze robotów i symulatorów można bardzo płynnie przesuwać, obracać i przybliżać obiekty, bez kombinowania z klawiaturą i dodatkowymi skrótami. Moim zdaniem, jeśli ktoś poważnie pracuje z 3D, to manipulator przestrzenny jest po prostu standardem branżowym – w wielu biurach projektowych, studiach inżynierskich czy przy pracy z oprogramowaniem typu SolidWorks, AutoCAD 3D, Blender czy 3ds Max, takie urządzenia są normalnym wyposażeniem stanowiska. Producenci, tacy jak 3Dconnexion, dostarczają dedykowane sterowniki i pluginy do popularnych aplikacji, co dodatkowo zwiększa precyzję i ergonomię. Dzięki temu ruchy wirtualnej kamery czy modelu są dużo bardziej naturalne i zbliżone do realnej manipulacji obiektem w przestrzeni. Z praktycznego punktu widzenia manipulator przestrzenny odciąża też nadgarstek i dłoń, bo nie trzeba wykonywać długich, powtarzalnych ruchów jak myszą. Użytkownik delikatnie naciska, odchyla lub skręca głowicę manipulatora, a oprogramowanie interpretuje to jako ruch w przestrzeni 3D. To jest bardzo wygodne przy długiej pracy projektowej, gdzie liczy się dokładność ustawienia widoku i komfort. W dobrych praktykach ergonomii stanowiska komputerowego, szczególnie dla projektantów i inżynierów, często zaleca się właśnie wykorzystanie myszy do typowych operacji i manipulatora przestrzennego do sterowania widokiem 3D. Dlatego spośród podanych opcji to właśnie manipulator przestrzenny najlepiej spełnia kryterium najwyższej precyzji wskazywania w środowisku graficznym 3D.

Pytanie 36

Aby prawidłowo uzupełnić składnię przedstawionego polecenia, które udostępnia folder 'Dane' pod nazwą 'test', w miejsce kropek należy wpisać odpowiednie słowo:

net ... test=C:\Dane
A. display
B. link
C. apply
D. share
Słowo 'share' jest poprawną odpowiedzią w kontekście polecenia udostępniania folderów w systemie Windows. W systemach operacyjnych, aby udostępnić folder innym użytkownikom w sieci, należy użyć odpowiednich poleceń, które umożliwiają dzielenie się zasobami. Polecenie 'net share' jest standardowym sposobem na udostępnianie folderów, a jego składnia wymaga podania nazwy udostępnianego folderu oraz ścieżki do niego. Przykładowo, komenda 'net share test=C:\Dane' udostępnia folder 'Dane' pod nazwą 'test'. Użytkownicy w sieci mogą następnie uzyskać dostęp do tego folderu, co jest przydatne w wielu scenariuszach, takich jak współpraca w biurze czy dzielenie się plikami w grupie projektowej. Korzystanie z polecenia 'net share' jest zgodne z najlepszymi praktykami zarządzania zasobami w sieciach komputerowych, a jego znajomość jest niezbędna dla administratorów systemów operacyjnych.

Pytanie 37

System S.M.A.R.T. jest wykorzystywany do nadzorowania działania oraz identyfikacji usterek

A. kart rozszerzeń
B. płyty głównej
C. dysków twardych
D. napędów płyt CD/DVD
Wybór odpowiedzi związanych z płytą główną, kartami rozszerzeń oraz napędami płyt CD/DVD jest błędny, ponieważ S.M.A.R.T. został opracowany wyłącznie dla dysków twardych i SSD. Płyta główna, jako centralny element komputera, nie wymaga monitorowania w taki sam sposób jak dyski. Jej funkcjonowanie opiera się na zasilaniu komponentów oraz zarządzaniu danymi, ale nie na samodzielnym wykrywaniu błędów w kontekście niezawodności. Karty rozszerzeń, takie jak karty graficzne czy dźwiękowe, również nie są objęte systemem S.M.A.R.T., ponieważ ich funkcje oraz mechanizmy działania są zupełnie inne, a ewentualne problemy z ich wydajnością są diagnozowane za pomocą innych narzędzi. Napędy płyt CD/DVD, mimo że mogą przechowywać ważne dane, nie korzystają z systemu S.M.A.R.T., gdyż technologia ta jest dedykowana wyłącznie dyskom, które mają złożoną elektronikę monitorującą ich stan. Zrozumienie tych różnic jest kluczowe dla efektywnego zarządzania sprzętem komputerowym. Użytkownicy mogą mylnie sądzić, że wszystkie komponenty komputerowe powinny być monitorowane w podobny sposób, co prowadzi do niepełnych wniosków dotyczących diagnostyki i konserwacji sprzętu. Właściwe zrozumienie, które systemy monitorujące są dedykowane odpowiednim urządzeniom, jest niezbędne dla zapewnienia skutecznego zarządzania ryzykiem i minimalizacji awarii.

Pytanie 38

Zasadniczym sposobem zabezpieczenia danych przechowywanych na serwerze jest

A. uruchomienie ochrony systemu
B. ustawienie punktu przywracania systemu
C. automatyczne wykonywanie kompresji danych
D. tworzenie kopii zapasowej
Tworzenie kopii bezpieczeństwa danych jest podstawowym mechanizmem ochrony danych znajdujących się na serwerze, ponieważ pozwala na ich odzyskanie w przypadku awarii, ataku cybernetycznego czy przypadkowego usunięcia. Regularne tworzenie kopii zapasowych jest uznawane za najlepszą praktykę w zarządzaniu danymi, a standardy takie jak ISO 27001 podkreślają znaczenie bezpieczeństwa danych. Przykładem wdrożenia tej praktyki może być stosowanie rozwiązań takich jak systemy RAID, które przechowują dane na wielu dyskach, lub zewnętrzne systemy kopii zapasowych, które wykonują automatyczne backupy. Oprócz tego, ważne jest, aby kopie bezpieczeństwa były przechowywane w różnych lokalizacjach, co zwiększa ich odporność na awarie fizyczne. Nie należy również zapominać o regularnym testowaniu odtwarzania danych z kopii zapasowych, co zapewnia pewność ich integralności i użyteczności w krytycznych momentach. Takie podejście nie tylko minimalizuje ryzyko utraty danych, ale także pozwala na szybsze przywrócenie ciągłości działania organizacji.

Pytanie 39

Jakie polecenie w systemie Linux rozpoczyna weryfikację dysku oraz pozwala na usunięcie jego usterek?

A. lshw
B. fsck
C. mkfs
D. fdisk
Polecenie fsck (file system check) jest narzędziem w systemie Linux, które służy do sprawdzania integralności systemu plików na dysku oraz naprawy wszelkich wykrytych błędów. Użycie tego narzędzia jest kluczowe w przypadku, gdy system plików uległ uszkodzeniu, co może się zdarzyć na skutek nieprawidłowego wyłączenia systemu, błędów sprzętowych lub problemów z zasilaniem. fsck działa poprzez analizę struktury systemu plików i wykrywanie potencjalnych uszkodzeń, takich jak utracone lub uszkodzone bloki, błędne wskaźniki i inne nieprawidłowości. W przypadku wykrycia problemów, fsck podejmuje próby ich naprawy, co może obejmować usuwanie uszkodzonych plików lub naprawę tablicy alokacji. Przykładem zastosowania może być uruchomienie polecenia w trybie ratunkowym, co pozwala na przeprowadzenie diagnostyki bez uruchamiania pełnego systemu operacyjnego. Warto również pamiętać o wykonywaniu kopii zapasowych danych przed użyciem fsck, aby zminimalizować ryzyko utraty ważnych informacji.

Pytanie 40

Schemat blokowy ilustruje

Ilustracja do pytania
A. streamer
B. dysk twardy
C. napęd dyskietek
D. napęd DVD-ROM
Wybranie innych opcji pokazuje, że może nie do końca rozumiesz, jak działają urządzenia pamięci masowej. Napęd DVD-ROM to urządzenie, które odczytuje dane z płyt. A jego schemat jest zupełnie inny, bo nie ma tam wirujących talerzy jak w dyskach twardych. Napęd dyskietek, który kiedyś był na porządku dziennym, jest jeszcze prostszy i to zupełnie inna technologia, bo używa elastycznych dysków o małej pojemności. Te dyskietki są naprawdę już przestarzałe. Natomiast streamer zapisuje dane na taśmach i jest używany dla archiwizacji. Chociaż taśmy oferują dużą pojemność, to mechanizm ich pracy nie przypomina dysków twardych. Rozumienie tych różnic między urządzeniami jest naprawdę ważne, bo potrzebujesz tego w praktycznym zastosowaniu w IT. Może warto jeszcze raz przejrzeć, jak to wszystko działa?