Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 22 kwietnia 2026 20:34
  • Data zakończenia: 22 kwietnia 2026 20:35

Egzamin niezdany

Wynik: 6/40 punktów (15,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

Użytkownik systemu Windows doświadcza komunikatów o niewystarczającej pamięci wirtualnej. Jak można rozwiązać ten problem?

A. powiększenie rozmiaru pliku virtualfile.sys
B. dodanie kolejnego dysku
C. rozbudowa pamięci cache procesora
D. zwiększenie pamięci RAM
Zwiększenie rozmiaru pliku virtualfile.sys może się wydawać mądrym pomysłem, ale tak naprawdę to tylko częściowo pomoże z pamięcią wirtualną, a na fizyczną pamięć RAM to nie ma większego wpływu. Powiększenie pliku wymiany może pomóc, gdy RAM-u brakuje, ale to nie rozwiązuje całego problemu. Windows korzysta z pliku wymiany, jak RAM jest pełen, ale prace na dysku twardym są dużo wolniejsze, co przecież obniża wydajność. Poza tym, jak podłączysz dodatkowy dysk, to może i zwiększysz miejsce na plik wymiany, ale na fizyczną pamięć RAM to nie wpłynie. Nawet dodatkowa pamięć cache procesora nie załatwi sprawy z pamięcią wirtualną, bo cache jest do trzymania danych blisko CPU, a to nie przyspiesza samej pamięci. Myślę, że zwiększenie RAM-u to najważniejszy krok przy zarządzaniu pamięcią systemu, a inne metody mogą tylko ukrywać objawy problemu, ale go nie rozwiążą. Często ludzie mylą RAM z pamięcią wirtualną, co prowadzi do złych decyzji o powiększaniu plików wymiany czy dokupowaniu dysków, nie rozumiejąc, że kluczowa jest sama fizyczna pamięć operacyjna.

Pytanie 2

Termin określający wyrównanie tekstu do prawego i lewego marginesu to

A. justowaniem
B. wersalikiem
C. kapitalikiem
D. interlinią
Interlinia odnosi się do odległości między wierszami tekstu, co ma wpływ na czytelność i estetykę układu tekstu, ale nie dotyczy wyrównania marginesów. Użycie interlinii w projektach graficznych jest ważne, ponieważ odpowiednio dobrana odległość między wierszami może znacząco poprawić komfort czytania, jednak nie ma ona nic wspólnego z procesem wyrównywania tekstu do marginesów. Wersaliki to duże, drukowane litery, które są najczęściej używane w nagłówkach lub wyróżnieniach, jednak nie są formą wyrównania tekstu. Użycie wersalików powinno być ograniczone, ponieważ nadmiar dużych liter może obniżyć czytelność tekstu. Kapitaliki, z kolei, to małe litery o wyglądzie podobnym do wersalików, ale nie są one odpowiednie do opisu wyrównania tekstu. Kapitaliki stosuje się, aby dodać elegancji lub wyróżnienia w tekście, ale ich użycie bezpośrednio nie wpływa na układ tekstu w odniesieniu do marginesów. Ogólnie rzecz biorąc, pomylenie tych terminów może prowadzić do nieporozumień w praktykach typograficznych, co może skutkować nieefektywnym projektowaniem tekstu i dokumentów, które nie są dostosowane do standardów branżowych.

Pytanie 3

Jakie narzędzie w systemie Windows służy do przeglądania informacji dotyczących problemów z systemem?

A. Zasady grupy
B. Podgląd zdarzeń
C. Harmonogram zadań
D. Foldery udostępnione
Wybór Zasad grupy, Folderów udostępnionych czy Harmonogramu zadań w kontekście monitorowania problemów systemowych jest nietrafiony ze względu na ich specyfikę funkcjonalną. Zasady grupy służą przede wszystkim do zarządzania politykami bezpieczeństwa i konfiguracjami systemów w sieciach komputerowych, a ich rola nie obejmuje bezpośredniego monitorowania zdarzeń czy błędów w systemie. Foldery udostępnione są narzędziem do współdzielenia plików w sieci, co również nie ma związku z diagnozowaniem problemów systemowych. Harmonogram zadań może być używany do automatyzacji uruchamiania programów i skryptów, jednak nie dostarcza on informacji na temat zdarzeń czy błędów, które występują w systemie. Użytkownicy mogą mylnie uważać, że te narzędzia mogą pomóc w diagnostyce, jednak ich zastosowanie jest całkowicie różne od funkcji, jakie pełni Podgląd zdarzeń. Właściwe zrozumienie funkcji poszczególnych narzędzi systemowych oraz ich zastosowania jest kluczowe dla efektywnego zarządzania systemami informatycznymi i pozwala uniknąć nieporozumień, które mogą prowadzić do opóźnień w rozwiązywaniu problemów.

Pytanie 4

Najefektywniejszym zabezpieczeniem danych firmy, której siedziby znajdują się w różnych, odległych od siebie lokalizacjach, jest zastosowanie

A. kopii przyrostowych.
B. kompresji strategicznych danych.
C. backupu w chmurze firmowej.
D. kopii analogowych.
Wiele osób przy wyborze sposobu zabezpieczenia danych myśli o znanych i utartych metodach, takich jak np. wykonywanie kopii analogowych albo stosowanie kopii przyrostowych. W praktyce jednak takie podejścia mają sporo ograniczeń, szczególnie gdy firma działa w wielu oddalonych od siebie lokalizacjach. Kopie analogowe, czyli np. papierowe wydruki czy zapisy na nośnikach fizycznych typu płyty CD, są po prostu niepraktyczne w dzisiejszych realiach – trudno je szybko przywracać, łatwo zniszczyć, a jeśli jedna siedziba spłonie lub zostanie zalana, cała kopia może przepaść. Kopie przyrostowe są przydatne w codziennej pracy, bo oszczędzają miejsce i czas, ale same w sobie nie rozwiązują problemu bezpieczeństwa geograficznego – jeśli trzymamy je tylko lokalnie, to w przypadku awarii w danej lokalizacji nadal jesteśmy narażeni na utratę danych. Kompresja strategicznych danych to bardziej metoda optymalizacji miejsca niż faktyczne zabezpieczenie – skompresowane dane nadal mogą zostać utracone, jeśli nie mamy ich odpowiednich kopii zapasowych w bezpiecznych miejscach. Wydaje mi się, że często zapomina się o tym, że kluczowym elementem skutecznego backupu jest przechowywanie go poza siedzibą firmy – tak, żeby żaden lokalny incydent nie pozbawił nas wszystkich informacji. Branżowe standardy, takie jak wspomniana zasada 3-2-1, podkreślają, że jedna kopia powinna być w innej fizycznej lokalizacji, najlepiej w chmurze, gdzie można ją łatwo odtworzyć w razie czego. Właśnie dlatego backup w chmurze firmowej to dziś praktycznie oczywistość, jeśli chodzi o bezpieczeństwo danych rozproszonych organizacji.

Pytanie 5

W sieciach opartych na standardzie, jaką metodę dostępu do medium wykorzystuje CSMA/CA?

A. IEEE 802.3
B. IEEE 802.8
C. IEEE 802.11
D. IEEE 802.1
Wybór odpowiedzi innej niż IEEE 802.11 wskazuje na nieporozumienie dotyczące zastosowania różnych standardów w kontekście metod dostępu do medium. IEEE 802.1 to standard dotyczący protokołów sieciowych i zarządzania, który nie definiuje metod dostępu do medium, co sprawia, że nie jest on odpowiedni w tym kontekście. Z kolei IEEE 802.3, jako standard dla Ethernetu, wykorzystuje mechanizm CSMA/CD, czyli wykrywanie kolizji, co jest niezgodne z zasadami działania sieci bezprzewodowych, gdzie kolizje są trudniejsze do wykrycia. Standard IEEE 802.8 również nie odnosi się do metod dostępu do medium, a jego zakres obejmuje głównie interfejsy i technologie związane z transportem w sieciach. To prowadzi do błędnego myślenia, że wszystkie standardy 802.x są w jakiś sposób związane z metodami dostępu do medium. Kluczowym błędem jest mylenie zastosowań poszczególnych standardów oraz nieznajomość ich specyfiki. Zrozumienie różnic między standardami IEEE, w szczególności w kontekście radiofoni, jest niezbędne do efektywnego projektowania i implementacji sieci, gdzie metody dostępu odgrywają kluczową rolę w zapewnieniu stabilności i wydajności komunikacji.

Pytanie 6

Do przechowywania fragmentów dużych plików programów oraz danych, które nie mieszczą się w całości w pamięci, wykorzystywany jest

A. menedżer zadań
B. plik stronicowania
C. schowek systemu
D. edytor rejestru
Plik stronicowania jest kluczowym elementem zarządzania pamięcią w systemach operacyjnych, który pozwala na przechowywanie części danych oraz programów, które są zbyt duże, aby zmieścić się w pamięci RAM. Kiedy system operacyjny potrzebuje więcej pamięci, niż jest dostępne w RAM, wykorzystuje plik stronicowania, aby przenieść rzadziej używane dane na dysk twardy, zwalniając tym samym miejsce dla aktywnych procesów. Przykładem zastosowania pliku stronicowania jest uruchamianie aplikacji graficznych lub gier, które wymagają dużych zasobów pamięci. W tym przypadku, plik stronicowania umożliwia systemowi operacyjnemu dynamiczne zarządzanie pamięcią, co zwiększa wydajność oraz stabilność aplikacji. Zgodnie z dobrymi praktykami, zaleca się, aby wielkość pliku stronicowania była co najmniej równa ilości zainstalowanej pamięci RAM, co pozwala na efektywne zarządzanie pamięcią oraz zapewnia płynne działanie systemu operacyjnego. Dodatkowo, monitorowanie użycia pliku stronicowania może pomóc w identyfikacji problemów z pamięcią, takich jak zbyt mała ilość RAM, co może prowadzić do spadku wydajności systemu.

Pytanie 7

Aby zwiększyć lub zmniejszyć wielkość ikony na pulpicie, należy obracać kółkiem myszy, trzymając jednocześnie klawisz:

A. CTRL
B. TAB
C. SHIFT
D. ALT
Odpowiedź 'CTRL' jest poprawna, ponieważ przytrzymanie klawisza Ctrl podczas kręcenia kółkiem myszy pozwala na powiększanie lub zmniejszanie ikon na pulpicie w systemie Windows. Ta funkcjonalność jest zgodna z ogólną zasadą, że kombinacja klawisza Ctrl z innymi czynnościami umożliwia manipulację rozmiarem obiektów. Na przykład, wiele aplikacji graficznych czy edytorów tekstowych również wspiera taką interakcję, umożliwiając użytkownikowi precyzyjne dostosowywanie widoku. Dobrą praktyką jest znajomość tej kombinacji klawiszy, szczególnie dla osób pracujących w środowisku biurowym lub dla tych, którzy często korzystają z komputerów. Dodatkowo, kombinacja ta jest używana również w innych kontekstach, takich jak zmiana powiększenia w przeglądarkach internetowych, co czyni ją niezwykle uniwersalną. Warto również zauważyć, że w systemie macOS zamiast klawisza Ctrl często używa się klawisza Command, co podkreśla różnice między systemami operacyjnymi, ale zasada działania pozostaje podobna.

Pytanie 8

Tworzenie zaszyfrowanych połączeń pomiędzy hostami przez publiczną sieć Internet, wykorzystywane w rozwiązaniach VPN (Virtual Private Network), to

A. trasowanie
B. mapowanie
C. tunelowanie
D. mostkowanie
Trasowanie, mapowanie i mostkowanie to techniki związane z zarządzaniem ruchem w sieciach komputerowych, ale nie są one odpowiednie dla opisanego kontekstu. Trasowanie odnosi się do procesu określania najlepszego ścieżki, jaką pakiety danych powinny podążać przez sieć. Jako strategia zarządzania ruchem, trasowanie nie zapewnia jednak bezpieczeństwa ani prywatności, co czyni je niewłaściwym rozwiązaniem do tworzenia zaszyfrowanych połączeń VPN. Mapowanie natomiast odnosi się do procesu przypisywania jednego zestawu wartości do innego, co jest użyteczne w kontekście baz danych lub geolokalizacji, ale nie ma zastosowania w kontekście zabezpieczania komunikacji sieciowej. Mostkowanie z kolei umożliwia połączenie dwóch segmentów sieci w celu zwiększenia rozmiarów sieci lokalnej, ale nie implementuje mechanizmów szyfrowania ani ochrony danych. W rzeczywistości te techniki mogą wprowadzać w błąd, sugerując, że zapewniają one bezpieczeństwo w komunikacji. Powszechnym błędem myślowym jest uznawanie trasowania za wystarczające dla ochrony danych, podczas gdy w rzeczywistości nie zapewnia ono żadnych zabezpieczeń przed podsłuchiwaniem lub atakami. Zrozumienie różnic między tymi technikami a tunelowaniem jest kluczowe dla skutecznej ochrony informacji przesyłanych w sieciach publicznych.

Pytanie 9

Według modelu TCP/IP protokoły DNS, FTP i SMTP są przypisane do warstwy

A. transportowej
B. dostępu do sieci
C. aplikacji
D. internetowej
Wybór warstwy dostępu do sieci jako odpowiedzi prowadzi do nieporozumień dotyczących struktury modelu TCP/IP. Warstwa dostępu do sieci, często nazywana również warstwą fizyczną i łącza danych, odpowiada za sposób, w jaki dane są przesyłane przez fizyczne medium, takie jak kable czy fale radiowe. W tej warstwie nie ma miejsca na protokoły aplikacyjne, które zajmują się interfejsem użytkownika i wymianą danych w sposób zrozumiały dla aplikacji. Wybór warstwy internetowej również nie jest trafny. Ta warstwa odpowiedzialna jest za przekazywanie pakietów między hostami, wykorzystując protokoły takie jak IP (Internet Protocol). Warstwa transportowa, z kolei, obsługuje transmisję danych pomiędzy aplikacjami działającymi na różnych hostach i wykorzystuje protokoły takie jak TCP (Transmission Control Protocol) i UDP (User Datagram Protocol). Protokły DNS, FTP i SMTP funkcjonują na wyższym poziomie, umożliwiając aplikacje wymianę informacji i nie są związane z zadaniami warstwy fizycznej ani transportowej. Typowe błędy myślowe prowadzące do tego rodzaju odpowiedzi mogą obejmować mylenie różnych poziomów abstrakcji w modelu TCP/IP oraz niewłaściwe przyporządkowanie funkcji poszczególnych protokołów. Kluczowe jest, aby zrozumieć, że protokoły aplikacyjne są niezależne od warstwy transportowej czy dostępu do sieci, co daje możliwość ich uniwersalnego zastosowania w różnych sieciach.

Pytanie 10

By uruchomić w systemie Windows oprogramowanie narzędziowe monitorujące wydajność komputera przedstawione na rysunku, należy uruchomić

Ilustracja do pytania
A. gpedit.msc
B. perfmon.msc
C. taskschd.msc
D. devmgmt.msc
Każda z pozostałych odpowiedzi dotyczy innej kategorii narzędzi administracyjnych w Windows i łatwo się tu pomylić, jeśli nie zna się dokładnej roli poszczególnych konsol. gpedit.msc otwiera Edytor zasad grupy, który służy do konfigurowania lokalnych i domenowych polityk systemowych, głównie w środowiskach firmowych – nie ma on bezpośredniego wpływu na monitorowanie parametrów sprzętowych czy wydajności. Możesz tam ustawiać np. zasady bezpieczeństwa, blokady funkcji czy konfiguracje systemowe, ale nie uzyskasz tam wykresów ani liczników wydajności. Z kolei taskschd.msc służy do zarządzania Harmonogramem zadań, czyli automatyzacją uruchamiania programów lub skryptów w określonych warunkach – to narzędzie do planowania działań, a nie monitorowania wydajności. Narzędzie devmgmt.msc otwiera Menedżera urządzeń, który jest przydatny, jeśli chcesz sprawdzić lub zaktualizować sterowniki, zobaczyć listę sprzętu zainstalowanego w komputerze, ewentualnie rozwiązać problemy ze zgodnością sprzętową. Nie oferuje jednak żadnych narzędzi do monitorowania czasu procesora czy innych wskaźników wydajności. Wydaje mi się, że wybór innej opcji niż perfmon.msc wynika często z przekonania, że wszystkie te narzędzia są 'administracyjne' i pozwalają uzyskać zaawansowane informacje o systemie – to typowy błąd, bo każde jest przeznaczone do zupełnie innych zadań. W praktyce dobrym nawykiem jest zapamiętać, że perfmon.msc to Twój pierwszy wybór, jeśli chodzi o analizy wydajnościowe, trendowanie czy rozpoznawanie problemów ze sprzętem albo oprogramowaniem pod kątem obciążenia systemu.

Pytanie 11

Obudowa oraz wyświetlacz drukarki fotograficznej są bardzo brudne. Jakie środki należy zastosować, aby je wyczyścić?

A. suchej chusteczki oraz patyczków do czyszczenia
B. ściereczki nasączonej IPA oraz środka smarującego
C. mokrej chusteczki oraz sprężonego powietrza z rurką zwiększającą zasięg
D. wilgotnej ściereczki oraz pianki do czyszczenia plastiku
Wybór odpowiedzi oparty na suchej chusteczce oraz patyczkach do czyszczenia jest niewłaściwy, ponieważ może prowadzić do uszkodzenia delikatnych powierzchni. Suche chusteczki, szczególnie te, które nie są przeznaczone do elektroniki, mogą zawierać substancje chemiczne lub włókna, które mogą zarysować ekran i obudowę. Patyczki do czyszczenia również nie są zalecane, gdyż mogą zostawić włókna w trudno dostępnych miejscach lub zbyt mocno pocierać powierzchnię, co zwiększa ryzyko zarysowania. Zastosowanie ściereczek nasączonych IPA oraz środka smarującego może wydawać się sensowne, jednak alkohol izopropylowy, mimo że jest skuteczny w czyszczeniu, może uszkodzić niektóre elementy konstrukcyjne plastiku czy wyświetlacza, a stosowanie środka smarującego w tej sytuacji jest całkowicie nieadekwatne i może prowadzić do poważnych zanieczyszczeń oraz obniżenia jakości pracy urządzenia. Mokra chusteczka i sprężone powietrze z rurką również nie są odpowiednie, ponieważ sprężone powietrze może wnosić wilgoć do wnętrza urządzenia, a mokra chusteczka nie jest przeznaczona do czyszczenia elektroniki. Właściwe podejście do czyszczenia sprzętu fotograficznego wymaga zrozumienia, jakie materiały i metody są bezpieczne i skuteczne. Niezrozumienie różnicy między właściwymi a niewłaściwymi produktami do czyszczenia może prowadzić do uszkodzeń technicznych oraz skrócenia żywotności urządzenia.

Pytanie 12

Program "VirtualPC", dostępny do pobrania z witryny Microsoft, jest przeznaczony do korzystania:

A. z wirtualnych systemów operacyjnych na lokalnym dysku
B. z darmowej pomocy technicznej TechNet.Soft firmy Virtual Soft
C. z bezpłatnego konta o pojemności 100 MB w hostingu Microsoft
D. z osobistego konta o pojemności 1 GB w serwerze wirtualnym Microsoft
Wybór odpowiedzi odnoszącej się do bezpłatnego konta o pojemności 100 MB w ramach hostingu firmy Microsoft wprowadza w błąd, ponieważ VirtualPC nie jest usługą hostingową ani platformą do zarządzania pamięcią masową. Tego rodzaju usługi koncentrują się na przechowywaniu danych w chmurze, co jest zupełnie innym rodzajem technologii. Z kolei sugestia dotycząca pomocy technicznej TechNet.Soft firmy Virtual Soft opiera się na niewłaściwym założeniu, że VirtualPC oferuje wsparcie techniczne w formie pomocy online, co również nie jest związane z funkcjonalnością tego programu. VirtualPC nie jest platformą, która by bezpośrednio zapewniała wsparcie techniczne; zamiast tego, jego użytkownicy mogą korzystać z dokumentacji i zasobów online. W kontekście wspomnianej odpowiedzi dotyczącej konta osobistego o pojemności 1 GB w serwerze wirtualnym, należy zauważyć, że VirtualPC działa lokalnie, a nie w chmurze, co wyklucza korzystanie z takich zasobów. Typowe błędy w myśleniu prowadzące do takich wniosków to mylenie koncepcji wirtualizacji z przechowywaniem danych w chmurze czy usługami hostingowymi. W rzeczywistości, VirtualPC jest narzędziem do wirtualizacji, które umożliwia uruchamianie systemów operacyjnych jako dodatkowych instancji na jednym komputerze, co ma zupełnie inny cel i zastosowanie niż usługi chmurowe czy hostingowe.

Pytanie 13

Jeśli adres IP komputera roboczego przyjmuje formę 176.16.50.10/26, to jaki jest adres rozgłoszeniowy oraz maksymalna liczba hostów w tej sieci?

A. 176.16.50.63; 62 hosty
B. 176.16.50.1; 26 hostów
C. 176.16.50.62; 63 hosty
D. 176.16.50.36; 6 hostów
Jak patrzę na błędne odpowiedzi, to wychodzą spore nieporozumienia, zwłaszcza w kwestii adresu rozgłoszeniowego i liczby hostów w sieci. W przypadku podania adresu 176.16.50.1; 26 hostów, to błąd polega na tym, że ktoś myli ostatni adres w podsieci z pierwszym. Pamiętaj, że adres rozgłoszeniowy to zawsze ten ostatni adres, a nie początkowy. Co więcej, maksymalna liczba hostów to 62, bo dwa adresy są zarezerwowane – jeden dla adresu sieci, a drugi dla rozgłoszeniowego. Jeśli chodzi o 176.16.50.36; 6 hostów, to też coś jest nie tak, bo ktoś źle zinterpretował maskę podsieci. Liczba hostów to wynik obliczeń na podstawie dostępnych bitów w adresie, a nie na zasadzie losowo przydzielonego adresu, więc tutaj mogą się pojawiać nieporozumienia. Odpowiedź 176.16.50.62; 63 hosty to kolejna pomyłka, bo maksymalnie możemy mieć 62 hosty, a nie 63. Często pojawiają się typowe błędy, jak pomieszanie różnych pojęć dotyczących adresacji, takich jak adresy sieciowe i rozgłoszeniowe, a także to, jak maski podsieci wpływają na liczbę dostępnych adresów dla hostów.

Pytanie 14

Który standard implementacji sieci Ethernet określa sieć wykorzystującą kabel koncentryczny, z maksymalną długością segmentu wynoszącą 185 m?

A. 10Base-5
B. 100Base-T4
C. 100Base-T2
D. 10Base-2
Podczas analizy pozostałych odpowiedzi, można zauważyć różnice w zakresie zastosowania i parametrów technicznych, które prowadzą do błędnych wniosków. 10Base-5, znany także jako "Thick Ethernet", wykorzystuje grubszą wersję kabla koncentrycznego, a maksymalna długość segmentu wynosi 500 m. Choć ten standard również korzystał z technologii CSMA/CD, jego większa odległość i większa grubość kabla sprawiały, że był bardziej odpowiedni do zastosowań, gdzie potrzeba było większych odległości między urządzeniami. 100Base-T2 oraz 100Base-T4 są standardami, które odnoszą się do technologii Ethernet działającej na kablach skrętkowych, a ich maksymalne długości segmentów i prędkości przesyłu danych są znacznie wyższe – odpowiednio 100 Mbps. 100Base-T2 obsługuje kable skrętkowe, a maksymalna długość segmentu wynosi 100 m, co czyni go nieodpowiednim w kontekście pytania. 100Base-T4 z kolei obsługuje do 100 Mbps przy użyciu czterech par przewodów, co również jest niedostosowane do specyfikacji dotyczącej kabla koncentrycznego. W związku z tym, podejmując decyzje dotyczące architektury sieci, ważne jest, aby właściwie dopasować standardy do wymagań projektowych i środowiskowych, aby zapewnić efektywność i niezawodność komunikacji w sieci.

Pytanie 15

Optyczna rozdzielczość to jeden z właściwych parametrów

A. drukarki
B. modemu
C. skanera
D. monitora
Rozdzielczość optyczna nie jest parametrem odnoszącym się do monitorów, modemów ani drukarek, co może prowadzić do błędnych wniosków. Monitory charakteryzują się rozdzielczością wyświetlania, mierzoną w pikselach, która odnosi się do liczby punktów widocznych na ekranie. Rozdzielczość monitorów jest istotna dla jakości wyświetlanego obrazu, ale nie ma bezpośredniego związku z pojęciem rozdzielczości optycznej, które odnosi się do jakości skanowania. Modemy, z kolei, koncentrują się na przepustowości i szybkości transferu danych, a nie na jakości obrazów. Drukarki również operują na innych parametrach, takich jak rozdzielczość druku, która jest mierzona w dpi, ale dotyczy to zarówno technologii druku, jak i jakości wykonania wydruków, a nie zdolności do skanowania. Typowym błędem myślowym jest mylenie terminów związanych z różnymi urządzeniami, co może prowadzić do dezorientacji. Zrozumienie różnicy pomiędzy rozdzielczością optyczną skanera a rozdzielczością wyświetlania monitora lub parametrami drukarek jest kluczowe dla właściwego doboru sprzętu do potrzeb. W praktyce oznacza to, że użytkownicy powinni znać specyfikacje każdego z urządzeń, aby dokonać świadomego wyboru, zgodnego z wymaganiami swojej pracy.

Pytanie 16

Jaką funkcję serwera trzeba dodać w systemach z rodziny Windows Server, aby było możliwe utworzenie nowej witryny FTP?

A. IIS
B. DHCP
C. RRAS
D. SSH
Odpowiedzi, które wskazują na SSH, RRAS lub DHCP, nie są adekwatne do kontekstu tworzenia witryny FTP. SSH (Secure Shell) jest protokołem używanym głównie do bezpiecznego zdalnego logowania na serwerach, a nie do transferu plików przez FTP. Chociaż zapewnia bezpieczne połączenie, nie jest to technologia dedykowana do zarządzania serwerami FTP, co może wprowadzać w błąd niektórych użytkowników, którzy myślą, że zdalne zarządzanie i transfer danych są jednym i tym samym. RRAS (Routing and Remote Access Service) jest technologią służącą do zarządzania połączeniami sieciowymi, w tym VPN i routingu, a nie do utworzenia witryn FTP. Z kolei DHCP (Dynamic Host Configuration Protocol) jest protokołem odpowiedzialnym za przypisywanie adresów IP urządzeniom w sieci, co nie ma nic wspólnego z konfiguracją serwera FTP. Często mylone są te technologie w kontekście zarządzania serwerami, jednak każda z nich ma wyraźne i odrębne zastosowanie w infrastrukturze IT. Zrozumienie, która rola serwera jest odpowiednia do danego zadania, jest kluczem do efektywnego zarządzania systemami informatycznymi oraz wdrażania odpowiednich zabezpieczeń i polityk dostępu. Bez właściwego podejścia do wyboru odpowiednich narzędzi i technologii użytkownicy mogą napotkać trudności w realizacji swoich zamierzeń związanych z udostępnianiem plików i zarządzaniem zasobami w sieci.

Pytanie 17

Schemat ilustruje sposób funkcjonowania sieci VPN noszącej nazwę

Ilustracja do pytania
A. L2TP
B. Gateway
C. Client - to - Site
D. Site - to - Site
Odpowiedzi takie jak 'Gateway' czy 'Client-to-Site' odnoszą się do innych koncepcji związanych z sieciami VPN i ich zastosowanie w pytaniu nie jest właściwe. Gateway VPN odnosi się ogólnie do urządzeń lub oprogramowania które działają jako brama umożliwiająca dostęp do sieci VPN na przykład w kontekście koncentratorów VPN które umożliwiają wiele jednoczesnych połączeń. Nie definiuje to jednak konkretnego typu konfiguracji jak Site-to-Site. Z kolei Client-to-Site VPN opisuje scenariusz w którym pojedynczy użytkownik łączy się z siecią firmową zdalnie zazwyczaj przez oprogramowanie klienckie zainstalowane na jego urządzeniu. Jest to typowe dla pracowników zdalnych którzy potrzebują dostępu do zasobów wewnętrznych firmy z dowolnej lokalizacji. Natomiast L2TP (Layer 2 Tunneling Protocol) jest protokołem tunelowania i może być używany w ramach konfiguracji VPN ale sam w sobie nie określa typu Site-to-Site lub Client-to-Site. Błędne myślenie może wynikać z niejasnego rozróżnienia między funkcjonalnością a typologią sieci VPN gdzie różne protokoły i technologie mogą współdziałać tworząc różne typy połączeń i scenariusze wdrożeń sieciowych

Pytanie 18

Aby zrealizować transfer danych pomiędzy siecią w pracowni a siecią ogólnoszkolną, która ma inną adresację IP, należy zastosować

A. przełącznik
B. punkt dostępowy
C. ruter
D. koncentrator
Przełącznik, koncentrator i punkt dostępowy mają różne funkcje w architekturze sieciowej, które nie obejmują bezpośrednio wymiany danych pomiędzy sieciami o różnych adresach IP. Przełącznik działa na warstwie drugiej modelu OSI, co oznacza, że przesyła ramki na podstawie adresów MAC, a nie adresów IP. Jego zadaniem jest łączenie urządzeń w obrębie tej samej sieci lokalnej (LAN), co oznacza, że nie ma on możliwości komunikacji z innymi sieciami, które mają różne zakresy adresowe. Koncentrator, będący prostym urządzeniem do łączenia wielu urządzeń w sieci, w ogóle nie przetwarza danych, a jedynie je retransmituje, co zdecydowanie nie jest wystarczające w przypadku potrzeby wymiany danych pomiędzy różnymi sieciami. Z kolei punkt dostępowy to urządzenie, które umożliwia bezprzewodowe połączenie z siecią, ale również nie ma zdolności do routingu między różnymi adresami IP. W praktyce, osoby myślące, że te urządzenia mogą zastąpić ruter, mogą napotkać trudności w realizacji zadań związanych z integracją różnych sieci, co prowadzi do problemów z komunikacją oraz dostępem do zasobów. Kluczowe jest zrozumienie, że do wymiany danych pomiędzy różnymi sieciami niezbędny jest ruter, który wykonuje bardziej złożone operacje na poziomie adresacji IP, co jest nieosiągalne dla wspomnianych urządzeń.

Pytanie 19

Wynikiem działania funkcji logicznej XOR na dwóch liczbach binarnych \( 1010_2 \) i \( 1001_2 \) jest czterobitowa liczba

A. 1100\(_2\)
B. 0011\(_2\)
C. 0100\(_2\)
D. 0010\(_2\)
W tym zadaniu kluczowe jest zrozumienie, jak naprawdę działa funkcja logiczna XOR w systemie binarnym, a nie zgadywanie po „wyglądzie” liczby wynikowej. XOR (exclusive OR) to operacja, która na każdym bicie sprawdza, czy bity wejściowe są różne. Jeśli są różne – wynik to 1, jeśli takie same – wynik to 0. I to jest fundament, bez którego łatwo wpaść w kilka typowych pułapek. Jednym z częstych błędów jest traktowanie XOR jak zwykłe dodawanie binarne, tylko bez przeniesień. Wtedy ktoś patrzy na 1010 i 1001, widzi, że w dwóch pozycjach pojawiają się jedynki, i próbuje „dodać” je tak, by wyszło 0100 lub 1100. Problem w tym, że XOR w ogóle nie korzysta z mechanizmu przeniesienia, a jego wynik nie ma nic wspólnego z klasyczną sumą arytmetyczną. To jest operacja czysto logiczna, zgodna z algebrą Boole’a, nie z arytmetyką dziesiętną czy binarną. Inny błąd polega na patrzeniu tylko na jedną lub dwie pozycje bitowe i intuicyjnym „strzelaniu” rezultatu, na przykład 0010, bo komuś się wydaje, że różni się tylko jeden bit. Tymczasem trzeba przeanalizować każdy bit osobno: 1 z 1, 0 z 0, 1 z 0, 0 z 1. Gdy tego nie zrobimy systematycznie, łatwo pomylić liczbę jedynek w wyniku. Z mojego doświadczenia wynika, że wiele osób miesza XOR z operacją OR lub z dodawaniem modulo 2. Niby matematycznie XOR i dodawanie modulo 2 na pojedynczym bicie są równoważne, ale w praktyce w zadaniach testowych uczniowie ignorują definicję i zamiast tego próbują „skrótem myślowym” dojść do wyniku. Dobre praktyki branżowe i nauczanie podstaw informatyki mówią jasno: przy operacjach bitowych zawsze zapisujemy liczby jedna pod drugą, wyrównujemy do tych samych pozycji i analizujemy każdy bit według tabeli prawdy. Jeśli się tego trzymasz, to odpowiedzi typu 0100₂, 1100₂ czy 0010₂ po prostu nie przejdą w weryfikacji, bo nie spełniają reguły: 1 tam, gdzie bity są różne, 0 tam, gdzie są takie same. W logice cyfrowej nie ma miejsca na „wydaje mi się” – wynik musi wynikać z definicji operatora XOR.

Pytanie 20

Jaki symbol urządzenia jest pokazany przez strzałkę na rysunku?

Ilustracja do pytania
A. Routera
B. Serwera
C. Koncentratora
D. Przełącznika
Serwer to komputer, który udostępnia różne zasoby czy usługi innym komputerom w sieci. Działa bardziej jak pomocnik, który obsługuje zapytania od klientów i trzyma dane, a nie jak urządzenie do kierowania ruchem. Czasem ludzie mylą serwer z czymś, co zarządza wszystkimi danymi w sieci, ale to nie tak. Koncentrator to z kolei prosty element sieciowy, który działa na poziomie fizycznym. Jego rola polega na przesyłaniu danych do wszystkich podłączonych urządzeń, ale bez ich analizy. W dzisiejszych czasach koncentratory są zastępowane przez przełączniki, które są bardziej sprytne. Przełącznik działa na warstwie łącza danych i wysyła dane tylko do konkretnego portu, co sprawia, że sieć działa lepiej. Mimo, że jest bardziej zaawansowany niż koncentrator, nie robi routingu między różnymi sieciami. Często myli się go z routerem, ale jego zadanie to raczej zarządzanie ruchem w jednej sieci lokalnej, a nie między różnymi sieciami.

Pytanie 21

Jakie narzędzie powinno być użyte do zbadania wyników testu POST dla modułów na płycie głównej?

Ilustracja do pytania
A. Rys. C
B. Rys. A
C. Rys. B
D. Rys. D
Narzędzia przedstawione na pozostałych ilustracjach nie są przeznaczone do testowania wyników POST dla modułów płyty głównej. Rysunek A przedstawia narzędzie do odsysania cyny, które jest używane w procesach lutowania. Jest to niezbędne w naprawach elektroniki, w szczególności przy wymianie elementów przylutowanych do płyty głównej, lecz nie ma zastosowania w diagnostyce POST. Rysunek C to miernik napięcia zasilacza komputerowego. Służy do sprawdzania prawidłowości napięć dostarczanych przez zasilacz do systemu, co jest kluczowe dla zapewnienia stabilnego działania komputera, ale nie jest związane z testami POST. Rysunek D przedstawia stację lutowniczą, której używa się do lutowania elementów elektronicznych. Jest niezbędna przy naprawach sprzętu komputerowego, takich jak wymiana uszkodzonych gniazd czy kondensatorów na płycie głównej, lecz podobnie jak narzędzie z rysunku A, nie ma bezpośredniego związku z diagnozowaniem błędów POST. Wybór tych narzędzi wskazuje na typowe błędne rozumienie, że wszystkie technologie związane z elektroniką mają podobne zastosowania. Kluczowe jest zrozumienie specyfiki każdego narzędzia i jego właściwych zastosowań, co pozwala na efektywną pracę i diagnozowanie problemów w środowisku komputerowym. Właściwe narzędzie do testu POST pozwala na szybką i dokładną identyfikację błędów, co jest kluczowe dla szybkiej naprawy i minimalizacji przestojów systemu.

Pytanie 22

Który z poniższych protokołów nie jest wykorzystywany do konfiguracji wirtualnej sieci prywatnej?

A. SNMP
B. L2TP
C. SSTP
D. PPTP
L2TP, PPTP i SSTP to protokoły, które są fundamentalne w kontekście konfiguracji wirtualnych sieci prywatnych. L2TP jest protokołem tunelowym, który często jest używany w połączeniu z IPsec, co zapewnia wysoki poziom bezpieczeństwa. W praktyce oznacza to, że L2TP samodzielnie nie zapewnia szyfrowania, ale w połączeniu z IPsec oferuje kompleksowe rozwiązanie dla bezpiecznego przesyłania danych. PPTP, pomimo krytyki za lukę w bezpieczeństwie, jest często stosowany ze względu na łatwość konfiguracji i szybkość implementacji, co sprawia, że jest popularny w mniej wymagających środowiskach. SSTP, z kolei, wykorzystuje protokół HTTPS do tunelowania, co czyni go bardziej odpornym na blokady stosowane przez niektóre sieci. W kontekście SNMP, wielu użytkowników myli jego zastosowanie, sądząc, że może on pełnić funkcję zabezpieczania połączeń VPN. To nieporozumienie wynika z faktu, że SNMP jest protokołem zarządzania, a nie tunelowania czy szyfrowania. Zrozumienie, że SNMP służy do monitorowania i zarządzania urządzeniami sieciowymi, a nie do zabezpieczania komunikacji, jest kluczowe dla efektywnego zastosowania technologii sieciowych. Często myśli się, że każde narzędzie używane w kontekście sieci powinno mieć zdolności zabezpieczające, co prowadzi do błędnych wniosków i wyborów technologicznych.

Pytanie 23

Którą maskę należy zastosować, aby podzielić sieć o adresie 172.16.0.0/16 na podsieci o maksymalnej liczbie 62 hostów?

A. /28
B. /26
C. /25
D. /27
Poprawna jest maska /26, ponieważ przy adresacji IPv4 w sieciach klasy prywatnej 172.16.0.0/16 potrzebujemy tak dobrać długość prefixu, żeby liczba dostępnych hostów w podsieci nie przekroczyła wymaganego maksimum, czyli 62. W podsieci liczba adresów hostów to 2^(liczba bitów hosta) minus 2 (adres sieci i adres rozgłoszeniowy). Dla /26 mamy 32 bity ogółem, więc 32−26=6 bitów na hosty. 2^6=64 adresy, po odjęciu 2 zostaje 62 użytecznych hostów – dokładnie tyle, ile trzeba. Przy /27 mamy już tylko 32−27=5 bitów hosta, czyli 2^5=32 adresy, po odjęciu 2 zostaje 30 hostów, więc to by było za mało. Natomiast /25 daje 32−25=7 bitów hosta, czyli 2^7=128 adresów, 126 hostów – to spełnia wymaganie, ale nie jest optymalne, bo marnujemy prawie połowę przestrzeni. W praktyce, przy projektowaniu sieci zgodnie z dobrymi praktykami (np. w stylu Cisco, CompTIA), dąży się do jak najlepszego dopasowania wielkości podsieci do realnego zapotrzebowania. Z mojego doświadczenia w sieciach firmowych często planuje się podsieci z lekkim zapasem, ale dalej sensownym, np. właśnie /26 dla biura około 40–50 stanowisk, żeby mieć miejsce na drukarki sieciowe, telefony VoIP, AP-ki Wi-Fi itd. Startując z 172.16.0.0/16 i stosując maskę /26, otrzymasz dużą liczbę równych, powtarzalnych podsieci po 62 hosty, co bardzo ułatwia dokumentację i późniejszą administrację. Każda podsieć będzie skakała co 64 adresy (np. 172.16.0.0/26, 172.16.0.64/26, 172.16.0.128/26 itd.), co jest czytelne i zgodne z klasycznym podejściem do subnettingu.

Pytanie 24

Jakie narzędzie służy do obserwacji zdarzeń w systemie Windows?

A. gpedit.msc
B. eventvwr.msc
C. tsmmc.msc
D. dfrg.msc
Odpowiedzi tsmmc.msc, gpedit.msc oraz dfrg.msc są błędne z kilku powodów. Tsmmc.msc odnosi się do narzędzia Microsoft Terminal Services Manager, które jest używane do zarządzania sesjami zdalnymi i nie ma związku z monitorowaniem zdarzeń. Gpedit.msc to edytor zasad grupy, który pozwala na zarządzanie politykami zabezpieczeń w systemie Windows, ale nie oferuje funkcji monitorowania zdarzeń. Dfrg.msc to narzędzie do defragmentacji dysków, które również nie ma związku z rejestrowaniem czy analizowaniem zdarzeń systemowych. Użytkownicy często mylą te narzędzia ze względu na ich techniczne nazewnictwo, co prowadzi do nieporozumień w kontekście ich zastosowania. Kluczowe jest, aby zrozumieć, które narzędzia odpowiadają za konkretne funkcje w systemie operacyjnym, co jest niezbędne w kontekście efektywnego zarządzania i zabezpieczania środowiska IT. Wiedza o tym, jakie narzędzia służą do monitorowania, a jakie do zarządzania lub konfiguracji, jest fundamentalna dla administratorów systemów, a jej brak może skutkować poważnymi lukami w bezpieczeństwie lub nieefektywnym zarządzaniem zasobami.

Pytanie 25

Które bity w 48-bitowym adresie MAC identyfikują producenta?

A. Pierwsze 8 bitów
B. Ostatnie 24 bity
C. Pierwsze 24 bity
D. Ostatnie 8 bitów
Błędne odpowiedzi w tym pytaniu wskazują na nieporozumienia dotyczące struktury adresu MAC. Pierwsze 8 bitów nie wystarcza do pełnej identyfikacji producenta, ponieważ nie jest to wystarczająca liczba bitów, aby objąć wszystkie możliwe organizacje produkujące sprzęt sieciowy. Ostatnie 8 bitów również nie odnosi się do identyfikatora producenta, ponieważ te bity są zazwyczaj używane do identyfikacji konkretnego urządzenia w ramach danej organizacji. Odpowiedź wskazująca na ostatnie 24 bity jest również myląca, ponieważ te bity są rezerwowane dla indywidualnego identyfikatora sprzętu, a nie dla producenta. W związku z tym, kluczowym błędem myślowym jest niezrozumienie, że identyfikacja producenta wymaga większej liczby bitów, aby pokryć globalny rynek producentów. Ponadto, w kontekście standardów IEEE, OUI jest krytycznym elementem, który zapewnia, że każdy producent ma unikalną przestrzeń adresową. Bez tej struktury, mogłyby dochodzić do konfliktów adresowych w sieci, co prowadziłoby do problemów z komunikacją i identyfikacją urządzeń. Zrozumienie tej struktury jest kluczowe dla administratorów sieci, którzy muszą umieć analizować i diagnozować problematykę sieciową oraz zarządzać różnorodnością urządzeń.

Pytanie 26

Jaki rodzaj dysków jest podłączany do złącza IDE na płycie głównej komputera?

A. FLASH
B. ATA
C. SCSI
D. SSD
Wybrane odpowiedzi, takie jak SSD, SCSI i FLASH, nie są zgodne z wymaganiami związanymi z gniazdem IDE. SSD (Solid State Drive) to nowoczesny typ pamięci masowej, który używa technologii flash, a jego interfejsy komunikacyjne, takie jak SATA lub NVMe, różnią się od tradycyjnego interfejsu IDE. SSD nie jest bezpośrednio podłączany do gniazda IDE, co sprawia, że ta odpowiedź jest niepoprawna. SCSI (Small Computer System Interface) to kolejne złącze, które różni się od IDE i jest często stosowane w serwerach oraz stacjach roboczych do podłączania dysków twardych oraz innych urządzeń. SCSI wymaga specjalnych kontrolerów oraz kabli, co czyni je bardziej skomplikowanym w użyciu w porównaniu do prostoty interfejsu ATA. Z kolei technologia FLASH odnosi się do rodzaju pamięci, a nie do interfejsu dyskowego. Choć pamięci flash mogą być używane w różnych zastosowaniach, ich połączenie z gniazdem IDE nie jest standardowe ani praktyczne. Typowe błędy myślowe prowadzące do takich wniosków często wynikają z nieporozumień dotyczących różnicy między typem pamięci a interfejsem komunikacyjnym. Wiedza o tych różnicach jest ważna dla skutecznego wyboru odpowiednich komponentów w budowie komputerów oraz w rozwiązywaniu problemów z kompatybilnością sprzętową.

Pytanie 27

Który rodzaj złącza nie występuje w instalacjach światłowodowych?

A. GG45
B. SC
C. MTRJ
D. FC
Złącza SC, FC i MTRJ są powszechnie używane w okablowaniu światłowodowym, co może prowadzić do nieporozumień w zakresie ich zastosowania. Złącze SC, znane z prostego mechanizmu zatrzaskowego, umożliwia szybkie i łatwe podłączanie oraz odłączanie kabli, co jest korzystne w dynamicznych środowiskach telekomunikacyjnych. FC, z kolei, jest złączem z ferrulą, które zapewnia doskonałe połączenie i minimalizuje straty sygnału, co czyni je idealnym rozwiązaniem w zastosowaniach wymagających wysokiej wydajności. MTRJ, dzięki możliwości podłączenia dwóch włókien w jednym złączu, jest niezwykle praktyczne przy instalacjach, gdzie przestrzeń jest ograniczona. Wybierając złącza do systemów światłowodowych, ważne jest, aby kierować się standardami branżowymi, które definiują parametry techniczne i wymogi dotyczące wydajności. Typowe błędy myślowe, które mogą prowadzić do błędnych odpowiedzi, obejmują mylenie zastosowań różnych typów złącz i nieznajomość ich specyfikacji. Złącza te są projektowane z myślą o różnych technologiach i powinny być stosowane zgodnie z przeznaczeniem, aby zminimalizować straty sygnału i zapewnić optymalną wydajność sieci. Dlatego ważne jest, aby dobrze zrozumieć, które złącza są odpowiednie dla okablowania światłowodowego, a które można stosować tylko w systemach opartych na kablach miedzianych.

Pytanie 28

Jakie narzędzie w systemie Windows umożliwia kontrolę prób logowania do systemu?

A. programów
B. systemu
C. instalacji
D. zabezpieczeń
Wybór odpowiedzi dotyczących dziennika aplikacji, systemu lub setupu wskazuje na niezrozumienie roli, jaką odgrywają różne dzienniki w systemie Windows. Dziennik aplikacji rejestruje zdarzenia generowane przez aplikacje uruchomione na komputerze, co nie jest związane bezpośrednio z próbami logowania i zabezpieczeniami systemu. W przypadku dziennika systemu, rejestruje on ogólne zdarzenia systemowe, takie jak uruchamianie i zatrzymywanie usług, co również nie obejmuje szczegółowych informacji o próbach logowania. Dziennik setupu natomiast zawiera informacje dotyczące instalacji oprogramowania oraz zmian w konfiguracji systemu, co również nie ma związku z bezpieczeństwem logowania. Typowym błędem jest mylenie funkcji dzienników oraz ich celów: każdy typ dziennika ma swoje specyficzne zadania i zastosowania, co należy uwzględnić przy wyborze odpowiednich narzędzi do monitorowania systemu. Aby efektywnie zarządzać bezpieczeństwem, konieczne jest korzystanie ze wszystkich dostępnych narzędzi zgodnie z ich przeznaczeniem, co pozwala na pełniejszą analizy i lepsze zabezpieczenie danych. W kontekście bezpieczeństwa informacji, kluczowe jest posiadanie systemu monitorowania zdarzeń i ich analizy, co umożliwia identyfikację oraz odpowiedź na zagrożenia w czasie rzeczywistym. Każde z tych narzędzi, jeżeli jest używane w nieodpowiedni sposób, może prowadzić do luk w zabezpieczeniach i utraty danych, dlatego ważne jest, aby administratorzy systemów byli świadomi różnic w funkcjach dzienników i potrafili je odpowiednio wykorzystać.

Pytanie 29

Jeśli rozdzielczość myszki wynosi 200 dpi, a rozdzielczość monitora to Full HD, to aby przesunąć kursor w poziomie po ekranie, należy przemieścić mysz o

A. 480 i
B. 1080 px
C. około 35 cm
D. około 25 cm
Często, jak wybierasz inne odpowiedzi, to może być przez zamieszanie z jednostkami i pojmowaniem dpi. Odpowiedź 1080 px wydaje się mylić, bo sugeruje, że przesunięcie kursora o wysokość ekranu to to samo co ruch myszy, co nie jest dokładne. Jak chcesz przesunąć kursor w poziomie, musisz mieć na uwadze całą szerokość ekranu, a nie tylko jego wysokość. Odpowiedź 480 px też nie ma sensu, bo nie pasuje do wymiarów ekranu ani do obliczeń związanych z dpi. To może być złe zrozumienie, jak dpi rzeczywiście działa. Odpowiedź około 35 cm brzmi jak za duże uproszczenie, bo myślenie, że ruch myszy jest większy niż jest w rzeczywistości, może być mylące. Takie myślenie może prowadzić do złego ustawienia sprzętu, co w praktyce może sprawić, że będzie ciężko dokładnie pracować. Warto wiedzieć, jak dpi wpływa na mysz i jak przeliczać jednostki, żeby móc ustawić sprzęt zgodnie z własnymi potrzebami, co jest ważne w takich rzeczach jak projektowanie czy gry.

Pytanie 30

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. konfigurowaniem adresu karty sieciowej.
C. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
D. dodaniem drugiego dysku twardego.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 31

Czym jest kopia różnicowa?

A. kopiowaniem tylko plików, które powstały od ostatniej kopii pełnej
B. kopiowaniem jedynie tej części plików, która została dodana od momentu stworzenia ostatniej kopii pełnej
C. kopiowaniem jedynie tych plików, które zostały stworzone lub zmodyfikowane od momentu wykonania ostatniej kopii pełnej
D. kopiowaniem wyłącznie plików, które zostały zmienione od utworzenia ostatniej kopii pełnej
Wybór niewłaściwej odpowiedzi na temat kopii różnicowej może wynikać z nieporozumienia dotyczącego tego, jakie dane są faktycznie kopiowane. Odpowiedzi wskazujące jedynie na pliki utworzone lub zmienione, ale w węższym zakresie, jak tylko pliki utworzone lub tylko zmienione, są nieprawidłowe, ponieważ ignorują istotny aspekt działania kopii różnicowej, który opiera się na pełnej ocenie stanu plików od ostatniej kopii pełnej. Warto zrozumieć, że kopia różnicowa nie jest ani kopią pełną, ani kopią inkrementalną, ale stanowi połączenie obu tych metod, co czyni ją najbardziej efektywną w wielu scenariuszach. Ponadto, odpowiedź sugerująca kopiowanie tylko części plików, które zostały dopisane, wprowadza w błąd, ponieważ kopia różnicowa nie koncentruje się na fragmentach plików, lecz na całych plikach, które zostały zmodyfikowane. Tego rodzaju myślenie może prowadzić do błędnych praktyk przy tworzeniu strategii tworzenia kopii zapasowych, co z kolei może wpłynąć na zdolność organizacji do przywracania danych w przypadku awarii. Zrozumienie tych koncepcji jest kluczowe, aby skutecznie zarządzać danymi i minimalizować ryzyko utraty informacji.

Pytanie 32

Funkcja failover usługi DHCP umożliwia

A. konfigurację rezerwacji adresów IP.
B. wyświetlanie statystyk serwera DHCP.
C. filtrowanie adresów MAC.
D. konfigurację zapasowego serwera DHCP.
Prawidłowo – funkcja failover w usłudze DHCP służy właśnie do skonfigurowania zapasowego serwera DHCP i zapewnienia wysokiej dostępności przydzielania adresów IP. W praktyce chodzi o to, żeby w sieci zawsze był przynajmniej jeden serwer zdolny do odpowiadania na żądania DHCPDISCOVER i DHCPREQUEST od klientów. Jeśli serwer główny ulegnie awarii, to drugi – partnerski – przejmuje jego rolę zgodnie z ustalonym wcześniej trybem pracy. Najczęściej stosuje się model load balance (obciążenie dzielone mniej więcej po równo) albo hot-standby (jeden serwer aktywny, drugi w gotowości). W systemach takich jak Windows Server konfiguracja failover polega na powiązaniu konkretnego zakresu (scope) z drugim serwerem DHCP, uzgodnieniu wspólnego stanu bazy dzierżaw (leases), ustawieniu czasu MCLT (Maximum Client Lead Time) i parametrów typu state switchover. Dzięki temu oba serwery mają zsynchronizowane informacje o tym, które adresy są już przydzielone, więc nie dochodzi do konfliktów IP. Z punktu widzenia dobrych praktyk sieciowych, w sieciach produkcyjnych – szczególnie w firmach, gdzie przerwa w działaniu sieci jest kosztowna – failover DHCP to praktycznie standard. Nie opiera się już na starym modelu split-scope (rozbijanie puli na dwie części ręcznie), tylko na mechanizmie opisanym w RFC 2131 i rozszerzeniach producentów, gdzie serwery regularnie wymieniają komunikaty o stanie dzierżaw. Moim zdaniem warto pamiętać, że failover nie tylko daje „zapasowy serwer”, ale też poprawia ciągłość działania przy konserwacjach, aktualizacjach i restartach – można spokojnie wyłączyć jeden serwer, a klienci dalej dostają adresy IP z drugiego, bez paniki w sieci.

Pytanie 33

Aby zapewnić komputerowi otrzymanie konkretnego adresu IP od serwera DHCP, należy na serwerze ustalić

A. pulę adresów IP.
B. wykluczenie adresu IP urządzenia.
C. dzierżawę adresu IP.
D. zarezerwowanie adresu IP urządzenia.
Wykluczenie adresu IP komputera oznacza, że adres ten nie będzie przydzielany przez serwer DHCP innym urządzeniom, co nie gwarantuje jednak, że dany komputer otrzyma go w przyszłości. Z kolei dzierżawa adresu IP to proces, w którym komputer otrzymuje adres IP na określony czas, co oznacza, że po upływie tego czasu adres może być przydzielony innemu urządzeniu. To podejście jest typowe dla dynamicznych przydziałów adresów IP, gdzie nie ma gwarancji, że dany komputer zawsze będzie miał ten sam adres. Pula adresów IP odnosi się do zakresu adresów, które serwer DHCP może przydzielać urządzeniom w sieci, ale nie zapewnia to, że konkretne urządzenie uzyska konkretny adres IP. Dlatego podejścia te mogą prowadzić do sytuacji, w której urządzenie zmienia adres IP, co jest problematyczne w przypadku serwisów wymagających stałej dostępności pod ustalonym adresem. Ostatecznie, wybór metody zastrzegania adresu IP jest zgodny z najlepszymi praktykami zarządzania sieciami, które zalecają przypisywanie statycznych adresów IP dla krytycznych urządzeń, aby zminimalizować problemy z dostępnością oraz poprawić zarządzanie siecią.

Pytanie 34

Zamiana taśmy barwiącej jest związana z eksploatacją drukarki

A. laserowej
B. termicznej
C. igłowej
D. atramentowej
Odpowiedzi związane z drukarkami termicznymi, atramentowymi i laserowymi są oparte na mylnych przesłankach dotyczących technologii druku. Drukarki termiczne stosują specjalny papier, który zmienia kolor pod wpływem wysokiej temperatury, eliminując potrzebę użycia taśmy barwiącej. Technologia ta jest powszechnie stosowana w kasach fiskalnych oraz drukarkach etykiet, gdzie szybkość i niskie koszty eksploatacji są kluczowe. W przypadku drukarek atramentowych, zamiast taśm barwiących stosuje się wkłady z atramentem, które są spryskiwane na papier, co umożliwia uzyskanie wysokiej jakości kolorowych wydruków. Ta metoda jest bardziej elastyczna, ponieważ pozwala na uzyskanie różnych efektów wizualnych, ale generuje wyższe koszty eksploatacji w porównaniu do drukarek igłowych. Drukarki laserowe natomiast wykorzystują technologię elektrofotograficzną, w której toner jest nanoszony na papier za pomocą elektryczności statycznej i utrwalany poprzez zastosowanie wysokiej temperatury. Nie wymagają one taśm barwiących, co sprawia, że są bardziej efektywne w biurach drukujących duże ilości dokumentów. Błędne przekonanie, że te technologie również polegają na użyciu taśmy barwiącej, jest często wynikiem niepełnego zrozumienia zasad ich funkcjonowania oraz ich zastosowań w praktyce.

Pytanie 35

Aby umożliwić jedynie wybranym urządzeniom dostęp do sieci WiFi, konieczne jest w punkcie dostępowym

A. zmienić rodzaj szyfrowania z WEP na WPA
B. zmienić hasło
C. skonfigurować filtrowanie adresów MAC
D. zmienić kanał radiowy
Zmiana hasła sieci WiFi to popularna praktyka w celu ochrony dostępu do sieci, ale sama w sobie nie zapewnia wyłączności dostępu dla wybranych urządzeń. Choć regularna zmiana hasła może pomóc w zabezpieczeniu sieci przed nieautoryzowanym dostępem, po jego zmianie wszystkie urządzenia, które miały wcześniej dostęp, będą musiały wprowadzić nowe hasło, co jest niewygodne i nie rozwiązuje problemu selektywnego dostępu. Zmiana kanału radiowego może pomóc w uniknięciu zakłóceń w środowisku, ale nie ma wpływu na to, które urządzenia mogą się łączyć z siecią. Zmiana szyfrowania z WEP na WPA to krok w dobrą stronę, ponieważ WEP jest znanym i łatwym do złamania standardem bezpieczeństwa, podczas gdy WPA oferuje lepszą ochronę. Jednak samo zastosowanie WPA nie pozwala na ograniczenie dostępu do wybranych urządzeń. W rzeczywistości, aby skutecznie zarządzać dostępem do sieci WiFi, administratorzy powinni stosować wielowarstwowe podejście do bezpieczeństwa. Obejmuje to nie tylko silne hasła i nowoczesne protokoły szyfrowania, ale także mechanizmy takie jak filtrowanie adresów MAC, które oferują bardziej precyzyjną kontrolę nad tym, które urządzenia są autoryzowane do łączenia się z siecią. W przeciwnym razie, sieć może być narażona na ataki i niepożądany dostęp.

Pytanie 36

Skrót określający translację adresów w sieciach to

A. SPI
B. IDS
C. NAT
D. DMZ
Wybór odpowiedzi SPI, IDS oraz DMZ wskazuje na pewne nieporozumienia dotyczące terminologii i koncepcji związanych z bezpieczeństwem i sieciami komputerowymi. SPI, czyli Stateful Packet Inspection, jest technologią zabezpieczeń, która śledzi stan połączeń sieciowych i decyduje, które pakiety mogą przejść przez zaporę sieciową na podstawie wcześniej ustalonych reguł. Chociaż SPI jest istotne dla ochrony sieci, nie ma związku z translacją adresów sieciowych. IDS (Intrusion Detection System) to system wykrywania intruzów, który monitoruje ruch sieciowy w celu wykrycia i reakcji na potencjalne zagrożenia. Choć IDS może działać obok NAT, jego funkcjonalność dotyczy głównie bezpieczeństwa, a nie translacji adresów. DMZ, czyli Demilitarized Zone, to strefa sieciowa oddzielająca sieć zewnętrzną od wewnętrznej, która zwiększa bezpieczeństwo serwerów, jednak nie dotyczy bezpośrednio translacji adresów. Wybór tych terminów świadczy o zamieszaniu w klasyfikacji funkcji sieciowych, co może prowadzić do błędnych wniosków na temat ich zastosowania. Zrozumienie, że NAT jest kluczowym elementem zarządzania adresowaniem IP w sieciach, jest niezbędne dla prawidłowego projektowania infrastruktury sieciowej, natomiast wybór niepoprawnych terminów może wprowadzać w błąd i uniemożliwiać właściwą interpretację funkcji zabezpieczeń i zarządzania ruchem.

Pytanie 37

Jaką rolę pełni serwer plików w sieciach komputerowych LAN?

A. nadzorowanie działania przełączników i ruterów
B. zarządzanie danymi na komputerach w obrębie sieci lokalnej
C. współdzielenie tych samych zasobów
D. przeprowadzanie obliczeń na lokalnych komputerach
Serwer plików to naprawdę ważny element w sieciach LAN. Dzięki niemu możemy wspólnie korzystać z różnych plików i folderów, co ułatwia życie w biurze czy szkole. Wyobraź sobie, że kilka osób musi mieć dostęp do tych samych dokumentów projektowych – ze serwerem plików jest to znacznie prostsze. Działa to na zasadzie centralnego przechowywania danych, więc bez względu na to, z jakiego komputera korzystasz, masz do nich dostęp. W praktyce, często spotkasz się z protokołami jak SMB czy NFS, które pomagają różnym systemom współpracować ze sobą. Pamiętaj też, że warto dbać o regularne kopie zapasowe i kontrolować, kto ma dostęp do jakich plików. Dzięki tym wszystkim rzeczom, serwer plików staje się trochę takim fundamentem efektywnej współpracy w dzisiejszym świecie.

Pytanie 38

Na podstawie tabeli wskaż, który model przełącznika Cisco Catalyst, zawiera 48 portów i możliwość doposażenia o wkładki światłowodowe.

Configurations of Cisco Catalyst 2960 Series Switches with LAN Base Software
Cisco Catalyst 2960 Switch ModelDescriptionUplinks
1 Gigabit Uplinks with 10/100 Ethernet Connectivity
Cisco Catalyst 2960-48PST-L48 Ethernet 10/100 PoE ports2 One Gigabit Ethernet SFP ports and 2 fixed Ethernet 10/100/1000 ports
Cisco Catalyst 2960-24PC-L24 Ethernet 10/100 PoE ports2 dual-purpose ports (10/100/1000 or SFP)
Cisco Catalyst 2960-24LT-L24 Ethernet 10/100 ports2 Ethernet 10/100/1000 ports
Cisco Catalyst 2960-24TC-L24 Ethernet 10/100 ports2 dual-purpose ports
Cisco Catalyst 2960-48TC-L48 Ethernet 10/100 ports2 dual-purpose ports (10/100/1000 or SFP)
Cisco Catalyst 2960-24TT-L24 Ethernet 10/100 ports2 Ethernet 10/100/1000 ports
Cisco Catalyst 2960-48TT-L48 Ethernet 10/100 ports2 Ethernet 10/100/1000 ports
A. 2960-48TC-L
B. 2960-24LT-L
C. 2960-24PC-L
D. 2960-48TT-L
Klucz do tego pytania leży w bardzo uważnym czytaniu tabeli i rozróżnieniu dwóch rzeczy: liczby portów dostępowych oraz rodzaju portów uplink, szczególnie tego, czy obsługują wkładki SFP. W opisie chodzi o przełącznik z 48 portami oraz możliwością doposażenia o wkładki światłowodowe. To od razu eliminuje wszystkie modele z 24 portami, niezależnie od tego, jak ciekawie wyglądają ich uplinki. Cisco Catalyst 2960-24PC-L i 2960-24LT-L mają tylko 24 porty Ethernet 10/100, więc już z definicji nie spełniają wymogu 48 portów, mimo że pierwszy z nich posiada PoE, a drugi gigabitowe porty uplink. To jest typowy błąd: skupić się na funkcjach dodatkowych (PoE, gigabit), a przeoczyć podstawowe kryterium, czyli liczbę portów. Kolejna pułapka to mylenie samych portów gigabitowych z portami, które obsługują wkładki SFP. Model 2960-48TT-L ma co prawda 48 portów 10/100, ale w kolumnie Uplinks widnieje tylko „2 Ethernet 10/100/1000 ports”. To oznacza zwykłe porty miedziane RJ-45, bez możliwości wpięcia modułów SFP. W praktyce taki switch będzie dobry, gdy uplink robimy po skrętce, na krótkie odległości, ale nie spełnia wymagania „możliwości doposażenia o wkładki światłowodowe”. Brak słowa „SFP” w opisie uplinków jest tu sygnałem ostrzegawczym. Model 2960-48TC-L różni się właśnie tym jednym, ale bardzo ważnym szczegółem: ma 48 portów 10/100 oraz „2 dual-purpose ports (10/100/1000 or SFP)”. To „or SFP” mówi nam, że można tam włożyć moduł światłowodowy. Typowy błąd myślowy polega na tym, że ktoś utożsamia każde „10/100/1000” z możliwością obsługi SFP, co nie jest prawdą – gigabit po miedzi i gigabit po światłowodzie to inne fizyczne interfejsy. Dlatego przy wyborze sprzętu trzeba zawsze szukać w specyfikacji literalnego wskazania na SFP lub SFP+. Z mojego doświadczenia warto wyrobić sobie nawyk: najpierw weryfikujemy twarde wymagania (liczba portów, rodzaj mediów), a dopiero potem dodatki typu PoE czy konkretne warianty uplinków. W sieciach zgodnych z dobrymi praktykami projektowymi uplinki światłowodowe są standardem między szafami i budynkami, więc brak SFP szybko okazuje się dużym ograniczeniem. Ta tabela bardzo dobrze pokazuje, jak niewielka różnica w oznaczeniu modelu przekłada się na zupełnie inne możliwości zastosowania w realnej infrastrukturze.

Pytanie 39

Jakie wbudowane narzędzie w systemie Windows służy do identyfikowania problemów związanych z animacjami w grach oraz odtwarzaniem filmów?

A. fsmgmt
B. dxdiag
C. userpasswords2
D. cacls
cacls to narzędzie służące do zarządzania uprawnieniami do plików i folderów w systemie Windows. Umożliwia ono m.in. przydzielanie i odbieranie uprawnień dostępu do zasobów, ale nie ma żadnego związku z diagnostyką problemów z grafiką lub multimediami. Wybór tej opcji może wynikać z mylnego przekonania, że zarządzanie uprawnieniami może wpływać na wydajność gier, co jest nieprawidłowe. Z kolei fsmgmt to narzędzie do zarządzania połączeniami zdalnymi w systemie, które również nie ma zastosowania w kontekście problemów z animacją w grach czy odtwarzaniem filmów. Odpowiedź userpasswords2 służy do zarządzania hasłami użytkowników oraz ich kontami, co nie ma związku z multimedia i wydajnością systemu. Osoby, które wybierają te odpowiedzi, mogą nie rozumieć, że odpowiednie narzędzia diagnostyczne są kluczowe do analizy problemów związanych z wydajnością graficzną. Wybierając niewłaściwe narzędzia, użytkownicy mogą tracić czas na działania, które nie rozwiążą ich problemów. Dlatego ważne jest, aby znać konkretne funkcje poszczególnych narzędzi, ich przeznaczenie oraz umiejętnie je dobierać w zależności od diagnozowanego problemu.

Pytanie 40

Jaki program został wykorzystany w systemie Linux do szybkiego skanowania sieci?

Ilustracja do pytania
A. ttcp
B. nmap
C. webmin
D. iptraf
ttcp jest używane głównie do testowania przepustowości sieci, ale nie jest narzędziem do skanowania. Działa głównie w kontekście diagnostyki wydajności połączeń TCP, ale na przykład nie wykrywa usług ani hostów. W sumie, to czasami ludzie mylą ttcp z narzędziami do skanowania, bo przydaje się w testach wydajnościowych, ale ogranicza się raczej do analizy przepustowości i opóźnień. z kolei iptraf to narzędzie do monitorowania ruchu na poziomie pakietów. Sprawdza ruch w czasie rzeczywistym, co jest przydatne, żeby wiedzieć, co się dzieje w sieci, ale raczej nie skanuje usług ani hostów. Ipatraf pokazuje statystyki dotyczące protokołów, ale nie skanuje jak nmap. Webmin to z kolei aplikacja do zarządzania systemami Linux przez przeglądarkę internetową. Fajnie, że jest web-based, bo można zarządzać systemem i jego usługami bezpośrednio z przeglądarki. Ale znowu, to nie ma nic wspólnego ze skanowaniem sieci. Zrozumienie, jak różnią się te narzędzia, jest spoko ważne dla efektywnego zarządzania infrastrukturą IT. Trzeba dobrze dobierać narzędzia do zadań, które chcemy wykonać, a nmap w kontekście skanowania to po prostu najlepszy wybór. Takie narzędzie powinno być w każdej skrzynce narzędziowej administratora czy specjalisty ds. bezpieczeństwa IT.