Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 20 kwietnia 2026 11:14
  • Data zakończenia: 20 kwietnia 2026 11:49

Egzamin niezdany

Wynik: 10/40 punktów (25,0%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Udostępnij swój wynik
Szczegółowe wyniki:
Pytanie 1

W systemie Linux narzędzie iptables jest wykorzystywane do

A. konfigurowania karty sieciowej
B. zarządzania serwerem pocztowym
C. ustawiania zapory sieciowej
D. konfigurowania zdalnego dostępu do serwera
Konfiguracja serwera pocztowego, zdalnego dostępu do serwera oraz karty sieciowej to obszary, które nie są związane z rolą iptables w systemie Linux. Serwery pocztowe są odpowiedzialne za wysyłanie, odbieranie i przechowywanie wiadomości e-mail, a ich konfiguracja zazwyczaj wymaga znajomości protokołów takich jak SMTP, POP3 czy IMAP, które nie mają nic wspólnego z zarządzaniem ruchem sieciowym. Zdalny dostęp do serwera, z kolei, odnosi się do metod umożliwiających użytkownikom łączenie się z systemem za pośrednictwem protokołów takich jak SSH czy RDP, które również nie dotyczą filtracji ruchu. Co więcej, konfiguracja karty sieciowej skupia się na ustawieniach sprzętowych oraz parametrach komunikacyjnych, takich jak adres IP czy maska podsieci. Błędne przypisanie iptables do tych zadań wynika z nieporozumienia dotyczącego funkcji narzędzia. Iptables jest narzędziem firewallowym, a nie systemem konfiguracyjnym dla serwerów czy sprzętu sieciowego. W praktyce, wiele osób myli różne aspekty zarządzania siecią, co prowadzi do niejasności w zakresie zastosowań poszczególnych narzędzi i technologii. Kluczowe jest, aby zrozumieć, że każde z tych zadań wymaga innego zestawu narzędzi i umiejętności, a ignorowanie tej różnicy może prowadzić do nieefektywnej administracji siecią.

Pytanie 2

Zidentyfikuj interfejsy znajdujące się na panelu tylnym płyty głównej:

Ilustracja do pytania
A. 2xHDMI, 1xD-SUB, 1xRJ11, 6xUSB 2.0
B. 2xUSB 3.0; 4xUSB 2.0, 1.1; 1xD-SUB
C. 2xPS2; 1xRJ45; 6xUSB 2.0, 1.1
D. 2xUSB 3.0; 2xUSB 2.0, 1.1; 2xDP, 1xDVI
Niepoprawne odpowiedzi zawierają błędne zestawienia interfejsów które mogą wprowadzać w błąd co do rzeczywistych możliwości płyty głównej. Na przykład wymienienie portu RJ11 zamiast RJ45 może sugerować że płyta jest przystosowana do obsługi starszych technologii telefonicznych co nie jest powszechną praktyką w przypadku współczesnych komputerów osobistych. RJ45 jest standardowym portem dla sieci Ethernet a jego brak oznaczałby ograniczenia w podłączaniu do sieci LAN. Ponadto podanie zbyt dużej liczby portów HDMI w porównaniu do rzeczywistych złączy na płycie może sugerować błędną konfigurację płyty skupioną raczej na multimedialnym zastosowaniu zamiast na wszechstronności użytkowej. Niedokładna liczba portów USB zarówno w wersji 2.0 jak i 3.0 może prowadzić do nieporozumień co do prędkości przesyłania danych jakie płyta może obsłużyć. Różnice te są kluczowe ponieważ mają bezpośredni wpływ na kompatybilność z różnorodnymi urządzeniami peryferyjnymi oraz na ogólną wydajność systemu. Ważne jest aby rozumieć jakie interfejsy są obecnie standardem i dlaczego ten konkretny zestaw portów został wybrany dla danej płyty głównej uwzględniając ich funkcjonalność i kompatybilność z nowoczesnymi urządzeniami komputerowymi. Pozwala to na właściwe planowanie konfiguracji systemu i unikanie niepotrzebnych ograniczeń i kompatybilności w przyszłości. Zrozumienie tych różnic jest kluczowe dla prawidłowego doboru komponentów komputerowych oraz zapewnienia ich długotrwałej i efektywnej eksploatacji.

Pytanie 3

Na dysku obok systemu Windows zainstalowano system Linux Ubuntu. W celu dostosowania kolejności uruchamiania systemów operacyjnych, należy zmienić zawartość

A. /etc/grub
B. bcdedit
C. boot.ini
D. /etc/inittab
W Ubuntu, jak chcesz ustawić, w jakiej kolejności uruchamiają się systemy operacyjne, musisz zajrzeć do pliku /etc/grub. GRUB, czyli taki bootloader, to standard w Linuxie, który pozwala Ci wybrać, jaki system chcesz włączyć przy starcie komputera. Konfiguracja w grub.cfg zawiera info o systemach, które masz na dysku i ich lokalizację. Jak coś zmienisz w tym pliku, to może się okazać, że inny system uruchomi się jako pierwszy. Na przykład, jak użyjesz komendy 'sudo update-grub', to GRUB zaktualizuje się automatycznie, żeby pokazać wszystkie dostępne systemy, w tym Windowsa i Linuxa. Fajnie jest sprawdzać i aktualizować GRUB-a po każdej instalacji lub aktualizacji systemu, żeby wszystko działało jak należy.

Pytanie 4

Grafik komputerowy sygnalizuje bardzo wolną pracę komputera. Z ilustracji przedstawiającej okno wydajności komputera wynika, że przyczyną tego może być

Ilustracja do pytania
A. wolne łącze internetowe.
B. wolna praca dysku twardego.
C. zbyt mała ilości pamięci RAM.
D. niska wydajność procesora graficznego.
Na załączonym zrzucie z Menedżera zadań widać typowy obraz komputera, który cierpi przede wszystkim na brak pamięci RAM, a nie na inne problemy. Bardzo łatwo w takiej sytuacji skupić się na niewłaściwym elemencie. Wielu użytkowników automatycznie obwinia kartę graficzną, bo „grafikowi potrzebna jest mocna grafika”, ale tutaj procesor graficzny jest obciążony zaledwie w kilku procentach. To oznacza, że GPU praktycznie się nudzi i nie jest wąskim gardłem. Przy tak niskim użyciu nie ma podstaw, żeby mówić o „niskiej wydajności procesora graficznego” jako głównej przyczynie spowolnień. Częstym błędem jest też zrzucanie winy na dysk. Owszem, wolny dysk talerzowy potrafi bardzo mocno spowolnić system, zwłaszcza przy starcie systemu czy wczytywaniu dużych plików. Jednak na ilustracji widzimy dysk SSD, a jego obciążenie nie jest stałe na poziomie 100%, tylko zmienne i raczej umiarkowane. Gdyby to dysk był głównym problemem, wykres dysku byłby praktycznie cały czas „wyklejony” na maksimum, a tu tego nie ma. Do tego SSD zgodnie z obecnymi standardami branżowymi zapewnia znacznie lepszą responsywność niż klasyczny HDD, więc w pierwszej kolejności patrzymy na inne zasoby. Kolejna pułapka myślowa to obwinianie łącza internetowego za każdą wolną pracę komputera. Wolne Wi‑Fi czy słaby Internet wpływa na ładowanie stron, pobieranie plików, pracę w chmurze, ale nie ma bezpośredniego wpływu na szybkość działania programów graficznych pracujących lokalnie. Nawet jeśli transfer jest niski, to nie spowalnia renderowania warstw w Photoshopie czy przełączania się między oknami w systemie. Menedżer zadań wyraźnie pokazuje, że interfejsy sieciowe praktycznie nic nie wysyłają ani nie odbierają, więc nie możemy tutaj mówić o problemie z siecią. Profesjonalne podejście do diagnostyki wydajności polega na analizie twardych danych: procentowego użycia CPU, RAM, dysku i GPU, a nie na domysłach. W tym przypadku tylko pamięć znajduje się w strefie krytycznej – blisko 100% zajętości. Pozostałe komponenty mają jeszcze spory zapas. Dlatego obwinianie karty graficznej, dysku czy Internetu to typowy przykład patrzenia na nie ten wskaźnik, co trzeba. W praktyce warto wyrobić sobie nawyk, żeby przy każdym „zamula” komputera najpierw otworzyć Menedżer zadań i spokojnie przeanalizować, który zasób faktycznie jest przeciążony, zamiast zgadywać.

Pytanie 5

Jakiego typu rozbudowa serwera wymaga zainstalowania dodatkowych sterowników?

A. Montaż kolejnej karty sieciowej
B. Dodanie pamięci RAM
C. Instalacja kolejnego procesora
D. Dodanie dysków fizycznych
Wybór odpowiedzi dotyczący dodania pamięci RAM, montażu kolejnego procesora czy dodania dysków fizycznych nie wymaga zainstalowania dodatkowych sterowników, co często prowadzi do nieporozumień dotyczących rozbudowy sprzętu. Pamięć RAM jest komponentem, który działa bezpośrednio z płytą główną i nie potrzebuje zewnętrznych sterowników, ponieważ jest zarządzana przez system operacyjny oraz BIOS. W przypadku montażu procesora, również nie ma potrzeby dodatkowej instalacji sterowników, ponieważ większość nowoczesnych płyt głównych automatycznie rozpoznaje nowy procesor i wykorzystuje istniejące już w systemie sterowniki. Podobnie rzecz ma się z dyskami fizycznymi – chociaż mogą wymagać konfiguracji w BIOS-ie, sterowniki do dysków (np. SATA) są zazwyczaj już wbudowane w system operacyjny, co czyni proces ich instalacji prostszym. Wybierając te odpowiedzi, można popełnić błąd myślowy polegający na przypuszczeniu, że każdy nowy komponent wymaga nowych sterowników. Kluczowe jest zrozumienie, że tylko niektóre urządzenia, zwłaszcza te, które są złożone lub specjalistyczne, jak karty sieciowe czy graficzne, wymagają dedykowanych sterowników. Również zrozumienie specyfiki działania poszczególnych komponentów jest niezbędne, aby unikać takich błędów.

Pytanie 6

Które stwierdzenie opisuje profil tymczasowy użytkownika?

A. Po wylogowaniu się użytkownika, zmiany dokonane przez niego w ustawieniach pulpitu oraz w plikach nie będą zachowane
B. Jest tworzony przez administratora systemu i zapisywany na serwerze, tylko administrator systemu ma prawo wprowadzać w nim zmiany
C. Umożliwia używanie dowolnego komputera w sieci z ustawieniami i danymi użytkownika przechowywanymi na serwerze
D. Jest generowany przy pierwszym logowaniu do komputera i przechowywany na lokalnym dysku twardym
Wszystkie odpowiedzi, które zakładają, że profil tymczasowy użytkownika może przechowywać zmiany po wylogowaniu, są błędne. Profil tymczasowy jest zaprojektowany tak, aby użytkownik mógł korzystać z komputera bez wpływania na system lub inne profile użytkowników. Odpowiedzi sugerujące, że profil tymczasowy przechowuje dane na serwerze lub na lokalnym dysku, są mylące i nie oddają rzeczywistego charakteru tego typu profilu. Użytkownicy mylą pojęcia związane z profilem tymczasowym i profilami stałymi. Profil stały, tworzony przez administratora, rzeczywiście może przechowywać ustawienia i dane na serwerze, co umożliwia użytkownikowi dostęp do tych samych danych i ustawień niezależnie od miejsca logowania. Ludzie często utożsamiają profil tymczasowy z technologią chmurową, zakładając, że dane są automatycznie synchronizowane między urządzeniami, co nie jest prawdą. Takie myślenie prowadzi do nieporozumień w przypadku zarządzania użytkownikami i ich danymi. W rzeczywistości, zastosowanie profilu tymczasowego w praktyce ma na celu nie tylko uproszczenie zarządzania danymi użytkowników, ale również zwiększenie bezpieczeństwa systemu operacyjnego poprzez unikanie nieautoryzowanych zmian. To ważne, aby zrozumieć, jak różne rodzaje profili wpływają na zarządzanie użytkownikami i jakie są ich konsekwencje w kontekście bezpieczeństwa systemu.

Pytanie 7

Które z metod szyfrowania wykorzystywanych w sieciach bezprzewodowych jest najsłabiej zabezpieczone przed łamaniem haseł?

A. WEP
B. WPA AES
C. WPA2
D. WPA TKIP
Wybór WPA TKIP, WPA AES czy WPA2 pokazuje, że trochę rozumiesz różnice między protokołami zabezpieczeń, ale musisz wiedzieć, że te protokoły są dużo bardziej odporne na łamanie haseł. TKIP, który wprowadzono jako poprawkę do WEP, miał lepsze mechanizmy szyfrowania, bo klucze były generowane dynamicznie dla każdej sesji. Mimo że to był krok w dobrą stronę, to teraz TKIP uznaje się za mniej bezpieczny niż AES, który jest standardem w WPA2. WPA z AES używa mocniejszych algorytmów szyfrowania, przez co prawie niemożliwe jest złamanie ich przez większość atakujących. Wiedza o WPA i jego wersjach jest bardzo ważna w kontekście nowoczesnych sieci. Często ludzie myślą, że protokoły WPA są gorsze niż WEP, ale to nieprawda. Używanie starych protokołów, jak WEP, w dzisiejszych czasach, może prowadzić do poważnych problemów z bezpieczeństwem danych. W praktyce, korzystanie z WPA2 z AES to powinien być standard, a organizacje powinny unikać WEP, żeby mieć bezpieczne sieci.

Pytanie 8

Jaki protokół umożliwia terminalowe połączenie zdalne z urządzeniami, zapewniając przy tym transfer danych w sposób zaszyfrowany?

A. SSH (Secure Shell)
B. SSL (Secure Socket Layer)
C. Telnet
D. Remote
Wybór SSL (Secure Socket Layer) jako odpowiedzi na pytanie o protokół do terminalowego łączenia się zdalnie jest błędny, ponieważ SSL jest protokołem zaprojektowanym głównie do zabezpieczania komunikacji w Internecie, szczególnie dla transmisji danych między przeglądarkami a serwerami. SSL nie jest stosowany do zdalnego logowania się ani do zarządzania systemami, co czyni go nieodpowiednim wyborem w kontekście tej kwestii. SSL zapewnia szyfrowanie, lecz w kontekście zdalnych połączeń terminalowych protokół SSH zapewnia znacznie lepszą funkcjonalność. Protokół Telnet, chociaż działał w przeszłości jako standard do zdalnego dostępu, nie oferuje żadnego szyfrowania, co sprawia, że jest niebezpieczny w nowoczesnym środowisku IT. Dlatego też wiele organizacji zastąpiło Telnet nowszymi, bezpieczniejszymi protokołami, jak SSH. Wybór odpowiedniego protokołu do zdalnego logowania jest kluczowy dla bezpieczeństwa infrastruktury IT, a ignorowanie różnic między tymi protokołami może prowadzić do poważnych luk w zabezpieczeniach, w tym do narażenia na ataki cybernetyczne. Używanie nieodpowiednich protokołów może skutkować nieautoryzowanym dostępem do systemów oraz utratą poufnych danych. W związku z tym, kluczowe jest, aby stosować aktualne standardy branżowe oraz protokoły, które zapewniają wysoki poziom bezpieczeństwa, a SSH jest najlepszym wyborem w tej dziedzinie.

Pytanie 9

Najlepszą metodą ochrony danych przedsiębiorstwa, którego biura znajdują się w różnych, odległych miejscach, jest wdrożenie

A. kopii analogowych
B. kopii przyrostowych
C. backupu w chmurze firmowej
D. kompresji strategicznych danych
Kopie analogowe, czyli fizyczne nośniki danych, takie jak taśmy czy płyty CD, są niewystarczające w przypadku firm rozproszonych geograficznie. Choć mogą one stanowić pewną formę archiwizacji, ich ograniczenia są znaczące, z uwagi na trudności w dostępie do danych z różnych lokalizacji oraz ryzyko uszkodzenia lub zgubienia nośników. Ponadto, kopie analogowe nie oferują automatyzacji ani synchronizacji w czasie rzeczywistym, co jest kluczowe w aktualnym środowisku biznesowym, gdzie czas reakcji jest istotny. Kopie przyrostowe, które dotyczą jedynie zmian od ostatniego backupu, są bardziej efektywne od pełnych kopii, jednak również nie są idealnym rozwiązaniem w przypadku firm z wieloma lokalizacjami. Mogą one prowadzić do problemów z zarządzaniem wersjami danych, a przywrócenie pełnej bazy danych wymaga skomplikowanego procesu odtwarzania. Kompresja strategicznych danych, choć może pomóc w oszczędności miejsca, nie zapewnia ochrony danych ani ich dostępności w przypadku awarii. Te metody, z uwagi na swoje ograniczenia, mogą wprowadzać w błąd firmy, które są przekonane, że wystarczą jako jedyne formy zabezpieczenia danych. W rzeczywistości, optymalne podejście powinno obejmować różnorodne strategie backupu, w tym chmurę, która jest uznawana za standard w branży dla zarządzania danymi w nowoczesnym przedsiębiorstwie.

Pytanie 10

Jakie oprogramowanie należy zainstalować, aby serwer Windows mógł obsługiwać usługi katalogowe?

A. kontroler domeny
B. usługi zarządzania prawami
C. rolę serwera DHCP
D. rolę serwera Web
Wybór usługi zarządzania prawami, roli serwera DHCP lub roli serwera Web wskazuje na pewne nieporozumienia dotyczące funkcji i zastosowania tych technologii. Usługi zarządzania prawami są używane do ochrony treści cyfrowych poprzez kontrolowanie, jak można je używać, co nie ma bezpośredniego związku z zarządzaniem użytkownikami i komputerami w sieci. Rola serwera DHCP jest odpowiedzialna za dynamiczne przydzielanie adresów IP urządzeniom w sieci, co jest kluczowe dla komunikacji, ale nie dostarcza mechanizmów do zarządzania autoryzacją i uwierzytelnianiem użytkowników. Z kolei serwer Web umożliwia hostowanie stron internetowych, co również nie jest powiązane z usługami katalogowymi i nie pozwala na zarządzanie danymi użytkowników czy komputerów w sieci. W praktyce, wybierając jedną z tych odpowiedzi, można łatwo pomylić funkcje poszczególnych ról serwerowych, co prowadzi do zrozumienia, że każda z nich pełni odmienną rolę w infrastrukturze IT. Kluczowe jest zrozumienie, że kontroler domeny jest niezbędny do centralnego zarządzania zasobami sieciowymi, podczas gdy inne usługi mają zupełnie inną specyfikę i zastosowanie w ekosystemie informatycznym.

Pytanie 11

W systemie Windows aktualne ustawienia użytkownika komputera przechowywane są w gałęzi rejestru o skrócie

A. HKLM
B. HKCU
C. HKCR
D. HKCC
Odpowiedzi HKCC, HKCR oraz HKLM są błędne z różnych powodów, które warto omówić. HKCC, czyli HKEY_CURRENT_CONFIG, jest gałęzią rejestru, która przechowuje dane dotyczące bieżącej konfiguracji sprzętowej systemu, a nie ustawienia konkretnego użytkownika. Jej zawartość zmienia się w zależności od aktualnie używanego profilu sprzętowego, co sprawia, że nie jest odpowiednia do przechowywania indywidualnych preferencji. Z kolei HKCR, czyli HKEY_CLASSES_ROOT, łączy informacje z HKLM i HKCU, koncentrując się na powiązaniach plików i rejestracji COM, a więc również nie obejmuje ustawień użytkownika. Mimo że HKCR może wpływać na to, jak użytkownik wchodzi w interakcję z różnymi typami plików, nie jest miejscem, gdzie użytkownicy przechowują swoje osobiste preferencje. Na koniec, HKLM, czyli HKEY_LOCAL_MACHINE, zawiera informacje o całym systemie, w tym o zainstalowanym oprogramowaniu i konfiguracji sprzętowej, które są wspólne dla wszystkich użytkowników, a nie specyficzne dla jednego. Zrozumienie tych różnic jest kluczowe w kontekście zarządzania systemem operacyjnym Windows, ponieważ pozwala na skuteczniejsze rozwiązywanie problemów oraz dostosowywanie środowiska pracy do indywidualnych potrzeb użytkowników.

Pytanie 12

Aby po załadowaniu systemu Windows program Kalkulator uruchamiał się automatycznie, konieczne jest dokonanie ustawień

A. harmonogramu zadań
B. funkcji Snap i Peak
C. pliku wymiany
D. pulpitu systemowego
Inkorporowanie funkcji wymiany plików, takich jak plik wymiany, nie ma związku z automatycznym uruchamianiem aplikacji w systemie Windows. Plik wymiany jest używany przez system operacyjny do zarządzania pamięcią, zwłaszcza w sytuacjach, gdy pamięć RAM jest niewystarczająca. Jego rola polega na przechowywaniu danych, które nie mieszczą się w pamięci operacyjnej, co nie wpływa na uruchamianie aplikacji przy starcie systemu. Kolejnym błędnym podejściem jest zakładanie, że funkcje Snap i Peak miałyby w tym kontekście zastosowanie. Te funkcje są odpowiedzialne za zarządzanie oknami aplikacji, umożliwiając ich maksymalizację lub minimalizację oraz tworzenie zrzutów ekranu, jednak nie mają żadnego wpływu na automatyzację uruchamiania programów. Co więcej, pulpitu systemowego nie można traktować jako narzędzia do konfigurowania aplikacji startowych. Pulpit to jedynie interfejs użytkownika, na którym mogą być umieszczane ikony aplikacji, ale nie ma on funkcji automatyzacji. Typowym błędem jest mylenie terminologii i założeń dotyczących systemu operacyjnego, co prowadzi do niepoprawnych wniosków. Aby poprawnie ustawić automatyczne uruchamianie aplikacji, istotne jest zrozumienie działania Harmonogramu zadań oraz innych narzędzi systemowych, które oferują takie możliwości.

Pytanie 13

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
B. wybraniem pliku z obrazem dysku.
C. dodaniem drugiego dysku twardego.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 14

Które z poniższych twierdzeń na temat protokołu DHCP jest poprawne?

A. Jest to protokół konfiguracji hosta
B. Jest to protokół transferu plików
C. Jest to protokół trasowania
D. Jest to protokół dostępu do bazy danych
Zrozumienie, czym jest protokół DHCP, jest kluczowe dla prawidłowego zarządzania sieciami komputerowymi. Wybór odpowiedzi związanych z przesyłaniem plików, routowaniem czy dostępem do bazy danych wskazuje na nieporozumienia dotyczące podstawowych funkcji, jakie pełnią różne protokoły. Protokół przesyłania plików, jak FTP (File Transfer Protocol), jest zaprojektowany do transferu plików pomiędzy systemami, a nie do zarządzania adresami IP czy konfiguracją urządzeń. Z kolei protokoły routingu, takie jak OSPF (Open Shortest Path First) czy BGP (Border Gateway Protocol), są odpowiedzialne za definiowanie tras przesyłania pakietów w sieci, a nie za automatyczną konfigurację hostów. Protokół dostępu do bazy danych, na przykład SQL, służy do komunikacji z bazami danych, a nie do konfigurowania urządzeń sieciowych. Pojawienie się tych nieprawidłowych odpowiedzi może wynikać z zamieszania dotyczącego funkcji różnych protokołów sieciowych. Użytkownicy często mylą protokoły, co prowadzi do błędnych wniosków. Kluczowe jest zrozumienie, że DHCP koncentruje się na automatyzacji konfiguracji sieci, co jest zupełnie innym zadaniem niż przesyłanie plików, routing czy dostęp do baz danych. Właściwe rozróżnienie tych protokołów jest niezbędne w kontekście projektowania i utrzymania efektywnych i bezpiecznych sieci komputerowych.

Pytanie 15

Jakie urządzenie jest przedstawione na rysunku?

Ilustracja do pytania
A. Hub.
B. Bridge.
C. Switch.
D. Access Point.
Punkt dostępowy to urządzenie, które umożliwia bezprzewodowy dostęp do sieci komputerowej. Działa jako most pomiędzy siecią przewodową a urządzeniami bezprzewodowymi, takimi jak laptopy, smartfony czy tablety. W praktyce punkt dostępowy jest centralnym elementem sieci WLAN i pozwala na zwiększenie jej zasięgu oraz liczby obsługiwanych użytkowników. Standardy takie jak IEEE 802.11 regulują działanie tych urządzeń, zapewniając kompatybilność i bezpieczeństwo. W zastosowaniach domowych oraz biurowych punkty dostępowe są często zintegrowane z routerami, co dodatkowo ułatwia zarządzanie siecią. Ich konfiguracja może obejmować ustawienia zabezpieczeń, takie jak WPA3, aby chronić dane przesyłane przez sieć. Dobre praktyki sugerują umieszczanie punktów dostępowych w centralnych lokalizacjach w celu optymalizacji zasięgu sygnału i minimalizacji zakłóceń. Przy wyborze punktu dostępowego warto zwrócić uwagę na obsługiwane pasma częstotliwości, takie jak 2.4 GHz i 5 GHz, co pozwala na elastyczne zarządzanie przepustowością sieci.

Pytanie 16

Na której ilustracji przedstawiono Edytor rejestru w systemie Windows?

Ilustracja do pytania
A. Na ilustracji 2.
B. Na ilustracji 4.
C. Na ilustracji 3.
D. Na ilustracji 1.
Na ilustracjach przedstawiono kilka różnych narzędzi administracyjnych Windows, które w interfejsie są do siebie dosyć podobne, co często prowadzi do mylenia ich z Edytorem rejestru. Warto więc dobrze rozumieć, czym rejestr jest, jak wygląda i czym różni się od innych konsol MMC. Edytor rejestru (regedit.exe) zawsze prezentuje drzewiastą strukturę pięciu podstawowych gałęzi: HKEY_CLASSES_ROOT, HKEY_CURRENT_USER, HKEY_LOCAL_MACHINE, HKEY_USERS, HKEY_CURRENT_CONFIG. W lewym panelu mamy typowe drzewo kluczy, bardzo podobne wizualnie do struktury katalogów w Eksploratorze plików, a w prawym panelu widoczne są nazwy wartości, ich typ (REG_SZ, REG_DWORD itd.) oraz dane. Jeżeli w oknie nie ma tych głównych gałęzi, to nie jest to Edytor rejestru, tylko inne narzędzie administracyjne. Na jednej z pozostałych ilustracji widać konsolę zarządzania komputerem lub inną przystawkę MMC z listą serwerów czy komputerów – to narzędzie służy do administracji usługami, magazynem, zdarzeniami, a nie do edycji kluczy rejestru. Typowym błędem jest utożsamianie każdego „szarego” okna MMC z rejestrem, bo układ menu Plik, Akcja, Widok, Pomoc bywa podobny. Inna ilustracja pokazuje Zapory systemu Windows z zaawansowanym zabezpieczeniami – tam zarządza się regułami ruchu sieciowego, portami, profilami sieciowymi. To narzędzie operuje na zasadach filtrowania pakietów, a nie na kluczach HKEY_*. Mylenie go z rejestrem wynika często z tego, że również jest to przystawka konsoli zarządzania i ma lewe drzewo nawigacyjne. Jeszcze inny zrzut ekranu przedstawia element Panelu sterowania związany z szyfrowaniem dysków (np. BitLocker, TPM). To miejsce służy do konfiguracji bezpieczeństwa danych na dyskach, a nie do niskopoziomowej konfiguracji całego systemu. Wszystkie te narzędzia są ważne w administracji Windows, ale każde ma inny zakres odpowiedzialności. Dobra praktyka w pracy technika to nauczyć się rozpoznawać po samym układzie i nazewnictwie, z jakim typem konsoli mamy do czynienia, i nie zakładać, że każde narzędzie konfiguracyjne to od razu Edytor rejestru.

Pytanie 17

By uruchomić w systemie Windows oprogramowanie narzędziowe monitorujące wydajność komputera przedstawione na rysunku, należy uruchomić

Ilustracja do pytania
A. devmgmt.msc
B. gpedit.msc
C. perfmon.msc
D. taskschd.msc
Odpowiedź perfmon.msc jest trafiona, bo właśnie ta konsola służy do uruchamiania Monitorowania wydajności (Performance Monitor) w systemie Windows. Narzędzie to pozwala na bardzo szczegółowe śledzenie parametrów pracy komputera – nie tylko obciążenia procesora, jak na ekranie, ale też wykorzystania pamięci RAM, dysków, sieci i wielu innych liczników systemowych. Z mojego doświadczenia, to jest niezastąpione narzędzie w diagnostyce, optymalizacji oraz audycie wydajności zarówno w środowiskach domowych, jak i profesjonalnych, np. podczas analizy problemów wydajnościowych serwerów czy aplikacji. Umożliwia tworzenie własnych zestawów liczników, rejestrowanie wyników do dalszej analizy, a także generowanie raportów zgodnie z dobrymi praktykami IT. Nawiasem mówiąc, osoby pracujące w branży IT często korzystają z perfmon.msc nie tylko do bieżącego monitorowania, ale też do długoterminowej analizy trendów oraz planowania rozbudowy sprzętu. Ja sam nieraz używałem go do wykrywania tzw. wąskich gardeł (bottlenecków) – na przykład, kiedy serwer 'zamula', a Task Manager niewiele mówi. Warto znać to narzędzie, bo to podstawa przy rozwiązywaniu problemów z wydajnością sprzętu czy aplikacji.

Pytanie 18

Jaką rolę pełnią elementy Tr1 i Tr2, które są widoczne na schemacie ilustrującym kartę sieciową Ethernet?

Ilustracja do pytania
A. Informują o aktywności karty sieciowej za pomocą dźwięków
B. Wskazują szybkość pracy karty sieciowej poprzez świecenie na zielono
C. Zapewniają separację obwodu elektrycznego sieci LAN od obwodu elektrycznego komputera
D. Oferują szyfrowanie oraz deszyfrowanie danych przesyłanych przez sieć
Nie wszystkie wymienione funkcje mają związek z rzeczywistym zastosowaniem transformatorów Tr1 i Tr2 na kartach sieciowych Ethernet. Funkcje takie jak szyfrowanie i deszyfrowanie danych są realizowane na poziomie protokołów sieciowych i specjalistycznych układów scalonych, które odpowiadają za bezpieczeństwo przesyłania danych. Transformator Ethernet nie ma bezpośredniego wpływu na szyfrowanie danych, ponieważ jego główną rolą jest izolacja galwaniczna. Sygnalizacja dźwiękowa nie jest typową funkcjonalnością kart sieciowych Ethernet, zwłaszcza w kontekście transformatorów, które są pasywnymi komponentami elektronicznymi i nie mają możliwości generowania dźwięku. Takie funkcje mogą być realizowane przez oprogramowanie lub dodatkowe moduły akustyczne, ale nie przez same transformatory. Z kolei sygnalizacja świetlna używana jest często do wskazywania stanu połączenia sieciowego i jego prędkości, ale odbywa się to poprzez diody LED kontrolowane przez inny układ scalony, a nie przez transformatory. Typowe błędy myślowe związane z tymi funkcjami wynikają z przypisywania pasywnym komponentom elektronicznym aktywnych ról, które wymagają przetwarzania sygnałów w sposób nienależący do ich specyfikacji technicznej. Transformator Ethernet jest fundamentalnym elementem zapewniającym bezpieczeństwo sprzętowe i ochronę przed zakłóceniami, a jego rola w układach sieciowych sprowadza się do realizacji izolacji galwanicznej zgodnie ze standardami takimi jak IEEE 802.3, co nie obejmuje funkcji aktywnego monitorowania działania karty sieciowej.

Pytanie 19

Zaprezentowane narzędzie jest wykorzystywane do

Ilustracja do pytania
A. spawania przewodów światłowodowych
B. zdejmowania izolacji okablowania
C. zaciskania wtyków RJ11 oraz RJ45
D. lokalizacji uszkodzeń włókien światłowodowych
Zaciskanie wtyków RJ11 i RJ45 wymaga zastosowania specjalistycznych narzędzi takich jak zaciskarki które umożliwiają precyzyjne połączenie przewodów z końcówkami. Lokalizator uszkodzeń włókien światłowodowych przedstawiony na zdjęciu nie posiada odpowiednich mechanizmów ani formy pozwalającej na wykonywanie tego zadania. Z kolei spawanie przewodów światłowodowych polega na łączeniu dwóch odcinków włókien przy użyciu spawarki światłowodowej co wymaga precyzyjnej technologii zgrzewania a narzędzie na zdjęciu nie spełnia tych warunków. Zdejmowanie izolacji okablowania jest procesem polegającym na usunięciu zewnętrznej powłoki kabli co ułatwia ich dalsze przetwarzanie i wymaga zastosowania narzędzi takich jak noże do zdejmowania izolacji bądź specjalne szczypce. Narzędzie na zdjęciu jest dostosowane wyłącznie do przesyłania światła wzdłuż włókna światłowodowego w celu lokalizacji uszkodzeń a nie do mechanicznego przetwarzania kabli. Podczas analizy technologii i narzędzi ważne jest zrozumienie ich specyficznego przeznaczenia oraz funkcjonalności co pozwala na unikanie błędnych aplikacji w praktyce zawodowej. Poprawne rozpoznanie narzędzia i jego zastosowania ma kluczowe znaczenie w efektywnej pracy w dziedzinie telekomunikacji i optyki.

Pytanie 20

W systemie Windows 7 aby skopiować folder c:\test wraz z jego podfolderami na dysk zewnętrzny f:\, należy zastosować polecenie

A. copy f:\test c:\test /E
B. xcopy f:\test c:\test /E
C. copy c:\test f:\test /E
D. xcopy c:\test f:\test /E
Wybór odpowiedzi, które opierają się na poleceniu 'copy', jest błędny, ponieważ to narzędzie nie ma możliwości rekurencyjnego kopiowania całych katalogów wraz z ich podkatalogami. Użycie 'copy c:\test f:\test /E' nie zadziała, ponieważ 'copy' jest przeznaczone do kopiowania pojedynczych plików lub grup plików, ale nie obsługuje struktur katalogów. Dlatego opcja '/E' w tym kontekście nie ma sensu, ponieważ nie jest to poprawna flaga dla tego polecenia. Dodatkowo, próba zastosowania 'copy f:\test c:\test /E' również nie będzie skuteczna, ponieważ obie lokalizacje są odwrotne od zamierzonego działania - kopiowanie katalogu z dysku przenośnego do miejsca lokalnego. W odniesieniu do standardów branżowych i dobrych praktyk, zaleca się korzystanie z narzędzi, które są specjalnie dostosowane do złożonych operacji na systemach plików, co czyni xcopy bardziej odpowiednim wyborem w tym przypadku. Zrozumienie różnicy między tymi dwoma poleceniami jest kluczowe dla efektywnego zarządzania plikami w systemach Windows.

Pytanie 21

Które polecenie systemu Linux wyświetla czas pracy systemu oraz jego średnie obciążenie?

A. dmidecode
B. uname –a
C. lastreboot
D. uptime
Wielu osobom różne polecenia mogą się mylić, szczególnie kiedy dopiero zaczynają przygodę z Linuxem albo po prostu nie używają wszystkich na co dzień. Zacznijmy od polecenia uname –a. Ono rzeczywiście jest bardzo przydatne, ale jego zadaniem jest wyświetlenie szczegółowych informacji o jądrze systemu – takich jak wersja kernela, nazwa sieciowa hosta czy architektura sprzętowa. Nie dostarczy nam jednak żadnych danych o czasie pracy systemu ani o bieżącym obciążeniu. Czasami ktoś może automatycznie pomylić uname z uptime, bo oba są krótkie i zaczynają się na „u”, ale to dwie zupełnie inne funkcje. Teraz, jeśli chodzi o lastreboot, to polecenie nie jest w ogóle standardowe dla Linuksa – czasem można je znaleźć na niektórych dystrybucjach lub w narzędziach dodatkowych, ale nie jest natywną częścią większości systemów. Nawet jeśli by było, to lastreboot pokazuje tylko, kiedy ostatnio system został zrestartowany, bez żadnych informacji o aktualnym obciążeniu. To raczej ciekawostka, niż poważne narzędzie do monitorowania systemu. Z kolei dmidecode służy do czegoś zupełnie innego – czyta dane z BIOS-u i wyświetla szczegółowe informacje o sprzęcie: modelu płyty głównej, pamięci RAM itp. Fajna sprawa przy sprawdzaniu konfiguracji serwera albo szukaniu numerów seryjnych, ale kompletnie nie daje wglądu w czas pracy ani load systemu. Częstym błędem jest przekonanie, że każde polecenie systemowe wyświetla ogólne informacje o systemie – w praktyce każde z nich ma swoją wyspecjalizowaną rolę i warto znać te różnice, żeby na produkcji nie szukać na oślep. Właśnie dlatego uptime jest narzędziem pierwszego wyboru w tej konkretnej sytuacji – jest szybki, czytelny i powszechnie dostępny we wszystkich głównych dystrybucjach Linuksa.

Pytanie 22

Podaj polecenie w systemie Windows Server, które umożliwia usunięcie jednostki organizacyjnej z katalogu.

A. redircmp
B. adprep
C. dsadd
D. dsrm
Polecenie 'dsrm' (Directory Service Remove) to narzędzie w systemie Windows Server służące do usuwania obiektów z katalogu Active Directory, w tym jednostek organizacyjnych (OU). Użycie tego polecenia jest zgodne z najlepszymi praktykami zarządzania Active Directory, ponieważ pozwala na efektywne i bezpieczne eliminowanie niepotrzebnych obiektów. Aby usunąć jednostkę organizacyjną, administrator może użyć polecenia w konsoli PowerShell, na przykład: 'dsrm "OU=exampleOU,DC=domain,DC=com"'. Warto również zauważyć, że przed wykonaniem operacji usunięcia zaleca się przeprowadzenie analizy obiektów zależnych, aby uniknąć usunięcia istotnych zasobów, co może negatywnie wpłynąć na struktury zarządzające. W praktyce, 'dsrm' jest często stosowane w skryptach automatyzujących zarządzanie Active Directory, co podkreśla jego znaczenie w codziennych operacjach administracyjnych.

Pytanie 23

Oprogramowanie przypisane do konkretnego komputera lub jego podzespołów, które uniemożliwia instalację na nowym sprzęcie zakupionym przez tego samego użytkownika, to

A. MOLP
B. MPL
C. OEM
D. CPL
Odpowiedzi MPL, CPL i MOLP są nieprawidłowe w kontekście zadania, ponieważ nie opisują one właściwości oprogramowania przypisanego do jednego komputera, które nie pozwala na jego przenoszenie. MPL, czyli Multi-Party License, to typ licencji, który zakłada współpracę wielu stron, co nie współczesnie odnosi się do opisanego przypadku. CPL, z kolei, to Common Public License, która dotyczy licencji open source i nie ma zastosowania w kontekście oprogramowania przypisanego do konkretnego urządzenia. MOLP (Million of License Purchase) odnosi się do modeli zakupowych, które mogą być stosowane w dużych organizacjach, ale nie mają one związku z ograniczeniami dotyczącymi przenoszenia oprogramowania. Typowe błędy myślowe prowadzące do takich wniosków to mylenie pojęć licencyjnych oraz braku zrozumienia zasadności zastosowania różnych typów licencji w kontekście sprzętu. Warto zwrócić uwagę na to, że wybór odpowiedniego typu licencji jest kluczowy dla prawidłowego zarządzania oprogramowaniem w organizacji, co może mieć wpływ na koszty oraz zgodność z przepisami prawa. Właściwe zrozumienie tych różnic jest kluczowe dla każdego użytkownika, zarówno indywidualnego, jak i w kontekście zarządzania w przedsiębiorstwie.

Pytanie 24

Nazwa protokołu, który pozwala na konwersję 32-bitowych adresów IP na 48-bitowe fizyczne adresy MAC w sieciach Ethernet, to:

A. ARP
B. DNS
C. RARP
D. NAT
Wybór protokołu DNS (Domain Name System) jest niewłaściwy, ponieważ DNS jest odpowiedzialny za tłumaczenie nazw domenowych na adresy IP, co jest kluczowe dla działania internetu, ale nie odnosi się do konwersji adresów IP na adresy MAC. To podejście może prowadzić do pomyłek, zwłaszcza w kontekście funkcjonowania sieci lokalnych, gdzie istotne jest, aby znać fizyczne adresy urządzeń. RARP (Reverse Address Resolution Protocol) jest używany do odwrotnego procesu, czyli przekształcania adresów MAC na adresy IP, co jest rzadziej stosowane, a NAT (Network Address Translation) to technika, która służy do modyfikacji adresów IP w pakietach przechodzących przez router, co umożliwia używanie prywatnych adresów IP w sieciach lokalnych. Typowym błędem myślowym jest mylenie funkcji tych protokołów oraz ich zastosowania w różnych warstwach modelu OSI. Wiele osób nie zdaje sobie sprawy, że ARP jest kluczowe dla komunikacji w sieciach lokalnych, co może prowadzić do nieporozumień przy rozwiązywaniu problemów związanych z adresowaniem. Aby skutecznie zarządzać siecią, ważne jest, aby zrozumieć różnice pomiędzy tymi protokołami oraz ich rolę w infrastrukturze sieciowej.

Pytanie 25

Czym jest procesor Athlon 2800+?

A. procesor stworzony przez firmę AMD, którego wydajność jest zbliżona do wydajności procesora Pentium 4 o częstotliwości 2,8 GHz
B. procesor marki Intel pracujący z częstotliwością 2,8 GB
C. procesor marki Intel, którego wydajność przypomina procesor Pentium 4 o częstotliwości 2,8 GHz
D. procesor wyprodukowany przez firmę AMD o częstotliwości 2,8 GB
Nieprawidłowe odpowiedzi sugerują nieścisłości dotyczące producenta procesora oraz jego specyfikacji. Przykładem jest mylne przypisanie procesora Athlon 2800+ do firmy Intel. To fundamentalny błąd, ponieważ Athlon jest produktem AMD, a nie Intela. Takie nieporozumienie może wynikać z ogólnej nieznajomości architektury procesorów, a także ich ewolucji na rynku. Dodatkowo, stwierdzenie o taktowaniu 2,8 GB jest technicznie błędne, ponieważ typowe taktowanie procesora wyrażane jest w gigahercach (GHz), a nie w gigabajtach (GB), co wskazuje na podstawowy brak zrozumienia jednostek miary używanych w kontekście technologii komputerowej. Kolejnym typowym błędem jest nieprawidłowe porównywanie wydajności procesorów bez uwzględnienia różnic w architekturze i technologii produkcji. Procesory AMD i Intel, mimo że mogą mieć podobne oznaczenia, różnią się znacznie w sposobie działania i architekturze, co wpływa na ich rzeczywistą wydajność w aplikacjach. Zrozumienie tych różnic jest kluczowe dla wyboru odpowiedniego rozwiązania sprzętowego w kontekście konkretnych zastosowań, takich jak gry, obróbka wideo czy aplikacje biurowe. W rezultacie, wiedza na temat producentów, architektur oraz specyfikacji procesorów jest niezbędna dla prawidłowego doboru komponentów komputerowych, co jest zgodne z dobrymi praktykami w branży IT.

Pytanie 26

Który z podanych adresów IP należy do klasy A?

A. 134.16.0.1
B. 119.0.0.1
C. 192.0.2.1
D. 169.255.2.1
Podczas analizy odpowiedzi, które nie są poprawne, warto zwrócić uwagę na klasyfikację adresów IP, która jest fundamentalnym elementem sieci komputerowych. Adres IP 192.0.2.1 należy do klasy B, co oznacza, że jest przeznaczony dla średnich sieci, a jego zakres to 128-191. Odpowiedź ta jest nieprawidłowa, ponieważ klasy B są często stosowane w sytuacjach, gdzie liczba hostów jest umiarkowana, jak na przykład w średnich przedsiębiorstwach. Adres 134.16.0.1 również należy do klasy B, a jego zakres potwierdza, że nie mieści się w kategorii A. Adresy klasy C, z kolei, obejmują zakres 192-223 i są przeznaczone dla małych sieci, co wyklucza możliwość przypisania ich do klasy A. Jeśli chodzi o adres 169.255.2.1, to jest to adres w klasie B, ale warto zwrócić uwagę, że adresy zaczynające się od 169.254 są częścią tzw. adresacji zerowej (link-local), co oznacza, że są one używane w przypadkach, gdy nie można uzyskać adresu IP z serwera DHCP. Powszechnym błędem związanym z wyborem odpowiedzi jest mylenie klas adresowych oraz przypisywanie adresów do nieodpowiednich zakresów. Należy pamiętać, że zrozumienie architektury adresacji IP jest kluczowe dla efektywnego projektowania i zarządzania sieciami komputerowymi, a nieznajomość tej klasyfikacji może prowadzić do poważnych problemów z komunikacją i zarządzaniem zasobami w sieci.

Pytanie 27

Wskaż właściwą formę maski

A. 255.255.255.96
B. 255.255.255.192
C. 255.255.255.64
D. 255.255.255.228
Wybór niepoprawnej maski podsieci może prowadzić do wielu problemów w zarządzaniu siecią i przydzielaniu adresów IP. Maski 255.255.255.64, 255.255.255.96 i 255.255.255.228 nie są właściwe w kontekście klasycznej segmentacji sieci. Maska 255.255.255.64 prowadzi do podziału na podsieci z 64 adresami hostów, co w praktyce jest błędne, ponieważ nie wykorzystuje w pełni dostępnej przestrzeni adresowej. Maska ta pozwala jedynie na 4 podsieci, co jest niewystarczające w środowisku o dużej liczbie urządzeń. Maska 255.255.255.96 również jest niepoprawna, ponieważ totalna liczba adresów hostów nie jest mocną potęgą liczby 2, co czyni ją nieużyteczną w typowym projektowaniu sieci. Z kolei maska 255.255.255.228, w której tylko 4 bity są przeznaczone dla hostów, pozwala jedynie na 14 adresów hostów w każdej podsieci, co jest zbyt małą liczbą dla większości zastosowań. Wybór niewłaściwej maski podsieci może prowadzić do zjawiska zwanego „wyciekaniem adresów”, gdzie niepotrzebnie marnuje się puli adresów IP. Błędem jest również pomijanie znaczenia maski w kontekście routingu, co może skutkować problemami z komunikacją między podsieciami. Właściwe dobieranie masek podsieci na podstawie wymagań sieciowych jest kluczowe dla zachowania efektywności i wydajności infrastruktury sieciowej.

Pytanie 28

Który z podanych elementów jest częścią mechanizmu drukarki igłowej?

A. Filtr ozonowy
B. Soczewka
C. Traktor
D. Lustro
Wybór odpowiedzi związanych z filtrami ozonowymi, lusterkami i soczewkami sugeruje pewne nieporozumienia dotyczące funkcji elementów używanych w drukarkach igłowych. Filtr ozonowy, chociaż mógłby wydawać się istotny w kontekście ochrony środowiska, nie jest bezpośrednio związany z mechanizmem drukowania w drukarkach igłowych. Jego główną rolą jest redukcja emisji ozonu, co jest bardziej istotne w kontekście urządzeń emitujących ozon, a nie w drukowaniu. Lustra są wykorzystywane w technologii optycznej, ale nie mają zastosowania w pracy drukarek igłowych, które opierają się na mechanizmie wybijania tuszu przez igły na papier. Soczewki, na ogół używane w aparatach fotograficznych czy projektorach, również nie mają zastosowania w tej technologii. Często błędem myślowym jest mylenie różnych technologii druku, co prowadzi do przypisania nieodpowiednich elementów do mechanizmów drukujących. Kluczową kwestią jest zrozumienie, że drukarki igłowe działają na zasadzie mechanicznego zderzenia igieł z taśmą drukującą, co różni się od technologii wykorzystujących światło lub tusz w inny sposób. Uznanie tych różnic jest niezbędne do prawidłowego zrozumienia działania różnych technologii druku.

Pytanie 29

Jakim portem domyślnie odbywa się przesyłanie poleceń (command) serwera FTP?

A. 110
B. 20
C. 21
D. 25
Port 21 jest domyślnym portem dla protokołu FTP (File Transfer Protocol), który jest standardem służącym do transferu plików w sieciach. Użycie portu 21 jako portu kontrolnego jest zgodne z ustaleniami IETF (Internet Engineering Task Force) i jest szeroko stosowane w branży IT. Na tym porcie klient FTP nawiązuje połączenie z serwerem, aby wysłać polecenia, takie jak logowanie czy przeglądanie folderów. Przykładowo, podczas korzystania z oprogramowania FTP, takiego jak FileZilla, wpisując adres serwera, automatycznie używa portu 21, chyba że użytkownik wskaże inny. To standardowe podejście zapewnia łatwość konfiguracji i zgodność z różnorodnymi serwerami FTP. Warto również zauważyć, że dla bezpieczniejszego transferu danych, można używać FTP Secure (FTPS) lub SSH File Transfer Protocol (SFTP), które zajmują inne porty, jednak dla klasycznego FTP port 21 pozostaje powszechnie uznawanym standardem.

Pytanie 30

Który z parametrów w ustawieniach punktu dostępowego jest odpowiedzialny za login używany podczas próby połączenia z bezprzewodowym punktem dostępu?

Ilustracja do pytania
A. Channel Width
B. Wireless Network Name
C. Transmission Rate
D. Wireless Channel
Wireless Network Name znany również jako SSID (Service Set Identifier) jest nazwą identyfikującą sieć bezprzewodową użytkownika. Podczas próby połączenia z punktem dostępowym urządzenie musi znać nazwę SSID aby odnaleźć i połączyć się z odpowiednią siecią. SSID pełni funkcję loginu w tym sensie że identyfikuje sieć wśród wielu innych dostępnych sieci bezprzewodowych. Użytkownicy mogą ustawić widoczność SSID co oznacza że sieć może być publicznie widoczna lub ukryta. Ukrywanie SSID jest jedną z metod zwiększania bezpieczeństwa sieci choć nie jest wystarczającym środkiem ochrony. Identyfikacja sieci przez SSID jest standardową praktyką w konfiguracji sieci Wi-Fi i jest zgodna z protokołami IEEE 802.11. Dobre praktyki obejmują stosowanie unikalnych i nieoczywistych nazw SSID aby ułatwić własną identyfikację sieci i jednocześnie utrudnić potencjalnym atakującym odgadnięcie domyślnej nazwy lub producenta sprzętu. Zrozumienie roli SSID jest kluczowe dla podstawowej konfiguracji i zarządzania siecią bezprzewodową.

Pytanie 31

Symbol przedstawiony na ilustracji wskazuje na produkt

Ilustracja do pytania
A. biodegradowalny
B. przeznaczony do ponownego użycia
C. nadający się do powtórnego przetworzenia
D. niebezpieczny
Niektóre osoby mogą mylić ten symbol z innymi oznaczeniami, które sugerują różne ekologiczne praktyki. Na przykład 'przeznaczony do powtórnego użycia' ma inny sens niż recykling. Powtórne użycie oznacza, że można dany produkt wykorzystać jeszcze raz w takiej samej formie, jak szklane butelki czy pojemniki wielorazowego użytku. Choć to też jest korzystne dla środowiska, to jednak symbol recyklingu nie odnosi się do tego bezpośrednio. A termin 'biodegradowalny' mówi o tym, że materiał może się naturalnie rozłożyć przez mikroorganizmy w środowisku, a to nie wymaga przetwarzania przemysłowego jak w przypadku recyklingu. Produkty biodegradowalne są często alternatywą dla tradycyjnych materiałów, ale mogą potrzebować określonych warunków do rozkładu. Z kolei 'niebezpieczny' oznacza produkty, które mogą zagrażać zdrowiu ludzi lub środowisku, i są zazwyczaj oznaczane innymi, bardziej wyraźnymi symbolami. Mylenie tych różnych koncepcji może bardzo utrudnić właściwe zarządzanie odpadami, co ostatecznie tylko pogarsza stan naszej planety. Wydaje mi się, że zrozumienie tych różnic jest kluczowe dla lepszego gospodarowania odpadami i ochrony naszych zasobów naturalnych. Każde z tych oznaczeń ma swój cel w ekosystemie zarządzania odpadami i razem wpływają na zrównoważony rozwój.

Pytanie 32

Jaką fizyczną topologię sieci komputerowej przedstawiono na załączonym rysunku?

Ilustracja do pytania
A. topologię gwiazdy rozszerzonej
B. topologię hierarchiczną
C. topologię magistrali
D. topologię gwiazdy
Topologia gwiazdy to struktura, w której wszystkie urządzenia są połączone do jednego centralnego węzła, zazwyczaj przełącznika lub koncentratora. Ten układ jest prosty do zarządzania i diagnozowania, ponieważ każde urządzenie łączy się z jednym punktem centralnym. Jednakże, jeżeli węzeł centralny ulegnie awarii, cała sieć przestaje działać. Topologia magistrali natomiast opiera się na jednym głównym kablu, do którego podłączone są wszystkie urządzenia sieciowe. Chociaż ta topologia jest łatwa do zainstalowania i wymaga mniejszej ilości kabla niż topologia gwiazdy, każdy problem z głównym kablem może doprowadzić do awarii całej sieci. Topologia gwiazdy rozszerzonej to wariant topologii gwiazdy, w którym kilka pojedynczych topologii gwiazdy jest połączonych za pomocą jednego centralnego węzła. Jest to bardziej złożone niż standardowa gwiazda, ale oferuje dodatkową redundancję i skalowalność. Żadna z tych topologii nie odpowiada przedstawionemu schematowi, ponieważ nie uwzględniają one hierarchicznego rozmieszczenia połączeń, które jest kluczowe dla zrozumienia topologii hierarchicznej. Błędne postrzeganie struktury sieci może prowadzić do nieprawidłowych konfiguracji, które w najlepszym razie są nieefektywne, a w najgorszym mogą powodować całkowitą niezdolność sieci do działania.

Pytanie 33

Jaką usługę powinno się aktywować na ruterze, aby każda stacja robocza mogła wymieniać pakiety z siecią Internet, gdy dostępnych jest 5 adresów publicznych oraz 18 stacji roboczych?

A. FTP
B. VPN
C. NAT
D. WWW
Wybór usług FTP, WWW czy VPN do zapewnienia wymiany pakietów z Internetem jest błędny, ponieważ każda z tych technologii pełni inną rolę w zarządzaniu komunikacją sieciową. FTP, czyli protokół transferu plików, jest używany głównie do przesyłania plików między komputerami w sieci, a nie do udostępniania dostępu do Internetu. Użytkownicy mogą mylić FTP z pojęciem udostępniania zasobów, ale jego funkcjonalność jest ograniczona do transferu plików, co czyni go nieodpowiednim rozwiązaniem w kontekście dostępu do Internetu dla wielu stacji roboczych. WWW odnosi się do usługi World Wide Web, która jest infrastrukturą do przeglądania stron internetowych. Choć jest kluczowa dla komunikacji w sieci, sama w sobie nie umożliwia zarządzania adresami IP i nie jest używana do udostępniania dostępu do Internetu dla stacji roboczych. Z kolei VPN, czyli wirtualna sieć prywatna, jest technologią służącą do szyfrowania połączeń i zapewnienia bezpiecznego dostępu do sieci, ale nie rozwiązuje problemu ograniczonej liczby publicznych adresów IP. Wybór tych usług może prowadzić do nieporozumień dotyczących ich funkcjonalności – użytkownicy mogą sądzić, że są one w stanie zapewnić dostęp do Internetu w sposób, w jaki robi to NAT, co jest mylne. Rzeczywistość jest taka, że NAT jest kluczowym komponentem w architekturze sieciowej, który umożliwia efektywne wykorzystanie dostępnych publicznych adresów IP, co jest szczególnie istotne w środowiskach o dużej liczbie urządzeń.

Pytanie 34

Rodzajem macierzy RAID, która nie jest odporna na awarię dowolnego z dysków wchodzących w jej skład, jest

A. RAID 0
B. RAID 4
C. RAID 2
D. RAID 6
Patrząc na różne typy macierzy RAID, łatwo się pogubić – szczególnie, że cyfry po słowie RAID nie zawsze idą w parze z zaawansowaniem czy odpornością na awarie. RAID 2, choć dziś praktycznie niespotykany, wykorzystuje specjalne techniki kodowania Hamminga i rozkłada dane na wiele dysków z dodatkowymi dyskami kontrolującymi parzystość, więc przy założeniu poprawnej implementacji potrafi wykrywać i czasami nawet naprawić błędy przy awarii pojedynczego dysku. RAID 4 z kolei bazuje na jednym dedykowanym dysku parzystości, co oznacza, że jeśli padnie jeden dysk danych, to da się go odtworzyć na podstawie informacji z tego dysku parzystości. W praktyce jednak RAID 4 jest raczej rzadko wykorzystywany, bo dysk parzystości staje się wąskim gardłem przy zapisie. RAID 6 to już w ogóle wyższa szkoła jazdy – pozwala przeżyć awarię nawet dwóch dysków jednocześnie, bo używa podwójnej parzystości. Z perspektywy standardów branżowych RAID 6 jest obecnie jednym z najbezpieczniejszych rozwiązań dla danych krytycznych, szczególnie w większych serwerowniach, gdzie czas przywracania macierzy może być długi i ryzyko kolejnej awarii rośnie. Typowym błędem jest myślenie, że wszystkie macierze RAID gwarantują odporność na awarie, ale to właśnie RAID 0 jest tu wyjątkiem – tam nie ma żadnej redundancji. RAID 2, 4 i 6 – mimo różnych ograniczeń czy wydajności – mają wbudowane mechanizmy rekonstrukcji danych po uszkodzeniu dysku. Warto też pamiętać, że żaden RAID nie zastępuje regularnego backupu, bo nie chroni na przykład przed przypadkowym skasowaniem plików czy ransomware. RAID to tylko jeden z elementów całego planu ochrony danych.

Pytanie 35

Jak nazywa się technika modyfikowania ramek sieciowych polegająca na oznaczaniu ich identyfikatorem sieci VLAN nadawcy według standardu IEEE 802.1Q?

A. Kasowanie adresów.
B. Znakowanie ramek.
C. Nadpisywanie adresów.
D. Odtwarzanie ramek.
W tym pytaniu chodzi o bardzo konkretną technikę z zakresu sieci komputerowych, związaną z wirtualnymi sieciami lokalnymi VLAN i standardem IEEE 802.1Q. Standard ten nie opisuje żadnego „nadpisywania” czy „kasowania” adresów, ani też „odtwarzania” ramek w sensie, w jakim zwykle używa się tego słowa. Jego głównym zadaniem jest zdefiniowanie sposobu znakowania ramek Ethernet dodatkową informacją o VLAN-ie. Pojęcie nadpisywania adresów może się kojarzyć z mechanizmami typu NAT na routerach, gdzie zmienia się adresy IP w nagłówkach pakietów. To jednak zupełnie inna warstwa modelu OSI i inny typ operacji. NAT operuje na pakietach warstwy trzeciej, a IEEE 802.1Q modyfikuje ramki warstwy drugiej, wstrzykując do nich pole tagu VLAN. Adresy MAC pozostają nienaruszone, bo switch musi je znać do poprawnego przełączania. Kasowanie adresów w kontekście ramek Ethernet w ogóle nie jest stosowaną techniką konfiguracyjną. Gdyby usunąć adresy MAC z ramki, urządzenia warstwy drugiej nie byłyby w stanie jej przetworzyć. Adres źródłowy i docelowy są kluczowe dla działania przełączników i całego mechanizmu przełączania. Dlatego nie istnieje normalna praktyka sieciowa polegająca na „czyszczeniu” adresów w ramce jako metoda obsługi VLAN-ów. Odtwarzanie ramek brzmi z kolei jak jakieś naprawianie czy ponowne generowanie danych, ale w standardzie 802.1Q nic takiego nie występuje. Urządzenia sieciowe mogą co najwyżej przeładować lub ponownie wygenerować ramkę w innych, specyficznych sytuacjach (np. na granicy różnych technologii), ale to nie ma związku z identyfikatorem VLAN. Typowy błąd myślowy przy takich pytaniach polega na szukaniu „magicznie brzmiących” nazw zamiast kojarzenia ich z konkretnymi standardami. IEEE 802.1Q jest praktycznie zawsze kojarzony z VLAN tagging, czyli znakowaniem ramek. To pojęcie warto mieć dobrze utrwalone, bo w praktycznej konfiguracji switchy, trunków, router-on-a-stick i segmentacji sieci VLAN spotyka się je na każdym kroku. W dokumentacji producentów (Cisco, HP, Mikrotik itd.) również zawsze mówi się o tagowaniu ramek, nie o nadpisywaniu czy kasowaniu adresów.

Pytanie 36

Jaki element sieci SIP określamy jako telefon IP?

A. Serwerem rejestracji SIP
B. Serwerem przekierowań
C. Serwerem Proxy SIP
D. Terminalem końcowym
W kontekście architektury SIP, serwer rejestracji SIP, serwer proxy SIP oraz serwer przekierowań pełnią kluczowe funkcje, ale nie są terminalami końcowymi. Serwer rejestracji SIP jest odpowiedzialny za zarządzanie rejestracją terminali końcowych w sieci, co oznacza, że umożliwia im zgłaszanie swojej dostępności i lokalizacji. Użytkownicy mogą mieć tendencję do mylenia serwera rejestracji z terminalem końcowym, ponieważ oba elementy są kluczowe dla nawiązywania połączeń, lecz pełnią różne role w infrastrukturze. Serwer proxy SIP działa jako pośrednik w komunikacji, kierując sygnały między terminalami końcowymi, co może prowadzić do pomyłek w zrozumieniu, że jest to bezpośredni interfejs dla użytkownika, co nie jest prawdą. Z kolei serwer przekierowań może zmieniać ścieżki połączeń, ale również nie jest bezpośrednim urządzeniem, z którym użytkownik się komunikuje. Te wszystkie elementy współpracują ze sobą, aby zapewnić efektywną komunikację w sieci SIP, ale to telefon IP, jako terminal końcowy, jest urządzeniem, które ostatecznie umożliwia rozmowę i interakcję użytkownika. Niezrozumienie tych ról może prowadzić do błędnych wniosków dotyczących funkcjonowania całej sieci SIP i jej architektury.

Pytanie 37

Która z poniższych topologii sieciowych charakteryzuje się centralnym węzłem, do którego podłączone są wszystkie inne urządzenia?

A. Pierścień
B. Drzewo
C. Siatka
D. Gwiazda
Topologia gwiazdy to jedna z najczęściej stosowanych struktur w sieciach komputerowych. W tej topologii wszystkie urządzenia są podłączone do jednego centralnego węzła, którym może być na przykład switch lub hub. Dzięki temu każde urządzenie komunikuje się bezpośrednio z centralnym punktem, co upraszcza zarządzanie siecią i diagnozowanie problemów. Główną zaletą takiej topologii jest to, że awaria jednego z urządzeń nie wpływa na działanie pozostałych, a uszkodzenie jednego kabla nie powoduje odłączania całej sieci. Jest to również elastyczne rozwiązanie, które pozwala na łatwe dodawanie nowych urządzeń bez zakłócania pracy sieci. Dodatkowo, centralizacja zarządzania przepływem danych umożliwia efektywne monitorowanie ruchu sieciowego i implementację polityk bezpieczeństwa. Praktyczne zastosowanie topologii gwiazdy można znaleźć w wielu nowoczesnych biurach i domach, gdzie centralny router lub switch łączy wszystkie urządzenia sieciowe, zapewniając im dostęp do internetu i umożliwiając łatwą komunikację między nimi. To wszystko razem sprawia, że topologia gwiazdy jest bardzo popularna i powszechnie stosowana w praktyce.

Pytanie 38

Nierówne wydruki lub bladości w druku podczas korzystania z drukarki laserowej mogą sugerować

A. niedobór tonera
B. uszkodzenia kabla łączącego drukarkę z komputerem
C. nieprawidłową instalację sterowników drukarki
D. zagięcie kartki papieru w urządzeniu
Wyczerpywanie się tonera jest jednym z najczęstszych powodów występowania problemów z jakością wydruków w drukarkach laserowych. Toner jest proszkiem, który podczas drukowania jest nanoszony na papier, a jego niewystarczająca ilość może prowadzić do bladego lub nierównomiernego wydruku. Kiedy toner jest na wyczerpaniu, jego cząsteczki mogą nie być w stanie równomiernie pokryć powierzchni kartki, co objawia się w postaci słabo widocznego tekstu lub braku wydruku w niektórych obszarach. Zgodnie z zaleceniami producentów, regularne monitorowanie poziomu tonera oraz jego wymiana po osiągnięciu określonego poziomu to podstawowe praktyki, które pomagają utrzymać jakość wydruków. Dodatkowo, stosowanie tonerów oryginalnych lub certyfikowanych jest zalecane, aby uniknąć problemów z jakością, a także zapewnić długotrwałą wydajność drukarki. Warto również zauważyć, że stan tonera może wpływać na inne aspekty drukowania, w tym na prędkość wydruku oraz żywotność sprzętu.

Pytanie 39

Jakie będą całkowite koszty materiałów potrzebnych do stworzenia sieci lokalnej dla 6 komputerów, jeśli do budowy sieci wymagane jest 100 m kabla UTP kat. 5e oraz 20 m kanału instalacyjnego? Ceny komponentów sieci przedstawiono w tabeli.

Elementy siecij.m.cena brutto
Kabel UTP kat. 5em1,00 zł
Kanał instalacyjnym8,00 zł
Gniazdo komputeroweszt.5,00 zł
A. 290,00 zł
B. 360,00 zł
C. 320,00 zł
D. 160,00 zł
Odpowiedź na 29000 zł jest całkiem dobra. Wynika to z dokładnego obliczenia kosztów potrzebnych do zbudowania sieci lokalnej dla 6 komputerów. Zdecydowanie potrzebujesz 100 m kabla UTP kat. 5e i 20 m kanału instalacyjnego. Cena kabla to 100 zł za metr, więc za 100 m wyjdzie 100 zł. Kanał instalacyjny kosztuje 8 zł za metr, więc 20 m to 160 zł. Jak to zsumujesz, dostaniesz 260 zł. Nie zapominaj też o 6 gniazdach komputerowych, które kosztują 5 zł za sztukę, co daje 30 zł. Cały koszt to więc 290 zł. Takie obliczenia to podstawa, gdy planujesz sieć, żeby mieć pewność, że wszystko jest w budżecie. Dobrze jest także myśleć o przyszłości, czyli o tym, jak możesz rozbudować sieć, i wybierać materiały, które spełniają dzisiejsze standardy. Na przykład kabel UTP kat. 5e to dobry wybór, bo daje szybki transfer danych.

Pytanie 40

Administrator pragnie udostępnić w sieci folder C:instrukcje trzem użytkownikom z grupy Serwisanci. Jakie rozwiązanie powinien wybrać?

A. Udostępnić grupie Serwisanci dysk C: i nie ograniczać liczby równoczesnych połączeń
B. Udostępnić grupie Serwisanci folder C:instrukcje i nie ograniczać liczby równoczesnych połączeń
C. Udostępnić grupie Wszyscy folder C:instrukcje i ograniczyć liczbę równoczesnych połączeń do 3
D. Udostępnić grupie Wszyscy dysk C: i ograniczyć liczbę równoczesnych połączeń do 3
Niepoprawne odpowiedzi, takie jak udostępnienie grupie Wszyscy dysk C: oraz ograniczenie liczby równoczesnych połączeń, mogą prowadzić do poważnych zagrożeń związanych z bezpieczeństwem oraz zarządzaniem danymi. Udostępnienie całego dysku C: użytkownikom małej grupy może stworzyć ryzyko przypadkowego lub celowego dostępu do nieautoryzowanych danych, co jest sprzeczne z zasadami ochrony danych osobowych i dobrych praktyk w zakresie bezpieczeństwa. W praktyce, taka decyzja narusza zasadę najmniejszych uprawnień, gdzie użytkownicy powinni mieć dostęp tylko do tych zasobów, które są im niezbędne do wykonywania swoich zadań. Ograniczenie liczby równoczesnych połączeń, o ile może wydawać się sensowne w niektórych kontekstach, w sytuacji, gdy nie jest to konieczne, wprowadza niepotrzebne zamieszanie i może ograniczać współpracę zespołu. Również udostępnienie folderu C:instrukcje grupie Wszyscy bez odpowiednich ograniczeń uprawnień może prowadzić do incydentów bezpieczeństwa, takich jak nieautoryzowana modyfikacja lub usunięcie danych. Warto pamiętać, że w zarządzaniu dostępem kluczowe jest nie tylko to, kto ma dostęp, ale także to, do jakich zasobów mają oni ten dostęp – dlatego właściwe przypisanie ról i odpowiednich uprawnień jest kluczowe dla bezpieczeństwa i integralności systemu.
{# Core JS - self-host Bootstrap bundle + wlasne skrypty. Bundlowane przez django-compressor offline mode na produkcji (refs #50). #}