Wyniki egzaminu

Informacje o egzaminie:
  • Zawód: Technik informatyk
  • Kwalifikacja: INF.02 - Administracja i eksploatacja systemów komputerowych, urządzeń peryferyjnych i lokalnych sieci komputerowych
  • Data rozpoczęcia: 10 maja 2026 19:18
  • Data zakończenia: 10 maja 2026 19:56

Egzamin zdany!

Wynik: 37/40 punktów (92,5%)

Wymagane minimum: 20 punktów (50%)

Nowe
Analiza przebiegu egzaminu- sprawdź jak rozwiązywałeś pytania
Pochwal się swoim wynikiem!
Szczegółowe wyniki:
Pytanie 1

Jakie są poszczególne elementy adresu globalnego IPv6 typu unicast pokazane na ilustracji?

IPv6
123
48 bitów16 bitów64 bity
A. 1 - identyfikator interfejsu 2 - globalny prefiks 3 - identyfikator podsieci
B. 1 - globalny prefiks 2 - identyfikator podsieci 3 - identyfikator interfejsu
C. 1 - globalny prefiks 2 - identyfikator interfejsu 3 - identyfikator podsieci
D. 1 - identyfikator podsieci 2 - globalny prefiks 3 - identyfikator interfejsu
Adres IPv6 unicast składa się z trzech głównych części: globalnego prefiksu identyfikatora podsieci oraz identyfikatora interfejsu. Globalny prefiks zajmuje 48 bitów i jest używany do określenia unikalności w skali globalnej podobnie do adresów IP w internecie. Identyfikator podsieci o długości 16 bitów umożliwia dalsze dzielenie sieci na mniejsze segmenty co jest istotne w zarządzaniu ruchem sieciowym i alokacji zasobów. Identyfikator interfejsu zajmujący 64 bity odpowiada za unikalne przypisanie adresu do konkretnego urządzenia w danej sieci. Taka struktura adresu IPv6 pozwala na ogromną skalowalność i elastyczność w projektowaniu sieci co jest kluczowe przy rosnącej liczbie urządzeń IoT i zapotrzebowaniu na większe pule adresowe. Standardy IPv6 zostały opracowane przez IETF i są opisane w RFC 4291 zapewniając zgodność i interoperacyjność pomiędzy różnymi dostawcami sprzętu i oprogramowania.

Pytanie 2

Zabrudzony czytnik w napędzie optycznym powinno się czyścić

A. benzyną ekstrakcyjną.
B. spirytusem.
C. rozpuszczalnikiem ftalowym.
D. izopropanolem.
Izopropanol to faktycznie najlepszy wybór, jeśli chodzi o czyszczenie czytnika w napędzie optycznym. Wynika to głównie z jego właściwości chemicznych – jest bezbarwny, szybko odparowuje, nie zostawia żadnych osadów, no i co ważne, nie reaguje ze szkłem czy plastikami, z których zrobione są soczewki w napędach. W branży serwisowej i przy naprawach elektroniki izopropanol to taki trochę standard – praktycznie zawsze jest na wyposażeniu każdego porządnego warsztatu, bo pozwala bezpiecznie usuwać kurz, tłuszcz czy inne zabrudzenia, nie ryzykując uszkodzenia delikatnych elementów. W wielu instrukcjach serwisowych, zwłaszcza producentów napędów, wyraźnie się podkreśla, żeby stosować właśnie ten środek – np. normy ESD czy zalecenia firm takich jak Sony czy LG. Sam miałem kiedyś sytuację, że klient próbował czyścić soczewkę spirytusem i wyszły plamy – izopropanol tego nie robi. Warto wiedzieć, że w sklepach elektronicznych dostępny jest w różnych stężeniach (najlepiej min. 99%), co dodatkowo ułatwia pracę. Generalnie, jeśli masz do wyczyszczenia coś w elektronice – najpierw sprawdź, czy masz izopropanol. To takie złote narzędzie każdego technika.

Pytanie 3

Po przeanalizowaniu wyników testu dysku twardego, jakie czynności powinny zostać wykonane, aby zwiększyć jego wydajność?

Wolumin (C:)
Rozmiar woluminu=39,06 GB
Rozmiar klastra=4 KB
Zajęte miejsce=27,48 GB
Wolne miejsce=11,58 GB
Procent wolnego miejsca=29 %
Fragmentacja woluminu
Fragmentacja całkowita=15 %
Fragmentacja plików=31 %
Fragmentacja wolnego miejsca=0 %
A. Usuń niepotrzebne pliki z dysku
B. Przeprowadź formatowanie dysku
C. Zdefragmentuj dysk
D. Rozdziel dysk na różne partycje
Zdefragmentowanie dysku to proces reorganizacji rozproszonych fragmentów plików aby były zapisane w sposób ciągły na powierzchni dysku twardego. Fragmentacja plików wynosząca 31% oznacza że wiele plików jest podzielonych i zapisanych w różnych miejscach na dysku co może znacząco spowolnić odczyt i zapis danych. Zdefragmentowanie dysku pomoże w zoptymalizowaniu jego wydajności skracając czas dostępu do danych i poprawiając ogólną sprawność operacyjną systemu operacyjnego. Proces ten jest szczególnie istotny w przypadku dysków HDD gdzie mechaniczne ramię musi fizycznie przesuwać się w celu odczytywania danych. Warto regularnie przeprowadzać defragmentację jako część rutynowej konserwacji systemu komputerowego co jest zalecane w branżowych standardach zarządzania infrastrukturą IT. W nowoczesnych systemach operacyjnych dostępne są narzędzia które automatyzują ten proces co można skonfigurować aby odbywał się w regularnych odstępach czasu. Zdefragmentowanie dysku nie tylko poprawi szybkość działania systemu ale również może przedłużyć żywotność samego dysku dzięki mniejszemu zużyciu mechanicznemu.

Pytanie 4

Według specyfikacji JEDEC standardowe napięcie zasilania modułów RAM DDR3L o niskim napięciu wynosi

A. 1,35 V
B. 1,20 V
C. 1,50 V
D. 1,65 V
Moduły RAM DDR3L są stworzone zgodnie z wytycznymi JEDEC, które sugerują, że napięcie powinno wynosić 1,35 V. To znacznie mniej niż w tradycyjnych modułach DDR3, które potrzebują 1,5 V. Zmniejszenie napięcia do 1,35 V w DDR3L pomaga oszczędzać energię i zmniejszać ciepło, co jest mega ważne zwłaszcza w laptopach i smartfonach, gdzie zarządzanie energią to kluczowy temat. Spotykamy DDR3L w nowoczesnych laptopach, które przy tym korzystają z tej architektury pamięci, żeby zwiększyć wydajność, a przy tym mniej ciągnąć z prądu. W praktyce, DDR3L przydaje się wszędzie tam, gdzie potrzeba dużej mocy przy małym zużyciu energii, co wpisuje się w trend na bardziej eko technologie. Dodatkowo DDR3L pozwala na dłuższe działanie na baterii w urządzeniach mobilnych i poprawia ogólną wydajność systemu.

Pytanie 5

Który z poniższych protokołów służy do zarządzania urządzeniami w sieciach?

A. SFTP
B. SNMP
C. DNS
D. SMTP
SNMP, czyli Simple Network Management Protocol, to protokół komunikacyjny, który jest kluczowy w zarządzaniu i monitorowaniu urządzeń w sieciach komputerowych. SNMP pozwala administratorom na zbieranie informacji o statusie i wydajności urządzeń, takich jak routery, przełączniki, serwery oraz inne elementy infrastruktury sieciowej. Dzięki temu protokołowi możliwe jest m.in. zbieranie danych dotyczących obciążenia, błędów transmisyjnych, a także stanu interfejsów. W praktyce, administratorzy często korzystają z narzędzi SNMP do monitorowania sieci w czasie rzeczywistym, co pozwala na szybką reakcję na potencjalne problemy. Organizacje mogą wdrażać SNMP zgodnie z najlepszymi praktykami, stosując odpowiednie zabezpieczenia, takie jak autoryzacja i szyfrowanie komunikacji, co zwiększa bezpieczeństwo zarządzania urządzeniami. Protokół ten jest zgodny z różnymi standardami, takimi jak RFC 1157, co czyni go powszechnie akceptowanym rozwiązaniem w branży IT.

Pytanie 6

Jakie narzędzie powinno być użyte do zbadania wyników testu POST dla modułów na płycie głównej?

Ilustracja do pytania
A. Rys. A
B. Rys. D
C. Rys. C
D. Rys. B
Prawidłowa odpowiedź to Rys. B. Jest to specjalne narzędzie diagnostyczne znane jako karta POST, używane do testowania i diagnozowania problemów z płytą główną komputera. Kiedy komputer jest uruchamiany, przechodzi przez test POST (Power-On Self-Test), który sprawdza podstawowe komponenty sprzętowe. Karta POST wyświetla kody wyników testu, co umożliwia technikom zidentyfikowanie problemów, które mogą uniemożliwiać prawidłowy rozruch systemu. Karty POST są niezwykle przydatne w środowiskach serwisowych, gdzie szybka diagnostyka jest kluczowa. Dają one bezpośredni wgląd w proces rozruchu płyty głównej i wskazują na potencjalne awarie sprzętowe, takie jak uszkodzone moduły pamięci RAM, problemy z procesorem czy kartą graficzną. W praktyce, kody wyświetlane przez kartę POST mogą być porównywane z tabelami kodów POST producenta płyty głównej, co pozwala na szybkie i precyzyjne określenie przyczyny awarii i przystąpienie do jej usunięcia. Warto zaznaczyć, że użycie karty POST jest standardem w diagnostyce komputerowej i stanowi dobrą praktykę w pracy serwisanta.

Pytanie 7

Liczba 205(10) w zapisie szesnastkowym wynosi

A. DC
B. DD
C. CD
D. CC
Odpowiedź CD (12) jest w porządku, bo w systemie szesnastkowym używamy cyfr od 0 do 9 oraz liter A do F. A na przykład A to 10, B to 11, a C to 12. Jak przeliczasz 205 z dziesiętnego na szesnastkowy, to dzielisz przez 16. Po pierwszym dzieleniu 205 przez 16 dostajesz 12 jako iloraz i 13 jako resztę. A ta reszta 13 to w szesnastkowym D, a iloraz 12 to C. Więc 205(10) zapisujesz jako CD(16). Wiedza o takich konwersjach jest mega ważna w informatyce, zwłaszcza jak chodzi o programowanie, bo często potrzeba operować na różnych systemach liczbowych. Na przykład, w HTML kolory zapisujemy w systemie szesnastkowym, co pokazuje, jak istotne są prawidłowe konwersje.

Pytanie 8

Jakie urządzenie jest kluczowe dla połączenia pięciu komputerów w sieci o strukturze gwiazdy?

A. modem
B. przełącznik
C. most
D. ruter
Przełącznik to kluczowe urządzenie w sieciach komputerowych o topologii gwiazdy, które umożliwia efektywne połączenie i komunikację między komputerami. W topologii gwiazdy każdy komputer jest podłączony do centralnego urządzenia, którym w tym przypadku jest przełącznik. Dzięki temu przełącznik może na bieżąco analizować ruch w sieci i przekazywać dane tylko do docelowego urządzenia, co minimalizuje kolizje i zwiększa wydajność. Przełączniki operują na warstwie drugiej modelu OSI (warstwa łącza danych), co pozwala im na inteligentne kierowanie ruchu sieciowego. Na przykład w biurze, gdzie pracuje pięć komputerów, zastosowanie przełącznika pozwala na szybką wymianę informacji między nimi, co jest kluczowe dla efektywnej współpracy. Warto również zwrócić uwagę, że standardy takie jak IEEE 802.3 (Ethernet) definiują zasady działania przełączników w sieciach lokalnych, co czyni je niezbędnym elementem infrastruktury sieciowej.

Pytanie 9

Który z poniższych protokołów jest wykorzystywany do uzyskiwania dynamicznych adresów IP?

A. HTTP
B. DHCP
C. DNS
D. FTP
Dynamic Host Configuration Protocol (DHCP) jest kluczowym elementem w zarządzaniu adresami IP w sieciach komputerowych. Jego głównym zadaniem jest automatyczne przypisywanie dynamicznych adresów IP urządzeniom w sieci. Dzięki temu administratorzy sieci nie muszą ręcznie konfigurować każdego urządzenia, co minimalizuje ryzyko błędów i upraszcza zarządzanie dużymi sieciami. DHCP działa w modelu klient-serwer, gdzie serwer DHCP przydziela adresy IP na podstawie zapytań od klientów. Proces ten obejmuje kilka kroków, takich jak DISCOVER, OFFER, REQUEST i ACKNOWLEDGE, co zapewnia, że każde urządzenie otrzymuje unikalny adres IP. W praktyce oznacza to, że nowe urządzenia mogą być szybko i bezproblemowo włączane do sieci, co jest niezwykle istotne w dynamicznych środowiskach biznesowych. Co więcej, DHCP pozwala na centralne zarządzanie konfiguracją sieci, co ułatwia wprowadzanie zmian i aktualizacji w całej organizacji. Dzięki temu protokołowi, sieci mogą być elastyczne i skalowalne, co jest kluczowe w dzisiejszym świecie technologii.

Pytanie 10

Które z urządzeń może powodować wzrost liczby kolizji pakietów w sieci?

A. Rutera
B. Koncentratora
C. Mostu
D. Przełącznika
Koncentrator, jako urządzenie działające na warstwie drugiej modelu OSI, jest odpowiedzialny za propagację sygnałów do wszystkich podłączonych do niego urządzeń w sieci lokalnej. W praktyce oznacza to, że gdy jeden komputer wysyła dane, koncentrator przesyła te dane do wszystkich innych portów jednocześnie. To zjawisko powoduje zwiększenie liczby kolizji pakietów, ponieważ wiele urządzeń może próbować nadawać jednocześnie. W wyniku tego efektu, kolizje mogą prowadzić do opóźnień w transmisji danych oraz do konieczności ponownego nadawania, co obniża efektywność sieci. Dobre praktyki branżowe zalecają stosowanie przełączników (switchy) zamiast koncentratorów w nowoczesnych sieciach, ponieważ przełączniki działają na zasadzie przekazywania pakietów tylko do docelowego urządzenia, co znacząco ogranicza kolizje i poprawia wydajność. Warto również zauważyć, że w przypadku rozbudowanych sieci lokalnych, zastosowanie protokołów takich jak Ethernet oraz stosowanie technologii VLAN, może dodatkowo zminimalizować problemy związane z kolizjami.

Pytanie 11

Active Directory w systemach MS Windows Server 2000 oraz MS Windows Server 2003 to

A. logiczna zbiorowość komputerów, które mają możliwość wzajemnej komunikacji w sieci oraz dzielenia się zasobami
B. grupa komputerów połączonych w infrastrukturę sieciową, składająca się z serwera działającego jako kontroler oraz stacji roboczych – klientów
C. usługa katalogowa, która przechowuje dane dotyczące obiektów w sieci i udostępnia je użytkownikom oraz administratorom sieci
D. baza danych zawierająca dane o użytkownikach sieci, ich hasłach oraz uprawnieniach
Active Directory, czyli AD, to coś w stylu katalogu w systemach MS Windows Server 2000 i 2003. Pełni ważną rolę w zarządzaniu różnymi zasobami w sieci. Właściwie trzyma wszelkie info o obiektach, jak użytkownicy, grupy czy komputery, i to jest udostępnione dla administratorów i użytkowników. Dzięki AD, organizacje mogą lepiej zarządzać dostępem do różnych zasobów, przydzielając konkretne uprawnienia. Na przykład, administratorzy mają możliwość tworzenia grup użytkowników z różnymi uprawnieniami, co ułatwia zarządzanie dostępem do plików czy drukarek. AD wspiera też standardy LDAP, co jest fajne, bo można go zintegrować z innymi systemami. Dobrą praktyką jest regularne audytowanie kont użytkowników, co zwiększa bezpieczeństwo i zmniejsza ryzyko nieautoryzowanego dostępu. Wydaje mi się, że to bardzo przydatna funkcjonalność.

Pytanie 12

Protokół trasowania wewnętrznego, który wykorzystuje metrykę wektora odległości, to

A. OSPF
B. RIP
C. EGP
D. IS-IS
RIP (Routing Information Protocol) jest jednym z najwcześniejszych protokołów trasowania, który wykorzystuje metrykę wektora odległości do obliczania najlepszej trasy do celu. Protokół ten operuje na zasadzie wymiany informacji routingu pomiędzy routerami, co pozwala na dynamiczne aktualizowanie tras w sieci. W praktyce RIP jest stosowany głównie w mniejszych, mniej złożonych sieciach, gdzie jego ograniczenie do 15 hops (skoków) jest wystarczające. Przykładowo, w małej sieci lokalnej, gdzie liczba urządzeń nie przekracza 15, RIP może efektywnie zarządzać trasowaniem, umożliwiając szybkie reagowanie na zmiany topologii sieci. Dobrą praktyką w zastosowaniu RIP jest monitorowanie jego wydajności oraz unikanie zastosowań w rozległych sieciach, gdzie preferowane są bardziej zaawansowane protokoły, takie jak OSPF czy EIGRP, które oferują lepszą skalowalność i szybkość konwergencji.

Pytanie 13

Poprzez polecenie dxdiag uruchomione w wierszu poleceń Windows można

A. przeprowadzić pełną diagnozę karty sieciowej
B. sprawdzić prędkość zapisu i odczytu napędów DVD
C. zeskanować dysk twardy pod kątem błędów
D. sprawdzić parametry karty graficznej
Odpowiedź uznana za poprawną jest właściwa, ponieważ polecenie dxdiag, uruchamiane z wiersza poleceń systemu Windows, służy do zbierania informacji diagnostycznych dotyczących systemu oraz sprzętu, w tym parametrów karty graficznej. Program ten generuje szczegółowy raport, który zawiera informacje o wersji sterowników, dostawcy karty, a także parametrach sprzętowych, takich jak ilość pamięci wideo. Użytkownicy mogą wykorzystać te dane do rozwiązywania problemów z wydajnością grafiki, a także do oceny, czy ich sprzęt spełnia wymagania systemowe gier czy aplikacji graficznych. Przykładem praktycznego zastosowania może być sytuacja, gdy gracz zmaga się z problemami wydajnościowymi w grze; wówczas dzięki dxdiag może szybko sprawdzić, czy jego karta graficzna ma zainstalowane aktualne sterowniki, co jest kluczowe dla optymalizacji wydajności. Dobrą praktyką jest również regularne sprawdzanie tych informacji przed aktualizacją systemu lub instalacją nowych aplikacji graficznych, co może pomóc w uniknięciu problemów z kompatybilnością.

Pytanie 14

Norma IEEE 802.11 określa typy sieci

A. Światłowodowe LAN
B. Bezprzewodowe LAN
C. Fast Ethernet
D. Gigabit Ethernet
Standard IEEE 802.11 to taki ważny dokument, który opisuje, jak działają bezprzewodowe sieci lokalne, czyli WLAN. W tym standardzie znajdziesz różne protokoły i technologie, które pomagają urządzeniom komunikować się bez kabli. Na przykład, znany wariant 802.11n może osiągać prędkości do 600 Mbps i działa zarówno w pasmach 2,4 GHz, jak i 5 GHz, co daje możliwość wyboru odpowiednich warunków do pracy. Technologia 802.11 jest szeroko stosowana – od domowych sieci Wi-Fi po biura czy miejsca publiczne. Szereg urządzeń, jak smartfony czy laptopy, korzysta z tego standardu, czyni go naprawdę ważnym w codziennym życiu. I nie zapomnijmy o bezpieczeństwie, na przykład WPA3, które dba o to, żeby nasze dane były dobrze chronione w sieciach bezprzewodowych, co jest mega istotne, bo zagrożenia cybernetyczne są wszędzie.

Pytanie 15

Topologia fizyczna, w której każdy węzeł łączy się z wszystkimi innymi węzłami, to topologia

A. gwiazdy rozszerzonej
B. pojedynczego pierścienia
C. siatki
D. hierarchiczna
Topologia siatki charakteryzuje się tym, że każdy węzeł jest bezpośrednio połączony z wszystkimi pozostałymi węzami, co zapewnia dużą niezawodność i elastyczność w komunikacji. W tej topologii, w przypadku awarii jednego z węzłów, pozostałe węzły nadal mogą się komunikować, ponieważ istnieje wiele alternatywnych ścieżek. Przykładem zastosowania topologii siatki może być środowisko obliczeniowe wysokiej wydajności, gdzie węzły współpracują przy wykonywaniu skomplikowanych obliczeń. Dodatkowo, topologia ta jest zgodna z najlepszymi praktykami w projektowaniu rozproszonych systemów, ponieważ pozwala na łatwe dodawanie nowych węzłów do sieci bez zakłócania działania istniejących połączeń. Siatka jest również wykorzystywana w sieciach lokalnych, które wymagają wysokiej przepustowości i niskiego opóźnienia, co czyni ją idealnym wyborem dla zaawansowanych aplikacji sieciowych.

Pytanie 16

Na ilustracji ukazany jest komunikat systemowy. Jakie kroki powinien podjąć użytkownik, aby naprawić błąd?

Ilustracja do pytania
A. Zainstalować sterownik do karty graficznej
B. Zainstalować sterownik do Karty HD Graphics
C. Podłączyć monitor do złącza HDMI
D. Odświeżyć okno Menedżera urządzeń
Zainstalowanie sterownika do karty graficznej jest kluczowe, ponieważ urządzenia komputerowe, takie jak karty graficzne, wymagają odpowiednich sterowników do prawidłowego działania. Sterownik to oprogramowanie, które umożliwia komunikację między systemem operacyjnym a sprzętem. Gdy system operacyjny nie posiada odpowiednich sterowników, nie jest w stanie w pełni wykorzystać możliwości sprzętu, co może prowadzić do problemów z wydajnością czy błędami w działaniu. Zainstalowanie najnowszego sterownika od producenta karty graficznej pozwoli na optymalizację jej działania, zapewniając poprawne wyświetlanie grafiki oraz wsparcie dla zaawansowanych funkcji, takich jak akceleracja sprzętowa. Dodatkowo, aktualizacja sterowników jest zgodna z dobrymi praktykami w zarządzaniu IT i zwiększa bezpieczeństwo systemu, gdyż nowoczesne sterowniki często zawierają poprawki zabezpieczeń. Warto regularnie sprawdzać dostępność nowych wersji sterowników i instalować je, aby uniknąć potencjalnych konfliktów systemowych i poprawić stabilność komputera.

Pytanie 17

W którym typie macierzy, wszystkie fizyczne dyski są postrzegane jako jeden dysk logiczny?

A. RAID 1
B. RAID 0
C. RAID 2
D. RAID 5
RAID 0 to konfiguracja macierzy, w której wszystkie dyski fizyczne są łączone w jeden logiczny wolumen, co przynosi korzyści w postaci zwiększonej wydajności i pojemności. W tej konfiguracji dane są dzielone na segmenty (striping) i rozkładane równomiernie na wszystkich dyskach. To oznacza, że dostęp do danych jest szybszy, ponieważ operacje odczytu i zapisu mogą odbywać się jednocześnie na wielu dyskach. RAID 0 nie zapewnia jednak redundancji – utrata jednego dysku skutkuje całkowitą utratą danych. Ta macierz jest idealna dla zastosowań wymagających dużych prędkości, takich jak edycja wideo, gry komputerowe czy bazy danych o dużej wydajności, w których czas dostępu jest kluczowy. W praktyce, RAID 0 jest często stosowany w systemach, gdzie priorytetem jest szybkość, a nie bezpieczeństwo danych.

Pytanie 18

Zastosowanie której zasady zwiększy bezpieczeństwo podczas korzystania z portali społecznościowych?

A. Upublicznianie informacji na portalach o podróżach, wakacjach.
B. Stosowanie różnych haseł do każdego z posiadanych kont w portalach społecznościowych.
C. Odpowiadanie na wszystkie otrzymane wiadomości e-mail, nawet od nieznajomych osób.
D. Podawanie prywatnych danych kontaktowych każdej osobie, która o to poprosi.
Prawidłowo wskazana zasada dotyczy stosowania różnych haseł do każdego konta w portalach społecznościowych. To jest jedna z kluczowych dobrych praktyk bezpieczeństwa, o której mówią praktycznie wszystkie wytyczne – od zaleceń NIST, ENISA, po rekomendacje CERT-ów. Chodzi o to, że jeśli jedno hasło „wycieknie” z jakiegoś serwisu (np. z małego forum, które ma słabe zabezpieczenia), to atakujący nie będzie mógł automatycznie zalogować się na Twoje konto na Facebooku, Instagramie, TikToku czy do poczty. Jedno hasło do wszystkiego to klasyczny scenariusz tzw. credential stuffing, czyli masowego testowania tych samych danych logowania w wielu serwisach. Moim zdaniem to jest dziś jedna z najczęstszych dróg przejęcia kont. W praktyce najlepiej używać menedżera haseł (KeePass, Bitwarden, 1Password, LastPass itp.), który generuje długie, losowe i unikalne hasła. Użytkownik zapamiętuje jedno mocne hasło główne, a resztą zarządza aplikacja. Dodatkowo warto włączać uwierzytelnianie dwuskładnikowe (2FA), np. kody z aplikacji typu Google Authenticator lub Authy, zamiast SMS, które są podatne na przechwycenie przy atakach typu SIM swapping. Dobrą praktyką jest też regularna zmiana haseł tam, gdzie istnieje ryzyko wycieku, oraz sprawdzanie, czy nasz adres e-mail nie pojawił się w znanych wyciekach (np. serwis haveibeenpwned). W portalach społecznościowych unikalne hasło chroni nie tylko Twoje dane, ale też Twoich znajomych – przejęte konto często wysyła spam, linki phishingowe albo podszywa się pod Ciebie w celu wyłudzenia pieniędzy. Z mojego doświadczenia widać wyraźnie, że osoby stosujące unikalne hasła i 2FA praktycznie nie padają ofiarą prostych ataków masowych, które niestety nadal są bardzo skuteczne wobec mniej świadomych użytkowników.

Pytanie 19

Na ilustracji przedstawiono sieć lokalną zbudowaną na kablach kat. 6. Stacja robocza "C" nie ma możliwości komunikacji z siecią. Jaki problem w warstwie fizycznej może powodować brak połączenia?

Ilustracja do pytania
A. Błędny adres IP
B. Niewłaściwy kabel
C. Nieodpowiedni typ przełącznika
D. Zła długość kabla
Nieprawidłowy adres IP jako przyczyna problemów z łącznością jest błędem warstwy sieciowej, a nie fizycznej. Warstwa sieciowa zajmuje się adresowaniem i trasowaniem pakietów, natomiast problem dotyczy warstwy fizycznej. Jeśli adres IP jest nieprawidłowy, urządzenia mogą nie być w stanie się komunikować, ale fizyczne połączenie będzie nadal działało poprawnie. Nieodpowiedni kabel oznaczałby, że używany jest kabel niespełniający specyfikacji wymaganych dla danego typu sieci, na przykład użycie kabla kategorii 5 zamiast kategorii 6. Jednakże, w tym przypadku mamy do czynienia z kablem kat. 6, więc problem nie leży w rodzaju kabla. Zły typ przełącznika teoretycznie mógłby wpłynąć na wydajność sieci, ale nie dotyczy warstwy fizycznej. Przełącznik jako urządzenie sieciowe funkcjonuje na wyższym poziomie modelu OSI, a jego nieprawidłowy typ mógłby wpłynąć na funkcje takie jak zarządzanie ruchem lub przepustowość, ale nie uniemożliwiłby fizycznego połączenia. Dlatego, zrozumienie tych aspektów jest kluczowe dla diagnostyki problemów sieciowych i pozwala na skuteczne rozwiązywanie problemów, które wynikają z błędnego rozumienia działania różnych warstw sieciowych i ich wpływu na ogólną wydajność systemu. Pozwala to również zminimalizować przestoje i zwiększa efektywność zarządzania infrastrukturą IT w organizacji.

Pytanie 20

Jaki protokół stworzony przez IBM służy do udostępniania plików w architekturze klient-serwer oraz do współdzielenia zasobów z sieciami Microsoft w systemach operacyjnych LINUX i UNIX?

A. SMTP (Simple Mail Transfer Protocol)
B. POP (Post Office Protocol)
C. HTTP (Hypertext Transfer Protocol)
D. SMB (Server Message Block)
Protokół SMB, czyli Server Message Block, to taki ważny standard, który wymyślił IBM. Dzięki niemu można łatwo dzielić się plikami i korzystać z różnych zasobów w sieciach, które działają na zasadzie klient-serwer. Głównie chodzi o to, żeby móc zdalnie otwierać pliki, drukarki i inne rzeczy w sieci. To szczególnie przydatne, gdy mamy do czynienia z różnymi systemami operacyjnymi, jak Windows i różne wersje UNIX-a czy LINUX-a. Na przykład, możesz otworzyć pliki z serwera Windows bezpośrednio w systemie LINUX, i to jest całkiem wygodne w pracy w firmach. SMB jest też bardzo popularny w lokalnych sieciach komputerowych, dlatego jest podstawą wielu aplikacji i usług, które muszą wymieniać dane w czasie rzeczywistym. Co ciekawe, protokół SMB przeszedł sporo zmian, a wersje takie jak SMB 2.0 i SMB 3.0 wprowadziły istotne udoskonalenia, jeśli chodzi o wydajność i bezpieczeństwo, co jest ważne w nowoczesnych sieciach.

Pytanie 21

Aby zweryfikować schemat połączeń kabla UTP Cat 5e w sieci lokalnej, należy zastosować

A. analizatora protokołów sieciowych
B. reflektometr optyczny OTDR
C. testera okablowania
D. reflektometr kablowy TDR
Tester okablowania jest narzędziem służącym do sprawdzania poprawności podłączeń kabli sieciowych, w tym kabla UTP Cat 5e. Działa na zasadzie pomiaru ciągłości przewodów, identyfikacji biegunów oraz pomiaru parametrów elektrycznych, takich jak tłumienie, impedancja czy przesłuch. Dzięki testerom okablowania można szybko zlokalizować błędy, takie jak zwarcia, przerwy w przewodach czy niewłaściwe podłączenia. W praktyce, zastosowanie testera okablowania jest kluczowe podczas instalacji i konserwacji sieci komputerowych, zapewniając, że każde połączenie jest zgodne z normami, takimi jak TIA/EIA-568. W przypadku sieci UTP Cat 5e, tester pozwala również na weryfikację, czy kabel spełnia wymagania dotyczące przepustowości do 1 Gbps oraz zapewnia odpowiednią jakość sygnału na odległości do 100 metrów. Dobrą praktyką jest przeprowadzanie testów po zakończeniu instalacji oraz okresowe sprawdzanie stanu kabli, co umożliwia wczesne wykrywanie potencjalnych problemów.

Pytanie 22

W filmie przedstawiono konfigurację ustawień maszyny wirtualnej. Wykonywana czynność jest związana z

A. wybraniem pliku z obrazem dysku.
B. ustawieniem rozmiaru pamięci wirtualnej karty graficznej.
C. dodaniem drugiego dysku twardego.
D. konfigurowaniem adresu karty sieciowej.
Poprawnie – w tej sytuacji chodzi właśnie o wybranie pliku z obrazem dysku (ISO, VDI, VHD, VMDK itp.), który maszyna wirtualna będzie traktować jak fizyczny nośnik. W typowych programach do wirtualizacji, takich jak VirtualBox, VMware czy Hyper‑V, w ustawieniach maszyny wirtualnej przechodzimy do sekcji dotyczącej pamięci masowej lub napędów optycznych i tam wskazujemy plik obrazu. Ten plik może pełnić rolę wirtualnego dysku twardego (system zainstalowany na stałe) albo wirtualnej płyty instalacyjnej, z której dopiero instalujemy system operacyjny. W praktyce wygląda to tak, że zamiast wkładać płytę DVD do napędu, podłączasz plik ISO z obrazu instalacyjnego Windowsa czy Linuxa i ustawiasz w BIOS/UEFI maszyny wirtualnej bootowanie z tego obrazu. To jest podstawowa i zalecana metoda instalowania systemów w VM – szybka, powtarzalna, zgodna z dobrymi praktykami. Dodatkowo, korzystanie z plików obrazów dysków pozwala łatwo przenosić całe środowiska między komputerami, robić szablony maszyn (tzw. template’y) oraz wykonywać kopie zapasowe przez zwykłe kopiowanie plików. Moim zdaniem to jedna z najważniejszych umiejętności przy pracy z wirtualizacją: umieć dobrać właściwy typ obrazu (instalacyjny, systemowy, LiveCD, recovery), poprawnie go podpiąć do właściwego kontrolera (IDE, SATA, SCSI, NVMe – zależnie od hypervisora) i pamiętać o odpięciu obrazu po zakończonej instalacji, żeby maszyna nie startowała ciągle z „płyty”.

Pytanie 23

Fast Ethernet to norma sieci przewodowej, która pozwala na przesył danych z maksymalną szybkością

A. 100 Mbps
B. 1000 Mbps
C. 108 Mbps
D. 54 Mbps
Fast Ethernet to standard sieci przewodowej, który umożliwia transmisję danych z maksymalną prędkością wynoszącą 100 Mbps. Standard ten został wprowadzony w latach 90-tych jako rozwinięcie wcześniejszych technologii Ethernet, które oferowały niższe prędkości. Fast Ethernet, oparty na standardzie IEEE 802.3u, stał się fundamentem nowoczesnych sieci lokalnych, ponieważ zapewniał znaczne zwiększenie wydajności przy jednoczesnym zachowaniu kompatybilności z istniejącymi sieciami Ethernet. W praktyce, Fast Ethernet wykorzystywany jest w różnych zastosowaniach, takich jak biura, szkoły oraz małe i średnie przedsiębiorstwa. Dzięki możliwości stosowania kabli kategorii 5 (or CAT 5) oraz technologii 100BASE-TX, Fast Ethernet stał się popularnym rozwiązaniem, które zaspokajało potrzeby szybkiej komunikacji w sieciach lokalnych. Warto dodać, że Fast Ethernet jest wciąż wykorzystywany w wielu lokalnych sieciach, mimo że na rynku dostępne są szybsze standardy, takie jak Gigabit Ethernet (1000 Mbps).

Pytanie 24

Kable łączące poziome punkty dystrybucyjne z centralnym punktem dystrybucyjnym określa się jako

A. połączenia telekomunikacyjne
B. okablowanie pionowe
C. okablowanie poziome
D. połączenia systemowe
Kable łączące kondygnacyjne punkty dystrybucyjne z głównym punktem dystrybucyjnym określane są mianem okablowania pionowego. Okablowanie pionowe jest kluczowym elementem infrastruktury telekomunikacyjnej w budynkach wielokondygnacyjnych, ponieważ umożliwia efektywne przesyłanie sygnału pomiędzy różnymi poziomami budynku. Zgodnie z normami ANSI/TIA-568, okablowanie pionowe jest stosowane do połączeń między głównymi punktami dystrybucji (MDF) a lokalnymi punktami dystrybucji (IDF). Przykładem zastosowania może być instalacja w biurowcu, gdzie kable U/FTP lub S/FTP są używane do zapewnienia wysokiej jakości sygnału dla użytkowników na różnych piętrach. W praktyce, dobrze zaplanowane okablowanie pionowe pozwala na zwiększenie wydajności sieci oraz łatwiejszą diagnozę problemów, co jest nieocenione w kontekście zarządzania i konserwacji systemów telekomunikacyjnych.

Pytanie 25

Która lokalizacja umożliwia utworzenie kopii zapasowej dysku systemowego Windows 11?

A. Partycja rozruchowa.
B. Dysk zewnętrzny.
C. Katalog C:\Windows\Boot
D. Partycja systemowa.
Prawidłowo wskazany został dysk zewnętrzny, bo właśnie taka lokalizacja spełnia podstawową zasadę wykonywania kopii zapasowych systemu: backup powinien być przechowywany fizycznie poza dyskiem systemowym. W Windows 11, gdy robisz obraz systemu (system image) albo kopię ważnych danych, najlepszą praktyką jest zapis na nośniku, który nie jest na stałe częścią tego samego fizycznego dysku, z którego system startuje. Dzięki temu awaria dysku systemowego, uszkodzenie tablicy partycji czy nawet zaszyfrowanie danych przez ransomware nie niszczy jednocześnie kopii zapasowej. W praktyce używa się do tego zewnętrznych dysków USB, dysków SSD na USB-C, czasem dysków sieciowych, ale w tym pytaniu jedyną poprawną odpowiedzią jest właśnie dysk zewnętrzny. Moim zdaniem w środowisku domowym i małych firmach dysk zewnętrzny to najbardziej rozsądny kompromis między ceną a bezpieczeństwem. Windows 11 współpracuje z takimi nośnikami bez problemu: w narzędziu „Kopia zapasowa systemu Windows” (stare Panel sterowania) czy przy tworzeniu obrazu systemu można wskazać zewnętrzny dysk jako docelowy. To samo dotyczy narzędzi firm trzecich, np. Macrium Reflect, Acronis, Veeam Agent – wszystkie rekomendują zewnętrzny lub sieciowy nośnik jako miejsce docelowe. Dobrą praktyką jest też stosowanie zasady 3-2-1: trzy kopie danych, na dwóch różnych typach nośników, z czego jedna poza główną lokalizacją. Dysk zewnętrzny idealnie nadaje się jako ta „druga” platforma. Warto też go odłączać po wykonaniu kopii, żeby ograniczyć ryzyko szyfrowania przez złośliwe oprogramowanie. Właśnie dlatego branżowe standardy backupu odradzają trzymanie jedynej kopii zapasowej na tym samym fizycznym dysku, na którym działa system operacyjny.

Pytanie 26

Ilustracja pokazuje rezultat testu sieci komputerowej za pomocą komendy

Badanie wp.pl [212.77.100.101] z użyciem 32 bajtów danych:
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=25ms TTL=249
Odpowiedź z 212.77.100.101: bajtów=32 czas=27ms TTL=249
A. ping
B. ipconfig
C. netstat
D. tracert
Odpowiedź ping jest poprawna ponieważ polecenie to służy do diagnozowania stanu połączenia z innym urządzeniem w sieci komputerowej. Wykorzystuje ono protokół ICMP do wysyłania pakietów echo request do docelowego hosta a następnie oczekuje na odpowiedź echo reply. W wyniku działania polecenia ping użytkownik otrzymuje informacje o czasie odpowiedzi i liczbie utraconych pakietów co jest kluczowe w diagnozowaniu problemów z wydajnością sieci oraz ustalaniu dostępności urządzeń. Na przykład w systemach Windows typowym wynikiem działania polecenia ping jest wyświetlenie adresu IP docelowego hosta liczby bajtów w pakiecie oraz czasu odpowiedzi w milisekundach. Polecenie to jest standardem w większości systemów operacyjnych co czyni je uniwersalnym narzędziem dla administratorów sieci. Znajomość tego narzędzia jest niezbędna do efektywnego zarządzania infrastrukturą sieciową umożliwiając szybką detekcję i lokalizację problemów z łącznością. W praktyce ping jest często pierwszym krokiem w diagnostyce sieciowej pomagając administratorom potwierdzić czy problem z siecią leży po ich stronie czy po stronie zewnętrznych dostawców usług sieciowych.

Pytanie 27

Najefektywniejszym sposobem dodania skrótu do aplikacji na pulpitach wszystkich użytkowników w domenie będzie

A. pobranie aktualizacji Windows
B. mapowanie dysku
C. ponowna instalacja programu
D. użycie zasad grupy
Użycie zasad grupy (Group Policy) to najefektywniejszy sposób na wdrożenie skrótów do programów na pulpitach wszystkich użytkowników w obrębie domeny. Zasady grupy umożliwiają centralne zarządzanie konfiguracją systemu operacyjnego oraz aplikacji, co pozwala na łatwe i szybkie wprowadzanie zmian na wielu maszynach jednocześnie. Dzięki tej metodzie, administratorzy mogą skonfigurować skróty do aplikacji, które będą automatycznie dostępne dla wszystkich użytkowników, co znacząco oszczędza czas oraz minimalizuje ryzyko błędów ludzkich. Zasady grupy pozwalają również na dostosowywanie ustawień w zależności od potrzeb poszczególnych grup użytkowników. Na przykład, administrator może stworzyć różne skróty dla działu IT i działu sprzedaży, co zapewnia większą elastyczność zarządzania. W kontekście standardów branżowych, korzystanie z zasad grupy jest uznawane za najlepszą praktykę w zakresie administracji systemami Windows w sieciach korporacyjnych, co potwierdzają liczne dokumentacje oraz wytyczne Microsoftu.

Pytanie 28

Aby użytkownik systemu Linux mógł sprawdzić zawartość katalogu, wyświetlając pliki i katalogi, oprócz polecenia ls może skorzystać z polecenia

A. pwd
B. dir
C. man
D. tree
Polecenie dir w systemie Linux jest jednym z podstawowych narzędzi służących do wyświetlania zawartości katalogów — jest to bardzo przydatne, zwłaszcza jeśli ktoś wcześniej pracował z systemami Windows, gdzie polecenie dir jest równie popularne. W praktyce, zarówno ls, jak i dir pokazują podobne dane, czyli listę plików i katalogów w danym katalogu roboczym. Dla mnie dir to taki ukłon w stronę użytkowników przyzwyczajonych do środowiska DOS-owego, chociaż sam częściej korzystam z ls, bo daje więcej opcji formatowania i jest bardziej uniwersalny w skryptach bashowych. Dir można używać z różnymi przełącznikami, na przykład dir -l, żeby zobaczyć szczegółowe informacje o plikach. Warto wiedzieć, że w niektórych dystrybucjach Linuxa dir jest po prostu aliasem albo wrapperem do ls, więc działają niemal identycznie. Z punktu widzenia dobrych praktyk, znajomość obu tych poleceń może się przydać, zwłaszcza gdy administrujesz różnymi systemami albo ktoś poprosi cię o pomoc i używa dir z przyzwyczajenia. Dodatkowo, znajomość podstawowych poleceń do wyświetlania zawartości katalogów to absolutny fundament pracy z powłoką w Linuksie, zarówno jeśli chodzi o użytkowników, jak i administratorów. Sam polecam poeksperymentować z obydwoma — czasem różnice w wyjściu mogą być subtelne, ale to też dobra okazja, żeby lepiej zrozumieć filozofię narzędzi uniksowych.

Pytanie 29

Zamieszczony poniżej diagram ilustruje zasadę działania skanera

Ilustracja do pytania
A. 3D
B. ręcznego
C. bębnowego
D. płaskiego
Podczas rozważania różnych typów skanerów, kluczowe jest zrozumienie ich specyficznego zastosowania i zasady działania. Skanery bębnowe, choć kiedyś popularne w przemyśle graficznym, używają fotopowielaczy i bębnów do precyzyjnego odczytywania obrazów z wysoką rozdzielczością, ale nie są przeznaczone do tworzenia obrazów trójwymiarowych. Ich konstrukcja jest skomplikowana, a koszt utrzymania wysoki, co czyni je mniej praktycznymi w codziennych zastosowaniach. Skanery płaskie są powszechnie używane do digitalizacji dokumentów oraz zdjęć, gdzie ich działanie polega na przesuwaniu głowicy skanującej pod szkłem, co pozwala na uzyskanie obrazów dwuwymiarowych. Są one świetne do użytku biurowego, ale nie nadają się do skanowania obiektów 3D. Skanery ręczne, które działają poprzez przesuwanie urządzenia nad obiektem, są bardziej mobilne i wszechstronne, ale ich dokładność może być ograniczona w porównaniu do stacjonarnych skanerów 3D. Często wymagają one stabilnej ręki i umiejętności w celu uzyskania dokładnych wyników, co może stanowić wyzwanie w przypadku skanowania bardziej złożonych obiektów. Kluczowym błędem przy wyborze nieodpowiedniego typu skanera jest brak analizy konkretnych potrzeb i wymagań technicznych, co może prowadzić do nieoptymalnych rezultatów w danym zastosowaniu. Zrozumienie różnic między technologiami i ich praktycznymi implikacjami jest fundamentalne dla właściwego ich wykorzystania w różnych branżach i zastosowaniach profesjonalnych.

Pytanie 30

Do konfiguracji i personalizacji środowiska graficznego GNOME w różnych systemach Linux należy wykorzystać program

A. GNU Compiller Collection
B. GIGODO Tools
C. GNOME Tweak Tool
D. GNOMON 3D
GNOME Tweak Tool to narzędzie, które faktycznie powstało po to, żeby można było łatwo i wygodnie dostosować środowisko graficzne GNOME według własnych potrzeb. Moim zdaniem to jeden z tych programów, które każdy użytkownik GNOME powinien poznać na samym początku przygody z tym środowiskiem. Dzięki niemu można zmienić naprawdę sporo rzeczy – od prostych, jak ustawienia czcionek i ikon, po bardziej zaawansowane, np. wybór rozszerzeń, konfigurację paska tytułowego, czy aktywację eksperymentalnych funkcji. Co ciekawe, GNOME Tweak Tool bywa też nazywany „Tweaks”, bo od wersji GNOME 3.28 tak właśnie nazwano jego pakiet w wielu dystrybucjach. Z mojego doświadczenia wynika, że korzystanie z tego programu jest dużo prostsze niż kombinowanie z plikami konfiguracyjnymi czy narzędziami stricte terminalowymi. To narzędzie nie tylko ułatwia personalizację wyglądu, ale też pozwala na szybkie przywrócenie ustawień, gdyby coś poszło nie tak. Dobrą praktyką jest też połączenie korzystania z Tweaks z rozszerzeniami GNOME, bo wtedy można wycisnąć z tego środowiska naprawdę sporo. GNOME Tweak Tool jest dostępny praktycznie we wszystkich popularnych dystrybucjach, od Ubuntu, przez Fedora, po Arch Linux. Nie wymaga zaawansowanej wiedzy, więc nawet początkujący poradzą sobie z podstawową konfiguracją. W świecie Linuksa to wręcz standard, żeby do najważniejszych środowisk graficznych były dedykowane narzędzia konfiguracyjne, bo ręczna edycja plików jest w dzisiejszych czasach po prostu niepraktyczna. Podsumowując, korzystanie z GNOME Tweak Tool to przykład dobrej praktyki – szybka, bezpieczna i zgodna z zamierzeniami twórców metoda na personalizację środowiska GNOME.

Pytanie 31

Poniższy rysunek ilustruje ustawienia zapory ogniowej w ruterze TL-WR340G. Jakie zasady dotyczące konfiguracji zapory zostały zastosowane?

Ilustracja do pytania
A. Zapora jest aktywna, włączone jest filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "zezwalaj pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen wyłączone
B. Zapora jest dezaktywowana, włączone jest filtrowanie domen oraz wyłączone filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "zezwalaj pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie"
C. Zapora jest aktywna, filtrowanie adresów IP jest wyłączone, reguła filtrowania adresów IP jest ustawiona na opcję "odmów pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen włączone
D. Zapora jest aktywna, włączone jest filtrowanie adresów IP, reguła filtrowania adresów IP jest ustawiona na opcję "odmów pakietom nieokreślonym jakimikolwiek regułami filtrowania przejść przez urządzenie", filtrowanie domen wyłączone
Prawidłowa odpowiedź wskazuje, że zapora jest włączona, co jest podstawowym krokiem w zabezpieczaniu sieci. Włączenie zapory ogniowej zapewnia monitorowanie i kontrolę nad przychodzącym i wychodzącym ruchem sieciowym, co jest kluczowe dla ochrony przed nieautoryzowanym dostępem. Dodatkowo, włączone filtrowanie adresów IP pozwala administratorom sieci na ustanowienie reguł, które mogą ograniczać dostęp do określonych zasobów w oparciu o adresy IP. Wybór reguły zezwalającej na przepuszczenie pakietów nieokreślonych przez żadne reguły filtrowania jest istotny, gdyż pozwala na elastyczne zarządzanie ruchem sieciowym, unikając niezamierzonych blokad. Wyłączenie filtrowania domen oznacza, że nie ma ograniczeń co do dostępu do sieci na podstawie nazw domen, co może być przydatne w środowiskach, gdzie konieczna jest swoboda dostępu do różnych zasobów internetowych. W praktyce taka konfiguracja może być stosowana w małych biurach, gdzie elastyczność i bezpieczeństwo muszą iść w parze ze względną prostotą zarządzania siecią. Stosowanie się do standardów przemysłowych, takich jak ISO/IEC 27001, wymaga implementacji odpowiednich środków zabezpieczających, a zapora ogniowa jest jednym z podstawowych elementów tych środków.

Pytanie 32

Jaki wydruk w systemie rodziny Linux uzyskamy po wprowadzeniu komendy

dr-x------  2 root root       0 lis 28 12:39 .gvfs
-rw-rw-r--  1 root root  361016 lis  8  2012 history.dat
-rw-r--r--  1 root root   97340 lis 28 12:39 .ICEauthority
drwxrwxr-x  5 root root    4096 paź  7  2012 .icedtea
drwx------  3 root root    4096 cze 27 18:40 .launchpadlib
drwxr-xr-x  3 root root    4096 wrz  2  2012 .local
A. free
B. ls -la
C. pwd
D. ps
Komenda ls -la w systemie Linux jest używana do wyświetlania szczegółowego wykazu plików i katalogów w bieżącym katalogu roboczym. Parametr -l oznacza długi format listingu, który zawiera informacje takie jak prawa dostępu, liczba linków, właściciel, grupa właściciela, rozmiar pliku, data ostatniej modyfikacji oraz nazwa pliku lub katalogu. Natomiast parametr -a powoduje uwzględnienie plików ukrytych, które w systemach uniksowych są oznaczane kropką na początku nazwy. Wydruk przedstawiony w pytaniu pokazuje właśnie taki szczegółowy listing z plikami ukrytymi, co potwierdza użycie komendy ls -la. Tego rodzaju informacja jest nieoceniona dla administratorów systemów i programistów, którzy muszą zarządzać uprawnieniami i strukturą katalogów. Dobre praktyki branżowe zalecają regularne sprawdzanie zawartości katalogów, szczególnie w celu monitorowania uprawnień i zmian w plikach konfiguracyjnych. Komenda ls -la jest kluczowa w zrozumieniu struktury systemu plików i efektywnym zarządzaniu systemem operacyjnym Linux.

Pytanie 33

Aby zrealizować sieć komputerową w pomieszczeniu zastosowano 25 metrów skrętki UTP, 5 gniazd RJ45 oraz odpowiednią ilość wtyków RJ45 niezbędnych do stworzenia 5 kabli połączeniowych typu patchcord. Jaki jest całkowity koszt użytych materiałów do budowy sieci? Ceny jednostkowe stosowanych materiałów można znaleźć w tabeli.

MateriałCena jednostkowaKoszt
Skrętka UTP1,00 zł/m25 zł
Gniazdo RJ455,00 zł/szt.25 zł
Wtyk RJ453,00 zł/szt.30 zł
A. 50 zl
B. 75 zł
C. 90 zł
D. 80 zł
Koszt wykonanych materiałów do sieci komputerowej obliczamy na podstawie jednostkowych cen podanych w tabeli. Wykorzystano 25 metrów skrętki UTP, co przy cenie 1 zł za metr daje 25 zł. Następnie mamy 5 gniazd RJ45, które kosztują 10 zł za sztukę, co daje łącznie 50 zł. Jeśli chodzi o wtyki RJ45, musimy zarobić 5 kabli patchcord, a każdy kabel wymaga jednego wtyku na każdym końcu, co oznacza, że potrzebujemy 10 wtyków. Cena jednego wtyku wynosi 0,50 zł, więc 10 wtyków kosztuje 5 zł. Teraz sumując wszystkie koszty: 25 zł (skrętka UTP) + 50 zł (gniazda) + 5 zł (wtyki) = 80 zł. To podejście ilustruje, jak ważne jest dokładne przeliczenie kosztów materiałów w projektach sieciowych oraz zastosowanie praktycznej znajomości cen jednostkowych w budżetowaniu. Dobrze jest również mieć świadomość, że w branży IT i telekomunikacyjnej, precyzyjne szacowanie kosztów materiałów przyczynia się do efektywnego zarządzania budżetami projektów.

Pytanie 34

Jakiego rodzaju fizycznej topologii sieci komputerowej dotyczy przedstawiony obrazek?

Ilustracja do pytania
A. Częściowej siatki
B. Wzór gwiazdy
C. Połączenia punkt-punkt
D. Pełnej siatki
Topologia pełnej siatki to aranżacja sieci, w której każdy węzeł jest bezpośrednio połączony z każdym innym węzłem. Taka struktura zapewnia wysoką redundancję i niezawodność, ponieważ awaria jednego połączenia nie wpływa na inne, a dane mogą być przesyłane różnymi ścieżkami. Jest to idealne rozwiązanie w sytuacjach, gdzie niezawodność i dostępność są kluczowe, na przykład w systemach finansowych czy komunikacji wojskowej. Koszty wdrożenia i utrzymania są jednak wysokie ze względu na dużą liczbę połączeń potrzebnych do pełnego pokrycia sieci. W praktyce, pełna siatka jest rzadko stosowana w fizycznej formie, ale jej koncepcja jest wykorzystywana w wirtualnych sieciach komputerowych, w których połączenia są realizowane za pomocą odpowiednich protokołów. Implementacja takiej topologii zgodna jest z dobrymi praktykami przemysłowymi w zakresie zapewnienia ciągłości działania i bezpieczeństwa transmisji danych.

Pytanie 35

Kabel typu skrętka, w którym pojedyncza para żył jest pokryta folią, a całość kabla jest osłonięta ekranem z folii i siatki, oznacza się symbolem

A. U/UTP
B. U/FTP
C. SF/FTP
D. SF/UTP
Odpowiedź SF/FTP jest prawidłowa, ponieważ oznacza kabel typu skrętka, w którym każda para żył jest dodatkowo izolowana folią, a cały kabel jest osłonięty ekranem z folii i siatki. Skrót SF oznacza 'Shielded Foiled', co wskazuje na ekranowanie zarówno na poziomie poszczególnych par, jak i na poziomie całego kabla. Tego rodzaju konstrukcja pozwala na znaczne ograniczenie zakłóceń elektromagnetycznych, co jest kluczowe w zastosowaniach, gdzie stabilność i jakość sygnału są niezbędne, takich jak sieci komputerowe w biurach lub systemy telekomunikacyjne. Kabel SF/FTP jest idealny do instalacji w miejscach z dużym natężeniem zakłóceń, takich jak blisko urządzeń elektronicznych czy w obszarach przemysłowych. Zgodnie z normami ISO/IEC 11801 oraz ANSI/TIA-568, stosowanie ekranowanych kabli w środowiskach o wysokim poziomie interferencji jest zalecane, co czyni ten typ kabla popularnym w nowoczesnych instalacjach sieciowych.

Pytanie 36

Moc zasilacza wynosi 450 W, co oznacza, że

A. 0,045 hW
B. 4,5 MW
C. 0,45 kW
D. 45 GW
Moc zasilacza wynosząca 450 W (watów) jest równoważna 0,45 kW (kilowatów), co można obliczyć dzieląc wartość w watach przez 1000. Kilowaty to jednostka mocy, która często jest używana w kontekście zasilania urządzeń elektrycznych i systemów energetycznych. Przykładowo, sprzęt komputerowy, zasilacze do gier czy urządzenia domowe często podawane są w watach, jednak dla większych instalacji, takich jak panele słoneczne czy systemy grzewcze, moc wyrażana jest w kilowatach. Znajomość przelicznika między tymi jednostkami jest kluczowa przy projektowaniu instalacji elektrycznych, aby odpowiednio dobrać zasilacz do potrzeb urządzenia oraz zapewnić efektywność energetyczną. Standardy branżowe, takie jak IEC 61000, zalecają dokładne określenie mocy zasilającej, aby uniknąć przeciążeń i uszkodzeń sprzętu. Zrozumienie tych pojęć jest niezbędne dla każdego profesjonalisty w dziedzinie elektrotechniki.

Pytanie 37

Według modelu TCP/IP protokoły DNS, FTP i SMTP są przypisane do warstwy

A. transportowej
B. internetowej
C. aplikacji
D. dostępu do sieci
Protokół DNS (Domain Name System), FTP (File Transfer Protocol) oraz SMTP (Simple Mail Transfer Protocol) są klasycznymi przykładami protokołów działających na poziomie warstwy aplikacji w modelu TCP/IP. Warstwa aplikacji jest odpowiedzialna za interakcję z użytkownikami oraz aplikacjami, co oznacza, że to w tej warstwie odbywa się wymiana danych w formacie zrozumiałym dla użytkownika. Protokół DNS jest niezbędny do przekształcania nazw domen na adresy IP, co umożliwia przeglądanie stron internetowych. FTP pozwala na transfer plików pomiędzy komputerami, a SMTP jest używany do wysyłania wiadomości e-mail. Zgodnie z najlepszymi praktykami branżowymi, protokoły te muszą być zgodne z określonymi standardami, co zapewnia interoperacyjność oraz bezpieczeństwo. Na przykład, FTP może być zabezpieczony przez użycie FTPS lub SFTP, co chroni dane podczas transferu. Zrozumienie funkcji i zastosowania tych protokołów jest kluczowe dla każdej osoby zajmującej się sieciami komputerowymi.

Pytanie 38

Usługa odpowiedzialna za konwersję nazw domen na adresy sieciowe to

A. DNS
B. DHCP
C. SMTP
D. SNMP
Odpowiedź, że DNS (System Nazw Domenowych) jest poprawna. To dzięki tej usłudze możemy zamieniać nazwy domen na adresy IP, co jest kluczowe do komunikacji w Internecie. DNS działa jak rozproszony system baz danych, który gromadzi informacje o nazwach domen i odpowiada na pytania, jakie adresy IP są im przypisane. Przykładowo, kiedy wpisujesz w przeglądarkę adres, taki jak www.example.com, komputer wysyła pytanie do serwera DNS i ten odsyła odpowiedni adres IP, co pozwala na połączenie z serwerem. W zarządzaniu DNS warto pamiętać o dobrych praktykach, jak używanie rekordów CNAME do aliasowania nazw czy rekordów MX do obsługi poczty. O bezpieczeństwo także powinno się zadbać, używając DNSSEC, które chroni przed atakami. Warto też wiedzieć, że rozwój Internetu i wprowadzenie IPv6 wymusiło pewne zmiany w DNS, co pozwoliło lepiej radzić sobie z coraz większą liczbą urządzeń w sieci.

Pytanie 39

Sprzętem, który umożliwia wycinanie wzorów oraz grawerowanie w różnych materiałach, takich jak drewno, szkło i metal, jest ploter

A. bębnowy
B. laserowy
C. tnący
D. solwentowy
Wybór plotera tnącego, bębnowego czy solwentowego jako alternatywy dla plotera laserowego wiąże się z pewnymi fundamentalnymi nieporozumieniami w zakresie technologii cięcia i grawerowania. Ploter tnący, na przykład, opiera się na mechanicznej metodzie wycinania, co ogranicza jego precyzję oraz możliwości w zakresie skomplikowanych wzorów. Takie maszyny zazwyczaj używane są do cięcia prostych kształtów w cienkich materiałach, jak papier czy folia, co sprawia, że nie nadają się do bardziej wymagających zadań, takich jak grawerowanie w metalu czy szkle. Ploter bębnowy, z kolei, jest przeznaczony głównie do druku oraz skanowania, a nie do wycinania, co czyni go mało użytecznym w kontekście tego pytania. Ploter solwentowy, zbudowany z myślą o drukowaniu grafik na różnorodnych podłożach, również nie spełnia funkcji wycinania czy grawerowania, co podkreśla, że jego zastosowanie jest ograniczone do produkcji reklam i banerów. Kluczowe jest zrozumienie, że technologia laserowa oferuje nieporównywalne możliwości w zakresie precyzji oraz wszechstronności, a wybór nieodpowiedniego urządzenia może prowadzić do znaczących ograniczeń w realizacji projektów oraz niezadowolenia z uzyskanych rezultatów.

Pytanie 40

Która z wymienionych czynności konserwacyjnych związana jest wyłącznie z drukarką laserową?

A. Czyszczenie prowadnic karetki
B. Oczyszczenie traktora
C. Usunięcie zabrudzeń z zespołu czyszczącego głowice
D. Czyszczenie luster i soczewek
Czyszczenie luster i soczewek to naprawdę ważna sprawa, jeśli chodzi o dbanie o drukarki laserowe. Te elementy są kluczowe, bo to one odpowiadają za kierowanie lasera, co wpływa na to, jak dobrze wydruk wygląda. Z czasem mogą się na nich gromadzić różne zanieczyszczenia, co może sprawić, że obraz będzie mniej wyraźny. Dlatego warto regularnie je czyścić, najlepiej stosując się do zaleceń producentów, jak na przykład ISO 9001. Używanie odpowiednich środków czyszczących i narzędzi jest istotne, bo chcemy uniknąć uszkodzenia tych delikatnych powierzchni. Ciekawe jest też to, że niektóre drukarki laserowe mają systemy, które monitorują stan optyki, co znacznie ułatwia dbanie o sprzęt.